手册下载
H3C 鲲鹏服务器 RAID控制卡 用户指南-6W102-整本手册.pdf (45.58 MB)
|
||
|
|
|
|
||
H3C 鲲鹏服务器 RAID控制卡 |
|
|
用户指南 |
|
|
|
||
|
||
|
||
资料版本:6W102-20240612 |
|
|
|
||
|
|
|
|
|
||
|
|||
|
注意 |
|
|
|
由于产品版本升级或其他原因,本文档内容会不定期进行更新。除非另有约定,本文档仅作为使用指导,本文档中的所有陈述、信息和建议不构成任何明示或暗示的担保。 |
|
目 录
2.2.7 RAID 10ADM或RAID 10Triple
7.6.2.1 View Controller Properties
7.6.2.2 Change Controller Properties
7.6.2.5 Manage Foreign Configuration
7.6.2.6 Save Controller Events
7.6.3.1 Manage Virtual Disk Properties
7.6.3.2 Select Virtual Disk Operations
7.6.4 Physical Disk Management
7.6.4.1 View Physical Disk Properties
7.6.4.2 Select Physical Disk Operations
8.4.10.3 在普通虚拟磁盘上启用SSD Caching
8.5.1.3 硬盘状态为Unconfigured Bad或UBad
8.5.4 Device Manager中RAID控制卡状态显示Not Healthy
8.5.4.2 There are offline or missing virtual drives with preserved cache
8.5.4.3 The following VDs have missing disks
8.5.4.4 Number of disks exceeded the maximum supported count of 32 disks
8.5.4.5 Memory/battery problems were detected / Unexpected power-loss occurred
8.6.2.1 Configuration Management
8.6.2.3 Virtual Drive Management
8.6.4 View Foreign Configuration
8.6.7 Manage MegaRAID Advanced Software Options
8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息
8.7.2.29 设置BIOS Stop on Error功能...
8.7.2.30 查询和清除PreservedCache数据...
9.5.1.3 硬盘状态为Unconfigured Bad或UBad
9.5.4 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy
9.5.4.1 The following VDs have missing disks
9.5.4.2 There are offline or missing virtual drives with preserved cache
9.5.4.4 Number of disks exceeded the maximum supported count of 32 disks
9.5.4.5 Memory/battery problems were detected / Unexpected power-loss occurred
9.5.4.6 Disabling writes to flash as the flash part has gone bad
9.5.6 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死
9.6.2.1 Configuration Management
9.6.2.3 Virtual Drive Management
9.6.4 View Foreign Configuration
9.6.7 Manage MegaRAID Advanced Software Options
9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息
9.7.2.29 设置BIOS Stop on Error功能...
9.7.2.32 查询和清除PreservedCache数据...
10.5.1.3 硬盘状态为Unconfigured Bad或UBad
10.5.4 Device Manager中RAID控制卡状态显示Not Healthy
10.5.4.1 The following VDs have missing disks
10.5.4.2 There are offline or missing virtual drives with preserved cache
10.5.4.4 Memory/battery problems were detected
10.5.4.5 Disabling writes to flash as the flash part has gone bad
10.5.5 将Controller Mode恢复为RAID
10.5.6 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死
10.6.2.1 Configuration Management
10.6.2.2 Controller Management
10.6.2.3 Virtual Drive Management
10.6.4 View Foreign Configuration
10.6.8 Manage MegaRAID Advanced Software Options
10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息
10.7.2.26 设置BIOS Stop on Error功能...
10.7.2.27 查询和清除PreservedCache数据...
11.5.1.3 硬盘状态为Unconfigured Bad或UBad
11.5.3 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy
11.5.3.1 The following VDs have missing disks
11.5.3.3 Disabling writes to flash as the flash part has gone bad
11.5.4 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死
11.5.5 将Controller Mode恢复为RAID
11.6.2.1 Configuration Management
11.6.2.2 Controller Management
11.6.2.3 Virtual Drive Management
11.6.4 Manage Foreign Configuration
11.6.7 Manage MegaRAID Advanced Software Options
11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息
11.7.2.23 设置BIOS Stop on Error功能...
12.4.12 设置硬盘状态为JBOD或Unconfigured Good
12.5.1.3 硬盘状态为Unconfigured Bad或UBad
12.5.3 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy
12.5.3.1 The following VDs have missing disks
12.5.3.3 Disabling writes to flash as the flash part has gone bad
12.5.4 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死
12.5.5 将Controller Mode恢复为RAID
12.6.2.1 Configuration Management
12.6.2.2 Controller Management
12.6.2.3 Virtual Drive Management
12.6.4 Manage Foreign Configuration
12.6.8 Manage MegaRAID Advanced Software Options
12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息
12.7.2.24 设置BIOS Stop on Error功能...
13.5.6.2 修改maxCache Array属性...
13.6.4 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy
13.7.3 Configure Controller Settings
13.7.3.1 Modify Controller Settings
13.7.3.2 Modify Cache Settings
13.7.3.3 Advanced Controller Settings
13.7.3.6 Manage Power Settings
13.7.3.7 Out of Band Messaging Settings
13.7.3.8 Configure Controller Port Mode
13.7.6 Set Bootable Device(s) for Legacy Boot Mode
13.8.2.2 查询物理硬盘、Array、LD、maxCache等相关信息
13.8.2.29 设置SSD I/O Bypass状态...
14.7.3 Configure Controller Settings
14.7.3.1 Modify Controller Settings
14.7.3.2 Advanced Controller Settings
14.7.3.4 Manage Power Settings
14.7.3.6 Configure Controller Port Mode
14.7.6 Set Bootable Device(s) for Legacy Boot Mode
14.8.2.19 设置SSD I/O Bypass状态...
15.5.1.3 硬盘状态为Unconfigured Bad或UBad
15.5.4 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy
15.5.4.1 The following VDs have missing disks
15.5.4.2 There are offline or missing virtual drives with preserved cache
15.5.4.4 Memory/battery problems were detected / Unexpected power-loss occurred
15.5.4.5 Disabling writes to flash as the flash part has gone bad
15.5.5 将Controller Mode恢复为RAID
15.5.6 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死
15.6.2.1 Configuration Management
15.6.2.2 Controller Management
15.6.2.3 Virtual Drive Management
15.6.4 View Foreign Configuration
15.6.7 Manage MegaRAID Advanced Software Options
15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息
15.7.2.27 设置BIOS Stop on Error功能...
15.7.2.30 查询和清除PreservedCache数据...
16.5.1.3 硬盘状态为Unconfigured Bad或UBad
16.5.3 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy
16.5.3.1 The following VDs have missing disks
16.5.3.3 Disabling writes to flash as the flash part has gone bad
16.5.4 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死
16.5.5 将Controller Mode恢复为RAID
16.6.2.1 Configuration Management
16.6.2.2 Controller Management
16.6.2.3 Virtual Drive Management
16.6.4 Manage Foreign Configuration
16.6.7 Manage MegaRAID Advanced Software Options
16.7.2.7 设置BIOS Stop on Error功能...
16.7.2.20 查询和设置Patrolread参数...
16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息
17 Avago MegaRAID SAS 9460-16i
17.5.1.3 硬盘状态为Unconfigured Bad或UBad
17.5.4 Device Manager中RAID控制卡状态显示Not Healthy
17.5.4.1 The following VDs have missing disks
17.5.4.2 There are offline or missing virtual drives with preserved cache
17.5.4.4 Memory/battery problems were detected
17.5.4.5 Disabling writes to flash as the flash part has gone bad
17.5.5 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死
17.5.6 将Controller Mode恢复为RAID
17.6.2.1 Configuration Management
17.6.2.2 Controller Management
17.6.2.3 Virtual Drive Management
17.6.4 Manage Foreign Configuration
17.6.8 Manage MegaRAID Advanced Software Options
17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息
17.7.2.22 设置BIOS Stop on Error功能...
17.7.2.28 查询和清除PreservedCache数据...
18.5.1.5 硬盘状态为Unconfigured Bad或UBad
18.5.3 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy
The following VDs have missing disks
18.5.4 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死
18.5.5 将Controller Mode恢复为RAID
18.6.1.6.2 Create Profile Based Virtual Drive
18.6.1.6.3 View Drive Group Properties
18.6.1.6.5 Make Unconfigured Good
18.6.1.6.6 Clear Configuration
18.6.1.7 Controller Management
Advanced Controller Management
18.6.1.7.7 Advanced Controller Properties
18.6.1.8 Virtual Drive Management
18.6.3 Manage Foreign Configuration
18.6.6 Manage MegaRAID Advanced Software Options
18.7.2.16 设置BIOS Stop on Error功能...
18.7.2.29 查询和设置Patrolread参数...
18.7.2.32 查询RAID控制卡/RAID组/物理硬盘信息
19.5.1.5 硬盘状态为Unconfigured Bad或UBad
19.5.4 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy
The following VDs have missing disks
19.5.5 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死
19.5.6 将Controller Mode恢复为RAID
19.6.2.6.2 Create Virtual Drive
19.6.2.6.3 Create Profile Based Virtual Drive
19.6.2.6.4 View Drive Group Properties
19.6.2.6.6 Clear Configuration
19.6.2.6.7 Manage Foreign Configuration
19.6.2.7 Controller Management
Advanced Controller Management
19.6.2.7.8 Advanced Controller Properties
19.6.2.8 Virtual Drive Management
19.6.2.10.9 Enclosure Management
19.6.4 View Foreign Configuration
19.6.7 Manage MegaRAID Advanced Software Options
19.7.2.17 设置BIOS Stop on Error功能...
19.7.2.32 查询和设置Patrol read参数...
19.7.2.33 查询和设置Cache Flush参数...
19.7.2.36 查询RAID控制卡/RAID组/物理硬盘信息
19.7.2.42 查询和设置bootwithpinnedcache参数
20.5.1.6 硬盘状态为Unconfigured Bad或UBad
20.5.4 Device Manager中RAID控制卡状态显示Not Healthy
The following VDs have missing disks
20.5.4.7 There are offline or missing virtual drives with preserved cache
20.5.4.9 Memory/battery problems were detected
20.5.4.10 Disabling writes to flash as the flash part has gone bad
20.5.5 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死
20.5.6 将Controller Mode恢复为RAID
20.6.1.10.2 Create Virtual Drive
20.6.1.10.3 Create Profile Based Virtual Drive
20.6.1.10.4 View Drive Group Properties
20.6.1.10.5 View Global Hotspare Drives
20.6.1.10.7 Make Unconfigured Good
20.6.1.10.8 Clear Configuration
20.6.1.11 Controller Management
Advanced Controller Management
20.6.1.11.9 Advanced Controller Properties
20.6.1.12 Virtual Drive Management
20.6.3 Manage Foreign Configuration
20.6.7 Manage MegaRAID Advanced Software Options
20.7.2.16 查询RAID控制卡/RAID组/物理硬盘信息
20.7.2.17 查询和设置Patrolread参数...
20.7.2.21 查询和设置CacheFlush参数...
20.7.2.35 设置BIOS Stop on Error功能...
20.7.2.41 查询和清除PreservedCache数据...
21.5.5 控制卡运行大压力业务低概率出现map error
Advanced Controller Properties
21.6.1.11 Reset Default Configuration
21.6.2 Virtual Drive Management
21.6.2.13 View RAID Group Properties
21.6.2.14 Manage Foreign Configurations
21.6.3 Physical Drive Management
21.7.2.54 查看当前存在pinned cache的虚拟磁盘
21.7.4.82 查询和设置硬盘sanitize擦除...
22.5.3 控制卡运行大压力业务低概率出现map error
22.6.2 Virtual Drive Management
22.6.2.11 View RAID Group Properties
22.6.2.12 Manage Foreign Configuration
22.6.3 Physical Drive Management
概述
本文档为维护服务器的人员编写。介绍服务器的RAID控制卡的外观及特性、如何配置RAID、如何安装驱动软件等信息。
RAID控制卡仅在EFI或UEFI模式下支持安全启动,并使用BIOS提供的安全认证机制。
读者对象
本文档主要适用于以下人员:
l 企业管理员
l 企业终端用户
本文档认定读者对服务器产品有足够的了解,拥有足够的培训知识,在维护过程中不会造成人身伤害或产品损坏。
符号约定
在本文中可能出现下列标志,它们所代表的含义如下。
符号 |
说明 |
|
表示如不避免则将会导致死亡或严重伤害的具有高等级风险的危害。 |
|
表示如不避免则可能导致死亡或严重伤害的具有中等级风险的危害。 |
|
表示如不避免则可能导致轻微或中度伤害的具有低等级风险的危害。 |
|
用于传递设备或环境安全警示信息。如不避免则可能会导致设备损坏、数据丢失、设备性能降低或其它不可预知的结果。 “须知”不涉及人身伤害。 |
|
对正文中重点信息的补充说明。 “说明”不是安全警示信息,不涉及人身、设备及环境伤害信息。 |
RAID卡对应关系表
常见RAID卡的芯片对应关系如下。
表1-1 RAID卡对应关系表
RAID卡用户指南中的类型 |
芯片型号 |
BMC中显示型号 |
RAID卡厂商 |
Avago SAS3516 |
SAS3516 |
SP460C-M |
Huawei |
Avago SAS3408iMR |
SAS3408 |
SR150-M |
Huawei |
Avago SAS3508 |
SAS3508 |
SR450C-M |
Huawei |
Avago MegaRAID SAS 9440-8i |
SAS3408 |
LSI 9440-8i |
LSI |
Avago MegaRAID SAS 9460-8i |
SAS3508 |
LSI 9460-8i |
LSI |
Avago MegaRAID SAS 9460-16i |
SAS3516 |
LSI 9460-16i |
LSI |
由于现代数据中心业务量的与日俱增,单台服务器上需要运行的数据也日益增多。当单个物理硬盘在容量和安全性上不足以支持系统业务时,就需要将多个硬盘以某种特定方式组合起来,对外作为一个可见的硬盘来使用,才可满足实际需要。硬盘组,就是将一组物理硬盘组合起来,作为一个整体对外体现,是虚拟磁盘的基础。
虚拟磁盘,即使用硬盘组划分出来的连续的数据存储单元,相当于一个个独立的硬盘,通过一定的配置,使其具有比单个物理硬盘更大的容量,及更高的安全性和数据冗余性。
一个虚拟磁盘可以是:
l 一个完整的硬盘组。
l 多个完整的硬盘组。
l 一个硬盘组的一部分。
l 多个硬盘组的一部分(每个硬盘组划分一部分,共同组成虚拟磁盘)。
在下文的描述中:
l 硬盘组一般会表述为“Drive Group”(简称“DG”)、“Array”、“RAID组”。
l 虚拟磁盘一般会表述为“Virtual Drive”、“Virtual Disk”(简称“VD”)、“Volume”、“Logical Device”(简称“LD”)等。
RAID(Redundant Array of Independent Disks)是将多块物理硬盘通过RAID控制卡组合成虚拟的单块大容量硬盘使用,从而提供比单个硬盘更高的存储性能、更高的I/O性能及可靠性。
RAID控制卡仅在EFI或UEFI模式下支持安全启动,并使用BIOS提供的安全认证机制。
RAID 0又称为条带化(Stripe)或分条(Striping),代表了所有RAID级别中最高的存储性能。RAID 0提高存储性能的原理是把连续的数据分散到多个硬盘上存取。这样,当系统有数据请求时就可以在多个硬盘上并行执行,每个硬盘执行属于它自己的那部分数据请求。这种数据上的并行操作可以充分利用总线的带宽,显著提高硬盘整体读写性能。但由于其没有数据冗余,无法保护数据的安全性,只能适用于I/O速率要求高,但数据安全性要求低的场合。
处理流程
如图2-1所示,系统向三块硬盘组成的逻辑硬盘(RAID 0硬盘组)发出的I/O数据请求被转化为三项操作,其中的每一项操作都对应于一块物理硬盘。
通过建立RAID 0,原先顺序的数据请求被分散到所有的三块硬盘中同时执行。
三块硬盘的并行操作在理论上使同一时间内硬盘读写速度提升了3倍。虽然由于总线带宽等多种因素的影响,实际的提升速率会低于理论值,但是大量数据并行传输与串行传输比较,提速效果显著。
RAID 1又称镜像(Mirror或Mirroring),即每个工作盘都有一个镜像盘,每次写数据时必须同时写入镜像盘,读数据时同时从工作盘和镜像盘读出。当更换故障盘后,数据可以重构,恢复工作盘正确数据。RAID 1可靠性高,但其有效容量减小到总容量一半,因此常用于对容错要求较高的应用场合,如财政、金融等领域。
处理流程
如图2-2所示,系统向两块硬盘组成的逻辑硬盘(RAID 1硬盘组)发出I/O数据请求。
l 向硬盘Drive 0写入数据时,系统会同时把用户写入Drive 0的数据自动复制到Drive 1上。
l 读取数据时,系统同时从Drive 0和Drive 1读取。
l 仅MSCC SmartRAID 3152-8i和FBGF-RAD-R1-S1支持此RAID级别。
l RAID 1Triple即RAID 1ADM,MSCC SmartRAID 3152-8i在FW版本4.72后将RAID 1ADM更名为RAID 1Triple。
RAID 1ADM的每个工作盘都有两个镜像盘,每次写数据时必须同时写入镜像盘,读数据时同时从工作盘和镜像盘读出。当更换故障盘后,数据可以重构,恢复工作盘正确数据。RAID 1ADM可靠性比RAID 1高,但其有效容量减小到总容量的三分之一,因此常用于对容错要求较高的应用场合,如财政、金融等领域。
处理流程
如图2-3所示,系统向三块硬盘组成的逻辑硬盘(RAID 1ADM硬盘组)发出I/O数据请求。
l 向硬盘Drive 0写入数据时,系统会同时把用户写入Drive 0的数据自动复制到Drive 1和Drive 2上。
l 读取数据时,系统同时从Drive 0、Drive 1和Drive 2读取。
RAID 5是一种存储性能、数据安全和存储成本兼顾的存储解决方案。为保障存储数据的可靠性,采用循环冗余校验方式,并将校验数据分散存储在RAID的各成员盘上。当RAID的某个成员盘出现故障时,通过其他成员盘上的数据可以重新构建故障硬盘上的数据。RAID 5既适用于大数据量的操作,也适用于各种小数据的事务处理,是一种快速、大容量和容错分布合理的磁盘阵列。
处理流程
如图2-4所示,PA为A0、A1和A2的奇偶校验信息,PB为B0、B1和B2的奇偶校验信息,以此类推。
RAID 5不对存储的数据进行备份,而是把数据和相对应的奇偶校验信息存储到成员盘上,并且奇偶校验信息和相对应的数据分别存储于不同的硬盘上。当RAID 5的一个硬盘数据发生损坏后,利用剩下的数据和相应的奇偶校验信息可以恢复被损坏的数据。
RAID 5可以理解为是RAID 0和RAID 1的折衷方案:
l RAID 5可以为系统提供数据安全保障,但保障程度要比RAID 1低而硬盘空间利用率要比RAID 1高,存储成本相对较低。
l RAID 5具有较RAID 0略低的数据读写速度,但写性能比写入单个硬盘时要高。
在RAID 5的基础上,RAID 6增加了第二个独立的奇偶校验信息块。两个独立的奇偶系统使用不同的算法,数据的可靠性非常高,即使两块硬盘同时失效也不会影响数据的使用。但RAID 6需要分配给奇偶校验信息更大的硬盘空间,相对于RAID 5有更大的“写损失”,因此“写性能”较差。
处理流程
如图2-5所示,PA为数据块A0、A1、A2的第一个校验信息块,QA为第二个校验信息块;PB为数据块B0、B1、B2的第一个校验信息框,QB为第二个校验信息块,以此类推。
数据块和校验块一起分散存储到RAID 6的各个成员盘上。当任意一个或两个成员硬盘出现故障时,控制卡可以从其他处于正常状态的硬盘上重新恢复或生成丢失的数据而不影响数据的可用性。
RAID 10是将镜像和条带进行两级组合的RAID级别,即RAID 1+RAID 0的组合形式,第一级是RAID 1,第二级是RAID 0。RAID 10是存储性能和数据安全兼顾的方案。它在提供与RAID 1一样的数据安全保障的同时,也提供了与RAID 0近似的存储性能。
处理流程
如图2-6所示,Drive 0和Drive 1组成一个子组0,Drive 2和Drive 3组成一个子组1,子组内的两个硬盘互为镜像。
系统向硬盘发出I/O数据请求时,原先顺序的数据请求按照RAID 0的方式,被分散到两个子组中并行执行,同时通过RAID 1的方式,系统在向硬盘Drive 0写入数据的同时把数据自动复制到硬盘Drive 1上,向硬盘Drive 2写入数据的同时把数据自动复制到硬盘Drive 3上。
l 仅MSCC SmartRAID 3152-8i和FBGF-RAD-R1-S1支持此RAID级别。
l RAID 10Triple即RAID 10ADM,MSCC SmartRAID 3152-8i在FW版本4.72后将RAID 10ADM更名为RAID 10Triple。
RAID 10ADM是将镜像和条带进行两级组合的RAID级别,即RAID 1ADM+RAID 0的组合形式,第一级是RAID 1ADM,第二级是RAID 0。RAID 10ADM是存储性能和数据安全兼顾的方案。它在提供与RAID 1ADM一样的数据安全保障的同时,也提供了与RAID 0近似的存储性能。
处理流程
如图2-7所示,Drive 0、Drive 1和Drive 2组成一个子组0,Drive 3、Drive 4和Drive 5组成一个子组1,子组内的硬盘互为镜像。
系统向硬盘发出I/O数据请求时,原先顺序的数据请求按照RAID 0的方式,被分散到两个子组中并行执行,同时通过RAID 1ADM的方式,系统在向硬盘Drive 0写入数据的同时把数据自动复制到硬盘Drive 1和Drive 2上,向硬盘Drive 3写入数据的同时把数据自动复制到硬盘Drive 4和Drive 5上。
RAID 1E为RAID 1的增强版,工作原理与RAID 1类似。RAID 1E的数据条带及数据备份贯穿在逻辑盘中所有的硬盘当中。跟RAID 1类似,数据是镜像的,逻辑盘的容量是硬盘总容量的一半,可提供数据冗余功能及较高的性能。然而,RAID 1E允许使用更多的物理硬盘,至少由三个硬盘组成。
处理流程
如图2-8所示,系统向三块硬盘组成的逻辑硬盘(RAID 1E硬盘组)发出I/O数据请求。条带数据均匀分布在3个硬盘中,任意一个条带数据都在其他硬盘中有自己的备份。此时,如果有单个硬盘故障,不会造成数据丢失。
RAID 50被称为镜像阵列条带,即RAID 5+RAID 0的组合形式。像RAID 0一样,数据被分区成条带,在同一时间内向多块硬盘写入;像RAID 5一样,也是以数据的校验位来保证数据的安全,且校验条带均匀分布在各个硬盘上。
处理流程
如图2-9所示,PA为A0、A1和A2的奇偶校验信息,PB为B0、B1和B2的奇偶校验信息,以此类推。
RAID 50是RAID 5与RAID 0两种技术的结合,一个RAID 50由多个RAID 5子组组成,数据的存储访问以RAID 0的形式分布在各个RAID 5子组上。依靠RAID 5提供的冗余功能,在子组内部任意一个硬盘故障时,阵列均可正常工作并恢复出故障硬盘的信息。同样,故障硬盘的更换不会影响业务的正常进行。因此,RAID 50可以容忍多个子组同时单盘故障,这是单纯RAID 5技术无法做到的。同时,由于数据分布在多个子组上,阵列可以提供更加优秀的读写性能。
RAID 60同RAID 50类似,数据采用镜像阵列条带分布方式,即RAID 6 + RAID 0的组合形式。像RAID 0一样,数据被分区成条带,在同一时间内向多块硬盘写入;像RAID 6一样,以两个数据校验模块来保证数据的安全,且校验条带均匀分布在各个硬盘上。
处理流程
如图2-10所示,PA为A0、A1和A2的校验信息1,QA为A0、A1和A2的校验信息2,PB为B0、B1和B2的校验信息1,QB为B0、B1和B2的校验信息2,以此类推。
RAID 60是RAID 6与RAID 0两种技术的结合,一个RAID 60由多个RAID 6子组组成,数据的存储访问以 RAID 0的形式分布在各个RAID 6子组上。依靠RAID 6提供的冗余功能,在子组内部任意两个硬盘故障,阵列均可正常工作并恢复出故障硬盘的信息。同样,故障硬盘的更换不会影响业务的正常进行。
l RAID 0:不提供容错功能。任意一个成员盘出现故障,都会导致数据丢失。通过条带化方式同时在多个成员盘中写入数据。RAID 0对于需要高性能但不需要容错的应用场景非常理想。
l RAID 1:提供100%的数据冗余能力。当一个成员盘故障时,可以使用RAID组中对应的其他硬盘的数据来运行系统,并重构故障盘。因为一个成员盘的内容会完全备份写入另一个硬盘, 所以如果其中一个成员盘出现故障,则不会丢失任何数据。成对的成员盘在任何时候都包含相同的数据。RAID 1组是需要最大容错能力和最小容量要求的应用场景的理想选择。
l RAID 5:结合了分布式奇偶校验和硬盘条带化。奇偶校验在不需要备份全部硬盘内容的情况下,为1个硬盘提供了冗余特性。当一个成员盘故障时,RAID控制卡使用奇偶校验数据来重构所有丢失的信息。RAID 5使用较小的系统开销为系统提供了足够的容错能力。
l RAID 6:结合了分布式奇偶校验和硬盘条带化。奇偶校验在不需要备份全部硬盘内容的情况下,为2个硬盘提供了冗余特性。当一个成员盘故障时,RAID控制卡使用奇偶校验数据来重构所有丢失的信息。RAID 6使用较小的系统开销为系统提供了足够的容错能力。
l RAID 10:使用多个RAID 1提供完整的数据冗余能力。RAID 10对所有需要通过镜像硬盘组提供100%冗余能力的场景都适用。
l RAID 50:使用多个RAID 5的分布式奇偶校验提供数据冗余能力。在保证数据完整性的情况下,每个RAID 5分组允许1个成员盘故障。
l RAID 60:使用多个RAID 6的分布式奇偶校验提供数据冗余能力。在保证数据完整性的情况下,每个RAID 6分组允许2个成员盘故障。
RAID组可作为一个单独的存储单元或多个虚拟单元被系统使用。由于可以同时访问多个硬盘,使得针对RAID组的I/O读写速率较普通硬盘更高。
l RAID 0:提供优异的性能。RAID 0将数据分割为较小的数据块并写入到不同的硬盘中,由于可以同时对多个硬盘进行读写,RAID 0提升了I/O性能。
l RAID 1:由于RAID组中的硬盘都是成对出现,写数据时也必须同时写入2份,从而占用更多的时间和资源,导致性能降低。
l RAID 5:提供了较高的数据吞吐能力。由于成员盘上同时保留常规数据和校验数据,每个成员盘都可以独立读写,再加上完善的Cache算法,使得RAID 5在很多应用场景中都有出色的性能表现。
l RAID 6:在需要高可靠性、高响应率、高传输率的场景下,RAID 6是较为适合的RAID级别,其提供了高数据吞吐量、数据冗余性和较高的I/O性能。由于RAID 6需要为每个成员盘写入2套校验数据,导致其在写操作期间性能降低。
l RAID 10:由RAID 0子组提供高数据传输速率的同时,RAID 10在数据存储方面表现优异。I/O性能随着子组数量的增加而提升。
l RAID 50:在需要高可靠性、高响应率、高传输率的场景下,RAID 50表现最好。I/O性能随着子组数量的增加而提升。
l RAID 60:使用场景与RAID 50类似,但是由于每个成员盘必须写入2组奇偶校验数据,使得在写操作中性能降低,因此RAID 60不适用于大量写入任务。
l 当同一RAID控制卡下同时存在无需校验的RAID组(如RAID 0或RAID 1)和需要校验的RAID组(如RAID 5或RAID 6),且写策略均设置为Write Back时,需要校验的RAID组性能会下降,I/O wait增加。
l 建议将无需校验的RAID组写策略设置为Write Through,以免对需要校验的RAID组性能产生影响。
在选择RAID级别时,其存储容量也是一个重要参数。
l RAID 0:在指定一组硬盘后,同等情况下,RAID 0可以提供最大的存储容量,可用容量=成员盘最小容量×成员盘数量。
l RAID 1:由于对一个硬盘进行写入时,必须同时写入另一个硬盘,导致存储空间损耗。可用容量=成员盘最小容量。
l RAID 5:校验数据块与常规数据块隔离,因此整体上来说,校验数据会占用1个成员盘的容量。可用容量=成员盘最小容量×(成员盘数量-1)。
l RAID 6:由于2个独立的校验数据块与常规数据块隔离,整体上来说,校验数据会占用2个成员盘的容量。可用容量=成员盘最小容量×(成员盘数量-2)。
l RAID 10:可用容量=子组容量之和。
l RAID 50:可用容量=子组容量之和。
l RAID 60:可用容量=子组容量之和。
容错是指在子系统出现硬盘错误或硬盘故障时,可以保证数据完整性和数据处理能力。RAID控制卡通过冗余的硬盘组在RAID 1、5、6、10、50、60上实现此功能。
在RAID 1中,由于数据镜像存储于成对的硬盘上,因此在成对的硬盘中的一个产生错误或故障时,不会造成数据丢失。同理,在RAID 5中,允许1个硬盘故障;在RAID 6中,允许2个硬盘故障。
而对于包含多个子组的RAID,RAID 10、50允许故障盘的个数与子组数相同,但是要求每个子组只能包含1个故障盘。RAID 60允许故障盘的个数为子组数的2倍,要求每个子组最多包含2个故障盘。
RAID 0不支持容错特性,当RAID 0中的硬盘故障时,该RAID失效,数据丢失。
容错性能提高了系统的可用性,即硬盘故障时,系统仍可正常运行。因此,在故障修复流程中,容错是非常重要的特性。
针对有冗余功能的RAID 1、5、6、10、50、60,RAID控制卡可以对RAID组的硬盘数据进行一致性校验,对硬盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。
由于RAID 0不具备冗余性,因此不支持一致性校验。
建议每月至少进行一次一致性校验。
RAID控制卡的热备份特性由热备盘和紧急备份功能实现。
热备盘
热备盘是硬盘系统中的一个独立的硬盘,当RAID组中的硬盘故障时,热备盘自动取代故障盘作为成员盘,并在热备盘上重构故障盘数据。
在RAID控制卡的管理界面或命令行工具中,可以指定容量大于或等于RAID组成员盘,且介质类型及接口与成员盘相同的空闲盘作为RAID组的热备盘。
RAID控制卡支持的热备盘包括下面两种:
l 全局热备盘,为RAID控制卡上所有已配置的RAID组所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID组内的成员盘故障时,全局热备盘均可自动替代。
l 局部热备盘,为RAID控制卡上某个指定的RAID组所专有,每个RAID组都可以配置1个或多个局部热备盘。当指定RAID组内的成员盘故障时,局部热备盘可自动替换。
热备盘有如下特性:
l 热备盘仅用于具有冗余功能的RAID组,包括RAID 1、5、6、10、50、60。
l 热备盘仅用于替代同一RAID控制卡上的故障盘。
紧急备份
紧急备份功能,是指任意一个具备冗余功能的RAID组中出现成员盘故障且没有指定热备盘时,RAID控制卡下属的空闲盘会自动替代故障成员盘并进行重构,避免数据丢失。
紧急备份要求用于备份的空闲盘容量大于等于成员盘容量,且介质类型与成员盘相同。
当RAID组中出现故障盘时,可以通过RAID控制卡的数据重构功能,将故障盘中的数据在新盘上重构。数据重构功能仅适用于具有冗余功能的RAID 1、5、6、10、50、60。
RAID控制卡支持热备盘自动重构故障成员盘数据。当RAID组配置了可用的热备盘时,在成员盘故障的情况下,热备盘自动替换故障盘,进行数据重构;当RAID组没有可用的热备盘时,只有更换新盘后才可进行数据重构。当热备盘开始数据重构后,故障的成员盘就被标注为可移除状态。如果在数据重构过程中系统下电,那么在系统重新启动后,RAID控制卡会继续执行数据重构的任务。
重构率,即数据重构任务在系统运行的所占用CPU资源的比率,可设置为0%~100%。0%表示数据重构任务只有系统当前没有任何其他任务运行时,才会启动数据重构任务。100%表示数据重构任务占用所有CPU资源。重构率可由用户自行设置,建议根据系统的实际情况设置一个合适的取值。
RAID控制卡下属的物理硬盘有如表2-1所示的状态。
状态 |
说明 |
Available(AVL) |
硬盘可能未就绪,并且不适合在逻辑盘或热备池中使用。 |
Cfgincompat |
硬盘配置不兼容。 |
Copyback/Copybacking |
新盘正在替换热备盘。 |
Diagnosing |
硬盘状态正在诊断。 |
Degraded(DGD) |
硬盘是逻辑盘的一部分,处于降级状态。 |
Erase In Progress |
硬盘正在进行擦除。 |
Failed(FLD) |
当“Online”状态或“Hot Spare”状态的硬盘出现不可恢复的错误时,会体现为此状态。 |
Fault |
硬盘故障。 |
Foreign |
硬盘中包含外部配置。 |
Hot Spare(HSP) |
被设置为热备盘。 |
Inactive |
硬盘属于未激活逻辑盘的成员盘,在激活逻辑盘后方可使用硬盘。 |
JBOD |
硬盘以直通方式使用。 |
Missing(MIS) |
“Online”状态的硬盘被拔出后,体现为此状态。 |
Offline |
为某个虚拟磁盘的成员盘,不可正常使用,处于离线状态。 |
Online(ONL) |
为某个虚拟磁盘的成员盘,可正常使用,处于在线状态。 |
Optimal |
硬盘状态是正常的,且是逻辑盘的一部分。 |
Out of Sync(OSY) |
硬盘作为IR逻辑盘的一部分,与该逻辑盘中的其他硬盘不同步。 |
Predictive Failure |
硬盘即将变为Failed状态,应备份硬盘上的数据,并更换硬盘。 |
Raw(Pass Through) |
HBA模式下裸盘。 |
Raw Drive |
硬盘以裸盘方式使用。 |
Ready(RDY) |
适用于RAID控制卡的RAID/Mixed模式,硬盘可用于配置RAID组,RAID模式下Ready状态的硬盘不上报操作系统(以下简称“OS”),Mixed模式下Ready状态的硬盘会上报OS。 |
Rebuild/Rebuilding(RBLD) |
硬盘正在进行数据重构,以保证虚拟磁盘的数据冗余性和完整性,此时虚拟磁盘的性能会受一定程度的影响。 |
Reconstructing |
硬盘正在进行数据重构,以保证虚拟磁盘的数据冗余性和完整性,此时虚拟磁盘的性能会受一定程度的影响。 |
Spare |
硬盘为热备盘,且状态正常。 |
Shield State |
物理硬盘在做诊断操作时的临时状态。 |
Standby(SBY) |
设备不是硬盘设备。 |
Unconfigured Good(ugood/ucfggood) |
硬盘状态正常,但不是虚拟磁盘的成员盘或热备盘。 |
Unconfigured Bad(ubad) |
“Unconfigured Good”状态硬盘或未初始化的硬盘,出现无法恢复的错误时,会体现为此状态。 |
Unknown |
硬盘状态未知。 |
Unsupport |
硬盘规格超过RAID控制卡当前规格。 |
RAID控制卡下创建的虚拟磁盘有如表2-2所示的状态。
状态 |
说明 |
Degrade/Degraded(DGD) |
虚拟磁盘可用但状态异常,存在成员盘故障或离线的情况。用户数据未收到保护。 |
Delete fail |
执行删除失败。 |
Deleting |
正在删除此虚拟磁盘。 |
Failed(FLD) |
虚拟磁盘故障。 |
Fault |
虚拟磁盘故障。 |
Formatting |
正在格式化中。 |
Inactive |
虚拟磁盘处于未激活状态,在激活后方可使用。 |
Inc RAID |
不支持SMART或SATA扩展命令。 |
Initializing(INIT) |
正在初始化。 |
Initialize fail |
初始化失败。 |
Interim Recovery |
RAID组降级,因为RAID组中存在故障盘,使得RAID组运行性能降低,数据可能丢失。要解决此问题,请检查硬盘是否正确连接设备,或更换故障的硬盘。 |
Max Dsks |
RAID组支持的硬盘数量已达到最大数,该硬盘不能被加入RAID中。 |
Missing(MIS) |
虚拟磁盘丢失。 |
Not formatted |
未格式化。 |
Not Syncd |
该硬盘上面的数据与逻辑盘中其他硬盘的数据不同步。 |
Normal |
虚拟磁盘状态正常,所有成员盘均在线。 |
Offline |
当RAID组中的物理硬盘故障或离线的数量超过该RAID组级别支持的最大故障硬盘的数量时,RAID组会体现为该状态。 |
Online(ONL) |
虚拟磁盘处于在线状态。 |
Optimal |
虚拟磁盘状态良好,所有成员盘均在线。 |
Okay(OKY) |
虚拟磁盘处于活动状态,驱动器运行正常。如果当前RAID级别提供数据保护,则用户数据将受到保护。 |
Partial Degraded |
当RAID组中的物理硬盘故障或离线的数量未超过该RAID组级别支持的最大故障硬盘的数量时,RAID组会体现为部分降级状态。 |
Primary |
该硬盘为RAID1中的主盘且状态正常。 |
Ready for Rebuild |
准备执行重构。 |
Sanitizing |
虚拟磁盘正在执行数据擦除。 |
Secondary |
该硬盘为RAID1中的从盘且状态正常。 |
Tool Small |
硬盘容量过小,不能用于当前RAID组的热备盘。 |
Wrg Intfc |
硬盘接口与当前RAID组中的硬盘接口不同。 |
Wrg Type |
该硬盘不能作为该RAID组的成员盘,可能不兼容或者硬盘故障。 |
Write_protect |
虚拟磁盘处于写保护中。 |
在创建虚拟磁盘时,会需要对其数据读写策略进行定义,以规范后续虚拟磁盘运行过程中数据的读写方式。
数据读策略
在配置界面中一般体现为“Read Policy”。RAID控制卡支持如下两种数据读策略:
l 预读取方式:在配置界面中一般有“Always Read Ahead”、“Read Ahead”、“Ahead”等配置选项。使用此策略后,从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。
要使用该策略,要求RAID控制卡支持数据掉电保护功能,但如果此时超级电容异常,可能导致数据丢失。
l 非预读取方式:使用此策略后,RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。
数据写策略
在配置界面中一般体现为“Write Policy”。RAID控制卡支持如下数据写策略:
l 回写:在配置界面中一般体现为“Write Back”等字样。使用此策略后,需要向虚拟磁盘写数据时,会直接写入Cache中,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到虚拟磁盘,这样不但实现了批量写入,而且提升了数据写入的速度。当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。
要使用该策略,要求RAID控制卡支持数据掉电保护功能,但如果此时超级电容异常,可能导致数据丢失。
l 直写:在配置界面中一般有“Write Through”等选项。使用此策略后,RAID控制卡向虚拟磁盘直接写入数据,不经过Cache。当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。
此种方式不要求RAID控制卡支持数据掉电保护功能,即使超级电容故障,也无影响。该写策略的缺点是写入速度较低。
l 与BBU相关的回写:在配置界面中一般有“Write Back with BBU”等选项。使用此策略后,当RAID控制卡BBU在位且状态正常时,RAID控制卡到虚拟磁盘的写操作会经过Cache中转(即回写方式);当RAID控制卡BBU不在位或BBU故障时,RAID控制卡到虚拟磁盘的写操作会自动切换为不经过Cache的直接写入(即写通方式)。
l 强制回写:在配置界面中一般体现为“Write Back Enforce”、“Always Write Back”等字样。在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。
当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。
掉电保护的原理
数据写入RAID控制卡高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用RAID控制卡高速缓存来提升系统性能。
l 开启RAID控制卡高速缓存可提升整机写性能,当服务器写压力减小或RAID控制卡高速缓存将写满时,数据再由RAID控制卡高速缓存写入硬盘。
l 开启RAID控制卡高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,RAID控制卡高速缓存中的数据将会丢失。
为了提升整机的高读写性能和RAID控制卡高速缓存中数据的安全,可为RAID控制卡配置超级电容。超级电容保护模块的原理是在发生系统意外掉电时,利用超级电容供电,将RAID控制卡高速缓存中的数据写入超级电容模块中的NAND Flash中永久保存。
超级电容电量校准
由于数据保护需要超级电容的配合,为了记录超级电容的放电曲线,以便RAID控制卡了解超级电容的状态,例如最大和最小电压等,同时为了延长超级电容的寿命,RAID控制卡默认启动超级电容自动校准模式。
RAID控制卡通过如下所述的三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。
1. RAID控制卡将超级电容的电量充到最大值。
2. 自动启动校准进程,将超级电容完全放电。
3. 重新开始充电,直至达到最大电量。
超级电容电量校准过程中,RAID控制卡写策略自动调整为“Write Through”模式以保证数据完整性,此时RAID控制卡性能会降低。电量校准的时间取决于超级电容充放电速度。
当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待。
条带化是一种自动的将I/O的负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。
硬盘的条带化,是将硬盘空间按照设定的大小分为多个条带,数据写入时也按照条带的大小来划分数据模块。
例如,在一个由四个成员盘组成的硬盘系统中(例如RAID 0),第一个数据块写入第一块成员盘,第二个数据块写入第二个成员盘,以此类推,如图2-11所示。由于是同时对多个硬盘进行写入,因此极大地提升了系统性能,但是,此特性并不能保证数据的冗余性。
硬盘分条包含下面的概念:
l 条带宽度:一个硬盘组在进行分条时所使用的硬盘的个数,例如一个由四个成员盘组成的硬盘组,其条带宽度为“4”。
l 硬盘组的条带大小:RAID控制卡同时在一个硬盘组中所有硬盘上的写入的数据块的大小。
l 硬盘的条带大小:RAID控制卡在每块硬盘上写入的数据块的大小。
例如,针对一个硬盘组,在写入数据时,一个1MB的数据条带,在每个成员盘上分配的数据块为64KB,那么此硬盘组的条带大小为1MB,硬盘的条带大小为64KB。
磁盘镜像,适用于RAID 1和RAID 10,是指执行写数据的任务时,会将同样的数据同时写入两块硬盘,以实现100%的数据冗余度。由于两块硬盘上的数据完全相同,当一块硬盘故障时,数据不会丢失。另外,同一时间,两块盘上的数据是完全相同的,当一块硬盘故障时,由于数据是同时读写,因此数据流不会中断。
磁盘镜像带来的是100%的完全冗余,但是其代价是比较昂贵的,因为在镜像过程中,每个硬盘都需要一个备份盘,如图2-12所示。
外部配置,是区别于当前RAID控制卡的配置来说的,在配置界面中一般体现为“Foreign Configuration”之类的字样。
一般在下述情况下,会有外部配置出现:
l 一个新安装到服务器上的物理硬盘中存在RAID配置信息,RAID控制卡会将此类信息识别为外部配置。
l 服务器更换了RAID控制卡后,新RAID控制卡会将当前存在的RAID信息识别为外部配置。
l 热插拔RAID组的成员盘后,该成员盘会被标记为携带外部配置。
对检测出来的外部配置,可以根据服务器实际情况进行处理。例如,当新插入的硬盘携带的RAID信息不符合当前使用场景时,可以删除此配置。更换RAID控制卡后,如果仍然想使用之前的配置,就可以导入该配置,使其在新RAID控制卡上生效。
RAID控制卡具备硬盘节能功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。
当硬盘节能功能开启时,RAID控制卡下挂载的空闲状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID组,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。
硬盘直通,即“JBOD”功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。
打开硬盘直通功能后,RAID控制卡可对所连接的硬盘进行指令透传,在不配置RAID组的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。
例如,服务器操作系统安装过程中,可以直接找到挂载在RAID控制卡下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。
各RAID控制卡命名后缀的含义如表4-1所示。
后缀名 |
是否支持创建RAID组 |
是否支持带外管理 |
是否有电容/电池 |
是否有Cache |
IT |
否 |
是 |
否 |
否 |
IR |
是 |
否 |
否 |
否 |
iMR |
是 |
是 |
否 |
否 |
MRa |
是 |
是 |
是 |
是 |
a:命名中无后缀默认为MR,包含LSI SAS3108、Avago SAS3508、Avago SAS3516控制卡。 |
RAID控制卡的基本特性如表5-1、表5-2和表5-3所示。
特性 |
LSI SAS3008IR |
LSI SAS3108 |
Avago SAS3408iMR |
Avago SAS3416iMR |
Avago SAS3508 |
Avago SAS3516 |
接口速率(Gbit/s) |
12 |
12 |
12 |
12 |
12 |
12 |
支持的RAID组数量 |
2 |
64 |
32 |
32 |
64 |
64 |
单个RAID组支持的最大硬盘数 |
10 |
32/240a |
32 |
32 |
32/240b |
32 |
所有RAID组包含的最大硬盘数量d |
14 |
32/240a |
32 |
32 |
32/240b |
32 |
是否支持硬盘直通 |
是 |
是 |
是 |
是 |
是 |
是 |
硬盘直通模式支持的硬盘数量 |
1000 |
32/240a |
63 |
63 |
32/240b |
32 |
支持的最大硬盘数 |
1000 |
32/240a |
63 |
63 |
32/240b |
32 |
是否支持CacheCade |
否 |
是 |
否 |
否 |
否 |
否 |
Cache读写比例是否可调 |
NA |
否 |
NA |
NA |
NA |
NA |
CacheCade支持的SSD最大个数 |
NA |
32 |
NA |
NA |
NA |
NA |
CacheCade最大容量 |
NA |
512GB |
NA |
NA |
NA |
NA |
CacheCade支持的RAID级别 |
NA |
0/1 |
NA |
NA |
NA |
NA |
CacheCade是否支持热备 |
NA |
是 |
NA |
NA |
NA |
NA |
是否支持FastPath |
是 |
是 |
是 |
是 |
是 |
是 |
是否支持4K盘 |
是 |
是 |
是 |
是 |
是 |
是 |
支持的RAID级别 |
0/1/10/1E |
0/1/10/5/50/6/60 |
0/1/10 |
0/1/10 |
0/1/10/5/50/6/60 |
0/1/10/5/50/6/60 |
是否支持设置条带大小 |
否(默认为64KB) |
是(可设为64KB/128KB/256KB/512KB/1024KB,默认为256KB) |
否(默认为64KB) |
否(默认为64KB) |
是(可设为64KB/128KB/256KB/512KB/1024KB,默认为256KB) |
是(可设为64KB/128KB/256KB/512KB/1024KB,默认为256KB) |
是否支持电池掉电保护 |
否 |
否 |
否 |
否 |
否 |
否 |
是否支持超级电容掉电保护 |
否 |
是 |
否 |
否 |
是 |
是 |
是否支持全局热备 |
是e |
是e |
是e |
是e |
是e |
是e |
是否支持局部热备 |
否 |
是e |
是e |
是e |
是e |
是e |
是否支持紧急热备 |
否 |
是 |
是 |
是 |
是 |
是 |
支持的热备盘个数 |
2 |
32/240a |
63 |
63 |
32/240b |
32 |
是否支持RAID级别在线迁移 |
否 |
是 |
是 |
是 |
是 |
是 |
是否支持在线扩容 |
否 |
是 |
是 |
是 |
是 |
是 |
是否支持自动SMART扫描 |
是 |
是 |
是 |
是 |
是 |
是 |
是否支持Patrol Read |
是 |
是 |
是 |
是 |
是 |
是 |
是否支持一致性校验 |
是e |
是e |
是e |
是e |
是e |
是e |
是否支持Crypto加密 |
否 |
否 |
否 |
否 |
否 |
否 |
是否支持带外管理 |
否 |
是c |
是 |
是 |
是 |
是 |
是否支持Cache |
否 |
是(1G/2G) |
否 |
否 |
是(2G/4G) |
是(2G/4G) |
是否支持蜂鸣器 |
否 |
否 |
否 |
否 |
否 |
否 |
a:LSI SAS3108支持2种规格的RAID Key,分别支持32盘和240盘。具体规格请参见8.2.1 支持多种RAID类型中的表8-4。 b:Avago SAS3508支持2种规格的RAID Key,分别支持32盘和240盘。具体规格请参见9.2.1 支持多种RAID类型中的表9-2。 c:LSI SAS3108的PCB版本为.B及以上版本时,支持带外管理功能;PCB版本为.A时,不支持带外管理功能。 d:对于LSI SAS3008IR RAID控制卡,该数量为热备盘与加入RAID组的硬盘数量之和;对于LSI SAS3008IR以外的RAID控制卡,该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。 e:RAID 0除外。 |
特性 |
Avago MegaRAID SAS 9440-8i |
Avago MegaRAID SAS 9460-8i |
Avago MegaRAID SAS 9460-16i |
BROADCOM MegaRAID SAS 9560-8i |
BROADCOM MegaRAID SAS 9540-8i |
BROADCOM MegaRAID SAS 9560-16i |
接口速率(Gbit/s) |
12 |
12 |
12 |
12 |
12 |
12 |
支持的RAID组数量 |
32 |
64 |
64 |
64 |
32 |
64 |
单个RAID组支持的最大硬盘数量 |
32 |
240 |
32 |
240 |
32 |
32 |
所有RAID组包含的最大硬盘数量a |
32 |
240 |
240 |
240 |
32 |
240 |
是否支持硬盘直通 |
是 |
是 |
是 |
是 |
是 |
是 |
硬盘直通模式支持的硬盘数量 |
63 |
240 |
240 |
240 |
63 |
240 |
支持的最大硬盘数量 |
63 |
240 |
240 |
240 |
63 |
240 |
是否支持CacheCade |
否 |
否 |
否 |
否 |
否 |
否 |
Cache读写比例是否可调 |
NA |
NA |
NA |
NA |
NA |
NA |
CacheCade支持的SSD最大个数量 |
NA |
NA |
NA |
NA |
NA |
NA |
CacheCade最大容量 |
NA |
NA |
NA |
NA |
NA |
NA |
CacheCade支持的RAID级别 |
NA |
NA |
NA |
NA |
NA |
NA |
CacheCade是否支持热备 |
NA |
NA |
NA |
NA |
NA |
NA |
是否支持FastPath |
是 |
是 |
是 |
是 |
是 |
是 |
是否支持4K盘 |
是 |
是 |
是 |
是 |
是 |
是 |
支持的RAID级别 |
0/1/10 |
0/1/10/5/50/6/60 |
0/1/10/5/50/6/60 |
0/1/10/5/50/6/60 |
0/1/10 |
0/1/10/5/50/6/60 |
是否支持设置条带大小 |
否(默认为64KB) |
是(可设为64KB/128KB/256KB/512KB/1024KB,默认为256KB) |
是(可设为64KB/128KB/256KB/512KB/1024KB,默认为256KB) |
是(可设为64KB/128KB/256KB/512KB/1024KB,默认为256KB) |
否(默认为64KB) |
是(可设为64KB/128KB/256KB/512KB/1024KB,默认为256KB) |
是否支持电池掉电保护 |
否 |
否 |
否 |
否 |
否 |
否 |
是否支持超级电容掉电保护 |
否 |
是 |
是 |
是 |
否 |
是 |
是否支持全局热备 |
是b |
是b |
是b |
是b |
是b |
是b |
是否支持局部热备 |
是b |
是b |
是b |
是b |
是b |
是b |
是否支持紧急热备 |
是 |
是 |
是 |
是 |
是 |
是 |
支持的热备盘个数 |
63 |
240 |
240 |
240 |
63 |
240 |
是否支持RAID级别在线迁移 |
是 |
是 |
是 |
是 |
是 |
是 |
是否支持在线扩容 |
是 |
是 |
是 |
是 |
是 |
是 |
是否支持自动SMART扫描 |
是 |
是 |
是 |
是 |
是 |
是 |
是否支持Patrol Read |
是 |
是 |
是 |
是 |
是 |
是 |
是否支持一致性校验 |
是b |
是b |
是b |
是b |
是b |
是b |
是否支持Crypto加密 |
否 |
否 |
否 |
否 |
否 |
否 |
是否支持带外管理 |
是 |
是 |
是 |
是 |
是 |
是 |
是否支持Cache |
否 |
是(2G/4G) |
是(2G/4G) |
是(4G) |
否 |
是(8G) |
是否支持蜂鸣器 |
否 |
是 |
是 |
是 |
否 |
是 |
a:该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。 b:RAID 0除外。 |
特性 |
MSCC SmartRAID 3152-8i |
MSCC SmartHBA 2100-8i |
接口速率 (Gbit/s) |
12 |
12 |
支持的RAID组数量 |
64 |
64 |
单个RAID组支持的最大硬盘数 |
128 |
128 |
所有RAID组包含的最大硬盘数量 |
238 |
238 |
是否支持硬盘直通 |
是 |
是 |
是否支持裸盘 |
NA |
NA |
硬盘直通模式支持的硬盘数量 |
238 |
238 |
支持的最大硬盘数 |
238 |
238 |
是否支持MaxCachea |
是 |
否 |
Cache读写比例是否可调 |
是 |
NA |
MaxCache支持的SSD最大个数 |
128 |
NA |
MaxCache最大容量 |
6.8TB |
NA |
MaxCache支持的RAID级别 |
0/1/10/5 |
NA |
MaxCache是否支持热备 |
否 |
NA |
是否支持SSD IO Bypass |
是 |
是 |
是否支持4K盘 |
是 |
是 |
支持的RAID级别 |
RAID 0/1/1ADM/10/10ADM/5/50/6/60 |
RAID 0/1/10 |
是否支持设置条带大小 |
是(可设为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认为256KiB) |
是(可设为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认为256KiB) |
是否支持电池掉电保护 |
否 |
否 |
是否支持超级电容掉电保护 |
是 |
否 |
是否支持全局热备份功能 |
是 |
是 |
是否支持局部热备份功能 |
是 |
是 |
是否支持紧急热备份功能 |
NA |
NA |
支持的热备盘个数 |
32 |
32(每个Array最多支持4个热备盘) |
是否支持RAID级别在线迁移 |
是 |
否 |
是否支持在线扩容 |
是 |
否 |
是否支持自动SMART扫描 |
是 |
是 |
是否支持Patrol Read |
否 |
否 |
是否支持一致性校验 |
是 |
是 |
是否支持Crypto加密 |
否 |
否 |
是否支持带外管理 |
是 |
是 |
是否支持520B扇区硬盘 |
否 |
否 |
是否支持蜂鸣器 |
否 |
否 |
a:MaxCache即CacheCade,Microsemi将该功能定义为“MaxCache”。 |
表5-4 基本特性(3)
特性 |
SP686C |
SP186 |
接口速率(Gbit/s) |
12 |
12 |
支持的RAID组数量 |
40b |
40b |
单个RAID组支持的最大硬盘数 |
40 |
40 |
所有RAID组包含的最大硬盘数量a |
40b |
40b |
是否支持裸盘 |
是 |
是 |
裸盘模式支持的硬盘数量 |
40b |
40b |
支持的最大硬盘数 |
40b |
40b |
是否支持4K盘 |
是 |
是 |
支持的RAID级别 |
0/1/10/5/50/6/60 |
0/1/10 |
是否支持设置条带大小 |
是(可设为32KB/64KB/128KB/256KB/512KB/1024KB,HDD默认为256KB,SSD默认为64KB) |
是(可设为32KB/64KB/128KB/256KB/512KB/1024KB,HDD默认为256KB,SSD默认为64KB) |
是否支持超级电容掉电保护 |
是 |
否 |
是否支持全局热备 |
是 |
是 |
是否支持局部热备 |
是 |
是 |
是否支持紧急热备 |
是 |
是 |
支持的热备盘个数 |
16(每个Array最多支持2个热备盘) |
16(每个Array最多支持2个热备盘) |
是否支持在线扩容 |
是d |
是d |
是否支持自动SMART扫描 |
是 |
是 |
是否支持Patrol Read |
是 |
是 |
是否支持一致性校验 |
是c |
是c |
是否支持带外管理 |
是 |
是 |
是否支持Cache |
是(2G/4G) |
否 |
a:该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。 b:以卡实际支持能力为准,SP686C RAID控制卡查看方法请参见21.4.9 查看控制卡属性,SP186 HBA控制卡查看方法请参见22.4.9 查看控制卡属性。 c:RAID 0除外。 d:当前支持增加VD可用空间扩容,不支持通过增加硬盘扩容。 |
表中的“NA”表示不涉及。
RAID控制卡支持的各级别RAID的性能及硬盘利用率如表5-5。
RAID级别 |
可靠性 |
读性能 |
写性能 |
硬盘利用率 |
RAID 0 |
低 |
高 |
高 |
100% |
RAID 1 |
高 |
高 |
中 |
50% |
RAID 1ADM/Triple |
高 |
高 |
中 |
33% |
RAID 5 |
中 |
高 |
中 |
(N-1)/N |
RAID 6 |
中 |
高 |
中 |
(N-2)/N |
RAID 10 |
高 |
高 |
中 |
50% |
RAID 1E |
高 |
中 |
中 |
50% |
RAID 10ADM/Triple |
高 |
高 |
中 |
33% |
RAID 50 |
高 |
高 |
较高 |
(N-M)/N |
RAID 60 |
高 |
高 |
较高 |
(N-M*2)/N |
注:N为RAID成员盘的个数,M为RAID的子组数。 |
各RAID控制卡支持的硬盘接口类型如表5-6所示。
硬盘接口类型 |
SAS HDD |
SATA HDD |
SAS SSD |
SATA SSD |
NVMe PCIe SSD |
M.2 SATA SSD |
LSI SAS3008IR |
支持 |
支持 |
支持 |
支持 |
不支持 |
不支持 |
LSI SAS3108 |
支持 |
支持 |
支持 |
支持 |
不支持 |
不支持 |
Avago SAS3508 |
支持 |
支持 |
支持 |
支持 |
不支持 |
不支持 |
Avago SAS3516 |
支持 |
支持 |
支持 |
支持 |
不支持 |
不支持 |
Avago SAS3408iMR |
支持 |
支持 |
支持 |
支持 |
不支持 |
不支持 |
Avago SAS3416iMR |
支持 |
支持 |
支持 |
支持 |
不支持 |
不支持 |
Avago MegaRAID SAS 9440-8i |
支持 |
支持 |
支持 |
支持 |
不支持 |
不支持 |
Avago MegaRAID SAS 9460-8i |
支持 |
支持 |
支持 |
支持 |
不支持 |
不支持 |
Avago MegaRAID SAS 9460-16i |
支持 |
支持 |
支持 |
支持 |
不支持 |
不支持 |
MSCC SmartRAID 3152-8i |
支持 |
支持 |
不支持 |
支持 |
不支持 |
不支持 |
MSCC SmartHBA 2100-8i |
支持 |
支持 |
不支持 |
支持 |
不支持 |
不支持 |
BROADCOM MegaRAID 9560-8i |
支持 |
支持 |
支持 |
支持 |
不支持 |
不支持 |
BROADCOM MegaRAID 9540-8i |
支持 |
支持 |
支持 |
支持 |
不支持 |
不支持 |
BROADCOM MegaRAID 9560-16i |
支持 |
支持 |
支持 |
支持 |
不支持 |
不支持 |
SP686C |
支持 |
支持 |
支持 |
支持 |
不支持 |
不支持 |
SP186 |
支持 |
支持 |
支持 |
支持 |
不支持 |
不支持 |
各RAID控制卡支持配置的硬盘型号以兼容性列表为准,详细信息可通过兼容性查询助手获得。
RAID控制卡驱动下载和安装的方法请联系技术支持。
BMC提供了带外管理RAID功能。您可以通过BMC Web界面或命令行对支持带外管理的RAID控制卡进行基本的查询和配置操作。
详细操作信息请参见iBMC用户指南。
可通过“技术规格”章节查询各RAID控制卡是否支持带外管理功能。
ToolKit提供了配置RAID功能。您可以通过ToolKit对RAID控制卡进行配置,并支持批量配置RAID。
详细操作请参见ToolKit用户指南的“使用ToolKit > 硬件配置 > 配置RAID”章节。
关于本章
本章节主要介绍LSI SAS3008IR RAID控制卡的外观、特性、以及配置方法。
本章节涉及的截图以14.0.0.0Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。
LSI SAS3008IR RAID控制卡(以下简称LSI SAS3008IR)是基于Fusion-MPT™(消息传递技术)架构的8端口12Gbit/s SAS控制卡,并采用PCIe3.0 x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。
另外,LSI SAS3008IR提供3Gbit/s、6Gbit/s、12Gbit/s SAS数据通道和3Gbit/s、6Gbit/s SATA数据通道,每个端口支持SSP、SMP、STP等协议。
LSI SAS3008IR的结构如图7-1所示。
1 |
RAID控制卡 |
2 |
miniSAS接口(port B,SFF-8643) |
3 |
miniSAS接口(port A,SFF-8643) |
4 |
Xcede连接器 |
RAID控制卡指示灯
LSI SAS3008IR的指示灯说明如图7-2所示。
表7-1 指示灯说明
序号 |
位置 |
指示灯 |
颜色 |
说明 |
指示灯异常处理策略 |
1 |
D1 |
SYS_ERR0 指示灯 |
红色 |
灯亮:RAID控制卡出现ERR0告警 灯灭:RAID控制卡工作正常 |
如果灯亮,需要更换RAID控制卡 |
2 |
D3 |
心跳指示灯 |
绿色 |
闪烁:RAID控制卡心跳正常 灯灭:RAID控制卡心跳异常 |
如果灯灭,需要更换RAID控制卡 |
3 |
D4 |
VCC_1V8 电源指示灯 |
绿色 |
灯亮:电压正常 灯灭:电压异常 |
如果灯灭,需要更换RAID控制卡 |
4 |
D5 |
VCC_1V5 电源指示灯 |
绿色 |
灯亮:电压正常 灯灭:电压异常 |
如果灯灭,需要更换RAID控制卡 |
5 |
D6 |
VCC_0V9 电源指示灯 |
绿色 |
灯亮:电压正常 灯灭:电压异常 |
如果灯灭,需要更换RAID控制卡 |
LSI SAS3008IR的PCIe Core提供x8 PCIe接口,每lane速率为8Gb/s,可以兼容x1、x2、x4配置;支持PCIe 3.0规格,兼容PCIe 2.x和PCIe 1.x。
LSI SAS3008IR的SAS模块提供SAS功能,并定义支持的硬盘速率。LSI SAS3008IR支持的SAS模块包括:
l 12Gb/s SAS、6Gb/s SAS、3Gb/s SAS
l 6Gb/s SATA、3Gb/s SATA、1.5Gb/s SATA
LSI SAS3008IR最多支持256个扩展设备,应用在服务器上,主要体现在连接多个硬盘,最多支持40个硬盘。
RAID控制卡支持SAS、SATA、SSD硬盘混合使用,支持SAS RAID、SATA RAID、SSD RAID共存于1个控制卡下。
实际使用过程中建议使用同类型同规格的硬盘。
针对有冗余功能的RAID(RAID 1/10/1E),可以实现手动对RAID内的硬盘进行数据的一致性校验,如果发现有数据不一致的情况,会尝试做自动修复并将错误信息保存在Bad Block Table中。
一致性校验只针对已经完成初始化的RAID。
RAID控制卡集成故障自修复工具,当出现轻微的链路故障或硬盘读写闪断时,自动对故障进行修复。
热备盘是指定用于替代RAID故障成员盘的硬盘,用于承载被替代硬盘中的数据。
LSI SAS3008IR支持创建最多两个全局热备盘,当RAID的成员盘出现故障时,可以由热备盘替代,防止RAID数据丢失和状态进一步恶化。
热备盘的配置方法可参考7.4.1 配置热备盘。
l 机械盘与固态盘不能互相作为热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID组的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID组成员盘最大容量。
l 除RAID 0外,其他类型的RAID组均支持热备盘。
硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。
LSI SAS3008IR可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在LSI SAS3008IR下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。
LSI SAS3008IR默认开启硬盘直通功能。
直通模式下的硬盘发生故障后,硬盘Fault指示灯不会被点亮且iBMC不会对其进行告警。
通过对硬盘反复写0的方式,将硬盘的数据做彻底的格式化和删除动作。
硬盘格式化彻底、耗时长,格式化过程中,不能执行关机、重启、插拔硬盘等操作,否则会导致硬盘被损坏。
硬盘格式化完成后,所有的硬盘数据会被清除。请谨慎执行该操作。
RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。
默认情况下,硬盘节能功能处于开启状态。
当硬盘节能功能开启且在固定时间内没有I/O访问时,RAID控制卡下挂载的空闲状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。
热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下取出和更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。
l 请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。
l 人为在线插拔RAID组中的硬盘会导致该硬盘所在的RAID组降级或故障,插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。
l 在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。
LSISAS3008IR最多支持2个虚拟磁盘,单个虚拟磁盘中最多支持10个硬盘。所有的虚拟磁盘包含的硬盘总量最多14个,剩余硬盘只能以独立的“Physical drive”方式被LSISAS3008IR管理。
LSISAS3008IR支持的具体RAID类型及对应的硬盘个数如表7-2所示。
RAID类型 |
支持硬盘数 |
允许坏盘数 |
RAID 0 |
2~10 |
0 |
RAID 1 |
2 |
1 |
RAID 10 |
4~10 |
硬盘数/2 |
RAID 1E |
3、5、7、9 |
(硬盘数–1)/2 |
硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。
硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。
硬盘巡检不能在参与以下任何操作的任何硬盘上运行:
l RAID热备修复
l 动态扩盘
l 完全初始化或后台初始化
l 一致性校验
S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免电脑数据受到损失。
RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,便会记录日志。
文档中描述的关于LSI SAS3008IR的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“SAS3IRCU”命令行工具。
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
重启服务器。当出现如图7-3所示界面时,按“F11”键。
步骤 2 输入密码,并按“Enter”。
进入如图7-4所示界面。
步骤 3 选择“Device Manager”并按“Enter”。
显示当前存在的RAID控制卡列表,如图7-5所示。
步骤 4 选择要操作的LSI SAS3008IR控制卡,按“Enter”。
打开“LSI SAS3 MPT Controller Configuration”界面,如图7-6所示界面。
图7-6 “LSI SAS3 MPT Controller Configuration”界面
步骤 5 按“Enter”进入LSI SAS3008IR的配置界面。
“Configuration Options”界面如图7-7所示,界面参数如表7-3所示。
图7-7 “Configuration Options”界面
参数 |
参数说明 |
Controller Management |
配置管理RAID控制卡属性。 |
Virtual Disk Management |
配置管理虚拟磁盘。 |
Physical Disk Management |
配置管理物理硬盘。 |
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l LSI SAS3008IR支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看7.2.11 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
对系统的影响
加入到RAID的硬盘数据将会丢失,请提前备份硬盘上的数据。
必备事项
前提条件
已登录管理界面,具体方法请参见7.3.1 登录管理界面。
数据
该操作无需准备数据。
操作步骤
进入“Configuration Options”界面。
1. 在主界面中选择“Controller Management”并按“Enter”。
2. 选择“Create Configuration”并按“Enter”。
步骤 1 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID level”并按“Enter”。
显示当前可配置的RAID级别,如图7-8所示。
2. 选择要配置的RAID级别“RAID 0”并按“Enter”。
步骤 2 选择成员盘。
1. 通过“↑”、“↓”选择“Select Physical Disks”并按“Enter”。
打开硬盘选择界面,如图7-9所示,界面中参数说明如表7-4所示。
参数 |
说明 |
Selected RAID Level |
已配置的RAID级别。 |
Select Interface Type |
选择硬盘接口类型,若RAID控制卡下挂载多种接口类型的硬盘,可通过该选项过滤。 |
Select Media Type |
选择硬盘类型,若RAID控制卡下挂载多种容量的硬盘,可通过该选项过滤。 |
0:2:0 SATA HDD-512b 1863GB |
可选择的硬盘。 |
Check All |
选中列出的所有硬盘。 |
Uncheck All |
取消选中硬盘。 |
2. 按表7-4所述选中RAID成员盘。
步骤 3 保存配置。
1. 通过“↑”、“↓”选择“Apply Changes”并按“Enter”。
打开操作确认界面,如图7-10所示。
2. 通过“↑”、“↓”选择“Confirm”并按“Enter”。
3. 通过“↑”、“↓”选择“Yes”并按“Enter”。
提示Operation completed successfully。
4. 通过“↓”选择“OK”并按“Enter”。
配置完成。
步骤 4 检查配置结果。
1. 在图7-7中选择“Virtual Disk Management”并按“Enter”。
2. 选择“Manage Virtual Disk Properties”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l LSI SAS3008IR支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看7.2.11 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
对系统的影响
加入到RAID的硬盘数据将会丢失,请提前备份硬盘上的数据。
必备事项
前提条件
已登录管理界面,具体方法请参见7.3.1 登录管理界面。
数据
该操作无需准备数据。
操作步骤
进入“Configuration Options”界面。
1. 在主界面中选择“Controller Management”并按“Enter”。
2. 选择“Create Configuration”并按“Enter”。
步骤 1 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID level”并按“Enter”。
显示当前可配置的RAID级别,如图7-11所示。
2. 选择要配置的RAID级别“RAID 1”并按“Enter”。
步骤 2 选择成员盘。
1. 通过“↑”、“↓”选择“Select Physical Disks”并按“Enter”。
打开硬盘选择界面,如图7-12所示,界面中参数说明如表7-5所示。
参数 |
说明 |
Selected RAID Level |
已配置的RAID级别。 |
Select Interface Type |
选择硬盘接口类型,若RAID控制卡下挂载多种接口类型的硬盘,可通过该选项过滤。 |
Select Media Type |
选择硬盘类型,若RAID控制卡下挂载多种容量的硬盘,可通过该选项过滤。 |
0:2:0 SATA HDD-512b 1863GB |
可选择的硬盘。 |
Check All |
选中列出的所有硬盘。 配置方法:选中该操作项并按“Enter”。 |
Uncheck All |
取消选中硬盘。 配置方法:选中该操作项并按“Enter”。 |
2. 按表7-5所述选中RAID成员盘。
步骤 3 保存配置。
1. 通过“↑”、“↓”选择“Apply Changes”并按“Enter”。
打开操作确认界面,如图7-13所示。
2. 通过“↑”、“↓”选择“Confirm”并按“Enter”。
3. 通过“↑”、“↓”选择“Yes”并按“Enter”。
提示Operation completed successfully。
4. 通过“↓”选择“OK”并按“Enter”。
配置完成。
步骤 4 检查配置结果。
1. 在图7-7中选择“Virtual Disk Management”并按“Enter”。
2. 选择“Manage Virtual Disk Properties”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l LSI SAS3008IR支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看7.2.11 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
对系统的影响
加入到RAID的硬盘数据将会丢失,请提前备份硬盘上的数据。
必备事项
前提条件
已登录管理界面,具体方法请参见7.3.1 登录管理界面。
数据
该操作无需准备数据。
操作步骤
进入“Configuration Options”界面。
1. 在主界面中选择“Controller Management”并按“Enter”。
2. 选择“Create Configuration”并按“Enter”。
步骤 1 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID level”并按“Enter”。
显示当前可配置的RAID级别,如图7-14所示。
2. 选择要配置的RAID级别“RAID 1E”并按“Enter”。
步骤 2 选择成员盘。
1. 通过“↑”、“↓”选择“Select Physical Disks”并按“Enter”。
打开硬盘选择界面,如图7-15所示,界面中参数说明如表7-6所示。
参数 |
说明 |
Selected RAID Level |
已配置的RAID级别。 |
Select Interface Type |
选择硬盘接口类型,若RAID控制卡下挂载多种接口类型的硬盘,可通过该选项过滤。 |
Select Media Type |
选择硬盘类型,若RAID控制卡下挂载多种容量的硬盘,可通过该选项过滤。 |
0:2:0 SATA HDD-512b 1863GB |
可选择的硬盘。 |
Check All |
选中列出的所有硬盘。 配置方法:选中该操作项并按“Enter”。 |
Uncheck All |
取消选中硬盘。 配置方法:选中该操作项并按“Enter”。 |
2. 按表7-6所述选中RAID成员盘。
步骤 3 保存配置。
1. 通过“↑”、“↓”选择“Apply Changes”并按“Enter”。
打开操作确认界面,如图7-16所示。
2. 通过“↑”、“↓”选择“Confirm”并按“Enter”。
3. 通过“↑”、“↓”选择“Yes”并按“Enter”。
提示Operation completed successfully。
4. 通过“↓”选择“OK”并按“Enter”。
配置完成。
步骤 4 检查配置结果。
1. 在图7-7中选择“Virtual Disk Management”并按“Enter”。
2. 选择“Manage Virtual Disk Properties”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l LSI SAS3008IR支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看7.2.11 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
对系统的影响
加入到RAID的硬盘数据将会丢失,请提前备份硬盘上的数据。
必备事项
前提条件
已登录管理界面,具体方法请参见7.3.1 登录管理界面。
数据
该操作无需准备数据。
操作步骤
进入“Configuration Options”界面。
1. 在主界面中选择“Controller Management”并按“Enter”。
2. 选择“Create Configuration”并按“Enter”。
步骤 1 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID level”并按“Enter”。
显示当前可配置的RAID级别,如图7-17所示。
2. 选择要配置的RAID级别“RAID 10”并按“Enter”。
步骤 2 选择成员盘。
1. 通过“↑”、“↓”选择“Select Physical Disks”并按“Enter”。
打开硬盘选择界面,如图7-18所示,界面中参数说明如表7-7所示。
参数 |
说明 |
Selected RAID Level |
已配置的RAID级别。 |
Select Interface Type |
选择硬盘接口类型,若RAID控制卡下挂载多种接口类型的硬盘,可通过该选项过滤。 |
Select Media Type |
选择硬盘类型,若RAID控制卡下挂载多种容量的硬盘,可通过该选项过滤。 |
0:2:0 SATA HDD-512b 1863GB |
可选择的硬盘。 |
Check All |
选中列出的所有硬盘。 |
Uncheck All |
取消选中硬盘。 |
2. 按表7-7所述选中RAID成员盘。
步骤 3 保存配置。
1. 通过“↑”、“↓”选择“Apply Changes”并按“Enter”。
打开操作确认界面,如图7-19所示。
2. 通过“↑”、“↓”选择“Confirm”并按“Enter”。
3. 通过“↑”、“↓”选择“Yes”并按“Enter”。
提示Operation completed successfully。
4. 通过“↓”选择“OK”并按“Enter”。
配置完成。
步骤 4 检查配置结果。
1. 在图7-7中选择“Virtual Disk Management”并按“Enter”。
2. 选择“Manage Virtual Disk Properties”并按“Enter”。
显示当前存在的RAID信息。
----结束
同一台服务器配置了单个LSI SAS3008IR卡或者多种芯片硬盘控制卡的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。
设置启动项的操作方法请参见 BIOS 参数参考的“设置服务器启动设备”章节。
操作场景
该任务指导用户配置LSI SAS3008IR控制卡的全局热备盘。
在LSI SAS3008IR控制卡上创建完RAID 1/1E/10后,最多可以配置2个全局热备盘,提升数据安全性。
l 机械盘与固态盘不能互相作为热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID组的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID组成员盘最大容量。
l 除RAID 0外,其他类型的RAID组均支持热备盘。
对系统的影响
用作热备盘的硬盘数据将会丢失,请提前备份硬盘上的数据。
必备事项
配置热备盘之前,需具备如下条件:
l 服务器存在空闲硬盘。
l 已登录管理界面,具体方法请参见7.3.1 登录管理界面。
数据
该操作无需准备数据。
操作步骤
进入虚拟磁盘管理界面。
1. 在主界面中选择“Virtual Disk Management”并按“Enter”。
2. 选择“Manage Virtual Disk Properties”并按“Enter”。
打开虚拟磁盘属性管理界面,如图7-20所示。
步骤 2 配置热备盘。
1. 选择“Manage Global Hotspare Disks”并按“Enter”。
打开热备盘设置界面,如图7-21所示。
2. 通过“↑”、“↓”选择要配置的硬盘并按“Enter”。
3. 通过“↑”、“↓”选择“Assign Global Hotspare Disk”并按“Enter”。
显示Operation complete successfully。
4. 通过“↓”选择“OK”并按“Enter”。
完成配置。
----结束
操作场景
该任务指导用户删除LSI SAS3008IR控制卡的全局热备盘。
必备事项
前提条件
已登录管理界面,具体方法请参见7.3.1 登录管理界面。
数据
该操作无需准备数据。
操作步骤
进入虚拟磁盘管理界面。
1. 在主界面中选择“Virtual Disk Management”并按“Enter”。
2. 选择“Manage Virtual Disk Properties”并按“Enter”。
打开虚拟磁盘属性管理界面,如图7-22所示。
步骤 2 删除热备盘。
1. 选择“Manage Global Hotspare Disks”并按“Enter”。
打开热备盘设置界面,如图7-23所示。
2. 通过“↑”、“↓”选择要删除的热备盘并按“Enter”。
3. 通过“↑”、“↓”选择“Unassign Global Hotspare Disk”并按“Enter”。
显示Operation complete successfully。
4. 通过“↓”选择“OK”并按“Enter”。
完成配置。
----结束
操作场景
l 对于新安装到服务器系统中的物理硬盘可能已经存在一个存储配置。对于这种外部配置,用户可以运用WebBIOS将其引入到当前RAID控制卡中。
l 当服务器更换RAID控制卡后,用户可以通过该操作将原有的配置信息导入新的RAID控制卡中。
l 为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。
l 当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。
导入外部配置
登录管理界面,具体方法请参见7.3.1 登录管理界面。
步骤 1 在主界面中选择“Controller Management”并按“Enter”。
步骤 2 选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。
进入外部配置管理界面,如图7-24所示。
步骤 3 选择“Select Foreign Configuration”并按“Enter”。
步骤 4 在打开的列表中选择要导入的外部配置并按“Enter”。
步骤 5 选择“View Foreign Configuration”并按“Enter”。
打开查看外部配置的界面,如图7-25所示。
步骤 6 选择“Import Foreign Configuration”并按“Enter”。
进入操作确认界面,如图7-26所示。
步骤 7 通过“↑”、“↓”选择“Confirm”并按“Enter”。
步骤 8 通过“↑”、“↓”选择“Yes”并按“Enter”。
提示Operation completed successfully。
步骤 9 通过“↓”选择“OK”并按“Enter”。
配置完成。
----结束
清除外部配置
登录管理界面,具体方法请参见7.3.1 登录管理界面。
步骤 1 在主界面中选择“Controller Management”并按“Enter”。
步骤 2 选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。
进入外部配置管理界面,如图7-27所示。
步骤 3 选择“Select Foreign Configuration”并按“Enter”。
步骤 4 在打开的列表中选择要导入的外部配置并按“Enter”。
步骤 5 选择“View Foreign Configuration”并按“Enter”。
打开查看外部配置的界面,如图7-28所示。
步骤 6 通过“↑”、“↓”选择“Clear Foreign Configuration”并按“Enter”。
进入操作确认界面。
步骤 7 按“Enter”打开操作确认选项。
步骤 8 通过“↑”、“↓”选择“Yes”并按“Enter”。
提示Operation completed successfully。
步骤 9 通过“↓”选择“OK”并按“Enter”。
配置完成。
----结束
操作场景
该任务指导用户删除RAID。
当服务器不需要某个RAID时,可以将其删除以释放硬盘。
RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。
对系统的影响
该操作对系统正常运行无影响。
必备事项
前提条件
已登录管理界面,具体方法请参见7.3.1 登录管理界面。
数据
该操作无需准备数据。
操作步骤
进入虚拟磁盘操作界面。
1. 在主界面中选择“Virtual Disk Management”并按“Enter”。
2. 选择“Select Virtual Disk Operations”并按“Enter”。
进入虚拟磁盘操作界面,如图7-29所示。
步骤 2 删除指定RAID。
1. 选择“Select Virtual Disk”并按“Enter”。
2. 在列表中选择要删除的RAID并按“Enter”。
3. 通过“↑”、“↓”选择“Delete Virtual Disk”并按“Enter”。
进入操作确认界面
4. 通过“↑”、“↓”选择“Confirm”并按“Enter”。
5. 通过“↑”、“↓”选择“Yes”并按“Enter”。
显示Operation complete successfully。
6. 通过“↓”选择“OK”并按“Enter”。
完成配置。
----结束
查询RAID控制卡固件版本的方法有如下几种:
l 服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见7.7.2.2 查看所有信息。
回显信息中的“Firmware version”字段即为RAID控制卡的固件版本。
l 在RAID控制卡管理界面进行查询,具体方法为:
a. 登录RAID控制卡的管理界面,具体操作请参见7.3.1 登录管理界面。
b. 在主界面中选择“Controller Management”并按“Enter”。
c. 选择“View Controller Properties”并按“Enter”。
显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如图7-30所示。
图7-30 View Controller Properties页面
介绍了硬盘故障、RAID控制卡故障的常用处理方法。
更多故障案例请联系技术支持获取。
问题描述
当服务器出现如下现象时,说明硬盘故障。
l 硬盘故障指示灯常亮。
l 服务器开机状态下,硬盘指示灯不亮。
l 服务器上报硬盘故障告警。
处理方法
直通模式下的硬盘发生故障后,硬盘Fault指示灯不会被点亮且iBMC不会对其进行告警。
l 通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。
l 通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。
l 通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考7.6.4.1 View Physical Disk Properties。
l 通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考7.7.2.2 查看所有信息。
步骤 1 更换新硬盘。
l 更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考7.4.3 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。
l 若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在表7-2查看RAID组支持的最大故障硬盘数量。
l 更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。
l 新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。
拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:
l 若故障硬盘所属RAID组为冗余RAID且已配置热备盘,全局热备盘会自动替换故障硬盘进行数据同步和恢复。在故障硬盘槽位插入新硬盘后,新硬盘会自动变成热备盘。
l 若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。
l 若故障硬盘为直通盘,则直接更换即可。
l 若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。
− UEFI模式下创建RAID0的方法请参见7.3.2 创建RAID 0。
− 通过命令行方式创建RAID0的方法请参见7.7.2.3 创建和删除RAID。
----结束
问题描述
当服务器出现如下现象时,说明控制卡故障。
l 数据无法写入控制卡控制的硬盘。
l 服务器上报控制卡故障告警。
处理方法
登录iBMC Web界面查看告警信息。
步骤 1 根据告警信息,参考iBMC告警处理。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤3
步骤 3 查询兼容性查询助手或者联系技术支持处理。
----结束
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
重启服务器。当出现如图7-31所示界面时,按“F11”键。
步骤 2 输入密码,并按“Enter”。
进入如图7-32所示界面。
步骤 3 选择“Device Manager”并按“Enter”。
显示当前存在的RAID控制卡列表,如图7-33所示。
步骤 4 选择要操作的LSI SAS3008IR控制卡,按“Enter”。
打开“LSI SAS3 MPT Controller Configuration”界面,如图7-34所示界面。
图7-34 “LSI SAS3 MPT Controller Configuration”界面
步骤 5 按“Enter”进入LSI SAS3008IR的配置界面。
“Configuration Options”界面如图7-35所示,界面参数如表7-8所示。
图7-35 “Configuration Options”界面
参数 |
参数说明 |
Controller Management |
配置管理RAID控制卡属性。 |
Virtual Disk Management |
配置管理虚拟磁盘。 |
Physical Disk Management |
配置管理物理硬盘。 |
----结束
操作项 |
说明 |
View Controller Properties |
查看LSI SAS3008IR属性。 操作方法:选中该操作项并按“Enter”。 |
Change Controller Properties |
修改LSI SAS3008IR属性。 操作方法:选中该操作项并按“Enter”。 |
Create Configuration |
创建并管理RAID。 操作方法:选中该操作项并按“Enter”。 |
Clear Configuration |
清除当前配置。 操作方法:选中该操作项并按“Enter”。 |
Manage Foreign Configuration |
管理外部配置。 仅当LSI SAS3008IR中存在外部配置时,会显示该操作项。 操作方法:选中该操作项并按“Enter”。 |
Save Controller Events |
保存LSI SAS3008IR日志信息。 操作方法:选中该操作项并按“Enter”。 |
该界面显示LSI SAS3008IR控制卡属性。
界面介绍
表7-10 Controller Properties参数说明
参数 |
说明 |
Chip Name |
RAID控制卡名称。 |
Chip Version |
RAID控制卡版本信息。 |
PCI ID |
当前控制卡的PCI地址,格式为:总线号:设备号:功能号。 |
PCI Slot Number |
控制卡的PCI槽位号。 |
Host Interface |
RAID控制卡接口类型。 |
Physical Disk Count |
RAID控制卡下挂载的物理磁盘数。 |
Virtual Disk Count |
RAID控制卡下挂载的虚拟磁盘数。 |
Firmware Type |
RAID控制卡固件类型。 |
Firmware Version |
RAID控制卡的固件版本号。 |
Default NVData Version |
默认的RAID配置信息版本号。 |
Persistent NVData Version |
永久性RAID配置信息版本号。 |
当OS的处理能力不足时,您可以通过该界面设置RAID重构任务在系统资源中的占用率。
界面介绍
界面显示如图7-38所示。
图7-38 Change Controller Properties
修改重构速率
按“Enter”打开可修改的速率列表。
步骤 1 通过“↑”、“↓”选择要配置的速率并按“Enter”。
步骤 2 通过“↑”、“↓”选择“Apply Changes”并按“Enter”。
返回changes were applied。
----结束
您可以通过该界面配置RAID。
界面介绍
界面显示如图7-39所示。
配置RAID
选择RAID级别
1. 通过“↑”、“↓”选择“Select RAID level”并按“Enter”。
显示当前可配置的RAID级别,如图7-40所示。
2. 选择要配置的RAID级别并按“Enter”。
步骤 2 选择成员盘
1. 通过“↑”、“↓”选择“Select Physical Disks”并按“Enter”。
打开硬盘选择界面,如图7-41所示,界面中参数说明如表7-11所示。
参数 |
说明 |
Selected RAID Level |
已配置的RAID级别。 |
Select Interface Type |
选择硬盘接口类型,若RAID控制卡下挂载多种接口类型的硬盘,可通过该选项过滤。 |
Select Media Type |
选择硬盘类型,若RAID控制卡下挂载多种容量的硬盘,可通过该选项过滤。 |
0:2:0 SATA HDD-512b 1863GB |
可选择的硬盘。 |
Check All |
选中列出的所有硬盘。 |
Uncheck All |
取消选中硬盘。 |
2. 按表7-11所述选中RAID成员盘。
步骤 3 保存配置
1. 通过“↑”、“↓”选择“Apply Changes”并按“Enter”。
打开操作确认界面,如图7-42所示。
2. 通过“↑”、“↓”选择“Confirm”并按“Enter”。
3. 通过“↑”、“↓”选择“Yes”并按“Enter”。
提示Operation completed successfully。
4. 通过“↓”选择“OK”并按“Enter”。
配置完成。
----结束
您可以通过该选项删除当前RAID配置。
删除RAID配置
在“Controller Management”界面通过“↑”、“↓”选择“Clear Configuration”并按“Enter”。
打开操作确认界面,如图7-43所示。
步骤 2 通过“↑”、“↓”选择“Confirm”并按“Enter”。
步骤 3 通过“↑”、“↓”选择“Yes”并按“Enter”。
提示Operation completed successfully。
步骤 4 通过“↓”选择“OK”并按“Enter”。
配置完成。
----结束
您可以通过该界面查看、导入或清除外部配置。
仅当LSI SAS3008IR中存在外部配置时,会显示该操作项。
界面介绍
图7-44 Manage Foreign Configuration
参数 |
说明 |
Select Foreign Configuration |
选择要操作的外部配置。 |
View Foreign Configuration |
查看外部配置的详细信息。 |
Clear Foreign Configuration |
清除外部配置。 |
导入外部配置
在图7-44中选择“View Foreign Configuration”并按“Enter”。
图7-45 View Foreign Configuration
参数 |
说明 |
Selected Foreign Configuration |
已选定的外部配置。 |
Import Foreign Configuration |
导入当前外部配置。 |
Clear Foreign Configuration |
清除当前外部配置。 |
Last Known Volume State |
当前外部配置最近的已知状态。 该参数缺失时,此外部配置无法导入。 |
步骤 2 通过“↑”、“↓”选择“Import Foreign Configuration”并按“Enter”。
进入操作确认界面,如图7-46所示。
步骤 3 按“Enter”打开操作确认选项。
步骤 4 选择“Enabled”并按“Enter”。
步骤 5 通过“↑”、“↓”选择“Yes”并按“Enter”。
提示Operation completed successfully。
步骤 6 通过“↓”选择“OK”并按“Enter”。
配置完成。
----结束
清除外部配置
通过“↑”、“↓”选择“Clear Foreign Configuration”并按“Enter”。
进入操作确认界面。
步骤 1 按“Enter”打开操作确认选项。
步骤 2 通过“↑”、“↓”选择“Yes”并按“Enter”。
提示Operation completed successfully。
步骤 3 通过“↓”选择“OK”并按“Enter”。
配置完成。
----结束
您可以通过该界面保存控制卡的事件日志。
界面介绍
参数 |
说明 |
Available File Systems |
可用的文件系统。 |
Available Directories |
可用的文件路径。 |
Enter File Name |
输入文件名。 说明 事件日志文件格式为“*.bin”。 |
保存事件日志
按照表7-14所述配置文件系统、文件路径及文件名。
步骤 1 通过“↑”、“↓”选择“Save Events”并按“Enter”。
提示Operation completed successfully。
步骤 2 通过“↓”选择“OK”并按“Enter”。
配置完成。
----结束
操作项 |
说明 |
Manage Virtual Disk Properties |
查看并修改指定虚拟磁盘属性,并提供热备盘配置接口。 |
Select Virtual Disk Operations |
查看或删除指定虚拟磁盘。 |
图7-49 Manage Virtual Disk Properties
操作项 |
说明 |
Select Virtual Disk |
选择要操作的虚拟磁盘。 |
Virtual Disk ID |
虚拟磁盘的ID。 |
RAID Level |
虚拟磁盘的RAID级别。 |
Virtual Disk Status |
虚拟磁盘的状态。 |
Virtual Disk Capacity |
虚拟磁盘的容量。 |
Virtual Disk Policies |
虚拟磁盘的读写策略。 |
View Associated Physical Disks |
查看关联硬盘的属性。 |
Manage Global Hotspare Disks |
管理热备盘。 |
查看成员盘属性
在图7-49中选择“View Associated Physical Disks”并按“Enter”。
图7-50 View Associated Physical Disks
操作项 |
说明 |
Selected Virtual Disk |
选定的虚拟磁盘。 |
Associated Physical Disks |
成员盘列表。 |
步骤 2 通过“↑”、“↓”选择要查询的成员盘并按“Enter”。
步骤 3 通过“↑”、“↓”选择“View Physical Disk Properties”并按“Enter”。
打开硬盘属性界面,如图7-51所示。
步骤 4 通过“↑”、“↓”选择“View More Physical Disk Properties”并按“Enter”。
可查看到更多的硬盘属性,如图7-52所示。硬盘属性界面参数如表7-18所示。
操作项 |
说明 |
Select Physical Disk |
选定要查询的硬盘。 |
Physical Disk ID |
物理硬盘的ID。 |
State |
物理硬盘的状态。 |
Revision |
物理硬盘的版本。 |
Device Type |
设备类型。 |
SAS Address |
物理硬盘的SAS地址。 |
Disk Cache Setting |
物理硬盘的Cache使能状态。 |
Size |
物理硬盘的容量。 |
Disk Protocol |
硬盘类型。 |
Serial Number of Disk |
物理硬盘序列号。 |
Hardware Vendor |
物理硬盘的生产厂商。 |
Model Number |
物理硬盘的模块序号。 |
Hard Disk Drive RPM |
物理硬盘转速。 |
Neg. Disk Transfer Speed |
物理硬盘接口速率。 |
View More Physical Disk Properties |
物理硬盘的更多属性。 |
SMART Status |
SMART检测结果。 |
Hotspare |
该物理硬盘是否为热备盘。 |
Associated Virtual Disk |
该物理硬盘所在的虚拟磁盘。 |
----结束
配置热备盘
在图7-49中选择“Manage Global Hotspare Disks”并按“Enter”。
图7-53 Manage Global Hotspare Disks
操作项 |
说明 |
Selected Virtual Disk |
选定的虚拟磁盘。 |
Compatible Bare Disks |
可设置为热备盘的硬盘列表。 |
Global Hotspare Disks |
当前存在的热备盘列表。 |
Assign Global Hotspare Disk |
配置全局热备盘。 |
Unassign Global Hotspare Disk |
取消选中的全局热备盘。 |
步骤 2 通过“↑”、“↓”选择要配置的硬盘并按“Enter”。
步骤 3 通过“↑”、“↓”选择“Assign Global Hotspare Disk”并按“Enter”。
显示“Operation complete successfully”。
步骤 4 通过“↓”选择“OK”并按“Enter”。
完成配置。
----结束
删除热备盘
在图7-53中通过“↑”、“↓”选择要删除的热备盘并按“Enter”。
步骤 1 通过“↑”、“↓”选择“Unassign Global Hotspare Disk”并按“Enter”。
显示Operation complete successfully。
步骤 2 通过“↓”选择“OK”并按“Enter”。
完成配置。
----结束
图7-54 Select Virtual Disk Operations
操作项 |
说明 |
Select Virtual Disk |
选择要操作的虚拟磁盘。 |
Start Locate / Blink |
点亮虚拟磁盘中成员盘的定位指示灯。 |
Stop Locate / Blink |
熄灭虚拟磁盘中成员盘的定位指示灯。 |
Delete Virtual Disk |
删除虚拟磁盘。 |
Operation in Progress |
当前正在处理的操作。 |
Operation Pending |
等待执行的操作。 |
Allowed Operations |
允许执行的操作。 |
Operation Progress (%) |
任务处理进度。 |
Is Operation in Progress |
当前有任务正在处理中。 |
Start Operation |
开始操作。 |
点亮定位指示灯
通过“↑”、“↓”选择“Start Locate / Blink”并按“Enter”。
----结束
删除虚拟磁盘
通过“↑”、“↓”选择“Delete Virtual Disk”并按“Enter”。
进入操作确认界面。
步骤 1 通过“↑”、“↓”选择“Confirm”并按“Enter”。
步骤 2 通过“↑”、“↓”选择“Yes”并按“Enter”。
显示Operation complete successfully。
步骤 3 通过“↓”选择“OK”并按“Enter”。
完成配置。
----结束
图7-55 Physical Disk Management
操作项 |
说明 |
View Physical Disk Properties |
查看硬盘属性。 |
Select Physical Disk Operations |
对硬盘进行操作。 |
图7-56 View Physical Disk Properties
操作项 |
说明 |
Select Physical Disk |
选定要查询的硬盘。 |
Physical Disk ID |
物理硬盘的ID。 |
State |
物理硬盘的状态。 |
Revision |
物理硬盘的版本。 |
Device Type |
设备类型。 |
SAS Address |
物理硬盘的SAS地址。 |
Disk Cache Setting |
物理硬盘的Cache使能状态。 |
Size |
物理硬盘的容量。 |
Disk Protocol |
硬盘类型。 |
Serial Number of Disk |
物理硬盘序列号。 |
Unit Serial Number(UPD) |
物理硬盘的单位序号。 |
Hardware Vendor |
物理硬盘的生产厂商。 |
Model Number |
物理硬盘的模块序号。 |
Hard Disk Drive RPM |
物理硬盘转速。 |
界面显示如图7-57所示。
图7-57 Select Physical Disk Operations
点亮硬盘定位指示灯
通过“↓”、“↑”选择“Select Physical Disk”并按“Enter”。
步骤 1 在硬盘列表中选择待操作的硬盘并按“Enter”。
步骤 2 通过“↓”、“↑”选择“Start Locate / Blink”并按“Enter”。
----结束
退出配置界面。
退出配置界面
在LSI SAS3008IR主界面按“ESC”,显示如图7-58所示“Device Manager”界面。
步骤 2 按“F10”退出BIOS配置界面。
弹出操作确认对话框。
步骤 3 选择“OK”并按“Enter”。
退出BIOS界面,并提示“Press Control+Alt+Delete to reboot”。
----结束
使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。
下载工具
步骤 1 单击“Management Software and Tools”。
打开管理软件和工具列表。
步骤 2 下载最新版本的“SAS3IRCU”工具。
步骤 3 解压后得到适用于不同操作系统的工具包。
----结束
安装工具
使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统。
步骤 1 在Shell界面中进入SAS3IRCU工具所在目录。
Linux下的SAS3IRCU工具不需安装,此时可执行RAID控制卡命令。
----结束
命令功能
查看所有控制卡。
命令格式
sas3ircu list
参数说明
无
使用实例
# 查看所有控制卡
domino:~# ./sas3ircu list
Avago Technologies SAS3 IR Configuration Utility.
Version 13.00.00.00 (2016.03.08)
Copyright (c) 2009-2016 Avago Technologies. All rights reserved.
Adapter Vendor Device SubSys SubSys
Index Type ID ID Pci Address Ven ID Dev ID
----- ------------ ------ ------ ----------------- ------ ------
0 SAS3008 1000h 97h 00h:01h:00h:00h 1000h 3090h
SAS3IRCU: Utility Completed Successfully.
命令功能
查看RAID、虚拟磁盘、物理硬盘的详细信息。
命令格式
sas3ircu controller_id display
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
使用实例
# 查看RAID、虚拟磁盘、物理硬盘的详细信息。
l 2个硬盘分别设置为第一启动项和第二启动项时,display命令可查询到相关信息,例如:
domino:~# ./sas3ircu 0 display
l 硬盘和RAID组和分别被设置为第一启动项和第二启动项时,display命令可查询到相关信息,例如:
domino:~# ./sas3ircu 0 display
命令功能
创建和删除RAID。
删除命令会删除所有RAID组。
命令格式
sas3ircu controller_id create RAIDlevel capacity enclosure_id:slot_id name noprompt
sas3ircu controller_id delete noprompt
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
level |
要配置的RAID级别 |
– |
capacity |
要配置的RAID组容量 |
可以为MAX,表示配置RAID组容量最大容量。 |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
硬盘槽位号 |
– |
name |
RAID组的名字 |
用户自拟 |
使用实例
# 创建RAID组
domino:~# ./sas3ircu 0 create RAID1 MAX 1:0 1:1 Test01 noprompt
Avago Technologies SAS3 IR Configuration Utility.
Version 13.00.00.00 (2016.03.08)
Copyright (c) 2009-2016 Avago Technologies. All rights reserved.
Please wait, may take up to a minute...
SAS3IRCU: Volume created successfully.
SAS3IRCU: Command CREATE Completed Successfully.
SAS3IRCU: Utility Completed Successfully.
# 创建RAID组
domino:~# ./sas3ircu 0 create RAID1 MAX 1:2 1:3 Test01 noprompt
Avago Technologies SAS3 IR Configuration Utility.
Version 13.00.00.00 (2016.03.08)
Copyright (c) 2009-2016 Avago Technologies. All rights reserved.
Please wait, may take up to a minute...
SAS3IRCU: Volume created successfully.
SAS3IRCU: Command CREATE Completed Successfully.
SAS3IRCU: Utility Completed Successfully.
# 删除RAID组
domino:~# ./sas3ircu 0 delete noprompt
Avago Technologies SAS3 IR Configuration Utility.
Version 13.00.00.00 (2016.03.08)
Copyright (c) 2009-2016 Avago Technologies. All rights reserved.
Please wait, may take up to a minute...
SAS3IRCU: Volume deleted successfully.
SAS3IRCU: Command DELETE Completed Successfully.
SAS3IRCU: Utility Completed Successfully.
命令功能
删除指定的RAID组。
命令格式
sas3ircu controller_id deletevolume volume_id noprompt
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
volume_id |
RAID组ID |
– |
使用实例
# 删除ID为322的RAID组
domino:~# ./sas3ircu 0 deletevolume 322 noprompt
Avago Technologies SAS3 IR Configuration Utility.
Version 13.00.00.00 (2016.03.08)
Copyright (c) 2009-2016 Avago Technologies. All rights reserved.
Please wait, may take up to a minute...
SAS3IRCU: Volume deleted successfully.
SAS3IRCU: Command DELETEVOLUME Completed Successfully.
SAS3IRCU: Utility Completed Successfully.
命令功能
模拟硬盘故障。
命令格式
sas3ircu controller_id action enclosure_id:slot_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
action |
要执行的操作 |
l setonline:上线 l setoffline:下线 |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
硬盘槽位号 |
– |
使用实例
# 模拟硬盘下线故障。
domino:~# ./sas3ircu 0 setoffline 1:2
Avago Technologies SAS3 IR Configuration Utility.
Version 13.00.00.00 (2016.03.08)
Copyright (c) 2009-2016 Avago Technologies. All rights reserved.
SAS3IRCU: Physical disk set to Offline successfully.
SAS3IRCU: Command SETOFFLINE Completed Successfully.
SAS3IRCU: Utility Completed Successfully.
# 模拟硬盘上线故障。
domino:~# ./sas3ircu 0 setonline 1:2
Avago Technologies SAS3 IR Configuration Utility.
Version 13.00.00.00 (2016.03.08)
Copyright (c) 2009-2016 Avago Technologies. All rights reserved.
SAS3IRCU: Physical disk set to Online successfully.
SAS3IRCU: Command SETONLINE Completed Successfully.
SAS3IRCU: Utility Completed Successfully.
命令功能
创建、删除热备盘。
命令格式
sas3ircu controller_id hotspare enclosure_id:slot_id
sas3ircu controller_id hotspare delete enclosure_id:slot_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
硬盘槽位号 |
– |
使用实例
# 创建热备盘。
domino:~# ./sas3ircu 0 hotspare 1:2
Avago Technologies SAS3 IR Configuration Utility.
Version 13.00.00.00 (2016.03.08)
Copyright (c) 2009-2016 Avago Technologies. All rights reserved.
WARNING: Proceeding with this operation may cause data loss or data
corruption. Are you sure you want to proceed (YES/NO)?yes
WARNING: This is your last chance to abort this operation. Do you wish
to abort (YES/NO)?no
Please wait,may take up to a minute...
SAS3IRCU: Hot Spare disk created successfully.
SAS3IRCU: Command HOTSPARE Completed Successfully.
SAS3IRCU: Utility Completed Successfully.
# 删除热备盘。
domino:~# ./sas3ircu 0 hotspare delete 1:2
Avago Technologies SAS3 IR Configuration Utility.
Version 13.00.00.00 (2016.03.08)
Copyright (c) 2009-2016 Avago Technologies. All rights reserved.
WARNING: Proceeding with this operation may cause data loss or data
corruption. Are you sure you want to proceed (YES/NO)?yes
WARNING: This is your last chance to abort this operation. Do you wish
to abort (YES/NO)?no
Please wait,may take up to a minute...
SAS3IRCU: Hot Spare disk deleted successfully.
SAS3IRCU: Command HOTSPARE Completed Successfully.
SAS3IRCU: Utility Completed Successfully.
命令功能
查看虚拟磁盘状态。
命令格式
sas3ircu controller_id status
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
使用实例
# 查看虚拟磁盘状态。
domino:~# ./sas3ircu 0 status
Avago Technologies SAS3 IR Configuration Utility.
Version 13.00.00.00 (2016.03.08)
Copyright (c) 2009-2016 Avago Technologies. All rights reserved.
Background command progress status for controller 0...
IR volume 1
Volume ID : 323
Current operation : Background Init
volume Status : Enabled
Volume state : Optimal
Volume wwid : 0307b565aa18c1fb
Physical disk I/Os : Not quiesced
Volume size (in sectors) : 1560545280
Number of remaining sectors : 1558128640
Percentage complete : 0.15%
IR volume 2
Volume ID : 323
Current operation : none
volume Status : Enabled
Volume state : Optimal
Volume wwid : 09fb6da3d1048925
Physical disk I/Os : Not quiesced
SAS3IRCU: Command STATUS Completed Successfully.
SAS3IRCU: Utility Completed Successfully.
命令功能
可对指定组做一致性校验。
命令格式
sas3ircu controller_id constchk volume_id noprompt
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
volume_id |
RAID组的ID |
– |
使用实例
# 一致性校验
domino:~# ./sas3ircu 0 constchk 322 noprompt
Avago Technologies SAS3 IR Configuration Utility.
Version 13.00.00.00 (2016.03.08)
Copyright (c) 2009-2016 Avago Technologies. All rights reserved.
SAS3IRCU: Consistency Check Operation started on IR Volume.
SAS3IRCU: Command CONSTCHK Completed Successfully.
SAS3IRCU: Utility Completed Successfully.
命令功能
当有外部配置时,可通过激活RAID组使其生效。
命令格式
sas3ircu controller_id activate volume_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
volume_id |
待激活RAID组的ID |
– |
使用实例
# 激活ID为322的RAID组。
domino:~# ./sas3ircu 0 activate 322
Avago Technologies SAS3 IR Configuration Utility.
Version 13.00.00.00 (2016.03.08)
Copyright (c) 2009-2016 Avago Technologies. All rights reserved.
SAS3IRCU: ACTIVATE Volume 322 Passed!
SAS3IRCU: Command ACTIVATE Completed Successfully.
SAS3IRCU: Utility Completed Successfully.
命令功能
点亮指定硬盘的指示灯。
命令格式
sas3ircu controller_id locate enclosure_id:slot_id on
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
硬盘槽位号 |
– |
使用实例
# 点亮指定硬盘的指示灯。
domino:~# ./sas3ircu 0 locate 1:0 on
Avago Technologies SAS3 IR Configuration Utility.
Version 13.00.00.00 (2016.03.08)
Copyright (c) 2009-2016 Avago Technologies. All rights reserved.
SAS3IRCU: LOCATE command completed successfully.
SAS3IRCU: Command LOCATE Completed Successfully.
SAS3IRCU: Utility Completed Successfully.
命令功能
收集和清除RAID组事件日志。
命令格式
sas3ircu controller_id logir upload name
sas3ircu controller_id logir clear
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
name |
日志文件名 |
用户自拟 |
使用实例
# 收集RAID组事件日志并存储到本地文件FW.log。
domino:~# ./sas3ircu 0 logir upload FW.log
Avago Technologies SAS3 IR Configuration Utility.
Version 13.00.00.00 (2016.03.08)
Copyright (c) 2009-2016 Avago Technologies. All rights reserved.
SAS3IRCU: LogIR command successful.
SAS3IRCU: Command LOGIR Completed Successfully.
SAS3IRCU: Utility Completed Successfully.
# 清除RAID组事件日志。
domino:~# ./sas3ircu 0 logir clear
Avago Technologies SAS3 IR Configuration Utility.
Version 13.00.00.00 (2016.03.08)
Copyright (c) 2009-2016 Avago Technologies. All rights reserved.
WARNING: proceeding with this operation will erase all log information
stored in th controller. Are you sure you want to proceed (YES/NO)? yes
SAS3IRCU: LogIR command successful.
SAS3IRCU: Command LOGIR Completed Successfully.
SAS3IRCU: Utility Completed Successfully.
关于本章
本章节主要介绍LSI SAS3108 RAID控制卡的外观、特性、以及配置方法。
本章节涉及的截图以4.660.00-8140 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。
LSI SAS3108 RAID 控制卡(以下简称LSI SAS3108)是基于MegaRAID架构的8端口12Gbit/s SAS控制卡,并采用PCIe3.0 x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。
LSI SAS3108用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。
LSI SAS3108自带的Cache对RAID控制卡性能的提升有非常重要的作用,主要体现在:
l 在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。
l 在读数据时,如果可以直接在Cache中命中的话,将减少硬盘寻道操作,降低响应时间,提升了数据读速度。
l Cache数据的掉电保护依赖于与RAID控制卡相连的超级电容。超级电容的外形、连接方式、安装方式可参考各服务器的用户指南。
l 配套超级电容使用的TFM扣卡的指示灯说明如表8-1所示。
LSI SAS3108的结构如图8-1所示。
1 |
TFM扣卡状态指示灯 |
2 |
TFM扣卡故障指示灯 |
3 |
TFM扣卡电源指示灯 |
4 |
TFM扣卡(配套超级电容使用) |
5 |
超级电容接口 |
6 |
超级电容 |
7 |
Xcede连接器 |
8 |
RAID控制卡 |
9 |
miniSAS接口(port A,SFF-8643) |
10 |
miniSAS接口(port B,SFF-8643) |
指示灯 |
颜色 |
说明 |
TFM扣卡电源指示灯 |
绿色 |
l 亮:服务器主板掉电时,超级电容激活并为Cache供电。 l 灭:超级电容不供电。 |
TFM扣卡状态指示灯 |
蓝色 |
l 亮:Cache处于读写状态。 l 灭:Cache无数据读写操作。 |
TFM扣卡故障指示灯 |
橙色 |
l 亮:超级电容故障。 l 灭:超级电容正常。 |
RAID控制卡指示灯
LSI SAS3108扣卡包含两种类型,分别如图8-2和图8-3所示。
表8-2 指示灯说明
序号 |
位置 |
指示灯 |
颜色 |
说明 |
指示灯异常处理策略 |
1 |
D8 |
VCC_1V5 电源指示灯 |
绿色 |
灯亮:电压正常 灯灭:电压异常 |
如果灯灭,需要更换RAID控制卡 |
2 |
D7 |
心跳指示灯 |
绿色 |
闪烁:RAID控制卡心跳正常 灯灭:RAID控制卡心跳异常 |
如果灯灭,需要更换RAID控制卡 |
3 |
D4 |
SYS_ERR1 指示灯 |
红色 |
灯亮:RAID控制卡出现ERR1告警 灯灭:RAID控制卡工作正常 |
如果灯亮,需要更换RAID控制卡 |
4 |
D1 |
SYS_ERR0 指示灯 |
红色 |
灯亮:RAID控制卡出现ERR0告警 灯灭:RAID控制卡工作正常 |
如果灯亮,需要更换RAID控制卡 |
5 |
D6 |
Global drive fault 指示灯 |
红色 |
灯亮:RAID控制卡FW工作异常 灯灭:RAID控制卡FW工作正常 |
如果灯亮,需要更换RAID控制卡 |
6 |
D5 |
Write Pending指示灯 |
红色 |
灯亮:RAID控制卡当前Cache中有数据 灯灭:RAID控制卡当前Cache中无数据 |
不涉及 |
表8-3 指示灯说明
序号 |
位置 |
指示灯 |
颜色 |
说明 |
指示灯异常处理策略 |
1 |
D8 |
VCC_1V5 电源指示灯 |
绿色 |
灯亮:电压正常 灯灭:电压异常 |
如果灯灭,需要更换RAID控制卡 |
2 |
D7 |
心跳指示灯 |
绿色 |
闪烁:RAID控制卡心跳正常 灯灭:RAID控制卡心跳异常 |
如果灯灭,需要更换RAID控制卡 |
3 |
D2 |
SYS_ERR1 指示灯 |
红色 |
灯亮:RAID控制卡出现ERR1告警 灯灭:RAID控制卡工作正常 |
如果灯亮,需要更换RAID控制卡 |
4 |
D1 |
SYS_ERR0 指示灯 |
红色 |
灯亮:RAID控制卡出现ERR0告警 灯灭:RAID控制卡工作正常 |
如果灯亮,需要更换RAID控制卡 |
5 |
D4 |
Global drive fault 指示灯 |
红色 |
灯亮:RAID控制卡FW工作异常 灯灭:RAID控制卡FW工作正常 |
如果灯亮,需要更换RAID控制卡 |
6 |
D3 |
Write Pending指示灯 |
红色 |
灯亮:RAID控制卡当前Cache中有数据 灯灭:RAID控制卡当前Cache中无数据 |
不涉及 |
LSI SAS3108支持的硬盘、虚拟磁盘、硬盘组数量分别为:
l 最多支持32或240个硬盘(LSI SAS3108支持2种规格的RAID Key,分别支持32盘和240盘)。
该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。
l 最多支持64个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
l 最多支持64个硬盘组(即配置界面中看到的“Drive Group”),每个硬盘组最多支持32或240个硬盘。
l 每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
LSI SAS3108支持的RAID类型及对应的硬盘个数如表8-4所示。
RAID级别 |
支持硬盘数 |
支持子组数 |
子组支持硬盘数 |
允许坏盘数 |
RAID 0 |
1~32 |
不涉及 |
不涉及 |
0 |
RAID 1 |
2~32(偶数) |
硬盘数÷2 |
||
RAID 5 |
3~32 |
1 |
||
RAID 6 |
3~32 |
2 |
||
RAID 10 |
4~32/240(偶数) |
2~8个RAID 1 |
2~16/32(偶数) |
子组数 |
RAID 50 |
6~32/240 |
2~8个RAID 5 |
3~16/32 |
子组数 |
RAID 60 |
8~32/240 |
2~8个RAID 6 |
3~16/32 |
子组数x2 |
l 不支持RAID 00级别。
l 子组数:子RAID的个数,例如RAID 50由两个RAID 5组成,则子组数为2。
l RAID 10、RAID 50每个子组中最多允许1个坏盘。
l RAID 60每个子组中最多允许2个坏盘。
l 根据配置的RAID Key类型不同,RAID 10、50、60支持的硬盘数有所不同。
l 在Windows硬盘管理界面中,LSI SAS3108的虚拟磁盘(Virtual Drive)和JBOD盘的“Bus Type”均显示为“RAID”。
l RAID10、50、60包含的总硬盘数由子组数和子组支持的硬盘数共同决定。
LSI SAS3108的热备功能分为两种:热备盘和紧急备份。
热备盘
对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l Global HSP:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的硬盘故障时,全局热备盘均可自动替代。
配置方法请参见8.4.1.1 配置全局热备盘。
l Dedicated HSP:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的硬盘故障时,局部热备盘可自动替换。
配置方法请参见8.4.1.2 配置局部热备盘。
热备盘容量需大于等于成员盘容量。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
l 用作热备盘的硬盘数据将会丢失。
紧急备份
使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的空闲盘会自动替代故障成员盘并进行重构,避免数据丢失。
l 紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。
l 在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。
l 紧急备份的硬盘生效次序:相同类型硬盘 > 相同接口不同介质类型硬盘 > 不同接口相同介质类型硬盘 > 不同接口不同介质类型硬盘。
紧急备份有两种情况,对应了两种设置:
l 当成员盘fail时,空闲盘替代成员盘作为紧急备份。
l 当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。
具体配置方法请参见8.4.2 设置紧急热备功能。
热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。
l 请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。
l 插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。
l 人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考8.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。
具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。
l 不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:
l RAID组状态保持“Optimal”不变。
l 热备盘状态由“Online”变为“Hot Spare”。
l 新加入硬盘状态由“Copyback/Copybacking”变为“Online”。
l 可使用命令行工具暂停或继续回拷。
l 若回拷时重启服务器,进度将保存。
l 局部热备以及全局热备,更换故障盘后,均会产生回拷。
条带化
当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待。
条带化技术是一种自动的将I/O的负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。
影响条带化效果的因素有:
l 条带宽度:指同时可以并发读或写的条带数量。
这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。
l 条带大小:指写在每块硬盘上的条带数据块的大小。
分条
硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。
LSI SAS3108支持多种条带大小,包括64KB、128KB、256KB、512KB及1MB,默认配置为256KB。
配置RAID时一般采用默认值。
RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见8.4.5 迁移RAID级别。
当前支持以下级别类型的迁移:
l RAID 0迁移到RAID 1、RAID 5、RAID 6
l RAID 1迁移到RAID 0、RAID 5、RAID 6
l RAID 5迁移到RAID 0、RAID 6
l RAID 6迁移到RAID 0、RAID 5
RAID迁移对硬盘数量的要求如表8-5所示。
迁移RAID级别 |
原始硬盘组硬盘数量 |
迁移后的硬盘组硬盘数量 |
RAID 0迁移到RAID 1 |
1~32 |
2~32(偶数) |
RAID 0迁移到RAID 5 |
1~32 |
3~32 |
RAID 0迁移到RAID 6 |
1~32 |
3~32 |
RAID 1迁移到RAID 0 |
2~32(偶数) |
2~32 |
RAID 1迁移到RAID 5 |
2~32(偶数) |
3~32 |
RAID 1迁移到RAID 6 |
2~32(偶数) |
3~32 |
RAID 5迁移到RAID 0 |
3~32 |
3~32 |
RAID 5迁移到RAID 6 |
3~32 |
3~32 |
RAID 6迁移到RAID 0 |
3~32 |
3~32 |
RAID 6迁移到RAID 5 |
3~32 |
3~32 |
VD初始化
创建VD(Virtual Drive)后,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。LSI SAS3108提供了多种相应的初始化方式:
l 前台初始化:
− 快速初始化:Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。
− 完全初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。
l 后台初始化:
− 对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。
− 对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。
l 一致性校验和后台初始化通常会对性能造成一定损失,直至该操作完成。
l 一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。
硬盘初始化
硬盘可执行的初始化包括:
l Initialize Drive:对前100MByte空间进行全写0操作。
l Drive Erase:对全部空间进行写0操作。
不支持停止SATA SSD的擦除和初始化过程。
LSI SAS3108支持的容量扩展方式有两种:
l 通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。
详细操作方法可参考8.4.4 添加新硬盘到RAID。
l 通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。
详细操作方法可参考8.4.3 扩展Virtual Drives可用空间。
l 只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。
l RAID10、RAID 50、RAID 60不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。
l 当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见8.7.2.31 通过增加成员盘可用容量扩容RAID。
安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘和硬盘的安全擦除功能:
l Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。
l Normal:对虚拟磁盘或硬盘进行三轮擦除动作。
l Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。
全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。
LSI SAS3108支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。
系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况,称之为写洞。
将写失败的数据备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:
l RAID 1、RAID 5、RAID 6、RAID 10、RAID 50,RAID 60支持写洞保护,Write hole数据都保存在掉电保护区,不需要开关控制。
− 掉电保护装置可用时,Write hole数据异常掉电重启后会进入恢复流程。
− 掉电保护装置不可用时,记录在掉电保护区的Write hole数据异常掉电后丢失,不做Write hole恢复。
l RAID 1、RAID 5掉线盘时不可做写洞保护。
l RAID 6掉线一块盘时可做写洞保护。
l RAID 10、RAID 50、RAID 60部分降级时可做写洞保护,按子组恢复数据。完全降级时不可做写洞保护。
l 不对RAID 0做写洞保护。
LSI SAS3108支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:
l Read:读策略选择“Read Ahead”或“Ahead”模式,LSI SAS3108在读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,提升了数据读速度。
l Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,LSI SAS3108就向HOST发出数据传输完成的信号。
在写数据时,直接写入Cache,当写入的数据积累到一定程度,LSI SAS3108才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。
数据写入高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用高速缓存来提升系统性能。
l 开启高速缓存可提升整机写性能,当服务器写压力减小或高速缓存将写满时,数据再由高速缓存写入硬盘。
l 开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。
为了提升整机的高读写性能和高速缓存中数据的安全,可为LSI SAS3108配置超级电容。
超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将高速缓存中的数据写入超级电容模块中的NAND Flash中。
LSI SAS3108在配置了特定的RAID Key后,支持CacheCade Pro 2.0特性。
CacheCade允许RAID控制卡使用SSD硬盘创建一个CacheCade专用的虚拟磁盘作为二级Cache,为当前存在的RAID提供更好的I/O性能。
硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。
硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。
硬盘巡检不能在参与以下任何操作的任何硬盘上运行:
l RAID热备修复
l 动态扩盘
l 完全初始化或后台初始化
l 一致性校验
S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免电脑数据受到损失。
RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,便会记录日志。
RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。
默认情况下,硬盘节能功能处于开启状态。
当硬盘节能功能开启且在指定时间内没有I/O访问时,RAID控制卡下挂载的“Uncongfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。
硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。
LSI SAS3108可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在LSI SAS3108下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。
LSI SAS3108支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
如果需要使能硬盘直通功能,请在图8-101所示界面的“JBOD Mode”参数进行设置。
l 开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。
l JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
硬盘漫游是指在同一控制卡下移动物理硬盘。控制卡将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行磁盘漫游。
要使用硬盘漫游,按以下步骤操作:
1. 关闭操作系统。
2. 将服务器下电。
3. 将物理硬盘移动到背板所需位置。
4. 执行安全检查。确保正确插入物理硬盘。
5. 将服务器上电。
6. 控制卡从物理硬盘上的配置数据中检测到RAID配置。
如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。
此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置的漫游。
LSI SAS3108提供硬盘故障记录功能:
l 使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。
l 禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,LSI SAS3108会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回烤),此时可能会覆盖新硬盘上原有的数据。
维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。
l 使能该功能后,当硬盘故障时,会点亮Fault指示灯。
l 禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。
默认情况下,LSI SAS3108使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。
针对有冗余功能的RAID 1、5、6、10、50、60,RAID控制卡可以对RAID组的硬盘数据进行一致性校验,对硬盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。
由于RAID 0不具备冗余性,因此不支持一致性校验。
建议每月至少进行一次一致性校验。
文档中描述的关于LSI SAS3108的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。
操作场景
该任务指导用户登录LSI SAS3108的配置管理界面。
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
重启服务器。当出现如图8-4所示界面时,按“F11”键。
步骤 2 输入密码,并按“Enter”。
进入如图8-5所示界面。
步骤 3 选择“Device Manager”并按“Enter”。
显示当前存在的RAID控制卡列表,如图8-6所示。
如果Device Manager界面显示“Some drivers are not healthy”,请参见8.5.4 Device Manager中RAID控制卡状态显示Not Healthy进行修复。
步骤 4 选择要操作的LSI SAS3108控制卡,按“Enter”。
进入如图8-7和图8-8所示主界面,界面参数如表8-6所示。
参数 |
说明 |
Main Menu |
RAID控制卡主菜单,包含了RAID控制卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID控制卡当前工作状态。 |
Backplane |
背板个数。 |
BBU |
超级电容在位情况。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的硬盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID控制卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 |
Configure |
提供删除配置的接口。 |
Set Factory Defaults |
恢复出厂设置。 |
Update Firmware |
升级固件。 说明 LSI SAS3108不支持在此界面升级FW。 |
Silence Alarm |
板载蜂鸣器的使能状态。 LSI SAS3108未配置蜂鸣器,此项设置不起作用。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l LSI SAS3108支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看8.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见8.3.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图8-9和图8-10所示,参数说明如表8-7所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。默认配置为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认取值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接受到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l 默认取值为“Write Back”。 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认取值为Direct。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 默认取值为Read/Write。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 默认取值为Unchanged。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
在打开的列表中选择“Unconfigured Capacity”并按“Enter”。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”打开添加成员盘的界面,如图8-11所示,界面参数如表8-8所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 按表8-8所述配置过滤条件。
5. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
硬盘后的“[X]”表示该硬盘已选择。
6. 选择“Apply Changes”按“Enter”保存配置。
界面提示“The operation has been performed successfully.”
7. 通过“↓”选择“OK”并按“Enter”,完成成员盘配置。
步骤 4 按照表8-7所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照8.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 通过“↓”选择“OK”完成配置。
步骤 6 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
步骤 7 退出配置界面。
1. 连续按“ESC”返回BIOS的“Advanced”界面。
2. 按“F10”退出BIOS配置界面。
弹出操作确认框。
3. 选择“Yes”。
提示重启系统。
4. 重启服务器。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l LSI SAS3108支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看8.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见8.3.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图8-12和图8-13,参数说明如表8-9所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。默认配置为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认取值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接受到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l 默认取值为“Write Back”。 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认取值为Direct。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 默认取值为Read/Write。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 默认取值为Unchanged。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
在打开的列表中选择“Unconfigured Capacity”并按“Enter”。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”打开添加成员盘的界面,如图8-14所示,界面参数如表8-10所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 按表8-10所述配置过滤条件。
5. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
硬盘后的“[X]”表示该硬盘已选择。
6. 选择“Apply Changes”按“Enter”保存配置。
界面提示“The operation has been performed successfully.”
7. 通过“↓”选择“OK”并按“Enter”,完成成员盘配置。
步骤 4 按照表8-9所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照8.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 通过“↓”选择“OK”完成配置。
步骤 6 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
步骤 7 退出配置界面。
1. 连续按“ESC”返回BIOS的“Advanced”界面。
2. 按“F10”退出BIOS配置界面。
弹出操作确认框。
3. 选择“Yes”。
提示重启系统。
4. 重启服务器。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l LSI SAS3108支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看8.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见8.3.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图8-15和图8-16所示,参数说明如表8-11所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。默认配置为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认取值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接受到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l 默认取值为“Write Back”。 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认取值为Direct。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 默认取值为Read/Write。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 默认取值为Unchanged。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中通过“↑”、“↓”选择要配置的RAID级别“RAID 5”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
在打开的列表中选择“Unconfigured Capacity”并按“Enter”。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”打开添加成员盘的界面,如图8-17所示,界面参数如表8-12所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 按表8-12所述配置过滤条件。
5. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
硬盘后的“[X]”表示该硬盘已选择。
6. 选择“Apply Changes”按“Enter”保存配置。
界面提示“The operation has been performed successfully.”
7. 通过“↓”选择“OK”并按“Enter”,完成成员盘配置。
步骤 4 按照表8-11所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照8.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 通过“↓”选择“OK”完成配置。
步骤 6 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
步骤 7 退出配置界面。
1. 连续按“ESC”返回BIOS的“Advanced”界面。
2. 按“F10”退出BIOS配置界面。
弹出操作确认框。
3. 选择“Yes”。
提示重启系统。
4. 重启服务器。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l LSI SAS3108支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看8.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见8.3.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图8-18和图8-19所示,参数说明如表8-13所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。默认配置为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认取值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接受到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l 默认取值为“Write Back”。 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认取值为Direct。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 默认取值为Read/Write。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 默认取值为Unchanged。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 6”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
在打开的列表中选择“Unconfigured Capacity”并按“Enter”。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”打开添加成员盘的界面,如图8-20所示,界面参数如表8-14所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 按表8-14所述配置过滤条件。
5. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
硬盘后的“[X]”表示该硬盘已选择。
6. 选择“Apply Changes”按“Enter”保存配置。
界面提示“The operation has been performed successfully.”
7. 通过“↓”选择“OK”并按“Enter”,完成成员盘配置。
步骤 4 按照表8-13所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照8.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 通过“↓”选择“OK”完成配置。
步骤 6 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
步骤 7 退出配置界面。
1. 连续按“ESC”返回BIOS的“Advanced”界面。
2. 按“F10”退出BIOS配置界面。
弹出操作确认框。
3. 选择“Yes”。
提示重启系统。
4. 重启服务器。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l LSI SAS3108支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看8.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见8.3.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图8-21和图8-22所示,参数说明如表8-15所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。默认配置为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认取值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接受到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l 默认取值为“Write Back”。 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认取值为Direct。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 默认取值为Read/Write。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 默认取值为Unchanged。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
在打开的列表中选择“Unconfigured Capacity”并按“Enter”。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”打开添加成员盘的界面,如图8-23所示,界面参数如表8-16所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 按表8-16所述配置过滤条件。
5. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘后的“[X]”表示该硬盘已选择。
l RAID 10支持2~8个Span,每个Span支持的硬盘数为2~16/32(偶数),且各个Span的硬盘数量必须保持一致。
l RAID 10支持的硬盘总数为4~32/240(偶数)。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32或240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
6. 选择“Apply Changes”按“Enter”保存配置。
界面提示“The operation has been performed successfully.”
7. 通过“↓”选择“OK”并按“Enter”,完成成员盘配置。
当配置的级别为RAID10时,需要配置多个Span,此时配置界面如图8-24所示。
1. 选择“Add More Spans”并按“Enter”。
2. 选择“Select Drives”并按“Enter”。
在打开的列表中选择第2个Span的成员盘。
各个Span的硬盘数量必须保持一致。
3. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
4. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID10至少需要创建2个Span,最多可以创建8个Span。
步骤 6 按照表8-15所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照8.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 通过“↓”选择“OK”完成配置。
步骤 8 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
步骤 9 退出配置界面。
1. 连续按“ESC”返回BIOS的“Advanced”界面。
2. 按“F10”退出BIOS配置界面。
弹出操作确认框。
3. 选择“Yes”。
提示重启系统。
4. 重启服务器。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l LSI SAS3108支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看8.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见8.3.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图8-25和图8-26所示,参数说明如表8-17所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。默认配置为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认取值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接受到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l 默认取值为“Write Back”。 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认取值为Direct。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 默认取值为Read/Write。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 默认取值为Unchanged。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 50”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
在打开的列表中选择“Unconfigured Capacity”并按“Enter”。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”打开添加成员盘的界面,如图8-27所示,界面参数如表8-18所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 按表8-18所述配置过滤条件。
5. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘后的“[X]”表示该硬盘已选择。
l RAID 50支持2~8个Span,每个Span支持的硬盘数为3~16/32(取决于RAID Key的规格),且各个Span的硬盘数量必须保持一致。
l RAID 50支持的硬盘总数为6~32/240(取决于RAID Key的规格)。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32或240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
6. 选择“Apply Changes”按“Enter”保存配置。
界面提示“The operation has been performed successfully.”
7. 通过“↓”选择“OK”并按“Enter”,完成成员盘配置。
当配置的级别为RAID50时,需要配置多个Span,此时配置界面如图8-28所示。
1. 选择“Add More Spans”并按“Enter”。
2. 选择“Select Drives”并按“Enter”。
在打开的列表中选择第2个Span的成员盘。
各个Span的硬盘数量必须保持一致。
3. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
4. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID50至少需要创建2个Span,最多可以创建8个Span。
步骤 6 按照表8-17所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照8.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 通过“↓”选择“OK”完成配置。
步骤 8 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
步骤 9 退出配置界面。
1. 连续按“ESC”返回BIOS的“Advanced”界面。
2. 按“F10”退出BIOS配置界面。
弹出操作确认框。
3. 选择“Yes”。
提示重启系统。
4. 重启服务器。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l LSI SAS3108支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看8.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见8.3.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图8-29和图8-30所示,参数说明如表8-19所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。默认配置为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认取值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接受到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l 默认取值为“Write Back”。 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认取值为Direct。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 默认取值为Read/Write。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 默认取值为Unchanged。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 60”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
在打开的列表中选择“Unconfigured Capacity”并按“Enter”。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”打开添加成员盘的界面,如图8-31所示,界面参数如表8-20所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 按表8-20所述配置过滤条件。
5. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘后的“[X]”表示该硬盘已选择。
l RAID 60支持2~8个Span,每个Span支持的硬盘数为3~16/32(取决于RAID Key的规格),且各个Span的硬盘数量必须保持一致。
l RAID 60支持的硬盘总数为6~32/240(取决于RAID Key的规格)。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32或240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
6. 选择“Apply Changes”按“Enter”保存配置。
7. 界面提示“The operation has been performed successfully.”,通过“↓”选择“OK”并按“Enter”,完成成员盘配置。
当配置的级别为RAID60时,需要配置多个Span,此时配置界面如图8-32所示。
1. 选择“Add More Spans”并按“Enter”。
2. 选择“Select Drives”并按“Enter”。
在打开的列表中选择第2个Span的成员盘。
各个Span的硬盘数量必须保持一致。
3. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
4. 单击“OK”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID60至少需要创建2个Span,最多可以创建8个Span。
步骤 6 按照表8-19所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照8.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 通过“↓”选择“OK”完成配置。
步骤 8 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
步骤 9 退出配置界面。
1. 连续按“ESC”返回BIOS的“Advanced”界面。
2. 按“F10”退出BIOS配置界面。
弹出操作确认框。
3. 选择“Yes”。
提示重启系统。
4. 重启服务器。
----结束
同一台服务器配置了单个LSI SAS3108卡或者多种芯片硬盘控制卡的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。
设置启动项的操作方法请参见 BIOS 参数参考 的“设置服务器启动设备”章节。
对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
LSI SAS3108控制卡支持2种类型的热备盘:
l Global Hotspare:即全局热备盘,为控制卡上所有已配置的RAID所共有,1块控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
l Dedicated Hotspare:即局部热备盘,为控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
l 用作热备盘的硬盘数据将会丢失。
操作步骤
登录管理界面,具体方法请参见8.3.1 进入管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图8-33所示。
步骤 2 配置全局热备盘
1. 将“Operation”设置为“Assign Global Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返还上级界面。
----结束
操作步骤
当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
登录管理界面,具体操作方法请参见8.3.1 进入管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图8-34所示。
步骤 2 配置局部热备盘
1. 将“Operation”设置为“Assign Dedicated Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
打开当前存在的虚拟磁盘列表。
3. 选择要关联的虚拟磁盘并按“Enter”。
显示The operation has been performed successfully
4. 选择“OK”按“Enter”完成配置并返还上级界面。
----结束
操作场景
该任务指导用户删除热备盘。
当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。
必备事项
前提条件
已登录管理界面,具体方法请参见8.3.1 进入管理界面。
数据
该操作无需准备数据。
操作步骤
进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图8-35所示。
步骤 2 删除热备盘
1. 将“Operation”设置为“Unassign Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 将“Confirm”设置为“Enable”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返还上级界面。
----结束
操作步骤
登录管理界面,具体操作方法请参见8.3.1 进入管理界面。
步骤 1 进入“Advanced Controller Properties”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
3. 选择“Advanced Controller Properties”并按“Enter”。
进入“Advanced Controller Properties”界面,如图8-36所示。
图8-36 Advanced Controller Properties(1)
步骤 2 设置紧急热备。
1. 选择“Spare”并按“Enter”。
2. 将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如图8-37所示。
图8-37 Advanced Controller Properties(2)
3. 选择“Apply Changes”并按“Enter”。
4. 选择“OK”并按“Enter”,完成配置。
----结束
操作场景
在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。
该任务指导安装调测工程师扩大Virtual Drives的可用空间。
必备事项
前提条件
已登录管理界面,具体方法请参见8.3.1 进入管理界面。
数据
操作之前请备份数据。
操作步骤
进入要操作的虚拟磁盘界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图8-38所示。
图8-38 Virtual Drive Management
步骤 2 扩容虚拟磁盘
1. 将“Operation”设置为“Expand Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入虚拟磁盘扩容界面,如图8-39界面所示,界面参数如表8-21所示。
参数 |
参数说明 |
Current Capacity |
虚拟磁盘当前容量。 |
Available Capacity |
可用于扩展的容量。 |
Enter a Percentage of Available Capacity |
输入扩容比例。 操作方法: 1. 选择该配置项并按“Enter”。 2. 输入要配置的百分比并按“Enter”。 |
Capacity of Virtual Drive after Expansion |
扩容后虚拟磁盘容量。 |
3. 设置扩容百分比。
4. 选择“OK”并按“Enter”。
显示The operation has been performed successfully。
5. 按“OK”完成配置并返还上级界面。
----结束
操作场景
该任务指导用户添加新硬盘到RAID中。
RAID的扩容方式有如下2种:
l 通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。
l 通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。
l 只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。
l RAID10、RAID 50、RAID 60不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
对系统的影响
增加硬盘扩容过程中,如果出现硬盘故障,会导致:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行增加硬盘扩容操作。
必备事项
前提条件
添加硬盘扩容之前,需具备如下条件:
l 服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。
l 已通过远程虚拟控制台登录到服务器的实时操作桌面。
l 已登录管理界面,具体方法请参见8.3.1 进入管理界面。
数据
操作之前建议先备份数据。
操作步骤
进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”。
进入虚拟磁盘选项界面,如图8-40所示。
步骤 2 添加新硬盘
1. 选择要进行扩容的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图8-41所示。
3. 选择“Reconfigure Virtual Drives”,并按“Go”。
4. 选择要扩容的RAID级别。
增加硬盘扩容时,请保证该处的RAID级别与原级别一致。
5. 选择“Choose the Operation”,并按“Go”。
进入硬盘选择界面,如图8-42所示。
6. 选择要增加的硬盘,并按“Apply Changes”。
进入确认操作界面。
l 增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。
l RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。
7. 选择“Confirm”并按“Yes”。
8. 选择“OK”并按“Enter”。
返回到如图8-43所示界面。
图8-43 Reconfigure Virtual Drives
9. 选择“Start Operation”并按“Enter”。
进入如图8-44所示界面,提示操作完成。
10. 选择“OK”并按“Enter”。
按“Esc”返回虚拟磁盘选项界面,验证扩容结果,如图8-45所示,表示RAID正在进行扩容。
图8-45 Virtual Drive Management
----结束
操作场景
随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。
在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。
对系统的影响
RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行RAID级别迁移操作。
必备事项
前提条件
迁移RAID级别之前,需具备如下条件:
l 已通过远程虚拟控制台登录到服务器的实时操作桌面。
l 当前存在的硬盘个数满足目标RAID级别要求。
l 已登录管理界面,具体方法请参见8.3.1 进入管理界面。
LSI SAS3108RAID控制卡支持以下级别类型的迁移:
l RAID 0迁移到RAID 1、RAID 5、RAID 6
l RAID 1迁移到RAID 0、RAID 5、RAID 6
l RAID 5迁移到RAID 0、RAID 6
l RAID 6迁移到RAID 0、RAID 5
RAID迁移对硬盘数量的要求如表8-5所示。
l 当RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
l 迁移只支持增加与RAID组成员盘同类型同规格的硬盘。
l 为防止数据丢失,请在该操作之前备份当前RAID组的数据。
l 只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。
l 迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。
数据
为防止数据丢失,请在该操作之前备份当前RAID的数据。
操作步骤
进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”并按“Enter”。
进入虚拟磁盘选项界面,如图8-46所示。
步骤 2 选择RAID迁移的目标级别。
下面以将RAID 0迁移到RAID 1为例进行说明。
1. 选择要进行迁移的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图8-47所示。
3. 选择“Reconfigure Virtual Drives”,并按“Enter”。
4. 选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如图8-48所示。不设置时默认与原RAID组配置一致。
5. 选择“Go”,并按“Enter”。
进入RAID配置界面,如图8-49所示。
图8-49 Reconfigure Virtual Drives
6. 选择“New RAID Level”并按“Enter”。
打开RAID迁移的目标级别选择窗口,如图8-50所示。
7. 选择“RAID 1”并按“Enter”。
步骤 3 添加硬盘。
1. 选择“Choose the operation”并按“Enter”。
打开硬盘选择窗口。
2. 选择要增加的硬盘并按“Enter”。
l RAID迁移对硬盘数量的要求请参见表8-5。
l 增加的硬盘要与RAID组的成员盘同类型同规格。
3. 选择“Apply Changes”并按“Enter”。
弹出操作确认会话框。
4. 选择“Confirm”并按“Enter”。
5. 选择“Yes”并按“Enter”。
提示操作成功。
6. 选择“OK”并按“Enter”返回图8-49界面。
步骤 4 RAID级别迁移。
1. 选择“Start Operation”并按“Enter”。
提示操作成功。
步骤 5 查看迁移结果。
1. 进入Virtual Drive Management界面,检查迁移结果,如图8-51所示,表示RAID正在进行迁移。
l 迁移过程中若重启服务器,该任务将在重启后继续进行。
l 迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。
2. 选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 0”变成“RAID 1”,RAID组容量增大,且“Status”状态显示为“Optimal”,表示RAID迁移成功。
----结束
操作场景
该任务指导安装调测工程师如何删除RAID。
必备事项
前提条件
已登录管理界面,具体方法请参见8.3.1 进入管理界面。
数据
操作之前请备份数据。
操作步骤
进入“Virtual Dashboard View”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图8-52所示。
图8-52 Virtual Drive Management
步骤 2 删除虚拟磁盘
1. 将“Operation”设置为“Delete Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 将“Confirm”设置为“Enable”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返还上级界面。
----结束
RAID中成员硬盘故障时,无论是更换新硬盘还是使用热备盘替代故障硬盘,都需要进行RAID重构。
默认情况下,当RAID有重构需求,并且有满足同步条件的硬盘存在时,系统自动启动重构操作。但当控制卡的“Auto Rebuild”属性为“Disable”时,则需要手动重构。
该任务指导安装调测工程师进行RAID重构操作。
界面介绍
在“Main Menu”界面中选择“Drive Management”节点下具体的硬盘,并按“Enter”可打开该硬盘的操作菜单,如图8-53,可执行的操作如表8-22所示。
操作 |
说明 |
Select operation |
选择以下操作。 |
Star Locate |
点亮硬盘定位指示灯。 |
Stop Locate |
熄灭硬盘定位指示灯。 |
Rebuild |
重构RAID。 l Suspend l Resume l Stop |
Place drive Online |
将硬盘上线。 |
Mark drive as Missing |
将离线的硬盘脱离RAID组。 |
重构RAID
在菜单中选择“Rebuild”并按“Enter”。
打开Rebuild菜单。
步骤 1 选择操作类型,并按“Enter”。
弹出操作确认对话框。
步骤 2 选择“YES”并按“Enter”。
----结束
当出现硬盘离线情况时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。
操作场景
用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。
该任务指导安装调测工程师查看RAID控制卡属性。
必备事项
前提条件
已登录管理界面,具体方法请参见8.3.1 进入管理界面。
数据
该操作无需准备数据。
操作步骤
进入“Controller Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
显示RAID控制卡基本信息,如图8-54所示,参数说明如表8-23所示。
参数 |
参数说明 |
Product Name |
RAID控制卡名称。 |
Serial Number |
RAID控制卡序列号。 |
Controller Status |
RAID控制卡的工作状态。 |
Select Boot Device |
当前启动项。 说明 EFI模式下,该配置项不生效。 |
PCI ID |
RAID控制卡的PCI ID。 |
PCI Slot Number |
RAID控制卡的PCI槽位号。 |
Package Version |
RAID控制卡的套件版本。 |
Firmware Version |
RAID控制卡的固件版本号。 |
NVDATA Version |
RAID控制卡配置信息的版本号。 |
Connector Count |
RAID控制卡与主板的接口个数。 |
Drive Count |
RAID控制卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID控制卡下已有虚拟磁盘数量。 |
Advanced Controller Management |
更多的控制卡操作。 操作方法:选中该操作项并按“Enter”进入详细配置界面。 |
Advanced Controller Properties |
查看和修改控制卡的高级属性。 操作方法:选中该操作项并按“Enter”进入详细配置界面。 |
步骤 2 查看控制卡高级属性
1. 选择“Advanced Controller Properties”并按“Enter”。
进入控制卡高级属性界面,如图8-55所示,参数说明如表8-24所示。
在该界面下,可查看并修改RAID控制卡的高级属性。
图8-55 Advanced Controller Properties
参数 |
说明 |
Cache and Memory |
查看控制卡Cache和Memory信息。 |
Patrol Read |
系统巡检。 |
Power Save Setting |
设置硬盘休眠。 |
Spare |
设置控制卡热备状态。 |
Task Rates |
设置各种任务占用系统比率。 |
Alarm Control |
LSI SAS3108 RAID控制卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。 |
Controller BIOS |
控制卡BIOS的使能情况。 |
ROC Temperature |
控制卡温度。 |
Shield State Supported |
是否支持暂停I/O,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
硬盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Expanded Virtual Drive Support |
是否支持扩容虚拟磁盘的功能。 |
Maintain Drive Fail History |
表示是否使能硬盘故障记录功能,默认为使能状态。 说明 l 该参数设置为“Disabled”时: l 当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。 l 新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。 l 该参数设置为“Enabled”时: l 新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。 l 新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见8.4.9 导入和清除外部配置章节。 |
SMART Polling |
SMART轮巡检测周期。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性校验 |
JBOD Mode |
是否使能硬盘直通功能。 |
----结束
操作场景
l 服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。
l 新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。
l 如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!
l 为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。
l 当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。
导入外部配置
登录管理界面,具体方法请参见8.3.1 进入管理界面。
步骤 1 在主界面中选择“Main Menu”并按“Enter”。
步骤 2 选择“Configuration Management”并按“Enter”。
步骤 3 选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。
进入外部配置管理界面,如图8-56所示。
图8-56 Manage Foreign Configuration
步骤 4 选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图8-57所示。
步骤 5 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 6 选择“Confirm”并按“Enter”。
步骤 7 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 8 单击“OK”完成配置返回上级界面。
----结束
清除外部配置
登录管理界面,具体方法请参见8.3.1 进入管理界面。
步骤 1 在主界面中选择“Main Menu”并按“Enter”。
步骤 2 选择“Configuration Management”并按“Enter”。
步骤 3 选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。
进入外部配置管理界面,如图8-58所示。
图8-58 Manage Foreign Configuration
步骤 4 选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 5 选择“Confirm”并按“Enter”。
步骤 6 在列表中选择“Enable”并按“Enter”。
步骤 7 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 8 单击“OK”完成配置返回上级界面。
----结束
LSI SAS3108通过特殊的RAID Key,提供CacheCade功能,扩展Read Caching容量,并引入Write Caching。使用SSD硬盘创建一个CacheCade专用的RAID作为二级Cache,为当前存在的RAID提供更好的I/O性能。
操作场景
该任务指导用户创建CacheCade虚拟磁盘。
LSI SAS3108配置CacheCade的RAID Key后,可在CU界面创建CacheCade虚拟磁盘,为当前存在的RAID提供二级Cache。
必备事项
前提条件
已登录管理界面,具体方法请参见8.3.1 进入管理界面。
数据
无
硬件
存在空闲的SSD硬盘。
操作步骤
确认RAID Key已激活。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 按照“Controller Management > Advanced Controller Management > Manage MegaRAID Advanced Software Options”路径打开“Manage MegaRAID Advanced Software Options”界面。
当界面中存在“CacheCade Pro 2.0”且状态为“Unlimited”时,表明支持CacheCade的Key已激活。
3. 按“ESC”返回“Main Menu”菜单。
确认空闲SSD硬盘已存在。
4. 选择“Drive Management”进入硬盘列表。
5. 确认当前存在空闲的SSD硬盘。
6. 按“ESC”返回“Main Menu”菜单。
步骤 1 配置CacheCade虚拟磁盘
1. 按照“Configuration Management > Create CacheCade Virtual Drive”路径打开“Create CacheCade Virtual Drive”界面。
打开“Create CacheCade Virtual Drive”界面如图8-59所示,界面参数如表8-25所示。
图8-59 “Create CacheCade Virtual Drive”界面
参数 |
说明 |
CacheCade Virtual Drive Name |
用户自定义的CacheCade虚拟磁盘名称。 设置方法: 1. 将光标移至该配置项并按“Enter”。 2. 输入用户自定义的名称并按“Enter”。 |
Logical Sector Size |
CacheCade虚拟磁盘的扇区大小。该参数不可手动修改,系统会根据后续选择的SSD硬盘自动适配。 |
RAID Level |
CacheCade虚拟磁盘的RAID级别。 设置方法: 1. 将光标移至该配置项并按“Enter”。 2. 在菜单中选择要配置的RAID级别并按“Enter”。 说明 CacheCade虚拟磁盘仅支持RAID 0、RAID 1。 |
Write Cache Policy |
CacheCade虚拟磁盘的读写策略,默认为“Write Through”。 l Write Back:该模式下,CacheCade虚拟磁盘同时用作读写Cache。当由于硬盘故障等原因导致RAID降级时,该CacheCade仅作为Read Cache。 l Write Through:该模式下,CacheCade虚拟磁盘仅用作Read Cache。 设置方法: 1. 将光标移至该配置项并按“Enter”。 2. 在菜单中选择要配置的读写策略并按“Enter”。 |
2. 按照表8-25所述配置CacheCade虚拟磁盘的名称、RAID级别以及读写策略。
3. 在“SELECT SSD DRIVES”列表中按“Enter”选中要加入CacheCade虚拟磁盘的SSD硬盘。
SSD硬盘前显示“[X]”时,表示该硬盘已选中。
4. 将光标移至“Create CacheCade Virtual Drive”并按“Enter”。
界面提示The operation has been performed successfully。
5. 将光标移至“OK”并按“Enter”。
----结束
操作场景
该任务指导用户删除CacheCade虚拟磁盘。
必备事项
前提条件
已登录管理界面,具体方法请参见8.3.1 进入管理界面。
数据
无
操作步骤
在主界面中选择“Main Menu”并按“Enter”。
步骤 1 选择“Virtual Drive Management”进入虚拟磁盘列表。
步骤 2 选择要删除的CacheCade虚拟磁盘并按“Enter”。
进入虚拟磁盘界面,如图8-60所示,界面参数如表8-26所示。
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:定位虚拟磁盘的所有硬盘。 l Stop Locate:取消定位。 l Delete Virtual Drive:删除虚拟磁盘。 操作方法: 1. 选择该配置项并按“Enter”。 2. 在列表中选择要执行的操作并按“Enter”。 |
Name |
CacheCade虚拟磁盘名称。 操作方法: 1. 将光标移至该配置项并按“Enter”。 2. 输入用户自定义的名称并按“Enter”。 |
Raid Level |
CacheCade虚拟磁盘RAID级别。 |
Status |
CacheCade虚拟磁盘当前运行状态。 |
Size |
CacheCade虚拟磁盘容量。 |
View Associated Drives |
查看CacheCade虚拟磁盘的成员盘属性。 操作方法:选择该配置项并按“Enter”进入详细的操作界面。 |
Current Write Cache Policy |
CacheCade虚拟磁盘的当前读写策略。 l Write Back:该模式下,CacheCade虚拟磁盘同时用作读写Cache。当由于硬盘故障等原因导致RAID降级时,该CacheCade仅作为Read Cache。 l Write Through:该模式下,CacheCade虚拟磁盘仅用作Read Cache。 设置方法: 1. 将光标移至该配置项并按“Enter”。 2. 在菜单中选择要配置的读写策略并按“Enter”。 |
Default Write Cache Policy |
CacheCade虚拟磁盘默认的读写策略。 |
步骤 3 在“Operation”菜单中选择“Delete Virtual Drive”并按“Enter”。
步骤 4 将光标移至“Go”并按“Enter”。
显示操作确认界面。
步骤 5 将光标移至“Confirm”并按“Enter”。
使其状态变为“[X]”。
步骤 6 选择“Yes”并按“Enter”。
提示CacheCade虚拟磁盘已删除。
步骤 7 将光标移“OK”并按“Enter”。
----结束
操作场景
有两种方式可以在普通虚拟磁盘上使能SSD Caching:
l 配置CacheCade的RAID Key后,在创建普通虚拟磁盘过程中会提示是否启用SSD Caching功能。
l 配置CacheCade的RAID Key后,可通过修改普通虚拟磁盘的属性来启用SSD Caching功能。
该任务指导用户通过修改普通虚拟磁盘的属性来启用SSD Caching功能。
必备事项
前提条件
已登录管理界面,具体方法请参见8.3.1 进入管理界面。
数据
无
操作步骤
在主界面中选择“Main Menu”并按“Enter”。
步骤 1 选择“Virtual Drive Management”进入虚拟磁盘列表。
步骤 2 选择要启用SSD Caching功能的虚拟磁盘并按“Enter”。
进入虚拟磁盘界面,如图8-61所示,界面参数如表8-27所示。
图8-61 Virtual Drive Management
参数 |
参数说明 |
Operation |
可执行的操作。 |
Name |
虚拟磁盘名称。 |
Raid Level |
虚拟磁盘RAID级别。 |
Status |
虚拟磁盘当前运行状态。 |
Size |
虚拟磁盘容量。 |
View Associated Drives |
查看虚拟磁盘的成员盘属性。 |
Advanced |
查看虚拟磁盘高级属性。 |
步骤 3 在“Operation”菜单中选择“Enable SSD Caching”并按“Enter”。
步骤 4 将光标移至“Go”并按“Enter”。
显示操作确认界面。
步骤 5 将光标移至“Confirm”并按“Enter”。
使其状态变为“[X]”。
步骤 6 选择“Yes”并按“Enter”。
提示The operation has been started successfully。
步骤 7 将光标移“OK”并按“Enter”。
----结束
该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID0存在一个VD为例,详细操作方法如下:
按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如图8-62所示。
步骤 2 将“Select Drives From”设置为“Free Capacity”,如图8-63所示。
步骤 3 选择“Select Drive Groups”并按“Enter”。
显示当前存在的RAID组(Drive Group),如图8-64所示。
步骤 4 选择要创建多个VD的RAID组并按“Enter”,如图8-65所示。
步骤 5 选择“Apply Changes”并按“Enter”。
提示操作成功。
步骤 6 选择“OK”并按“Enter”返回VD配置界面,如图8-66所示,参数说明如表8-28所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drive Groups |
选择硬盘组。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。默认配置为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认取值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接受到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l 默认取值为“Write Back”。 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认取值为Direct。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 默认取值为Read/Write。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 默认取值为Unchanged。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 7 按照表8-28所述配置VD的相关属性。
步骤 8 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
步骤 9 选择“Confirm”并按“Enter”。
步骤 10 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
可进入Virtual Drive Management界面,查看当前存在的所有VD,如图8-67所示。
图8-67 Virtual Drive Management
----结束
每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤11。
LSI SAS3108支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
l 开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。
l LSI SAS3108的Firmware版本为6121及以上时,方可配置JBOD模式,且服务器必须已安装对应版本的驱动。
l JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
登录管理界面,具体操作方法请参见8.3.1 进入管理界面。
步骤 1 依次进入Main Menu>Controller Management>Advanced Controller Properties界面,如图8-68所示。
图8-68 Advanced Controller Properties
步骤 2 选择“JBOD Mode”并按Enter。
步骤 3 选择“Enabled”并按“Enter”。
步骤 4 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 选择“OK”并按“Enter”完成配置。
----结束
查询RAID控制卡固件版本的方法有如下几种:
l 在iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。
l 服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见8.7.2.1 查询RAID控制卡配置信息。
回显信息中的“FW Version”字段即为RAID控制卡的固件版本。
l 在RAID控制卡管理界面查询,具体方法为:
a. 登录RAID控制卡的管理界面,具体操作请参见8.3.1 进入管理界面
b. 在主界面中选择“Main Menu”并按“Enter”。
进入“Main Menu”页面,如图8-69所示。
c. 选择“Controller Management”并按“Enter”。
显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如图8-70所示。
介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。
更多故障案例请联系技术支持获取。
问题描述
当服务器出现如下现象时,说明硬盘故障。
l 硬盘故障指示灯常亮。
l 服务器开机状态下,硬盘指示灯不亮。
l 服务器上报硬盘故障告警。
处理方法
JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
l 通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。
l 通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。
l 通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考8.6.2.4 Drive Management。
l 通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
步骤 1 更换新硬盘。
l 更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考8.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。
l 若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在8.2.1 支持多种RAID类型查看RAID组支持的最大故障硬盘数量。
l 更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。
l 新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。
拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:
l 若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。
l 若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。
l 若故障硬盘为直通盘,则直接更换即可。
l 若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。
− UEFI模式下创建RAID0的方法请参见8.3.2 创建RAID 0。
− 通过命令行方式创建RAID0的方法请参见8.7.2.2 创建和删除RAID。
----结束
问题描述
正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
但当RAID控制卡未设置紧急热备时,成员盘状态显示为fail或prefail时,可使用以下方法处理。
处理方法
使用StorCLI工具,具体操作请参考8.7.1 下载和安装StorCLI工具。
步骤 1 执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考8.7.2.17 设置硬盘状态。
storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]
l controller_id:硬盘所在RAID控制卡的ID
l enclosure_id:硬盘所在Enclosure的ID
l slot_id:物理硬盘槽位ID
步骤 2 更换离线硬盘。
步骤 3 RAID组自动执行重构。
等待重构完成。
----结束
问题描述
硬盘状态显示为Unconfigured Bad或UBad。
处理方法
使用StorCLI工具,具体操作请参见8.7.1 下载和安装StorCLI工具。
步骤 1 执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见8.7.2.17 设置硬盘状态。
storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]
l controller_id:硬盘所在RAID控制卡的ID
l enclosure_id:硬盘所在Enclosure的ID
l slot_id:物理硬盘槽位ID
步骤 2 重新查看硬盘状态是否更改为Unconfigured Good或Ugood。具体操作请参见8.6.2.4 Drive Management界面或8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤4。
步骤 3 查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见8.4.9 导入和清除外部配置或8.7.2.37 查看/导入/清除外部配置。
l 问题解决 => 处理完毕。
l 问题未解决 => 联系技术支持处理。
----结束
问题描述
当RAID控制卡电容故障时,可能导致服务器出现如下情况:
l 服务器读写速度显著降低。
l RAID控制卡的CU界面中显示电容状态异常。
处理方法
进入RAID控制卡的CU界面,查看电容状态是否为“Optimal”。
电容状态可查询“Properties”界面的“Battery Status”参数。
l 是 => 处理完毕。
l 否 => 步骤2
步骤 1 将服务器下电,打开机箱,并查看RAID控制卡电容是否在位。
l 是 => 步骤4
l 否 => 步骤3
步骤 2 检查整机配置,为服务器安装电容,查看电容状态是否为“Optimal”。
l 是 => 处理完毕。
l 否 => 步骤6
步骤 3 重新安装RAID控制卡电容,查看电容状态是否为“Optimal”。
l 是 => 处理完毕。
l 否 => 步骤5
步骤 4 更换RAID控制卡电容,查看电容状态是否为“Optimal”,且“问题描述”所述的异常状态是否消失。
l 是 => 处理完毕
l 否 => 步骤6
----结束
问题描述
当服务器出现如下现象时,说明控制卡故障。
l 数据无法写入控制卡控制的硬盘。
l 服务器上报控制卡故障告警。
处理方法
登录iBMC Web界面查看告警信息。
步骤 1 根据告警信息,参考iBMC告警处理。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤3
步骤 3 查询兼容性查询助手或者联系技术支持处理。
----结束
问题描述
如图8-71所示,进入“Device Manager”界面后,显示“Some drivers are not healthy”。
处理方法
选择“Some drivers are not healthy”并按“Enter”。
进入健康状态查询界面,如图8-72所示。
步骤 2 选择“Repair the whole platform”,并按“Enter”。
进入“Critical Message”界面。
步骤 3 查看“Critical Message”界面的打印信息。
l 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见8.5.4.1 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
l 显示“There are offline or missing virtual drives with preserved cache.” => 请参见8.5.4.2 There are offline or missing virtual drives with preserved cache。
l 显示“The following VDs have missing disks. ”=> 请参见8.5.4.3 The following VDs have missing disks。
l 显示“Number of disks exceeded the maximum supported count of 32 disks”=> 请参见8.5.4.4 Number of disks exceeded the maximum supported count of 32 disks。
l 显示“Memory/battery problems were detected / Unexpected power-loss occurred”=> 请参见8.5.4.5 Memory/battery problems were detected / Unexpected power-loss occurred。
----结束
RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见0RAID控制卡启动中出现的常见的错误消息及处理方法。
问题描述
如图8-73所示,选择“Repair the whole platform”,进入“Critical Message”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”。
处理建议
该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:
l 下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。
l 忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:
a. 在图8-73中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
b. 输入“c”并按“Enter”。
c. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
d. 输入“y”并按“Enter”。
提示Critical Message handling completed. Please exit。
e. 按“Esc”退出当前界面。
弹出确认保存配置会话框,如图8-74所示。
f. 按“Y”保存配置,操作完成。
g. 按Esc键返回“Device Manager”界面。
h. 选择3108RAID控制卡,并按“Enter”,进入RAID控制卡管理界面。
问题描述
如图8-75所示,进入“Critical Message”界面后,显示There are offline or missing virtual drives with preserved cache。
处理方法
在图8-75中选择“Enter Your Input Here”并按“Enter”。
弹出输入框,如图8-76所示。
步骤 2 输入任意内容,并按“Enter”。
提示Critical Message handling completed. Please exit。
步骤 3 按“Esc”键。
弹出操作确认对话框,如图8-77所示。
步骤 4 按“Y”保存配置。
步骤 5 按“Esc”键返回“Dashboard View”界面,如图8-78所示。
步骤 6 选择“Discard Preserved Cache”并按“Enter”。
弹出操作确认对话框,如图8-79所示。
图8-79 “Discard Preserved Cache”界面
步骤 7 选择“Confirm”并按“Enter”。
步骤 8 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 9 选择“OK”并按“Enter”。
步骤 10 重启服务器。
步骤 11 进入“Device Manager”界面,检查界面是否显示The platform is healthy。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。
处理方法
修复RAID控制卡。
1. 选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
2. 输入“c”并按“Enter”。
返回“Driver Healthy Protocol Utility”界面。
3. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
4. 输入“y”并按“Enter”。
提示Critical Message handling completed. Please exit。修复完成。
步骤 1 按“Esc”退出当前界面。
弹出操作确认对话框。
步骤 2 按“Y”保存配置。
步骤 3 重启服务器,进入“Device Manager”界面,检查界面是否显示“The platform is healthy”。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图8-80所示,进入“Driver Healthy Protocol Utility”界面后,显示“Number of disks exceeded the maximum supported count of 32 disks”。
处理方法
出现该打印信息表示当前LSI SAS3108RAID控制卡配置的RAID Key仅支持32个硬盘,请将服务器下电,拔出多余的硬盘,再上电,即会在“Advanced”页签正常显示RAID控制卡信息。如未修复,请联系技术工程师处理。
问题描述
如图8-81所示,进入“Driver Healthy Protocol Utility”界面后,显示“Memory/battery problems were detected / Unexpected power-loss occurred”。
处理方法
选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
步骤 1 输入任意内容,并按“Enter”。
提示Critical Message handling completed. Please exit。修复完成。
步骤 2 重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD mode将RAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如图8-82所示,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。
当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。
处理方法
(可选)登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面。
步骤 1 依次进入Main Menu>Controller Management>Advanced Controller Management界面,如图8-83所示。
图8-83 Advanced Controller Management界面
步骤 2 选择“Switch to RAID mode”并按“Enter”。
提示操作成功,如图8-84所示。
步骤 3 选择“OK”并按“Enter”。
返回到“Advanced Controller Management”界面,显示正在切换模式,如图8-85所示。
图8-85 Advanced Controller Management界面
步骤 4 按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面。
步骤 5 依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如图8-86所示。
图8-86 Advanced Controller Management界面
l 是 => 处理完毕。
l 否 => 请联系技术支持。
----结束
问题描述
l 无法创建RAID组。
l 进入控制卡主界面后,显示“Discard Preserved Cache”,如图8-87所示。
处理方法
进入控制卡主界面。
步骤 1 选择“Discard Preserved Cache”并按Enter。
弹出操作确认界面,如图8-88所示。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示“The operation has been performed successfully”即操作成功。
----结束
操作场景
该任务指导用户登录LSI SAS3108的配置管理界面。
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
重启服务器。当出现如图8-89所示界面时,按“F11”键。
步骤 2 输入密码,并按“Enter”。
进入如图8-90所示界面。
步骤 3 选择“Device Manager”并按“Enter”。
显示当前存在的RAID控制卡列表,如图8-91所示。
如果Device Manager界面显示“Some drivers are not healthy”,请参见8.5.4 Device Manager中RAID控制卡状态显示Not Healthy进行修复。
步骤 4 选择要操作的LSI SAS3108控制卡,按“Enter”。
进入如图8-92和图8-93所示主界面,界面参数如表8-29所示。
参数 |
说明 |
Main Menu |
RAID控制卡主菜单,包含了RAID控制卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID控制卡当前工作状态。 |
Backplane |
背板个数。 |
BBU |
超级电容在位情况。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的硬盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID控制卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 |
Configure |
提供删除配置的接口。 |
Set Factory Defaults |
恢复出厂设置。 |
Update Firmware |
升级固件。 说明 LSI SAS3108不支持在此界面升级FW。 |
Silence Alarm |
板载蜂鸣器的使能状态。 LSI SAS3108未配置蜂鸣器,此项设置不起作用。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。
界面介绍
“Main Menu”界面如图8-94,参数说明如表8-30所示。
参数 |
参数说明 |
Configuration Management |
配置管理RAID。 操作方法:选中该操作项并按“Enter”进入详细配置界面。 |
Controller Management |
管理RAID控制卡。 操作方法:选中该操作项并按“Enter”进入详细配置界面。 |
Virtual Drive Management |
管理虚拟磁盘。 操作方法:选中该操作项并按“Enter”进入详细配置界面。 |
Drive Management |
管理硬盘。 操作方法:选中该操作项并按“Enter”进入详细配置界面。 |
Hardware Components |
查询部件信息。 操作方法:选中该操作项并按“Enter”进入详细配置界面。 |
可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。
界面介绍
“Configuration Management”界面如图8-95,参数说明如表8-31所示。
图8-95 Configuration Management
参数 |
参数说明 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。 |
View Drive Group Properties |
查看硬盘组属性。 当存在硬盘组时会显示该参数。 |
Make JBOD |
将硬盘设置为JBOD盘。 |
Clear Configuration |
清除当前所有RAID配置。 |
Manage Foreign Configuration |
管理外部配置。 当存在外部配置时会显示该参数。 |
快速创建RAID
在图8-95中选择“Create Profile Based Virtual Drive”并按“Enter”。
步骤 1 通过“↑”、“↓”选择要创建的RAID(以“Generic RAID 6”为例)并按“Enter”。
打开RAID配置界面,如图8-96,参数说明如表8-32所示。
参数 |
说明 |
Drive Selection Criteria |
系统自动选择的成员盘。 |
Virtual Drive Name |
系统自定义的RAID组名称。 |
RAID Level |
当前配置的RAID组的级别。 |
Virtual Drive Size |
RAID组的容量。 |
Power Save Mode |
数据掉电保护模式。 |
Strip Size |
RAID组扇区大小。 |
Read Policy |
RAID组的数据读策略。 |
Write Policy |
RAID组的数据写策略。 |
IO Policy |
RAID组I/O策略。 |
Access Policy |
数据读写的策略。 |
Drive Cache |
硬盘Cache策略。 |
Default Initialization |
RAID组默认的初始化方式。 |
Create Dedicated Hot Spare |
是否为RAID组创建局部热备盘。 |
步骤 2 按表8-32所示查看或配置相关参数。
步骤 3 选择“Save Configuration”并按“Enter”。
弹出操作成功提示界面。
步骤 4 按“Enter”。
----结束
查看虚拟磁盘属性
在图8-95中选择“View Drive Group Properties”并按“Enter”。
图8-97 View Drive Group Properties
参数 |
参数说明 |
Drive Group |
硬盘组名称。 |
Capacity Allocation |
硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。 |
Protected |
硬盘组数据保护功能的使能状态。 |
----结束
将硬盘设置为JBOD盘
在图8-95中选择“Make JBOD”并按“Enter”。
步骤 1 选中要设置成JBOD盘的硬盘,并按“Enter”。
步骤 2 选择“Enabled”并按“Enter”。
步骤 3 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
清除RAID配置
在图8-95中选择“Clear Configuration”并按“Enter”。
进入操作确认界面。
步骤 1 选中“Confirm”并按“Enter”。
步骤 2 在打开的列表中选择“Enabled”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 按“Enter”。
配置完成。
----结束
该界面提供控制卡管理接口,可查看并修改控制卡的详细参数。
界面介绍
“Controller Management”界面如图8-98,参数说明如表8-34所示。
参数 |
参数说明 |
Product Name |
RAID控制卡名称。 |
Serial Number |
RAID控制卡序列号。 |
Controller Status |
RAID控制卡的工作状态。 |
Select Boot Device |
当前启动项。 说明 EFI模式下,该配置项不生效。 |
PCI ID |
RAID控制卡的PCI ID。 |
PCI Slot Number |
RAID控制卡的PCI槽位号。 |
Package Version |
RAID控制卡的套件版本。 |
Firmware Version |
RAID控制卡的固件版本号。 |
NVDATA Version |
RAID控制卡配置信息的版本号。 |
Connector Count |
RAID控制卡与主板的接口个数。 |
Drive Count |
RAID控制卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID控制卡下已有虚拟磁盘数量。 |
Advanced Controller Management |
更多的控制卡操作。 操作方法:选中该操作项并按“Enter”进入详细配置界面。 |
Advanced Controller Properties |
查看和修改控制卡的高级属性。 操作方法:选中该操作项并按“Enter”进入详细配置界面。 |
更多控制卡操作
在图8-98中选择“Advanced Controller Management”并按“Enter”。
图8-99 Advanced Controller Management
参数 |
说明 |
Clear Controller Events |
清除控制卡的事件日志。 |
Save Controller Events |
保存控制卡的事件日志。 操作方法:选择该操作项并按“Enter”进入详细的配置界面。 |
Save TTY Log |
保存终端操作日志。 操作方法:选择该操作项并按“Enter”进入详细的配置界面。 |
Manage Link Speed |
管理接口速率。 操作方法:选择该操作项并按“Enter”进入详细的配置界面。 |
Manage MegaRAID Advanced Software Options |
管理高级软件功能。 操作方法:选择该操作项并按“Enter”进入详细的配置界面。 |
Schedule Consistency Check |
设置一致性校验参数。 操作方法:选择该操作项并按“Enter”进入详细的配置界面。 |
Set Factory Defaults |
恢复为出厂配置。 |
Switch to JBOD mode |
当前暂不支持该功能,请勿进行选择。如果需要使能JBOD,请在图8-101所示界面的“JBOD Mode”选项进行设置。 |
----结束
查看并修改控制卡高级属性
在图8-98中选择“Advanced Controller Properties”并按“Enter”。
界面如图8-100和图8-101所示,界面中参数说明如表8-36所示。
图8-100 Advanced Controller Properties(1)
图8-101 Advanced Controller Properties(2)
参数 |
说明 |
Cache and Memory |
查看控制卡Cache和Memory信息。 |
Patrol Read |
系统巡检。 |
Power Save Setting |
设置硬盘休眠。 选中该选项并按“Enter”后,会显示“Power Save Setting”界面。界面参数说明如下: l Spin Down Unconfigured Good:开启或关闭Unconfigured Good状态的硬盘的休眠功能,默认为关闭状态。 l Spin Down Hot Spare Drives:开启或关闭热备盘的休眠功能,默认为关闭状态。 l Drive Standby Time:设置硬盘的空闲时间。 l Spinup Drive Count:设置同时工作的最大硬盘数。 l Spinup Delay:RAID控制卡下各硬盘之间进入工作状态的间隔时间(单位为秒)。通过设置该参数,可避免因RAID控制卡下所有硬盘同时进入工作状态导致可能产生设备供电不足的问题。默认值为12。 l Apply Changes:保存设置。 |
Spare |
设置控制卡热备状态。 |
Task Rates |
设置各种任务占用系统比率。 |
Alarm Control |
LSI SAS3108控制卡卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。 默认为“Stop On Errors”。 |
Controller BIOS |
控制卡BIOS的使能情况。 |
ROC Temperature |
控制卡温度。 |
Shield State Supported |
是否支持暂停I/O,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
硬盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Expanded Virtual Drive Support |
是否支持扩容虚拟磁盘的功能。 |
Maintain Drive Fail History |
表示是否使能硬盘故障记录功能,默认为使能状态。 说明 l 该参数设置为“Disabled”时: l 当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。 l 新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。 l 该参数设置为“Enabled”时: l 新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。 l 新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见8.4.9 导入和清除外部配置章节。 |
SMART Polling |
SMART轮巡检测周期。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性校验。 |
JBOD Mode |
硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。 说明 LSI SAS3108的Firmware版本为6121及以上时,方可配置JBOD模式,且服务器必须已安装对应版本的驱动。 |
Write Verify |
写校验。 |
Large IO Support |
启用或禁用大型I/O支持功能。 |
Apply Changes |
保存配置。 |
步骤 2 在图8-100中选择“Task Rates”并按“Enter”。界面如图8-102所示,界面中参数说明如表8-37所示。
参数 |
说明 |
Background Initialization <BGI> Rate |
设置执行后台初始化的速率。 说明 数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Consistency Check Rate |
设置执行一致性校验的速率。 说明 数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Patrol Read Rate |
设置执行巡检读取的速率。 说明 数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Rebuild Rate |
设置硬盘发生故障时在新硬盘上执行重构数据的速率。 说明 数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Reconstruction Rate |
设置执行RAID级别迁移或在线容量扩展时重构数据的速率。 说明 数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Apply Changes |
保存配置。 |
步骤 3 按照表8-36所述修改控制卡的高级属性参数。
步骤 4 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 单击“OK”完成配置。
----结束
配置JBOD模式
在图8-100中选中“JBOD Mode”并按“Enter”,选择“Enable”并按“Enter”。
步骤 1 通过“↓”选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 2 单击“OK”完成配置。
返回“Drive Management ”界面,如图8-103所示,Unconfigured Good状态下的硬盘自动配置成JBOD模式。
选中配置成JBOD模式的硬盘,并按“Enter”,在“Select operation”中选择“Make Unconfigured Good”并按“Go”,硬盘可再次切换成Unconfigured Good状态,如图8-104所示。
----结束
该界面提供虚拟磁盘的查询和管理接口。
界面介绍
“Virtual Drive Management”界面如图8-105,显示虚拟磁盘列表。
图8-105 Virtual Drive Management
选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如图8-106所示,参数说明如表8-38所示。
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:定位虚拟磁盘的所有硬盘。 l Stop Locate:取消定位。 l Delete Virtual Drive:删除虚拟磁盘。 l Expand Virtual Drive:扩展虚拟磁盘容量。 l Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。 l Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。 l Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。 l Fast Initialization:快速初始化虚拟磁盘。 l Slow Initialization:安全初始化虚拟磁盘。 l Check Consistency:一致性校验。 l Virtual Drive Erase:格式化虚拟磁盘。 |
Progress |
当前任务进度。 l 仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。 l 当前界面不会自动刷新,需退出后重新进入查看当前进度。 |
Stop |
停止当前任务。 仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。 |
Name |
虚拟磁盘名称。 |
Raid Level |
虚拟磁盘RAID级别。 |
Status |
虚拟磁盘当前运行状态。 |
Size |
虚拟磁盘容量。 |
View Associated Drives |
查看成员盘属性。 |
Advanced... |
查看虚拟磁盘高级属性。 |
查看成员盘属性
在图8-106中选择“View Associated Drives”并按“Enter”。
界面如图8-107,显示成员盘列表。
步骤 2 选择要查看的成员盘,将其设置为“Enabled”。
步骤 3 选择“View Drive Properties”并按“Enter”。
进入硬盘属性界面,如图8-108界面所示,界面参数如表8-39所示。
参数 |
参数说明 |
Operation |
该成员盘可执行的操作,包括: l Start Locate l Stop Locate l Place Drive Offline/Online |
Drive ID |
成员盘的ID。 |
Status |
成员盘的当前工作状态。 |
Size |
成员盘的容量。 |
Type |
成员盘类型。 |
Model |
成员盘的模块类型。 |
Hardware Vendor |
成员盘的生产厂商。 |
Associated Virtual Drive |
成员盘所在的虚拟磁盘。 |
Advanced... |
查询成员盘更多属性。 操作方法:选择该配置项并按“Enter”进入详细的操作界面。 |
----结束
查看和修改虚拟磁盘高级属性
在图8-106中选择“Advanced”并按“Enter”。
界面如图8-109和图8-110,界面参数如表8-40所示。
参数 |
参数说明 |
Logical Sector Size |
逻辑扇区大小。 |
Segment Size |
条带大小。 |
Starting Logical Block Addressing |
逻辑单元起始地址。 |
Protected |
是否支持硬盘保护。 |
Bad Blocks |
是否支持坏块处理。 |
SSD Caching |
是否支持SSD Caching。 |
Access |
是否支持Access。 |
Current Write Cache Policy |
当前写Cache策略,包括: l Write Through:当硬盘子系统接受到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。 l Write Back:当RAID控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Always Write Back:当未配置超级电容或超级电容故障时,RAID控制卡将不会自动切换到Write Through模式。 操作方法: 1. 选择该配置项并按“Enter”。 2. 在列表中选择要配置的参数并按“Enter”。 说明 “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR的写数据将会丢失。不推荐使用该模式。 |
Default Write Cache Policy |
默认的写Cache策略。 |
Disable Background Initialization |
是否禁用后台初始化。 操作方法: 1. 选择该配置项并按“Enter”。 2. 在列表中选择要配置的参数并按“Enter”。 |
Read Cache Policy |
当前读Cache策略,包括: l No Read Ahend:关闭预读取功能。 l Read Ahend:使能预读取功能。RAID控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 操作方法: 1. 选择该配置项并按“Enter”。 2. 在列表中选择要配置的参数并按“Enter”。 |
Drive Cache |
是否支持cache。 |
Input/Output |
I/O读取策略,包括: l Direct:直接从硬盘读取数据,不经过Cache缓存。 l Cached:从Cache缓存中读取数据。 操作方法: 1. 选择该配置项并按“Enter”。 2. 在列表中选择要配置的参数并按“Enter”。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Apply Changes |
保存配置。 |
步骤 2 按照表8-40所述配置“Advanced”的参数。
步骤 3 选择“Apply Changes”并按“Enter”。
显示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面显示硬盘基本属性,提供硬盘操作接口。
界面介绍
“Drive Management”界面如图8-111所示,显示硬盘列表。
选定要操作的硬盘并按“Enter”进入详细操作界面,如图8-112所示,参数说明如表8-41所示。
参数 |
参数说明 |
Operation |
执行的操作。包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Initialize Drive:硬盘初始化。 l Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。 − Simple:仅对硬盘进行一轮擦除动作。 − Normal:对硬盘进行三轮擦除动作。 − Thorough:对硬盘进行九轮擦除动作。 − Stop Erase:停止数据擦除操作。 l Make Unconfigured Good/Bad:修改硬盘状态。 l Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。 l Assign Global Hot Spare Drive:设置全局热备盘。 l Assign Dedicated Hot Spare Drive:设置局部热备盘。 l Unassign Hot Spare Drive:删除热备盘。 l Place Drive Online:将Offline状态的硬盘设置为Online。 说明 l Place Drive Online操作只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。 l 如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。 l 对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。 |
Drive ID |
硬盘的ID。 |
Status |
硬盘的当前工作状态。 |
Size |
硬盘的容量。 |
Type |
硬盘的类型。 |
Model |
硬盘型号。 |
Hardware Vendor |
硬盘的生产厂商。 |
Associated Virtual Drive |
表示硬盘已加入虚拟磁盘,此处显示虚拟磁盘信息。 |
Advanced... |
查询更多硬盘属性。 |
查看硬盘属性
选择“Advanced...”并按“Enter”。
打开硬盘属性界面,如图8-113所示,参数说明如表8-42所示。
参数 |
参数说明 |
Certified |
是否通过认证。 |
Logical Sector Size |
逻辑扇区大小。 |
Physical Sector Size |
物理扇区大小。 |
SMART Status |
SMART功能是否使能。 |
Revision |
硬盘Firmware版本。 |
Media Error |
Media error个数。 |
Predicted Fail Count |
Pred fail个数。 |
SAS Address |
硬盘SAS地址。 |
Drive Power State |
硬盘上电状态。 |
Emergency Spare |
是否支持紧急备份功能更,即是否可以选空闲盘或者热备做备份盘。 |
Commissioned Hot Spare |
是否指定了备份盘,即把一个热备盘指定给一个RAID组使用。 |
Cache Setting |
是否可设置Cache。 |
Available Size |
硬盘可用空间。 |
Used Space |
已使用的硬盘空间。 |
Disk Protocol |
硬盘支持的协议。 |
Negotiated Drive Transfer Speed |
硬盘数据传输速率。 |
Number of Connections |
连接器个数。 |
FDE Capable |
硬盘是否支持FDE(Full Disk Encryption)技术。 |
Protection Capable |
硬盘是否支持数据保护。 |
Temperature |
硬盘温度。 |
----结束
该界面主要提供RAID控制卡传感器信息。
界面介绍
“Hardware Components”界面如图8-114,参数说明如表8-43所示。
参数 |
参数说明 |
Temperature Sensors |
当前温度传感器状态。 |
Fans |
当前风扇模块工作状态。 |
Power Supplies |
当前供电模块工作状态。 |
Enclosure Management |
部件管理。 |
查看更多传感器信息
选择“Enclosure Management”并按“Enter”。
进入部件选择界面,如图8-115所示。
步骤 2 选择“Select Enclosure”并按Enter。
步骤 3 选择要查看的传感器并按Enter。
步骤 4 选择“View Enclosure Status”并按Enter。
显示传感器的详细信息,如图8-116所示。
步骤 5 在TEMPERATUR SENSOR下通过“Select Temperature Sensor”选择要查询的温度传感器。
“Temperature Sensor Status”显示所查询的传感器的状态。
步骤 6 在FAN下通过“Select Fan”选择要查询的风扇传感器。
“Fan Status”显示所查询的传感器的状态。
步骤 7 在POWER SUPPLY下通过“Select Power Supply”选择要查询的供电模块传感器。
“Power Supply Status”显示所查询的传感器的状态。
----结束
提供RAID控制卡操作管理接口。
界面介绍
“View Server Profile”界面如图8-117所示,参数说明如表8-44所示。
参数 |
参数说明 |
UEFI Spec Version |
服务器支持的UEFI Spec版本。 |
Controller Management |
提供控制卡管理接口,详细情况请参见8.6.2.2 Controller Management。 |
Hardware Components |
提供控制卡部件查询接口,详细情况请参见8.6.2.5 Hardware Components。 |
Drive Management |
提供硬盘管理接口,详细情况请参见8.6.2.4 Drive Management。 |
Virtual Drive Management |
提供虚拟磁盘管理接口,详细情况请参见8.6.2.3 Virtual Drive Management。 |
该界面可查看、导入、清空外部配置。
界面介绍
“View Foreign Configuration”界面如图8-118所示。
图8-118 View Foreign Configuration
查看并导入外部配置
选择“Preview Foreign Configuration”并按“Enter”。
步骤 1 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 在列表中选择“Enable”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 单击“OK”完成配置。
----结束
清除外部配置
选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 在列表中选择“Enable”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 单击“OK”完成配置。
----结束
该界面可清除当前所有配置。
界面介绍
“Configure”界面如图8-119所示。
清除当前配置
选择“Clear Configuration”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 在列表中选择“Enable”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 单击“OK”完成配置。
----结束
恢复出厂配置
在主界面选择“Set Factory Defaults”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 在列表中选择“Enable”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 单击“OK”完成配置。
----结束
该界面提供RAID控制卡高级软件特性查看和导入接口。
界面介绍
“Manage MegaRAID Advanced Software Options”界面如图8-120所示,界面中参数说明如表8-45所示。
图8-120 Manage MegaRAID Advanced Software Options
参数 |
说明 |
SAFE ID |
RAID控制卡的安全编码。 |
Serial Number |
RAID控制卡序列号。 |
Activation Key |
待激活的高级特性的Key。 操作方法: 1. 选择该操作项并按“Enter”。 2. 在文本框中输入Key按“Enter”。 |
Active |
激活高级特性。 LSI SAS3108不支持高级特性的激活操作,该功能无效。 |
Deactive All Trail Software |
注销当前所有高级特性。 |
退出配置界面。
退出配置界面
在LSI SAS3108主界面按“ESC”,显示如图8-121所示界面。
步骤 2 按F10保存配置。
弹出操作确认窗口。
步骤 3 选择“OK”并按Enter。
退出BIOS,显示“ Press Control+Alt+Delete to reboot”。
----结束
使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。
下载工具
步骤 1 在“DOWNLOADS”页签中单击“Management Software and Tools”。
打开管理软件和工具列表。
步骤 2 下载最新版本的“StorCLI”工具。
步骤 3 解压后得到适用于不同操作系统的工具包。
----结束
安装工具
使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。
步骤 1 在Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。
StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。
安装完毕后,即可执行RAID控制卡命令。
----结束
命令功能
查询LSI SAS3108的基本配置信息。
命令格式
storcli64 /ccontroller_id show
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID |
使用指南
建议保持默认配置。
使用实例
# 查询RAID控制卡配置信息。
[root@localhost ~]# ./storcli64 /c0
show
Generating detailed summary of the adapter, it may take a while to complete.
Controller = 0
Status = Success
Description = None
Product Name = SAS3108
Serial Number =
SAS Address = 50030130f0900000
PCI Address = 00:01:00:00
System Time = 07/07/2018 22:06:42
Mfg. Date = 00/00/00
Controller Time = 07/07/2018 14:06:41
FW Package Build = 24.16.0-0093
BIOS Version = 6.32.02.0_4.17.08.00_0x06150500
FW Version = 4.660.00-8140
Driver Name = megaraid_sas
Driver Version = 06.811.02.00-rh1
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x5D
SubVendor Id = 0x19E5
SubDevice Id = 0xD207
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Drive Groups = 1
TOPOLOGY :
========
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT
Size PDC PI SED DS3 FSpace TR
-----------------------------------------------------------------------------
0 - - -
- RAID1 Optl N 744.125 GB dflt N N
none N N
0 0 - -
- RAID1 Optl N 744.125 GB dflt N N
none N N
0 0 0 252:1 18 DRIVE
Onln N 744.125 GB dflt N N none
- N
0 0 1 252:0 48 DRIVE
Onln N 744.125 GB dflt N N none
- N
-----------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 1
VD LIST :
=======
---------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac
sCC Size Name
---------------------------------------------------------------
0/0 RAID1 Optl RW
Yes RWBD - ON 744.125 GB
---------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read
Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 6
PD LIST :
=======
---------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI
SeSz Model
Sp Type
---------------------------------------------------------------------------------
252:0 48 Onln 0 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
252:1 18 Onln 0 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
252:2 19 UGood - 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BA800G4 U -
252:3 20 UGood - 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BA800G4 U -
252:4 49 UGood - 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
252:5 47 UGood - 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
---------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Cachevault_Info :
===============
------------------------------------
Model State Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 28C - 2016/11/04
------------------------------------
命令功能
创建、删除RAID。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id add vd rlevel[0|1|5|6|10|50|60] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [wt|*wb|awb] [nora|*ra] [*direct|cached] [Strip=<8|16|32|64|128|256|1024>] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid] |
创建RAID组 |
storcli64 /ccontroller_id/vraid_id del |
删除RAID组 |
*表示默认值。
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
rlevel |
要配置的RAID组级别 |
level可为0、1、5、6、10、50、60,数字分别代表对应的RAID组级别。 |
size |
要配置的RAID组容量 |
默认值为all,即所有成员盘的容量之和。 |
name |
要配置的RAID组名称 |
- |
drives |
要加入RAID组的硬盘 |
- |
startid-endid |
硬盘的起始和结束ID |
- |
slot_id |
硬盘ID |
- |
pdperarray |
子组中的硬盘数 创建RAID10、RAID50、RAID60时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。 |
- |
pdcache |
设置RAID的成员盘的Cache状态 |
l on l off l default |
pi |
使能数据保护 |
- |
wrcache |
设置RAID组的写Cache属性,完整的命令为wrcache=wt|wb|awb,这里“wrcache=”可省略 |
l wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”模式。 |
rdcache |
设置RAID组的读Cache属性,完整的命令为rdcache=ra|nora,这里“rdcache=”可省略。 |
l ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。 l nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。 |
iopolicy |
设置RAID组的I/O策略,完整的命令为iopolicy=direct|cached,这里“iopolicy=”可省略。 说明 Cache IO的规格后续不再支持,默认为Direct IO,具体信息请查看RAID控制卡固件版本说明书。 |
l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 |
Strip |
设置RAID组条带大小 |
MR卡:64, 128, 256, 512, 1024 iMR卡:只能为64 单位为KB |
EmulationType |
控制逻辑盘在OS中上报的扇区 |
l 0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l 1: Disable,即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l 2:Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Spares |
指定RAID组的热备盘 |
- |
raid_id |
要删除的RAID组的ID |
- |
使用指南
无
使用实例
# 创建RAID 0。
domino:~# ./storcli64 /c0 add vd r0
size=100GB drives=252:0-3
Controller = 0
Status = Success
Description = Add VD Succeeded
# 删除RAID。
domino:~# ./storcli64 /c0/v0 del
Controller = 0
Status = Success
Description = Delete VD Succeeded
命令功能
查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。
命令格式
storcli64 /ccontroller_id show
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all
storcli64 /ccontroller_id/vvd_id show all
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID |
enclosure_id |
硬盘所在Enclosure的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡连接的硬盘背板的ID |
slot_id |
物理硬盘槽位编号 |
可以将该参数设置为all,表示查询所有硬盘的ID |
vd_id |
虚拟磁盘ID |
可以为all,表示查询所有虚拟磁盘信息。 |
使用指南
回显中主要字段的含义如表8-46所示。
命令格式 |
字段 |
含义 |
举例 |
storcli64 /ccontroller_id show |
Product Name |
RAID控制卡的型号 |
sas3108 |
FW Version |
RAID控制卡的FW版本 |
4.660.00-8140 |
|
Driver Name |
RAID控制卡的驱动名称 |
megaraid_sas |
|
Driver Version |
RAID控制卡的驱动版本 |
06.811.02.00-rh1 |
|
Current Personality |
RAID控制卡的工作模式 |
RAID-Mode |
|
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all |
SN |
物理硬盘的序列号 |
PHWL517601YR800RGN |
Manufacturer Id |
物理硬盘的供应商ID |
ATA |
|
Model Number |
物理硬盘的模块序号 |
INTEL SSDSC2BB800G4 |
|
Firmware Revision |
物理硬盘的FW版本 |
D2010370 |
|
Raw size |
物理硬盘的容量 |
745.211 GB [0x5d26ceb0 Sectors] |
|
Logical Sector Size |
物理硬盘逻辑分区大小 |
512B |
|
Physical Sector Size |
物理扇区大小 |
4 KB |
|
storcli64 /ccontroller_id/vvd_id show all |
TYPE |
RAID组的级别 |
RAID1 |
State |
RAID组的状态 |
Optl |
|
Access |
RAID组数据的访问策略 |
RW |
|
Cache |
RAID组当前的读写策略与I/O Policy |
RWTD |
|
Size |
RAID组的大小 |
100.0 GB |
|
PDs for VD0 |
RAID组下的物理硬盘 |
- |
|
Strip Size |
RAID组的条带大小 |
256KB |
|
Write Cache(initial setting) |
RAID组Cache的写策略 |
Write Through |
|
Disk Cache Policy |
RAID组成员盘的Cache策略 |
Disk's Default |
使用实例
#查询RAID控制卡的详细信息。
[root@localhost ~]# ./storcli64 /c0
show
Generating detailed summary of the adapter, it may take a while to complete.
Controller = 0
Status = Success
Description = None
Product Name = SAS3108
Serial Number =
SAS Address = 50030130f0900000
PCI Address = 00:01:00:00
System Time = 07/07/2018 22:06:42
Mfg. Date = 00/00/00
Controller Time = 07/07/2018 14:06:41
FW Package Build = 24.16.0-0093
BIOS Version = 6.32.02.0_4.17.08.00_0x06150500
FW Version = 4.660.00-8140
Driver Name = megaraid_sas
Driver Version = 06.811.02.00-rh1
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x5D
SubVendor Id = 0x19E5
SubDevice Id = 0xD207
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Drive Groups = 1
TOPOLOGY :
========
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT
Size PDC PI SED DS3 FSpace TR
-----------------------------------------------------------------------------
0 - - -
- RAID1 Optl N 744.125 GB dflt N N
none N N
0 0 - -
- RAID1 Optl N 744.125 GB dflt N N
none N N
0 0 0 252:1 18 DRIVE
Onln N 744.125 GB dflt N N none
- N
0 0 1 252:0 48 DRIVE
Onln N 744.125 GB dflt N N none
- N
-----------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 1
VD LIST :
=======
---------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac
sCC Size Name
---------------------------------------------------------------
0/0 RAID1 Optl RW
Yes RWBD - ON 744.125 GB
---------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read
Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 6
PD LIST :
=======
---------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI
SeSz
Model
Sp Type
---------------------------------------------------------------------------------
252:0 48 Onln 0 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
252:1 18 Onln 0 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
252:2 19 UGood - 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BA800G4 U -
252:3 20 UGood - 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BA800G4 U -
252:4 49 UGood - 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
252:5 47 UGood - 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
---------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Cachevault_Info :
===============
------------------------------------
Model State Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 28C - 2016/11/04
------------------------------------
#查询slot0的物理硬盘的信息。
[root@localhost ~]# ./storcli64
/c0/e252/s0 show all
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
Drive /c0/e252/s0 :
=================
---------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI
SeSz
Model
Sp Type
---------------------------------------------------------------------------------
252:0 48 Onln 0 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
---------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Drive /c0/e252/s0 - Detailed Information :
========================================
Drive /c0/e252/s0 State :
=======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature = 20C (68.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
Drive /c0/e252/s0 Device attributes :
===================================
SN = PHWL517601YR800RGN
Manufacturer Id = ATA
Model Number = INTEL SSDSC2BB800G4
NAND Vendor = NA
WWN = 55cd2e404c533246
Firmware Revision = D2010370
Raw size = 745.211 GB [0x5d26ceb0 Sectors]
Coerced size = 744.125 GB [0x5d040800 Sectors]
Non Coerced size = 744.711 GB [0x5d16ceb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 6.0Gb/s
NCQ setting = Enabled
Write cache = N/A
Logical Sector Size = 512B
Physical Sector Size = 4 KB
Connector Name = Port A x1
Drive /c0/e252/s0 Policies/Settings :
===================================
Drive position = DriveGroup:0, Span:0, Row:1
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = No
Wide Port Capable = No
Port Information :
================
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
0 Active 6.0Gb/s 0x4433221100000000
-----------------------------------------
Inquiry Data =
40 00 ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 48 50 4c 57 31 35 36 37 31 30 52 59
30 38 52 30 4e 47 20 20 00 00 00 00 00 00 32 44
31 30 33 30 30 37 4e 49 45 54 20 4c 53 53 53 44
32 43 42 42 30 38 47 30 20 34 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 01 80
00 40 00 2f 00 40 00 00 00 00 07 00 ff 3f 10 00
3f 00 10 fc fb 00 01 bf ff ff ff 0f 00 00 07 00
# 查询VD 0的信息。
[root@rhel6u5 ~]#
/opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
/c0/v0 :
======
---------------------------------------------------------
DG/VD TYPE State Access Consist Cache sCC Size
Name
---------------------------------------------------------
1/0 RAID1 Optl RW
Yes RWTD - 1.089 TB
---------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|B=Blocked|Consist=Consistent|
R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
PDs for VD 0 :
============
-----------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz
Model Sp
-----------------------------------------------------------------------
25:22 14 Onln 1 1.089 TB SAS HDD
N N 512B ST1200MM0007 U
25:23 26 Onln 1 1.089 TB SAS HDD
N N 512B ST1200MM0007 U
-----------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded
VD0 Properties :
==============
Strip Size = 256 KB
Number of Blocks = 2341795840
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 2
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = Disabled
Active Operations = None
Exposed to OS = Yes
Creation Date = 04-01-2018
Creation Time = 12:38:35 PM
Emulation type = None
命令功能
查询超级电容的名称及TFM Flash卡缓存容量的大小等信息。
命令格式
storcli64 /ccontroller_id/cv show all
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
可以为all,表示所有控制卡。 |
查看RAID控制卡ID的方法请参见8.7.2.1 查询RAID控制卡配置信息。
使用实例
#查询超级电容的相关信息。
[root@localhost ~]# ./storcli64
/c0/cv show all
Controller = 0
Status = Success
Description = None
Cachevault_Info :
===============
--------------------
Property Value
--------------------
Type CVPM02
Temperature 28 C
State Optimal
--------------------
Firmware_Status :
===============
---------------------------------------
Property
Value
---------------------------------------
Replacement
required
No
No space to cache offload No
Module microcode update required No
---------------------------------------
GasGaugeStatus :
==============
------------------------------
Property
Value
------------------------------
Pack
Energy
294 J
Capacitance
108 %
Remaining Reserve Space 0
------------------------------
Design_Info :
===========
------------------------------------
Property
Value
------------------------------------
Date of Manufacture 04/11/2016
Serial Number
22417
Manufacture Name LSI
Design Capacity 288 J
Device
Name
CVPM02
tmmFru
N/A
CacheVault Flash Size 8.0 GB
tmmBatversionNo 0x05
tmmSerialNo
0xee7d
tmm Date of Manufacture 09/12/2016
tmmPcbAssmNo
022544412A
tmmPCBversionNo 0x03
tmmBatPackAssmNo 49571-13A
scapBatversionNo 0x00
scapSerialNo 0x5791
scap Date of Manufacture 04/11/2016
scapPcbAssmNo
1700134483
scapPCBversionNo A
scapBatPackAssmNo 49571-13A
Module Version
6635-02A
------------------------------------
Properties :
==========
--------------------------------------------------------------
Property
Value
--------------------------------------------------------------
Auto Learn Period 27d (2412000 seconds)
Next Learn time 2018/08/03 17:48:38
(586633718 seconds)
Learn Delay Interval 0 hour(s)
Auto-Learn Mode Transparent
--------------------------------------------------------------
l 上述回显信息中,“Device Name CVPM02”表示超级电容的名称为 “CVPM02”,“CacheVault Flash Size 8.0GB”表示TFM Flash卡缓存容量为“8.0GB”。
l 当回显信息的“State”显示为“FAILED”时,需要更换超级电容。
命令功能
查询和设置系统巡检的相关参数。
命令格式
storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number
storcli64 /ccontroller_id set patrolread delay=delaytime
storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}
storcli64 /ccontroller_id show patrolread
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
系统巡检起始时间 |
例如:2016/07/15 23 说明 起始时间单位为“时”。 |
number |
可同时巡检的硬盘数量 |
– |
delaytime |
系统巡检周期 |
单位为hour。 |
使用指南
无
使用实例
# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。
domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
PR Starttime 2016/07/15 23:00:00
PR MaxConcurrentPd 2
---------------------------------------
# 使能patrolread并设置为自动模式。
domino:~# ./storcli64 /c0 set
patrolread=on mode=auto
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
Patrol Read Mode auto
---------------------------------------
# 查询patrolread信息。
domino:~# ./storcli64 /c0 show patrolread
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------------------------
Ctrl_Prop Value
--------------------------------------------
PR Mode 2016/07/15 23:00:00
PR Execution Delay
PR iterations completed 0
PR Next Start time 07/16/2016,00:00:00
PR on SSD Disabled
PR Current State Stopped
--------------------------------------------
命令功能
查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。
命令格式
storcli64 /ccontroller_id show spinupdelay
storcli64 /ccontroller_id show spinupdrivecount
storcli64 /ccontroller_id set spinupdelay=time
storcli64 /ccontroller_id set spinupdrivecount=count
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
每组起转硬盘间的时间间隔 |
默认为2,单位为s。 |
count |
上电时允许同时起转的硬盘数量 |
默认为4。 |
使用指南
建议保持默认配置。
使用实例
# 查询RAID控制卡Spinup参数。
domino:~# ./storcli64 /c0 show spinupdelay
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
domino:~# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 4
--------------------------
# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。
domino:~# ./storcli64 /c0 set spinupdelay=20
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 20 second(s)
--------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 5
--------------------------
命令功能
设置物理硬盘数据擦除模式,查询擦除进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
硬盘槽位号 |
– |
mode |
数据擦除模式 |
l simple:对硬盘进行一轮擦除动作。 l normal:对硬盘进行三轮擦除动作。 l thorough:对硬盘进行九轮擦除动作。 |
使用指南
无
使用实例
# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。
domino:~# ./storcli64 /c0/e252/s3 start erase simple
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.
命令功能
暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。
命令格式
storcli64 /ccontroller_id/vraid_id action bgi
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
action |
后台初始化的操作 |
l show:查看后台初始化进度 l pause:暂停后台初始化 l resume:继续后台初始化 l stop:停止后台初始化 |
使用指南
无
使用实例
# 查看后台初始化进度。
domino:~# ./storcli64 /c0/v0 show bgi
Controller = 0
Status = Success
Description = Noe
VD Operation Status :
===================
------------------------------------------------------
VD Operation Progress% Staus Estimated Time Left
------------------------------------------------------
0 BGI 3 In progress 53 Minutes
------------------------------------------------------
命令功能
查询和设置Cache的刷新周期。
命令格式
storcli64 /ccontroller_id show cacheflushint
storcli64 /ccontroller_id set cacheflushint time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
Cache的刷新周期 |
单位为s |
使用指南
无
使用实例
# 设置Cache的刷新周期为“10”。
domino:~# ./storcli64 /c0 set cacheflushint=10
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10 sec
---------------------------
# 查询Cache的刷新周期。
domino:~# ./storcli64 /c0 show cacheflushint
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10
---------------------------
命令功能
设置物理硬盘初始化功能,查询初始化进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
硬盘槽位号 |
– |
action |
要执行的操作 |
l show:查看初始化进度 l start:开始初始化 l stop:结束初始化 |
使用指南
无
使用实例
# 初始化slot3硬盘,并查询初始化进度。
domino:~# ./storcli64 /c0/e252/s3 start initialization
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show initialization
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
命令功能
开始、暂停、继续、停止RAID重构,并查询进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action rebuild
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
action |
要执行的操作 |
l start:开始重构 l show:查看重构进度 l pause:暂停重构 l resume:继续重构 l stop:停止重构 |
查看RAID控制卡ID的方法请参见8.7.2.1 查询RAID控制卡配置信息。
使用指南
无
使用实例
# 手动开始重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
# 查看硬盘当前重构状态。
[root@localhost ~]# ./storcli64
/c0/e70/s7 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e70/s7 5 In progress 26
Minutes
-----------------------------------------------------
# 暂停硬盘重构进程。
[root@localhost ~]# ./storcli64
/c0/e70/s7 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Succeeded.
# 继续重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 resume rebuild
Controller = 0
Status = Success
Description = Resume Drive Rebuild Succeeded.
# 停止重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 stop rebuild
Controller = 0
Status = Success
Description = Stop Drive Rebuild Succeeded.
命令功能
开始、暂停、继续、停止回拷,并查询进度。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id start copyback target=target_enclosure_id:target_slot_id |
开始回拷。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id action copyback |
暂停、继续、查看、停止回拷。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
target_enclosure_id |
执行回拷的目标硬盘所在Enclosure的ID。 |
- |
target_slot_id |
执行回拷的目标物理硬盘槽位编号。 |
- |
action |
要执行的操作 |
l show:查看回拷进度 l pause:暂停回拷 l resume:继续回拷 l stop:停止回拷 |
查看RAID控制卡ID的方法请参见8.7.2.1 查询RAID控制卡配置信息。
使用指南
无
使用实例
# 手动开始回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s7 start copyback target=70:3
Controller = 0
Status = Success
Description = Start Drive Copyback Succeeded.
# 查看硬盘当前回拷状态。
[root@localhost ~]# ./storcli64
/c0/e70/s3 show copyback
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e70/s3 17 In progress 16 Minutes
-----------------------------------------------------
# 暂停硬盘回拷进程。
[root@localhost ~]# ./storcli64
/c0/e70/s3 pause copyback
Controller = 0
Status = Success
Description = Pause Drive Copyback Succeeded.
# 继续回拷。
[root@localhost ~]# ./storcli64 /c0/e70/s3
resume copyback
Controller = 0
Status = Success
Description = Resume Drive Copyback Succeeded.
# 停止回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s3 stop copyback
Controller = 0
Status = Success
Description = Stop Drive Copyback Succeeded.
命令功能
查询、设置Smart扫描周期。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id set smartpollinterval=value |
设置Smart扫描周期。 |
storcli64 /ccontroller_id show smartpollinterval |
查询Smart扫描周期。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
value |
Smart扫描周期 |
单位为s。 |
使用指南
无
使用实例
# 设置Smart扫描周期为“60s”。
domino:~# ./storcli64 /c0 set smartpollinterval=60
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------
命令功能
查询、设置一致性检查参数。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id[/vvd_id]show cc |
查询一致性检查参数。 |
storcli64 /ccontroller_id/vvd_id start cc force |
开始进行一致性检查。 |
storcli64 /ccontroller_id/vvd_id action cc |
暂停/停止/继续执行一致性检查。 |
storcli64 /ccontroller_id set consistencycheck|cc=[off|seq|conc] [delay=value] starttime=time excludevd=evd_id |
设置一致性自动检查参数。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
vd_id |
要操作的RAID的ID |
- |
action |
要执行的操作 |
l pause:暂停 l resume:继续执行 l stop:停止 |
cc |
将一致性检查设置为顺序模式或并行模式,或关闭一致性检查。 |
l off:关闭一致性检查 l seq:顺序模式 l conc:并行模式 |
value |
一致性检查周期 |
- |
time |
一致性检查起始时间 |
例如:2016/07/14 22 说明 起始时间单位为“时”。 |
evd_id |
不进行一致性检查的虚拟磁盘ID |
- |
使用指南
show命令中不带/vvd_id时,表示查询自动CC参数。
show命令中带/vvd_id时,表示查询CC进度。
使用实例
# 设置一致性自动检查参数。
domino:~# ./storcli64 /c0 set cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------
Ctrl_Prop Value
------------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2016/07/14 22:00:00
CC ExcludeVD(0) Success
------------------------------------
# 查询CC进度。
domino:~# ./storcli64 /c0/v1 show cc
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimited Time Left
-----------------------------------------------------------
0 CC - Not in progress -
-----------------------------------------------------------
命令功能
设置全局热备盘和局部热备盘。
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
dgs |
硬盘组的ID |
l 不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘 l 0,1,2..:硬盘组ID |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
dgs |
硬盘组的ID |
l 不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘 l 0,1,2..:硬盘组ID |
使用指南
无
使用实例
# 设置slot 3硬盘为全局热备盘。
domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
# 设置slot 3硬盘为vd0的局部热备盘。
domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive dgs=0
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
命令功能
设置虚拟磁盘或物理硬盘为启动项。
命令格式
storcli64 /ccontroller_id/vvd_id set bootdrive=on
storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
vd_id |
待设置的虚拟磁盘的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
硬盘槽位号 |
– |
使用指南
无
使用实例
# 查看VD0为启动项。
domino:~# ./storcli64 /c0/v0 set bootdrive=on
Controller = 0
Status = Success
Description = Noe
Detailed Status :
===============
----------------------------------------
VD Property Value Staus ErrCd ErrMsg
----------------------------------------
0 Boot Drive On Success 0 -
----------------------------------------
# 查看slot 7硬盘为启动项。
domino:~# ./storcli64 /c0/e252/s7 set bootdrive=on
Controller = 0
Status = Success
Description = Noe
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
BootDrive PD:252_7
-------------------
命令功能
设置硬盘状态。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
硬盘槽位号 |
– |
state |
要设置的硬盘状态 |
l online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。 l offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。 l jbod:通过该参数可以将硬盘设置为直通硬盘。 l good: − ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置; − JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。 |
force |
强制设置硬盘状态,为可选参数。 如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force。 |
- |
使用指南
无
使用实例
# 设置slot 7硬盘为JBOD盘。
domino:~# ./storcli64 /c0/e252/s7
set JBOD
Controller = 0
Status = Success
Description = Set Drive JBOD Succeeded.
命令功能
设置RAID的读写策略。
命令格式
storcli64 /ccontroller_id/vraid_id set accesspolicy=mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
RAID读写策略 |
l rw:可读可写 l blocked:禁止访问 l ro:只读访问 |
使用指南
无
使用实例
# 设置RAID读写策略为“rw”。
domino:~# ./storcli64 /c0/v0 set accesspolicy=rw
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 AccPolicy RW Success 0 -
---------------------------------------
命令功能
设置RAID组的I/O策略。
命令格式
storcli64 /ccontroller_id/vraid_id set iopolicy=mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
raid_id |
待设置的RAID的ID |
- |
mode |
设置RAID组的I/O策略 |
l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 |
以上涉及的各个ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置RAID组的I/O策略为“direct”。
[root@linux ~]# storcli64 /c0/v1 set
iopolicy=direct
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.14.0-115.el7a.0.1.aarch64
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
----------------------------------------
VD Property Value Status ErrCd ErrMsg
----------------------------------------
1 IoPolicy Direct Success 0 -
----------------------------------------
命令功能
设置RAID组成员盘的Cache状态。
命令格式
storcli64 /ccontroller_id/vvd_id set pdcache=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
vd_id |
RAID组的ID |
– |
action |
要执行的操作 |
l on:打开硬盘Cache l off:关闭硬盘Cache l default:将硬盘Cache设置为默认状态 |
以上涉及的各个ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 打开ID为0的RAID组的硬盘Cache。
./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 PdCac On
Success 0 -
---------------------------------------
命令功能
设置RAID组的Cache读写策略。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/vraid_id set wrcache=wrmode |
设置Cache写策略 |
storcli64 /ccontroller_id/vraid_id set rdcache=rdmode |
设置Cache读策略 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
raid_id |
待设置的RAID组的ID |
可以为all,表示所有RAID。 |
wrmode |
设置Cache写策略 |
l wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”策略。 |
rdmode |
设置Cache读策略 |
l ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。 l nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。 |
查看RAID控制卡ID的方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Cache写模式为“wt”。
domino:~# ./storcli64 /c0/v0 set
wrcache=wt
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 wrCache WT Success 0
-
---------------------------------------
命令功能
设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。
命令格式
storcli64 /ccontroller_id set eghs eug=state
storcli64 /ccontroller_id set eghs smarter=state
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
state |
紧急热备功能的启用状态 |
l on:启用 l off:禁用 |
使用指南
无
使用实例
# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。
domino:~# ./storcli64 /c0 set eghs
eug=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------
Ctrl_Prop Value
------------------
EmergencyUG ON
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
EmergencySmarter ON
-----------------------
命令功能
设置RAID前台初始化模式。
命令格式
storcli64 /ccontroller_id/vraid_id start mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
前台初始化模式 |
l init:只把RAID的首尾10MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。 l init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。 |
使用指南
无
使用实例
# 快速初始化RAID。
domino:~# ./storcli64 /c0/v0 start init
Controller = 0
Status = Success
Description = Start INIT Operation Success
命令功能
设置RAID控制卡的硬盘直通功能的使能情况,并指定直通硬盘。
命令格式
storcli64 /ccontroller_id set jbod=state
storcli64 /ccontroller_id/eenclosure_id/sslot_id set JBOD
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
硬盘槽位号 |
– |
state |
RAID控制卡JBOD功能的使能情况 |
l on l off |
使用指南
无
使用实例
# 使能RAID控制卡的硬盘直通功能,并设置slot 7硬盘为直通盘。
domino:~# ./storcli64 /c0 set jbod=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
JBOD ON
----------------
domino:~# ./storcli64 /c0/e252/s7 set JBOD
Controller = 0
Status = Success
Description = Set Drive JBOD Succeeded.
命令功能
点亮和熄灭指定硬盘的定位指示灯。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。 |
slot_id |
硬盘槽位号 |
可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。 |
action |
要执行的操作 |
l start l stop |
使用指南
无
使用实例
# 点亮slot 7硬盘的定位指示灯。
domino:~# ./storcli64 /c0/e252/s7 start locate
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.
命令功能
设置空闲硬盘和热备盘的省电模式。
命令格式
storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID。 |
– |
state |
省电模式的启用状态。 |
l on:启用 l off:禁用 |
disktype |
硬盘类型。 |
l 1:空闲硬盘 l 2:热备盘 |
time |
等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。 |
单位为minutes。 |
使用指南
无
使用实例
# 设置空闲硬盘的省电模式。
domino:~# ./storcli64 /c0 set ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
SpnDwnUncDrv Enable
SpnDwnTm 30 minutes
--------------------------
命令功能
设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。
命令格式
storcli64 /ccontroller_id set action=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
mode |
要设置的项目 |
l bgirate:后台初始化速率 l ccrate:一致性校验速率 l prrate:硬盘巡检速率 l rebuildrate:RAID重构速率 l reconrate:RAID扩容和迁移速率 |
使用指南
无
使用实例
# 设置硬盘巡检速率为“30%”。
domino:~# ./storcli64 /c0 set prrate=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
Patrol Read Rate 30%
-----------------------
命令功能
对热备盘进行插拔后,热备盘状态变为Ubad,设置自动恢复热备盘状态后,热备盘状态会自动恢复成hotspare,若不设置自动恢复热备盘状态,则需要手动恢复热备盘状态。
命令格式
storcli64 /ccontroller_id set restorehotspare=state
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
state |
设置启用或禁用自动恢复热备盘状态 |
on:启用自动恢复热备盘状态 off:禁用自动恢复热备盘状态 |
查看RAID控制卡ID的方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 启用热备盘状态自动恢复
# 关闭热备盘状态自动恢复
命令功能
设置控制卡BIOS在检测到异常时停止继续启动的功能。
命令格式
storcli64 /ccontroller_id set bios mode=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
action |
要执行的操作 |
l soe:控制卡BIOS在检测到异常时停止启动 l be:忽略检测到的异常 |
使用指南
无
使用实例
# 开启Stop on error功能。
domino:~# ./storcli64 /c0 set bios mode=soe
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------
命令功能
查询和清除PreservedCache数据。
命令格式
storcli64 /ccontroller_id show preservedcache
storcli64 /ccontroller_id/vvd_id delete preservedcache force
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
vd_id |
要操作的RAID的ID |
– |
使用指南
无
使用实例
# 查询PreservedCache。
domino:~# ./storcli64 /c0 show preservedcache
Controller = 0
Status = Success
Description = No Virtual Drive has Preserved Cache Data.
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
命令格式
storcli64 /ccontroller_id/vvd_id exoand size=capacity [expandarray]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
vd_id |
要扩容的RAID的ID |
- |
capacity |
扩容后的容量 |
- |
expandarray |
当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。 |
- |
使用指南
无
使用实例
# 查询VD的可扩展容量。
[root@localhost ~]# storcli64 /c0/v1
show expansion
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
EXPANSION INFORMATION :
=====================
--------------------------------------------
VD Size OCE NoArrExp WithArrExp Status
--------------------------------------------
1 10.000 GB Y 3.627 TB 5.447 TB -
--------------------------------------------
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion
VD=Virtual Drive | NoArrExp - Without Array Expansion
如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。
# 将VD0的容量扩大“200GB”。
domino:~# ./storcli64 /c0/v0 expand
size=200GB
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz
%FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
0 100.0 GB 457.861 GB 200.0 GB 201.458 GB
44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %
RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
当增加新盘后,可进行RAID级别迁移。
命令格式
storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
vd_id |
要操作的RAID的ID |
– |
slot_id |
要加入RAID的新硬盘的槽位号 |
– |
level |
增加硬盘后RAID的级别 |
l 与原RAID级别相同时,该命令为扩大RAID容量。 l 与原RAID级别不同时,该命令为RAID级别迁移。 |
使用指南
无
使用实例
# 在RAID 0中增加slot 2硬盘扩容。
domino:~# ./storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 13 Minutes
-------------------------------------------------------
# 单盘RAID 0加盘迁移至RAID 1。
domino:~# ./storcli64 /c0/v0 start migrate type=r1 option=add drives=252:3
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 14 Minutes
-------------------------------------------------------
命令功能
可使用SSD硬盘创建CacheCade虚拟磁盘。
命令格式
storcli64 /ccontroller_id add vd cc raidlevel drives=enclosure_id:disk
storcli64 /ccontroller_id/vvd_id del cachecade
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
level |
RAID级别 |
用于CacheCade的RAID可配置为RAID 0或RAID 1。 |
disk |
成员盘的槽位号 |
当配置多个成员盘时,参数为槽位范围,例如0–3。 |
vd_id |
待删除的CacheCade RAID的ID |
– |
使用指南
无
使用实例
# 配置单盘CacheCade RAID 0。
domino:~# ./storcli64 /c0/ add vd cc raid0 drives=252:0
Controller = 0
Status = Success
Description = Add VD Succeeded
# 删除CacheCade RAID 0。
domino:~# ./storcli64 /c0/v0 del cachecade
Controller = 0
Status = Success
Description = Disassociation of the Cachecade virtual drive is in progress and can take a few minutes to complete.
The Cachecade virtual drive is deleted after the disassociation is complete.
命令功能
升级硬盘的FW。
命令格式
./storcli64 /ccontroller_id /eenclosure_id/sslot_id download src=FW_name.bin
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
FW_name |
硬盘FW的名称 |
– |
以上涉及的各个ID的查询方法请参见8.7.2.1 查询RAID控制卡配置信息。
使用实例
#升级硬盘FW。
[root@localhost ~]# ./storcli64
/c0/e64/s5 download src=5200_D1MU004_Releasefullconcatenatedbinary.bin
Starting microcode update .....please wait...
Flashing PD image ..... please wait...
Controller = 0
Status = Success
Description = Firmware Download succeeded.
Drive Firmware Download :
========================
--------------------------------------------------------------------------------
Drive Status ErrCd ErrMsg
--------------------------------------------------------------------------------
/c0/e64/s5 Success 0 -
--------------------------------------------------------------------------------
命令功能
手动重构RAID组。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row
storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
要加入Array的物理硬盘槽位编号 |
– |
DG |
硬盘发生故障的DG的ID |
– |
Arr |
硬盘发生故障的Array的ID |
– |
Row |
硬盘发生故障的Array的row number |
– |
以上涉及的各个ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
重构RAID分3个步骤进行:
1.通过./storcli64 /c0 show 命令,查询故障硬盘的DG、Arr和Row所对应的数字。
2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。
3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID。
使用实例
# 将硬盘加入RAID组。
[root@localhost ~]# storcli64
/c0/e252/s1 insert dg=0 array=0 row=0
Controller = 0
Status = Success
Description = Insert Drive Succeeded.
# 手动重构RAID。
[root@localhost ~]# storcli64
/c0/e252/s1 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
命令功能
收集和清除RAID控制卡的日志。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id show termlog [type=logtype] [logfile[=filename]] |
收集RAID控制卡的日志。 |
storcli64 /ccontroller_id delete termlog |
删除RAID控制卡的日志。 |
storcli64 /ccontroller_id show alilog [logfile[=filename]] |
收集控制卡属性信息、TTY日志和事件到指定文件。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID。 |
- |
logtype |
查询日志类型。 |
l config:查询TTY BBU缓存设置。 l content:查询日志信息。 缺省值:content。 |
filename |
文件名称,将保存日志到此文件。 |
可自定义文件名称,缺省时将默认保存至“StorSAS.log”文件中。 |
查询RAID控制卡ID的查询方法请参见8.7.2.1 查询RAID控制卡配置信息。
使用指南
无
使用实例
# 收集RAID控制卡的日志。
[root@localhost idriver]# ./storcli64
/c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19 6:48:11: C0:TTY History buffer cleared
Controller = 0
Status = Success
Description = None
# 删除RAID控制卡的日志。
[root@localhost idriver]# ./storcli64
/c0 delete termlog
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------------------
Ctrl Method Result
----------------------------
0 Delete Termlog deleted
----------------------------
命令功能
指导用户查看、导入或者清除RAID控制卡的外部配置。
命令格式
storcli64 /ccontroller_id/fall action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
action |
要执行的操作 |
l import preview:查看外部配置 l import:导入外部配置 l delete:清除外部配置 |
使用指南
无
使用实例
# 查看RAID控制卡的外部配置。
[root@localhost ~]# ./storcli64
/c0/fall import preview
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
FOREIGN PREVIEW :
===============
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Total foreign drive groups = 0
# 删除RAID控制卡的外部配置。
[root@localhost ~]# ./storcli64
/c0/fall delete
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration
命令功能
升级控制卡FW。
命令格式
命令格式 |
说明 |
storcli64 /cController_ID download file=xxx.rom [noverchk] |
升级控制卡FW。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
- |
xxx.rom |
固件包的名称 |
- |
使用指南
l 使用“noverchk”参数时将不检查固件包,降级版本时必须使用此参数。
l 升级完成后,需重新上下电服务器使固件包生效。
使用实例
#升级控制卡FW。
[root@localhost fw]# ./storcli64_arm
/c0 download file =FW4.rom noverchk
Download Completed.
Flashing image to adapter...
Controller = 0
Status = Success
Description = F/W Flash Completed.Please reboot the system for the changes to
take effect.
关于本章
本章节主要介绍Avago SAS3508 RAID控制卡的外观、特性、以及配置方法。
本章节涉及的截图以5.060.00-2262 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。
Avago SAS3508 RAID 控制卡(以下简称Avago SAS3508)是基于MegaRAID架构的8端口12Gbit/s SAS控制卡,并采用PCIe3.0 x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。
Avago SAS3508用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。
Avago SAS3508支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考9.2.16 硬盘直通。
Avago SAS3508自带的Cache对RAID控制卡性能的提升有非常重要的作用,主要体现在:
l 在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。
l 在读数据时,如果可以直接在Cache中命中的话,将减少硬盘寻道操作,降低响应时间,提升了数据读速度。
l Cache数据的掉电保护依赖于与RAID控制卡相连的超级电容。超级电容的外形、连接方式、安装方式可参考各服务器的用户指南。
l Avago SAS3508分为支持配置超级电容与不支持配置超级电容两种形态,只有支持配置超级电容的RAID控制卡具有Cache数据的掉电保护功能。
l Avago SAS3508不支持flush write verify功能。
Avago SAS3508包含PCIe标卡与扣卡两种形态:
l Avago SAS3508扣卡与主板通过1个Xcede连接器互连,与硬盘背板通过2个miniSAS线缆互联。
l Avago SAS3508扣卡包含两种类型,分别如图9-1和图9-2所示。
l Avago SAS3508的PCIe标卡安装在服务器的PCIe槽位上,结构如图9-3与图9-4所示。
1 |
超级电容 |
2 |
miniSAS接口(port B,SFF-8643) |
3 |
超级电容接口 |
4 |
RAID控制卡 |
5 |
超级电容错误状态指示灯 |
6 |
Avago SAS3508 RAID控制卡写入/读出NAND Flash的状态指示灯 |
7 |
单板电源指示灯 |
8 |
系统心跳灯 |
9 |
Xcede连接器 |
10 |
miniSAS接口(port A,SFF-8643) |
Avago SAS3508单板指示灯说明如表9-1所示。
指示灯 |
颜色 |
说明 |
单板电源指示灯 |
绿色 |
l 亮:电源正常 l 灭:电源关闭或异常。 |
超级电容错误状态指示灯 |
红色 |
l 亮:超级电容状态异常。 l 灭:超级电容正常或不在位。 |
Avago SAS3508写入/读出NAND Flash的状态指示灯 |
绿色 |
l 亮:Avago SAS3508 RAID控制卡当前处于写入/读出NAND Flash的状态。 l 灭:Avago SAS3508 RAID控制卡当前不处于写入/读出NAND Flash的状态。 |
系统心跳灯 |
绿色 |
l 灯以2s周期闪烁:Avago SAS3508 RAID控制卡正在工作。 l 灯灭:Avago SAS3508 RAID控制卡未开始运行或FW运行异常。 |
Avago SAS3508支持的硬盘、虚拟磁盘、硬盘组数量分别为:
l 最多支持32或240个硬盘(Avago SAS3508支持2种规格的RAID Key,分别支持32盘和240盘)。
该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。
l 最多支持64个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
l 最多支持64个硬盘组(即配置界面中看到的“Drive Group”),每个硬盘组最多支持32或240个硬盘。
l 每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
Avago SAS3508支持的RAID类型及对应的硬盘个数如表9-2所示。
RAID级别 |
支持硬盘数 |
支持子组数 |
子组支持硬盘数 |
允许坏盘数 |
RAID 0 |
1~32 |
不涉及 |
不涉及 |
0 |
RAID 1 |
2~32(偶数) |
硬盘数÷2 |
||
RAID 5 |
3~32 |
1 |
||
RAID 6 |
3~32 |
2 |
||
RAID 10 |
4~32/240(偶数) |
2~8个RAID 1 |
2~16/32(偶数) |
子组数 |
RAID 50 |
6~32/240 |
2~8个RAID 5 |
3~16/32 |
子组数 |
RAID 60 |
6~32/240 |
2~8个RAID 6 |
3~16/32 |
子组数x2 |
l 不支持RAID 00级别。
l 子组数:子RAID的个数,例如RAID 50由两个RAID 5组成,则子组数为2。
l RAID 10、RAID 50每个子组中最多允许1个坏盘。
l RAID 60每个子组中最多允许2个坏盘。
l 根据配置的key类型不同,RAID 10、50、60支持的硬盘数有所不同。
l RAID10、50、60包含的总硬盘数由子组数和子组支持的硬盘数共同决定。
Avago SAS3508的热备功能分为两种:热备盘和紧急备份。
热备盘
对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l Global HSP:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
配置方法请参见9.4.1.1 配置全局热备盘。
l Dedicated HSP:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。
配置方法请参见9.4.1.2 配置局部热备盘。
热备盘容量需大于等于成员盘容量。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须是SATA硬盘或SAS硬盘,容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
紧急备份
使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
l 紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。
l 在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。
l 紧急备份的硬盘生效次序:相同类型硬盘 > 相同接口不同介质类型硬盘 > 不同接口相同介质类型硬盘 > 不同接口不同介质类型硬盘。
紧急备份有两种情况,对应了两种设置:
l 当成员盘fail时,空闲盘替代成员盘作为紧急备份。
l 当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。
具体配置方法请参见9.4.2 设置紧急热备功能。
热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。
l 请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。
l 插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。
l 人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考9.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。
具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。
l 不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:
l RAID组状态保持Optimal不变。
l 热备盘状态由Online变为Hot Spare。
l 新加入硬盘状态由Copyback/Copybacking变为Online。
l 可使用命令行工具暂停或继续回拷,具体请参见9.7.2.12 查询和设置回拷。
l 若回拷时重启服务器,进度将保存。
l 局部热备以及全局热备,更换故障盘后,均会产生回拷。
条带化
当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待。
条带化技术是一种自动的将I/O的负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。
影响条带化效果的因素有:
l 条带宽度:指同时可以并发读或写的条带数量。
这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。
l 条带大小:指写在每块硬盘上的条带数据块的大小。
分条
硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。
Avago SAS3508支持多种条带大小,包括64KB、128KB、256KB、512KB及1MB,默认条带大小为256KB。
配置RAID时一般采用默认值。
RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见9.4.5 迁移RAID级别。
当前支持以下级别类型的迁移:
l RAID 0迁移到RAID 1、RAID 5、RAID 6
l RAID 1迁移到RAID 0、RAID 5、RAID 6
l RAID 5迁移到RAID 0、RAID 6
l RAID 6迁移到RAID 0、RAID 5
RAID迁移对硬盘数量的要求如9.2.6 RAID级别迁移所示。
迁移RAID级别 |
原始硬盘组硬盘数量 |
迁移后的硬盘组硬盘数量 |
RAID 0迁移到RAID 1 |
1~32 |
2~32(偶数) |
RAID 0迁移到RAID 5 |
1~32 |
3~32 |
RAID 0迁移到RAID 6 |
1~32 |
3~32 |
RAID 1迁移到RAID 0 |
2~32(偶数) |
2~32 |
RAID 1迁移到RAID 5 |
2~32(偶数) |
3~32 |
RAID 1迁移到RAID 6 |
2~32(偶数) |
3~32 |
RAID 5迁移到RAID 0 |
3~32 |
3~32 |
RAID 5迁移到RAID 6 |
3~32 |
3~32 |
RAID 6迁移到RAID 0 |
3~32 |
3~32 |
RAID 6迁移到RAID 5 |
3~32 |
3~32 |
VD初始化
创建VD(Virtual Drive)后,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。Avago SAS3508提供了多种相应的初始化方式:
l 前台初始化:
− 快速初始化:Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。
− 完全初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。
l 后台初始化:
− 对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。
− 对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。
一致性校验和后台初始化通常会对性能造成一定损失,直至该操作完成。
一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。
硬盘初始化
硬盘可执行的初始化包括:
l Initialize Drive:对前100MByte空间进行全写0操作。
l Drive Erase:对全部空间进行写0操作。
不支持停止SATA SSD的擦除和初始化过程。
Avago SAS3508支持的容量扩展方式有两种:
l 通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。
详细操作方法可参考9.4.3 添加新硬盘到RAID。
l 通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。
详细操作方法可参考9.4.4 扩展Virtual Drives可用空间。
l 只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。
l RAID10、RAID 50、RAID 60不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。
l 当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见9.7.2.30 通过增加成员盘可用容量扩容RAID
安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘和硬盘的安全擦除功能:
l Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。
l Normal:对虚拟磁盘或硬盘进行三轮擦除动作。
l Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。
安全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。
Avago SAS3508支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。
系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况,称之为写洞。
将写失败的数据备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:
l RAID 1、RAID 5、RAID 6、RAID 10、RAID 50,RAID 60支持写洞保护,Write hole数据都保存在掉电保护区,不需要开关控制。
− 掉电保护装置可用时,Write hole数据异常掉电重启后会进入恢复流程。
− 掉电保护装置不可用时,记录在掉电保护区的Write hole数据异常掉电后丢失,不做Write hole恢复。
l RAID 1、RAID 5掉线盘时不可做写洞保护。
l RAID 6掉线一块盘时可做写洞保护。
l RAID 10、RAID 50、RAID 60部分降级时可做写洞保护,按子组恢复数据。完全降级时不可做写洞保护。
l 不对RAID 0做写洞保护。
Avago SAS3508支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:
l Read:读策略选择“Read Ahead”模式,Avago SAS3508在读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,提升了数据读速度。
l Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,Avago SAS3508就向HOST发出数据传输完成的信号。
在写数据时,直接写入Cache,当写入的数据积累到一定程度,Avago SAS3508才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。
数据写入高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用高速缓存来提升系统性能。
l 开启高速缓存可提升整机写性能,当服务器写压力减小或高速缓存将写满时,数据再由高速缓存写入硬盘。
l 开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。
为了提升整机的高读写性能和高速缓存中数据的安全,可为Avago SAS3508配置超级电容。
超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将高速缓存中的数据写入超级电容模块中的NAND Flash中。
Avago SAS3508分为支持配置超级电容与不支持配置超级电容两种形态,只有支持配置超级电容的RAID控制卡可以启用数据掉电保护功能。
超级电容电量校准
由于数据保护需要超级电容的配合,为了记录超级电容的放电曲线,以便RAID控制卡了解超级电容的状态,例如最大和最小电压等,同时为了延长超级电容的寿命,RAID控制卡默认启动超级电容自动校准模式。
RAID控制卡通过如下所述的三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。
1. RAID控制卡将超级电容的电量充到最大值。
2. 自动启动校准进程,将超级电容完全放电。
3. 重新开始充电,直至达到最大电量。
超级电容电量校准过程中,RAID控制卡写策略自动调整为“WT”模式以保证数据完整性,此时RAID控制卡性能会降低。电量校准的时间取决于超级电容充放电速度。
硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。
硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。
硬盘巡检不能在参与以下任何操作的任何硬盘上运行:
l RAID热备修复
l 动态扩盘
l 完全初始化或后台初始化
l 一致性校验
S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据受到损失。
RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。
RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。
默认情况下,硬盘节能功能处于开启状态。
当硬盘节能功能开启且在指定时间内没有I/O访问时,RAID控制卡下挂载的“Uncongfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。
硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。
Avago SAS3508可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在Avago SAS3508下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。
Avago SAS3508支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
如果需要使能硬盘直通功能,请在图9-62所示界面的“JBOD Mode”参数进行设置。
l 开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。
l JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
硬盘漫游是指在同一控制卡下移动物理硬盘。控制卡将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。
要使用硬盘漫游,按以下步骤操作:
1. 关闭操作系统。
2. 将服务器下电。
3. 将物理硬盘移动到背板所需位置。
4. 执行安全检查。确保正确插入物理硬盘。
5. 将服务器上电。
6. 控制卡从物理硬盘上的配置数据中检测到RAID配置。
如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。
此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。
Avago SAS3508提供硬盘故障记录功能:
l 使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。
l 禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,Avago SAS3508会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。
维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。
l 使能该功能后,当硬盘故障时,会点亮Fault指示灯。
l 禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。
默认情况下,Avago SAS3508使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。
针对有冗余功能的RAID 1、5、6、10、50、60,RAID控制卡可以对RAID组的硬盘数据进行一致性校验,对硬盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。
由于RAID 0不具备冗余性,因此不支持一致检查。
建议每月至少进行一次一致性校验。
文档中描述的关于Avago SAS3508的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器。
步骤 2 重启过程中,当出现如图9-5所示界面时,按“Delete”,进入输入密码界面。
步骤 3 输入密码并按“Enter”。
进入如图9-6所示界面。
步骤 4 通过“←”或“→ ”进入“Advanced”页签,如图9-7所示。
如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见9.5.4 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy进行修复。
步骤 5 选择“Avago <SAS3508> Configuration Utility”,按“Enter”。
进入Avago SAS3508主界面,如图9-8和图9-9所示,界面参数如表9-4所示。
参数 |
说明 |
Main Menu |
RAID控制卡主菜单,包含了RAID控制卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID控制卡当前工作状态。 |
Backplane |
背板个数。 |
BBU |
超级电容在位情况。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的硬盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID控制卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 |
Configure |
提供删除配置的接口。 |
Set Factory Defaults |
恢复出厂设置。 |
Update Firmware |
升级固件。 说明 Avago SAS3508不支持在此界面升级FW。 |
Silence Alarm |
板载蜂鸣器的使能状态。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3508支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见9.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见9.3.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图9-10和图9-11所示,参数说明如表9-5所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照9.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认值为Direct。 说明 5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图9-12所示,界面参数如表9-6所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 0支持的硬盘个数为1~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
5. 按表9-6所述配置过滤条件。
6. 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”返回上级界面。
步骤 4 按照表9-5所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照9.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3508支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见9.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见9.3.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图9-13和图9-14所示,参数说明如表9-7所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照9.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认值为Direct。 说明 5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图9-15所示,界面参数如表9-8所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 1支持的硬盘个数为2~32(偶数)。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
5. 按表9-8所述配置过滤条件。
6. 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”完成成员盘配置。
步骤 4 按照表9-7所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照9.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3508支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见9.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见9.3.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图9-16和图9-17所示,参数说明如表9-9所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照9.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认值为Direct。 说明 5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 5”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图9-18所示,界面参数如表9-10所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 5支持的硬盘个数为3~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
5. 按表9-10所述配置过滤条件。
6. 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”完成成员盘配置。
步骤 4 按照表9-9所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照9.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3508支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见9.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见9.3.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图9-19和图9-20所示,参数说明如表9-11所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照9.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认值为Direct。 说明 5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 6”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图9-21所示,界面参数如表9-12所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 6支持的硬盘个数为3~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
5. 按表9-12所述配置过滤条件。
6. 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”完成成员盘配置。
步骤 4 按照表9-11所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照9.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3508支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见9.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见9.3.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图9-22和图9-23所示,参数说明如表9-13所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照9.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认值为Direct。 说明 5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图9-24所示,界面参数如表9-14所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 按表9-14所述配置过滤条件。
5. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 10支持2~8个Span,每个Span支持的硬盘数为2~16/32(偶数),且各个Span的硬盘数量必须保持一致。
l RAID 10支持的硬盘总数为4~32/240(偶数)。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
6. 选择“Apply Changes”按“Enter”保存配置。
7. 单击“OK”完成成员盘配置。
当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如图9-25所示。
1. 选择“Add More Spans”并按“Enter”。
2. 选择“Select Drives”并按“Enter”。
3. 在打开的列表中选择第2个Span的成员盘。
各个Span的硬盘数量必须保持一致。
4. 选择完成后,选择“Apply Changes”并“Enter”。
提示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID10至少需要创建2个Span,最多可以创建8个Span。
步骤 6 按照表9-13所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照9.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 8 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3508支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见9.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见9.3.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图9-26和图9-27所示,参数说明如表9-15所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照9.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认值为Direct。 说明 5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 50”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图9-28所示,界面参数如表9-16所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 按表9-16所述配置过滤条件。
5. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 50支持2~8个Span,每个Span支持的硬盘数为3~16/32(取决于RAID Key的规格),各个Span的硬盘数量必须保持一致。
l RAID 50支持的硬盘总数为6~32/240(取决于RAID Key的规格)。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
6. 选择“Apply Changes”按“Enter”保存配置。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”完成成员盘配置。
当配置的级别为RAID 50时,需要配置多个Span,此时配置界面如图9-29所示。
1. 选择“Add More Spans”并按“Enter”。
2. 选择“Select Drives”并按“Enter”。
3. 在打开的列表中选择第2个Span的成员盘。
各个Span的硬盘数量必须保持一致。
4. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
提示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID50至少需要创建2个Span,最多可以创建8个Span。
步骤 6 按照表9-15所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照9.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 8 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3508支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见9.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见9.3.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图9-30和图9-31所示,参数说明如表9-17所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照9.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认值为Direct。 说明 5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 60”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图9-32所示,界面参数如表9-18所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 按表9-18所述配置过滤条件。
5. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 60支持2~8个Span,每个Span支持的硬盘数为3~16/32(取决于RAID Key的规格),且各个Span的硬盘数量必须保持一致。
l RAID 60支持的硬盘总数为6~32/240(取决于RAID Key的规格)。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
6. 选择“Apply Changes”按“Enter”保存配置。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”完成成员盘配置。
当配置的级别为RAID 60时,需要配置多个Span,此时配置界面如图9-33所示。
1. 选择“Add More Spans”并按“Enter”。
2. 选择“Select Drives”并按“Enter”。
3. 在打开的列表中选择第2个Span的成员盘。
各个Span的硬盘数量必须保持一致。
4. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
提示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID60至少需要创建2个Span,最多可以创建8个Span。
步骤 6 按照表9-17所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照9.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 8 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
同一台服务器配置了单个Avago SAS3508卡或者多种芯片硬盘控制卡的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。
设置启动项的操作方法请参见BIOS主板参数参考的“设置启动设备”章节。
对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
Avago SAS3508支持2种类型的热备盘:
l Global Hotspare:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
l Dedicated Hotspare:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
l 用作热备盘的硬盘数据将会丢失。
操作步骤
登录管理界面,具体操作方法请参见9.3.1 进入管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图9-34所示。
步骤 2 配置全局热备盘。
1. 将“Operation”设置为“Assign Global Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
显示The operation has been performed successfully。
3. 按“ESC”完成配置并返回上级界面。
----结束
操作步骤
当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
登录管理界面,具体操作方法请参见9.3.1 进入管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图9-35所示。
步骤 2 配置局部热备盘。
1. 将“Operation”设置为“Assign Dedicated Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
打开当前存在的虚拟磁盘列表,如图9-36所示。
3. 选择要关联的虚拟磁盘并按“Enter”。
4. 选择“OK”按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作场景
当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。
操作步骤
登录管理界面,具体操作方法请参见9.3.1 进入管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图9-37所示。
步骤 2 删除热备盘。
1. 将“Operation”设置为“Unassign Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 按“ESC”完成配置并返回上级界面。
----结束
操作步骤
登录管理界面,具体操作方法请参见9.3.1 进入管理界面。
步骤 1 进入“Advanced Controller Properties”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
3. 选择“Advanced Controller Properties”并按“Enter”。
进入“Advanced Controller Properties”界面,如图9-38所示。
图9-38 Advanced Controller Properties(1)
步骤 2 设置紧急热备。
1. 选择“Spare”并按“Enter”。
2. 将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如图9-39所示。
图9-39 Advanced Controller Properties(2)
3. 选择“Apply Changes”并按“Enter”。
显示The operation has been performed successfully。
4. 选择“OK”并按“Enter”,完成配置。
----结束
操作场景
l 只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。
l RAID10、RAID 50、RAID 60不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
l 服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。
l 执行添加新硬盘到RAID操作之前,建议先备份数据。
增加硬盘扩容过程中,如果出现硬盘故障,会导致:
l 若出现故障盘后,RAID组中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID组失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID组。
l 请谨慎执行增加硬盘扩容操作。
操作步骤
登录管理界面。具体操作方法请参见9.3.1 进入管理界面。
步骤 1 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”。
进入虚拟磁盘选项界面,如图9-40所示。
步骤 2 添加新硬盘。
1. 选择要进行扩容的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图9-41所示。
3. 选择“Reconfigure Virtual Drives”并按“Enter”
4. 选择“Go”并按“Enter”。
5. 选择要扩容的RAID级别。
增加硬盘扩容时,请保证该处的RAID级别与原级别一致。
6. 选择“Choose the Operation”,并按“Enter”。
进入硬盘选择界面,如图9-42所示。
7. 选择要增加的硬盘,并按“Apply Changes”。
进入确认操作界面。
l 增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。
l RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。
8. 选择“Confirm”并按“Enter”。
9. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
10. 选择“OK”并按“Enter”。
返回到如图9-43所示界面。
11. 选择“Start Operation”并按“Enter”。
显示操作成功。返回虚拟磁盘选项界面,验证扩容结果,如图9-44所示,表示RAID正在进行扩容。
----结束
操作场景
在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见9.3.1 进入管理界面。
步骤 1 进入要操作的虚拟磁盘界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图9-45所示。
图9-45 Virtual Drive Management
步骤 2 扩容虚拟磁盘。
1. 将“Operation”设置为“Expand Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入虚拟磁盘扩容界面,如图9-46界面所示,界面参数如表9-19所示。
参数 |
参数说明 |
Current Capacity |
虚拟磁盘当前容量。 |
Available Capacity |
可用于扩展的容量。 |
Enter a Percentage of Available Capacity |
输入扩容比例。 |
Capacity of Virtual Drive after Expansion |
扩容后虚拟磁盘容量。 |
3. 设置扩容百分比。
4. 选择“OK”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
返回虚拟磁盘选项界面,验证扩容结果,如图9-47所示。
----结束
操作场景
随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。
在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。
Avago SAS3508RAID控制卡支持以下级别类型的迁移:
l RAID 0迁移到RAID 1、RAID 5、RAID 6
l RAID 1迁移到RAID 0、RAID 5、RAID 6
l RAID 5迁移到RAID 0、RAID 6
l RAID 6迁移到RAID 0、RAID 5
RAID迁移对硬盘数量的要求如表9-3所示。
l 当RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
l 迁移只支持增加与RAID组成员盘同类型同规格的硬盘。
l 为防止数据丢失,请在该操作之前备份当前RAID组的数据。
l 只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。
l 迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。
RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:
l 若出现故障盘后,RAID组中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID组中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行RAID级别迁移操作。
操作步骤
登录管理界面。具体操作方法请参见9.3.1 进入管理界面。
步骤 1 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”并按“Enter”。
进入虚拟磁盘选项界面,如图9-48所示。
步骤 2 选择RAID迁移的目标级别。
下面以将RAID 1迁移到RAID 5为例进行说明。
1. 选择要进行迁移的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图9-49所示。
3. 选择“Reconfigure Virtual Drives”,并按“Enter”。
4. 选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如图9-50所示。不设置时默认与原RAID组配置一致。
5. 选择“Go”,并按“Enter”。
进入RAID配置界面,如图9-51所示。
图9-51 Reconfigure Virtual Drives
6. 选择“New RAID Level”并按“Enter”。
打开RAID迁移的目标级别选择窗口,如图9-52所示。
7. 选择“RAID 5”并按“Enter”。
步骤 3 添加硬盘。
1. 选择“Choose the operation”并按“Enter”。
打开硬盘选择窗口。
2. 选择要增加的硬盘并按“Enter”。
l RAID迁移对硬盘数量的要求请参见表9-3。
l 增加的硬盘要与RAID组的成员盘同类型同规格。
3. 选择“Apply Changes”并按“Enter”。
弹出操作确认会话框。
4. 选择“Confirm”并按“Enter”。
5. 选择“Yes”并按“Enter”。
提示操作成功。
6. 选择“OK”并按“Enter”返回图9-51界面。
步骤 4 RAID级别迁移。
1. 选择“Start Operation”并按“Enter”。
提示操作成功。
步骤 5 查看迁移结果。
1. 进入Virtual Drive Management界面,检查迁移结果,如图9-53所示,表示RAID正在进行迁移。
l 迁移过程中若重启服务器,该任务将在重启后继续进行。
l 迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。
2. 选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 1”变成“RAID 5”,RAID组容量增大,且“Status”状态显示为“Optimal”,表示RAID迁移成功。
----结束
操作场景
RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见9.3.1 进入管理界面。
步骤 1 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图9-54所示。
图9-54 Virtual Drive Management
步骤 2 删除虚拟磁盘。
1. 将“Operation”设置为“Delete Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“OK”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作场景
介绍将带有外部配置的硬盘进行重构的操作方法,不带外部配置硬盘的重构方法请参见9.5.1.1 硬盘故障。
操作步骤
在“Main Menu”界面中选择“Drive Management”并按“Enter”。
步骤 1 选中要进行重构的硬盘,按“Enter”。
步骤 2 将“Operation”设置为“Make Unconfigured Good”。
步骤 3 选择“Go”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 按“Enter”完成配置。
硬盘状态变为“(Foreign),Unconfigured Good”。
步骤 5 清除外部配置,具体操作请参见9.4.9 导入和清除外部配置。
RAID组开始进行重构。
----结束
当出现硬盘离线情况时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。
操作场景
用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。
操作步骤
登录管理界面,具体操作方法请参见9.3.1 进入管理界面。
步骤 1 进入“Controller Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
显示RAID控制卡基本信息,如图9-55所示,参数说明如表9-20所示。
参数 |
参数说明 |
Product Name |
RAID控制卡名称。 |
Serial Number |
RAID控制卡序列号。 |
Controller Status |
RAID控制卡的工作状态。 |
Select Boot Device |
当前启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见9.3.9 配置启动项。 |
PCI ID |
RAID控制卡的PCI ID。 |
PCI Slot Number |
RAID控制卡的PCI槽位号。 |
Package Version |
RAID控制卡的套件版本。 |
Firmware Version |
RAID控制卡的固件版本号。 |
NVDATA Version |
RAID控制卡配置信息的版本号。 |
Connector Count |
RAID控制卡与主板的接口个数。 |
Drive Count |
RAID控制卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID控制卡下已有虚拟磁盘数量。 |
Advanced Controller Management |
更多的控制卡操作。 |
Advanced Controller Properties |
查看和修改控制卡的高级属性。 |
步骤 2 查看控制卡高级属性。
选择“Advanced Controller Properties”并按“Enter”。
进入控制卡高级属性界面,如图9-56和图9-57所示,参数说明如表9-21所示。
在该界面下,可查看并修改RAID控制卡的高级属性。
图9-56 Advanced Controller Properties (1)
图9-57 Advanced Controller Properties (2)
参数 |
说明 |
Profile Management |
管理快速RAID。 |
Cache and Memory |
查看控制卡Cache和Memory信息。 |
Patrol Read |
系统巡检。 |
Power Save Setting |
设置硬盘休眠。 |
Spare |
设置控制卡热备状态。 |
Task Rates |
设置各种任务占用系统比率。 |
Alarm Control |
Avago SAS3508 RAID控制卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Coercion Mode |
容量对齐的模式。包括: l None l 128MB l 1GB 默认为“1GB”。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。 默认为“Stop On Errors”。 |
Controller BIOS |
控制卡BIOS的使能情况。 |
ROC Temperature |
控制卡温度。 |
Shield State Supported |
是否支持暂停I/O,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
硬盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Maintain Drive Fail History |
表示是否使能硬盘故障记录功能,默认为使能状态。 说明 l 该参数设置为“Disabled”时: l 当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。 l 新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。 l 该参数设置为“Enabled”时: l 新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。 l 新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见9.4.9 导入和清除外部配置章节。 |
SMART Polling |
SMART轮巡检测周期。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性校验 |
JBOD Mode |
是否使能硬盘直通功能。 |
Write Verify |
写校验。 |
Drive Detection Type |
随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制卡属性。 可用选项为: l Disabled l High Latency l Aggressive l Default |
Drive Corrective Action |
随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致I/O延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。 l Disabled:禁用该功能 l Enabled:开启该功能 |
Drive Error Threshold |
通过该选项设置适当的控制卡属性。 l Every 8 hours l Every1 hours l Every 15 mins l Every 5 mins |
----结束
操作场景
l 服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。
l 新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。
l 如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!
l 为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。
l 当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。
导入外部配置。
登录管理界面,具体操作方法请参见9.3.1 进入管理界面。
步骤 1 在主界面中选择“Main Menu”并按“Enter”。
步骤 2 选择“Configuration Management”并按“Enter”。
步骤 3 选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。
进入外部配置管理界面,如图9-58所示。
图9-58 Manage Foreign Configuration
步骤 4 选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图9-59所示。
步骤 5 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 6 选择“Confirm”并按“Enter”。
步骤 7 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 8 按“ESC”完成配置返回上级界面。
----结束
清除外部配置。
登录管理界面,具体操作方法请参见9.3.1 进入管理界面。
步骤 1 在主界面中选择“Main Menu”并按“Enter”。
步骤 2 选择“Configuration Management”并按“Enter”。
步骤 3 选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。
进入外部配置管理界面,如图9-60所示。
图9-60 Manage Foreign Configuration
步骤 4 选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图9-61所示。
步骤 5 选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 6 选择“Confirm”并按“Enter”。
步骤 7 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 8 按“ESC”完成配置返回上级界面。
----结束
Avago SAS3508支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
l 开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。
l JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
登录管理界面,具体操作方法请参见9.3.1 进入管理界面。
步骤 1 依次进入Main Menu>Controller Management>Advanced Controller Properties界面,如图9-62所示。
图9-62 Advanced Controller Properties
步骤 2 选择“JBOD Mode”并按Enter。
步骤 3 选择“Enabled”并按“Enter”。
步骤 4 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 选择“OK”并按“Enter”完成配置。
----结束
该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID0存在一个VD为例,详细操作方法如下:
按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如图9-63所示。
步骤 2 将“Select Drives From”设置为“Free Capacity”,如图9-64所示。
步骤 3 选择“Select Drive Groups”并按“Enter”。
显示当前存在的RAID组(Drive Group),如图9-65所示。
步骤 4 选择要创建多个VD的RAID组并按“Enter”,如图9-66所示。
步骤 5 选择“Apply Changes”并按“Enter”。
提示操作成功。
步骤 6 选择“OK”并按“Enter”返回VD配置界面,如图9-67所示,参数说明如表9-22所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drive Groups |
选择硬盘组。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照9.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当磁盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认值为Direct。 说明 5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 7 按照表9-22所述配置VD的相关属性。
步骤 8 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
步骤 9 选择“Confirm”并按“Enter”。
步骤 10 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
可进入Virtual Drive Management界面,查看当前存在的所有VD,如图9-68所示。
图9-68 Virtual Drive Management
----结束
每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤11。
查询RAID控制卡固件版本的方法有如下几种:
l 在iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。
l 服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见9.7.2.1 查询RAID控制卡配置信息。
回显信息中的“FW Version”字段即为RAID控制卡的固件版本。
l 在RAID控制卡管理界面进行查询,具体方法为:
a. 登录RAID控制卡的管理界面,具体操作请参见9.3.1 进入管理界面。
b. 在主界面中选择“Main Menu”并按“Enter”。
进入“Main Menu”页面,如图9-69所示。
c. 选择“Controller Management”并按“Enter”。
显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如图9-70所示。
介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。
更多故障案例请联系技术支持获取。
问题描述
当服务器出现如下现象时,说明硬盘故障。
l 硬盘故障指示灯常亮。
l 服务器开机状态下,硬盘指示灯不亮。
l 服务器上报硬盘故障告警。
处理方法
JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
l 通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。
l 通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。
l 通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考9.6.2.4 Drive Management。
l 通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
步骤 1 更换新硬盘。
l 更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考9.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。
l 若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在表9-2查看RAID组支持的最大故障硬盘数量。
l 更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。
l 新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。
拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:
l 若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。
l 若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。
l 若故障硬盘为直通盘,则直接更换即可。
l 若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。
− UEFI模式下创建RAID0的方法请参见9.3.2 创建RAID 0。
− 通过命令行方式创建RAID0的方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
----结束
问题描述
正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
但当RAID控制卡未设置紧急热备时,成员盘状态显示为fail或prefail时,可使用以下方法处理。
处理方法
使用StorCLI工具,具体操作请参考9.7.1 下载和安装StorCLI工具。
步骤 1 执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考9.7.2.17 设置硬盘状态。
storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]
l controller_id:硬盘所在RAID控制卡的ID
l enclosure_id:硬盘所在Enclosure的ID
l slot_id:物理硬盘槽位ID
步骤 2 更换离线硬盘。
步骤 3 RAID组自动执行重构。
等待重构完成。
----结束
问题描述
硬盘状态显示为Unconfigured Bad或UBad。
处理方法
使用StorCLI工具,具体操作请参见9.7.1 下载和安装StorCLI工具。
步骤 1 执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见9.7.2.17 设置硬盘状态。
storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]
l controller_id:硬盘所在RAID控制卡的ID
l enclosure_id:硬盘所在Enclosure的ID
l slot_id:物理硬盘槽位ID
步骤 2 重新查看硬盘状态是否更改为Unconfigured Good或Ugood。具体操作请参见9.6.2.4 Drive Management界面或9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤4。
步骤 3 查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见9.4.9 导入和清除外部配置或9.7.2.36 查看/导入/清除外部配置。
l 问题解决 => 处理完毕。
l 问题未解决 => 联系技术支持处理。
----结束
问题描述
当RAID控制卡电容故障时,可能导致服务器出现如下情况:
l 服务器读写速度显著降低。
l RAID控制卡的CU界面中显示电容状态异常。
处理方法
确认当前使用的RAID控制卡是否支持配置电容。
l 是 => 步骤2
l 否 => 步骤7
步骤 1 进入RAID控制卡的CU界面,查看电容状态是否为“Optimal”。
电容状态可查询9.6.2.5 Hardware Components界面的“Battery Status”参数。
l 是 => 处理完毕
l 否 => 步骤3
步骤 2 将服务器下电,打开机箱,并查看RAID控制卡电容是否在位。
l 是 => 步骤5
l 否 => 步骤4
步骤 3 检查整机配置,为服务器安装电容,查看电容状态是否为“Optimal”。
l 是 => 处理完毕
l 否 => 步骤7
步骤 4 重新安装RAID控制卡电容,查看电容状态是否为“Optimal”。
l 是 => 处理完毕
l 否 => 步骤6
步骤 5 更换RAID控制卡电容,查看电容状态是否为“Optimal”,且“问题描述”所述的异常状态是否消失。
l 是 => 处理完毕
l 否 => 步骤7
----结束
问题描述
当服务器出现如下现象时,说明控制卡故障。
l 数据无法写入控制卡控制的硬盘。
l 服务器上报控制卡故障告警。
处理方法
登录iBMC Web界面查看告警信息。
步骤 1 根据告警信息,参考iBMC告警处理。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤3
步骤 3 查询兼容性查询助手或者联系技术支持处理。
----结束
问题描述
正常情况下,当服务器配置了RAID控制卡且RAID控制卡状态正常时,进入BIOS的Advanced页签后,会显示RAID控制卡的信息,如图9-71所示。
如果Advanced页签不显示RAID控制卡的信息,如图9-72所示,则:
l 如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:
− 如果不显示驱动打印信息,可尝试下电后重新拔插RAID控制卡再上电、下电后更换RAID控制卡再上电或者联系技术支持。
− 如果显示“AVAGO EFI SAS Driver SAS3508”,如图9-73所示,则可以通过本章节的指导修复RAID控制卡。
l 如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,如图9-74所示,则可以通过本章节的指导修复RAID控制卡;如果不显示,可尝试下电后重新拔插RAID控制卡再上电、下电更换RAID控制卡再上电或者联系技术支持。
处理方法
l 当BIOS的版本为0.98之前版本(不包含0.98版本)时:
a. 在Advanced页签选择“Driver Health Manager”并按Enter。
进入“Driver Health Manager”界面。
b. 选择要进行修复的RAID控制卡驱动,如“AVAGO EFI SAS Driver SAS3508”,并按“Enter”。
进入“Critical Message”界面。
c. 查看“Critical Message”界面的打印信息:
n 显示“The following VDs have missing disks. ”=> 请参见9.5.4.1 The following VDs have missing disks。
n 显示“There are offline or missing virtual drives with preserved cache.” => 请参见9.5.4.2 There are offline or missing virtual drives with preserved cache
n 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见9.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
n 显示“Number of disks exceeded the maximum supported count of 32 disks”=> 请参见9.5.4.4 Number of disks exceeded the maximum supported count of 32 disks。
n 显示“Memory/battery problems were detected / Unexpected power-loss occurred”=> 请参见9.5.4.5 Memory/battery problems were detected / Unexpected power-loss occurred。
l 当BIOS的版本为0.98及以上版本时:
a. 在“Advanced”页签选择“Some drivers are not healthy”。
进入健康状态查询界面。
b. 选择“Repair the whole platform”,并按“Enter”。
进入“Critical Message”界面。
c. 查看“Critical Message”界面的打印信息。
n 显示“The following VDs have missing disks. ”=> 请参见9.5.4.1 The following VDs have missing disks。
n 显示“There are offline or missing virtual drives with preserved cache.” => 请参见9.5.4.2 There are offline or missing virtual drives with preserved cache
n 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见9.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
n 显示“Number of disks exceeded the maximum supported count of 32 disks”=> 请参见9.5.4.4 Number of disks exceeded the maximum supported count of 32 disks。
n 显示“Memory/battery problems were detected / Unexpected power-loss occurred”=> 请参见9.5.4.5 Memory/battery problems were detected / Unexpected power-loss occurred。
RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见0RAID控制卡启动中出现的常见的错误消息及处理方法。
问题描述
如图9-75所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。
处理方法
修复RAID控制卡。
1. 在图9-75中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
2. 输入“C”并按“Enter”。
3. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
4. 输入“y”并按“Enter”。
提示“Critical Message handling completed. Please exit”。修复完成。
步骤 1 重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图9-76所示,进入“Driver Healthy Protocol Utility”界面后,显示“There are offline or missing virtual drives with preserved cache”。
处理方法
选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
步骤 1 输入任意内容,并按“Enter”。
提示Critical Message handling completed. Please exit。修复完成。
步骤 2 按Esc。
进入RAID控制卡界面,如图9-77所示。
步骤 3 选择“Discard Preserved Cache”并按Enter。
弹出操作确认界面,如图9-78所示。
步骤 4 选择“Confirm”并按“Enter”。
步骤 5 选择“Yes”并按“Enter”。
提示操作成功。
步骤 6 重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图9-79所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”
处理建议
该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:
l 下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。
l 忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:
a. 在图9-79中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
b. 输入“c”并按“Enter”。
c. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
d. 输入“y”并按“Enter”。
提示Critical Message handling completed. Please exit。
e. 按“Esc”退出当前界面。
弹出确认保存配置会话框,如图9-80所示。
f. 按“Y”保存配置,操作完成。
g. 按Esc键返回“Device Manager”界面。
h. 选择3508RAID控制卡,并按“Enter”,进入RAID控制卡管理界面。
问题描述
如图9-81所示,进入“Driver Healthy Protocol Utility”界面后,显示“Number of disks exceeded the maximum supported count of 32 disks”。
处理方法
出现该打印信息表示当前Avago SAS3508RAID控制卡配置的RAID Key仅支持32个硬盘,请将服务器下电,拔出多余的硬盘,再上电,即会在“Advanced”页签正常显示RAID控制卡信息。如未修复,请联系技术工程师处理。
问题描述
如图9-82所示,进入“Driver Healthy Protocol Utility”界面后,显示“Memory/battery problems were detected / Unexpected power-loss occurred”。
处理方法
选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
步骤 1 输入任意内容,并按“Enter”。
提示Critical Message handling completed. Please exit。修复完成。
步骤 2 重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图9-83所示,进入“Driver Healthy Protocol Utility”界面后,显示“Disabling writes to flash as the flash part has gone bad”。
处理方法
将服务器下电。
步骤 1 更换RAID控制卡。
步骤 2 将服务器上电,导入外部配置恢复原来的RAID配置,请参见9.4.9 导入和清除外部配置或9.7.2.36 查看/导入/清除外部配置。
检查提示是否清除。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD mode将RAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如图9-84所示,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。
当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。
处理方法
(可选)登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面。
步骤 1 依次进入Main Menu>Controller Management>Advanced Controller Management界面,如图9-85所示。
图9-85 Advanced Controller Management界面
步骤 2 选择“Switch to RAID mode”并按“Enter”。
提示操作成功,如图9-86所示。
步骤 3 选择“OK”并按“Enter”。
返回到“Advanced Controller Management”界面,显示正在切换模式,如图9-87所示。
图9-87 Advanced Controller Management界面
步骤 4 按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面。
步骤 5 依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如图9-88所示。
图9-88 Advanced Controller Management界面
l 是 => 处理完毕。
l 否 => 请联系技术支持。
----结束
问题描述
硬盘响应命令超时,控制卡会对硬盘进行复位。3次复位后尚未恢复时将可能耗尽控制卡TM(Task Management)资源,触发Fatal error,此时会通过OCR(Online Controller Reset)自愈恢复,期间将有短时间业务中断(约30s~60s),控制卡复位后会完成踢盘,将故障硬盘置为Ubad状态。
控制卡自愈恢复,需要开启OCR开关。
触发条件
当下发到硬盘的I/O出现超时不响应的情况时,RAID控制卡会通过reset硬盘来恢复,正常情况下,硬盘会重新接入或者多次reset之后会进行踢盘。
当出现reset之后硬盘仍然无法响应RAID控制卡指令且无法踢盘时,RAID控制卡会再次reset进行复位,每次reset会占用RAID控制卡资源,短时间内多次reset会导致RAID控制卡资源耗尽,该场景下,RAID控制卡会通过重新加载FW进行恢复。
该机制为此类卡的正常处理机制,由于架构限制,无法进行优化。
识别方法
l 已安装OS:
当遇到短时间业务中断,恢复后查看有被置为Ubad状态的硬盘时,可以查看控制卡日志,搜索dm.c并查看其发生时间,如与业务中断时间节点接近,即可断定为触发了该机制。
注意控制卡与OS时间差。
l 未安装OS:
无OS时,触发该机制的操作为:从“Advanced”页签进入控制卡界面。若触发该机制,进入控制卡卡操作界面时将会卡住,无法恢复。
处理方法
定位故障硬盘。
l 已安装OS:
− 如确认触发了该机制并且已经完成了踢盘,需要更换Ubad状态的硬盘。
− 如无Ubad状态的硬盘,查看日志并搜索“indicates critical condition”,目标行的“element xx indicates critical condition”中,“xx”即为问题硬盘的槽位号。
已安装OS,但是进入“Advanced”页签的控制卡操作界面卡住,需要重新上下电进入OS,按照以上方式定位故障硬盘。
l 未安装OS:
系统未安装OS,出现该异常时,保留预安装OS RAID组数目的硬盘,将其他硬盘拔出并记录槽位号,如成功安装OS进入系统后,按照已安装OS的操作来确认问题硬盘。
步骤 1 更换故障硬盘。
l 是 => 处理完毕。
l 否 => 请联系技术支持。
----结束
问题描述
l 无法创建RAID组。
l 进入控制卡主界面后,显示“Discard Preserved Cache”,如图9-89所示。
处理方法
进入控制卡主界面。
步骤 1 选择“Discard Preserved Cache”并按Enter。
弹出操作确认界面,如图9-90所示。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示“The operation has been performed successfully”即操作成功。
----结束
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器。
步骤 2 重启过程中,当出现如图9-91所示界面时,按“Delete”,进入输入密码界面。
步骤 3 输入密码并按“Enter”。
进入如图9-92所示界面。
步骤 4 通过“←”或“→ ”进入“Advanced”页签,如图9-93所示。
如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见9.5.4 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy进行修复。
步骤 5 选择“Avago <SAS3508> Configuration Utility”,按“Enter”。
进入Avago SAS3508主界面,如图9-94和图9-95所示,界面参数如表9-23所示。
参数 |
说明 |
Main Menu |
RAID控制卡主菜单,包含了RAID控制卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID控制卡当前工作状态。 |
Backplane |
背板个数。 |
BBU |
超级电容在位情况。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的硬盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID控制卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 |
Configure |
提供删除配置的接口。 |
Set Factory Defaults |
恢复出厂设置。 |
Update Firmware |
升级固件。 说明 Avago SAS3508不支持在此界面升级FW。 |
Silence Alarm |
板载蜂鸣器的使能状态。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。
界面介绍
“Main Menu”界面如图9-96,参数说明如表9-24所示。
参数 |
参数说明 |
Configuration Management |
配置管理RAID。 |
Controller Management |
管理RAID控制卡。 |
Virtual Drive Management |
管理虚拟磁盘。 |
Drive Management |
管理硬盘。 |
Hardware Components |
查询部件信息。 |
可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。
界面介绍
“Configuration Management”界面如图9-97,参数说明如表9-25所示。
图9-97 Configuration Management
参数 |
参数说明 |
Auto Configure RAID 0 |
自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0。 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。 |
View Drive Group Properties |
查看硬盘组属性。 当存在硬盘组时会显示该参数。 |
Clear Configuration |
清除当前所有RAID配置。 |
Manage Foreign Configuration |
管理外部配置。 当存在外部配置时会显示该参数。 |
查看虚拟磁盘属性
在图9-97中选择“View Drive Group Properties”并按“Enter”。
图9-98 View Drive Group Properties
参数 |
参数说明 |
Drive Group |
硬盘组名称。 |
Capacity Allocation |
硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。 |
清除RAID配置
选择“Clear Configuration”并按“Enter”。
进入操作确认界面。
步骤 1 选中“Confirm”并按“Enter”。
步骤 2 在打开的列表中选择“Enabled”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 按“Enter”。
配置完成。
----结束
查看并导入外部配置
在图9-97中选择“Manage Foreign Configuration”并按“Enter”。
界面如图9-99所示。
图9-99 Manage Foreign Configuration
步骤 2 选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图9-100所示。
步骤 3 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 4 选择“Confirm”并按“Enter”。
步骤 5 在列表中选择“Enable”并按“Enter”。
步骤 6 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 7 选择“OK”并按“Enter”完成配置。
----结束
清除外部配置
选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 在列表中选择“Enable”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面提供控制卡管理接口,可查看并修改控制卡的详细参数。
界面介绍
“Controller Management”界面如图9-101,参数说明如表9-27所示。
参数 |
参数说明 |
Product Name |
RAID控制卡名称。 |
Serial Number |
RAID控制卡序列号。 |
Controller Status |
RAID控制卡的工作状态。 |
Select Boot Device |
当前启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见9.3.9 配置启动项。 |
PCI ID |
RAID控制卡的PCI ID。 |
PCI Slot Number |
RAID控制卡的PCI槽位号。 |
Package Version |
RAID控制卡的套件版本。 |
Firmware Version |
RAID控制卡的固件版本号。 |
NVDATA Version |
RAID控制卡配置信息的版本号。 |
Connector Count |
RAID控制卡与主板的接口个数。 |
Drive Count |
RAID控制卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID控制卡下已有虚拟磁盘数量。 |
Advanced Controller Management |
更多的控制卡操作。 |
Advanced Controller Properties |
查看和修改控制卡的高级属性。 |
更多控制卡操作
在图9-101中选择“Advanced Controller Management”并按“Enter”。
图9-102 Advanced Controller Management
参数 |
说明 |
Clear Controller Events |
清除控制卡的事件日志。 |
Save Controller Events |
保存控制卡的事件日志。 |
Save TTY Log |
保存终端操作日志。 |
Manage SAS Storage Link Speed |
管理接口速率。 |
Manage MegaRAID Advanced Software Options |
管理高级软件功能。 |
Schedule Consistency Check |
设置一致性校验参数。 |
Set Factory Defaults |
恢复为出厂配置。 |
Switch to JBOD mode |
切换RAID控制卡的工作模式,默认为RAID模式。当RAID控制卡当前的工作模式为RAID时,显示为“Switch to JBOD mode”;当RAID控制卡当前的工作模式为JBOD时,显示为“Switch to RAID mode”。 RAID控制卡的工作模式仅支持设置为“RAID”,请勿修改为“JBOD”。 如已设置为JBOD,请参见9.5.5 将Controller Mode恢复为RAID进行恢复;如需要开启JBOD功能,请参见9.4.10 设置JBOD模式进行设置。 |
Controller Mode |
RAID控制卡当前的工作模式。 |
查看并修改控制卡高级属性
在图9-101中选择“Advanced Controller Properties”并按“Enter”。
界面如图9-103和图9-104所示,界面中参数说明如表9-29所示。
图9-103 Advanced Controller Properties(1)
图9-104 Advanced Controller Properties(2)
参数 |
说明 |
Profile Management |
管理快速RAID。 |
Cache and Memory |
查看控制卡Cache和Memory信息。 |
Patrol Read |
系统巡检。 |
Power Save Setting |
设置硬盘休眠。 |
Spare |
设置控制卡热备状态。 |
Task Rates |
设置各种任务占用系统比率。 |
Alarm Control |
Avago SAS3508 RAID控制卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Coercion Mode |
容量对齐的模式。包括: l None l 128MB l 1GB 默认为“1GB”。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。 默认为“Stop On Errors”。 |
Controller BIOS |
控制卡BIOS的使能情况。 |
ROC Temperature |
控制卡温度。 |
Shield State Supported |
是否支持暂停I/O,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
硬盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Maintain Drive Fail History |
表示是否使能硬盘故障记录功能,默认为使能状态。 说明 l 该参数设置为“Disabled”时: l 当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。 l 新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。 l 该参数设置为“Enabled”时: l 新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。 l 新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见9.4.9 导入和清除外部配置章节。 |
SMART Polling |
SMART轮巡检测周期。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性校验 |
JBOD Mode |
是否使能硬盘直通功能。 |
Write Verify |
写校验。 |
Drive Detection Type |
随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制卡属性。 可用选项为: l Disabled l High Latency l Aggressive l Default |
Drive Corrective Action |
随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致I/O延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。 l Disabled:禁用该功能 l Enabled:开启该功能 |
Drive Error Threshold |
通过该选项设置适当的控制卡属性。 l Every 8 hours l Every1 hours l Every 15 mins l Every 5 mins |
步骤 2 在图9-103中选择“Task Rates”并按“Enter”。界面如图9-105所示,界面中参数说明如表9-30所示。
参数 |
说明 |
Background Initialization <BGI> Rate |
设置执行后台初始化的速率。 说明 数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Consistency Check Rate |
设置执行一致性校验的速率。 说明 数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Patrol Read Rate |
设置执行巡检读取的速率。 说明 数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Rebuild Rate |
设置硬盘发生故障时在新硬盘上执行重构数据的速率。 说明 数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Reconstruction Rate |
设置执行RAID级别迁移或在线容量扩展时重构数据的速率。 说明 数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Apply Changes |
保存配置。 |
步骤 3 按照表9-29所述修改控制卡的高级属性参数。
步骤 4 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 单击“OK”完成配置。
----结束
该界面提供虚拟磁盘的查询和管理接口。
界面介绍
“Virtual Drive Management”界面如图9-106,显示虚拟磁盘列表。
选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如图9-107所示,参数说明如表9-31所示。
图9-107 Virtual Drive Management
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:定位虚拟磁盘的所有硬盘。 l Stop Locate:取消定位。 l Delete Virtual Drive:删除虚拟磁盘。 l Expand Virtual Drive:扩展虚拟磁盘容量。 l Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。 l Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。 l Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。 l Fast Initialization:快速初始化虚拟磁盘。 l Slow Initialization:安全初始化虚拟磁盘。 l Check Consistency:一致性校验。 l Virtual Drive Erase:格式化虚拟磁盘。 |
Progress |
当前任务进度。 l 仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。 l 当前界面不会自动刷新,需退出后重新进入查看当前进度。 |
Stop |
停止当前任务。 仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。 |
Name |
虚拟磁盘名称。 |
Raid Level |
虚拟磁盘RAID级别。 |
Status |
虚拟磁盘当前运行状态。 |
Size |
虚拟磁盘容量。 |
View Associated Drives |
查看成员盘属性。 |
Advanced... |
查看虚拟磁盘高级属性。 |
扩展虚拟磁盘容量
将“Operation”设置为“Expand Virtual Drive”。
步骤 1 选择“Go”并按“Enter”。
进入虚拟磁盘扩容界面,如图9-108界面所示,界面参数如表9-32所示。
参数 |
参数说明 |
Current Capacity |
虚拟磁盘当前容量。 |
Available Capacity |
可用于扩展的容量。 |
Enter a Percentage of Available Capacity |
输入扩容比例。 |
Capacity of Virtual Drive after Expansion |
扩容后虚拟磁盘容量。 |
步骤 2 设置扩容百分比。
步骤 3 选择“OK”并按“Enter”。
显示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
查看成员盘属性
在图9-107中选择“View Associated Drives”并按“Enter”。
界面如图9-109,显示成员盘列表。
步骤 2 选择要查看的成员盘,并按“Enter”。
步骤 3 选择“View Drive Properties”并按“Enter”。
进入硬盘属性界面,如图9-110界面所示,界面参数如表9-33所示。
参数 |
参数说明 |
Operation |
该成员盘可执行的操作,包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Place Drive Online/Offline:将硬盘上线/离线。 |
Drive ID |
成员盘的ID。 |
Status |
成员盘的当前工作状态。 |
Size |
成员盘的容量。 |
Type |
成员盘类型。 |
Model |
成员盘的模块类型。 |
Hardware Vendor |
成员盘的生产厂商。 |
Associated Virtual Drive |
成员盘所在的虚拟磁盘。 |
Advanced... |
查询成员盘更多属性。 |
----结束
查看和修改虚拟磁盘高级属性
在图9-107中选择“Advanced”并按“Enter”。
界面如图9-111和图9-112所示,界面参数如表9-34所示。
参数 |
参数说明 |
Logical Sector Size |
逻辑扇区大小。 |
Strip Size |
条带大小。 |
Starting Logical Block Addressing |
逻辑单元起始地址。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Bad Blocks |
是否支持坏块处理。 |
SSD Caching |
是否支持SSD Caching。 |
Access |
是否支持Access。 |
Current Write Cache Policy |
当前写Cache策略,包括: l Write Through:当硬盘子系统接收到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。 l Write Back:当RAID控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Always Write Back:当未配置超级电容或超级电容故障时,RAID控制卡将不会自动切换到Write Through模式。 说明 “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR的写数据将会丢失。不推荐使用该模式。 |
Default Write Cache Policy |
默认的写Cache策略。 |
Disable Background Initialization |
是否禁用后台初始化。 |
Read Cache Policy |
当前读Cache策略,包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。RAID控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 |
Drive Cache |
是否支持cache。 |
Input/Output |
I/O读取策略,包括: l Direct:直接从硬盘读取数据,不经过Cache缓存。 l Cached:从Cache缓存中读取数据。 |
Apply Changes |
保存配置。 |
步骤 2 按照表9-34所述配置“Advanced”的参数。
步骤 3 选择“Apply Changes”并按“Enter”。
显示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面显示硬盘基本属性,提供硬盘操作接口。
界面介绍
“Drive Management”界面如图9-113所示,显示硬盘列表。
选定要操作的硬盘并按“Enter”进入详细操作界面,如图9-114所示,参数说明如表9-35所示。
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Initialize Drive:硬盘初始化。 l Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。 − Simple:仅对硬盘进行一轮擦除动作。 − Normal:对硬盘进行三轮擦除动作。 − Thorough:对硬盘进行九轮擦除动作。 − Stop Erase:停止数据擦除操作。 l Make Unconfigured Good/Bad:修改硬盘状态。 l Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。 l Assign Global Hot Spare Drive:设置全局热备盘。 l Assign Dedicated Hot Spare Drive:设置局部热备盘。 l Unassign Hot Spare Drive:删除热备盘。 l Cryptographic Erase:对加密硬盘进行数据擦除。 l Place Drive Online:将Offline状态的硬盘设置为Online。 说明 l Place Drive Online操作只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。 l 如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。 l 对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。 |
Drive ID |
硬盘的ID。 |
Status |
硬盘的当前工作状态。 |
Size |
硬盘的容量。 |
Type |
硬盘的类型。 |
Model |
硬盘型号。 |
Hardware Vendor |
硬盘的生产厂商。 |
Associated Virtual Drive |
表示硬盘已加入虚拟磁盘,此处显示虚拟磁盘信息。 |
Advanced... |
查询更多硬盘属性。 |
安全擦除硬盘数据
该操作会删除硬盘上的数据,请谨慎执行。
将“Operation”设置为“Drive Erase”。
步骤 1 选择“Erase Mode”并按“Enter”。
步骤 2 在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。
步骤 3 选择“OK”并按“Enter”。
进入操作确认界面。
步骤 4 选择“Confirm”并按“Enter”。
步骤 5 选择“Yes”并按“Enter”。
提示操作成功。
----结束
查看硬盘属性
选择“Advanced...”并按“Enter”。
打开硬盘属性界面,如图9-115和图9-116所示,参数说明如表9-36所示。
参数 |
参数说明 |
Logical Sector Size |
逻辑扇区大小。 |
Physical Sector Size |
物理扇区大小。 |
SMART Status |
SMART功能是否使能。 |
Revision |
硬盘Firmware版本。 |
Media Error |
Media error个数。 |
Predicted Fail Count |
Pred fail个数。 |
SAS Address |
硬盘SAS地址。 |
Drive Power State |
硬盘上电状态。 |
Emergency Spare |
是否支持紧急备份功能,即是否可以选空闲盘或者热备做备份盘。 |
Commissioned Hot Spare |
是否指定了备份盘,即把一个热备盘指定给一个RAID组使用。 |
Cache Setting |
是否可设置Cache。 |
Available Size |
硬盘可用空间。 |
Used Space |
已使用的硬盘空间。 |
Disk Protocol |
硬盘支持的协议。 |
Device Speed |
设备的速率。 |
Negotiated Drive Transfer Speed |
硬盘数据传输速率。 |
Number of Connections |
连接器个数。 |
FDE Capable |
硬盘是否支持FDE(Full Disk Encryption)技术。 |
Protection Capable |
硬盘是否支持数据保护。 |
Temperature |
硬盘温度。 |
该界面主要提供RAID控制卡传感器信息。
界面介绍
“Hardware Components”界面如图9-117,参数说明如表9-37所示。
参数 |
参数说明 |
Battery Status |
电容状态。 |
Temperature Sensors |
当前温度传感器状态。 |
Fans |
当前风扇模块工作状态。 |
Power Supplies |
当前供电模块工作状态。 |
Battery Management |
电容管理。 |
Enclosure Management |
查看更多传感器信息。 |
查看更多传感器信息
选择“Enclosure Management”并按“Enter”。
进入部件选择界面,如图9-118所示。
步骤 2 选择“Select Enclosure”并按“Enter”。
步骤 3 选择要操作的部件并按“Enter”。
步骤 4 选择“View Enclosure Status”并按“Enter”。
显示传感器的详细信息。
步骤 5 在TEMPERATUR SENSOR下通过“Select Temperature Sensor”选择要查询的温度传感器。
“Temperature Sensor Status”显示所查询的传感器的状态。
步骤 6 在FAN下通过“Select Fan”选择要查询的风扇传感器。
“Fan Status”显示所查询的传感器的状态。
步骤 7 在POWER SUPPLY下通过“Select Power Supply”选择要查询的供电模块传感器。
“Power Supply Status”显示所查询的传感器的状态。
----结束
提供RAID控制卡操作管理接口。
界面介绍
“View Server Profile”界面如图9-119所示,参数说明如表9-38所示。
参数 |
参数说明 |
UEFI Spec Version |
服务器支持的UEFI Spec版本。 |
Controller Management |
提供控制卡管理接口,详细情况请参见9.6.2.2 Controller Management。 |
Hardware Components |
提供控制卡部件查询接口,详细情况请参见9.6.2.5 Hardware Components。 |
Drive Management |
提供硬盘管理接口,详细情况请参见9.6.2.4 Drive Management。 |
Virtual Drive Management |
提供虚拟磁盘管理接口,详细情况请参见9.6.2.3 Virtual Drive Management。 |
该界面可查看、导入、清空外部配置。
界面介绍
“View Foreign Configuration”界面如图9-120所示。
图9-120 View Foreign Configuration
查看并导入外部配置
选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图9-121所示。
步骤 2 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 3 选择“Confirm”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 单击“OK”完成配置。
----结束
清除外部配置
选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 单击“OK”完成配置。
----结束
可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。
界面介绍
“Configure”界面如图9-122所示,参数说明如表9-39所示。
参数 |
参数说明 |
Auto Configure RAID 0 |
自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0。 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。 |
View Drive Group Properties |
查看硬盘组属性。 当存在硬盘组时会显示该参数。 |
Clear Configuration |
清除当前所有RAID配置。 |
Manage Foreign Configuration |
管理外部配置。 |
自动创建RAID0
选择“Auto Configure RAID 0”并按“Enter”。
打开操作确认界面,如图9-123所示。
自动创建RAID0会导致加入RAID组的硬盘数据丢失,请谨慎操作。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 单击“OK”完成配置。
----结束
快速创建RAID
“Create Profile Based Virtual Drive”界面如图9-124所示。
图9-124 Create Profile Based Virtual Drive
快速创建RAID会导致加入RAID组的硬盘数据丢失,请谨慎操作。
选择要创建的RAID级别(如RAID0),并按“Enter”。
打开RAID组信息界面,如图9-125所示。
步骤 2 在“Drive Selection Criteria”中选择加入RAID组的硬盘类型。
步骤 3 选择“Save Configuration”并按“Enter”。
打开操作确认界面。
步骤 4 选择“Confirm”并按“Enter”。
步骤 5 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 6 选择“OK”并按“Enter”完成配置。
----结束
查看虚拟磁盘属性
选择“View Drive Group Properties”并按“Enter”。
图9-126 View Drive Group Properties
参数 |
参数说明 |
Drive Group |
硬盘组名称。 |
Capacity Allocation |
硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。 |
清除当前配置
选择“Clear Configuration”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 单击“OK”完成配置。
----结束
恢复出厂配置
在主界面选择“Set Factory Defaults”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 单击“OK”完成配置。
----结束
该界面提供RAID控制卡高级软件特性查看和导入接口。
界面介绍
“Manage MegaRAID Advanced Software Options”界面如图9-127所示,界面中参数说明如表9-41所示。
图9-127 Manage MegaRAID Advanced Software Options
参数 |
说明 |
SAFE ID |
RAID控制卡的安全编码。 |
Serial Number |
RAID控制卡序列号。 |
Activation Key |
待激活的高级特性的Key。 |
Active |
激活高级特性。 Avago SAS3508不支持高级特性的激活操作,该功能无效。 |
Deactive All Trail Software |
注销当前所有高级特性。 Avago SAS3508不支持高级特性的激活操作,该功能无效。 |
退出配置界面。
退出配置界面
在Avago SAS3508主界面按“ESC”,显示如图9-128所示界面。
步骤 2 按F10退出BIOS。
弹出操作确认窗口。
步骤 3 选择“OK”并按Enter。
退出BIOS,显示“ Press Control+Alt+Delete to reboot”。
----结束
使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。
下载工具
步骤 1 在“DOWNLOADS”页签中单击“Management Software and Tools”。
打开管理软件和工具列表。
步骤 2 下载最新版本的“StorCLI”工具。
步骤 3 解压后得到适用于不同操作系统的工具包。
----结束
安装工具
使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。
步骤 1 在Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。
StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。
安装完毕后,即可执行RAID控制卡命令。
----结束
命令功能
查询Avago SAS3508的基本配置信息。
命令格式
storcli64 /ccontroller_id show
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID |
使用指南
建议保持默认配置。
使用实例
# 查询RAID控制卡配置信息。
domino:~# ./storcli64 /c0 show
Controller = 0
Status = Success
Description = None
Product Name = SAS3508
Serial Number = FW-00000000
SAS Address = 3202017050235207
PCI Address = 00:1b:00:00
System Time = 02/12/2016 18:53:00
Mfg. Date = 00/00/00
Controller Time = 02/12/2016 23:53:00
FW Package Build = 50.1.0-0426
BIOS Version = 07.01.04.0_4.17.08.00_0x0701060
FW Version = 5.010.00-0426
Driver Name = megaraid_sas
Driver Version = 07.701.17.00
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x16
SubVendor Id = 0x19E5
SubDevice Id = 0xD215
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 27
Device Number = 0
Function Number = 0
Drive Groups = 4
TOPOLOGY :
========
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size PDC PI SED DS3 FSpace TR
-----------------------------------------------------------------------------
0 - - - - RAID0 Optl N 278.464 GB dflt N N none N N
0 0 - - - RAID0 Optl N 278.464 GB dflt N N none N N
0 0 0 66:18 12 DRIVE Onln N 278.464 GB dflt N N none - N
1 - - - - RAID1 Dgrd N 893.137 GB dflt N N dflt N N
1 0 - - - RAID1 Dgrd N 893.137 GB dflt N N dflt N N
1 0 0 66:3 19 DRIVE Onln N 893.137 GB dflt N N dflt - N
1 0 1 - - DRIVE Msng - 893.137 GB - - - - - N
2 - - - - RAID0 Optl N 1.744 TB dflt N N none N N
2 0 - - - RAID0 Optl N 1.744 TB dflt N N none N N
2 0 0 66:4 20 DRIVE Onln N 893.137 GB dflt N N none - N
2 0 1 66:5 21 DRIVE Onln N 893.137 GB dflt N N none - N
3 - - - - RAID5 Optl N 1.087 TB dflt N N dflt N N
3 0 - - - RAID5 Optl N 1.087 TB dflt N N dflt N N
3 0 0 66:19 13 DRIVE Onln N 371.597 GB dflt N N dflt - N
3 0 1 66:20 14 DRIVE Onln N 371.597 GB dflt N N dflt - N
3 0 2 66:21 16 DRIVE Onln N 371.597 GB dflt N N dflt - N
3 0 3 66:22 15 DRIVE Onln N 371.597 GB dflt N N dflt - N
-----------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Missing Drives Count = 1
Missing Drives :
==============
---------------------
Array Row Size
---------------------
1 1 893.137 GB
---------------------
Virtual Drives = 4
VD LIST :
=======
---------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC Size Name
---------------------------------------------------------------
0/1 RAID0 Optl RW Yes RWBD - ON 278.464 GB
1/2 RAID1 Dgrd RW No RWBD - ON 893.137 GB
2/3 RAID0 Optl RW No RWBD - ON 1.744 TB
3/0 RAID5 Optl RW No RWBD - ON 1.087 TB
---------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read
Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 21
PD LIST :
=======
-----------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp
-----------------------------------------------------------------------------------
66:2 10 JBOD - 837.256 GB SAS HDD N N 4 KB HUC101890CS4200 U
66:3 19 Onln 1 893.137 GB SATA SSD N N 512B SAMSUNG MZ7KM960HAHP-00005 U
66:4 20 Onln 2 893.137 GB SATA SSD N N 512B SAMSUNG MZ7KM960HAHP-00005 U
66:5 21 Onln 2 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U
66:6 23 JBOD - 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U
66:7 25 JBOD - 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U
66:8 24 JBOD - 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U
66:9 26 JBOD - 744.125 GB SATA SSD N N 512B SAMSUNG MZ7LM800HCHP-00005 U
66:10 27 JBOD - 744.125 GB SATA SSD N N 512B SAMSUNG MZ7LM800HCHP-00005 U
66:11 22 UGood - 384.0 MB SATA SSD N N 512B SAMSUNG MZ7GE480HMHP-00003 U
66:12 28 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7WD480HAGM-00003 U
66:13 30 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7LM480HCHP-00003 U
66:14 29 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7WD480HAGM-00003 U
66:15 31 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7LM480HCHP-00005 U
66:16 32 JBOD - 222.585 GB SATA SSD N N 512B SAMSUNG MZ7KM240HAGR-00005 U
66:17 11 JBOD - 1.089 TB SAS HDD N N 512B HUC101812CSS200 U
66:18 12 Onln 0 278.464 GB SAS HDD N N 512B ST300MM0006 U
66:19 13 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U
66:20 14 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U
66:21 16 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U
66:22 15 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U
-----------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Cachevault_Info :
===============
------------------------------------
Model State Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 28C - 2016/12/06
------------------------------------
命令功能
创建、删除RAID。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id add vd rlevel[0|1|5|6|10|50|60] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [wt|*wb|awb] [nora|*ra] [*direct|cached] [Strip=<8|16|32|64|128|256|1024>] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid] |
创建RAID组 |
storcli64 /ccontroller_id/vraid_id del |
删除RAID组 |
*表示默认值。
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
rlevel |
要配置的RAID组级别 |
level可为0、1、5、6、10、50、60,数字分别代表对应的RAID组级别。 |
size |
要配置的RAID组容量 |
默认值为all,即所有成员盘的容量之和。 |
name |
要配置的RAID组名称 |
- |
drives |
要加入RAID组的硬盘 |
- |
startid-endid |
硬盘的起始和结束ID |
- |
slot_id |
硬盘ID |
- |
pdperarray |
子组中的硬盘数 创建RAID10、RAID50、RAID60时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。 |
- |
pdcache |
设置RAID的成员盘的Cache状态 |
l on l off l default |
pi |
使能数据保护 |
- |
wrcache |
设置RAID组的写Cache属性,完整的命令为wrcache=wt|wb|awb,这里“wrcache=”可省略 |
l wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”模式。 |
rdcache |
设置RAID组的读Cache属性,完整的命令为rdcache=ra|nora,这里“rdcache=”可省略。 |
l ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。 l nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。 |
iopolicy |
设置RAID组的I/O策略,完整的命令为iopolicy=direct|cached,这里“iopolicy=”可省略。 说明 Cache IO的规格后续不再支持,默认为Direct IO,具体信息请查看RAID控制卡固件版本说明书。 |
l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 |
Strip |
设置RAID组条带大小 |
MR卡:64, 128, 256, 512, 1024 iMR卡:只能为64 单位为KB |
EmulationType |
控制逻辑盘在OS中上报的扇区 |
l 0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l 1: Disable,即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l 2:Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Spares |
指定RAID组的热备盘 |
- |
raid_id |
要删除的RAID组的ID |
- |
l 以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
l 当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid。
使用指南
无
使用实例
# 创建RAID 0。
domino:~# ./storcli64 /c0 add vd
r0 size=100GB drives=252:0-3
Controller = 0
Status = Success
Description = Add VD Succeeded
# 删除RAID。
domino:~# ./storcli64 /c0/v0 del
Controller = 0
Status = Success
Description = Delete VD Succeeded
命令功能
查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。
命令格式
storcli64 /ccontroller_id show
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all
storcli64 /ccontroller_id/vvd_id show all
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID |
enclosure_id |
硬盘所在Enclosure的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡连接的硬盘背板的ID |
slot_id |
物理硬盘槽位编号 |
可以将该参数设置为all,表示查询所有硬盘的ID |
vd_id |
虚拟磁盘ID |
可以为all,表示查询所有虚拟磁盘信息。 |
使用指南
回显中主要字段的含义如表9-42所示。
命令格式 |
字段 |
含义 |
举例 |
storcli64 /ccontroller_id show |
Product Name |
RAID控制卡的型号 |
sas3108 |
FW Version |
RAID控制卡的FW版本 |
4.660.00-8140 |
|
Driver Name |
RAID控制卡的驱动名称 |
megaraid_sas |
|
Driver Version |
RAID控制卡的驱动版本 |
06.811.02.00-rh1 |
|
Current Personality |
RAID控制卡的工作模式 |
RAID-Mode |
|
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all |
SN |
物理硬盘的序列号 |
PHWL517601YR800RGN |
Manufacturer Id |
物理硬盘的供应商ID |
ATA |
|
Model Number |
物理硬盘的模块序号 |
INTEL SSDSC2BB800G4 |
|
Firmware Revision |
物理硬盘的FW版本 |
D2010370 |
|
Raw size |
物理硬盘的容量 |
745.211 GB [0x5d26ceb0 Sectors] |
|
Logical Sector Size |
物理硬盘逻辑分区大小 |
512B |
|
Physical Sector Size |
物理扇区大小 |
4 KB |
|
storcli64 /ccontroller_id/vvd_id show all |
TYPE |
RAID组的级别 |
RAID1 |
State |
RAID组的状态 |
Optl |
|
Access |
RAID组数据的访问策略 |
RW |
|
Cache |
RAID组当前的读写策略与I/O Policy |
RWTD |
|
Size |
RAID组的大小 |
100.0 GB |
|
PDs for VD0 |
RAID组下的物理硬盘 |
- |
|
Strip Size |
RAID组的条带大小 |
256KB |
|
Write Cache(initial setting) |
RAID组Cache的写策略 |
Write Through |
|
Disk Cache Policy |
RAID组成员盘的Cache策略 |
Disk's Default |
使用实例
#查询RAID控制卡的详细信息。
[root@localhost ~]# ./storcli64 /c0
show
Generating detailed summary of the adapter, it may take a while to complete.
Controller = 0
Status = Success
Description = None
Product Name = SAS3508
Serial Number =
SAS Address = 50030130f0900000
PCI Address = 00:01:00:00
System Time = 07/07/2018 22:06:42
Mfg. Date = 00/00/00
Controller Time = 07/07/2018 14:06:41
FW Package Build = 24.16.0-0093
BIOS Version = 6.32.02.0_4.17.08.00_0x06150500
FW Version = 4.660.00-8140
Driver Name = megaraid_sas
Driver Version = 06.811.02.00-rh1
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x5D
SubVendor Id = 0x19E5
SubDevice Id = 0xD207
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Drive Groups = 1
TOPOLOGY :
========
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT
Size PDC PI SED DS3 FSpace TR
-----------------------------------------------------------------------------
0 - - -
- RAID1 Optl N 744.125 GB dflt N N
none N N
0 0 - -
- RAID1 Optl N 744.125 GB dflt N N
none N N
0 0 0 252:1 18 DRIVE
Onln N 744.125 GB dflt N N none
- N
0 0 1 252:0 48 DRIVE
Onln N 744.125 GB dflt N N none
- N
-----------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 1
VD LIST :
=======
---------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac
sCC Size Name
---------------------------------------------------------------
0/0 RAID1 Optl RW
Yes RWBD - ON 744.125 GB
---------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read
Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 6
PD LIST :
=======
---------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI
SeSz
Model
Sp Type
---------------------------------------------------------------------------------
252:0 48 Onln 0 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
252:1 18 Onln 0 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
252:2 19 UGood - 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BA800G4 U -
252:3 20 UGood - 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BA800G4 U -
252:4 49 UGood - 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
252:5 47 UGood - 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
---------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Cachevault_Info :
===============
------------------------------------
Model State Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 28C - 2016/11/04
------------------------------------
#查询slot0的物理硬盘的信息。
[root@localhost ~]# ./storcli64
/c0/e252/s0 show all
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
Drive /c0/e252/s0 :
=================
---------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI
SeSz
Model
Sp Type
---------------------------------------------------------------------------------
252:0 48 Onln 0 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
---------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Drive /c0/e252/s0 - Detailed Information :
========================================
Drive /c0/e252/s0 State :
=======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature = 20C (68.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
Drive /c0/e252/s0 Device attributes :
===================================
SN = PHWL517601YR800RGN
Manufacturer Id = ATA
Model Number = INTEL SSDSC2BB800G4
NAND Vendor = NA
WWN = 55cd2e404c533246
Firmware Revision = D2010370
Raw size = 745.211 GB [0x5d26ceb0 Sectors]
Coerced size = 744.125 GB [0x5d040800 Sectors]
Non Coerced size = 744.711 GB [0x5d16ceb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 6.0Gb/s
NCQ setting = Enabled
Write cache = N/A
Logical Sector Size = 512B
Physical Sector Size = 4 KB
Connector Name = Port A x1
Drive /c0/e252/s0 Policies/Settings :
===================================
Drive position = DriveGroup:0, Span:0, Row:1
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = No
Wide Port Capable = No
Port Information :
================
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
0 Active 6.0Gb/s 0x4433221100000000
-----------------------------------------
Inquiry Data =
40 00 ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 48 50 4c 57 31 35 36 37 31 30 52 59
30 38 52 30 4e 47 20 20 00 00 00 00 00 00 32 44
31 30 33 30 30 37 4e 49 45 54 20 4c 53 53 53 44
32 43 42 42 30 38 47 30 20 34 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 01 80
00 40 00 2f 00 40 00 00 00 00 07 00 ff 3f 10 00
3f 00 10 fc fb 00 01 bf ff ff ff 0f 00 00 07 00
# 查询VD 0的信息。
[root@rhel6u5 ~]#
/opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
/c0/v0 :
======
---------------------------------------------------------
DG/VD TYPE State Access Consist Cache sCC Size
Name
---------------------------------------------------------
1/0 RAID1 Optl RW
Yes RWTD - 1.089 TB
---------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|B=Blocked|Consist=Consistent|
R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
PDs for VD 0 :
============
-----------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz
Model Sp
-----------------------------------------------------------------------
25:22 14 Onln 1 1.089 TB SAS HDD
N N 512B ST1200MM0007 U
25:23 26 Onln 1 1.089 TB SAS HDD
N N 512B ST1200MM0007 U
-----------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded
VD0 Properties :
==============
Strip Size = 256 KB
Number of Blocks = 2341795840
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 2
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = Disabled
Active Operations = None
Exposed to OS = Yes
Creation Date = 04-01-2018
Creation Time = 12:38:35 PM
Emulation type = None
命令功能
查询超级电容的名称及TFM Flash卡缓存容量的大小等信息。
命令格式
storcli64 /ccontroller_id/cv show all
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
可以为all,表示所有控制卡。 |
查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用实例
#查询超级电容的相关信息。
[root@localhost ~]# ./storcli64
/c0/cv show all
Controller = 0
Status = Success
Description = None
Cachevault_Info :
===============
--------------------
Property Value
--------------------
Type CVPM02
Temperature 28 C
State Optimal
--------------------
Firmware_Status :
===============
---------------------------------------
Property
Value
---------------------------------------
Replacement
required
No
No space to cache offload No
Module microcode update required No
---------------------------------------
GasGaugeStatus :
==============
------------------------------
Property
Value
------------------------------
Pack
Energy
294 J
Capacitance 108
%
Remaining Reserve Space 0
------------------------------
Design_Info :
===========
------------------------------------
Property
Value
------------------------------------
Date of Manufacture 04/11/2016
Serial Number
22417
Manufacture Name LSI
Design Capacity 288 J
Device
Name
CVPM02
tmmFru
N/A
CacheVault Flash Size 8.0 GB
tmmBatversionNo 0x05
tmmSerialNo
0xee7d
tmm Date of Manufacture 09/12/2016
tmmPcbAssmNo
022544412A
tmmPCBversionNo 0x03
tmmBatPackAssmNo 49571-13A
scapBatversionNo 0x00
scapSerialNo
0x5791
scap Date of Manufacture 04/11/2016
scapPcbAssmNo 1700134483
scapPCBversionNo A
scapBatPackAssmNo 49571-13A
Module Version
6635-02A
------------------------------------
Properties :
==========
--------------------------------------------------------------
Property
Value
--------------------------------------------------------------
Auto Learn Period 27d (2412000 seconds)
Next Learn time 2018/08/03 17:48:38
(586633718 seconds)
Learn Delay Interval 0 hour(s)
Auto-Learn Mode Transparent
--------------------------------------------------------------
l 上述回显信息中,“Device Name CVPM02”表示超级电容的名称为 “CVPM02”,“CacheVault Flash Size 8.0GB”表示TFM Flash卡缓存容量为“8.0GB”。
l 当回显信息的“State”显示为“FAILED”时,需要更换超级电容。
命令功能
查询和设置系统巡检的相关参数。
命令格式
storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number
storcli64 /ccontroller_id set patrolread delay=delaytime
storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}
storcli64 /ccontroller_id show patrolread
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
系统巡检起始时间 |
例如:2016/07/15 23 说明 起始时间单位为“时”。 |
number |
可同时巡检的硬盘数量 |
– |
delaytime |
系统巡检周期 |
单位为hour。 |
查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。
domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
PR Starttime 2016/07/15 23:00:00
PR MaxConcurrentPd 2
---------------------------------------
# 使能patrolread并设置为自动模式。
domino:~# ./storcli64 /c0 set
patrolread=on mode=auto
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
Patrol Read Mode auto
---------------------------------------
# 查询patrolread信息。
domino:~# ./storcli64 /c0 show patrolread
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------------------------
Ctrl_Prop Value
--------------------------------------------
PR Mode 2016/07/15 23:00:00
PR Execution Delay
PR iterations completed 0
PR Next Start time 07/16/2016,00:00:00
PR on SSD Disabled
PR Current State Stopped
--------------------------------------------
命令功能
查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。
命令格式
storcli64 /ccontroller_id show spinupdelay
storcli64 /ccontroller_id show spinupdrivecount
storcli64 /ccontroller_id set spinupdelay=time
storcli64 /ccontroller_id set spinupdrivecount=count
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
每组起转硬盘间的时间间隔 |
默认为2,单位为s。 |
count |
上电时允许同时起转的硬盘数量 |
默认为4。 |
查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
建议保持默认配置。
使用实例
# 查询RAID控制卡Spinup参数。
domino:~# ./storcli64 /c0 show
spinupdelay
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
domino:~# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 4
--------------------------
# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。
domino:~# ./storcli64 /c0 set spinupdelay=20
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 20 second(s)
--------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 5
--------------------------
命令功能
设置物理硬盘数据擦除模式,查询擦除进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
硬盘槽位号 |
– |
mode |
数据擦除模式 |
l simple:对硬盘进行一轮擦除动作。 l normal:对硬盘进行三轮擦除动作。 l thorough:对硬盘进行九轮擦除动作。 |
以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。
domino:~# ./storcli64 /c0/e252/s3
start erase simple
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.
命令功能
暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。
命令格式
storcli64 /ccontroller_id/vraid_id action bgi
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
action |
后台初始化的操作 |
l show:查看后台初始化进度 l pause:暂停后台初始化 l resume:继续后台初始化 l stop:停止后台初始化 |
以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查看后台初始化进度。
domino:~# ./storcli64 /c0/v0 show
bgi
Controller = 0
Status = Success
Description = Noe
VD Operation Status :
===================
------------------------------------------------------
VD Operation Progress% Staus Estimated Time Left
------------------------------------------------------
0 BGI 3 In progress 53 Minutes
------------------------------------------------------
命令功能
查询和设置Cache的刷新周期。
命令格式
storcli64 /ccontroller_id show cacheflushint
storcli64 /ccontroller_id set cacheflushint time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
Cache的刷新周期 |
单位为s |
查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Cache的刷新周期为“10”。
domino:~# ./storcli64 /c0 set
cacheflushint=10
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10 sec
---------------------------
# 查询Cache的刷新周期。
domino:~# ./storcli64 /c0 show
cacheflushint
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10
---------------------------
命令功能
设置物理硬盘初始化功能,查询初始化进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
action |
要执行的操作 |
l show:查看初始化进度 l start:开始初始化 l stop:结束初始化 |
以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 初始化slot3硬盘,并查询初始化进度。
domino:~# ./storcli64 /c0/e252/s3
start initialization
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show initialization
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
命令功能
开始、暂停、继续、停止RAID重构,并查询进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action rebuild
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
action |
要执行的操作 |
l start:开始重构 l show:查看重构进度 l pause:暂停重构 l resume:继续重构 l stop:停止重构 |
查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 手动开始重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
# 查看硬盘当前重构状态。
[root@localhost ~]# ./storcli64
/c0/e70/s7 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e70/s7 5 In progress 26
Minutes
-----------------------------------------------------
# 暂停硬盘重构进程。
[root@localhost ~]# ./storcli64
/c0/e70/s7 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Succeeded.
# 继续重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 resume rebuild
Controller = 0
Status = Success
Description = Resume Drive Rebuild Succeeded.
# 停止重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 stop rebuild
Controller = 0
Status = Success
Description = Stop Drive Rebuild Succeeded.
命令功能
开始、暂停、继续、停止回拷,并查询进度。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id start copyback target=target_enclosure_id:target_slot_id |
开始回拷。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id action copyback |
暂停、继续、查看、停止回拷。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
target_enclosure_id |
执行回拷的目标硬盘所在Enclosure的ID。 |
- |
target_slot_id |
执行回拷的目标物理硬盘槽位编号。 |
- |
action |
要执行的操作 |
l show:查看回拷进度 l pause:暂停回拷 l resume:继续回拷 l stop:停止回拷 |
查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 手动开始回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s7 start copyback target=70:3
Controller = 0
Status = Success
Description = Start Drive Copyback Succeeded.
# 查看硬盘当前回拷状态。
[root@localhost ~]# ./storcli64
/c0/e70/s3 show copyback
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e70/s3 17 In progress 16 Minutes
-----------------------------------------------------
# 暂停硬盘回拷进程。
[root@localhost ~]# ./storcli64
/c0/e70/s3 pause copyback
Controller = 0
Status = Success
Description = Pause Drive Copyback Succeeded.
# 继续回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s3 resume copyback
Controller = 0
Status = Success
Description = Resume Drive Copyback Succeeded.
# 停止回拷。
[root@localhost ~]# ./storcli64 /c0/e70/s3
stop copyback
Controller = 0
Status = Success
Description = Stop Drive Copyback Succeeded.
命令功能
查询、设置Smart扫描周期。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id set smartpollinterval=value |
设置Smart扫描周期。 |
storcli64 /ccontroller_id show smartpollinterval |
查询Smart扫描周期。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
value |
Smart扫描周期 |
单位为s。 |
查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Smart扫描周期为“60s”。
domino:~# ./storcli64 /c0 set
smartpollinterval=60
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------
命令功能
查询、设置一致性检查参数。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id[/vvd_id]show cc |
查询一致性检查参数。 |
storcli64 /ccontroller_id/vvd_id start cc force |
开始进行一致性检查。 |
storcli64 /ccontroller_id/vvd_id action cc |
暂停/停止/继续执行一致性检查。 |
storcli64 /ccontroller_id set consistencycheck|cc=[off|seq|conc] [delay=value] starttime=time excludevd=evd_id |
设置一致性自动检查参数。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
vd_id |
要操作的RAID的ID |
- |
action |
要执行的操作 |
l pause:暂停 l resume:继续执行 l stop:停止 |
cc |
将一致性检查设置为顺序模式或并行模式,或关闭一致性检查。 |
l off:关闭一致性检查 l seq:顺序模式 l conc:并行模式 |
value |
一致性检查周期 |
- |
time |
一致性检查起始时间 |
例如:2016/07/14 22 说明 起始时间单位为“时”。 |
evd_id |
不进行一致性检查的虚拟磁盘ID |
- |
以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
show命令中不带/vvd_id时,表示查询自动CC参数。
show命令中带/vvd_id时,表示查询CC进度。
使用实例
# 设置一致性自动检查参数。
domino:~# ./storcli64 /c0 set
cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------
Ctrl_Prop Value
------------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2016/07/14 22:00:00
CC ExcludeVD(0) Success
------------------------------------
# 查询CC进度。
domino:~# ./storcli64 /c0/v1 show
cc
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimited Time Left
-----------------------------------------------------------
0 CC - Not in progress -
-----------------------------------------------------------
命令功能
设置全局热备盘和局部热备盘。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive |
设置全局热备盘。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=<N|0,1,2..>] |
设置局部热备盘。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive |
删除热备盘。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
dgs |
硬盘组的ID |
l 不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘 l 0,1,2..:硬盘组ID |
以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置slot 3硬盘为全局热备盘。
domino:~# ./storcli64 /c0/e252/s3
add hotsparedrive
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
# 设置slot 3硬盘为vd0的局部热备盘。
domino:~# ./storcli64 /c0/e252/s3
add hotsparedrive dgs=0
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
命令功能
设置虚拟磁盘或物理硬盘为启动项。
命令格式
storcli64 /ccontroller_id/vvd_id set bootdrive=on
storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
vd_id |
待设置的虚拟磁盘的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置VD0为启动项。
domino:~# ./storcli64 /c0/v0 set
bootdrive=on
Controller = 0
Status = Success
Description = Noe
Detailed Status :
===============
----------------------------------------
VD Property Value Staus ErrCd ErrMsg
----------------------------------------
0 Boot Drive On Success 0 -
----------------------------------------
# 设置slot 7硬盘为启动项。
domino:~# ./storcli64 /c0/e252/s7
set bootdrive=on
Controller = 0
Status = Success
Description = Noe
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
BootDrive PD:252_7
-------------------
命令功能
设置硬盘状态。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
state |
要设置的硬盘状态 |
l online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。 l offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。 l jbod:通过该参数可以将硬盘设置为直通硬盘。 l good: − ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置; − JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。 l good:将硬盘设为空闲盘 |
force |
强制设置硬盘状态,为可选参数。 如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force。 |
- |
以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。
domino:~# ./storcli64 /c0/e0/s1
set good
Controller = 0
Status = Success
Description = Set Drive Good Succeeded.
命令功能
设置RAID的读写策略。
命令格式
storcli64 /ccontroller_id/vraid_id set accesspolicy=mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
RAID读写策略 |
l rw:可读可写 l blocked:禁止访问 l ro:只读访问 |
以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置RAID读写策略为“rw”。
domino:~# ./storcli64 /c0/v0 set
accesspolicy=rw
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 AccPolicy RW Success 0 -
---------------------------------------
命令功能
设置RAID组的I/O策略。
命令格式
storcli64 /ccontroller_id/vraid_id set iopolicy=mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
raid_id |
待设置的RAID的ID |
- |
mode |
设置RAID组的I/O策略 |
l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 |
以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。
使用实例
# 设置RAID组的I/O策略为“direct”。
[root@linux ~]# storcli64 /c0/v1 set
iopolicy=direct
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.14.0-115.el7a.0.1.aarch64
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
----------------------------------------
VD Property Value Status ErrCd ErrMsg
----------------------------------------
1 IoPolicy Direct Success 0 -
----------------------------------------
命令功能
设置RAID组成员盘的Cache状态。
命令格式
storcli64 /ccontroller_id/vvd_id set pdcache=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
vd_id |
RAID组的ID |
- |
action |
要执行的操作 |
l on:打开硬盘Cache l off:关闭硬盘Cache l default:将硬盘Cache设置为默认状态 |
以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 打开ID为0的RAID组的硬盘Cache。
./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 PdCac On
Success 0 -
---------------------------------------
命令功能
设置RAID组的Cache读写策略。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/vraid_id set wrcache=wrmode |
设置Cache写策略 |
storcli64 /ccontroller_id/vraid_id set rdcache=rdmode |
设置Cache读策略 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
raid_id |
待设置的RAID组的ID |
可以为all,表示所有RAID。 |
wrmode |
设置Cache写策略 |
l wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”策略。 |
rdmode |
设置Cache读策略 |
l ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。 l nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。 |
以上涉及的各个ID的方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Cache读写模式为“wt”。
domino:~# ./storcli64 /c0/v0 set
wrcache=wt
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 wrCache WT Success 0 -
---------------------------------------
命令功能
设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。
命令格式
storcli64 /ccontroller_id set eghs eug=state
storcli64 /ccontroller_id set eghs smarter=state
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
state |
紧急热备功能的启用状态 |
l on:启用 l off:禁用 |
查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。
domino:~# ./storcli64 /c0 set eghs
eug=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------
Ctrl_Prop Value
------------------
EmergencyUG ON
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
EmergencySmarter ON
-----------------------
命令功能
设置RAID前台初始化模式。
命令格式
storcli64 /ccontroller_id/vraid_id start mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
前台初始化模式 |
l init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。 l init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。 |
以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 快速初始化RAID。
domino:~# ./storcli64 /c0/v0 start
init
Controller = 0
Status = Success
Description = Start INIT Operation Success
命令功能
设置RAID控制卡的硬盘直通功能的使能情况,并指定直通硬盘。
命令格式
storcli64 /ccontroller_id set jbod=state
storcli64 /ccontroller_id/eenclosure_id/sslot_id set JBOD
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
state |
RAID控制卡JBOD功能的使能情况 |
l on l off |
以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 使能RAID控制卡的硬盘直通功能,并设置slot 7硬盘为直通盘。
domino:~# ./storcli64 /c0 set
jbod=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
JBOD ON
----------------
domino:~# ./storcli64 /c0/e252/s7 set JBOD
Controller = 0
Status = Success
Description = Set Drive JBOD Succeeded.
命令功能
点亮和熄灭指定硬盘的定位指示灯。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。 |
slot_id |
物理硬盘槽位编号 |
可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。 |
action |
要执行的操作 |
l start:点亮硬盘的定位指示灯。 l stop:熄灭硬盘的定位指示灯。 |
以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 点亮slot 7硬盘的定位指示灯。
domino:~# ./storcli64 /c0/e252/s7
start locate
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.
命令功能
设置空闲硬盘和热备盘的省电模式。
命令格式
storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID。 |
– |
state |
省电模式的启用状态。 |
l on:启用 l off:禁用 |
disktype |
硬盘类型。 |
l 1:空闲硬盘 l 2:热备盘 |
time |
等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。 |
单位为minutes。 |
查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置空闲硬盘的省电模式。
domino:~# ./storcli64 /c0 set
ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
SpnDwnUncDrv Enable
SpnDwnTm 30 minutes
--------------------------
命令功能
设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。
命令格式
storcli64 /ccontroller_id set action=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
action |
要设置的项目 |
l bgirate:后台初始化速率 l ccrate:一致性校验速率 l prrate:硬盘巡检速率 l rebuildrate:RAID重构速率 l reconrate:RAID扩容和迁移速率 |
value |
后台任务资源占用率 |
1~100 |
查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置硬盘巡检速率为“30%”。
domino:~# ./storcli64 /c0 set
prrate=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
Patrol Read Rate 30%
-----------------------
命令功能
对热备盘进行插拔后,热备盘状态变为Ubad,设置自动恢复热备盘状态后,热备盘状态会自动恢复成hotspare,若不设置自动恢复热备盘状态,则需要手动恢复热备盘状态。
命令格式
storcli64 /ccontroller_id set restorehotspare=state
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
state |
设置启用或禁用自动恢复热备盘状态 |
on:启用自动恢复热备盘状态 off:禁用自动恢复热备盘状态 |
查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 启用热备盘状态自动恢复
# 关闭热备盘状态自动恢复
命令功能
设置控制卡BIOS在检测到异常时停止继续启动的功能。
命令格式
storcli64 /ccontroller_id set bios mode=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
action |
要执行的操作 |
l soe:控制卡BIOS在检测到异常时停止启动 l ie:忽略检测到的异常 |
查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启Stop on error功能。
domino:~# ./storcli64 /c0 set bios
mode=soe
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
命令格式
storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
vd_id |
要扩容的RAID的ID |
– |
capacity |
扩容后的容量 |
– |
expandarray |
当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。 |
– |
以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查询VD的可扩展容量。
[root@localhost ~]# storcli64 /c0/v1
show expansion
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
EXPANSION INFORMATION :
=====================
--------------------------------------------
VD Size OCE NoArrExp WithArrExp Status
--------------------------------------------
1 10.000 GB Y 3.627 TB 5.447 TB -
--------------------------------------------
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion
VD=Virtual Drive | NoArrExp - Without Array Expansion
如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。
# 将VD0的容量扩大“200GB”。
domino:~# ./storcli64 /c0/v0
expand size=200GB
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
0 100.0 GB 457.861 GB 200.0 GB 201.458 GB 44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %
RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
当增加新盘后,可进行RAID级别迁移。
命令格式
storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
vd_id |
要操作的RAID的ID |
– |
slot_id |
要加入RAID的新硬盘的槽位号 |
– |
level |
增加硬盘后RAID的级别 |
l 与原RAID级别相同时,该命令为扩大RAID容量。 l 与原RAID级别不同时,该命令为RAID级别迁移。 |
以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 在RAID 0中增加slot 2硬盘扩容。
domino:~# ./storcli64 /c0/v0 start
migrate type=r0 option=add drives=252:2
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 13 Minutes
-------------------------------------------------------
# 单盘RAID 0加盘迁移至RAID 1。
domino:~# ./storcli64 /c0/v0 start
migrate type=r1 option=add drives=252:3
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 14 Minutes
-------------------------------------------------------
命令功能
查询和清除PreservedCache数据。
命令格式
storcli64 /ccontroller_id show preservedcache
storcli64 /ccontroller_id/vvd_id delete preservedcache force
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
vd_id |
要操作的RAID的ID |
– |
以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查询PreservedCache。
domino:~# ./storcli64 /c0 show
preservedcache
Controller = 0
Status = Success
Description = No Virtual Drive has Preserved Cache Data.
命令功能
升级硬盘的FW。
命令格式
./storcli64 /ccontroller_id /eenclosure_id/sslot_id download src=FW_name.bin
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
FW_name |
硬盘FW的名称 |
– |
以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用实例
#升级硬盘FW。
[root@localhost ~]# ./storcli64
/c0/e64/s5 download src=5200_D1MU004_Releasefullconcatenatedbinary.bin
Starting microcode update .....please wait...
Flashing PD image ..... please wait...
Controller = 0
Status = Success
Description = Firmware Download succeeded.
Drive Firmware Download :
========================
--------------------------------------------------------------------------------
Drive Status ErrCd ErrMsg
--------------------------------------------------------------------------------
/c0/e64/s5 Success 0 -
--------------------------------------------------------------------------------
命令功能
手动重构RAID组。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row
storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
要加入Array的物理硬盘槽位编号 |
– |
DG |
硬盘发生故障的DG的ID |
– |
Arr |
硬盘发生故障的Array的ID |
– |
Row |
硬盘发生故障的Array的row number |
– |
以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
重构RAID分3个步骤进行:
1.通过./storcli64 /c0 show 命令,查询故障硬盘的DG、Arr和Row所对应的数字。
2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。
3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID。
使用实例
# 将硬盘加入RAID组。
[root@localhost ~]# storcli64
/c0/e252/s1 insert dg=0 array=0 row=0
Controller = 0
Status = Success
Description = Insert Drive Succeeded.
# 手动重构RAID。
[root@localhost ~]# storcli64
/c0/e252/s1 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
命令功能
收集和清除RAID控制卡的日志。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id show termlog [type=logtype] [logfile[=filename]] |
收集RAID控制卡的日志。 |
storcli64 /ccontroller_id delete termlog |
删除RAID控制卡的日志。 |
storcli64 /ccontroller_id show alilog [logfile[=filename]] |
收集控制卡属性信息、TTY日志和事件到指定文件。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID。 |
- |
logtype |
查询日志类型。 |
l config:查询TTY BBU缓存设置。 l content:查询日志信息。 缺省值:content。 |
filename |
文件名称,将保存日志到此文件。 |
可自定义文件名称,缺省时将默认保存至“StorSAS.log”文件中。 |
查询RAID控制卡ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 收集RAID控制卡的日志。
[root@localhost idriver]# ./storcli64
/c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19 6:48:11: C0:TTY History buffer cleared
Controller = 0
Status = Success
Description = None
# 删除RAID控制卡的日志。
[root@localhost idriver]# ./storcli64
/c0 delete termlog
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------------------
Ctrl Method Result
----------------------------
0 Delete Termlog deleted
----------------------------
命令功能
指导用户查看、导入或者清除RAID控制卡的外部配置。
命令格式
storcli64 /ccontroller_id/fall action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
action |
要执行的操作 |
l import preview:查看外部配置 l import:导入外部配置 l delete:清除外部配置 |
使用指南
无
使用实例
# 查看RAID控制卡的外部配置。
[root@localhost ~]# ./storcli64
/c0/fall import preview
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
FOREIGN PREVIEW :
===============
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Total foreign drive groups = 0
# 删除RAID控制卡的外部配置。
[root@localhost ~]# ./storcli64
/c0/fall delete
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration
命令功能
介绍Snapdump相关操作。
命令格式
命令格式 |
说明 |
storcli64 /ccontroller_id show snapdump |
查询snapdump功能是否打开,是否有自动生成的snapdump文件。 |
storcli64 /ccontroller_id get snapdump id=all |
获取历史生成的snapdump文件。 |
storcli64 /ccontroller_id get snapdump |
获取历史生成的snapdump文件和当前再生成一个snapdump文件。 |
storcli64 /ccontroller_id set snapdump state=on|off |
打开和关闭snapdump功能。 |
storcli64 /ccontroller_id delete snapdump force |
删除历史snapdump日志功能。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID。 |
state=on|off |
Snapdump状态 |
on为开启,off为关闭。 |
使用指南
l Snapdump文件是一个日志文件,在一些RAID控制卡异常场景下可以自动生成的日志,也可以主动获取当前RAID控制卡的snapdump日志。
l 使用前可以先查询snapdump功能是否打开,是否有自动生成的snapdump文件,再去收集snapdump。
l 获取历史生成的snapdump文件和当前再生成一个snapdump文件会影响业务,建议离线使用。
l 打开和关闭snapdump功能,如果无法打开注意看提示,请确认当前RAID控制卡固件版本是否支持。
l 收集snapdump文件在当前命令执行目录下,文件格式为snapdump_**************.zip。
使用实例
#查询snapdump功能是否打开,是否有自动生成的snapdump文件。
[root@localhost ~]# storcli64 /c0
show snapdump
Controller = 0
Status = Success
Description = None
SnapDump Properties :
===================
----------------------------------
Ctrl_Prop
Value
----------------------------------
Snapdump
ON
Snapdump Save Count N/A
Snapdump Delay OCR 15
Snapdump properties Read-Write
Snapdump Current Count 2
----------------------------------
SnapDump Details :
================
----------------------------------------------
ID Snapdump Size Snapdump time OnDemand
----------------------------------------------
0 2649396 08-06-2021 07:23:43 Yes
1 2070406 08-07-2021 06:59:24 Yes
----------------------------------------------
#获取历史生成的snapdump文件。
[root@localhost ~]# storcli64 /c0 get
snapdump id=all
Controller = 0
Status = Success
Description = None
#获取历史生成的snapdump文件和当前再生成一个snapdump文件。
[root@localhost ~]# storcli64 /c0 get
snapdump
Controller = 0
Status = Success
Description = Download Support Log
#打开和关闭snapdump功能。
打开:
[root@localhost ~]# storcli64 /c0 set
snapdump state=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
Set Snapdump on
-------------------
关闭:
[root@localhost ~]# storcli64 /c0 set
snapdump state=off
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
Set Snapdump off
-------------------
#删除历史snapdump日志功能。
[root@localhost ~]# storcli64 /c0
delete snapdump force
Controller = 0
Status = Success
Description = Snapdump delete
命令功能
升级控制卡FW。
命令格式
命令格式 |
说明 |
storcli64 /cController_ID download file=xxx.rom [noverchk] |
升级控制卡FW。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
- |
xxx.rom |
固件包的名称 |
- |
使用指南
l 使用“noverchk”参数时将不检查固件包,降级版本时必须使用此参数。
l 升级完成后,需重新上下电服务器使固件包生效。
使用实例
#升级控制卡FW。
[root@localhost fw]# ./storcli64_arm
/c0 download file =FW4.rom noverchk
Download Completed.
Flashing image to adapter...
Controller = 0
Status = Success
Description = F/W Flash Completed.Please reboot the system for the changes to
take effect.
关于本章
介绍Avago SAS3516的外观、特性以及配置方法。
本章节涉及的截图以5.140.00-3515 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。
AVAGO MegaRAID SAS3516 RAID 控制标卡(以下简称Avago SAS3516)是基于MegaRAID架构的16端口12Gbit/s SAS控制卡,并采用PCIe3.0x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。
Avago SAS3516用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。
Avago SAS3516支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考10.2.16 硬盘直通。
Avago SAS3516自带的Cache对标卡性能的提升有非常重要的作用,主要体现在:
l 在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。
l 在读数据时,如果可以直接在Cache中命中的话,将减少硬盘寻道操作,降低响应时间,提升了数据读速度。
l Cache数据的掉电保护依赖于与RAID控制卡相连的超级电容。超级电容的外形、连接方式、安装方式可参考各服务器的用户指南。
l Avago SAS3516不支持flush write verify功能。
Avago SAS3516结构如图10-1所示。
1 |
超级电容接口 |
2 |
单板电源指示灯 |
3 |
系统心跳灯 |
4 |
Avago SAS3516 RAID控制卡写入/读出NAND Flash的状态指示灯 |
5 |
超级电容错误状态指示灯 |
6 |
miniSAS接口(port A,SFF-8643) |
7 |
miniSAS接口(port B,SFF-8643) |
8 |
miniSAS接口(port C,SFF-8643) |
9 |
miniSAS接口(port D,SFF-8643) |
- |
- |
Avago SAS3516单板指示灯说明如表10-1所示。
指示灯 |
颜色 |
说明 |
单板电源指示灯 |
绿色 |
l 亮:电源正常 l 灭:电源关闭或异常。 |
超级电容错误状态指示灯 |
红色 |
l 亮:超级电容状态异常。 l 灭:超级电容正常或不在位。 |
Avago SAS3516写入/读出NAND Flash的状态指示灯 |
绿色 |
l 亮:Avago SAS3516 RAID控制卡当前处于写入/读出NAND Flash的状态。 l 灭:Avago SAS3516 RAID控制卡当前不处于写入/读出NAND Flash的状态。 |
系统心跳灯 |
绿色 |
l 灯以2s周期闪烁:Avago SAS3516 RAID控制卡正在工作。 l 灯灭:Avago SAS3516 RAID控制卡未开始运行或FW运行异常。 |
AvagoSAS3516支持的硬盘、虚拟磁盘、硬盘组数量分别为:
l 最多支持32或240个硬盘(Avago SAS3516支持2种规格的RAID Key,分别支持32盘和240盘)。
该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。
l 最多支持64个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
l 最多支持64个硬盘组(即配置界面中看到的“Drive Group”),每个硬盘组最多支持32或240个硬盘。
l 每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
AvagoSAS3516支持的RAID类型及对应的硬盘个数如表10-2所示。
RAID级别 |
支持硬盘数 |
支持子组数 |
子组支持硬盘数 |
允许坏盘数 |
RAID 0 |
1~32 |
不涉及 |
不涉及 |
0 |
RAID 1 |
2~32(偶数) |
硬盘数÷2 |
||
RAID 5 |
3~32 |
1 |
||
RAID 6 |
3~32 |
2 |
||
RAID 10 |
4~32/240(偶数) |
2~8个RAID 1 |
2~16/32(偶数) |
子组数 |
RAID 50 |
6~32/240 |
2~8个RAID 5 |
3~16/32 |
子组数 |
RAID 60 |
6~32/240 |
2~8个RAID 6 |
3~16/32 |
子组数x2 |
l 不支持RAID 00级别。
l 子组数:子RAID的个数,例如RAID 50由两个RAID 5组成,则子组数为2。
l RAID 10、RAID 50每个子组中最多允许1个坏盘。
l RAID 60每个子组中最多允许2个坏盘。
l 根据配置的key类型不同,RAID 10、50、60支持的硬盘数有所不同。
l RAID10、50、60包含的总硬盘数由子组数和子组支持的硬盘数共同决定。
Avago SAS3516标卡的热备功能分为两种:热备盘和紧急备份。
热备盘
对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l Global HSP:即全局热备盘,为控制标卡上所有已配置的RAID所共有,1块控制标卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
配置方法请参看10.4.1.1 配置全局热备盘。
l Dedicated HSP:即局部热备盘,为控制标卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。配置方法请参看10.4.1.2 配置局部热备盘。
热备盘容量需大于等于成员盘容量。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
l 用作热备盘的硬盘数据将会丢失。
紧急备份
使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
l 紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。
l 在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。
l 紧急备份的硬盘生效次序:相同类型硬盘 > 相同接口不同介质类型硬盘 > 不同接口相同介质类型硬盘 > 不同接口不同介质类型硬盘。
紧急备份有两种情况,对应了两种设置:
l 当成员盘fail时,空闲盘替代成员盘作为紧急备份。
l 当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。
具体配置方法请参看10.4.2 设置紧急热备功能。
热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。
l 请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。
l 插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。
l 人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考10.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。
具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。
l 不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:
l RAID组状态保持“Optimal”不变。
l 热备盘状态由“Online”变为“Hot Spare”。
l 新加入硬盘状态由“Copyback/Copybacking”变为“Online”。
l 可使用命令行工具暂停或继续回拷。
l 若回拷时重启服务器,进度将保存。
l 局部热备以及全局热备,更换故障盘后,均会产生回拷。
条带化
当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待。
条带化技术是一种自动的将I/O的负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。
影响条带化效果的因素有:
l 条带宽度:指同时可以并发读或写的条带数量。
这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。
l 条带大小:指写在每块硬盘上的条带数据块的大小。
分条
硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。
Avago SAS3516支持多种条带大小,包括64KB、128KB、256KB、512KB及1MB,默认条带大小为256KB。
配置RAID时一般采用默认值。
RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见10.2.6 RAID级别迁移。
当前支持以下级别类型的迁移:
l RAID 0迁移到RAID 1、RAID 5、RAID 6
l RAID 1迁移到RAID 0、RAID 5、RAID 6
l RAID 5迁移到RAID 0、RAID 6
l RAID 6迁移到RAID 0、RAID 5
RAID迁移对硬盘数量的要求如表10-3所示。
迁移RAID级别 |
原始硬盘组硬盘数量 |
迁移后的硬盘组硬盘数量 |
RAID 0迁移 RAID 1 |
1~32 |
2~32(偶数) |
RAID 0迁移到RAID 5 |
1~32 |
3~32 |
RAID 0迁移到RAID 6 |
1~32 |
3~32 |
RAID 1迁移到RAID 0 |
2~32(偶数) |
2~32 |
RAID 1迁移到RAID 5 |
2~32(偶数) |
3~32 |
RAID 1迁移到RAID 6 |
2~32(偶数) |
3~32 |
RAID 5迁移到RAID 0 |
3~32 |
3~32 |
RAID 5迁移到RAID 6 |
3~32 |
3~32 |
RAID 6迁移到RAID 0 |
3~32 |
3~32 |
RAID 6迁移到RAID 5 |
3~32 |
3~32 |
VD初始化
创建VD(Virtual Drive)后,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。Avago SAS3516提供了多种相应的初始化方式:
l 前台初始化:
− 快速初始化:Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。
− 完全初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。
l 后台初始化:
− 对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。
− 对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。
l 一致性校验和后台初始化通常会对性能造成一定损失,直至该操作完成。
l 一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。
硬盘初始化
硬盘可执行的初始化包括:
l Initialize Drive:对前100MByte空间进行全写0操作。
l Drive Erase:对全部空间进行写0操作。
不支持停止SATA SSD的擦除和初始化过程。
Avago SAS3516支持的容量扩展方式有两种:
l 通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。
详细操作方法可参考10.4.3 添加新硬盘到RAID。
l 通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。
详细操作方法可参考10.4.4 扩展Virtual Drives可用空间。
l 只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。
l RAID10、RAID 50、RAID 60不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。
l 当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见10.7.2.28 通过增加成员盘可用容量扩容RAID。
安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘和硬盘的安全擦除功能:
l Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。
l Normal:对虚拟磁盘或硬盘进行三轮擦除动作。
l Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。
安全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。
Avago SAS3516支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。
系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况,称之为写洞。
将写失败的数据备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:
l RAID 1、RAID 5、RAID 6、RAID 10、RAID 50,RAID 60支持写洞保护,Write hole数据都保存在掉电保护区,不需要开关控制。
− 掉电保护装置可用时,Write hole数据异常掉电重启后会进入恢复流程。
− 掉电保护装置不可用时,记录在掉电保护区的Write hole数据异常掉电后丢失,不做Write hole恢复。
l RAID 1、RAID 5掉线盘时不可做写洞保护。
l RAID 6掉线一块盘时可做写洞保护。
l RAID 10、RAID 50、RAID 60部分降级时可做写洞保护,按子组恢复数据。完全降级时不可做写洞保护。
l 不对RAID 0做写洞保护。
Avago SAS3516支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:
l Read:读策略选择“Read Ahead”模式,Avago SAS3516在读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,提升了数据读速度。
l Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,Avago SAS3516就向HOST发出数据传输完成的信号。
在写数据时,直接写入Cache,当写入的数据积累到一定程度,Avago SAS3516才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。
数据写入高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用高速缓存来提升系统性能。
l 开启高速缓存可提升整机写性能,当服务器写压力减小或高速缓存将写满时,数据再由高速缓存写入硬盘。
l 开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。
为了提升整机的高读写性能和高速缓存中数据的安全,可为Avago SAS3516配置超级电容。
超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将高速缓存中的数据写入超级电容模块中的NAND Flash中。
超级电容电量校准
由于数据保护需要超级电容的配合,为了记录超级电容的放电曲线,以便RAID控制卡了解超级电容的状态,例如最大和最小电压等,同时为了延长超级电容的寿命,RAID控制卡默认启动超级电容自动校准模式。
RAID控制卡通过如下所述的三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。
1. RAID控制卡将超级电容的电量充到最大值。
2. 自动启动校准进程,将超级电容完全放电。
3. 重新开始充电,直至达到最大电量。
超级电容电量校准过程中,RAID控制卡写策略自动调整为“WT”模式以保证数据完整性,此时RAID控制卡性能会降低。电量校准的时间取决于超级电容充放电速度。
硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。
硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。
硬盘巡检不能在参与以下任何操作的任何硬盘上运行:
l RAID热备修复
l 动态扩盘
l 完全初始化或后台初始化
l 一致性校验
S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据受到损失。
RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。
RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。
默认情况下,硬盘节能功能处于开启状态。
当硬盘节能功能开启且在指定时间内没有I/O访问时,RAID控制卡下挂载的“Uncongfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。
硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。
Avago SAS3516可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在Avago SAS3516下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。
Avago SAS3516支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
如果需要使能硬盘直通功能,请参见10.4.11 设置JBOD模式。
l 开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。
l JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
硬盘漫游是指在同一控制卡下移动物理硬盘。控制卡将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。
要使用硬盘漫游,按以下步骤操作:
1. 关闭操作系统。
2. 将服务器下电。
3. 将物理硬盘移动到背板所需位置。
4. 执行安全检查。确保正确插入物理硬盘。
5. 将服务器上电。
6. 控制卡从物理硬盘上的配置数据中检测到RAID配置。
如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。
此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。
Avago SAS3516提供硬盘故障记录功能:
l 使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。
l 禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,Avago SAS3516会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。
维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。
l 使能该功能后,当硬盘故障时,会点亮Fault指示灯。
l 禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。
默认情况下,Avago SAS3516使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。具体操作方法请参见查看并修改控制卡高级属性
BIOS中“Boot Type”设置为“EFI Boot Type”模式时,打开的管理界面如下所述。
文档中描述的关于Avago SAS3516的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。
如果服务器已经在Legacy或者UEFI模式下安装OS,切换启动方式后将无法进入操作系统,需要切换为安装时的启动方式再进入,如操作系统需要重装,请根据实际情况选择UEFI或Legacy模式安装OS。
当服务器配置了较多的可启动设备时,在Legacy模式下可能出现部分设备无法正常启动,建议使用UEFI模式启动,UEFI模式较Legacy模式可以支持更多可启动设备;如需要使用Legacy模式,建议根据实际业务场景禁用串口重定向或网卡PXE等,确保操作系统可以正常启动,具体操作请参考BIOS参数参考的设置网卡的PXE和设置串口重定向章节。
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器
步骤 2 重启过程中,当出现如图10-2所示界面时,按“Delete”,进入输入密码界面。
步骤 3 输入密码并按“Enter”。
进入如图10-3所示界面。
步骤 4 通过“←”或“→ ”进入“Advanced”页签,如图10-4所示。
如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见10.5.4 Device Manager中RAID控制卡状态显示Not Healthy进行修复。
步骤 5 选择“Avago <SAS3516> Configuration Utility”,按“Enter”。
进入Avago SAS3516主界面,如图10-5和图10-6所示,界面参数如表10-4所示。
参数 |
说明 |
Main Menu |
RAID控制卡主菜单,包含了RAID控制卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID控制卡当前工作状态。 |
Backplane |
背板个数。 |
BBU |
超级电容在位情况。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的硬盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID控制卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 |
Configure |
提供删除配置的接口。 |
Set Factory Defaults |
恢复出厂设置。 |
Update Firmware |
升级固件。 说明 Avago SAS3516不支持在此界面升级FW。 |
Silence Alarm |
板载蜂鸣器的使能状态。 说明 Avago SAS3516未配置蜂鸣器,此项设置不起作用。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3516支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看10.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见10.3.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图10-7和图10-8所示,参数说明如表10-5所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Unmap Capability |
解除映射能力。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照10.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图10-9所示,界面参数如表10-6所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 0支持的硬盘个数为1~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
4. 按表10-6所述配置过滤条件。
5. 选择“Apply Changes”并按“Enter”。
6. 选择“Confirm”并按“Enter”。
7. 选择“Yes”并按“Enter”。
8. 按“Enter”完成成员盘配置。
步骤 4 配置虚拟磁盘属性。
按照表10-5所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照10.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3516支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看10.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见10.3.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图10-10和图10-11所示,参数说明如表10-7所示。
图10-10 Create Virtual Drive(1)
图10-11 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Unmap Capability |
解除映射能力。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照10.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图10-12所示,界面参数如表10-8所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 1支持的硬盘个数为2~32(偶数)。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
4. 按表10-8所述配置过滤条件。
5. 选择“Apply Changes”并按“Enter”。
6. 选择“Confirm”并按“Enter”。
7. 选择“Yes”并按“Enter”。
8. 按“Enter”完成成员盘配置。
步骤 4 配置虚拟磁盘属性。
按照表10-7所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照10.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3516支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看10.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见10.3.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图10-13和图10-14所示,参数说明如表10-9所示。
图10-13 Create Virtual Drive(1)
图10-14 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Unmap Capability |
解除映射能力。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照10.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 5”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图10-15所示,界面参数如表10-10所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 5支持的硬盘个数为3~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
4. 按表10-10所述配置过滤条件。
5. 选择“Apply Changes”并按“Enter”。
6. 选择“Confirm”并按“Enter”。
7. 选择“Yes”并按“Enter”。
8. 按“Enter”完成成员盘配置。
步骤 4 配置虚拟磁盘属性。
按照表10-9所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照10.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3516支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看10.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见10.3.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图10-16和图10-17所示,参数说明如表10-11所示。
图10-16 Create Virtual Drive(1)
图10-17 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Unmap Capability |
解除映射能力。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照10.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 6”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图10-18所示,界面参数如表10-12所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 6支持的硬盘个数为3~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
4. 按表10-12所述配置过滤条件。
5. 选择“Apply Changes”并按“Enter”。
6. 选择“Confirm”并按“Enter”。
7. 选择“Yes”并按“Enter”。
8. 按“Enter”完成成员盘配置。
步骤 4 配置虚拟磁盘属性。
按照表10-11所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照10.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3516支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看10.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见10.3.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图10-19和图10-20所示,参数说明如表10-13所示。
图10-19 Create Virtual Drive(1)
图10-20 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Unmap Capability |
解除映射能力。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照10.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图10-21所示,界面参数如表10-14所示。
参数 |
参数说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 按表10-14所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 10支持2~8个Span,每个Span支持的硬盘数为2~16/32(偶数),且各个Span的硬盘数量必须保持一致。
l RAID 10支持的硬盘总数为4~32/240(偶数)。(取决于RAID Key的规格。)
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
5. 选择“Apply Changes”按“Enter”保存配置。
6. 选择“Confirm”并按“Enter”。
7. 选择“Yes”并按“Enter”。
8. 按“Enter”完成成员盘配置。
1. 当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如图10-22所示。
2. 选择“Add More Spans”并按“Enter”。
3. 选择“Select Drives”并按“Enter”。
4. 在打开的列表中选择第2个Span的成员盘。
5. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
6. 按“Enter”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID10至少需要创建2个Span,最多可以创建8个Span。
步骤 6 配置虚拟磁盘属性。
按照表10-13所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照10.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
使此处的状态变为“Enabled”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 8 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3516支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看10.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见10.3.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图10-23和图10-24所示,参数说明如表10-15所示。
图10-23 Create Virtual Drive(1)
图10-24 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Unmap Capability |
解除映射能力。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照10.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 50”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图10-25所示,界面参数如表10-16所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 按表10-16所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 50支持2~8个Span,每个Span支持的硬盘数为3~16/32(取决于RAID Key的规格),且各个Span的硬盘数量必须保持一致。
l RAID 50支持的硬盘总数为6~32/240(取决于RAID Key的规格)。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
5. 选择“Apply Changes”按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
1. 当配置的级别为RAID 50时,需要配置多个Span,此时配置界面如图10-26所示。
2. 选择“Add More Spans”并按“Enter”。
3. 选择“Select Drives”并按“Enter”。
4. 在打开的列表中选择第2个Span的成员盘。
5. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID50至少需要创建2个Span,最多可以创建8个Span。
步骤 6 配置虚拟磁盘属性。
按照表10-15所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照10.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 8 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3516支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看10.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见10.3.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图10-27和图10-28所示,参数说明如表10-17所示。
图10-27 Create Virtual Drive(1)
图10-28 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Unmap Capability |
解除映射能力。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照10.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 60”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图10-29所示,界面参数如表10-18所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 按表10-18所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 60支持2~8个Span,每个Span支持的硬盘数为3~16/32(取决于RAID Key的规格),且各个Span的硬盘数量必须保持一致。
l RAID 60支持的硬盘总数为6~32/240(取决于RAID Key的规格)。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
5. 选择“Apply Changes”按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
1. 当配置的级别为RAID 60时,需要配置多个Span,此时配置界面如图10-30所示。
2. 选择“Add More Spans”并按“Enter”。
3. 选择“Select Drives”并按“Enter”。
4. 在打开的列表中选择第2个Span的成员盘。
5. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID60至少需要创建2个Span,最多可以创建8个Span。
步骤 6 配置虚拟磁盘属性。
按照表10-17所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照10.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 8 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
请通过10.6.2.2 Controller Management的“Select Boot Device”选项设置启动项。
当一台服务器配置了单张RAID控制卡时,RAID控制卡下的硬盘启动项即为该服务器的硬盘启动项,具体设置方法请参见10.3.9.1 设置RAID控制卡下的启动项。
当服务器配置了多张RAID控制卡时,硬盘启动项需要在BIOS中进行设置,具体设置方法请参见BIOS主板参数参考的“设置服务器启动设备”章节。
对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
Avago SAS3516控制标卡支持2种类型的热备盘:
l Global Hotspare:即全局热备盘,为控制标卡上所有已配置的RAID所共有,1块控制标卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
l Dedicated Hotspare:即局部热备盘,为控制标卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
l 用作热备盘的硬盘数据将会丢失。
操作步骤
登录管理界面,具体操作方法请参见10.3.1 进入管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图10-31所示。
步骤 2 配置全局热备盘。
1. 选择“Operation ”并按“ Enter” 。
2. 选择“Assign Global Hot Spare Drive ”并按“ Enter” 。
3. 选择“Go”并按“Enter”。
4. 进入操作确认界面。
5. 选择“Confirm”并按“ Enter” 。
6. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
7. 按“Enter”完成配置并返回上级界面。
----结束
操作步骤
当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
登录管理界面,具体操作方法请参见10.3.1 进入管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图10-32所示。
步骤 2 配置局部热备盘。
1. 将“Operation”设置为“Assign Dedicated Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
打开当前存在的虚拟磁盘列表。
3. 选择要关联的虚拟磁盘并按“Enter”。
4. 选择“OK”按“Enter”。
5. 按“Enter”完成配置并返回上级界面。
----结束
操作场景
当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。
操作步骤
登录管理界面,具体操作方法请参见10.3.1 进入管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图10-33所示。
步骤 2 删除热备盘。
1. 将“Operation”设置为“Unassign Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 按“Enter”完成配置并返回上级界面。
----结束
操作步骤
登录管理界面,具体操作方法请参见10.3.1 进入管理界面。
步骤 1 进入“Advanced Controller Properties”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
3. 选择“Advanced Controller Properties”并按“Enter”。
进入“Advanced Controller Properties”界面,如图10-34与图10-35所示。
图10-34 Advanced Controller Properties(1)
图10-35 Advanced Controller Properties(2)
步骤 2 设置紧急热备。
1. 选择“Spare”并按“Enter”。
2. 将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如图10-34所示。
图10-36 Advanced Controller Properties
3. 选择“Apply Changes”并按“Enter”。
4. 选择“OK”并按“Enter”,完成配置。
----结束
操作场景
l 只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。
l RAID10、RAID 50、RAID 60不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
对系统的影响
增加硬盘扩容过程中,如果出现硬盘故障,会导致:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行增加硬盘扩容操作。
必备事项
前提条件
添加硬盘扩容之前,需具备如下条件:
l 服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。
l 已通过远程虚拟控制台登录到服务器的实时操作桌面。
l 已登录管理界面,具体操作请参见10.3.1 进入管理界面。
数据
操作之前建议先备份数据。
操作步骤
进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”并按“Enter”。
进入虚拟磁盘选项界面,如图10-37所示。
步骤 2 添加新硬盘。
1. 选择要进行扩容的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图10-38所示。
3. 选择“Reconfigure Virtual Drives”并按“Enter”
4. 选择“Go”并按“Enter”。
5. 选择要扩容的RAID级别。
增加硬盘扩容时,请保证该处的RAID级别与原级别一致。
6. 选择“Choose the Operation”,并按“Enter”。
进入硬盘选择界面,如图10-39所示。
7. 选择要增加的硬盘,并按“Apply Changes”。
进入确认操作界面。
l 增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。
l RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。
8. 选择“Confirm”并按“Enter”。
9. 选择“OK”并按“Enter”。
进入如图10-40所示界面。
10. 选择“Start Operation”并按“Enter”。
显示操作成功。返回虚拟磁盘选项界面,验证扩容结果,如图10-41所示,表示RAID正在进行扩容。
图10-41 Virtual Drive Management
----结束
操作场景
在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见10.3.1 进入管理界面。
步骤 1 进入要操作的虚拟磁盘界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图10-42所示。
图10-42 Virtual Drive Management
步骤 2 扩容虚拟磁盘。
1. 将“Operation”设置为“Expand Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入虚拟磁盘扩容界面,如图10-43界面所示,界面参数如表10-19所示。
参数 |
参数说明 |
Current Capacity |
虚拟磁盘当前容量。 |
Available Capacity |
可用于扩展的容量。 |
Enter a Percentage of Available Capacity |
输入扩容比例。 |
Capacity of Virtual Drive after Expansion |
扩容后虚拟磁盘容量。 |
3. 设置扩容百分比。
4. 选择“OK”并按“Enter”。
显示The operation has been performed successfully。
5. 按“Enter”完成配置并返还上级界面。
返回虚拟磁盘选项界面,验证扩容结果。
图10-44 查看扩容结果
----结束
操作场景
随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。
在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。
对系统的影响
RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行RAID级别迁移操作。
必备事项
前提条件
迁移RAID级别之前,需具备如下条件:
l 已通过远程虚拟控制台登录到服务器的实时操作桌面。
l 当前存在的硬盘个数满足目标RAID级别要求。
l 已登录管理界面,具体操作请参见10.3.1 进入管理界面。
Avago SAS3516RAID控制卡支持以下级别类型的迁移:
l RAID 0迁移到RAID 1、RAID 5、RAID 6
l RAID 1迁移到RAID 0、RAID 5、RAID 6
l RAID 5迁移到RAID 0、RAID 6
l RAID 6迁移到RAID 0、RAID 5
RAID迁移对硬盘数量的要求如表10-3所示。
l 当RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
l 迁移只支持增加与RAID组成员盘同类型同规格的硬盘。
l 为防止数据丢失,请在该操作之前备份当前RAID组的数据。
l 只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。
l 迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。
操作步骤
进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”并按“Enter”。
进入虚拟磁盘选项界面,如图10-45所示。
步骤 2 选择RAID迁移的目标级别。
下面以将RAID 1迁移到RAID 5为例进行说明。
1. 选择要进行迁移的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图10-46所示。
3. 选择“Reconfigure Virtual Drives”,并按“Enter”。
4. 选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如图10-47所示。不设置时默认与原RAID组配置一致。
5. 选择“Go”,并按“Enter”。
进入RAID配置界面,如图10-48所示。
图10-48 Reconfigure Virtual Drives(1)
6. 选择“New RAID Level”并按“Enter”。
打开RAID迁移的目标级别选择窗口,如图10-49所示。
7. 选择“RAID 5”并按“Enter”。
步骤 3 添加硬盘。
1. 选择“Choose the operation”并按“Enter”。
打开硬盘选择窗口。
2. 选择要增加的硬盘并按“Enter”。
RAID迁移对硬盘数量的要求请参见表10-3。
3. 选择“Apply Changes”并按“Enter”。
弹出操作确认会话框。
4. 选择“Confirm”并按“Enter”。
5. 选择“Yes”并按“Enter”。
提示操作成功。
6. 按“Esc”返回图10-50界面。
图10-50 Reconfigure Virtual Drives(2)
步骤 4 RAID级别迁移。
1. 选择“Start Operation”并按“Enter”。
提示操作成功。
步骤 5 查看迁移结果。
1. 进入Virtual Drive Management界面,检查迁移结果,如图10-51所示,表示RAID正在进行迁移。
l 迁移过程中若重启服务器,该任务将在重启后继续进行。
l 迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。
2. 选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 1”变成“RAID 5”,RAID组容量增大,且“Status”状态显示为“Optimal”时,表示RAID迁移成功。
----结束
操作场景
RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见10.3.1 进入管理界面。
步骤 1 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图10-52所示。
图10-52 Virtual Drive Management
步骤 2 删除虚拟磁盘。
1. 将“Operation”设置为“Delete Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 按“Enter”完成配置并返回上级界面。
----结束
操作场景
介绍将带有外部配置的硬盘进行重构的操作方法,不带外部配置硬盘的重构方法请参见10.5.1.1 硬盘故障。
操作步骤
在“Main Menu”界面中选择“Drive Management”并按“Enter”。
步骤 1 选中要进行重构的硬盘,按“Enter”。
步骤 2 将“Operation”设置为“Make Unconfigured Good”。
步骤 3 选择“Go”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 按“Enter”完成配置。
硬盘状态变为“(Foreign),Unconfigured Good”。
步骤 5 清除外部配置,具体操作请参见10.4.9 导入和清除外部配置。
RAID组开始进行重构。
----结束
当出现硬盘离线且RAID组可用时,为避免RAID组数据不一致,不能将离线的成员盘直接“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。
操作场景
用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。
操作步骤
登录管理界面,具体操作方法请参见10.3.1 进入管理界面。
步骤 1 进入“Controller Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
显示RAID控制卡基本信息,如图10-53和图10-54所示,参数说明如表10-20所示。
图10-53 Controller Management(1)
图10-54 Controller Management(2)
参数 |
参数说明 |
Product Name |
控制标卡名称。 |
Serial Number |
控制标卡序列号。 |
Controller Status |
控制标卡的工作状态。 |
Personality Mode |
控制标卡的模式。 |
Select Device For Boot Order |
设置控制标卡的启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。 |
PCI ID |
控制标卡的PCI ID。 |
PCI Segment:Bus:Device:Fuction |
控制标卡的PCI设备索引。 |
PCI Slot Number |
控制标卡的PCI槽位号。 |
Package Version |
控制标卡的套件版本。 |
Firmware Version |
控制标卡的固件版本号。 |
NVDATA Version |
控制标卡配置信息的版本号。 |
Supported Device Interfaces |
控制标卡支持的设备接口。 |
Drive Count |
控制标卡下挂载的硬盘个数。 |
Virtual Drive Count |
控制标卡下已有虚拟磁盘数量。 |
Advanced Controller Management |
更多的控制卡操作。 |
Advanced Controller Properties |
查看和修改控制卡的高级属性。 |
步骤 2 查看控制卡高级属性。
1. 选择“Advanced Controller Properties”并按“Enter”。
进入控制卡高级属性界面,如图10-55和图10-56所示,参数说明如表10-21所示。
在该界面下,可查看并修改RAID控制卡的高级属性。
图10-55 Advanced Controller Properties (1)
图10-56 Advanced Controller Properties (2)
参数 |
说明 |
Cache and Memory |
查看控制卡Cache和Memory信息。 |
Patrol Read |
系统巡检。 |
Power Save Setting |
设置硬盘休眠。 |
Spare |
设置控制卡热备状态。 |
Task Rates |
设置各种任务占用系统比率。 |
Alarm Control |
Avago SAS3516控制卡标卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Coercion Mode |
容量对齐的模式。包括: l None l 128MB l 1GB 默认为“1GB”。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。 默认为“Stop On Errors”。 |
Controller BIOS |
控制卡BIOS的使能情况。 |
ROC Temperature |
控制卡温度。 |
Shield State Supported |
是否支持暂停I/O,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
硬盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Maintain Drive Fail History |
表示是否使能硬盘故障记录功能,默认为使能状态。 说明 l 该参数设置为“Disabled”时: l 当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。 l 新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。 l 该参数设置为“Enabled”时: l 新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。 l 新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见10.4.9 导入和清除外部配置章节。 |
SMART Polling |
SMART轮巡检测周期。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性校验 |
JBOD Mode |
是否使能硬盘直通功能。 |
Write Verify |
写校验。 |
Large IO Support |
启用或禁用大型I/O支持功能。 |
Unmap Capability |
解除映射能力。 |
Firmware Device Order |
该功能开启后,设置为启动项的RAID组盘符为sda。 说明 开启该功能前,请先确认控制卡驱动与固件配套。 |
Apply Changes |
保存配置。 |
----结束
操作场景
l 服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。
l 新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。
l 如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!
l 为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。
l 当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。
导入外部配置
登录管理界面,具体操作方法请参见10.3.1 进入管理界面。
步骤 1 在主界面中选择“Main Menu”并按“Enter”。
步骤 2 选择“Configuration Management”并按“Enter”。
步骤 3 选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。
进入外部配置管理界面,如图10-57所示。
图10-57 Manage Foreign Configuration
步骤 4 选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图10-58所示。
步骤 5 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 6 选择“Confirm”并按“Enter”。
步骤 7 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 8 按“Enter”完成配置返回上级界面。
----结束
清除外部配置
登录管理界面,具体操作方法请参见10.3.1 进入管理界面。
步骤 1 在主界面中选择“Main Menu”并按“Enter”。
步骤 2 选择“Configuration Management”并按“Enter”。
步骤 3 选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。
进入外部配置管理界面,如图10-59所示。
图10-59 Manage Foreign Configuration
步骤 4 选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图10-60所示。
步骤 5 选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 6 选择“Confirm”并按“Enter”。
步骤 7 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 8 单击“OK”完成配置返回上级界面。
----结束
该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID0存在一个VD为例(如图10-61所示),详细操作方法如下:
图10-61 Virtual Drive Management
按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如图10-62所示。
步骤 2 将“Select Drives From”设置为“Free Capacity”,如图10-63所示。
步骤 3 选择“Select Drive Groups”并按“Enter”。
显示当前存在的RAID组(Drive Group),如图10-64所示。
步骤 4 选择要创建多个VD的RAID组,并按“Enter”,如图10-65所示。
步骤 5 选择“Apply Changes”并按“Enter”。
提示操作成功。
步骤 6 选择“OK”并按“Enter”返回VD配置界面,如图10-66和图10-67所示,参数说明如表10-22所示。
图10-66 Create Virtual Drive(1)
图10-67 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Unmap Capability |
解除映射能力。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drive Group |
选择硬盘组。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照10.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 7 按照表10-22所述配置VD的相关属性。
步骤 8 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
步骤 9 选择“Confirm”并按“Enter”。
步骤 10 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
可进入Virtual Drive Management界面,查看当前存在的所有VD,如图10-68所示。
图10-68 Virtual Drive Management
----结束
每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤11。
Avago SAS3516支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
l 开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。
l JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
登录管理界面,具体操作方法请参见10.6.1 进入管理界面。
步骤 1 依次进入Main Menu>Controller Management>Advanced Controller Properties界面,如图10-69所示。
图10-69 Advanced Controller Properties
步骤 2 选择“JBOD Mode”并按Enter。
步骤 3 选择“Enabled”并按“Enter”。
步骤 4 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 选择“OK”并按“Enter”完成配置。
----结束
介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。
更多故障案例请联系技术支持获取。
问题描述
当服务器出现如下现象时,说明硬盘故障。
l 硬盘故障指示灯常亮。
l 服务器开机状态下,硬盘指示灯不亮。
l 服务器上报硬盘故障告警。
处理方法
JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
l 通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。
l 通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。
l 通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考10.6.2.4 Drive Management。
l 通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
步骤 1 更换新硬盘。
l 更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考10.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。
l 若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在10.2.1 支持多种RAID类型查看RAID组支持的最大故障硬盘数量。
l 更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。
l 新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。
拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:
l 若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。
l 若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。
l 若故障硬盘为直通盘,则直接更换即可。
l 若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。
− UEFI模式下创建RAID0的方法请参见10.3.2 创建RAID 0。
− 通过命令行方式创建RAID0的方法请参见10.7.2.2 创建和删除RAID。
----结束
问题描述
正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
但当RAID控制卡未设置紧急热备时,成员盘状态显示为fail或prefail时,可使用以下方法处理。
处理方法
使用StorCLI工具,具体操作请参考10.7.1 下载和安装StorCLI工具。
步骤 1 执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考10.7.2.16 设置硬盘状态。
storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]
l controller_id:硬盘所在RAID控制卡的ID
l enclosure_id:硬盘所在Enclosure的ID
l slot_id:物理硬盘槽位ID
步骤 2 更换离线硬盘。
步骤 3 RAID组自动执行重构。
等待重构完成。
----结束
问题描述
硬盘状态显示为Unconfigured Bad或UBad。
处理方法
使用StorCLI工具,具体操作请参见10.7.1 下载和安装StorCLI工具。
步骤 1 执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见10.7.2.16 设置硬盘状态。
storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]
l controller_id:硬盘所在RAID控制卡的ID
l enclosure_id:硬盘所在Enclosure的ID
l slot_id:物理硬盘槽位ID
步骤 2 重新查看硬盘状态是否更改为Unconfigured Good或Ugood。具体操作请参见10.6.2.4 Drive Management界面或10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤4。
步骤 3 查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见10.4.9 导入和清除外部配置或10.7.2.33 查看/导入/清除外部配置。
l 问题解决 => 处理完毕。
l 问题未解决 => 联系技术支持处理。
----结束
问题描述
当RAID控制卡电容故障时,可能导致服务器出现如下情况:
l 服务器读写速度显著降低。
l RAID控制卡的CU界面中显示电容状态异常。
处理方法
进入RAID控制卡的CU界面,查看电容状态是否为“Optimal”。
电容状态可查询10.6.2.5 Hardware Components界面的“Battery Status”参数。
l 是 => 处理完毕
l 否 => 步骤2
步骤 1 将服务器下电,打开机箱,并查看RAID控制卡电容是否在位。
l 是 => 步骤4
l 否 => 步骤3
步骤 2 检查整机配置,为服务器安装电容,查看电容状态是否为“Optimal”。
l 是 => 处理完毕
l 否 => 步骤6
步骤 3 重新安装RAID控制卡电容,查看电容状态是否为“Optimal”。
l 是 => 处理完毕
l 否 => 步骤5
步骤 4 更换RAID控制卡电容,查看电容状态是否为“Optimal”,且“问题描述”所述的异常状态是否消失。
l 是 => 处理完毕
l 否 => 步骤6
----结束
问题描述
当服务器出现如下现象时,说明控制卡故障。
l 数据无法写入控制卡控制的硬盘。
l 服务器上报控制卡故障告警。
处理方法
登录iBMC Web界面查看告警信息。
步骤 1 根据告警信息,参考iBMC告警处理。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤3
步骤 3 查询兼容性查询助手或者联系技术支持处理。
----结束
问题描述
进入“Advanced”界面后,显示“Some drivers are not healthy”。
处理方法
选择“Some drivers are not healthy”。
进入健康状态查询界面。
步骤 1 选择“Repair the whole platform”,并按“Enter”。
进入“Driver Healthy Protocol Utility”界面。
步骤 2 查看“Driver Healthy Protocol Utility”界面的打印信息。
l 显示“The following VDs have missing disks.” => 请参见10.5.4.1 The following VDs have missing disks。
l 显示“There are offline or missing virtual drives with preserved cache.” => 请参见10.5.4.2 There are offline or missing virtual drives with preserved cache。
l 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见10.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
l 显示“Memory/battery problems were detected.” => 请参见10.5.4.4 Memory/battery problems were detected。
----结束
RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见0RAID控制卡启动中出现的常见的错误消息及处理方法。
问题描述
进入“Driver Healthy Protocol Utility”界面后,显示The following VDs have missing disks.。
处理方法
修复RAID控制卡。
1. 选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
2. 输入“c”,选择“Yes”并按“Enter”。
返回“Driver Healthy Protocol Utility”界面。
3. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
4. 输入“y”,选择“Yes”并按“Enter”。
提示Critical Message handling completed. Please exit。修复完成。
步骤 1 重启服务器,进入“Advanced”界面,检查界面是否显示“The platform is healthy”。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
进入“Driver Healthy Protocol Utility”界面后,显示“There are offline or missing virtual drives with preserved cache”。
处理方法
选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
步骤 1 输入任意内容,选择“Yes”并按“Enter”。
提示Critical Message handling completed. Please exit。
步骤 2 按“Esc”键返回到“Device Manager”界面。
步骤 3 选择“AVAGO MegaRAID<SAS3516> driver Health Protocol Utility”并按“Enter”。
进入“Configuration Utility”界面。
步骤 4 选择“Discard Preserved Cache”并按“Enter”。
弹出操作确认对话框。
步骤 5 选择“Confirm”并按“Enter”。
步骤 6 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 7 选择“OK”并按“Enter”。
步骤 8 重启服务器。
步骤 9 进入“Advanced”界面,检查界面是否显示The platform is healthy。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图10-70所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”
处理建议
该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:
l 下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。
l 忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:
a. 在图10-70中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
b. 输入“c”并按“Enter”。
c. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
d. 输入“y”并按“Enter”。
提示Critical Message handling completed. Please exit。
e. 按“Esc”退出当前界面。
弹出确认保存配置会话框,如图10-71所示。
f. 按“Y”保存配置,操作完成。
g. 按Esc键返回“Device Manager”界面。
h. 选择3516RAID控制卡,并按“Enter”,进入RAID控制卡管理界面。
问题描述
进入“Driver Healthy Protocol Utility”界面后,显示“Memory/battery problems were detected. The adapter has recovered, but cached data was lost”。
处理方法
选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
步骤 1 输入任意内容,选择“Yes”并按“Enter”。
提示“Critical Message handling completed. Please exit”。
步骤 2 重启服务器,进入“Advanced”界面,检查界面是否显示“The platform is healthy”。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图10-72所示,进入“Driver Healthy Protocol Utility”界面后,显示“Disabling writes to flash as the flash part has gone bad”。
处理方法
将服务器下电。
步骤 1 更换RAID控制卡。
步骤 2 将服务器上电,导入外部配置恢复原来的RAID配置,请参见10.4.9 导入和清除外部配置或10.7.2.33 查看/导入/清除外部配置。
检查提示是否清除。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD mode将RAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。
当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。
处理方法
(可选)登录RAID控制卡管理界面,具体操作请参见10.3.1 进入管理界面。
步骤 1 依次进入Main Menu>Controller Management>Advanced Controller Management界面。
步骤 2 选择“Switch to RAID mode”并按“Enter”。
提示操作成功。
步骤 3 选择“OK”并按“Enter”。
返回到“Advanced Controller Management”界面,显示正在切换模式。
步骤 4 按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见10.3.1 进入管理界面。
步骤 5 依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”。
l 是 => 处理完毕
l 否 => 请联系技术支持
----结束
问题描述
硬盘响应命令超时,控制卡会对硬盘进行复位。3次复位后尚未恢复时将可能耗尽控制卡TM(Task Management)资源,触发Fatal error,此时会通过OCR(Online Controller Reset)自愈恢复,期间将有短时间业务中断(约30s~60s),控制卡复位后会完成踢盘,将故障硬盘置为Ubad状态。
控制卡自愈恢复,需要开启OCR开关。
触发条件
当下发到硬盘的I/O出现超时不响应的情况时,RAID控制卡会通过reset硬盘来恢复,正常情况下,硬盘会重新接入或者多次reset之后会进行踢盘。
当出现reset之后硬盘仍然无法响应RAID控制卡指令且无法踢盘时,RAID控制卡会再次reset进行复位,每次reset会占用RAID控制卡资源,短时间内多次reset会导致RAID控制卡资源耗尽,该场景下,RAID控制卡会通过重新加载FW进行恢复。
该机制为此类卡的正常处理机制,由于架构限制,无法进行优化。
识别方法
l 已安装OS:
当遇到短时间业务中断,恢复后查看有被置为Ubad状态的硬盘时,可以查看控制卡日志,搜索dm.c并查看其发生时间,如与业务中断时间节点接近,即可断定为触发了该机制。
注意控制卡与OS时间差。
l 未安装OS:
无OS时,触发该机制的操作为:从“Advanced”页签进入控制卡界面。若触发该机制,进入控制卡卡操作界面时将会卡住,无法恢复。
处理方法
定位故障硬盘。
l 已安装OS:
− 如确认触发了该机制并且已经完成了踢盘,需要更换Ubad状态的硬盘。
− 如无Ubad状态的硬盘,查看日志并搜索“indicates critical condition”,目标行的“element xx indicates critical condition”中,“xx”即为问题硬盘的槽位号。
已安装OS,但是进入“Advanced”页签的控制卡操作界面卡住,需要重新上下电进入OS,按照以上方式定位故障硬盘。
l 未安装OS:
系统未安装OS,出现该异常时,保留预安装OS RAID组数目的硬盘,将其他硬盘拔出并记录槽位号,如成功安装OS进入系统后,按照已安装OS的操作来确认问题硬盘。
步骤 1 更换故障硬盘。
l 是 => 处理完毕。
l 否 => 请联系技术支持。
----结束
问题描述
l 无法创建RAID组。
l 进入控制卡主界面后,显示“Discard Preserved Cache”,如图10-73所示。
处理方法
进入控制卡主界面。
步骤 1 选择“Discard Preserved Cache”并按Enter。
弹出操作确认界面,如图10-74所示。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示“The operation has been performed successfully”即操作成功。
----结束
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器
步骤 2 重启过程中,当出现如图10-75所示界面时,按“Delete”,进入输入密码界面。
步骤 3 输入密码并按“Enter”。
进入如图10-76所示界面。
步骤 4 通过“←”或“→ ”进入“Advanced”页签,如图10-77所示。
如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见10.5.4 Device Manager中RAID控制卡状态显示Not Healthy进行修复。
步骤 5 选择“Avago <SAS3516> Configuration Utility”,按“Enter”。
进入Avago SAS3516主界面,如图10-78和图10-79所示,界面参数如表10-23所示。
参数 |
说明 |
Main Menu |
RAID控制卡主菜单,包含了RAID控制卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID控制卡当前工作状态。 |
Backplane |
背板个数。 |
BBU |
超级电容在位情况。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的硬盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID控制卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 |
Configure |
提供删除配置的接口。 |
Set Factory Defaults |
恢复出厂设置。 |
Update Firmware |
升级固件。 说明 Avago SAS3516不支持在此界面升级FW。 |
Silence Alarm |
板载蜂鸣器的使能状态。 说明 Avago SAS3516未配置蜂鸣器,此项设置不起作用。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。
界面介绍
“Main Menu”界面如图10-80,参数说明如表10-24所示。
参数 |
参数说明 |
Configuration Management |
配置管理RAID。 |
Controller Management |
管理RAID控制卡。 |
Virtual Drive Management |
管理虚拟磁盘。 |
Drive Management |
管理硬盘。 |
Hardware Components |
查询部件信息。 |
可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。
界面介绍
“Configuration Management”界面如图10-81,参数说明如表10-25所示。
图10-81 Configuration Management
参数 |
参数说明 |
Auto Configure RAID 0 |
自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0。 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。 |
View Drive Group Properties |
查看硬盘组属性。 当存在硬盘组时会显示该参数。 |
Clear Configuration |
清除当前所有RAID配置。 |
Manage Foreign Configuration |
管理外部配置。 当存在外部配置时会显示该参数。 |
清除RAID配置
选择“Clear Configuration”并按“Enter”。
进入操作确认界面。
步骤 1 选中“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 选择“OK”并按“Enter”。
操作完成。
----结束
快速创建RAID
选择"Create Profile Based Virtual Drive"并按“Enter”。
步骤 1 选择要创建的RAID(以“Generic RAID 0”为例)并按“Enter”。
打开RAID配置界面,如图10-82,参数说明如表10-26所示。
参数 |
说明 |
Drive Selection Criteria |
系统自动选择的成员盘。 |
Virtual Drive Name |
系统自定义的RAID组名称。 |
RAID Level |
当前配置的RAID组的级别。 |
Virtual Drive Size |
RAID组的容量。 |
Power Save Mode |
数据掉电保护模式。 |
Strip Size |
RAID组扇区大小。 |
Read Policy |
RAID组的数据读策略。 |
Write Policy |
RAID组的数据写策略。 |
IO Policy |
RAID组I/O策略。 |
Access Policy |
数据读写的策略。 |
Drive Cache |
硬盘Cache策略。 |
Default Initialization |
RAID组默认的初始化方式。 说明 快速创建RAID 0时,出现该选项。初始化类型默认为Fast且不可更改。 |
Create Dedicated Hot Spare |
是否为RAID组创建一块局部热备盘。 说明 快速创建RAID1、5、6时,出现该选项。 |
Save Configuration |
保存当前配置。 |
步骤 2 按表10-26所示查看或配置相关参数。
步骤 3 选择“Save Configuration”并按“Enter”。
弹出操作成功提示界面。
步骤 4 按“Enter”。
----结束
查看硬盘组属性
在图10-81中选择“View Drive Group Properties”并按“Enter”。
图10-83 View Drive Group Properties
参数 |
参数说明 |
Drive Group |
硬盘组名称。 |
Capacity Allocation |
硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。 |
----结束
该界面提供控制卡管理接口,可查看并修改控制卡的详细参数。
界面介绍
“Controller Management”界面如图10-84和图10-85所示,参数说明如表10-28所示。
图10-84 Controller Management(1)
图10-85 Controller Management(2)
参数 |
参数说明 |
Product Name |
控制标卡名称。 |
Serial Number |
控制标卡序列号。 |
Controller Status |
控制标卡的工作状态。 |
Personality Mode |
控制标卡的模式。 |
Select Device For Boot Order |
设置控制标卡的启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。 |
PCI ID |
控制标卡的PCI ID。 |
PCI Segment:Bus:Device:Fuction |
控制标卡的PCI设备索引。 |
PCI Slot Number |
控制标卡的PCI槽位号。 |
Package Version |
控制标卡的套件版本。 |
Firmware Version |
控制标卡的固件版本号。 |
NVDATA Version |
控制标卡配置信息的版本号。 |
Supported Device Interfaces |
控制标卡支持的设备接口。 |
Drive Count |
控制标卡下挂载的硬盘个数。 |
Virtual Drive Count |
控制标卡下已有虚拟磁盘数量。 |
Advanced Controller Management |
管理控制卡高级功能。 |
Advanced Controller Properties |
查看和修改控制卡的高级属性。 |
更多控制卡操作
在图10-84中选择“Advanced Controller Management”并按“Enter”。
图10-86 Advanced Controller Management
参数 |
说明 |
Clear Controller Events |
清除控制卡的事件日志。 |
Save Controller Events |
保存控制卡的事件日志。 |
Save TTY Log |
保存终端操作日志。 |
Manage SAS Storage Link Speed |
管理RAID控制卡接口速率。 |
Manage MegaRAID Advanced Software Options |
管理高级软件功能。 |
Schedule Consistency Check |
设置一致性校验参数。 |
Set Factory Defaults |
恢复为出厂配置。 |
Manage Personality Mode |
切换RAID控制卡的工作模式。 选择该选项并按“Enter”后,可进入设置RAID控制卡工作模式的界面。 RAID控制卡工作模式默认为RAID模式。当RAID控制卡当前的工作模式为RAID时,“Manage Personality Mode”界面中显示为“Switch to JBOD mode”;当RAID控制卡当前的工作模式为JBOD时,“Manage Personality Mode”界面中显示为“Switch to RAID mode”。 RAID控制卡的工作模式仅支持设置为“RAID”,请勿修改为“JBOD”。 如已设置为“JBOD”,请参见10.5.5 将Controller Mode恢复为RAID进行恢复;如需要开启JBOD功能,请参见10.4.11 设置JBOD模式进行设置。 |
Controller Mode |
RAID控制卡当前的工作模式。 |
----结束
在图10-84中选择“Advanced Controller Properties”并按“Enter”。
界面如图10-87和图10-88所示,界面中参数说明如表10-30所示。
图10-87 Advanced Controller Properties(1)
图10-88 Advanced Controller Properties(2)
参数 |
说明 |
Cache and Memory |
查看控制卡Cache和Memory信息。 |
Patrol Read |
系统巡检。 |
Power Save Setting |
设置节能功能。 |
Spare |
热备属性设置。 |
Task Rates |
设置各种任务占用系统比率。 |
Alarm Control |
Avago SAS3516控制卡标卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Coercion Mode |
容量对齐的模式。包括: l None l 128MB l 1GB 默认为“1GB”。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errrors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。 默认为“Stop On Errors”。 |
Controller BIOS |
控制卡BIOS的使能情况。 |
ROC Temperature |
控制卡温度。 |
Shield State Supported |
是否支持暂停I/O,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
硬盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Maintain Drive Fail History |
表示是否使能硬盘故障记录功能,默认为使能状态。 说明 l 该参数设置为“Disabled”时: l 当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。 l 新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。 l 该参数设置为“Enabled”时: l 新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。 l 新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见10.4.9 导入和清除外部配置章节。 |
SMART Polling |
SMART轮巡检测周期。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性校验。 |
JBOD Mode |
硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。 |
Write Verify |
写校验。 |
Large IO Support |
启用或禁用大型I/O支持功能。 |
Unmap Capability |
解除映射能力。 |
Firmware Device Order |
该功能开启后,设置为启动项的RAID组盘符为sda。 说明 开启该功能前,请先确认控制卡驱动与固件配套。 |
Preboot Trace Buffer |
启用或禁用RAID控制卡对本次启动过程中的调试信息的收集。 |
Apply Changes |
保存配置。 |
步骤 2 在图10-87中选择“Task Rates”并按“Enter”。界面如图10-89所示,界面中参数说明如表10-31所示。
参数 |
说明 |
Background Initialization <BGI> Rate |
设置执行后台初始化的速率。 说明 数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Consistency Check Rate |
设置执行一致性校验的速率。 说明 数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Patrol Read Rate |
设置执行巡检读取的速率。 说明 数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Rebuild Rate |
设置硬盘发生故障时在新硬盘上执行重构数据的速率。 说明 数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Reconstruction Rate |
设置执行RAID级别迁移或在线容量扩展时重构数据的速率。 说明 数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Apply Changes |
保存配置。 |
步骤 3 按照表10-30所述修改控制卡的高级属性参数。
步骤 4 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 单击“OK”完成配置。
----结束
该界面提供虚拟磁盘的查询和管理接口。
界面介绍
“Virtual Drive Management”界面如图10-90,显示虚拟磁盘列表。
图10-90 Virtual Drive Management
选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如图10-91所示,参数说明如表10-32所示。
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:定位虚拟磁盘的所有硬盘。 l Stop Locate:取消定位。 l Delete Virtual Drive:删除虚拟磁盘。 l Expand Virtual Drive:扩展虚拟磁盘容量。 l Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。 l Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。 l Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。 l Fast Initialization:快速初始化虚拟磁盘。 l Slow Initialization:安全初始化虚拟磁盘。 l Check Consistency:一致性校验。 l Virtual Drive Erase:格式化虚拟磁盘。 |
Progress |
当前任务进度。 l 仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。 l 当前界面不会自动刷新,需退出后重新进入查看当前进度。 |
Stop |
停止当前任务。 仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。 |
Name |
虚拟磁盘名称。 |
Raid Level |
虚拟磁盘RAID级别。 |
Status |
虚拟磁盘当前运行状态。 |
Size |
虚拟磁盘容量。 |
View Associated Drives |
查看成员盘属性。 |
Advanced... |
查看虚拟磁盘高级属性。 |
查看成员盘属性
在图10-91中选择“View Associated Drives”并按“Enter”。
界面如图10-92,显示成员盘列表。
步骤 2 选择要查看的成员盘,并按“Enter”。
步骤 3 选择“View Drive Properties”并按“Enter”。
进入硬盘属性界面,如图10-93界面所示,界面参数如表10-33所示。
参数 |
参数说明 |
Operation |
该成员盘可执行的操作,包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Place Drive Online/Offline:将硬盘上线/离线。 |
Drive ID |
成员盘的ID。 |
Connection |
硬盘接口。 |
Enclosure Position |
机箱或背板的位置。 |
Slot Number |
硬盘的槽位号。 |
Status |
成员盘的当前工作状态。 |
Size |
成员盘的容量。 |
Type |
成员盘类型。 |
Model |
成员盘的模块类型。 |
Hardware Vendor |
成员盘的生产厂商。 |
Associated Virtual Drive |
成员盘所在的虚拟磁盘。 |
Advanced... |
查询成员盘更多属性。 |
----结束
查看和修改虚拟磁盘高级属性
在图10-91中选择“Advanced...”并按“Enter”。
界面如图10-94和图10-95所示,界面参数如表10-34所示。
参数 |
参数说明 |
Logical Sector Size |
逻辑扇区大小。 |
Segment Size |
条带大小。 |
Starting Logical Block Addressing |
逻辑单元起始地址。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 当成员盘为512B/512B时: l Default:逻辑盘扇区为512B/512B。 l None:逻辑盘扇区为512B/512B。 l Force:逻辑盘扇区为512B/4KB。 当成员盘为512B/4KB时: l Default:逻辑盘扇区为512B/4KB。 l None:逻辑盘扇区为512B/512B。 l Force:逻辑盘扇区为512B/4KB。 |
Protected |
是否支持硬盘保护。 |
Bad Blocks |
是否支持坏块处理。 |
SSD Caching |
是否支持SSD Caching。 |
Access |
是否支持Access。 |
Current Write Cache Policy |
当前写Cache策略,包括: l Write Through:当硬盘子系统接收到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。 l Write Back:当RAID控制标卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Always Write Back:当未配置超级电容或超级电容故障时,RAID控制卡将不会自动切换到Write Through模式。 说明 “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR的写数据将会丢失。不推荐使用该模式。 |
Default Write Cache Policy |
默认的写Cache策略。 |
Disable Background Initialization |
是否禁用后台初始化。 |
Read Cache Policy |
当前读Cache策略,包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。RAID控制标卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 |
Drive Cache |
设置硬盘cache状态。 |
Input/Output |
I/O读取策略,包括: l Direct:直接从硬盘读取数据,不经过Cache缓存。 l Cached:从Cache缓存中读取数据。 |
Apply Changes |
保存配置。 |
步骤 2 按照表10-34所述配置“Advanced”的参数。
步骤 3 选择“Apply Changes”并按“Enter”。
显示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面显示硬盘基本属性,提供硬盘操作接口。
界面介绍
“Drive Management”界面如图10-96所示,显示硬盘列表。
硬盘的标识信息说明如下:
l ①表示RAID控制卡的Port口编号,其中Drive C0/Drive Port A表示RAID控制卡的Port A口,Drive C1/Drive Port B表示RAID控制卡的Port B口。
l ②表示机箱或背板的位置ID。
l ③表示硬盘槽位号。
l ④表示硬盘类型。
l ⑤表示硬盘的容量。
l ⑥表示硬盘的状态。
l ⑦表示硬盘的扇区大小。
选定要操作的硬盘并按“Enter”进入详细操作界面,如图10-97所示,参数说明如表10-35所示。
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Initialize Drive:硬盘初始化。 l Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。 − Simple:仅对硬盘进行一轮擦除动作。 − Normal:对硬盘进行三轮擦除动作。 − Thorough:对硬盘进行九轮擦除动作。 − Stop Erase:停止数据擦除操作。 l Make Unconfigured Good/Bad:修改硬盘状态。 l Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。 l Assign Global Hot Spare Drive:设置全局热备盘。 l Assign Dedicated Hot Spare Drive:设置局部热备盘。 l Unassign Hot Spare Drive:删除热备盘。 l Place Drive Online:将Offline状态的硬盘设置为Online。 说明 l Place Drive Online操作仅仅只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。 l 如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。 l 对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。 |
Drive ID |
硬盘的ID。 |
Connection |
硬盘接口。 |
Enclosure Position |
机箱或背板的位置。 |
Slot Number |
硬盘的槽位号。 |
Status |
硬盘的当前工作状态。 |
Size |
硬盘的容量。 |
Type |
硬盘的类型。 |
Model |
硬盘型号。 |
Hardware Vendor |
硬盘的生产厂商。 |
Advanced... |
查询更多硬盘属性。 |
安全擦除硬盘数据
该操作会删除硬盘上的数据,请谨慎执行。
将“Operation”设置为“Drive Erase”。
步骤 1 选择“Erase Mode”并按“Enter”。
步骤 2 在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。
步骤 3 选择“Go”并按“Enter”。
步骤 4 选择“Confirm”并按“Enter”。
步骤 5 选择“Yes”并按“Enter”。
提示操作成功。
----结束
查看硬盘属性
选择“Advanced...”并按“Enter”。
打开硬盘属性界面,如图10-98和图10-99所示,参数说明如表10-36所示。
参数 |
参数说明 |
Certified |
硬盘是否通过认证。 |
Logical Sector Size |
逻辑扇区大小。 |
Physical Sector Size |
物理扇区大小。 |
SMART Status |
SMART功能是否使能。 |
Revision |
硬盘Firmware版本。 |
Media Error |
Media error个数。 |
Predicted Fail Count |
Pred fail个数。 |
SAS Address |
硬盘SAS地址。 |
Multipath |
该功能为支持检测和使用从RAID控制卡到盘柜中的SAS设备的多条路径,连接到盘柜的设备有多条路径。到设备同一端口的冗余路径,可以保障当其中一条路径发生故障时,控制卡和设备之间可以使用另一条路径进行通信。同时使用具有负载平衡的多条路径,而不是单条路径,可以通过冗余来提高可靠性。 当前服务器暂不支持多路径的方式。 |
Drive Power State |
硬盘上电状态。 |
Cache Setting |
是否可设置Cache。 |
Disk Protocol |
硬盘支持的协议。 |
Capable Speed |
设备速率。 |
Negotiated Speed |
硬盘数据传输速率。 |
Number of Connections |
连接器个数。 |
FDE Capable |
硬盘是否支持FDE(Full Disk Encryption)技术。 |
Cryptographic Erase Capable |
硬盘的加密擦除能力。 |
Unmap Capable |
解除映射能力。 |
Temperature |
硬盘温度。 |
该界面主要提供RAID控制卡传感器信息。
界面介绍
“Hardware Components”界面如图10-100,参数说明如表10-37所示。
参数 |
参数说明 |
Battery Status |
电容的工作状态。 |
Battery Management |
电容管理。 |
Enclosure Management |
查看更多传感器信息。 |
查看更多传感器信息
选择“Enclosure Management”并按“Enter”。
进入部件选择界面。
步骤 1 选择“Select Enclosure”并按“Enter”。
步骤 2 选择要操作的部件并按“Enter”。
步骤 3 选择“View Enclosure Status”并按“Enter”。
显示传感器的详细信息。
----结束
提供RAID控制卡操作管理接口。
界面介绍
“View Server Profile”界面如图10-101所示,参数说明如表10-38所示。
参数 |
参数说明 |
UEFI Spec Version |
服务器支持的UEFI Spec版本。 |
Controller Management |
提供控制卡管理接口,详细情况请参见10.6.2.2 Controller Management。 |
Hardware Components |
提供控制卡部件查询接口,详细情况请参见10.6.2.5 Hardware Components。 |
Drive Management |
提供硬盘管理接口,详细情况请参见10.6.2.4 Drive Management。 |
Virtual Drive Management |
提供虚拟磁盘管理接口,详细情况请参见10.6.2.3 Virtual Drive Management。 |
该界面可查看、导入、清空外部配置。
界面介绍
“View Foreign Configuration”界面如图10-102所示。
图10-102 View Foreign Configuration
查看并导入外部配置
选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图10-103所示。
步骤 2 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 3 选择“Confirm”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 单击“OK”完成配置。
----结束
清除外部配置
选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 单击“OK”完成配置。
----结束
可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。
界面介绍
“Configure”界面如图10-104所示,参数说明如表10-39所示。
参数 |
参数说明 |
Auto Configure RAID 0 |
自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0。 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。 |
View Drive Group Properties |
查看硬盘组属性。 当存在硬盘组时会显示该参数。 |
Clear Configuration |
清除当前所有RAID配置。 |
Manage Foreign Configuration |
管理外部配置。 当存在外部配置的时候会显示该参数。 |
清除当前配置
选择“Clear Configuration”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 单击“OK”完成配置。
----结束
恢复出厂配置
在主界面选择“Set Factory Defaults”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 单击“OK”完成配置。
----结束
该界面提供固件升级接口。
界面介绍
“Update Firmware”界面如图10-105所示,参数说明如表10-40所示。
参数 |
参数说明 |
Select File System |
选择使用的文件系统。 |
Select Directory |
选择文件存放路径。可选路径包括: Current Dir:当前路径 EFI:自适应路径 |
Select Image |
选择要加载的文件。 |
升级固件
l 进行固件升级时,必须使用FAT12、FAT16或FAT32格式的介质。
l 仅检查支持EFI_SIMPLE_FILE_SYSTEM_PROTOCOL的文件系统。
l FW镜像文件必须位于根目录或根目录的下一个级别才能进行访问。
按照表10-40所述配置升级参数。
步骤 1 选择“Update”并按“Enter”。
打开操作确认界面。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 在列表中选择“Enable”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 单击“OK”完成配置。
----结束
该界面提供RAID控制卡高级软件特性查看和导入接口。
界面介绍
“Manage MegaRAID Advanced Software Options”界面如图10-106所示,界面中参数说明如表10-41所示。
图10-106 Manage MegaRAID Advanced Software Options
参数 |
说明 |
SAFE ID |
RAID控制卡的安全编码。 |
Serial Number |
RAID控制卡序列号。 |
Activation Key |
待激活的高级特性的Key。 |
Active |
激活高级特性。 Avago SAS3516不支持高级特性的激活操作,该功能无效。 |
Deactive All Trail Software |
注销当前所有高级特性。 Avago SAS3516不支持高级特性的激活操作,该功能无效。 |
退出配置界面。
退出配置界面
1. 在Avago SAS3516主界面按“ESC”,显示如图10-107所示“Advanced”界面。
2. 按“Esc”退出配置界面。
使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。
下载工具
步骤 1 在“DOWNLOADS”页签中单击“Management Software and Tools”。
打开管理软件和工具列表。
步骤 2 下载最新版本的“StorCLI”工具。
步骤 3 解压后得到适用于不同操作系统的工具包。
----结束
安装工具
使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。
步骤 1 在Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。
StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。
安装完毕后,即可执行RAID控制卡命令。
----结束
命令功能
查询Avago SAS3516的基本配置信息。
命令格式
storcli64 /ccontroller_id show
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID |
使用指南
建议保持默认配置。
使用实例
# 查询RAID控制卡配置信息。
[root@localhost ~]# ./storcli64 /c0
show
Generating detailed summary of the adapter, it may take a while to complete.
Controller = 0
Status = Success
Description = None
Product Name = SAS3516
Serial Number = FW-00000000
SAS Address = 5000000012345678
PCI Address = 00:3b:00:00
System Time = 03/22/2018 06:26:17
Mfg. Date = 00/00/00
Controller Time = 03/22/2018 10:26:15
FW Package Build = 50.3.0-1100
BIOS Version = 7.03.02.1_4.17.08.00_0x07030402
FW Version = 5.030.00-1280
Driver Name = megaraid_sas
Driver Version = 07.703.05.00
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x14
SubVendor Id = 0x19E5
SubDevice Id = 0xD216
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 59
Device Number = 0
Function Number = 0
Drive Groups = 4
TOPOLOGY :
========
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT
Size PDC PI SED DS3 FSpace TR
-----------------------------------------------------------------------------
0 - - -
- RAID0 OfLn N 2.179 TB dflt N
N none N N
0 0 - -
- RAID0 Dgrd N 2.179 TB dflt N
N none N N
0 0 0 -
- DRIVE Msng - 744.125 GB - -
- - - N
0 0 1 -
- DRIVE Msng - 744.125 GB - -
- - - N
0 0 2 64:5 4
DRIVE Onln N 744.125 GB dflt N N none
- N
1 - - -
- RAID1 Optl N 744.125 GB dflt N N
none N N
1 0 - -
- RAID1 Optl N 744.125 GB dflt N N
none N N
1 0 0 64:6 23 DRIVE
Onln N 744.125 GB dflt N N none
- N
1 0 1 64:7 22 DRIVE
Onln N 744.125 GB dflt N N none
- N
1 - - 64:8 21 DRIVE
DHS - 744.125 GB - - -
- - N
2 - - -
- RAID0 OfLn N 445.171 GB dflt N N
none Y N
2 0 - -
- RAID0 Dgrd N 445.171 GB dflt N N
none Y N
2 0 0 -
- DRIVE Msng - 222.585 GB - -
- - - N
2 0 1 64:2 0
DRIVE Onln N 222.585 GB dflt N N none
- N
3 - - -
- RAID1 Optl N 446.102 GB dflt N N
none N N
3 0 - -
- RAID1 Optl N 446.102 GB dflt N N
none N N
3 0 0 64:0 27 DRIVE
Onln N 446.102 GB dflt N N none
- N
3 0 1 64:1 28 DRIVE
Onln N 446.102 GB dflt N N none
- N
-----------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Missing Drives Count = 3
Missing Drives :
==============
---------------------
Array Row Size
---------------------
0 0 744.125 GB
0 1 744.125 GB
2 0 222.585 GB
---------------------
Virtual Drives = 4
VD LIST :
=======
---------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac
sCC Size Name
---------------------------------------------------------------
0/0 RAID0 OfLn RW
No RWBD - ON
2.179 TB
1/1 RAID1 Optl RW
No RWBD - ON 744.125 GB
2/2 RAID0 OfLn RW
No RWBD - ON 347.102 GB B
3/3 RAID1 Optl RW
No RWBD - ON 446.102 GB
OS
---------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read
Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 12
PD LIST :
=======
----------------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI
SeSz
Model
Sp Type
----------------------------------------------------------------------------------------
64:0 27 Onln 3 446.102 GB SATA SSD
N N 512B SAMSUNG MZ7KM480HAHP-00005 U -
64:1 28 Onln 3 446.102 GB SATA SSD
N N 512B SAMSUNG MZ7KM480HAHP-00005 U -
64:2 0 Onln 0 222.585 GB SATA SSD
N N 512B INTEL
SSDSC2BB240G4 U -
64:3 2 UGood - 744.125 GB SATA SSD
N N 512B INTEL
SSDSC2BB800G4 U -
64:4 3 UBad - 744.125 GB SATA SSD
N N 512B INTEL
SSDSC2BB800G4 U -
64:5 4 Onln 0 744.125 GB SATA SSD
N N 512B INTEL
SSDSC2BB800G4 U -
64:6 23 Onln 1 744.125 GB SATA SSD
N N 512B INTEL
SSDSC2BA800G4 U -
64:7 22 Onln 1 744.125 GB SATA SSD
N N 512B INTEL
SSDSC2BB800G6 U -
64:8 21 DHS 1 744.125 GB SATA SSD
N N 512B INTEL
SSDSC2BB800G6 U -
64:9 25 UGood - 185.333 GB SATA SSD N
N 512B INTEL SSDSC2BA200G4
U -
64:10 26 UGood - 185.333 GB SATA SSD N
N 512B INTEL SSDSC2BA200G4
U -
64:11 24 UGood - 185.333 GB SATA SSD N
N 512B INTEL SSDSC2BA200G4
U -
----------------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Cachevault_Info :
===============
------------------------------------
Model State Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 24C - 2016/12/06
------------------------------------
命令功能
创建、删除RAID。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id add vd rlevel[0|1|5|6|10|50|60] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [wt|*wb|awb] [nora|*ra] [*direct|cached] [Strip=<8|16|32|64|128|256|1024>] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid] |
创建RAID组 |
storcli64 /ccontroller_id/vraid_id del |
删除RAID组 |
*表示默认值。
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
rlevel |
要配置的RAID组级别 |
level可为0、1、5、6、10、50、60,数字分别代表对应的RAID组级别。 |
size |
要配置的RAID组容量 |
默认值为all,即所有成员盘的容量之和。 |
name |
要配置的RAID组名称 |
- |
drives |
要加入RAID组的硬盘 |
- |
startid-endid |
硬盘的起始和结束ID |
- |
slot_id |
硬盘ID |
- |
pdperarray |
子组中的硬盘数 创建RAID10、RAID50、RAID60时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。 |
- |
pdcache |
设置RAID的成员盘的Cache状态 |
l on l off l default |
pi |
使能数据保护 |
- |
wrcache |
设置RAID组的写Cache属性,完整的命令为wrcache=wt|wb|awb,这里“wrcache=”可省略 |
l wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”模式。 |
rdcache |
设置RAID组的读Cache属性,完整的命令为rdcache=ra|nora,这里“rdcache=”可省略。 |
l ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。 l nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。 |
iopolicy |
设置RAID组的I/O策略,完整的命令为iopolicy=direct|cached,这里“iopolicy=”可省略。 说明 Cache IO的规格后续不再支持,默认为Direct IO,具体信息请查看RAID控制卡固件版本说明书。 |
l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 |
Strip |
设置RAID组条带大小 |
MR卡:64, 128, 256, 512, 1024 iMR卡:只能为64 单位为KB |
EmulationType |
控制逻辑盘在OS中上报的扇区 |
l 0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l 1: Disable,即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l 2:Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Spares |
指定RAID组的热备盘 |
- |
raid_id |
要删除的RAID组的ID |
- |
l 以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
l 当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid。
使用指南
无
使用实例
# 创建RAID 0。
[root@localhost ~]# ./storcli64 /c0
add vd r0 size=100GB drives=64:9,10
Controller = 0
Status = Success
Description = Add VD Succeeded
# 删除RAID。
domino:~# ./storcli64 /c0/v0 del
Controller = 0
Status = Success
Description = Delete VD Succeeded
查询RAID控制卡/RAID组/物理硬盘信息
命令功能
查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。
命令格式
storcli64 /ccontroller_id show
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all
storcli64 /ccontroller_id/vvd_id show all
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID |
enclosure_id |
硬盘所在Enclosure的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡连接的硬盘背板的ID |
slot_id |
物理硬盘槽位编号 |
可以将该参数设置为all,表示查询所有硬盘的ID |
vd_id |
虚拟磁盘ID |
可以为all,表示查询所有虚拟磁盘信息。 |
使用指南
无
使用实例
# 查询VD 0的信息。
domino:~# ./storcli64 /c0/v0 show
Controller = 0
Status = Success
Description = None
Virtual Drives :
==============
---------------------------------------------------------
DG/VD TYPE State Access Consist Cache sCC Size Name
---------------------------------------------------------
0/0 RAID1 Optl RW Yes RWBD - 100.0 GB
---------------------------------------------------------
Cac=CacheCad|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded
Optl=Optimal|RO=Read
OnlyRW=Read Write|HD=Hidden|B=Blocked|Consist=Consistent|AWB=Always
WriteBack|WT=WriteThrough|
C=Cached IOID=Direct IO|sCC=Scheduled Check Consistency
命令功能
查询和设置系统巡检的相关参数。
命令格式
storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number
storcli64 /ccontroller_id set patrolread delay=delaytime
storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}
storcli64 /ccontroller_id show patrolread
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
系统巡检起始时间 |
例如:2016/07/15 23 说明 起始时间单位为“时”。 |
number |
可同时巡检的硬盘数量 |
– |
delaytime |
系统巡检周期 |
单位为hour。 |
查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。
domino:~# ./storcli64 /c0 set
patrolread starttime=2016/07/15 23 maxconcurrentpd=2
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
PR Starttime 2016/07/15 23:00:00
PR MaxConcurrentPd 2
---------------------------------------
# 使能patrolread并设置为自动模式。
domino:~# ./storcli64 /c0 set
patrolread=on mode=auto
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
Patrol Read Mode auto
---------------------------------------
# 查询patrolread信息。
domino:~# ./storcli64 /c0 show
patrolread
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------------------------
Ctrl_Prop Value
--------------------------------------------
PR Mode 2016/07/15 23:00:00
PR Execution Delay
PR iterations completed 0
PR Next Start time 07/16/2016,00:00:00
PR on
SSD
Disabled
PR Current State Stopped
--------------------------------------------
命令功能
查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。
命令格式
storcli64 /ccontroller_id show spinupdelay
storcli64 /ccontroller_id show spinupdrivecount
storcli64 /ccontroller_id set spinupdelay=time
storcli64 /ccontroller_id set spinupdrivecount=count
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
每组起转硬盘间的时间间隔 |
默认为2,单位为s。 |
count |
上电时允许同时起转的硬盘数量 |
默认为4。 |
查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
建议保持默认配置。
使用实例
# 查询RAID控制卡Spinup参数。
[root@localhost ~]# ./storcli64 /c0
show spinupdelay
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
[root@localhost ~]# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 2
--------------------------
# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。
domino:~# ./storcli64 /c0 set
spinupdelay=20
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 20 second(s)
--------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 5
--------------------------
命令功能
设置物理硬盘数据擦除模式,查询擦除进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
mode |
数据擦除模式 |
l simple:对硬盘进行一轮擦除动作。 l normal:对硬盘进行三轮擦除动作。 l thorough:对硬盘进行九轮擦除动作。 |
以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。
domino:~# ./storcli64 /c0/e252/s3
start erase simple
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.
命令功能
暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。
命令格式
storcli64 /ccontroller_id/vraid_id action bgi
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
action |
后台初始化的操作 |
l show:查看后台初始化进度 l pause:暂停后台初始化 l resume:继续后台初始化 l stop:停止后台初始化 |
以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查看后台初始化进度。
[root@localhost ~]# ./storcli64
/c0/v0 show bgi
Controller = 0
Status = Success
Description = Noe
VD Operation Status :
===================
------------------------------------------------------
VD Operation Progress% Staus Estimated Time Left
------------------------------------------------------
0
BGI
3 In progress 53 Minutes
------------------------------------------------------
命令功能
查询和设置Cache的刷新周期。
命令格式
storcli64 /ccontroller_id show cacheflushint
storcli64 /ccontroller_id set cacheflushint time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
Cache的刷新周期 |
单位为s |
查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Cache的刷新周期为“10”。
domino:~# ./storcli64 /c0 set
cacheflushint=10
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10 sec
---------------------------
# 查询Cache的刷新周期。
domino:~# ./storcli64 /c0 show
cacheflushint
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10
---------------------------
命令功能
设置物理硬盘初始化功能,查询初始化进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
action |
要执行的操作 |
l show:查看初始化进度 l start:开始初始化 l stop:结束初始化 |
以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 初始化slot3硬盘,并查询初始化进度。
[root@localhost ~]# ./storcli64
/c0/e64/s3 start initialization
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
[root@localhost ~]# ./storcli64 /c0/e64/s3 show initialization
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e64/s3 0 In progress 0
Seconds
-----------------------------------------------------
[root@localhost ~]#
命令功能
开始、暂停、继续、停止RAID重构,并查询进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action rebuild
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
action |
要执行的操作 |
l start:开始重构 l show:查看重构进度 l pause:暂停重构 l resume:继续重构 l stop:停止重构 |
查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 手动开始重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
# 查看硬盘当前重构状态。
[root@localhost ~]# ./storcli64
/c0/e70/s7 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e70/s7 5 In progress 26
Minutes
-----------------------------------------------------
# 暂停硬盘重构进程。
[root@localhost ~]# ./storcli64
/c0/e70/s7 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Succeeded.
# 继续重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 resume rebuild
Controller = 0
Status = Success
Description = Resume Drive Rebuild Succeeded.
# 停止重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 stop rebuild
Controller = 0
Status = Success
Description = Stop Drive Rebuild Succeeded.
命令功能
开始、暂停、继续、停止回拷,并查询进度。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id start copyback target=target_enclosure_id:target_slot_id |
开始回拷。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id action copyback |
暂停、继续、查看、停止回拷。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
target_enclosure_id |
执行回拷的目标硬盘所在Enclosure的ID。 |
- |
target_slot_id |
执行回拷的目标物理硬盘槽位编号。 |
- |
action |
要执行的操作 |
l show:查看回拷进度 l pause:暂停回拷 l resume:继续回拷 l stop:停止回拷 |
查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 手动开始回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s7 start copyback target=70:3
Controller = 0
Status = Success
Description = Start Drive Copyback Succeeded.
# 查看硬盘当前回拷状态。
[root@localhost ~]# ./storcli64
/c0/e70/s3 show copyback
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e70/s3 17 In progress 16 Minutes
-----------------------------------------------------
# 暂停硬盘回拷进程。
[root@localhost ~]# ./storcli64
/c0/e70/s3 pause copyback
Controller = 0
Status = Success
Description = Pause Drive Copyback Succeeded.
# 继续回拷。
[root@localhost ~]# ./storcli64 /c0/e70/s3
resume copyback
Controller = 0
Status = Success
Description = Resume Drive Copyback Succeeded.
# 停止回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s3 stop copyback
Controller = 0
Status = Success
Description = Stop Drive Copyback Succeeded.
命令功能
查询、设置Smart扫描周期。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id set smartpollinterval=value |
设置Smart扫描周期。 |
storcli64 /ccontroller_id show smartpollinterval |
查询Smart扫描周期。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
value |
Smart扫描周期 |
单位为s。 |
查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Smart扫描周期为“60s”。
domino:~# ./storcli64 /c0 set
smartpollinterval=60
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------
命令功能
查询、设置一致性检查参数。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id[/vvd_id]show cc |
查询一致性检查参数。 |
storcli64 /ccontroller_id/vvd_id start cc force |
开始进行一致性检查。 |
storcli64 /ccontroller_id/vvd_id action cc |
暂停/停止/继续执行一致性检查。 |
storcli64 /ccontroller_id set consistencycheck|cc=[off|seq|conc] [delay=value] starttime=time excludevd=evd_id |
设置一致性自动检查参数。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
vd_id |
要操作的RAID的ID |
- |
action |
要执行的操作 |
l pause:暂停 l resume:继续执行 l stop:停止 |
cc |
将一致性检查设置为顺序模式或并行模式,或关闭一致性检查。 |
l off:关闭一致性检查 l seq:顺序模式 l conc:并行模式 |
value |
一致性检查周期 |
- |
time |
一致性检查起始时间 |
例如:2016/07/14 22 说明 起始时间单位为“时”。 |
evd_id |
不进行一致性检查的虚拟磁盘ID |
- |
以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
show命令中不带/vvd_id时,表示查询自动CC参数。
show命令中带/vvd_id时,表示查询CC进度。
使用实例
# 设置一致性自动检查参数。
domino:~# ./storcli64 /c0 set
cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------
Ctrl_Prop Value
------------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2016/07/14 22:00:00
CC ExcludeVD(0) Success
------------------------------------
# 查询CC进度。
domino:~# ./storcli64 /c0/v1 show
cc
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimited Time Left
-----------------------------------------------------------
0 CC - Not in progress -
-----------------------------------------------------------
命令功能
设置全局热备盘和局部热备盘。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive |
设置全局热备盘。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=<N|0,1,2..>] |
设置局部热备盘。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive |
删除热备盘。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
dgs |
硬盘组的ID |
l 不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘 l 0,1,2..:硬盘组ID |
以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置slot 3硬盘为全局热备盘。
domino:~# ./storcli64 /c0/e252/s3
add hotsparedrive
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
# 设置slot 3硬盘为vd0的局部热备盘。
domino:~# ./storcli64 /c0/e252/s3
add hotsparedrive dgs=0
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
命令功能
设置虚拟磁盘或物理硬盘为启动项。
命令格式
storcli64 /ccontroller_id/vvd_id set bootdrive=on
storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
vd_id |
待设置的虚拟磁盘的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置VD0为启动项。
[root@localhost ~]# ./storcli64
/c0/v0 set bootdrive=on
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
-----------------------------------------
VD Property Value Status ErrCd ErrMsg
-----------------------------------------
0 Boot Drive On Success 0 -
-----------------------------------------
[root@localhost ~]#
# 设置slot 7硬盘为启动项。
omino:~# ./storcli64 /c0/e252/s7
set bootdrive=on
Controller = 0
Status = Success
Description = Noe
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
BootDrive PD:252_7
-------------------
命令功能
设置硬盘状态。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
state |
要设置的硬盘状态 |
l online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。 l offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。 l jbod:通过该参数可以将硬盘设置为直通硬盘。 l good: − ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置; − JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。 l good:将硬盘设为空闲盘 |
force |
强制设置硬盘状态,为可选参数。 如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force。 |
- |
以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。
domino:~# ./storcli64 /c0/e0/s1
set good
Controller = 0
Status = Success
Description = Set Drive Good Succeeded.
# 设置slot 7硬盘为直通盘。
domino:~# ./storcli64 /c0/e252/s7
set JBOD
Controller = 0
Status = Success
Description = Set Drive JBOD Succeeded.
命令功能
设置RAID的读写策略。
命令格式
storcli64 /ccontroller_id/vraid_id set accesspolicy=mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
RAID读写策略 |
l rw:可读可写 l blocked:禁止访问 l ro:只读访问 |
以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置RAID读写策略为“rw”。
[root@localhost ~]# ./storcli64
/c0/v0 set accesspolicy=rw
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
----------------------------------------
VD Property Value Status ErrCd ErrMsg
----------------------------------------
0 AccPolicy RW Success 0 -
----------------------------------------
[root@localhost ~]#
命令功能
设置RAID组的I/O策略。
命令格式
storcli64 /ccontroller_id/vraid_id set iopolicy=mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
raid_id |
待设置的RAID的ID |
- |
mode |
设置RAID组的I/O策略 |
l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 |
以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。
使用实例
# 设置RAID组的I/O策略为“direct”。
[root@linux ~]# storcli64 /c0/v1 set
iopolicy=direct
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.14.0-115.el7a.0.1.aarch64
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
----------------------------------------
VD Property Value Status ErrCd ErrMsg
----------------------------------------
1 IoPolicy Direct Success 0 -
----------------------------------------
命令功能
设置RAID组成员盘的Cache状态。
命令格式
storcli64 /ccontroller_id/vvd_id set pdcache=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
vd_id |
RAID组的ID |
- |
action |
要执行的操作 |
l on:打开硬盘Cache l off:关闭硬盘Cache l default:将硬盘Cache设置为默认状态 |
以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 打开ID为0的RAID组的硬盘Cache。
./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 PdCac On
Success 0 -
---------------------------------------
命令功能
设置RAID组的Cache读写策略。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/vraid_id set wrcache=wrmode |
设置Cache写策略 |
storcli64 /ccontroller_id/vraid_id set rdcache=rdmode |
设置Cache读策略 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
raid_id |
待设置的RAID组的ID |
可以为all,表示所有RAID。 |
wrmode |
设置Cache写策略 |
l wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”策略。 |
rdmode |
设置Cache读策略 |
l ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。 l nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。 |
以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Cache读写模式为“wt”。
[root@localhost ~]# ./storcli64
/c0/v0 set wrcache=wt
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 wrCache WT Success 0 -
---------------------------------------
[root@localhost ~]#
命令功能
设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。
命令格式
storcli64 /ccontroller_id set eghs eug=state
storcli64 /ccontroller_id set eghs smarter=state
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
state |
紧急热备功能的启用状态 |
l on:启用 l off:禁用 |
查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。
[root@localhost ~]# ./storcli64 /c0
set eghs eug=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------
Ctrl_Prop Value
------------------
EmergencyUG ON
------------------
[root@localhost ~]# ./storcli64 /c0 set eghs smarter=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
EmergencySmarter ON
-----------------------
[root@localhost ~]#
命令功能
设置RAID前台初始化模式。
命令格式
storcli64 /ccontroller_id/vraid_id start mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
前台初始化模式 |
l init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。 l init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。 |
以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 快速初始化RAID。
[root@localhost ~]# ./storcli64
/c0/v4 start init
Controller = 0
Status = Success
Description = Start INIT Operation Success
命令功能
点亮和熄灭指定硬盘的定位指示灯。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。 |
slot_id |
物理硬盘槽位编号 |
可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。 |
action |
要执行的操作 |
l start:点亮硬盘的定位指示灯。 l stop:熄灭硬盘的定位指示灯。 |
以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 点亮slot 7硬盘的定位指示灯。
domino:~# ./storcli64 /c0/e252/s7
start locate
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.
命令功能
设置空闲硬盘和热备盘的省电模式。
命令格式
storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID。 |
– |
state |
省电模式的启用状态。 |
l on:启用 l off:禁用 |
disktype |
硬盘类型。 |
l 1:空闲硬盘 l 2:热备盘 |
time |
等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。 |
单位为minutes。 |
查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置空闲硬盘的省电模式。
[root@localhost ~]# ./storcli64 /c0
set ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------
Ctrl_Prop Value
------------------------
SpnDwnUncDrv Enabled
SpnDwnTm 30 minutes
------------------------
[root@localhost ~]#
命令功能
设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。
命令格式
storcli64 /ccontroller_id set action=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
action |
要设置的项目 |
l bgirate:后台初始化速率 l ccrate:一致性校验速率 l prrate:硬盘巡检速率 l rebuildrate:RAID重构速率 l reconrate:RAID扩容和迁移速率 |
value |
后台任务资源占用率 |
1~100 |
查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置硬盘巡检速率为“30%”。
[root@localhost ~]# ./storcli64
/c0 set prrate=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
Patrol Read Rate 30%
-----------------------
命令功能
设置控制卡BIOS在检测到异常时停止继续启动的功能。
命令格式
storcli64 /ccontroller_id set bios mode=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
action |
要执行的操作 |
l soe:控制卡BIOS在检测到异常时停止启动 l ie:忽略检测到的异常 |
查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启Stop on error功能。
[root@localhost ~]# ./storcli64 /c0
set bios mode=soe
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------
[root@localhost ~]#
命令功能
查询和清除PreservedCache数据。
命令格式
storcli64 /ccontroller_id show preservedcache
storcli64 /ccontroller_id/vvd_id delete preservedcache force
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
vd_id |
要操作的RAID的ID |
– |
以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查询PreservedCache。
domino:~# ./storcli64 /c0 show
preservedcache
Controller = 0
Status = Success
Description = No Virtual Drive has Preserved Cache Data.
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
命令格式
storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
vd_id |
要扩容的RAID的ID |
– |
capacity |
扩容后的容量 |
– |
expandarray |
当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。 |
– |
以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查询VD的可扩展容量。
[root@localhost ~]# storcli64 /c0/v1
show expansion
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
EXPANSION INFORMATION :
=====================
--------------------------------------------
VD Size OCE NoArrExp WithArrExp Status
--------------------------------------------
1 10.000 GB Y 3.627 TB 5.447 TB -
--------------------------------------------
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion
VD=Virtual Drive | NoArrExp - Without Array Expansion
如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。
# 将VD0的容量扩大“200GB”。
domino:~# ./storcli64 /c0/v0
expand size=200GB
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
0 100.0 GB 457.861 GB 200.0 GB 201.458 GB 44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %
RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
当增加新盘后,可进行RAID级别迁移。
命令格式
storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
vd_id |
要操作的RAID的ID |
– |
slot_id |
要加入RAID的新硬盘的槽位号 |
– |
level |
增加硬盘后RAID的级别 |
l 与原RAID级别相同时,该命令为扩大RAID容量。 l 与原RAID级别不同时,该命令为RAID级别迁移。 |
以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 在RAID 0中增加slot 2硬盘扩容。
domino:~# ./storcli64 /c0/v0 start
migrate type=r0 option=add drives=252:2
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 13 Minutes
-------------------------------------------------------
# 单盘RAID 0加盘迁移至RAID 1。
domino:~# ./storcli64 /c0/v0 start
migrate type=r1 option=add drives=252:3
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 14 Minutes
-------------------------------------------------------
命令功能
升级硬盘的FW。
命令格式
./storcli64 /ccontroller_id /eenclosure_id/sslot_id download src=FW_name.bin
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
FW_name |
硬盘FW的名称 |
– |
以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用实例
#升级硬盘FW。
[root@localhost ~]# ./storcli64
/c0/e64/s5 download src=5200_D1MU004_Releasefullconcatenatedbinary.bin
Starting microcode update .....please wait...
Flashing PD image ..... please wait...
Controller = 0
Status = Success
Description = Firmware Download succeeded.
Drive Firmware Download :
========================
--------------------------------------------------------------------------------
Drive Status ErrCd ErrMsg
--------------------------------------------------------------------------------
/c0/e64/s5 Success 0 -
--------------------------------------------------------------------------------
命令功能
手动重构RAID组。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row
storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
要加入Array的物理硬盘槽位编号 |
– |
DG |
硬盘发生故障的DG的ID |
– |
Arr |
硬盘发生故障的Array的ID |
– |
Row |
硬盘发生故障的Array的row number |
– |
以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
重构RAID分3个步骤进行:
1.通过./storcli64 /c0 show 命令,查询故障硬盘的DG、Arr和Row所对应的数字。
2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。
3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID。
使用实例
# 将硬盘加入RAID组。
[root@localhost ~]# storcli64
/c0/e252/s1 insert dg=0 array=0 row=0
Controller = 0
Status = Success
Description = Insert Drive Succeeded.
# 手动重构RAID。
[root@localhost ~]# storcli64
/c0/e252/s1 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
命令功能
收集和清除RAID控制卡的日志。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id show termlog [type=logtype] [logfile[=filename]] |
收集RAID控制卡的日志。 |
storcli64 /ccontroller_id delete termlog |
删除RAID控制卡的日志。 |
storcli64 /ccontroller_id show alilog [logfile[=filename]] |
收集控制卡属性信息、TTY日志和事件到指定文件。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID。 |
- |
logtype |
查询日志类型。 |
l config:查询TTY BBU缓存设置。 l content:查询日志信息。 缺省值:content。 |
filename |
文件名称,将保存日志到此文件。 |
可自定义文件名称,缺省时将默认保存至“StorSAS.log”文件中。 |
查询RAID控制卡ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 收集RAID控制卡的日志。
[root@localhost idriver]# ./storcli64
/c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19 6:48:11: C0:TTY History buffer cleared
Controller = 0
Status = Success
Description = None
# 删除RAID控制卡的日志。
[root@localhost idriver]# ./storcli64
/c0 delete termlog
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------------------
Ctrl Method Result
----------------------------
0 Delete Termlog deleted
----------------------------
命令功能
指导用户查看、导入或者清除RAID控制卡的外部配置。
命令格式
storcli64 /ccontroller_id/fall import preview
storcli64 /ccontroller_id/fall import
storcli64 /ccontroller_id/fall delete
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
使用指南
无
使用实例
# 查看RAID控制卡的外部配置。
[root@localhost ~]# ./storcli64
/c0/fall import preview
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
FOREIGN PREVIEW :
===============
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Total foreign drive groups = 0
# 删除RAID控制卡的外部配置。
[root@localhost ~]# ./storcli64
/c0/fall delete
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration
命令功能
介绍Snapdump相关操作。
命令格式
命令格式 |
说明 |
storcli64 /ccontroller_id show snapdump |
查询snapdump功能是否打开,是否有自动生成的snapdump文件。 |
storcli64 /ccontroller_id get snapdump id=all |
获取历史生成的snapdump文件。 |
storcli64 /ccontroller_id get snapdump |
获取历史生成的snapdump文件和当前再生成一个snapdump文件。 |
storcli64 /ccontroller_id set snapdump state=on|off |
打开和关闭snapdump功能。 |
storcli64 /ccontroller_id delete snapdump force |
删除历史snapdump日志功能。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID。 |
state=on|off |
Snapdump状态 |
on为开启,off为关闭。 |
使用指南
l Snapdump文件是一个日志文件,在一些RAID控制卡异常场景下可以自动生成的日志,也可以主动获取当前RAID控制卡的snapdump日志。
l 使用前可以先查询snapdump功能是否打开,是否有自动生成的snapdump文件,再去收集snapdump。
l 获取历史生成的snapdump文件和当前再生成一个snapdump文件会影响业务,建议离线使用。
l 打开和关闭snapdump功能,如果无法打开注意看提示,请确认当前RAID控制卡固件版本是否支持。
l 收集snapdump文件在当前命令执行目录下,文件格式为snapdump_**************.zip。
使用实例
#查询snapdump功能是否打开,是否有自动生成的snapdump文件。
[root@localhost ~]# storcli64 /c0
show snapdump
Controller = 0
Status = Success
Description = None
SnapDump Properties :
===================
----------------------------------
Ctrl_Prop
Value
----------------------------------
Snapdump
ON
Snapdump Save Count N/A
Snapdump Delay OCR 15
Snapdump properties Read-Write
Snapdump Current Count 2
----------------------------------
SnapDump Details :
================
----------------------------------------------
ID Snapdump Size Snapdump time OnDemand
----------------------------------------------
0 2649396 08-06-2021 07:23:43 Yes
1 2070406 08-07-2021 06:59:24 Yes
----------------------------------------------
#获取历史生成的snapdump文件。
[root@localhost ~]# storcli64 /c0 get
snapdump id=all
Controller = 0
Status = Success
Description = None
#获取历史生成的snapdump文件和当前再生成一个snapdump文件。
[root@localhost ~]# storcli64 /c0 get
snapdump
Controller = 0
Status = Success
Description = Download Support Log
#打开和关闭snapdump功能。
打开:
[root@localhost ~]# storcli64 /c0 set
snapdump state=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
Set Snapdump on
-------------------
关闭:
[root@localhost ~]# storcli64 /c0 set
snapdump state=off
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
Set Snapdump off
-------------------
#删除历史snapdump日志功能。
[root@localhost ~]# storcli64 /c0
delete snapdump force
Controller = 0
Status = Success
Description = Snapdump delete
命令功能
升级控制卡FW。
命令格式
命令格式 |
说明 |
storcli64 /cController_ID download file=xxx.rom [noverchk] |
升级控制卡FW。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
- |
xxx.rom |
固件包的名称 |
- |
使用指南
l 使用“noverchk”参数时将不检查固件包,降级版本时必须使用此参数。
l 升级完成后,需重新上下电服务器使固件包生效。
使用实例
#升级控制卡FW。
[root@localhost fw]# ./storcli64_arm
/c0 download file =FW4.rom noverchk
Download Completed.
Flashing image to adapter...
Controller = 0
Status = Success
Description = F/W Flash Completed.Please reboot the system for the changes to
take effect.
关于本章
主要介绍Avago SAS3408iMR RAID控制卡的外观、特性、以及配置方法。
本章节涉及的截图以5.060.01-2262 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。
Avago SAS3408iMR RAID 控制卡(以下简称Avago SAS3408iMR)是基于MegaRAID架构的8端口12Gbit/s SAS控制卡,并采用PCIex8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。
Avago SAS3408iMR用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。
Avago SAS3408iMR RAID控制卡不支持虚拟化场景,在安装操作系统前,需要在BIOS中将“Advanced > MISC Config”界面中的参数“Support Smmu”设置为“Disabled”。
Avago SAS3408iMR支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考11.2.13 硬盘直通。
Avago SAS3408iMR包含PCIe标卡与扣卡两种形态:
l Avago SAS3408iMR扣卡与主板通过1个Xcede连接器互连,与硬盘背板通过2个miniSAS线缆互连,结构如图11-1所示。
l Avago SAS3408iMR的PCIe标卡安装在服务器的PCIe槽位上,结构如图11-2所示。
1 |
系统错误灯 |
2 |
单板电源指示灯 |
3 |
系统心跳灯 |
4 |
Xcede连接器 |
5 |
miniSAS接口(port A,SFF-8643) |
6 |
miniSAS接口(port B,SFF-8643) |
Avago SAS3408iMR单板指示灯说明如表11-1所示。
指示灯 |
颜色 |
说明 |
单板电源指示灯 |
绿色 |
l 亮:电源正常。 l 灭:电源关闭或异常。 |
系统错误灯 |
红色 |
l 亮:系统运行异常。 l 灭:系统运行正常。 |
系统心跳灯 |
绿色 |
l 灯以2s周期闪烁:Avago SAS3408iMR RAID控制卡正在工作。 l 灯灭:Avago SAS3408iMR RAID控制卡未开始运行或FW运行异常。 |
AvagoSAS3408iMR支持硬盘以直通方式和加入RAID组两种方式混合使用,其中:
l 硬盘直通模式支持的最大硬盘数量为63。
l 直通模式的硬盘和加入RAID组中的硬盘数量最多为63。
l 所有RAID组包含的最大硬盘数量为32。
该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。
l 每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
l 最多支持32个虚拟磁盘(即配置界面中看到的“Virtual Drive”),每个虚拟磁盘最多包含32个硬盘。
AvagoSAS3408iMR支持的RAID类型及对应的硬盘个数如表11-2所示。
RAID级别 |
支持硬盘数 |
支持子组数 |
子组支持硬盘数 |
允许坏盘数 |
RAID 0 |
1~32 |
不涉及 |
不涉及 |
0 |
RAID 1 |
2~32(偶数) |
硬盘数÷2 |
||
RAID 10 |
4~32(偶数) |
2~8个RAID 1 |
2~16(偶数) |
子组数 |
l 不支持RAID 00级别。
l 子组数:子RAID的个数。
l RAID 10每个子组中最多允许1个坏盘。
l RAID 10包含的总硬盘数由子组数和子组支持的硬盘数共同决定。
Avago SAS3408iMR的热备功能分为两种:热备盘和紧急备份。
热备盘
对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l Global HSP:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
配置方法请参见11.4.1.1 配置全局热备盘。
l Dedicated HSP:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。
配置方法请参见11.4.1.2 配置局部热备盘。
热备盘容量需大于等于成员盘容量。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
l 用作热备盘的硬盘数据将会丢失。
紧急备份
使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
l 紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。
l 在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。
l 紧急备份的硬盘生效次序:相同类型硬盘 > 相同接口不同介质类型硬盘 > 不同接口相同介质类型硬盘 > 不同接口不同介质类型硬盘。
紧急备份有两种情况,对应了两种设置:
l 当成员盘fail时,空闲盘替代成员盘作为紧急备份。
l 当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。
配置方法请参见11.4.2 设置紧急热备功能。
热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。
l 请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。
l 插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。
l 人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考11.2.15 导入外部配置章节恢复RAID组,无需更换硬盘。
l 在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。
具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。
l 不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:
l RAID组状态保持“Optimal”不变。
l 热备盘状态由“Online”变为“Hot Spare”。
l 新加入硬盘状态由“Copyback/Copybacking”变为“Online”。
l 可使用命令行工具暂停或继续回拷。
l 若回拷时重启服务器,进度将保存。
l 局部热备以及全局热备,更换故障盘后,均会产生回拷。
条带化
当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数和数据传输率有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待,这时就是所谓的硬盘冲突。
条带化技术是一种自动将I/O负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。
影响条带化效果的因素有:
l 条带宽度:指同时可以并发读或写的条带数量。
这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。
在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。
l 条带大小:指写在每块硬盘上的条带数据块的大小。
分条
硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。
Avago SAS3408iMR不支持设置条带大小,默认为64KB。
VD初始化
创建虚拟磁盘后,需要将其初始化,使其可以被操作系统使用,且使具有冗余功能的虚拟磁盘中各成员盘的数据关系满足相应的RAID级别要求。
Avago SAS3408iMR提供了多种相应的初始化方式:
l 前台初始化:
− 快速初始化:Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。
− 完全初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。
l 后台初始化:对于RAID 1/RAID 10,如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。
l 一致性校验和后台初始化通常会对性能造成一定损失,直至该操作完成。
l 一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。
硬盘初始化
硬盘可执行的初始化包括:
l Initialize Drive:对前100MByte空间进行全写0操作。
l Drive Erase:对全部空间进行写0操作。
不支持停止SATA SSD的擦除和初始化过程。
RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见11.4.5 迁移RAID级别。
当前支持以下级别类型的迁移:
l RAID 0迁移到RAID 1
l RAID 1迁移到RAID 0
RAID迁移对硬盘数量的要求如表11-3所示。
迁移RAID级别 |
原始硬盘组硬盘数量 |
迁移后的硬盘组硬盘数量 |
RAID 0迁移 RAID 1 |
1~32 |
2~32(偶数) |
RAID 1迁移到RAID 0 |
2~32(偶数) |
2~32 |
Avago SAS3408iMR支持的容量扩展方式有两种:
l 通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。
详细操作方法可参考11.4.3 添加新硬盘到RAID。
l 通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。
详细操作方法可参考11.4.4 扩展Virtual Drives可用空间。
l 只有RAID 0、RAID1支持增加硬盘扩容。
l RAID 10不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。
l 当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见 11.7.2.24 通过增加成员盘可用容量扩容RAID。
安全擦除即将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘安全擦除功能:
l Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。
l Normal:对虚拟磁盘或硬盘进行三轮擦除动作。
l Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。
安全数据擦除过程中,主机无法访问该虚拟磁盘。
Avago SAS3408iMR支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。
硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。
硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。
硬盘巡检不能在参与以下任何操作的任何硬盘上运行:
l RAID热备修复
l 动态扩盘
l 完全初始化或后台初始化
l 一致性校验
S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T 监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据丢失。
RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描。扫描周期可通过S.M.A.R.T Polling设置,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。
RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。
默认情况下,硬盘节能功能处于开启状态。
当硬盘节能功能开启时,RAID控制卡下挂载的“Unconfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)需要唤醒正处于节能状态的硬盘,该操作会有一定程度的延迟。
硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。
Avago SAS3408iMR可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在Avago SAS3408iMR下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。
Avago SAS3408iMR支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
如果需要使能硬盘直通功能,请在图11-78所示界面的“JBOD Mode”参数进行设置。
JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
硬盘漫游是指在同一控制卡下移动物理硬盘。控制卡将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。
要使用硬盘漫游,按以下步骤操作:
1. 关闭操作系统。
2. 将服务器下电。
3. 将物理硬盘移动到背板所需位置。
4. 执行安全检查。确保正确插入物理硬盘。
5. 将服务器上电。
6. 控制卡从物理硬盘上的配置数据中检测到RAID配置。
如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。
此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。
Avago SAS3408iMR提供硬盘故障记录功能:
l 使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。
l 禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,Avago SAS3408iMR会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。
维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。
l 使能该功能后,当硬盘故障时,会点亮Fault指示灯。
l 禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。
默认情况下,Avago SAS3408iMR使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。
针对有冗余功能的RAID 1、RAID10,RAID控制卡可以对RAID组的硬盘数据进行一致性校验,对硬盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。
由于RAID 0不具备冗余性,因此不支持一致性校验。
建议每月至少进行一次一致性校验。
文档中描述的关于Avago SAS3408iMR的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器。
步骤 2 重启过程中,当出现如图11-3所示界面时,按“Delete”。
步骤 3 输入密码并按“Enter”。
进入如图11-4所示界面。
步骤 4 按“→”切换到“Advanced”页签,如图11-5所示。
如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见11.5.3 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy进行修复。
步骤 5 选择要操作的Avago SAS3408iMR控制卡,按“Enter”。
进入如图11-6和图11-7所示主界面,界面参数如表11-4所示。
参数 |
说明 |
Main Menu |
RAID控制卡主菜单,包含了RAID控制卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID控制卡当前工作状态。 |
Backplane |
背板个数。 |
BBU |
超级电容在位情况。 说明 Avago SAS3408iMR不支持超级电容,该选项显示为“No”。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的硬盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID控制卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 说明 仅当Avago SAS3408iMR存在外部配置时,会显示该选项。 |
Configure |
提供删除配置的接口。 |
Set Factory Defaults |
恢复出厂设置。 |
Update Firmware |
升级固件。 |
Silence Alarm |
板载蜂鸣器的使能状态。 说明 Avago SAS3408iMR未配置蜂鸣器,此项设置不起作用。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3408iMR支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见11.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见11.3.1 登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图11-8和图11-9所示,参数说明如表11-5所示。
图11-8 “Create Virtual Drive”界面(1)
图11-9 “Create Virtual Drive”界面(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照11.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,Avago SAS3408iMR当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 Avago SAS3408iMR当前不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 Avago SAS3408iMR当前不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 Avago SAS3408iMR当前不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图11-10所示,界面参数如表11-6所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 按表11-6所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 0支持的硬盘个数为1~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。
5. 选择“Apply Changes”并按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
步骤 4 配置虚拟磁盘属性。
按照表11-5所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照11.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 选择“Save Configuration”并按“Enter”。
弹出操作确认界面。
2. 通过“Enter”键把“Confirm”状态切换成“Enabled”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3408iMR支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见11.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见11.3.1 登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图11-11和图11-12所示,参数说明如表11-7所示。
图11-11 “Create Virtual Drive”界面(1)
图11-12 “Create Virtual Drive”界面(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照11.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,Avago SAS3408iMR当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 Avago SAS3408iMR当前不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 Avago SAS3408iMR当前不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 Avago SAS3408iMR当前不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图11-13所示,界面参数如表11-8所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 按表11-8所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 1支持的硬盘个数为2~32(偶数)。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。
5. 选择“Apply Changes”并按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
步骤 4 配置虚拟磁盘属性。
按照表11-7所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照11.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 选择“Save Configuration”并按“Enter”。
弹出操作确认界面。
2. 通过“Enter”键把“Confirm”状态切换成“Enabled”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3408iMR支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见11.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见11.3.1 登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图11-14和图11-15所示,参数说明如表11-9所示。
图11-14 Create Virtual Drive (1)
图11-15 “Create Virtual Drive” (2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照11.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,Avago SAS3408iMR当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 Avago SAS3408iMR当前不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 Avago SAS3408iMR当前不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 Avago SAS3408iMR当前不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图11-16所示,界面参数如表11-10所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 按表11-10所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 10支持2~8个Span,每个Span支持的硬盘数为2~16(偶数),且各个Span的硬盘数量必须保持一致。
l RAID 10支持的硬盘总数为4~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。
5. 选择“Apply Changes”按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如图11-17所示。
1. 选择“Add More Spans”并按“Enter”。
2. 选择“Select Drives”并按“Enter”。
3. 在打开的列表中选择第2个Span的成员盘。
各个Span的硬盘数量必须保持一致。
4. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
5. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID10至少需要创建2个Span,最多可以创建8个Span。
步骤 6 配置虚拟磁盘属性。
按照表11-9所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照11.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 选择“Save Configuration”并按“Enter”。
弹出操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 8 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”界面并按“Enter”。
显示当前存在的RAID信息。
----结束
同一台服务器配置了单个Avago SAS3408iMR卡或者多种芯片硬盘控制卡的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。
设置启动项的操作方法请参见BIOS参数参考的“设置启动设备”章节。
对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
Avago SAS3408RAID控制卡支持2种类型的热备盘:
l Global Hotspare:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
l Dedicated Hotspare:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
l 用作热备盘的硬盘数据将会丢失。
操作步骤
登录管理界面,具体操作方法请参见11.3.1 登录管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图11-18所示。
步骤 2 配置全局热备盘。
1. 将“Operation”设置为“Assign Global Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
显示The operation has been performed successfully。
3. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作步骤
当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
登录管理界面,具体操作方法请参见11.3.1 登录管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图11-19所示。
步骤 2 配置局部热备盘。
1. 将“Operation”设置为“Assign Dedicated Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
打开当前存在的虚拟磁盘列表。
3. 选择要关联的虚拟磁盘并按“Enter”。
4. 选择“OK”按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”,完成配置并返回上级界面。
----结束
操作场景
当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。
操作步骤
登录管理界面,具体操作方法请参见11.3.1 登录管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图11-20所示。
步骤 2 删除热备盘。
1. 将“Operation”设置为“Unassign Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作步骤
登录管理界面,具体操作方法请参见11.3.1 登录管理界面。
步骤 1 进入“Advanced Controller Properties”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
3. 选择“Advanced Controller Properties”并按“Enter”。
步骤 2 设置紧急热备。
1. 选择“Spare”并按“Enter”。
2. 将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如图11-21所示。
3. 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
----结束
操作场景
l 只有RAID 0、RAID 1支持增加硬盘扩容。
l RAID 10不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
对系统的影响
增加硬盘扩容过程中,如果出现硬盘故障,会导致:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行增加硬盘扩容操作。
必备事项
前提条件
添加硬盘扩容之前,需具备如下条件:
l 服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。
l 已通过远程虚拟控制台登录到服务器的实时操作桌面。
l 已登录管理界面,具体方法请参见11.3.1 登录管理界面。
数据
操作之前建议先备份数据。
操作步骤
进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”。
进入虚拟磁盘选项界面,如图11-22所示。
步骤 2 添加新硬盘。
1. 选择要进行扩容的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图11-23所示。
3. 选择“Reconfigure Virtual Drives”,并按“Enter”
4. 选择“Go”并按“Enter”。
5. 选择要扩容的RAID级别。
增加硬盘扩容时,请保证该处的RAID级别与原级别一致。
6. 选择“Choose the Operation”,并按“Enter”。
进入硬盘选择界面,如图11-24所示。
7. 选择要增加的硬盘,并按“Enter”。
l 硬盘状态为“【×】”时表示该硬盘已选择。
l 增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。
l RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。
8. 选择“Apply Changes”并按“Enter”。
进入操作确认界面。
9. 选择“Confirm”并按“Enter”。
10. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
11. 选择“OK”并按“Enter”。
返回到如图11-25所示界面。
12. 选择“Start Operation”并按“Enter”。
显示操作成功。
13. 选择“OK”并按“Enter”。
重新进入虚拟磁盘选项界面,验证扩容结果,如图11-26所示,表示RAID正在进行扩容。
图11-26 Reconfigure Virtual Drives
扩容属于后台动作,在HII界面只能触发而不能正式开始扩容,所以扩容的进度条一直显示为0%。当进入OS后,扩容才会开始进行。
----结束
操作场景
在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见11.3.1 登录管理界面。
步骤 1 进入要操作的虚拟磁盘界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图11-27所示。
图11-27 Virtual Drive Management
步骤 2 扩容虚拟磁盘。
1. 将“Operation”设置为“Expand Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入虚拟磁盘扩容界面,如图11-28界面所示,界面参数如表11-11所示。
参数 |
参数说明 |
Current Capacity |
虚拟磁盘当前容量。 |
Available Capacity |
可用于扩展的容量。 |
Enter a Percentage of Available Capacity |
输入扩容比例。 |
Capacity of Virtual Drive after Expansion |
扩容后虚拟磁盘容量。 |
3. 设置扩容百分比。
4. 选择“OK”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作场景
随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。
在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。
对系统的影响
RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行RAID级别迁移操作。
必备事项
前提条件
迁移RAID级别之前,需具备如下条件:
l 已通过远程虚拟控制台登录到服务器的实时操作桌面。
l 当前存在的硬盘个数满足目标RAID级别要求。
l 已登录管理界面,具体方法请参见11.3.1 登录管理界面。
Avago SAS3408iMR RAID控制卡支持以下级别类型的迁移:
l RAID 0迁移到RAID 1
l RAID 1迁移到RAID 0
RAID迁移对硬盘数量的要求如表11-3所示。
l 当RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
l 迁移只支持增加与RAID组成员盘同类型同规格的硬盘。
l 为防止数据丢失,请在该操作之前备份当前RAID组的数据。
l 只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。
l 迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。
操作步骤
进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”并按“Enter”。
进入虚拟磁盘选项界面,如图11-29所示。
步骤 2 选择RAID迁移的目标级别。
下面以将RAID 1迁移到RAID 0为例进行说明。
1. 选择要进行迁移的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图11-30所示。
3. 选择“Reconfigure Virtual Drives”,并按“Enter”。
4. 选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如图11-31所示。不设置时默认与原RAID组配置一致。
5. 选择“Go”,并按“Enter”。
进入RAID配置界面,如图11-32所示。
图11-32 Reconfigure Virtual Drives
6. 选择“New RAID Level”并按“Enter”。
打开RAID迁移的目标级别选择窗口,如图11-33所示。
7. 选择“RAID 0”并按“Enter”。
步骤 3 添加硬盘。
1. 选择“Choose the operation”并按“Enter”。
打开硬盘选择窗口。
2. 选择要增加的硬盘并按“Enter”。
RAID迁移对硬盘数量的要求请参见表11-3。
3. 选择“Apply Changes”并按“Enter”。
弹出操作确认会话框。
4. 选择“Confirm”并按“Enter”。
5. 选择“Yes”并按“Enter”。
提示操作成功。
6. 按“Esc”返回图11-32界面。
步骤 4 RAID级别迁移。
1. 选择“Start Operation”并按“Enter”。
提示操作成功。
2. 选择“OK”并按“Enter”。
步骤 5 查看迁移结果。
1. 进入Virtual Drive Management界面,检查迁移结果,如图11-34所示,表示RAID正在进行迁移。
l 迁移过程中若重启服务器,该任务将在重启后继续进行。
l 迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。
2. 选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 1”变成“RAID 0”,且“Status”状态显示为“Optimal”时,表示RAID迁移成功。
----结束
迁移属于后台动作,在HII界面只能触发而不能正式开始,所以迁移的进度条一直显示为0%。当进入OS后,迁移才会开始进行。
操作场景
RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见11.3.1 登录管理界面。
步骤 1 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图11-35所示。
图11-35 Virtual Drive Management
步骤 2 删除虚拟磁盘。
1. 将“Operation”设置为“Delete Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
l 当出现硬盘离线情况时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。
l rebuild属于后台动作,在HII界面只能触发而不能正式开始rebuild,所以rebuild的进度条一直显示为0%。当进入OS后,rebuild才会开始进行。
重构RAID(含外部配置)
在“Main Menu”界面中选择“Drive Management”,并按“Enter”。
步骤 1 选择要进行重构的硬盘,并按“Enter”。
步骤 2 选择“Operation”并按“Enter”。
显示该硬盘的操作菜单,如图11-36所示。
步骤 3 选择“Make Unconfigured Good”并按“Enter”。
步骤 4 选择“Go”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 选择“OK”并按“Enter”。
硬盘状态变为“(Foreign)Unconfigured Good”。
步骤 6 导入外部配置,具体操作请参见11.4.9 导入和清除外部配置。
RAID组开始进行重构。
步骤 7 重新进入该硬盘操作界面可查看重构进度。
----结束
在“Main Menu”界面中选择“Drive Management”,并按“Enter”。
步骤 1 选择要进行重构的硬盘,并按“Enter”。
步骤 2 选择“Operation”并按“Enter”。
显示该硬盘的操作菜单。
步骤 3 选择“Replace Missing Drive”并按“Enter”。
步骤 4 选择“Go”并按“Enter”。
进入“Replace Missing Drive”界面,如图11-37所示。
图11-37 “Replace Missing Drive”
步骤 5 选择“Drive Group”并按“Enter”。
选择需替换硬盘的RAID。
步骤 6 选择“Row Index”并按“Enter”。
选择需要替换的硬盘索引,推荐使用默认配置。
步骤 7 选择“Replace Drive”并按“Enter”。
提示“The operation has been performed successfully”。
步骤 8 选择“OK”并按“Enter”完成硬盘替换。
步骤 9 重新进入该硬盘操作界面,选择“Operation”并按“Enter”。
显示该硬盘的操作菜单,如图11-38所示。
步骤 10 选择“Rebuild”并按“Enter”。
步骤 11 选择“Go”并按“Enter”。
提示“The operation has been started successfully...”,硬盘开始重构。
步骤 12 重新进入该硬盘操作界面可查看重构进度。
----结束
操作场景
用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。
操作步骤
登录管理界面,具体操作方法请参见11.3.1 登录管理界面。
步骤 1 进入“Controller Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
显示RAID控制卡基本信息,如图11-39所示,参数说明如表11-12所示。
参数 |
参数说明 |
Product Name |
RAID控制卡名称。 |
Serial Number |
RAID控制卡序列号。 |
Controller Status |
RAID控制卡的工作状态。 |
Select Boot Device |
当前启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见11.3.5 配置启动项。 |
PCI ID |
RAID控制卡的PCI ID。 |
PCI Slot Number |
RAID控制卡的PCI槽位号。 |
Package Version |
RAID控制卡的套件版本。 |
Firmware Version |
RAID控制卡的固件版本号。 |
NVDATA Version |
RAID控制卡配置信息的版本号。 |
Connector Count |
RAID控制卡与主板的接口个数。 |
Drive Count |
RAID控制卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID控制卡下已有虚拟磁盘数量。 |
Advanced Controller Management |
更多的控制卡操作。 |
Advanced Controller Properties |
查看和修改控制卡的高级属性。 |
步骤 2 查看控制卡高级属性。
选择“Advanced Controller Properties”并按“Enter”。
进入控制卡高级属性界面,如图11-40所示,参数说明如表11-13所示。
在该界面下,可查看并修改RAID控制卡的高级属性。
图11-40 Advanced Controller Properties界面(1)
图11-41 Advanced Controller Properties界面(2)
参数 |
说明 |
Profile Management |
管理快速RAID。 |
Patrol Read |
系统巡检。 |
Power Save Setting |
设置硬盘休眠。 |
Spare |
设置控制卡热备状态。 |
Task Rates |
设置各种任务占用系统比率。 |
Alarm Control |
Avago SAS3408iMR控制卡卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。 默认为“Stop On Errors”。 |
Controller BIOS |
控制卡BIOS的使能情况。 |
ROC Temperature |
控制卡温度。 |
Shield State Supported |
是否支持暂停I/O,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
硬盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Maintain Drive Fail History |
表示是否使能硬盘故障记录功能,默认为使能状态。 说明 l 该参数设置为“Disabled”时: l 当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。 l 新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。 l 该参数设置为“Enabled”时: l 新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。 l 新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见11.4.9 导入和清除外部配置章节。 |
SMART Polling |
SMART轮巡检测周期。默认值为“300”。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性校验。 |
JBOD Mode |
硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。 |
Drive Detection Type |
随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制卡属性。 可用选项为: l Disabled l High Latency l Aggressive l Default |
Drive Corrective Action |
随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致I/O延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。 l Disabled:禁用该功能 l Enabled:开启该功能 |
Drive Error Threshold |
通过该选项设置适当的控制卡属性。 l Every 8 hours l Every1 hours l Every 15 mins l Every 5 mins |
Large IO Support |
启用或禁用大型I/O支持功能。 |
Apply Changes |
保存配置。 |
----结束
操作场景
l 服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。
l 新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。
l 如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!
l 为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。
l 当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。
导入外部配置
登录管理界面,具体操作方法请参见11.3.1 登录管理界面。
步骤 1 在主界面中“Main Menu”并按“Enter”。
步骤 2 选择“Configuration Management”并按“Enter”。
步骤 3 选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。
进入外部配置管理界面,如图11-42所示。
图11-42 Manage Foreign Configuration
步骤 4 选择“Preview Foreign Configuration”并按“Enter”。
进入外部配置管理界面,如图11-43所示。
图11-43 Preview Foreign Configuration
步骤 5 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 6 选择“Confirm”并按“Enter”。
步骤 7 选择“Yes”,并按“Enter”。
提示The operation has been performed successfully。
步骤 8 选择“OK”并按“Enter”完成配置返回上级界面。
----结束
清除外部配置
登录管理界面,具体操作方法请参见11.3.1 登录管理界面。
步骤 1 在主界面中选择“Main Menu”并按“Enter”。
步骤 2 选择“Configuration Management”并按“Enter”。
步骤 3 选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。
进入外部配置管理界面,如图11-44所示。
图11-44 Manage Foreign Configuration
步骤 4 选择“Preview Foreign Configuration”并按“Enter”。
进入外部配置管理界面,如图11-45所示。
图11-45 Preview Foreign Configuration
步骤 5 选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 6 选择“Confirm”并按“Enter”。
步骤 7 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 8 选择“OK”并按“Enter”完成配置返回上级界面。
----结束
Avago SAS3408iMR支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
l 开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。
l JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
登录管理界面,具体操作方法请参见11.3.1 登录管理界面。
步骤 1 依次进入Main Menu>Controller Management>Advanced Controller Properties界面,如图11-46所示。
图11-46 Advanced Controller Properties
步骤 2 选择“JBOD Mode”并按Enter。
步骤 3 选择“Enabled”并按“Enter”。
步骤 4 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 选择“OK”并按“Enter”完成配置。
----结束
该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID1存在一个VD为例(如图11-47所示),详细操作方法如下:
图11-47 Virtual Drive Management
按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如图11-48所示。
步骤 2 将“Select RAID Level”设置为“RAID1”。
步骤 3 将“Select Drives From”设置为“Free Capacity”,如图11-49所示。
步骤 4 选择“Select Drive Groups”并按“Enter”。
显示当前存在的RAID组(Drive Group),如图11-50所示。
步骤 5 选择要创建多个VD的RAID组,并按“Enter”,如图11-51所示。
步骤 6 选择“Apply Changes”并按“Enter”。
提示操作成功。
步骤 7 选择“OK”并按“Enter”返回VD配置界面,如图11-52所示,参数说明如表11-14所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drive Groups |
选择硬盘组。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照11.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,Avago SAS3408iMR当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 Avago SAS3408iMR当前不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 Avago SAS3408iMR当前不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 Avago SAS3408iMR当前不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 8 按照表11-14所述配置VD的相关属性。
步骤 9 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
步骤 10 选择“Confirm”并按“Enter”。
步骤 11 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
可进入Virtual Drive Management界面,查看当前存在的所有VD,如图11-53所示。
图11-53 Virtual Drive Management
----结束
每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤12。
查询RAID控制卡固件版本的方法有如下几种:
l 在iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。
l 服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见11.7.2.1 查询RAID控制卡配置信息。
回显信息中的“FW Version”字段即为RAID控制卡的固件版本。
l 在RAID控制卡管理界面进行查询,具体方法为:
a. 登录RAID控制卡的管理界面,具体操作请参见11.3.1 登录管理界面。
b. 在主界面中选择“Main Menu”并按“Enter”。
进入“Main Menu”页面,如图11-54所示。
c. 选择“Controller Management”并按“Enter”。
显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如图11-55所示。
图11-55 Controller Management界面
介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。
更多故障案例请联系技术支持获取。
问题描述
当服务器出现如下现象时,说明硬盘故障。
l 硬盘故障指示灯常亮。
l 服务器开机状态下,硬盘指示灯不亮。
l 服务器上报硬盘故障告警。
处理方法
JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
l 通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。
l 通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。
l 通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考11.6.2.4 Drive Management。
l 通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
步骤 1 更换新硬盘。
l 更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考11.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。
l 若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在表11-2查看RAID组支持的最大故障硬盘数量。
l 更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。
l 新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。
拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:
l 若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。
l 若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成。新插入硬盘后确认rebuild操作是否已经启动,如rebuild操作未启动,需手动启动硬盘重构,操作请参见重构RAID(无外部配置)。
如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。
l 若故障硬盘为直通盘,则直接更换即可。
l 若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。
− UEFI模式下创建RAID0的方法请参见11.3.2 创建RAID 0。
− 通过命令行方式创建RAID0的方法请参见11.7.2.2 创建和删除RAID。
----结束
问题描述
正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
但当RAID控制卡未设置紧急热备时,成员盘状态显示为fail或prefail时,可使用以下方法处理。
处理方法
使用StorCLI工具,具体操作请参考11.7.1 下载和安装StorCLI工具。
步骤 1 执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考11.7.2.15 设置硬盘状态。
storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]
l controller_id:硬盘所在RAID控制卡的ID
l enclosure_id:硬盘所在Enclosure的ID
l slot_id:物理硬盘槽位ID
步骤 2 更换离线硬盘。
步骤 3 RAID组自动执行重构。
等待重构完成。
----结束
问题描述
硬盘状态显示为Unconfigured Bad或UBad。
处理方法
使用StorCLI工具,具体操作请参见11.7.1 下载和安装StorCLI工具。
步骤 1 执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见11.7.2.15 设置硬盘状态。
storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]
l controller_id:硬盘所在RAID控制卡的ID
l enclosure_id:硬盘所在Enclosure的ID
l slot_id:物理硬盘槽位ID
步骤 2 重新查看硬盘状态是否更改为Unconfigured Good或Ugood。具体操作请参见11.6.2.4 Drive Management界面或11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤4。
步骤 3 查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见11.4.9 导入和清除外部配置或11.7.2.28 查看/导入/清除外部配置。
l 问题解决 => 处理完毕。
l 问题未解决 => 联系技术支持处理。
----结束
问题描述
当服务器出现如下现象时,说明控制卡故障。
l 数据无法写入控制卡控制的硬盘。
l 服务器上报控制卡故障告警。
处理方法
登录iBMC Web界面查看告警信息。
步骤 1 根据告警信息,参考iBMC告警处理。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤3
步骤 3 查询兼容性查询助手或者联系技术支持处理。
----结束
问题描述
正常情况下,当服务器配置了RAID控制卡且RAID控制卡状态正常时,进入BIOS的Advanced页签后,会显示RAID控制卡的信息,如图11-56所示。
如果Advanced页签不显示RAID控制卡的信息,如图11-57所示,则:
l 如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:
− 如果不显示驱动打印信息,可尝试下电后重新拔插RAID控制卡再上电、下电后更换RAID控制卡再上电或者联系技术支持。
− 如果显示“AVAGO EFI SAS Driver SAS3408”,则可以通过本章节的指导修复RAID控制卡。
l 如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,则可以通过本章节的指导修复RAID控制卡;如果不显示,可尝试下电后重新拔插RAID控制卡再上电、下电更换RAID控制卡再上电或者联系技术支持。
处理方法
l 当BIOS的版本为0.98之前版本(不包含0.98版本)时:
a. 在Advanced页签选择“Driver Health Manager”并按Enter。
进入“Driver Health Manager”界面。
b. 选择要进行修复的RAID控制卡驱动,如“AVAGO EFI SAS Driver SAS3408”,并按“Enter”。
进入“Critical Message”界面。
c. 查看“Critical Message”界面的打印信息:
n 显示“The following VDs have missing disks. ”=> 请参见11.5.3.1 The following VDs have missing disks。
n 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见11.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
l 当BIOS的版本为0.98及以上版本时:
a. 在“Advanced”页签选择“Some drivers are not healthy”。
进入健康状态查询界面。
b. 选择“Repair the whole platform”,并按“Enter”。
进入“Critical Message”界面。
c. 查看“Critical Message”界面的打印信息。
n 显示“The following VDs have missing disks. ”=> 请参见11.5.3.1 The following VDs have missing disks。
n 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见11.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见0RAID控制卡启动中出现的常见的错误消息及处理方法。
问题描述
如图11-58所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。
处理方法
修复RAID控制卡。
1. 在图11-58中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
2. 输入“C”并按“Enter”。
3. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
4. 输入“y”并按“Enter”。
提示“Critical Message handling completed. Please exit”。修复完成。
步骤 1 重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图11-59所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”
处理建议
该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:
l 下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。
l 忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:
a. 在图11-59中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
b. 输入“c”并按“Enter”。
c. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
d. 输入“y”并按“Enter”。
提示Critical Message handling completed. Please exit。
e. 按“Esc”退出当前界面。
弹出确认保存配置会话框,如图11-60所示。
f. 按“Y”保存配置,操作完成。
g. 按Esc键返回“Device Manager”界面。
h. 选择3408iMR RAID控制卡,并按“Enter”,进入RAID控制卡管理界面。
问题描述
如图11-61所示,进入“Driver Healthy Protocol Utility”界面后,显示“Disabling writes to flash as the flash part has gone bad”。
处理方法
将服务器下电。
步骤 1 更换RAID控制卡。
步骤 2 将服务器上电,导入外部配置恢复原来的RAID配置,请参见11.4.9 导入和清除外部配置或11.7.2.28 查看/导入/清除外部配置。
检查提示是否清除。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
硬盘响应命令超时,控制卡会对硬盘进行复位。3次复位后尚未恢复时将可能耗尽控制卡TM(Task Management)资源,触发Fatal error,此时会通过OCR(Online Controller Reset)自愈恢复,期间将有短时间业务中断(约30s~60s),控制卡复位后会完成踢盘,将故障硬盘置为Ubad状态。
控制卡自愈恢复,需要开启OCR开关。
触发条件
当下发到硬盘的I/O出现超时不响应的情况时,RAID控制卡会通过reset硬盘来恢复,正常情况下,硬盘会重新接入或者多次reset之后会进行踢盘。
当出现reset之后硬盘仍然无法响应RAID控制卡指令且无法踢盘时,RAID控制卡会再次reset进行复位,每次reset会占用RAID控制卡资源,短时间内多次reset会导致RAID控制卡资源耗尽,该场景下,RAID控制卡会通过重新加载FW进行恢复。
该机制为此类卡的正常处理机制,由于架构限制,无法进行优化。
识别方法
l 已安装OS:
当遇到短时间业务中断,恢复后查看有被置为Ubad状态的硬盘时,可以查看控制卡日志,搜索dm.c并查看其发生时间,如与业务中断时间节点接近,即可断定为触发了该机制。
注意控制卡与OS时间差。
l 未安装OS:
无OS时,触发该机制的操作为:从“Advanced”页签进入控制卡界面。若触发该机制,进入控制卡卡操作界面时将会卡住,无法恢复。
处理方法
定位故障硬盘。
l 已安装OS:
− 如确认触发了该机制并且已经完成了踢盘,需要更换Ubad状态的硬盘。
− 如无Ubad状态的硬盘,查看日志并搜索“indicates critical condition”,目标行的“element xx indicates critical condition”中,“xx”即为问题硬盘的槽位号。
已安装OS,但是进入“Advanced”页签的控制卡操作界面卡住,需要重新上下电进入OS,按照以上方式定位故障硬盘。
l 未安装OS:
系统未安装OS,出现该异常时,保留预安装OS RAID组数目的硬盘,将其他硬盘拔出并记录槽位号,如成功安装OS进入系统后,按照已安装OS的操作来确认问题硬盘。
步骤 1 更换故障硬盘。
l 是 => 处理完毕。
l 否 => 请联系技术支持。
----结束
问题描述
RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD mode将RAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如图11-62所示,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。
当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。
处理方法
(可选)登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面。
步骤 1 依次进入Main Menu>Controller Management>Advanced Controller Management界面,如图11-63所示。
图11-63 Advanced Controller Management界面
步骤 2 选择“Switch to RAID mode”并按“Enter”。
提示操作成功,如图11-64所示。
步骤 3 选择“OK”并按“Enter”。
返回到“Advanced Controller Management”界面,显示正在切换模式,如图11-65所示。
图11-65 Advanced Controller Management界面
步骤 4 按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面。
步骤 5 依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如图11-66所示。
图11-66 Advanced Controller Management界面
l 是 => 处理完毕。
l 否 => 请联系技术支持。
----结束
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器。
步骤 2 重启过程中,当出现如图11-67所示界面时,按“Delete”。
步骤 3 输入密码并按“Enter”。
进入如图11-68所示界面。
步骤 4 按“→”切换到“Advanced”页签,如图11-69所示。
如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见11.5.3 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy进行修复。
步骤 5 选择要操作的Avago SAS3408iMR控制卡,按“Enter”。
进入如图11-70和图11-71所示主界面,界面参数如表11-15所示。
参数 |
说明 |
Main Menu |
RAID控制卡主菜单,包含了RAID控制卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID控制卡当前工作状态。 |
Backplane |
背板个数。 |
BBU |
超级电容在位情况。 说明 Avago SAS3408iMR不支持超级电容,该选项显示为“No”。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的硬盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID控制卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 说明 仅当Avago SAS3408iMR存在外部配置时,会显示该选项。 |
Configure |
提供删除配置的接口。 |
Set Factory Defaults |
恢复出厂设置。 |
Update Firmware |
升级固件。 |
Silence Alarm |
板载蜂鸣器的使能状态。 说明 Avago SAS3408iMR未配置蜂鸣器,此项设置不起作用。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。
界面介绍
“Main Menu”界面如图11-72,参数说明如表11-16所示。
参数 |
参数说明 |
Configuration Management |
配置管理RAID。 |
Controller Management |
管理RAID控制卡。 |
Virtual Drive Management |
管理虚拟磁盘。 |
Drive Management |
管理硬盘。 |
Hardware Components |
查询部件信息。 |
可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。
界面介绍
“Configuration Management”界面如图11-73,参数说明如表11-17所示。
图11-73 Configuration Management
参数 |
参数说明 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。 |
View Drive Group Properties |
查看硬盘组属性。 当存在硬盘组时会显示该参数。 |
Clear Configuration |
清除配置。 |
Manage Foreign Configuration |
管理外部配置。 当存在外部配置时会显示该参数。 |
快速创建RAID
在图11-73中选择“Create Profile Based Virtual Drive”并按“Enter”。
步骤 1 通过“↑”、“↓”选择要创建的RAID(以“Generic RAID 1”为例)并按“Enter”。
打开RAID配置界面,如图11-74,参数说明如表11-18所示。
参数 |
参数说明 |
Drive Selection Criteria |
系统自动选择的成员盘。 |
Virtual Drive Name |
系统自定义的RAID组名称。 |
RAID Level |
当前配置的RAID组的级别。 |
Virtual Drive Size |
RAID组的容量。 |
Power Save Mode |
数据掉电保护模式。 |
Strip Size |
RAID组扇区大小。 |
Read Policy |
RAID组的数据读策略。 |
Write Policy |
RAID组的数据写策略。 |
IO Policy |
RAID组I/O策略。 |
Access Policy |
数据读写的策略。 |
Drive Cache |
硬盘Cache策略。 |
Create Dedicated Hot Spare |
是否为RAID组创建局部热备盘。 |
Save Configuration |
保存当前配置。 |
步骤 2 按表11-18所示查看或配置相关参数。
步骤 3 选择“Save Configuration”并按“Enter”。
弹出操作确认界面。
步骤 4 选择“Confirm”并按“Enter”。
步骤 5 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 6 选择“OK”并按“Enter”完成配置。
----结束
查看虚拟磁盘属性
在图11-73中选择“View Drive Group Properties”并按“Enter”。
图11-75 View Drive Group Properties
参数 |
参数说明 |
Drive Group |
硬盘组名称。 |
Capacity Allocation |
硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。 |
该界面提供控制卡管理接口,可查看并修改控制卡的详细参数。
界面介绍
“Controller Management”界面如图11-76,参数说明如表11-20所示。
参数 |
参数说明 |
Product Name |
RAID控制卡名称。 |
Serial Number |
RAID控制卡序列号。 |
Controller Status |
RAID控制卡的工作状态。 |
Select Boot Device |
当前启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见11.3.5 配置启动项。 |
PCI ID |
RAID控制卡的PCI ID。 |
PCI Slot Number |
RAID控制卡的PCI槽位号。 |
Package Version |
RAID控制卡的套件版本。 |
Firmware Version |
RAID控制卡的固件版本号。 |
NVDATA Version |
RAID控制卡配置信息的版本号。 |
Connector Count |
RAID控制卡与主板的接口个数。 |
Drive Count |
RAID控制卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID控制卡下已有虚拟磁盘数量。 |
Advanced Controller Management |
更多的控制卡操作。 |
Advanced Controller Properties |
查看和修改控制卡的高级属性。 |
查看并修改控制卡高级属性
在图11-76中选择“Advanced Controller Properties”并按“Enter”。
界面如图11-77和图11-78所示,界面中参数说明如表11-21所示。
图11-77 Advanced Controller Properties界面(1)
图11-78 Advanced Controller Properties界面(2)
参数 |
说明 |
Profile Management |
管理快速RAID。 |
Patrol Read |
系统巡检。 |
Power Save Setting |
设置硬盘休眠。 |
Spare |
设置控制卡热备状态。 |
Task Rates |
设置各种任务占用系统比率。 |
Alarm Control |
Avago SAS3408iMR控制卡卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。 默认为“Stop On Errors”。 |
Controller BIOS |
控制卡BIOS的使能情况。 |
ROC Temperature |
控制卡温度。 |
Shield State Supported |
是否支持暂停I/O,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
硬盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Maintain Drive Fail History |
表示是否使能硬盘故障记录功能,默认为使能状态。 说明 l 该参数设置为“Disabled”时: l 当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。 l 新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。 l 该参数设置为“Enabled”时: l 新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。 l 新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见11.4.9 导入和清除外部配置章节。 |
SMART Polling |
SMART轮巡检测周期。默认值为“300”。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性校验。 |
JBOD Mode |
硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。 |
Drive Detection Type |
随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制卡属性。 可用选项为: l Disabled l High Latency l Aggressive l Default |
Drive Corrective Action |
随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致I/O延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。 l Disabled:禁用该功能 l Enabled:开启该功能 |
Drive Error Threshold |
通过该选项设置适当的控制卡属性。 l Every 8 hours l Every1 hours l Every 15 mins l Every 5 mins |
Large IO Support |
启用或禁用大型I/O支持功能。 |
Apply Changes |
保存配置。 |
步骤 2 在图11-77中选择“Task Rates”并按“Enter”。界面如图11-79所示,界面中参数说明如表11-22所示。
参数 |
说明 |
Background Initialization <BGI> Rate |
设置执行后台初始化的速率。 说明 数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Consistency Check Rate |
设置执行一致性校验的速率。 说明 数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Patrol Read Rate |
设置执行巡检读取的速率。 说明 数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Rebuild Rate |
设置硬盘发生故障时在新硬盘上执行重构数据的速率。 说明 数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Reconstruction Rate |
设置执行RAID级别迁移或在线容量扩展时重构数据的速率。 说明 数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Apply Changes |
保存配置。 |
步骤 3 按照表11-21所述修改控制卡的高级属性参数。
步骤 4 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 选择“OK”并按“Enter”完成配置。
----结束
该界面提供虚拟磁盘的查询和管理接口。
界面介绍
“Virtual Drive Management”界面如图11-80,显示虚拟磁盘列表。
选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如图11-81所示,参数说明如表11-23所示。
图11-81 Virtual Drive Management
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:定位虚拟磁盘的所有硬盘。 l Stop Locate:取消定位。 l Delete Virtual Drive:删除虚拟磁盘。 l Expand Virtual Drive:扩展虚拟磁盘容量。 l Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。 l Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。 l Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。 l Fast Initialization:快速初始化虚拟磁盘。 l Slow Initialization:安全初始化虚拟磁盘。 l Check Consistency:一致性校验。 l Virtual Drive Erase:格式化虚拟磁盘。 |
Progress |
当前任务进度。 l 仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。 l 当前界面不会自动刷新,需退出后重新进入查看当前进度。 |
Stop |
停止当前任务。 仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。 |
Name |
虚拟磁盘名称。 |
Raid Level |
虚拟磁盘RAID级别。 |
Status |
虚拟磁盘当前运行状态。 |
Size |
虚拟磁盘容量。 |
View Associated Drives |
查看成员盘属性。 |
Advanced... |
查看虚拟磁盘高级属性。 |
查看成员盘属性
在图11-81中选择“View Associated Drives”并按“Enter”。
界面如图11-82,显示成员盘列表。
步骤 2 选择要查看的成员盘,并按“Enter”。
步骤 3 选择“View Drive Properties”并按“Enter”。
进入硬盘属性界面,如图11-83界面所示,界面参数如表11-24所示。
参数 |
参数说明 |
Operation |
该成员盘可执行的操作,包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Place Drive Online/Offline:将硬盘上线/离线。 |
Drive ID |
成员盘的ID。 |
Status |
成员盘的当前工作状态。 |
Size |
成员盘的容量。 |
Type |
成员盘类型。 |
Model |
成员盘的模块类型。 |
Hardware Vendor |
成员盘的生产厂商。 |
Associated Virtual Drive |
成员盘所在的虚拟磁盘。 |
Advanced... |
查询成员盘更多属性。 |
----结束
查看和修改虚拟磁盘高级属性
在图11-81中选择“Advanced”并按“Enter”。
界面如图11-84和图11-85所示,界面参数如表11-25所示。
参数 |
参数说明 |
Mirror Data Size |
镜像数据大小。 |
Logical Sector Size |
逻辑扇区大小。 |
Strip Size |
条带大小。 |
Starting Logical Block Addressing |
逻辑单元起始地址。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 当成员盘为512B/512B时: l Default:逻辑盘扇区为512B/512B。 l None:逻辑盘扇区为512B/512B。 l Force:逻辑盘扇区为512B/4KB。 当成员盘为512B/4KB时: l Default:逻辑盘扇区为512B/4KB。 l None:逻辑盘扇区为512B/512B。 l Force:逻辑盘扇区为512B/4KB。 |
Bad Blocks |
是否支持坏块处理。 |
SSD Caching |
是否支持SSD Caching。 |
Access |
数据读取的策略,分以下三种: l Read Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Current Write Cache Policy |
当前写Cache策略。默认为“Write Through”。 说明 “Write Through”表示当硬盘子系统接收到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。 |
Default Write Cache Policy |
默认的写Cache策略。 |
Disable Background Initialization |
是否禁用后台初始化。 |
Read Cache Policy |
当前读Cache策略,默认为“No Read Ahead”,即关闭预读取功能。 说明 Avago SAS3408iMR不支持在该界面设置读Cache策略。 |
Drive Cache |
是否支持cache。 |
Input/Output |
I/O读取策略,默认为“Direct”,即直接从硬盘读取数据,不经过Cache缓存。 说明 Avago SAS3408iMR不支持在该界面设置I/O读取策略。 |
Apply Changes |
保存配置。 |
步骤 2 按照表11-25所述配置“Advanced”的参数。
步骤 3 选择“Apply Changes”并按“Enter”。
显示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面显示硬盘基本属性,提供硬盘操作接口。
界面介绍
“Drive Management”界面如图11-86所示,显示硬盘列表。
选定要操作的硬盘并按“Enter”进入详细操作界面,如图11-87所示,参数说明如表11-26所示。
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Initialize Drive:硬盘初始化。 l Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。 − Simple:仅对硬盘进行一轮擦除动作。 − Normal:对硬盘进行三轮擦除动作。 − Thorough:对硬盘进行九轮擦除动作。 − Stop Erase:停止数据擦除操作。 l Make Unconfigured Good/Bad:修改硬盘状态。 l Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。 l Assign Global Hot Spare Drive:设置全局热备盘。 l Assign Dedicated Hot Spare Drive:设置局部热备盘。 l Unassign Hot Spare Drive:删除热备盘。 l Prepare for Removal:硬盘拔出前的准备工作。 l Place Drive Online:将Offline状态的硬盘设置为Online。 说明 l Place Drive Online操作只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。 l 如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。 l 对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。 |
Drive ID |
硬盘的ID。 |
Status |
硬盘的当前工作状态。 |
Size |
硬盘的容量。 |
Type |
硬盘的类型。 |
Model |
硬盘型号。 |
Hardware Vendor |
硬盘的生产厂商。 |
Advanced... |
查询更多硬盘属性。 |
安全擦除硬盘数据
该操作会删除硬盘上的数据,请谨慎执行。
将“Operation”设置为“Drive Erase”。
步骤 1 选择“Erase Mode”并按“Enter”。
步骤 2 在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。
步骤 3 选择“Go”并按“Enter”。
步骤 4 选择“Confirm”并按“Enter”。
步骤 5 选择“Yes”并按“Enter”。
提示操作成功。
----结束
查看硬盘属性
选择“Advanced...”并按“Enter”。
打开硬盘属性界面,如图11-88和图11-89所示,参数说明如表11-27所示。
图11-89 “Drive Properties”界面(2)
参数 |
参数说明 |
Logical Sector Size |
逻辑扇区大小。 |
Physical Sector Size |
物理扇区大小。 |
SMART Status |
SMART功能是否使能。 |
Revision |
硬盘Firmware版本。 |
Media Error |
Media error个数。 |
Predicted Fail Count |
Pred fail个数。 |
SAS Address |
硬盘SAS地址。 |
Drive Power State |
硬盘上电状态。 |
Cache Setting |
是否可设置Cache。 |
Available Size |
硬盘可用空间。 |
Used Space |
已使用的硬盘空间。 |
Disk Protocol |
硬盘支持的协议。 |
Device Speed |
设备的速率。 |
Negotiated Drive Transfer Speed |
硬盘数据传输速率。 |
Number of Connections |
连接器个数。 |
FDE Capable |
硬盘是否支持FDE(Full Disk Encryption)技术。 |
Cryptographic Erase Capable |
硬盘是否支持加密擦除功能。 |
Temperature |
硬盘温度。 |
该界面主要提供RAID控制卡传感器信息。
界面介绍
“Hardware Components”界面如图11-90,参数说明如表11-28所示。
参数 |
参数说明 |
Temperature Sensors |
当前温度传感器状态。 |
Fans |
当前风扇模块工作状态。 |
Power Supplies |
当前供电模块工作状态。 |
Enclosure Management |
部件管理。 |
提供RAID控制卡操作管理接口。
界面介绍
“View Server Profile”界面如图11-91所示,参数说明如表11-29所示。
参数 |
参数说明 |
UEFI Spec Version |
服务器支持的UEFI Spec版本。 |
Controller Management |
提供控制卡管理接口,详细情况请参见11.6.2.2 Controller Management。 |
Hardware Components |
提供控制卡部件查询接口,详细情况请参见11.6.2.5 Hardware Components。 |
Drive Management |
提供硬盘管理接口,详细情况请参见11.6.2.4 Drive Management。 |
Virtual Drive Management |
提供虚拟磁盘管理接口,详细情况请参见11.6.2.3 Virtual Drive Management。 |
该界面可查看、导入、清空外部配置。
界面介绍
“Manage Foreign Configuration”界面如图11-92所示。
图11-92 Manage Foreign Configuration
查看并导入外部配置
选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图11-93所示。
图11-93 View Foreign Configuration
步骤 2 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 3 选择“Confirm”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 选择“OK”并按“Enter”完成配置。
----结束
清除外部配置
选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 选择“OK”并按“Enter”完成配置。
----结束
该界面可清除当前所有配置。
界面介绍
“Configure”界面如图11-94所示,参数说明如表11-30所示。
Parameter |
Description |
View Drive Group Properties |
查看硬盘组属性。 当存在硬盘组时会显示该参数。 |
View Global HotSpare Drives |
查看全局热备盘。 |
Clear Configuration |
清除当前配置。 |
清除当前配置
选择“Clear Configuration”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 选择“OK”并按“Enter”完成配置。
----结束
恢复出厂配置
在主界面选择“Set Factory Defaults”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 选择“OK”并按“Enter”完成配置。
----结束
该界面提供RAID控制卡高级软件特性查看和导入接口。
界面介绍
“Manage MegaRAID Advanced Software Options”界面如图11-95所示,界面中参数说明如表11-31所示。
图11-95 Manage MegaRAID Advanced Software Options
参数 |
说明 |
SAFE ID |
RAID控制卡的安全编码。 |
Serial Number |
RAID控制卡序列号。 |
Activation Key |
待激活的高级特性的Key。 |
Active |
激活高级特性。 Avago SAS3408iMR不支持高级特性的激活操作,该功能无效。 |
Deactive All Trail Software |
注销当前所有高级特性。 Avago SAS3408iMR不支持高级特性的激活操作,该功能无效。 |
退出配置界面
在Avago SAS3408iMR主界面按“ESC”,显示如图11-96所示界面。
步骤 2 按F10退出BIOS。
弹出操作确认窗口。
步骤 3 选择“OK”并按Enter。
退出BIOS,显示“ Press Control+Alt+Delete to reboot”。
----结束
使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。
下载工具
步骤 1 在“DOWNLOADS”页签中单击“Management Software and Tools”。
打开管理软件和工具列表。
步骤 2 下载最新版本的“StorCLI”工具。
步骤 3 解压后得到适用于不同操作系统的工具包。
----结束
安装工具
使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。
步骤 1 在Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。
StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。
安装完毕后,即可执行RAID控制卡命令。
----结束
命令功能
查询Avago SAS3408iMR的基本配置信息。
命令格式
storcli64 /ccontroller_id show
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID |
使用指南
建议保持默认配置。
使用实例
# 查询RAID控制卡配置信息。
[root@localhost ~]# storcli64 /c0
show
Generating detailed summary of the adapter, it may take a while to complete.
Controller = 0
Status = Success
Description = None
Product Name = SAS3408
Serial Number = 024JNF10J2000256
SAS Address = 53ce8246afb3f000
PCI Address = 00:1c:00:00
System Time = 08/06/2019 09:24:12
Mfg. Date = 00/00/00
Controller Time = 08/06/2019 13:24:12
FW Package Build = 50.6.3-0109
BIOS Version = 7.06.02.2_0x07060502
FW Version = 5.060.01-2262
Driver Name = megaraid_sas
Driver Version = 07.709.08.00
Vendor Id = 0x1000
Device Id = 0x17
SubVendor Id = 0x19E5
SubDevice Id = 0xD213
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 28
Device Number = 0
Function Number = 0
Drive Groups = 1
TOPOLOGY :
========
---------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size
PDC PI SED DS3 FSpace TR
---------------------------------------------------------------------------
0 - - -
- RAID0 Optl N 1.089 TB dflt N N dflt
N N
0 0 - -
- RAID0 Optl N 1.089 TB dflt N N dflt
N N
0 0 0 69:0 0
DRIVE Onln N 1.089 TB dflt N N dflt
- N
---------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 1
VD LIST :
=======
-------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC
Size Name
-------------------------------------------------------------
0/0 RAID0 Optl RW
Yes NRWTD - ON 1.089 TB
-------------------------------------------------------------
EID=Enclosure Device ID| VD=Virtual Drive| DG=Drive Group|Rec=Recovery
Cac=CacheCade|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read
Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 1
PD LIST :
=======
--------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz
Model Sp Type
--------------------------------------------------------------------------
69:0 0 Onln 0 1.089 TB SATA SSD
N N 512B SSDSC2BB012T7H U -
--------------------------------------------------------------------------
EID=Enclosure Device ID|Slt=Slot No.|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=Unsupported|UGShld=UnConfigured shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported
命令功能
创建、删除RAID。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id add vd rlevel[0|1|10] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid] |
创建RAID组 |
storcli64 /ccontroller_id/vraid_id del |
删除RAID组 |
*表示默认值。
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
rlevel |
要配置的RAID组级别 |
level可为0、1、10,数字分别代表对应的RAID组级别。 |
size |
要配置的RAID组容量 |
默认值为all,即所有成员盘的容量之和。 |
name |
要配置的RAID组名称 |
- |
drives |
要加入RAID组的硬盘 |
- |
startid-endid |
硬盘的起始和结束ID |
- |
slot_id |
硬盘ID |
- |
pdperarray |
子组中的硬盘数 创建RAID10时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。 |
- |
pdcache |
设置RAID的成员盘的Cache状态 |
l on l off l default |
pi |
使能数据保护 |
- |
EmulationType |
控制逻辑盘在OS中上报的扇区 |
l 0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l 1: Disable,即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l 2:Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Spares |
指定RAID组的热备盘 |
- |
raid_id |
要删除的RAID组的ID |
- |
l 以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
l 当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid。
使用指南
无
使用实例
# 创建RAID 0。
domino:~# ./storcli64 /c0 add vd
r0 size=100GB drives=252:0-3
Controller = 0
Status = Success
Description = Add VD Succeeded
# 删除RAID。
domino:~# ./storcli64 /c0/v0 del
Controller = 0
Status = Success
Description = Delete VD Succeeded
命令功能
查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。
命令格式
storcli64 /ccontroller_id show
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all
storcli64 /ccontroller_id/vvd_id show all
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID |
enclosure_id |
硬盘所在Enclosure的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡连接的硬盘背板的ID |
slot_id |
物理硬盘槽位编号 |
可以将该参数设置为all,表示查询所有硬盘的ID |
vd_id |
虚拟磁盘ID |
可以将该参数设置为all,表示查询所有虚拟磁盘的ID |
使用指南
回显中主要字段的含义如表11-32所示。
命令格式 |
字段 |
含义 |
举例 |
storcli64 /ccontroller_id show |
Product Name |
RAID控制卡的型号 |
sas3408 |
FW Version |
RAID控制卡的FW版本 |
5.060.01-2262 |
|
Driver Name |
RAID控制卡的驱动名称 |
megaraid_sas |
|
Driver Version |
RAID控制卡的驱动版本 |
06.811.02.00-rh1 |
|
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all |
SN |
物理硬盘的序列号 |
PHWL517601YR800RGN |
Manufacturer Id |
物理硬盘的供应商ID |
ATA |
|
Model Number |
物理硬盘的模块序号 |
INTEL SSDSC2BB800G4 |
|
Firmware Revision |
物理硬盘的FW版本 |
D2010370 |
|
Raw size |
物理硬盘的容量 |
745.211 GB [0x5d26ceb0 Sectors] |
|
Logical Sector Size |
物理硬盘逻辑分区大小 |
512B |
|
Physical Sector Size |
物理扇区大小 |
4 KB |
|
storcli64 /ccontroller_id/vvd_id show all |
TYPE |
RAID组的级别 |
RAID1 |
State |
RAID组的状态 |
Optl |
|
Access |
RAID组数据的访问策略 |
RW |
|
Size |
RAID组的大小 |
100.0 GB |
|
PDs for VD0 |
RAID组下的物理硬盘 |
- |
|
Strip Size |
RAID组的条带大小 |
64KB |
|
Write Cache(initial setting) |
RAID组Cache的写策略 |
Write Through |
|
Disk Cache Policy |
RAID组成员盘的Cache策略 |
Disk's Default |
使用实例
#查询RAID控制卡的详细信息。
domino:~# ./storcli64 /c0 show
Controller = 0
Status = Success
Description = None
Product Name = SAS3408
Serial Number = 024JNFCNK2000314
SAS Address = 58cfd18f55442000
PCI Address = 00:03:00:00
System Time = 07/18/2019 14:55:54
Mfg. Date = 00/00/00
Controller Time = 07/18/2019 06:55:53
FW Package Build = 50.6.3-0109
BIOS Version = 7.06.02.2_0x07060502
FW Version = 5.060.01-2262
Driver Name = megaraid_sas
Driver Version = 07.709.08.00
Vendor Id = 0x1000
Device Id = 0x17
SubVendor Id = 0x19E5
SubDevice Id = 0xD213
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 3
Device Number = 0
Function Number = 0
Drive Groups = 1
TOPOLOGY :
========
---------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size
PDC PI SED DS3 FSpace TR
---------------------------------------------------------------------------
0 - - -
- RAID0 Optl N 3.637 TB dflt N N dflt
N N
0 0 - -
- RAID0 Optl N 3.637 TB dflt N N dflt
N N
0 0 0 65:0 41 DRIVE
Onln N 3.637 TB dflt N N dflt
- N
---------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 1
VD LIST :
=======
-------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC
Size Name
-------------------------------------------------------------
0/0 RAID0 Optl RW
Yes NRWTD - ON 3.637 TB
-------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 39
PD LIST :
=======
------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med
SED PI SeSz
Model
Sp
------------------------------------------------------------------------------
65:0 41 Onln 0 3.637 TB
SATA HDD N N 512B ST4000NM0035-1V4107 U
65:1 45 UGood - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 D
65:2 33 UGood - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 D
65:3 40 UGood - 3.637 TB SATA
HDD N N 512B ST4000NM115-1YZ107 D
65:4 39 UGood - 5.456 TB SATA
HDD N N 512B ST6000NM0115-1YZ110 D
65:5 38 UGood - 5.456 TB SATA
HDD N N 512B ST6000NM0115-1YZ110 D
65:6 46 UGood - 5.456 TB SATA
HDD N N 512B ST6000NM0115-1YZ110 D
65:7 53 UGood - 5.456 TB SATA
HDD N N 512B ST6000NM0115-1YZ110 D
65:8 61 UGUnsp - 3.637 TB SATA HDD
N N 512B ST4000NM0035-1V4107 U
65:9 0 UGood - 3.637 TB
SATA HDD N N 512B ST4000NM115-1YZ107 D
65:10 1 UGood - 5.456 TB SATA
HDD N N 512B ST6000NM0115-1YZ110 D
65:11 62 UGUnsp - 3.637 TB SATA HDD
N N 512B ST4000NM0035-1V4107 U
65:12 51 UGood - 9.094 TB SATA HDD
N N 512B ST10000NM0478-2H7100 D
65:13 52 UGood - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 D
65:14 50 UGood - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 D
65:16 57 UGUnsp - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 U
65:17 58 UGUnsp - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 U
65:18 42 UGood - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 D
65:19 44 UGood - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 D
65:20 49 UGood - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 D
65:21 43 UGood - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 D
65:22 48 UGood - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 D
65:23 47 UGood - 3.637 TB SATA HDD
N N 512B ST4000NM0035-1V4107 D
65:24 3 UGood - 3.637 TB SATA
HDD N N 512B ST4000NM0035-1V4107 D
65:25 5 UGood - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 D
65:26 4 UGood - 5.456 TB SATA
HDD N N 512B ST6000NM0115-1YZ110 D
65:27 2 UGood - 3.637 TB SATA HDD
N N 512B ST4000NM0035-1V4107 D
65:28 59 UGUnsp - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 U
65:29 6 UGood - 837.258 GB SAS HDD
N N 512B
ST900MM0168 D
65:30 55 UGood - 3.637 TB SATA HDD
N N 512B ST4000NM0035-1V4107 D
65:31 60 UGUnsp - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 U
65:32 56 UGUnsp - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 U
65:33 35 UGood - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 D
65:34 34 UGood - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 D
65:35 37 UGood - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 D
65:36 36 UGood - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 D
65:37 30 UGood - 278.464 GB SAS HDD
N N 512B
AL15SEB030N D
65:38 32 UGood - 1.745 TB SATA SSD
N N 512B INTEL SSDSC2KG019T8 U
65:39 31 UGood - 222.585 GB SATA SSD
N N 512B INTEL SSDSC2KG240G8 U
------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
#查询slot0的物理硬盘的信息。
[root@localhost ~]# ./storcli64
/c0/e65/s0 show all
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
Drive /c0/e65/s0 :
================
--------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz
Model
Sp
--------------------------------------------------------------------------
65:0 41 Onln 0 3.637 TB SATA HDD
N N 512B ST4000NM0035-1V4107 U
--------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Drive /c0/e65/s0 - Detailed Information :
=======================================
Drive /c0/e65/s0 State :
======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature = 30C (86.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
Drive /c0/e65/s0 Device attributes :
==================================
SN = ZC18JNP4
Manufacturer Id = ATA
Model Number = ST4000NM0035-1V4107
NAND Vendor = NA
WWN = 5000c500b3297aee
Firmware Revision = TNA5
Raw size = 3.638 TB [0x1d1c0beb0 Sectors]
Coerced size = 3.637 TB [0x1d1a94800 Sectors]
Non Coerced size = 3.637 TB [0x1d1b0beb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 12.0Gb/s
NCQ setting = Enabled
Write Cache = Disabled
Logical Sector Size = 512B
Physical Sector Size = 512B
Connector Name = C0 & C1
Drive /c0/e65/s0 Policies/Settings :
==================================
Drive position = DriveGroup:0, Span:0, Row:0
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = Yes
Wide Port Capable = No
Port Information :
================
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
0 Active 12.0Gb/s 0x500605b000027380
-----------------------------------------
Inquiry Data =
5a 0c ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 20 20 20 20 20 20 20 20 20 20 20 20
43 5a 38 31 4e 4a 34 50 00 00 00 00 00 00 4e 54
35 41 20 20 20 20 54 53 30 34 30 30 4d 4e 30 30
35 33 31 2d 34 56 30 31 20 37 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 10 80
00 40 00 2f 00 40 00 02 00 02 07 00 ff 3f 10 00
3f 00 10 fc fb 00 10 5c ff ff ff 0f 00 00 07 00
# 查询VD 0的信息。
[root@rhel6u5 ~]#
/opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
/c0/v0 :
======
-------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC
Size Name
-------------------------------------------------------------
0/0 RAID0 Optl RW
Yes NRWTD - ON 3.637 TB
-------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read
Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
PDs for VD 0 :
============
--------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz
Model
Sp
--------------------------------------------------------------------------
65:0 41 Onln 0 3.637 TB SATA HDD
N N 512B ST4000NM0035-1V4107 U
--------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
VD0 Properties :
==============
Strip Size = 64 KB
Number of Blocks = 7812499456
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 1
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = None
Active Operations = None
Exposed to OS = Yes
Creation Date = 06-07-2025
Creation Time = 08:44:04 AM
Emulation type = default
Cachebypass size = Cachebypass-64k
Cachebypass Mode = Cachebypass Intelligent
Is LD Ready for OS Requests = Yes
SCSI NAA Id = 68cfd18f554420002ffcf3d4ce5e8046
命令功能
查询和设置系统巡检的相关参数。
命令格式
storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number
storcli64 /ccontroller_id set patrolread delay=delaytime
storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}
storcli64 /ccontroller_id show patrolread
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
系统巡检起始时间 |
例如:2016/07/15 23 说明 起始时间单位为“时”。 |
number |
可同时巡检的硬盘数量 |
– |
delaytime |
系统巡检周期 |
单位为hour。 |
查看RAID控制卡ID的方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。
domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
PR Starttime 2016/07/15 23:00:00
PR MaxConcurrentPd 2
---------------------------------------
# 使能patrolread并设置为自动模式。
domino:~# ./storcli64 /c0 set
patrolread=on mode=auto
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
Patrol Read Mode auto
---------------------------------------
# 查询patrolread信息。
domino:~# ./storcli64 /c0 show patrolread
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------------------------
Ctrl_Prop Value
--------------------------------------------
PR Mode 2016/07/15 23:00:00
PR Execution Delay
PR iterations completed 0
PR Next Start time 07/16/2016,00:00:00
PR on SSD Disabled
PR Current State Stopped
--------------------------------------------
命令功能
查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。
命令格式
storcli64 /ccontroller_id show spinupdelay
storcli64 /ccontroller_id show spinupdrivecount
storcli64 /ccontroller_id set spinupdelay=time
storcli64 /ccontroller_id set spinupdrivecount=count
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
每组起转硬盘间的时间间隔 |
默认为2,单位为s。 |
count |
上电时允许同时起转的硬盘数量 |
默认为4。 |
查看RAID控制卡ID的方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
建议保持默认配置。
使用实例
# 查询RAID控制卡Spinup参数。
domino:~# ./storcli64 /c0 show
spinupdelay
[root@localhost ~]# ./storcli64_arm /c0 show spinupdelay
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
domino:~# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 2
--------------------------
# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。
domino:~# ./storcli64 /c0 set
spinupdelay=20
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Spin Up Delay 20 second(s)
---------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 5
--------------------------
命令功能
设置物理硬盘数据擦除模式,查询擦除进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
mode |
数据擦除模式 |
l simple:对硬盘进行一轮擦除动作。 l normal:对硬盘进行三轮擦除动作。 l thorough:对硬盘进行九轮擦除动作。 |
以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。
domino:~# ./storcli64 /c0/e252/s3
start erase simple
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status
Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0
Seconds
------------------------------------------------------
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.
命令功能
暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。
命令格式
storcli64 /ccontroller_id/vraid_id action bgi
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
action |
后台初始化的操作 |
l show:查看后台初始化进度 l pause:暂停后台初始化 l resume:继续后台初始化 l stop:停止后台初始化 |
以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查看后台初始化进度。
domino:~# ./storcli64 /c0/v0 show
bgi
Controller = 0
Status = Success
Description = Noe
VD Operation Status :
===================
------------------------------------------------------
VD Operation Progress% Staus Estimated Time
Left
------------------------------------------------------
0
BGI
3 In progress 53 Minutes
------------------------------------------------------
命令功能
设置物理硬盘初始化功能,查询初始化进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
action |
要执行的操作 |
l show:查看初始化进度 l start:开始初始化 l stop:结束初始化 |
以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 初始化slot3硬盘,并查询初始化进度。
domino:~# ./storcli64 /c0/e252/s3
start initialization
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show initialization
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status
Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0
Seconds
------------------------------------------------------
命令功能
开始、暂停、继续、停止RAID重构,并查询进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action rebuild
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
action |
要执行的操作 |
l start:开始重构 l show:查看重构进度 l pause:暂停重构 l resume:继续重构 l stop:停止重构 |
查看RAID控制卡ID的方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 手动开始重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
# 查看硬盘当前重构状态。
[root@localhost ~]# ./storcli64
/c0/e70/s7 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e70/s7 5 In progress 26
Minutes
-----------------------------------------------------
# 暂停硬盘重构进程。
[root@localhost ~]# ./storcli64
/c0/e70/s7 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Succeeded.
# 继续重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 resume rebuild
Controller = 0
Status = Success
Description = Resume Drive Rebuild Succeeded.
# 停止重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 stop rebuild
Controller = 0
Status = Success
Description = Stop Drive Rebuild Succeeded.
命令功能
开始、暂停、继续、停止回拷,并查询进度。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id start copyback target=target_enclosure_id:target_slot_id |
开始回拷。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id action copyback |
暂停、继续、查看、停止回拷。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
target_enclosure_id |
执行回拷的目标硬盘所在Enclosure的ID。 |
- |
target_slot_id |
执行回拷的目标物理硬盘槽位编号。 |
- |
action |
要执行的操作 |
l show:查看回拷进度 l pause:暂停回拷 l resume:继续回拷 l stop:停止回拷 |
查看RAID控制卡ID的方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 手动开始回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s7 start copyback target=70:3
Controller = 0
Status = Success
Description = Start Drive Copyback Succeeded.
# 查看硬盘当前回拷状态。
[root@localhost ~]# ./storcli64
/c0/e70/s3 show copyback
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e70/s3 17 In progress 16 Minutes
-----------------------------------------------------
# 暂停硬盘回拷进程。
[root@localhost ~]# ./storcli64
/c0/e70/s3 pause copyback
Controller = 0
Status = Success
Description = Pause Drive Copyback Succeeded.
# 继续回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s3 resume copyback
Controller = 0
Status = Success
Description = Resume Drive Copyback Succeeded.
# 停止回拷。
[root@localhost ~]# ./storcli64 /c0/e70/s3
stop copyback
Controller = 0
Status = Success
Description = Stop Drive Copyback Succeeded.
命令功能
查询、设置Smart扫描周期。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id set smartpollinterval=value |
设置Smart扫描周期。 |
storcli64 /ccontroller_id show smartpollinterval |
查询Smart扫描周期。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
value |
Smart扫描周期 |
单位为s。 |
查看RAID控制卡ID的方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Smart扫描周期为“60s”。
domino:~# ./storcli64 /c0 set
smartpollinterval=60
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------
命令功能
查询、设置一致性检查参数。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id[/vvd_id]show cc |
查询一致性检查参数。 |
storcli64 /ccontroller_id/vvd_id start cc force |
开始进行一致性检查。 |
storcli64 /ccontroller_id/vvd_id action cc |
暂停/停止/继续执行一致性检查。 |
storcli64 /ccontroller_id set consistencycheck|cc=[off|seq|conc] [delay=value] starttime=time excludevd=evd_id |
设置一致性自动检查参数。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
vd_id |
要操作的RAID的ID |
- |
action |
要执行的操作 |
l pause:暂停 l resume:继续执行 l stop:停止 |
cc |
将一致性检查设置为顺序模式或并行模式,或关闭一致性检查。 |
l off:关闭一致性检查 l seq:顺序模式 l conc:并行模式 |
value |
一致性检查周期 |
- |
time |
一致性检查起始时间 |
例如:2016/07/14 22 说明 起始时间单位为“时”。 |
evd_id |
不进行一致性检查的虚拟磁盘ID |
- |
以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
show命令中不带/vvd_id时,表示查询自动CC参数。
show命令中带/vvd_id时,表示查询CC进度。
使用实例
# 设置一致性自动检查参数。
domino:~# ./storcli64 /c0 set
cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------
Ctrl_Prop Value
------------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2016/07/14 22:00:00
CC ExcludeVD(0) Success
------------------------------------
# 查询CC进度。
domino:~# ./storcli64 /c0/v1 show
cc
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress%
Status Estimited Time
Left
-----------------------------------------------------------
0 CC
- Not in progress -
-----------------------------------------------------------
命令功能
设置全局热备盘和局部热备盘。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive |
设置全局热备盘。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=<N|0,1,2..>] |
设置局部热备盘。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive |
删除热备盘。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
dgs |
硬盘组的ID |
l 不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘 l 0,1,2..:硬盘组ID |
以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置slot 3硬盘为全局热备盘。
domino:~# ./storcli64 /c0/e252/s3
add hotsparedrive
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
# 设置slot 3硬盘为vd0的局部热备盘。
domino:~# ./storcli64 /c0/e252/s3
add hotsparedrive dgs=0
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
命令功能
设置虚拟磁盘或物理硬盘为启动项。
命令格式
storcli64 /ccontroller_id/vvd_id set bootdrive=on
storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
vd_id |
待设置的虚拟磁盘的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置VD0为启动项。
domino:~# ./storcli64 /c0/v0 set
bootdrive=on
Controller = 0
Status = Success
Description = Noe
Detailed Status :
===============
----------------------------------------
VD Property Value Staus ErrCd ErrMsg
----------------------------------------
0 Boot Drive On Success 0 -
----------------------------------------
# 设置slot 7硬盘为启动项。
domino:~# ./storcli64 /c0/e252/s7
set bootdrive=on
Controller = 0
Status = Success
Description = Noe
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
BootDrive PD:252_7
-------------------
命令功能
设置硬盘状态。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
state |
要设置的硬盘状态 |
l online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。 l offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。 l jbod:通过该参数可以将硬盘设置为直通硬盘。 l good: − ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置; − JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。 l good:将硬盘设为空闲盘 |
force |
强制设置硬盘状态,为可选参数。 如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force。 |
- |
以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。
domino:~# ./storcli64 /c0/e0/s1
set good
Controller = 0
Status = Success
Description = Set Drive Good Succeeded.
# 设置slot 7硬盘为直通盘。
domino:~# ./storcli64 /c0/e252/s7
set JBOD
Controller = 0
Status = Success
Description = Set Drive JBOD Succeeded.
命令功能
设置RAID组的访问策略。
命令格式
storcli64 /ccontroller_id/vraid_id set accesspolicy=mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
raid_id |
待设置的RAID的ID |
- |
mode |
RAID访问策略 |
l rw:可读可写 l blocked:禁止访问 l ro:只读访问 |
以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置RAID读写策略为“rw”。
domino:~# ./storcli64 /c0/v0 set
accesspolicy=rw
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 AccPolicy RW Success 0
-
---------------------------------------
命令功能
设置RAID组成员盘的Cache状态。
命令格式
storcli64 /ccontroller_id/vvd_id set pdcache=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
vd_id |
RAID组的ID |
- |
action |
要执行的操作 |
l on:打开硬盘Cache l off:关闭硬盘Cache l default:将硬盘Cache设置为默认状态 |
以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 打开ID为0的RAID组的硬盘Cache。
./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 PdCac On
Success 0 -
---------------------------------------
命令功能
设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。
命令格式
storcli64 /ccontroller_id set eghs eug=state
storcli64 /ccontroller_id set eghs smarter=state
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
state |
紧急热备功能的启用状态 |
l on:启用 l off:禁用 |
查看RAID控制卡ID的方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。
domino:~# ./storcli64 /c0 set eghs
eug=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------
Ctrl_Prop Value
------------------
EmergencyUG ON
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
EmergencySmarter ON
-----------------------
命令功能
设置RAID前台初始化模式。
命令格式
storcli64 /ccontroller_id/vraid_id start mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
前台初始化模式 |
l init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。 l init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。 |
以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 快速初始化RAID。
domino:~# ./storcli64 /c0/v0 start
init
Controller = 0
Status = Success
Description = Start INIT Operation Success
命令功能
点亮和熄灭指定硬盘的定位指示灯。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。 |
slot_id |
物理硬盘槽位编号 |
可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。 |
action |
要执行的操作 |
l start:点亮硬盘的定位指示灯。 l stop:熄灭硬盘的定位指示灯。 |
以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 点亮slot 7硬盘的定位指示灯。
domino:~# ./storcli64 /c0/e252/s7
start locate
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.
命令功能
设置空闲硬盘和热备盘的省电模式。
命令格式
storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID。 |
– |
state |
省电模式的启用状态。 |
l on:启用 l off:禁用 |
disktype |
硬盘类型。 |
l 1:空闲硬盘 l 2:热备盘 |
time |
等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。 |
单位为minutes。 |
查看RAID控制卡ID的方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置空闲硬盘的省电模式。
domino:~# ./storcli64 /c0 set
ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------
Ctrl_Prop Value
------------------------
SpnDwnUncDrv Enabled
SpnDwnTm 30 minutes
------------------------
命令功能
设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。
命令格式
storcli64 /ccontroller_id set action=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
action |
要设置的项目 |
l bgirate:后台初始化速率 l ccrate:一致性校验速率 l prrate:硬盘巡检速率 l rebuildrate:RAID重构速率 l reconrate:RAID扩容和迁移速率 |
value |
后台任务资源占用率 |
1~100 |
查看RAID控制卡ID的方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置硬盘巡检速率为“30%”。
domino:~# ./storcli64 /c0 set
prrate=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
Patrol Read Rate 30%
-----------------------
命令功能
设置控制卡BIOS在检测到异常时停止继续启动的功能。
命令格式
storcli64 /ccontroller_id set bios mode=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
action |
要执行的操作 |
l soe:控制卡BIOS在检测到异常时停止启动 l ie:忽略检测到的异常 |
查看RAID控制卡ID的方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启Stop on error功能。
domino:~# ./storcli64 /c0 set bios
mode=soe
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------
命令功能
在虚拟磁盘未占用成员硬盘全部容量时,可通过调整虚拟磁盘的可用空间,扩大虚拟磁盘容量。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray] |
扩大虚拟磁盘容量。 |
storcli64 /ccontroller_id/vvd_id show expansion |
查询虚拟磁盘扩容后的容量。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
vd_id |
要扩容的RAID的ID |
- |
capacity |
扩容容量 |
- |
expandarray |
当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。 |
- |
以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查询VD的可扩展容量。
[root@localhost ~]# storcli64 /c0/v1
show expansion
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
EXPANSION INFORMATION :
=====================
--------------------------------------------
VD Size OCE NoArrExp WithArrExp Status
--------------------------------------------
1 10.000 GB Y 3.627 TB 5.447 TB -
--------------------------------------------
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion
VD=Virtual Drive | NoArrExp - Without Array Expansion
如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。
# 将VD0的容量扩大“200GB”。
domino:~# ./storcli64 /c0/v0
expand size=200GB
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize
AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
0 100.0 GB 457.861 GB 200.0 GB 201.458 GB
44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %
RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
当增加新盘后,可进行RAID级别迁移。
命令格式
storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
vd_id |
要操作的RAID的ID |
– |
slot_id |
要加入RAID的新硬盘的槽位号 |
– |
level |
增加硬盘后RAID的级别 |
l 与原RAID级别相同时,该命令为扩大RAID容量。 l 与原RAID级别不同时,该命令为RAID级别迁移。 |
以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 在RAID 0中增加slot 2硬盘扩容。
domino:~# ./storcli64 /c0/v0 start
migrate type=r0 option=add drives=252:2
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time
Left
-------------------------------------------------------
0 Migrate 1
In progress 13 Minutes
-------------------------------------------------------
# 单盘RAID 0加盘迁移至RAID 1。
domino:~# ./storcli64 /c0/v0 start
migrate type=r1 option=add drives=252:3
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time
Left
-------------------------------------------------------
0 Migrate 1
In progress 14 Minutes
-------------------------------------------------------
命令功能
手动重构RAID组。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row
storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
要加入Array的物理硬盘槽位编号 |
– |
DG |
硬盘发生故障的DG的ID |
– |
Arr |
硬盘发生故障的Array的ID |
– |
Row |
硬盘发生故障的Array的row number |
– |
以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
重构RAID分3个步骤进行:
1.通过./storcli64 /c0 show 命令,查询故障硬盘的DG、Arr和Row所对应的数字。
2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。
3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID。
使用实例
# 将硬盘加入RAID组。
[root@localhost ~]# storcli64
/c0/e252/s1 insert dg=0 array=0 row=0
Controller = 0
Status = Success
Description = Insert Drive Succeeded.
# 手动重构RAID。
[root@localhost ~]# storcli64
/c0/e252/s1 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
命令功能
收集和清除RAID控制卡的日志。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id show termlog [type=logtype] [logfile[=filename]] |
收集RAID控制卡的日志。 |
storcli64 /ccontroller_id delete termlog |
删除RAID控制卡的日志。 |
storcli64 /ccontroller_id show alilog [logfile[=filename]] |
收集控制卡属性信息、TTY日志和事件到指定文件。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID。 |
- |
logtype |
查询日志类型。 |
l config:查询TTY BBU缓存设置。 l content:查询日志信息。 缺省值:content。 |
filename |
文件名称,将保存日志到此文件。 |
可自定义文件名称,缺省时将默认保存至“StorSAS.log”文件中。 |
查询RAID控制卡ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 收集RAID控制卡的日志。
[root@localhost idriver]# ./storcli64
/c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19 6:48:11: C0:TTY History buffer cleared
Controller = 0
Status = Success
Description = None
# 删除RAID控制卡的日志。
[root@localhost idriver]# ./storcli64
/c0 delete termlog
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------------------
Ctrl Method Result
----------------------------
0 Delete Termlog deleted
----------------------------
命令功能
指导用户查看、导入或者清除RAID控制卡的外部配置。
命令格式
storcli64 /ccontroller_id/fall action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
action |
要执行的操作 |
l import preview:查看外部配置 l import:导入外部配置 l delete:清除外部配置 |
以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查看RAID控制卡的外部配置。
[root@localhost ~]# ./storcli64
/c0/fall import preview
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
FOREIGN PREVIEW :
===============
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Total foreign drive groups = 0
# 删除RAID控制卡的外部配置。
[root@localhost ~]# ./storcli64
/c0/fall delete
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration
命令功能
介绍Snapdump相关操作。
命令格式
命令格式 |
说明 |
storcli64 /ccontroller_id show snapdump |
查询snapdump功能是否打开,是否有自动生成的snapdump文件。 |
storcli64 /ccontroller_id get snapdump id=all |
获取历史生成的snapdump文件。 |
storcli64 /ccontroller_id get snapdump |
获取历史生成的snapdump文件和当前再生成一个snapdump文件。 |
storcli64 /ccontroller_id set snapdump state=on|off |
打开和关闭snapdump功能。 |
storcli64 /ccontroller_id delete snapdump force |
删除历史snapdump日志功能。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID。 |
state=on|off |
Snapdump状态 |
on为开启,off为关闭。 |
使用指南
l Snapdump文件是一个日志文件,在一些RAID控制卡异常场景下可以自动生成的日志,也可以主动获取当前RAID控制卡的snapdump日志。
l 使用前可以先查询snapdump功能是否打开,是否有自动生成的snapdump文件,再去收集snapdump。
l 获取历史生成的snapdump文件和当前再生成一个snapdump文件会影响业务,建议离线使用。
l 打开和关闭snapdump功能,如果无法打开注意看提示,请确认当前RAID控制卡固件版本是否支持。
l 收集snapdump文件在当前命令执行目录下,文件格式为snapdump_**************.zip。
使用实例
#查询snapdump功能是否打开,是否有自动生成的snapdump文件。
[root@localhost ~]# storcli64 /c0
show snapdump
Controller = 0
Status = Success
Description = None
SnapDump Properties :
===================
----------------------------------
Ctrl_Prop
Value
----------------------------------
Snapdump ON
Snapdump Save Count N/A
Snapdump Delay OCR 15
Snapdump properties Read-Write
Snapdump Current Count 2
----------------------------------
SnapDump Details :
================
----------------------------------------------
ID Snapdump Size Snapdump time OnDemand
----------------------------------------------
0 2649396 08-06-2021 07:23:43 Yes
1 2070406 08-07-2021 06:59:24 Yes
----------------------------------------------
#获取历史生成的snapdump文件。
[root@localhost ~]# storcli64 /c0 get
snapdump id=all
Controller = 0
Status = Success
Description = None
#获取历史生成的snapdump文件和当前再生成一个snapdump文件。
[root@localhost ~]# storcli64 /c0 get
snapdump
Controller = 0
Status = Success
Description = Download Support Log
#打开和关闭snapdump功能。
打开:
[root@localhost ~]# storcli64 /c0 set
snapdump state=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
Set Snapdump on
-------------------
关闭:
[root@localhost ~]# storcli64 /c0 set
snapdump state=off
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
Set Snapdump off
-------------------
#删除历史snapdump日志功能。
[root@localhost ~]# storcli64 /c0
delete snapdump force
Controller = 0
Status = Success
Description = Snapdump delete
命令功能
升级控制卡FW。
命令格式
命令格式 |
说明 |
storcli64 /cController_ID download file=xxx.rom [noverchk] |
升级控制卡FW。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
- |
xxx.rom |
固件包的名称 |
- |
使用指南
l 使用“noverchk”参数时将不检查固件包,降级版本时必须使用此参数。
l 升级完成后,需重新上下电服务器使固件包生效。
使用实例
#升级控制卡FW。
[root@localhost fw]# ./storcli64_arm
/c0 download file =FW4.rom noverchk
Download Completed.
Flashing image to adapter...
Controller = 0
Status = Success
Description = F/W Flash Completed.Please reboot the system for the changes to
take effect.
关于本章
介绍Avago SAS3416iMR扣卡的外观、特性、以及配置方法。
本章节涉及的截图以5.160.01-3415 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。
AVAGO MegaRAID SAS3416 RAID 控制卡(以下简称Avago SAS3416iMR)是基于MegaRAID架构的16端口12Gbit/s SAS控制卡,并采用PCIe3.0x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。
Avago SAS3416iMR用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。
Avago SAS3416iMR支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考12.2.13 硬盘直通。
Avago SAS3416iMR的结构如图12-1所示。
1 |
miniSAS接口(port D,SFF-8643) |
2 |
miniSAS接口(port C,SFF-8643) |
3 |
miniSAS接口(port A,SFF-8643) |
4 |
miniSAS接口(port B,SFF-8643) |
5 |
RAID控制卡电源指示灯 |
6 |
RAID控制卡电源指示灯 |
7 |
RAID控制卡电源指示灯 |
8 |
系统错误灯 |
9 |
系统心跳指示灯 |
- |
- |
Avago SAS3416iMR单板指示灯说明如表12-1所示。
指示灯 |
颜色 |
说明 |
电源指示灯 |
绿色 |
l 亮:电源正常。 l 灭:电源关闭或异常。 |
系统错误灯 |
红色 |
l 亮:系统运行异常。 l 灭:系统运行正常。 |
系统心跳指示灯 |
绿色 |
l 灯以2s周期闪烁:Avago SAS3416iMR RAID控制卡正在工作。 l 灯灭:Avago SAS3416iMR RAID控制卡未开始运行或FW运行异常。 |
Avago SAS3416iMR支持硬盘以直通方式和加入RAID组两种方式混合使用,其中:
l 硬盘直通模式支持的最大硬盘数量为63。
l 直通模式的硬盘和加入RAID组中的硬盘数量最多为63。
l 所有RAID组包含的最大硬盘数量为32。
该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。
l 每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
l 最多支持32个虚拟磁盘(即配置界面中看到的“Virtual Drive”),每个虚拟磁盘最多包含32个硬盘。
Avago SAS3416iMR支持的RAID类型及对应的硬盘个数如表12-2所示。
RAID级别 |
支持硬盘数 |
支持子组数 |
子组支持硬盘数 |
允许坏盘数 |
RAID 0 |
1~32 |
不涉及 |
不涉及 |
0 |
RAID 1 |
2~32(偶数) |
硬盘数÷2 |
||
RAID 10 |
4~32(偶数) |
2~8个RAID 1 |
2~16(偶数) |
子组数 |
l 不支持RAID 00级别。
l 子组数:子RAID的个数,例如RAID 10由两个RAID 1组成,则子组数为2。
l RAID 10每个子组中最多允许1个坏盘。
l RAID 10包含的总硬盘数由子组数和子组支持的硬盘数共同决定。
Avago SAS3416iMR扣卡的热备功能分为两种:热备盘和紧急备份。
热备盘
对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l Global HSP:即全局热备盘,为控制扣卡上所有已配置的RAID所共有,1块控制扣卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
配置方法请参看12.4.1.1 配置全局热备盘。
l Dedicated HSP:即局部热备盘,为控制扣卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。
配置方法请参看12.4.1.2 配置局部热备盘。
热备盘容量需大于等于成员盘容量。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
l 用作热备盘的硬盘数据将会丢失。
紧急备份
使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
l 紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。
l 在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。
l 紧急备份的硬盘生效次序:相同类型硬盘 > 相同接口不同介质类型硬盘 > 不同接口相同介质类型硬盘 > 不同接口不同介质类型硬盘。
紧急备份有两种情况,对应了两种设置:
l 当成员盘fail时,空闲盘替代成员盘作为紧急备份。
l 当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。
配置方法请参看12.4.2 设置紧急热备功能。
热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。
l 请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。
l 插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。
l 人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考12.4.10 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。
具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。
l 不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:
l RAID组状态保持“Optimal”不变。
l 热备盘状态由“Online”变为“Hot Spare”。
l 新加入硬盘状态由“Copyback/Copybacking”变为“Online”。
l 可使用命令行工具暂停或继续回拷。
l 若回拷时重启服务器,进度将保存。
l 局部热备以及全局热备,更换故障盘后,均会产生回拷。
条带化
当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数和数据传输率有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待,这时就是所谓的硬盘冲突。
条带化技术是一种自动将I/O负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。
影响条带化效果的因素有:
l 条带宽度:指同时可以并发读或写的条带数量。
这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。
在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。
l 条带大小:指写在每块硬盘上的条带数据块的大小。
分条
硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。
Avago SAS3416iMR不支持设置条带大小,默认为64KB。
RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见2.2 RAID级别介绍。
当前支持以下级别类型的迁移:
l RAID 0迁移到RAID 1
l RAID 1迁移到RAID 0
RAID迁移对硬盘数量的要求如表12-3所示。
迁移RAID级别 |
原始硬盘组硬盘数量 |
迁移后的硬盘组硬盘数量 |
RAID 0迁移 RAID 1 |
1~32 |
2~32(偶数) |
RAID 1迁移到RAID 0 |
2~32(偶数) |
2~32 |
VD初始化
创建虚拟磁盘后,需要将其初始化,使其可以被操作系统使用,且使具有冗余功能的虚拟磁盘中各成员盘的数据关系满足相应的RAID级别要求。
Avago SAS3416iMR提供了多种相应的初始化方式:
l 前台初始化:
− 快速初始化:Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。
− 完全初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。
l 后台初始化:对于RAID 10,如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。
l 一致性校验和后台初始化通常会对性能造成一定损失,直至该操作完成。
l 一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。
l 初始化属于后台动作,在HII界面只能触发而不能正式开始初始化,所以初始化的进度条一直显示为0%。当进入OS后,初始化才会开始进行。
硬盘初始化
硬盘可执行的初始化包括:
l Initialize Drive:对前100MByte空间进行全写0操作。
l Drive Erase:对全部空间进行写0操作。
不支持停止SATA SSD的擦除和初始化过程。
Avago SAS3416iMR支持的容量扩展方式有两种:
l 通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。
详细操作方法可参考11.4.3 添加新硬盘到RAID。
l 通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。
详细操作方法可参考11.4.4 扩展Virtual Drives可用空间。
l 只有RAID 0、RAID1支持增加硬盘扩容。
l RAID 10不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。
l 当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见 12.7.2.25 通过增加成员盘可用容量扩容RAID。
安全擦除即将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘安全擦除功能:
l Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。
l Normal:对虚拟磁盘或硬盘进行三轮擦除动作。
l Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。
安全数据擦除过程中,主机无法访问该虚拟磁盘。
Avago SAS3416iMR支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。
硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。
硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。
硬盘巡检不能在参与以下任何操作的任何硬盘上运行:
l RAID热备修复
l 动态扩盘
l 完全初始化或后台初始化
l 一致性校验
S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T 监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据丢失。
RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描。扫描周期可通过S.M.A.R.T Polling设置,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。
RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。
默认情况下,硬盘节能功能处于开启状态。
当硬盘节能功能开启时,RAID控制卡下挂载的“Unconfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)需要唤醒正处于节能状态的硬盘,该操作会有一定程度的延迟。
硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。
Avago SAS3416iMR可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在Avago SAS3416iMR下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。
Avago SAS3416iMR支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
如果需要使能硬盘直通功能,请在图12-96所示界面的“JBOD Mode”参数进行设置。
Avago SAS3416iMR默认把所有硬盘的状态设置为“JBOD”,用户需要根据实际情况先把硬盘状态设置为“Unconfigured Good”后,才能配置RAID组。设置硬盘状态为JBOD或Unconfigured Good的方法请参见12.4.12 设置硬盘状态为JBOD或Unconfigured Good。
JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
硬盘漫游是指在同一控制卡下移动物理硬盘。控制卡将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。
要使用硬盘漫游,按以下步骤操作:
1. 关闭操作系统。
2. 将服务器下电。
3. 将物理硬盘移动到背板所需位置。
4. 执行安全检查。确保正确插入物理硬盘。
5. 将服务器上电。
6. 控制卡从物理硬盘上的配置数据中检测到RAID配置。
如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。
此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。
Avago SAS3416iMR提供硬盘故障记录功能:
l 使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。
l 禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件(iBMC)不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,Avago SAS3416iMR会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。
维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。
l 使能该功能后,当硬盘故障时,会点亮Fault指示灯。
l 禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。
默认情况下,Avago SAS3416iMR使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。
文档中描述的关于Avago SAS3416iMR的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。
如果服务器已经在Legacy或者UEFI模式下安装OS,切换启动方式后将无法进入操作系统,需要切换为安装时的启动方式再进入,如操作系统需要重装,请根据实际情况选择UEFI 或Legacy模式安装OS。
当服务器配置了较多的可启动设备时,在Legacy模式下可能出现部分设备无法正常启动,建议使用UEFI模式启动,UEFI模式较Legacy模式可以支持更多可启动设备;如需要使用Legacy模式,建议根据实际业务场景禁用串口重定向或网卡PXE等,确保操作系统可以正常启动,具体操作请参考BIOS参数参考的设置网卡的PXE和设置串口重定向章节。
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器。
步骤 2 重启过程中,当出现如图12-2所示界面时,按“Delete”。
进入输入密码界面。
步骤 3 输入密码并按“Enter”。
进入如图12-3所示界面。
步骤 4 按“→”切换到“Advanced”页签,如图12-4所示。
如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见12.5.3 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy进行修复。
步骤 5 选择要操作的Avago SAS3416iMR控制卡,按“Enter”。
进入Avago SAS3416iMR操作界面,如图12-5和图12-6所示,界面参数如表12-4所示。
表12-4 Avago SAS3416iMR操作界面参数说明
参数 |
参数说明 |
Main Menu |
RAID控制卡主菜单,包含了RAID控制卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID控制卡当前工作状态。 |
Backplane |
背板个数。 |
CacheVault |
是否支持Cache。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的硬盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID控制卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 说明 仅当存在外部配置时显示该参数。 |
Configure |
提供RAID控制卡的配置接口。 |
Set Factory Defaults |
恢复出厂设置。 |
Update Firmware |
升级固件。 |
Silence Alarm |
板载蜂鸣器的使能状态。 说明 Avago SAS3416iMR未配置蜂鸣器,此项设置不起作用。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID FastPath |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3416iMR支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看12.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见12.3.1 登录管理界面。
步骤 1 (可选)将要加入RAID组的硬盘设置为“Unconfigured Good”状态。
只有“Unconfigured Good”状态的硬盘可以用于创建RAID组。Avago SAS3416iMR默认把所有硬盘的状态设置为“JBOD”,用户需要根据实际情况先将硬盘状态设置为“Unconfigured Good”后,才可配置RAID组。设置硬盘状态为Unconfigured Good的方法请参见设置硬盘状态为“Unconfigured Good”。
步骤 2 进入“Create Virtual Drive”界面。
1. 在Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。
打开“Main Menu”界面,如图12-7所示。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图12-8和图12-9所示,参数说明如表12-5所示。
图12-8 Create Virtual Drive界面(1)
图12-9 Create Virtual Drive界面(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 l Enabled l Disabled |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 说明 Avago SAS3416iMR当前不支持该功能。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照12.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,Avago SAS3416iMR当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 Avago SAS3416iMR当前不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 Avago SAS3416iMR当前不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 Avago SAS3416iMR当前不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。
步骤 4 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图12-10和图12-11所示,界面参数如表12-6所示。
参数 |
参数说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 按表12-6所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 0支持的硬盘个数为1~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。
5. 选择“Apply Changes”按“Enter”保存配置。
6. 单击“OK”完成成员盘配置。
步骤 5 配置虚拟磁盘属性。
1. 按照表12-5所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照12.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 6 保存配置
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 7 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3416iMR支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看12.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见12.3.1 登录管理界面。
步骤 1 (可选)将要加入RAID组的硬盘设置为“Unconfigured Good”状态。
只有“Unconfigured Good”状态的硬盘可以用于创建RAID组。Avago SAS3416iMR默认把所有硬盘的状态设置为“JBOD”,用户需要根据实际情况先将硬盘状态设置为“Unconfigured Good”后,才可配置RAID组。设置硬盘状态为Unconfigured Good的方法请参见设置硬盘状态为“Unconfigured Good”。
步骤 2 进入“Create Virtual Drive”界面。
1. 在Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。
打开“Main Menu”界面,如图12-12所示。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图12-13和图12-14所示,参数说明如表12-7所示。
图12-13 Create Virtual Drive界面(1)
图12-14 Create Virtual Drive界面(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 l Enabled l Disabled |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 说明 Avago SAS3416iMR当前不支持该功能。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照12.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,Avago SAS3416iMR当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 Avago SAS3416iMR当前不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 Avago SAS3416iMR当前不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 Avago SAS3416iMR当前不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。
步骤 4 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图12-15和图12-16所示,界面参数如表12-8所示。
参数 |
参数说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 按表12-8所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 1支持的硬盘个数为2~32(偶数)。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。
5. 选择“Apply Changes”按“Enter”保存配置。
6. 单击“OK”完成成员盘配置。
步骤 5 配置虚拟磁盘属性。
按照表12-7所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照12.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 6 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 7 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3416iMR支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看12.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见12.3.1 登录管理界面。
步骤 1 (可选)将要加入RAID组的硬盘设置为“Unconfigured Good”状态。
只有“Unconfigured Good”状态的硬盘可以用于创建RAID组。Avago SAS3416iMR默认把所有硬盘的状态设置为“JBOD”,用户需要根据实际情况先将硬盘状态设置为“Unconfigured Good”后,才可配置RAID组。设置硬盘状态为Unconfigured Good的方法请参见设置硬盘状态为“Unconfigured Good”。
步骤 2 进入“Create Virtual Drive”界面。
1. 在Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。
打开“Main Menu”界面,如图12-17所示。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图12-18和图12-19所示,参数说明如表12-9所示。
图12-18 Create Virtual Drive界面(1)
图12-19 Create Virtual Drive界面(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 l Enabled l Disabled |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 说明 Avago SAS3416iMR当前不支持该功能。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照12.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,Avago SAS3416iMR当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 Avago SAS3416iMR当前不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 Avago SAS3416iMR当前不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 Avago SAS3416iMR当前不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。
步骤 4 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图12-20所示,界面参数如表12-10所示。
参数 |
参数说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 按表12-10所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 10支持2~8个Span,每个Span支持的硬盘数为2~16(偶数),且各个Span的硬盘数量必须保持一致。
l RAID 10支持的硬盘总数为4~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。
5. 选择“Apply Changes”按“Enter”保存配置。
6. 单击“OK”完成成员盘配置。
当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如图12-21所示。
1. 选择“Add More Spans”并按“Enter”。
2. 选择“Select Drives”并按“Enter”。
3. 在打开的列表中选择第2个Span的成员盘。
4. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
5. 单击“OK”完成成员盘配置。
步骤 6 根据业务需要重复步骤6,使用其他空闲硬盘创建多个Span。
RAID10至少需要创建2个Span,最多可以创建8个Span。
步骤 7 配置虚拟磁盘属性。
按照表12-9所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照12.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 8 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 9 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
请通过图12-93的“Select Boot Device”选项设置启动项。
当一台服务器配置了单张RAID控制卡时,RAID控制卡下的硬盘启动项即为该服务器的硬盘启动项,具体设置方法请参见12.3.5.1 设置RAID控制卡下的启动项。
当服务器配置了多张RAID控制卡时,硬盘启动项需要在BIOS中进行设置,具体设置方法请参见BIOS参数参考 的“设置服务器启动设备”章节。
对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
Avago SAS3416iMR控制扣卡支持2种类型的热备盘:
l Global Hotspare:即全局热备盘,为控制扣卡上所有已配置的RAID所共有,1块控制扣卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
l Dedicated Hotspare:即局部热备盘,为控制扣卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须是SATA硬盘或SAS硬盘,容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
操作步骤
登录管理界面,具体操作方法请参见12.3.1 登录管理界面。
步骤 1 进入“Drive Management”界面。
1. 在Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。
打开“Main Menu”界面,如图12-22所示。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图12-23所示。
仅“Unconfigured Good”状态的硬盘,可设置为全局热备盘。
步骤 2 配置全局热备盘。
1. 将“Operation”设置为“Assign Global Hot Spare Drive”并按“Enter”。
2. 选择“Go”并按“Enter”。
显示The operation has been performed successfully。
3. 选择“OK”并按“Enter”完成配置并返回上级界面。
步骤 3 检查配置结果。
1. 连续按“ESC”返回“Main Menu”界面。
2. 依次选择“Configuration Management > View Global HotSpare Drives”。
在全局热备盘列表中,可以看到前面所设置的硬盘,如图12-24所示。
----结束
操作步骤
当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
登录管理界面,具体操作方法请参见12.3.1 登录管理界面。
步骤 1 进入“Drive Management”界面。
1. 在Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。
打开“Main Menu”界面,如图12-25所示。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图12-26所示。
仅“Unconfigured Good”状态的硬盘,可设置为局部热备盘。
步骤 2 配置局部热备盘。
1. 将“Operation”设置为“Assign Dedicated Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
打开当前存在的硬盘组列表,如图12-27所示。
3. 选择要关联的硬盘组并按“Enter”。
4. 选择“OK”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
步骤 3 检查配置结果。
在硬盘列表中,可以看到硬盘的状态变为“Hot Spare”,如图12-28所示。
如果需要查硬盘组联的硬盘组信息,可在硬盘列表中选择要查询的硬盘并按“Enter”,在硬盘的“View Associated Drive Groups”节点下进行查看。
----结束
操作场景
当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。
操作步骤
登录管理界面,具体操作方法请参见12.3.1 登录管理界面。
步骤 1 进入“Drive Management”界面。
1. 在Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。
打开“Main Menu”界面。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的热备盘并按“Enter”进入详细操作界面,如图12-29所示。
步骤 2 删除热备盘。
1. 将“Operation”设置为“Unassign Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作场景
使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的空闲盘会自动替代故障成员盘并进行重构,避免数据丢失。
操作步骤
登录管理界面,具体操作方法请参见12.3.1 登录管理界面。
步骤 1 进入“Advanced Controller Properties”界面。
1. 在Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。
打开“Main Menu”界面。
2. 选择“Controller Management”并按“Enter”。
3. 选择“Advanced Controller Properties”并按“Enter”。
进入“Advanced Controller Properties”界面,如图12-30和图12-31所示。
步骤 2 设置紧急热备。
1. 选择“Spare”并按“Enter”。
进入“Spare”界面,如图12-32所示。
2. 将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”。
3. 选择“Apply Changes”并按“Enter”。
4. 看到操作成功的提示信息后,选择“OK”并按“Enter”。
----结束
操作场景
在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。
操作步骤
备份硬盘数据并登录管理界面,具体操作方法请参见12.3.1 登录管理界面。
步骤 1 进入要操作的虚拟磁盘界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图12-33所示。
图12-33 Virtual Drive Management
步骤 2 扩容虚拟磁盘。
1. 将“Operation”设置为“Expand Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入虚拟磁盘扩容界面,如图12-34界面所示,界面参数如表12-11所示。
参数 |
参数说明 |
Current Capacity |
虚拟磁盘当前容量。 |
Available Capacity |
可用于扩展的容量。 |
Enter a Percentage of Available Capacity |
输入扩容比例。 |
Capacity of Virtual Drive after Expansion |
扩容后虚拟磁盘容量。 |
3. 设置扩容百分比。
4. 选择“OK”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作场景
RAID的扩容方式有如下2种:
l 通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。
l 通过增加可用空间方式扩容:在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。
l 只有RAID 0、RAID 1支持增加硬盘扩容。
l RAID10不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
对系统的影响
增加硬盘扩容过程中,如果出现硬盘故障,会导致:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行增加硬盘扩容操作。
必备事项
前提条件
添加硬盘扩容之前,需具备如下条件:
l 服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。
l 已通过远程虚拟控制台登录到服务器的实时操作桌面。
l 已登录管理界面,具体操作请参见12.3.1 登录管理界面。
数据
该操作无需准备数据。
操作步骤
进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”。
进入虚拟磁盘选项界面,如图12-35所示。
步骤 2 添加新硬盘。
1. 选择要进行扩容的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图12-36所示。
3. 选择“Reconfigure Virtual Drives”,并按“Enter”
4. 选择“Go”,并按“Enter”。
进入RAID配置界面,如图12-37所示。
图12-37 Reconfigure Virtual Drives(1)
5. 选择要扩容的RAID级别。
增加硬盘扩容时,请保证该处的RAID级别与原级别一致。
6. 选择“Choose the Operation”并按“Enter”。
进入选择硬盘界面,如图12-38所示。
7. 选择要增加的硬盘并按“Enter”。
l 增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。
l RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。
8. 选择“Apply Changes”并按“Enter”。
弹出操作确认对话框。
9. 选择“Confirm”并按“Enter”。
10. 选择“Yes”并按“Enter”。
提示操作成功。
11. 选择“OK”并按“Enter”返回图12-37所示界面。
图12-39 Reconfigure Virtual Drives(2)
12. 选择“Start Operation”并按“Enter”。
提示操作成功。可进入“Virtual Drive Management”界面,检查扩容结果,如图12-40所示,表示RAID正在进行扩容。
图12-40 Reconfigure Virtual Drives(3)
----结束
l 扩容属于后台动作,在HII界面只能触发而不能正式开始扩容,所以扩容的进度条一直显示为0%。当进入OS后,扩容才会开始进行。
l 扩容过程中若重启服务器,该任务将在重启后继续进行。
操作场景
随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。
在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。
对系统的影响
RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行RAID级别迁移操作。
必备事项
前提条件
迁移RAID级别之前,需具备如下条件:
l 已通过远程虚拟控制台登录到服务器的实时操作桌面。
l 当前存在的硬盘个数满足目标RAID级别要求。
l 已登录管理界面,具体操作请参见12.3.1 登录管理界面。
Avago SAS3416iMR卡支持以下级别类型的迁移:
l RAID 0迁移到RAID 1
l RAID 1迁移到RAID 0
RAID迁移对硬盘数量的要求如表12-3所示。
l 当RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
l 迁移只支持增加与RAID组成员盘同类型同规格的硬盘。
l 为防止数据丢失,请在该操作之前备份当前RAID组的数据。
l 只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。
l 迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。
操作步骤
进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”并按“Enter”。
进入虚拟磁盘选项界面,如图12-41所示。
步骤 2 选择RAID迁移的目标级别。
下面以将RAID 1迁移到RAID 0为例进行说明。
1. 选择要进行迁移的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图12-42所示。
3. 选择“Reconfigure Virtual Drives”,并按“Enter”。
4. 选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如图12-43所示。不设置时默认与原RAID组配置一致。
5. 选择“Go”,并按“Enter”。
进入RAID配置界面,如图12-44所示。
图12-44 Reconfigure Virtual Drives(1)
6. 选择“New RAID Level”并按“Enter”。
打开RAID迁移的目标级别选择窗口,如图12-45所示。
7. 选择“RAID 0”并按“Enter”。
步骤 3 添加硬盘。
1. 选择“Choose the operation”并按“Enter”。
打开硬盘选择窗口。
2. 选择要增加的硬盘并按“Enter”。
RAID迁移对硬盘数量的要求请参见表12-3。
3. 选择“Apply Changes”并按“Enter”。
弹出操作确认会话框。
4. 选择“Confirm”并按“Enter”。
5. 选择“Yes”并按“Enter”。
提示操作成功。
6. 选择“OK”并按“Enter”返回图12-46界面。
图12-46 Reconfigure Virtual Drives(2)
步骤 4 RAID级别迁移。
1. 选择“Start Operation”并按“Enter”。
提示操作成功。
2. 选择“OK”并按“Enter”。
步骤 5 查看迁移结果。
1. 进入Virtual Drive Management界面,检查迁移结果,如图12-47所示,表示RAID正在进行迁移。
l 迁移过程中若重启服务器,该任务将在重启后继续进行。
l 迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。
2. 选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息,如RAID的级别由“RAID 1”变成“RAID 0”,且“Status”状态显示为“Optimal”,表示RAID迁移成功。
----结束
迁移属于后台动作,在HII界面只能触发而不能正式开始,所以迁移的进度条一直显示为0%。当进入OS后,迁移才会开始进行。
操作场景
RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见12.3.1 登录管理界面。
步骤 1 进入“Virtual Drive Management”界面。
1. 在Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。
打开“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
打开虚拟磁盘列表。
3. 选择要操作的虚拟磁盘并按“Enter”。
进入虚拟磁盘操作界面,如图12-48所示。
步骤 2 删除虚拟磁盘。
1. 将“Operation”设置为“Delete Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
l 当出现硬盘离线且RAID组可用时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。
l Rebuild属于后台动作,在HII界面只能触发而不能正式开始rebuild,所以rebuild的进度条一直显示为0%。当进入OS后,rebuild才会开始进行。
重构RAID(含外部配置)
在“Main Menu”界面中选择“Drive Management”,并按“Enter”。
步骤 1 选择要进行重构的硬盘,并按“Enter”。
步骤 2 选择“Operation”并按“Enter”。
显示该硬盘的操作菜单。
步骤 3 选择“Make Unconfigured Good”并按“Enter”。
步骤 4 选择“Go”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 选择“OK”并按“Enter”。
硬盘状态变为“(Foreign)Unconfigured Good”。
步骤 6 导入外部配置,具体操作请参见12.4.10 导入和清除外部配置,。
RAID组开始进行重构。
步骤 7 重新进入该硬盘操作界面可查看重构进度。
----结束
在“Main Menu”界面中选择“Drive Management”,并按“Enter”。
步骤 1 选择要进行重构的硬盘,并按“Enter”。
步骤 2 选择“Operation”并按“Enter”。
显示该硬盘的操作菜单。
图12-49 “Select Operation”
步骤 3 选择“Replace Missing Drive”并按“Enter”。
步骤 4 选择“Go”并按“Enter”。
进入“Replace Missing Drive”界面,如图12-50所示。
图12-50 “Replace Missing Drive”
步骤 5 选择“Drive Group”并按“Enter”。
选择需替换硬盘的RAID。
步骤 6 选择“Row Index”并按“Enter”。
选择需要替换的硬盘索引,推荐使用默认配置。
步骤 7 选择“Replace Drive”并按“Enter”。
提示“The operation has been performed successfully”。
步骤 8 选择“OK”并按“Enter”完成硬盘替换。
步骤 9 重新进入该硬盘操作界面,选择“Operation”并按“Enter”。
显示该硬盘的操作菜单,如图12-51所示。
步骤 10 选择“Rebuild”并按“Enter”。
步骤 11 选择“Go”并按“Enter”。
提示“The operation has been started successfully...”,硬盘开始重构。
步骤 12 重新进入该硬盘操作界面可查看重构进度。
----结束
操作场景
用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。
操作步骤
登录管理界面,具体操作方法请参见12.3.1 登录管理界面。
步骤 1 进入“Controller Management”界面。
1. 在Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。
打开“Main Menu”界面。
2. 选择“Controller Management”并按“Enter”。
显示RAID控制卡基本信息,如图12-52所示,参数说明如表12-12所示。
图12-53 RAID控制卡基本信息(2)
参数 |
参数说明 |
Product Name |
RAID控制卡名称。 |
Serial Number |
RAID控制卡序列号。 |
Controller Status |
RAID控制卡的工作状态。 |
Personality Mode |
RAID控制卡的工作模式。 |
Select Device For Boot Order |
当前启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。 |
PCI ID |
RAID控制卡的PCI ID。 |
PCI Segment:Bus:Device:Fuction |
RAID控制卡的PCI地址,格式为:总线号:设备号:功能号。 |
PCI Slot Number |
RAID控制卡的PCI槽位号,若RAID控制卡为扣卡,则此处显示“Integrated”。 |
Package Version |
RAID控制卡的套件版本。 |
Firmware Version |
RAID控制卡的固件版本号。 |
NVDATA Version |
RAID控制卡配置信息的版本号。 |
Supported Device Interfaces |
RAID控制卡支持的硬盘接口类型。 |
Drive Count |
RAID控制卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID控制卡下已有虚拟磁盘数量。 |
Advanced Controller Management |
更多的控制卡操作。 |
Advanced Controller Properties |
查看和修改控制卡的高级属性。 |
步骤 2 查看控制卡高级属性。
选择“Advanced Controller Properties”并按“Enter”。
进入控制卡高级属性界面,如图12-54和图12-55所示,参数说明如表12-13所示。
在该界面下,可查看并修改RAID控制卡的高级属性。
图12-54 Advanced Controller Properties界面(1)
图12-55 Advanced Controller Properties界面(2)
参数 |
参数说明 |
Patrol Read |
设置系统巡检参数。 |
Power Save Setting |
设置硬盘休眠参数。 |
Spare |
设置控制卡热备状态。 |
Task Rates |
设置各种任务占用系统比率。 |
Alarm Control |
Avago SAS3416iMR控制卡扣卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errrors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。 默认为“Stop On Errors”。 |
Controller BIOS |
控制卡BIOS的使能情况。 |
ROC Temperature |
控制卡温度。 |
Shield State Supported |
是否支持暂停I/O,对硬盘进行诊断。 |
Drive Security |
硬盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Maintain Drive Fail History |
表示是否使能硬盘故障记录功能,默认为使能状态。 说明 l 该参数设置为“Disabled”时: l 当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。 l 新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。 l 该参数设置为“Enabled”时: l 新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。 l 新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见12.4.10 导入和清除外部配置章节。 |
SMART Polling |
SMART轮巡检测周期。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性校验。 |
JBOD Mode |
是否使能硬盘直通功能。 说明 Avago SAS3416iMR支持的Online状态与Unconfigured Good状态的硬盘之和最多为32个,当服务器配置的硬盘数超过32个时,请勿关闭RAID控制卡的硬盘直通功能,以免造成服务器重启导致“Online”状态下的硬盘变为“Ubad”状态的问题。 |
Large IO Support |
启用或禁用大型I/O支持功能。 |
Unmap Capability |
解除映射能力。 |
Apply Changes |
保存配置。 |
----结束
Avago SAS3416iMR支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
l 开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。
l JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
登录管理界面,具体操作方法请参见12.3.1 登录管理界面。
步骤 1 依次进入Main Menu>Controller Management>Advanced Controller Properties界面,如图12-56所示。
图12-56 Advanced Controller Properties
步骤 2 选择“JBOD Mode”并按Enter。
步骤 3 选择“Enabled”并按“Enter”。
步骤 4 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 选择“OK”并按“Enter”完成配置。
----结束
操作场景
l 服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。
l 新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。
RAID控制卡的“Auto Import Foreign Configuration”参数可控制外部配置导入操作是否需要人工干涉。
l 该参数值为“Enabled”时,在系统启动过程中,会自动检测当前存在的外部配置并将其导入。
l 该参数值为“Disabled”时,存在的外部配置需要用户操作才可将其导入。
l 如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!
l 为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。
l 当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。
导入外部配置
登录管理界面,具体操作方法请参见12.3.1 登录管理界面。
步骤 1 在主界面中选择“Main Menu”并按“Enter”。
步骤 2 选择“Configuration Management”并按“Enter”。
步骤 3 选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。
进入外部配置管理界面,如图12-57所示。
图12-57 Manage Foreign Configuration
步骤 4 选择“Preview Foreign Configuration”并按“Enter”。
进入外部配置管理界面,如图12-58所示。
图12-58 Preview Foreign Configuration
步骤 5 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 6 选择“Confirm”并按“Enter”。
步骤 7 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 8 单击“OK”完成配置返回上级界面。
----结束
清空外部配置
登录管理界面,具体操作方法请参见12.3.1 登录管理界面。
步骤 1 在主界面中选择“Main Menu”并按“Enter”。
步骤 2 选择“Configuration Management”并按“Enter”。
步骤 3 选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。
进入外部配置管理界面,如图12-59所示。
图12-59 Manage Foreign Configuration
步骤 4 选择“Preview Foreign Configuration”并按“Enter”。
进入外部配置管理界面,如图12-60所示。
图12-60 Preview Foreign Configuration
步骤 5 选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 6 选择“Confirm”并按“Enter”。
步骤 7 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 8 单击“OK”完成配置返回上级界面。
----结束
该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID0存在一个VD为例(如图12-61所示),详细操作方法如下:
图12-61 Virtual Drive Management
按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如图12-62所示。
步骤 2 将“Select Drives From”设置为“Free Capacity”,如图12-63所示。
步骤 3 选择“Select Drive Groups”并按“Enter”。
显示当前存在的RAID组(Drive Group),如图12-64所示。
步骤 4 选择要创建多个VD的RAID组并按“Enter”,如图12-65所示。
步骤 5 选择“Apply Changes”并按“Enter”。
提示操作成功。
步骤 6 选择“OK”并按“Enter”返回VD配置界面,如图12-66所示,参数说明如表12-5所示。
表12-14
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 l Enabled l Disabled |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 说明 Avago SAS3416iMR当前不支持该功能。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drive Group |
选择硬盘组。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照12.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,Avago SAS3416iMR当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 Avago SAS3416iMR当前不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 Avago SAS3416iMR当前不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 Avago SAS3416iMR当前不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 7 按照表12-5所述配置VD的相关属性。
步骤 8 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
步骤 9 选择“Confirm”并按“Enter”。
步骤 10 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
可进入Virtual Drive Management界面,查看当前存在的所有VD,如图12-67所示。
图12-67 Virtual Drive Management
每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤11。
----结束
Avago SAS3416iMR默认把所有硬盘的状态设置为“JBOD”,用户需要根据实际情况先把硬盘状态设置为“Unconfigured Good”后,才能配置RAID组。
l 将单个JBOD硬盘设置为“Unconfigured Good”的操作方法:
a. 登录管理界面,具体操作方法请参见12.3.1 登录管理界面。
b. 在主界面中依次进入“Main Menu > Drive Management”,如图12-68所示。
c. 选中要进行操作的硬盘并按“Enter”。
d. 选择“Operation”并按“Enter”。
e. 选择“Make Unconfigured Good”并按“Enter”。
f. 选择“Go”并按“Enter。”
提示The operation has been performed successfully。
g. 选择“OK”并按“Enter”完成配置。
l 通过“Make Unconfigured Good”选项将“JBOD”状态的硬盘设置为“Unconfigured Good”状态:
a. 登录管理界面,具体操作方法请参见12.3.1 登录管理界面。
b. 在主界面中选择“Main Menu”并按“Enter”。
c. 选择“Configuration Management”并按“Enter”。
d. 选择“Make Unconfigured Good”并按“Enter”。
显示当前JBOD状态的硬盘,如图12-69所示。
图12-69 Make Unconfigured Good界面
e. 选择要设置为“Unconfigured Good”状态的硬盘并按“Enter”。
f. 选择“OK”并按“Enter”。
弹出操作确认框。
g. 选择“Confirm”并按“Enter”。
h. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
i. 选择“OK”并按“Enter”完成配置。
l 通过关闭JBOD功能将所有JBOD状态的硬盘设置为“Unconfigured Good”状态(已加入RAID组的硬盘状态不受影响):
a. 登录管理界面,具体操作方法请参见12.3.1 登录管理界面。
b. 在主界面中依次进入“Main Menu > Controller Management > Advanced Controller Properties”,如图12-70所示。
图12-70 Advanced Controller Properties界面
c. 选择“JBOD Mode”并按“Enter”。
d. 选择“Disabled”并按“Enter”。
e. 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
f. 选择“OK”并按“Enter”。
操作成功。
设置硬盘状态为“JBOD”
l 如果RAID控制卡未开启硬盘直通功能(“JBOD Mode”选项为“Disabled”状态),可通过开启硬盘直通功能,将所有“Unconfigured Good”状态的硬盘同时设置为“JBOD”状态,已加入RAID组的硬盘状态不受影响。具体操作方法:
a. 登录管理界面,具体操作方法请参见12.3.1 登录管理界面。
b. 在主界面中依次进入“Main Menu > Controller Management > Advanced Controller Properties”,如图12-71所示。
图12-71 Advanced Controller Properties界面
c. 选择“JBOD Mode”并按“Enter”。
d. 选择“Enabled”并按“Enter”。
e. 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
f. 选择“OK”并按“Enter”。
操作成功。
l 如果RAID控制卡已开启硬盘直通功能(“JBOD Mode”选项为“Enabled”状态):
− 可通过硬盘菜单将某一个“Unconfigured Good”状态的硬盘设置为“JBOD”状态。具体操作方法:
i. 登录管理界面,具体操作方法请参见12.3.1 登录管理界面。
ii. 在主界面选择“Drive Management”并按“Enter”。
iii. 选择要设置为“JBOD”状态的硬盘,并按“Enter”。
iv. 选择“Operation”并按“Enter”。
v. 在弹出的菜单中选择“Make JBOD”并按“Enter”。
vi. 选择“Go”并按“Enter”。
提示操作成功。
− 通过“Make JBOD”选项将“Unconfigured Good”状态的硬盘设置为“JBOD”状态:
i. 登录管理界面,具体操作方法请参见12.3.1 登录管理界面。
ii. 在主界面中选择“Main Menu”并按“Enter”。
iii. 选择“Configuration Management”并按“Enter”。
iv. 选择“Make JBOD”并按“Enter”。
显示当前“Unconfigured Good”状态的硬盘,如图12-72所示。
v. 选择要设置为“Unconfigured Good”状态的硬盘并按“Enter”。
vi. 选择“OK”并按“Enter”。
vii. 选择“Confirm”并按“Enter”。
选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
viii. 选择“OK”并按“Enter”完成配置。
介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。
更多故障案例请联系技术支持获取。
问题描述
当服务器出现如下现象时,说明硬盘故障。
l 硬盘故障指示灯常亮。
l 服务器开机状态下,硬盘指示灯不亮。
l 服务器上报硬盘故障告警。
处理方法
JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
l 通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。
l 通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。
l 通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考12.6.2.4 Drive Management。
l 通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
步骤 1 更换新硬盘。
l 更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考12.4.10 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。
l 若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在表12-2查看RAID组支持的最大故障硬盘数量。
l 更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。
l 新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。
拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:
l 若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。
l 若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成。新插入硬盘后确认rebuild操作是否已经启动,如rebuild操作未启动,需手动启动硬盘重构,操作请参见重构RAID(无外部配置)。
如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。
l 若故障硬盘为直通盘,则直接更换即可。
l 若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。
− UEFI模式下创建RAID0的方法请参见12.3.2 创建RAID 0。
− 通过命令行方式创建RAID0的方法请参见12.7.2.2 创建和删除RAID。
----结束
问题描述
正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
但当RAID控制卡未设置紧急热备时,成员盘状态显示为fail或prefail时,可使用以下方法处理。
处理方法
使用StorCLI工具,具体操作请参考12.7.1 下载和安装StorCLI工具。
步骤 1 执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考12.7.2.15 设置硬盘状态。
storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]
l controller_id:硬盘所在RAID控制卡的ID
l enclosure_id:硬盘所在Enclosure的ID
l slot_id:物理硬盘槽位ID
步骤 2 更换离线硬盘。
步骤 3 RAID组自动执行重构。
等待重构完成。
----结束
问题描述
硬盘状态显示为Unconfigured Bad或UBad。
处理方法
使用StorCLI工具,具体操作请参见12.7.1 下载和安装StorCLI工具。
步骤 1 执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见12.7.2.15 设置硬盘状态。
storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]
l controller_id:硬盘所在RAID控制卡的ID
l enclosure_id:硬盘所在Enclosure的ID
l slot_id:物理硬盘槽位ID
步骤 2 重新查看硬盘状态是否更改为Unconfigured Good或Ugood。具体操作请参见12.6.2.4 Drive Management界面或12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤4。
步骤 3 查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见12.4.10 导入和清除外部配置或12.7.2.29 查看/导入/清除外部配置。
l 问题解决 => 处理完毕。
l 问题未解决 => 联系技术支持处理。
----结束
问题描述
当服务器出现如下现象时,说明控制卡故障。
l 数据无法写入控制卡控制的硬盘。
l 服务器上报控制卡故障告警。
处理方法
登录iBMC Web界面查看告警信息。
步骤 1 根据告警信息,参考iBMC告警处理。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤3
步骤 3 查询兼容性查询助手或者联系技术支持处理。
----结束
问题描述
正常情况下,当服务器配置了RAID控制卡且RAID控制卡状态正常时,进入BIOS的Advanced页签后,会显示RAID控制卡的信息,如图12-73所示。
如果Advanced页签不显示RAID控制卡的信息,如图12-74所示,则:
l 如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:
− 如果不显示驱动打印信息,可尝试下电后重新拔插RAID控制卡再上电、下电后更换RAID控制卡再上电或者联系技术支持。
− 如果显示“AVAGO EFI SAS Driver SAS3416”,则可以通过本章节的指导修复RAID控制卡。
l 如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,则可以通过本章节的指导修复RAID控制卡;如果不显示,可尝试下电后重新拔插RAID控制卡再上电、下电更换RAID控制卡再上电或者联系技术支持。
处理方法
l 当BIOS的版本为0.98之前版本(不包含0.98版本)时:
a. 在Advanced页签选择“Driver Health Manager”并按Enter。
进入“Driver Health Manager”界面。
b. 选择要进行修复的RAID控制卡驱动,如“AVAGO EFI SAS Driver SAS3416”,并按“Enter”。
进入“Critical Message”界面。
c. 查看“Critical Message”界面的打印信息:
n 显示“The following VDs have missing disks. ”=> 请参见12.5.3.1 The following VDs have missing disks。
n 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见12.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
l 当BIOS的版本为0.98及以上版本时:
a. 在“Advanced”页签选择“Some drivers are not healthy”。
进入健康状态查询界面。
b. 选择“Repair the whole platform”,并按“Enter”。
进入“Critical Message”界面。
c. 查看“Critical Message”界面的打印信息。
n 显示“The following VDs have missing disks. ”=> 请参见12.5.3.1 The following VDs have missing disks。
n 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见12.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见0RAID控制卡启动中出现的常见的错误消息及处理方法。
问题描述
如图12-75所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。
处理方法
修复RAID控制卡。
1. 在图12-75中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
2. 输入“c”,选择“Yes”并按“Enter”。
返回“Driver Healthy Protocol Utility”界面。
3. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
4. 输入“y”,选择“Yes”并按“Enter”。
提示Critical Message handling completed. Please exit。修复完成。
步骤 1 重启服务器,进入“Advanced”界面,检查界面是否显示The platform is healthy。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图12-76所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”
图12-76 “Driver Healthy Protocol Utility”界面
处理建议
该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:
l 下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。
l 忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:
a. 在图12-76中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
b. 输入“c”并按“Enter”。
c. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
d. 输入“y”并按“Enter”。
提示Critical Message handling completed. Please exit。
e. 按“Esc”退出当前界面。
弹出确认保存配置会话框,如图12-77所示。
f. 按“Y”保存配置,操作完成。
g. 按Esc键返回“Device Manager”界面。
h. 选择3416iMR RAID控制卡,并按“Enter”,进入RAID控制卡管理界面。
问题描述
如图12-78所示,进入“Driver Healthy Protocol Utility”界面后,显示“Disabling writes to flash as the flash part has gone bad”。
处理方法
将服务器下电。
步骤 1 更换RAID控制卡。
步骤 2 将服务器上电,导入外部配置恢复原来的RAID配置,请参见12.4.10 导入和清除外部配置或12.7.2.29 查看/导入/清除外部配置。
检查提示是否清除。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
硬盘响应命令超时,控制卡会对硬盘进行复位。3次复位后尚未恢复时将可能耗尽控制卡TM(Task Management)资源,触发Fatal error,此时会通过OCR(Online Controller Reset)自愈恢复,期间将有短时间业务中断(约30s~60s),控制卡复位后会完成踢盘,将故障硬盘置为Ubad状态。
控制卡自愈恢复,需要开启OCR开关。
触发条件
当下发到硬盘的I/O出现超时不响应的情况时,RAID控制卡会通过reset硬盘来恢复,正常情况下,硬盘会重新接入或者多次reset之后会进行踢盘。
当出现reset之后硬盘仍然无法响应RAID控制卡指令且无法踢盘时,RAID控制卡会再次reset进行复位,每次reset会占用RAID控制卡资源,短时间内多次reset会导致RAID控制卡资源耗尽,该场景下,RAID控制卡会通过重新加载FW进行恢复。
该机制为此类卡的正常处理机制,由于架构限制,无法进行优化。
识别方法
l 已安装OS:
当遇到短时间业务中断,恢复后查看有被置为Ubad状态的硬盘时,可以查看控制卡日志,搜索dm.c并查看其发生时间,如与业务中断时间节点接近,即可断定为触发了该机制。
注意控制卡与OS时间差。
l 未安装OS:
无OS时,触发该机制的操作为:从“Advanced”页签进入控制卡界面。若触发该机制,进入控制卡卡操作界面时将会卡住,无法恢复。
处理方法
定位故障硬盘。
l 已安装OS:
− 如确认触发了该机制并且已经完成了踢盘,需要更换Ubad状态的硬盘。
− 如无Ubad状态的硬盘,查看日志并搜索“indicates critical condition”,目标行的“element xx indicates critical condition”中,“xx”即为问题硬盘的槽位号。
已安装OS,但是进入“Advanced”页签的控制卡操作界面卡住,需要重新上下电进入OS,按照以上方式定位故障硬盘。
l 未安装OS:
系统未安装OS,出现该异常时,保留预安装OS RAID组数目的硬盘,将其他硬盘拔出并记录槽位号,如成功安装OS进入系统后,按照已安装OS的操作来确认问题硬盘。
步骤 1 更换故障硬盘。
l 是 => 处理完毕。
l 否 => 请联系技术支持。
----结束
问题描述
RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD mode将RAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如图12-79所示,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。
当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。
处理方法
(可选)登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面。
步骤 1 依次进入Main Menu>Controller Management>Advanced Controller Management界面,如图12-80所示。
图12-80 Advanced Controller Management界面
步骤 2 选择“Switch to RAID mode”并按“Enter”。
提示操作成功,如图12-81所示。
步骤 3 选择“OK”并按“Enter”。
返回到“Advanced Controller Management”界面,显示正在切换模式,如图12-82所示。
图12-82 Advanced Controller Management界面
步骤 4 按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面。
步骤 5 依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如图12-83所示。
图12-83 Advanced Controller Management界面
l 是 => 处理完毕。
l 否 => 请联系技术支持。
----结束
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器。
步骤 2 重启过程中,当出现如图12-84所示界面时,按“Delete”。
进入输入密码界面。
步骤 3 输入密码并按“Enter”。
进入如图12-85所示界面。
步骤 4 按“→”切换到“Advanced”页签,如图12-86所示。
如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见12.5.3 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy进行修复。
步骤 5 选择要操作的Avago SAS3416iMR控制卡,按“Enter”。
进入Avago SAS3416iMR操作界面,如图12-87和图12-88所示,界面参数如表12-15所示。
图12-87 Avago SAS3416iMR操作界面(1)
图12-88 Avago SAS3416iMR操作界面(2)
表12-15 Avago SAS3416iMR操作界面参数说明
参数 |
参数说明 |
Main Menu |
RAID控制卡主菜单,包含了RAID控制卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID控制卡当前工作状态。 |
Backplane |
背板个数。 |
CacheVault |
是否支持Cache。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的硬盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID控制卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 说明 仅当存在外部配置时显示该参数。 |
Configure |
提供RAID控制卡的配置接口。 |
Set Factory Defaults |
恢复出厂设置。 |
Update Firmware |
升级固件。 |
Silence Alarm |
板载蜂鸣器的使能状态。 说明 Avago SAS3416iMR未配置蜂鸣器,此项设置不起作用。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID FastPath |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。
界面介绍
“Main Menu”界面如图12-89,参数说明如表12-16所示。
参数 |
参数说明 |
Configuration Management |
配置管理RAID。 |
Controller Management |
管理RAID控制卡。 |
Virtual Drive Management |
管理虚拟磁盘。 |
Drive Management |
管理硬盘。 |
Hardware Components |
查询部件信息。 |
可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。
界面介绍
“Configuration Management”界面如图12-90,参数说明如表12-17所示。
图12-90 Configuration Management
参数 |
参数说明 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。 |
View Drive Group Properties |
查看硬盘组属性。 当存在硬盘组时会显示该参数。 |
View Global HotSpare Drives |
查看全局热备盘属性。 |
Make JBOD |
硬盘直通功能,硬盘不加入RAID,直接使用。 |
Make Unconfigured Good |
配置硬盘状态。 |
Clear Configuration |
清除配置。 |
Manage Foreign Configuration |
管理外部配置。 当存在外部配置时会显示该参数。 |
清除RAID配置
选择“Clear Configuration”并按“Enter”。
进入操作确认界面。
步骤 1 选中“Confirm”并按“Enter”。
步骤 2 在打开的列表中选择“Enabled”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 按“Enter”。
配置完成。
----结束
快速创建RAID
在图12-90中选择“Create Profile Based Virtual Drive”并按“Enter”。
步骤 1 通过“↑”、“↓”选择要创建的RAID(以“Generic RAID 0”为例)并按“Enter”。
打开RAID配置界面,如图12-91,参数说明如表12-18所示。
参数 |
参数说明 |
Drive Selection Criteria |
系统自动选择的成员盘。 |
Virtual Drive Name |
系统自定义的RAID组名称。 |
RAID Level |
当前配置的RAID组的级别。 |
Virtual Drive Size |
RAID组的容量。 |
Power Save Mode |
数据掉电保护模式。 |
Strip Size |
RAID组扇区大小。 |
Read Policy |
RAID组的数据读策略。 |
Write Policy |
RAID组的数据写策略。 |
IO Policy |
RAID组I/O策略。 |
Access Policy |
数据读写的策略。 |
Drive Cache |
硬盘Cache策略。 |
Default Initialization |
RAID组默认的初始化方式。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择“Drive Selection Criteria”并按“Enter”。
步骤 3 选择快速RAID所使用的硬盘。
步骤 4 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
步骤 5 按“Enter”。
步骤 6 选择“Confirm”并按“Enter”。
步骤 7 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 8 单击“OK”完成配置。
----结束
查看硬盘组属性
在图12-90中选择“View Drive Group Properties”并按“Enter”。
参数 |
参数说明 |
Drive Group |
硬盘组名称。 |
Capacity Allocation |
硬盘组关联内容,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。 |
Protected |
硬盘组数据保护功能的使能状态。 |
Assigned Dedicated Hot SDpare Drive |
硬盘组关联的局部热备盘。 |
该界面提供控制卡管理接口,可查看并修改控制卡的详细参数。
界面介绍
“Controller Management”界面如图12-93,参数说明如表12-20所示。
图12-93 Controller Management(1)
图12-94 Controller Management(2)
参数 |
参数说明 |
Product Name |
RAID控制卡名称。 |
Serial Number |
RAID控制卡序列号。 |
Controller Status |
RAID控制卡的工作状态。 |
Personality Mode |
RAID控制卡的工作模式。 |
Select Device For Boot Order |
当前启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。 |
PCI ID |
RAID控制卡的PCI ID。 |
PCI Segment:Bus:Device:Fuction |
RAID控制卡的PCI地址,格式为:总线号:设备号:功能号。 |
PCI Slot Number |
RAID控制卡的PCI槽位号,若RAID控制卡为扣卡,则此处显示“Integrated”。 |
Package Version |
RAID控制卡的套件版本。 |
Firmware Version |
RAID控制卡的固件版本号。 |
NVDATA Version |
RAID控制卡配置信息的版本号。 |
Supported Device Interfaces |
RAID控制卡支持的硬盘接口类型。 |
Drive Count |
RAID控制卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID控制卡下已有虚拟磁盘数量。 |
Advanced Controller Management |
更多的控制卡操作。 |
Advanced Controller Properties |
查看和修改控制卡的高级属性。 |
查看并修改控制卡高级属性
在图12-93中选择“Advanced Controller Properties”并按“Enter”。
界面如图12-95和图12-96所示,界面中参数说明如表12-21所示。
图12-95 Advanced Controller Properties界面(1)
图12-96 Advanced Controller Properties界面(2)
参数 |
参数说明 |
Patrol Read |
设置系统巡检参数。 |
Power Save Setting |
设置硬盘休眠参数。 |
Spare |
设置控制卡热备状态。 |
Task Rates |
设置各种任务占用系统比率。 |
Alarm Control |
Avago SAS3416iMR控制卡扣卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errrors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。 默认为“Stop On Errors”。 |
Controller BIOS |
控制卡BIOS的使能情况。 |
ROC Temperature |
控制卡温度。 |
Shield State Supported |
是否支持暂停I/O,对硬盘进行诊断。 |
Drive Security |
硬盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Maintain Drive Fail History |
表示是否使能硬盘故障记录功能,默认为使能状态。 说明 l 该参数设置为“Disabled”时: l 当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。 l 新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。 l 该参数设置为“Enabled”时: l 新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。 l 新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见12.4.10 导入和清除外部配置章节。 |
SMART Polling |
SMART轮巡检测周期。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性校验。 |
JBOD Mode |
是否使能硬盘直通功能。 说明 Avago SAS3416iMR支持的Online状态与Unconfigured Good状态的硬盘之和最多为32个,当服务器配置的硬盘数超过32个时,请勿关闭RAID控制卡的硬盘直通功能,以免造成服务器重启导致“Online”状态下的硬盘变为“Ubad”状态的问题。 |
Large IO Support |
启用或禁用大型I/O支持功能。 |
Unmap Capability |
解除映射能力。 |
Apply Changes |
保存配置。 |
步骤 2 在图12-95中选择“Task Rates”并按“Enter”。界面如图12-97所示,界面中参数说明如表12-22所示。
参数 |
说明 |
Background Initialization <BGI> Rate |
设置执行后台初始化的速率。 说明 数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Consistency Check Rate |
设置执行一致性校验的速率。 说明 数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Patrol Read Rate |
设置执行巡检读取的速率。 说明 数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Rebuild Rate |
设置硬盘发生故障时在新硬盘上执行重构数据的速率。 说明 数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Reconstruction Rate |
设置执行RAID级别迁移或在线容量扩展时重构数据的速率。 说明 数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Apply Changes |
保存配置。 |
步骤 3 按照表12-21所述修改控制卡的高级属性参数。
步骤 4 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 单击“OK”完成配置。
----结束
该界面提供虚拟磁盘的查询和管理接口。
界面介绍
“Virtual Drive Management”界面如图12-98,显示虚拟磁盘列表。
选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如图12-99所示,参数说明如表12-23所示。
图12-99 Virtual Drive Management界面
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:定位虚拟磁盘的所有硬盘。 l Stop Locate:取消定位。 l Delete Virtual Drive:删除虚拟磁盘。 l Expand Virtual Drive:扩展虚拟磁盘容量。 l Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。 l Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。 l Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。 l Fast Initialization:快速初始化虚拟磁盘。 l Slow Initialization:安全初始化虚拟磁盘。 l Check Consistency:一致性校验。 l Virtual Drive Erase:格式化虚拟磁盘。 |
Progress |
当前任务进度。 l 仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。 l 当前界面不会自动刷新,需退出后重新进入查看当前进度。 |
Stop |
停止当前任务。 仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。 |
Name |
虚拟磁盘名称。 |
Raid Level |
虚拟磁盘RAID级别。 |
Status |
虚拟磁盘当前运行状态。 |
Size |
虚拟磁盘容量。 |
View Associated Drives |
查看成员盘属性。 |
Advanced... |
查看虚拟磁盘高级属性。 |
查看成员盘属性
在图12-99中选择“View Associated Drives”并按“Enter”。
界面如图12-100,显示成员盘列表。
步骤 2 选择要查看的成员盘,并按“Enter”。
步骤 3 选择“View Drive Properties”并按“Enter”。
进入硬盘属性界面,如图12-101界面所示,界面参数如表12-24所示。
参数 |
参数说明 |
Operation |
该成员盘可执行的操作,包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Place Drive Online/Offline:将硬盘上线/离线。 |
Drive ID |
成员盘的ID。 |
Connection |
成员盘的接口。 |
Enclosure Position |
Enclosure的位置。 |
Slot Number |
成员盘的槽位号。 |
Status |
成员盘的当前工作状态。 |
Size |
成员盘的容量。 |
Type |
成员盘类型。 |
Model |
成员盘的模块类型。 |
Serial Number |
成员盘的序列号。 |
Hardware Vendor |
成员盘的生产厂商。 |
Associated Virtual Drive |
成员盘所在的虚拟磁盘。 |
Advanced... |
查询成员盘更多属性。 |
----结束
查看和修改虚拟磁盘高级属性
在图12-99中选择“Advanced”并按“Enter”。
界面如图12-102和图12-103所示,界面参数如表12-25所示。
参数 |
参数说明 |
Mirror Date Size |
RAID中镜像空间的容量。 |
Logical Sector Size |
逻辑扇区大小。 |
Strip Size |
条带大小。 |
Starting Logical Block Addressing |
逻辑单元起始地址。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 当成员盘为512B/512B时: l Default:逻辑盘扇区为512B/512B。 l None:逻辑盘扇区为512B/512B。 l Force:逻辑盘扇区为512B/4KB。 当成员盘为512B/4KB时: l Default:逻辑盘扇区为512B/4KB。 l None:逻辑盘扇区为512B/512B。 l Force:逻辑盘扇区为512B/4KB。 |
Bad Blocks |
是否支持坏块处理。 |
Access |
当前读写策略。 |
Current Write Cache Policy |
当前的写Cache策略。 |
Default Write Cache Policy |
默认的写Cache策略。 |
Disable Background Initialization |
是否禁用后台初始化。 |
Read Cache Policy |
当前的读Cache策略。 |
Drive Cache |
是否支持cache。 |
Input/Output |
I/O读取策略,包括: l Direct:直接从硬盘读取数据,不经过Cache缓存。 l Cached:从Cache缓存中读取数据。 |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 |
Apply Changes |
保存配置。 |
步骤 2 按照表12-25所述配置“Advanced”的参数。
步骤 3 选择“Apply Changes”并按“Enter”。
显示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面显示硬盘基本属性,提供硬盘操作接口。
界面介绍
“Drive Management”界面如图12-104所示,显示硬盘列表。
硬盘的标识信息说明如下:
l ①表示RAID控制卡的Port口编号,其中Drive C0/Drive Port A表示RAID控制卡的Port A口,Drive C1/Drive Port B表示RAID控制卡的Port B口,Drive C2/Drive Port C表示RAID控制卡的Port C口,Drive C3/Drive Port D表示RAID控制卡的Port D口。
l ②表示机箱或背板的位置ID。
l ③表示硬盘槽位号。
l ④表示硬盘类型。
l ⑤表示硬盘的容量。
l ⑥表示硬盘的状态。
l ⑦表示硬盘的扇区大小。
选定要操作的硬盘并按“Enter”进入详细操作界面,如图12-105所示,参数说明如表12-26所示。
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Initialize Drive:硬盘初始化。 l Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。 − Simple:仅对硬盘进行一轮擦除动作。 − Normal:对硬盘进行三轮擦除动作。 − Thorough:对硬盘进行九轮擦除动作。 − Stop Erase:停止数据擦除操作。 l Make Unconfigured Good/Bad:修改硬盘状态。 l Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。 l Assign Global Hot Spare Drive:设置全局热备盘。 l Assign Dedicated Hot Spare Drive:设置局部热备盘。 l Unassign Hot Spare Drive:删除热备盘。 l Prepare For Removal:准备移除硬盘。 l Replace Missing Drive:安装硬盘。 l Place Drive Online:将Offline状态的硬盘设置为Online。 说明 l Place Drive Online操作仅仅只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。 l 如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。 l 对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。 |
Drive ID |
硬盘的ID。 |
Connection |
硬盘的接口。 |
Slot Number |
硬盘的槽位号。 |
Status |
硬盘的当前工作状态。 |
Size |
硬盘的容量。 |
Type |
硬盘的类型。 |
Model |
硬盘型号。 |
Serial Number |
硬盘的序列号。 |
Hardware Vendor |
硬盘的生产厂商。 |
Advanced... |
查询更多硬盘属性。 |
安全擦除硬盘数据
该操作会删除硬盘上的数据,请谨慎执行。
将“Operation”设置为“Drive Erase”。
步骤 1 选择“Erase Mode”并按“Enter”。
步骤 2 在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。
步骤 3 选择“Go”并按“Enter”。
步骤 4 选择“Confirm”并按“Enter”。
步骤 5 选择“Yes”并按“Enter”。
提示操作成功。
----结束
查看硬盘属性
选择“Advanced...”并按“Enter”。
打开硬盘属性界面,如图12-106和图12-107所示,参数说明如表12-27所示。
参数 |
参数说明 |
Certified |
硬盘是否有供应商认证。 |
Logical Sector Size |
逻辑扇区大小。 |
Physical Sector Size |
物理扇区大小。 |
SMART Status |
SMART功能是否使能。 |
Revision |
硬盘Firmware版本。 |
Media Error |
Media error个数。 |
Predicted Fail Count |
Pred fail个数。 |
SAS Address |
硬盘SAS地址。 |
Multipath |
该功能为支持检测和使用从RAID控制卡到盘柜中的SAS设备的多条路径,连接到盘柜的设备有多条路径。到设备同一端口的冗余路径,可以保障当其中一条路径发生故障时,控制卡和设备之间可以使用另一条路径进行通信。同时使用具有负载平衡的多条路径,而不是单条路径,可以通过冗余来提高可靠性。 当前服务器暂不支持多路径的方式。 |
Drive Power State |
硬盘上电状态。 |
Cache Setting |
是否可设置Cache。 |
Disk Protocol |
硬盘支持的协议。 |
Capable Speed |
硬盘的速率。 |
Negotiated Speed |
硬盘协商速率。 |
Number of Connections |
连接器个数。 |
FDE Capable |
硬盘是否支持FDE(Full Disk Encryption)技术。 |
Cryptographic Erase Capable |
硬盘的加密擦除能力。 |
Unmap Capable |
解除映射能力。 |
Temperature(C) |
硬盘温度。 |
该界面主要提供RAID控制卡传感器信息。
界面介绍
“Hardware Components”界面如图12-108,参数说明如表12-28所示。
参数 |
参数说明 |
Temperature Sensors |
当前温度传感器状态。 |
Fans |
当前风扇模块工作状态。 |
Power Supplies |
当前供电模块工作状态。 |
Enclosure Management |
更多部件信息。 |
提供RAID控制卡操作管理接口。
界面介绍
“View Server Profile”界面如图12-109所示,参数说明如表12-29所示。
参数 |
参数说明 |
UEFI Spec Version |
服务器支持的UEFI Spec版本。 |
Controller Management |
提供控制卡管理接口,详细情况请参见12.6.2.2 Controller Management。 |
Hardware Components |
提供控制卡部件查询接口,详细情况请参见12.6.2.5 Hardware Components。 |
Drive Management |
提供硬盘管理接口,详细情况请参见12.6.2.4 Drive Management。 |
Virtual Drive Management |
提供虚拟磁盘管理接口,详细情况请参见12.6.2.3 Virtual Drive Management。 |
该界面可查看、导入、清空外部配置。
界面介绍
“Manage Foreign Configuration”界面如图12-110所示。
查看并导入外部配置
选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图12-111所示。
步骤 2 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 3 选择“Confirm”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 单击“OK”完成配置。
----结束
清除外部配置
选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 单击“OK”完成配置。
----结束
该界面可清除当前所有配置。
界面介绍
“Configure”界面如图12-112所示,可执行的操作包括表12-30。
参数 |
参数说明 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。 |
View Drive Group Properties |
查看硬盘组属性。 当存在硬盘组时会显示该参数。 |
View Global HotSpare Drives |
查看全局热备盘属性。 |
Make JBOD |
硬盘直通功能,硬盘不加入RAID,直接使用。 |
Make Unconfigured Good |
配置硬盘状态。 |
Clear Configuration |
清除配置。 |
Manage Foreign Configuration |
管理外部配置。 当存在外部配置时会显示该参数。 |
清除当前配置
选择“Clear Configuration”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 单击“OK”完成配置。
----结束
恢复出厂配置
在主界面选择“Set Factory Defaults”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 单击“OK”完成配置。
----结束
该界面提供固件升级接口。
界面介绍
“Update Firmware”界面如图12-113所示,参数说明如表12-31所示。
参数 |
参数说明 |
Select File System |
选择使用的文件系统。 |
Select Directory |
选择文件存放路径。可选路径包括: Current Dir:当前路径 EFI:自适应路径 |
Select Image |
选择要加载的文件。 |
升级固件
l 进行固件升级时,必须使用FAT12、FAT16或FAT32格式的介质。
l 仅检查支持EFI_SIMPLE_FILE_SYSTEM_PROTOCOL的文件系统。
l FW镜像文件必须位于根目录或根目录的下一个级别才能进行访问。
按照表12-31所述配置升级参数。
步骤 1 选择“Update”并按“Enter”。
打开操作确认界面。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 在列表中选择“Enable”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 单击“OK”完成配置。
----结束
该界面提供RAID控制卡高级软件特性查看和导入接口。
界面介绍
“Manage MegaRAID Advanced Software Options”界面如图12-114所示,界面中参数说明如表12-32所示。
参数 |
参数说明 |
SAFE ID |
RAID控制卡的安全编码。 |
Serial Number |
RAID控制卡序列号。 |
Activation Key |
待激活的高级特性的Key。 |
Active |
激活高级特性。 Avago SAS3416iMR不支持高级特性的激活操作,该功能无效。 |
Deactive All Trail Software |
注销当前所有高级特性。 |
退出配置界面
在Avago SAS3416iMR主界面按“ESC”,显示如图12-115所示“界面。
步骤 2 按“Esc”退出配置界面。
----结束
使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。
下载工具
步骤 1 在“DOWNLOADS”页签中单击“Management Software and Tools”。
打开管理软件和工具列表。
步骤 2 下载最新版本的“StorCLI”工具。
步骤 3 解压后得到适用于不同操作系统的工具包。
----结束
安装工具
使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。
步骤 1 在Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。
StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。
安装完毕后,即可执行RAID控制卡命令。
----结束
命令功能
查询Avago SAS3416iMR的基本配置信息。
命令格式
storcli64 /ccontroller_id show
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID |
使用指南
建议保持默认配置。
使用实例
# 查询RAID控制卡配置信息。
domino:~# ./storcli64 /c0 show
Controller = 0
Status = Success
Description = None
Product Name = SAS3416
Serial Number = FW-00000000
SAS Address = 3202017050235207
PCI Address = 00:1b:00:00
System Time = 02/12/2016 18:53:00
Mfg. Date = 00/00/00
Controller Time = 02/12/2016 23:53:00
FW Package Build = 50.1.0-0426
BIOS Version = 07.01.04.0_4.17.08.00_0x0701060
FW Version = 5.010.00-0426
Driver Name = megaraid_sas
Driver Version = 07.701.17.00
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x16
SubVendor Id = 0x19E5
SubDevice Id = 0xD215
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 27
Device Number = 0
Function Number = 0
Drive Groups = 4
TOPOLOGY :
========
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size PDC PI SED DS3 FSpace TR
-----------------------------------------------------------------------------
0 - - - - RAID0 Optl N 278.464 GB dflt N N none N N
0 0 - - - RAID0 Optl N 278.464 GB dflt N N none N N
0 0 0 66:18 12 DRIVE Onln N 278.464 GB dflt N N none - N
1 - - - - RAID1 Dgrd N 893.137 GB dflt N N dflt N N
1 0 - - - RAID1 Dgrd N 893.137 GB dflt N N dflt N N
1 0 0 66:3 19 DRIVE Onln N 893.137 GB dflt N N dflt - N
1 0 1 - - DRIVE Msng - 893.137 GB - - - - - N
2 - - - - RAID0 Optl N 1.744 TB dflt N N none N N
2 0 - - - RAID0 Optl N 1.744 TB dflt N N none N N
2 0 0 66:4 20 DRIVE Onln N 893.137 GB dflt N N none - N
2 0 1 66:5 21 DRIVE Onln N 893.137 GB dflt N N none - N
3 - - - - RAID5 Optl N 1.087 TB dflt N N dflt N N
3 0 - - - RAID5 Optl N 1.087 TB dflt N N dflt N N
3 0 0 66:19 13 DRIVE Onln N 371.597 GB dflt N N dflt - N
3 0 1 66:20 14 DRIVE Onln N 371.597 GB dflt N N dflt - N
3 0 2 66:21 16 DRIVE Onln N 371.597 GB dflt N N dflt - N
3 0 3 66:22 15 DRIVE Onln N 371.597 GB dflt N N dflt - N
-----------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Missing Drives Count = 1
Missing Drives :
==============
---------------------
Array Row Size
---------------------
1 1 893.137 GB
---------------------
Virtual Drives = 4
VD LIST :
=======
---------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC Size Name
---------------------------------------------------------------
0/1 RAID0 Optl RW Yes RWBD - ON 278.464 GB
1/2 RAID1 Dgrd RW No RWBD - ON 893.137 GB
2/3 RAID0 Optl RW No RWBD - ON 1.744 TB
3/0 RAID5 Optl RW No RWBD - ON 1.087 TB
---------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially
Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct
IO|sCC=Scheduled
Check Consistency
Physical Drives = 21
PD LIST :
=======
-----------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp
-----------------------------------------------------------------------------------
66:2 10 JBOD - 837.256 GB SAS HDD N N 4 KB HUC101890CS4200 U
66:3 19 Onln 1 893.137 GB SATA SSD N N 512B SAMSUNG MZ7KM960HAHP-00005
U
66:4 20 Onln 2 893.137 GB SATA SSD N N 512B SAMSUNG MZ7KM960HAHP-00005
U
66:5 21 Onln 2 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005
U
66:6 23 JBOD - 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005
U
66:7 25 JBOD - 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005
U
66:8 24 JBOD - 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005
U
66:9 26 JBOD - 744.125 GB SATA SSD N N 512B SAMSUNG MZ7LM800HCHP-00005
U
66:10 27 JBOD - 744.125 GB SATA SSD N N 512B SAMSUNG MZ7LM800HCHP-00005
U
66:11 22 UGood - 384.0 MB SATA SSD N N 512B SAMSUNG MZ7GE480HMHP-00003
U
66:12 28 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7WD480HAGM-00003
U
66:13 30 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7LM480HCHP-00003
U
66:14 29 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7WD480HAGM-00003
U
66:15 31 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7LM480HCHP-00005
U
66:16 32 JBOD - 222.585 GB SATA SSD N N 512B SAMSUNG MZ7KM240HAGR-00005
U
66:17 11 JBOD - 1.089 TB SAS HDD N N 512B HUC101812CSS200 U
66:18 12 Onln 0 278.464 GB SAS HDD N N 512B ST300MM0006 U
66:19 13 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U
66:20 14 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U
66:21 16 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U
66:22 15 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U
-----------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Cachevault_Info :
===============
------------------------------------
Model State Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 28C - 2016/12/06
------------------------------------
命令功能
创建、删除RAID。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id add vd rlevel[0|1|10] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid] |
创建RAID组 |
storcli64 /ccontroller_id/vraid_id del |
删除RAID组 |
*表示默认值。
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
rlevel |
要配置的RAID组级别 |
level可为0、1、10,数字分别代表对应的RAID组级别。 |
size |
要配置的RAID组容量 |
默认值为all,即所有成员盘的容量之和。 |
name |
要配置的RAID组名称 |
- |
drives |
要加入RAID组的硬盘 |
- |
startid-endid |
硬盘的起始和结束ID |
- |
slot_id |
硬盘ID |
- |
pdperarray |
子组中的硬盘数 创建RAID10时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。 |
- |
pdcache |
设置RAID的成员盘的Cache状态 |
l on l off l default |
pi |
使能数据保护 |
- |
EmulationType |
控制逻辑盘在OS中上报的扇区 |
l 0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l 1: Disable,即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l 2:Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Spares |
指定RAID组的热备盘 |
- |
raid_id |
要删除的RAID组的ID |
- |
l 以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
l 当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid。
使用指南
无
使用实例
# 创建RAID 0。
domino:~# ./storcli64 /c0 add vd
r0 size=100GB drives=252:0-3
Controller = 0
Status = Success
Description = Add VD Succeeded
# 删除RAID。
domino:~# ./storcli64 /c0/v0 del
Controller = 0
Status = Success
Description = Delete VD Succeeded
命令功能
查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。
命令格式
storcli64 /ccontroller_id show
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all
storcli64 /ccontroller_id/vvd_id show all
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID |
enclosure_id |
硬盘所在Enclosure的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡连接的硬盘背板的ID |
slot_id |
物理硬盘槽位编号 |
可以将该参数设置为all,表示查询所有硬盘的ID |
vd_id |
虚拟磁盘ID |
可以将该参数设置为all,表示查询所有虚拟磁盘的ID |
使用指南
回显中主要字段的含义如表12-33所示。
命令格式 |
字段 |
含义 |
举例 |
storcli64 /ccontroller_id show |
Product Name |
RAID控制卡的型号 |
sas3108 |
FW Version |
RAID控制卡的FW版本 |
4.660.00-8140 |
|
Driver Name |
RAID控制卡的驱动名称 |
megaraid_sas |
|
Driver Version |
RAID控制卡的驱动版本 |
06.811.02.00-rh1 |
|
Current Personality |
RAID控制卡的工作模式 |
RAID-Mode |
|
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all |
SN |
物理硬盘的序列号 |
PHWL517601YR800RGN |
Manufacturer Id |
物理硬盘的供应商ID |
ATA |
|
Model Number |
物理硬盘的模块序号 |
INTEL SSDSC2BB800G4 |
|
Firmware Revision |
物理硬盘的FW版本 |
D2010370 |
|
Raw size |
物理硬盘的容量 |
745.211 GB [0x5d26ceb0 Sectors] |
|
Logical Sector Size |
物理硬盘逻辑分区大小 |
512B |
|
Physical Sector Size |
物理扇区大小 |
4 KB |
|
storcli64 /ccontroller_id/vvd_id show all |
TYPE |
RAID组的级别 |
RAID1 |
State |
RAID组的状态 |
Optl |
|
Access |
RAID组数据的访问策略 |
RW |
|
Cache |
RAID组当前的读写策略与I/O Policy |
RWTD |
|
Size |
RAID组的大小 |
100.0 GB |
|
PDs for VD0 |
RAID组下的物理硬盘 |
- |
|
Strip Size |
RAID组的条带大小 |
256KB |
|
Write Cache(initial setting) |
RAID组Cache的写策略 |
Write Through |
|
Disk Cache Policy |
RAID组成员盘的Cache策略 |
Disk's Default |
使用实例
#查询RAID控制卡的详细信息。
[root@localhost ~]# ./storcli64 /c0
show
Generating detailed summary of the adapter, it may take a while to complete.
Controller = 0
Status = Success
Description = None
Product Name = SAS3416iMR
Serial Number =
SAS Address = 50030130f0900000
PCI Address = 00:01:00:00
System Time = 07/07/2018 22:06:42
Mfg. Date = 00/00/00
Controller Time = 07/07/2018 14:06:41
FW Package Build = 24.16.0-0093
BIOS Version = 6.32.02.0_4.17.08.00_0x06150500
FW Version = 4.660.00-8140
Driver Name = megaraid_sas
Driver Version = 06.811.02.00-rh1
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x5D
SubVendor Id = 0x19E5
SubDevice Id = 0xD207
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Drive Groups = 1
TOPOLOGY :
========
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT
Size PDC PI SED DS3 FSpace TR
-----------------------------------------------------------------------------
0 - - -
- RAID1 Optl N 744.125 GB dflt N N
none N N
0 0 - -
- RAID1 Optl N 744.125 GB dflt N N
none N N
0 0 0 252:1 18 DRIVE
Onln N 744.125 GB dflt N N none
- N
0 0 1 252:0 48 DRIVE
Onln N 744.125 GB dflt N N none
- N
-----------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 1
VD LIST :
=======
---------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac
sCC Size Name
---------------------------------------------------------------
0/0 RAID1 Optl RW
Yes RWBD - ON 744.125 GB
---------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read
Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 6
PD LIST :
=======
---------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI
SeSz
Model
Sp Type
---------------------------------------------------------------------------------
252:0 48 Onln 0 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
252:1 18 Onln 0 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
252:2 19 UGood - 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BA800G4 U -
252:3 20 UGood - 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BA800G4 U -
252:4 49 UGood - 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
252:5 47 UGood - 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
---------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Cachevault_Info :
===============
------------------------------------
Model State Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 28C - 2016/11/04
------------------------------------
#查询slot0的物理硬盘的信息。
[root@localhost ~]# ./storcli64
/c0/e252/s0 show all
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
Drive /c0/e252/s0 :
=================
---------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI
SeSz
Model
Sp Type
---------------------------------------------------------------------------------
252:0 48 Onln 0 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
---------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Drive /c0/e252/s0 - Detailed Information :
========================================
Drive /c0/e252/s0 State :
=======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature = 20C (68.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
Drive /c0/e252/s0 Device attributes :
===================================
SN = PHWL517601YR800RGN
Manufacturer Id = ATA
Model Number = INTEL SSDSC2BB800G4
NAND Vendor = NA
WWN = 55cd2e404c533246
Firmware Revision = D2010370
Raw size = 745.211 GB [0x5d26ceb0 Sectors]
Coerced size = 744.125 GB [0x5d040800 Sectors]
Non Coerced size = 744.711 GB [0x5d16ceb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 6.0Gb/s
NCQ setting = Enabled
Write cache = N/A
Logical Sector Size = 512B
Physical Sector Size = 4 KB
Connector Name = Port A x1
Drive /c0/e252/s0 Policies/Settings :
===================================
Drive position = DriveGroup:0, Span:0, Row:1
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = No
Wide Port Capable = No
Port Information :
================
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
0 Active 6.0Gb/s 0x4433221100000000
-----------------------------------------
Inquiry Data =
40 00 ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 48 50 4c 57 31 35 36 37 31 30 52 59
30 38 52 30 4e 47 20 20 00 00 00 00 00 00 32 44
31 30 33 30 30 37 4e 49 45 54 20 4c 53 53 53 44
32 43 42 42 30 38 47 30 20 34 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 01 80
00 40 00 2f 00 40 00 00 00 00 07 00 ff 3f 10 00
3f 00 10 fc fb 00 01 bf ff ff ff 0f 00 00 07 00
# 查询VD 0的信息。
[root@rhel6u5 ~]#
/opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
/c0/v0 :
======
---------------------------------------------------------
DG/VD TYPE State Access Consist Cache sCC Size
Name
---------------------------------------------------------
1/0 RAID1 Optl RW
Yes RWTD - 1.089 TB
---------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|B=Blocked|Consist=Consistent|
R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
PDs for VD 0 :
============
-----------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz
Model Sp
-----------------------------------------------------------------------
25:22 14 Onln 1 1.089 TB SAS HDD
N N 512B ST1200MM0007 U
25:23 26 Onln 1 1.089 TB SAS HDD
N N 512B ST1200MM0007 U
-----------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded
VD0 Properties :
==============
Strip Size = 256 KB
Number of Blocks = 2341795840
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 2
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = Disabled
Active Operations = None
Exposed to OS = Yes
Creation Date = 04-01-2018
Creation Time = 12:38:35 PM
Emulation type = None
命令功能
查询和设置系统巡检的相关参数。
命令格式
storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number
storcli64 /ccontroller_id set patrolread delay=delaytime
storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}
storcli64 /ccontroller_id show patrolread
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
系统巡检起始时间 |
例如:2016/07/15 23 说明 起始时间单位为“时”。 |
number |
可同时巡检的硬盘数量 |
– |
delaytime |
系统巡检周期 |
单位为hour。 |
查看RAID控制卡ID的方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。
domino:~# ./storcli64 /c0 set
patrolread starttime=2016/07/15 23 maxconcurrentpd=2
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
PR Starttime 2016/07/15 23:00:00
PR MaxConcurrentPd 2
---------------------------------------
# 使能patrolread并设置为自动模式。
domino:~# ./storcli64 /c0 set
patrolread=on mode=auto
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
Patrol Read Mode auto
---------------------------------------
# 查询patrolread信息。
domino:~# ./storcli64 /c0 show
patrolread
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------------------------
Ctrl_Prop Value
--------------------------------------------
PR Mode 2016/07/15 23:00:00
PR Execution Delay
PR iterations completed 0
PR Next Start time 07/16/2016,00:00:00
PR on
SSD
Disabled
PR Current State Stopped
--------------------------------------------
命令功能
查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。
命令格式
storcli64 /ccontroller_id show spinupdelay
storcli64 /ccontroller_id show spinupdrivecount
storcli64 /ccontroller_id set spinupdelay=time
storcli64 /ccontroller_id set spinupdrivecount=count
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
每组起转硬盘间的时间间隔 |
默认为2,单位为s。 |
count |
上电时允许同时起转的硬盘数量 |
默认为4。 |
查看RAID控制卡ID的方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
建议保持默认配置。
使用实例
# 查询RAID控制卡Spinup参数。
domino:~# ./storcli64 /c0 show
spinupdelay
domino:~# ./storcli64 /c0 show spinupdelay
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
domino:~# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop
Value
--------------------------
Spin Up Drive Count 4
--------------------------
# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。
domino:~# ./storcli64 /c0 set
spinupdelay=20
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 20 second(s)
--------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop
Value
--------------------------
Spin Up Drive Count 5
--------------------------
命令功能
设置物理硬盘数据擦除模式,查询擦除进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
mode |
数据擦除模式 |
l simple:对硬盘进行一轮擦除动作。 l normal:对硬盘进行三轮擦除动作。 l thorough:对硬盘进行九轮擦除动作。 |
以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。
domino:~# ./storcli64 /c0/e252/s3
start erase simple
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status
Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0
Seconds
------------------------------------------------------
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.
命令功能
暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。
命令格式
storcli64 /ccontroller_id/vraid_id action bgi
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
action |
后台初始化的操作 |
l show:查看后台初始化进度 l pause:暂停后台初始化 l resume:继续后台初始化 l stop:停止后台初始化 |
以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查看后台初始化进度。
domino:~# ./storcli64 /c0/v0 show
bgi
Controller = 0
Status = Success
Description = Noe
VD Operation Status :
===================
------------------------------------------------------
VD Operation Progress% Staus Estimated Time
Left
------------------------------------------------------
0
BGI
3 In progress 53 Minutes
------------------------------------------------------
命令功能
设置物理硬盘初始化功能,查询初始化进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
action |
要执行的操作 |
l show:查看初始化进度 l start:开始初始化 l stop:结束初始化 |
以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 初始化slot3硬盘,并查询初始化进度。
domino:~# ./storcli64 /c0/e252/s3
start initialization
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show initialization
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status
Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0
Seconds
------------------------------------------------------
命令功能
开始、暂停、继续、停止RAID重构,并查询进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action rebuild
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
action |
要执行的操作 |
l start:开始重构 l show:查看重构进度 l pause:暂停重构 l resume:继续重构 l stop:停止重构 |
查看RAID控制卡ID的方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 手动开始重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
# 查看硬盘当前重构状态。
[root@localhost ~]# ./storcli64
/c0/e70/s7 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e70/s7 5 In progress 26
Minutes
-----------------------------------------------------
# 暂停硬盘重构进程。
[root@localhost ~]# ./storcli64
/c0/e70/s7 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Succeeded.
# 继续重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 resume rebuild
Controller = 0
Status = Success
Description = Resume Drive Rebuild Succeeded.
# 停止重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 stop rebuild
Controller = 0
Status = Success
Description = Stop Drive Rebuild Succeeded.
命令功能
开始、暂停、继续、停止回拷,并查询进度。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id start copyback target=target_enclosure_id:target_slot_id |
开始回拷。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id action copyback |
暂停、继续、查看、停止回拷。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
target_enclosure_id |
执行回拷的目标硬盘所在Enclosure的ID。 |
- |
target_slot_id |
执行回拷的目标物理硬盘槽位编号。 |
- |
action |
要执行的操作 |
l show:查看回拷进度 l pause:暂停回拷 l resume:继续回拷 l stop:停止回拷 |
查看RAID控制卡ID的方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 手动开始回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s7 start copyback target=70:3
Controller = 0
Status = Success
Description = Start Drive Copyback Succeeded.
# 查看硬盘当前回拷状态。
[root@localhost ~]# ./storcli64
/c0/e70/s3 show copyback
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e70/s3 17 In progress 16 Minutes
-----------------------------------------------------
# 暂停硬盘回拷进程。
[root@localhost ~]# ./storcli64
/c0/e70/s3 pause copyback
Controller = 0
Status = Success
Description = Pause Drive Copyback Succeeded.
# 继续回拷。
[root@localhost ~]# ./storcli64 /c0/e70/s3
resume copyback
Controller = 0
Status = Success
Description = Resume Drive Copyback Succeeded.
# 停止回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s3 stop copyback
Controller = 0
Status = Success
Description = Stop Drive Copyback Succeeded.
命令功能
设置Smart扫描周期。
命令格式
storcli64 /ccontroller_id set smartpollinterval=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
value |
Smart扫描周期 |
单位为s。 |
查看RAID控制卡ID的方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Smart扫描周期为“60s”。
domino:~# ./storcli64 /c0 set
smartpollinterval=60
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------
命令功能
设置一致性校验参数。
命令格式
storcli64 /ccontroller_id[/vvd_id]show cc
storcli64 /ccontroller_id/vvd_id start cc force
storcli64 /ccontroller_id/vvd_id action cc
storcli64 /ccontroller_id set cc=conc delay=value starttime=time excludevd=evd_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
vd_id |
要操作的RAID的ID |
– |
action |
要执行的操作 |
l pause:暂停 l resume:继续执行 l stop:停止 |
value |
一致性校验周期 |
– |
time |
一致性校验起始时间 |
例如:2016/07/14 22 说明 起始时间单位为“时”。 |
evd_id |
不进行一致性校验的虚拟磁盘ID |
– |
以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
show命令中不带/vvd_id时,表示查询自动CC参数。
show命令中带/vvd_id时,表示查询CC进度。
使用实例
# 设置一致性自动检查参数。
domino:~# ./storcli64 /c0 set
cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------
Ctrl_Prop Value
------------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2016/07/14 22:00:00
CC ExcludeVD(0) Success
------------------------------------
# 查询CC进度。
domino:~# ./storcli64 /c0/v1 show
cc
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress%
Status Estimited Time
Left
-----------------------------------------------------------
0 CC
- Not in progress -
-----------------------------------------------------------
命令功能
设置全局热备盘和局部热备盘。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive |
设置全局热备盘。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=<N|0,1,2..>] |
设置局部热备盘。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive |
删除热备盘。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
dgs |
硬盘组的ID |
l 不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘 l 0,1,2..:硬盘组ID |
以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置slot 3硬盘为全局热备盘。
domino:~# ./storcli64 /c0/e252/s3
add hotsparedrive
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
# 设置slot 3硬盘为vd0的局部热备盘。
domino:~# ./storcli64 /c0/e252/s3
add hotsparedrive dgs=0
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
命令功能
设置虚拟磁盘或物理硬盘为启动项。
命令格式
storcli64 /ccontroller_id/vvd_id set bootdrive=on
storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
vd_id |
待设置的虚拟磁盘的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置VD0为启动项。
domino:~# ./storcli64 /c0/v0 set
bootdrive=on
Controller = 0
Status = Success
Description = Noe
Detailed Status :
===============
----------------------------------------
VD Property Value Staus ErrCd ErrMsg
----------------------------------------
0 Boot Drive On Success 0 -
----------------------------------------
# 设置slot 7硬盘为启动项。
domino:~# ./storcli64 /c0/e252/s7
set bootdrive=on
Controller = 0
Status = Success
Description = Noe
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
BootDrive PD:252_7
-------------------
命令功能
设置硬盘状态。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
state |
要设置的硬盘状态 |
l online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。 l offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。 l jbod:通过该参数可以将硬盘设置为直通硬盘。 l good: − ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置; − JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。 l good:将硬盘设为空闲盘 |
force |
强制设置硬盘状态,为可选参数。 如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force。 |
- |
以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。
domino:~# ./storcli64 /c0/e0/s1
set good
Controller = 0
Status = Success
Description = Set Drive Good Succeeded.
命令功能
设置RAID的读写策略。
命令格式
storcli64 /ccontroller_id/vraid_id set accesspolicy=mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
RAID读写策略 |
l rw:可读可写 l blocked:禁止访问 l ro:只读访问 |
以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置RAID读写策略为“rw”。
domino:~# ./storcli64 /c0/v0 set
accesspolicy=rw
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 AccPolicy RW Success 0
-
---------------------------------------
命令功能
设置RAID组成员盘的Cache状态。
命令格式
storcli64 /ccontroller_id/vvd_id set pdcache=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
vd_id |
RAID组的ID |
- |
action |
要执行的操作 |
l on:打开硬盘Cache l off:关闭硬盘Cache l default:将硬盘Cache设置为默认状态 |
以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 打开ID为0的RAID组的硬盘Cache。
./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 PdCac On
Success 0 -
---------------------------------------
命令功能
设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。
命令格式
storcli64 /ccontroller_id set eghs eug=state
storcli64 /ccontroller_id set eghs smarter=state
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
state |
紧急热备功能的启用状态 |
l on:启用 l off:禁用 |
查看RAID控制卡ID的方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。
domino:~# ./storcli64 /c0 set eghs
eug=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------
Ctrl_Prop Value
------------------
EmergencyUG ON
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
EmergencySmarter ON
-----------------------
命令功能
设置RAID前台初始化模式。
命令格式
storcli64 /ccontroller_id/vraid_id start mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
前台初始化模式 |
l init:只把RAID的首尾10MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。 l init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。 |
以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 快速初始化RAID。
domino:~# ./storcli64 /c0/v0 start
init
Controller = 0
Status = Success
Description = Start INIT Operation Success
命令功能
设置RAID控制卡的硬盘直通功能的使能情况。
Avago SAS3416iMR支持的Online状态与Unconfigured Good状态的硬盘之和最多为32个,当服务器配置的硬盘数超过32个时,请勿关闭RAID控制卡的硬盘直通功能,以免造成服务器重启导致“Online”状态下的硬盘变为“Ubad”状态的问题。
命令格式
storcli64 /ccontroller_id set jbod=state force
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
state |
RAID控制卡JBOD功能的使能情况 |
l on:使能RAID控制卡的硬盘直通功能。 l off:关闭RAID控制卡的硬盘直通功能。 |
查看RAID控制卡ID的方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 使能RAID控制卡的硬盘直通功能。
domino:~# ./storcli64./c0 set
jbod=on force
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
JBOD ON
----------------
# 关闭RAID控制卡的硬盘直通功能。
domino:~# ./storcli64./c0 set
jbod=off force
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
JBOD off
----------------
命令功能
点亮和熄灭指定硬盘的定位指示灯。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。 |
slot_id |
物理硬盘槽位编号 |
可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。 |
action |
要执行的操作 |
l start:点亮硬盘的定位指示灯。 l stop:熄灭硬盘的定位指示灯。 |
以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 点亮slot 7硬盘的定位指示灯。
domino:~# ./storcli64 /c0/e252/s7
start locate
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.
命令功能
设置空闲硬盘和热备盘的省电模式。
命令格式
storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID。 |
– |
state |
省电模式的启用状态。 |
l on:启用 l off:禁用 |
disktype |
硬盘类型。 |
l 1:空闲硬盘 l 2:热备盘 |
time |
等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。 |
单位为minutes。 |
查看RAID控制卡ID的方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置空闲硬盘的省电模式。
domino:~# ./storcli64 /c0 set
ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
SpnDwnUncDrv Enable
SpnDwnTm 30 minutes
--------------------------
命令功能
设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。
命令格式
storcli64 /ccontroller_id set action=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
action |
要设置的项目 |
l bgirate:后台初始化速率 l ccrate:一致性校验速率 l prrate:硬盘巡检速率 l rebuildrate:RAID重构速率 l reconrate:RAID扩容和迁移速率 |
value |
后台任务资源占用率 |
1~100 |
查看RAID控制卡ID的方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置硬盘巡检速率为“30%”。
domino:~# ./storcli64 /c0 set
prrate=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
Patrol Read Rate 30%
-----------------------
命令功能
设置控制卡BIOS在检测到异常时停止继续启动的功能。
命令格式
storcli64 /ccontroller_id set bios mode=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
action |
要执行的操作 |
l soe:控制卡BIOS在检测到异常时停止启动 l ie:忽略检测到的异常 |
查看RAID控制卡ID的方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启Stop on error功能。
domino:~# ./storcli64 /c0 set bios
mode=soe
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
命令格式
storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
vd_id |
要扩容的RAID的ID |
– |
capacity |
扩容后的容量 |
– |
expandarray |
当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。 |
– |
以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查询VD的可扩展容量。
[root@localhost ~]# storcli64 /c0/v1
show expansion
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
EXPANSION INFORMATION :
=====================
--------------------------------------------
VD Size OCE NoArrExp WithArrExp Status
--------------------------------------------
1 10.000 GB Y 3.627 TB 5.447 TB -
--------------------------------------------
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion
VD=Virtual Drive | NoArrExp - Without Array Expansion
如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。
# 将VD0的容量扩大“200GB”
domino:~# ./storcli64 /c0/v0
expand size=200GB
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize
AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
0 100.0 GB 457.861 GB 200.0 GB 201.458 GB
44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %
RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
当增加新盘后,可进行RAID级别迁移。
命令格式
storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
vd_id |
要操作的RAID的ID |
– |
slot_id |
要加入RAID的新硬盘的槽位号 |
– |
level |
增加硬盘后RAID的级别 |
l 与原RAID级别相同时,该命令为扩大RAID容量。 l 与原RAID级别不同时,该命令为RAID级别迁移。 |
以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 在RAID 0中增加slot 2硬盘扩容。
domino:~# ./storcli64 /c0/v0 start
migrate type=r0 option=add drives=252:2
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time
Left
-------------------------------------------------------
0 Migrate 1
In progress 13 Minutes
-------------------------------------------------------
# 单盘RAID 0加盘迁移至RAID 1。
domino:~# ./storcli64 /c0/v0 start
migrate type=r1 option=add drives=252:3
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time
Left
-------------------------------------------------------
0 Migrate 1
In progress 14 Minutes
-------------------------------------------------------
命令功能
手动重构RAID组。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row
storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
要加入Array的物理硬盘槽位编号 |
– |
DG |
硬盘发生故障的DG的ID |
– |
Arr |
硬盘发生故障的Array的ID |
– |
Row |
硬盘发生故障的Array的row number |
– |
以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
重构RAID分3个步骤进行:
1.通过./storcli64 /c0 show 命令,查询故障硬盘的DG、Arr和Row所对应的数字。
2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。
3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID。
使用实例
# 将硬盘加入RAID组。
[root@localhost ~]# storcli64
/c0/e252/s1 insert dg=0 array=0 row=0
Controller = 0
Status = Success
Description = Insert Drive Succeeded.
# 手动重构RAID。
[root@localhost ~]# storcli64
/c0/e252/s1 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
命令功能
收集和清除RAID控制卡的日志。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id show termlog [type=logtype] [logfile[=filename]] |
收集RAID控制卡的日志。 |
storcli64 /ccontroller_id delete termlog |
删除RAID控制卡的日志。 |
storcli64 /ccontroller_id show alilog [logfile[=filename]] |
收集控制卡属性信息、TTY日志和事件到指定文件。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID。 |
- |
logtype |
查询日志类型。 |
l config:查询TTY BBU缓存设置。 l content:查询日志信息。 缺省值:content。 |
filename |
文件名称,将保存日志到此文件。 |
可自定义文件名称,缺省时将默认保存至“StorSAS.log”文件中。 |
查询RAID控制卡ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 收集RAID控制卡的日志。
[root@localhost idriver]# ./storcli64
/c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19 6:48:11: C0:TTY History buffer cleared
Controller = 0
Status = Success
Description = None
# 删除RAID控制卡的日志。
[root@localhost idriver]# ./storcli64
/c0 delete termlog
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------------------
Ctrl Method Result
----------------------------
0 Delete Termlog deleted
----------------------------
命令功能
指导用户查看、导入或者清除RAID控制卡的外部配置。
命令格式
storcli64 /ccontroller_id/fall import preview
storcli64 /ccontroller_id/fall import
storcli64 /ccontroller_id/fall delete
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
使用指南
无
使用实例
# 查看RAID控制卡的外部配置。
[root@localhost ~]# ./storcli64
/c0/fall import preview
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
FOREIGN PREVIEW :
===============
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Total foreign drive groups = 0
# 删除RAID控制卡的外部配置。
[root@localhost ~]# ./storcli64
/c0/fall delete
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration
命令功能
介绍Snapdump相关操作。
命令格式
命令格式 |
说明 |
storcli64 /ccontroller_id show snapdump |
查询snapdump功能是否打开,是否有自动生成的snapdump文件。 |
storcli64 /ccontroller_id get snapdump id=all |
获取历史生成的snapdump文件。 |
storcli64 /ccontroller_id get snapdump |
获取历史生成的snapdump文件和当前再生成一个snapdump文件。 |
storcli64 /ccontroller_id set snapdump state=on|off |
打开和关闭snapdump功能。 |
storcli64 /ccontroller_id delete snapdump force |
删除历史snapdump日志功能。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID。 |
state=on|off |
Snapdump状态 |
on为开启,off为关闭。 |
使用指南
l Snapdump文件是一个日志文件,在一些RAID控制卡异常场景下可以自动生成的日志,也可以主动获取当前RAID控制卡的snapdump日志。
l 使用前可以先查询snapdump功能是否打开,是否有自动生成的snapdump文件,再去收集snapdump。
l 获取历史生成的snapdump文件和当前再生成一个snapdump文件会影响业务,建议离线使用。
l 打开和关闭snapdump功能,如果无法打开注意看提示,请确认当前RAID控制卡固件版本是否支持。
l 收集snapdump文件在当前命令执行目录下,文件格式为snapdump_**************.zip。
使用实例
#查询snapdump功能是否打开,是否有自动生成的snapdump文件。
[root@localhost ~]# storcli64 /c0
show snapdump
Controller = 0
Status = Success
Description = None
SnapDump Properties :
===================
----------------------------------
Ctrl_Prop
Value
----------------------------------
Snapdump ON
Snapdump Save Count N/A
Snapdump Delay OCR 15
Snapdump properties Read-Write
Snapdump Current Count 2
----------------------------------
SnapDump Details :
================
----------------------------------------------
ID Snapdump Size Snapdump time OnDemand
----------------------------------------------
0 2649396 08-06-2021 07:23:43 Yes
1 2070406 08-07-2021 06:59:24 Yes
----------------------------------------------
#获取历史生成的snapdump文件。
[root@localhost ~]# storcli64 /c0 get
snapdump id=all
Controller = 0
Status = Success
Description = None
#获取历史生成的snapdump文件和当前再生成一个snapdump文件。
[root@localhost ~]# storcli64 /c0 get
snapdump
Controller = 0
Status = Success
Description = Download Support Log
#打开和关闭snapdump功能。
打开:
[root@localhost ~]# storcli64 /c0 set
snapdump state=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
Set Snapdump on
-------------------
关闭:
[root@localhost ~]# storcli64 /c0 set
snapdump state=off
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
Set Snapdump off
-------------------
#删除历史snapdump日志功能。
[root@localhost ~]# storcli64 /c0
delete snapdump force
Controller = 0
Status = Success
Description = Snapdump delete
命令功能
升级控制卡FW。
命令格式
命令格式 |
说明 |
storcli64 /cController_ID download file=xxx.rom [noverchk] |
升级控制卡FW。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
- |
xxx.rom |
固件包的名称 |
- |
使用指南
l 使用“noverchk”参数时将不检查固件包,降级版本时必须使用此参数。
l 升级完成后,需重新上下电服务器使固件包生效。
使用实例
#升级控制卡FW。
[root@localhost fw]# ./storcli64_arm
/c0 download file =FW4.rom noverchk
Download Completed.
Flashing image to adapter...
Controller = 0
Status = Success
Description = F/W Flash Completed.Please reboot the system for the changes to
take effect.
关于本章
介绍MSCC SmartRAID 3152-8i RAID控制卡的外观、特性、以及配置方法。
本章节涉及的截图以2.93 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。
MSCC SmartRAID 3152-8i控制卡(以下简称3152-8i)提供2个12Gbit/s的mini SAS HD接口,支持PCIe 3.0接口,并支持最多8个phy。
3152-8i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。
3152-8i自带的Cache对标卡性能的提升有非常重要的作用,主要体现在:
l 在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用 Cache后,整个设备的写数据速度得到提高。
l 在读数据时,如果可以直接在Cache中命中的话,将减少硬盘寻道操作,降低响应时间,提升了数据读速度。
3152-8i安装在服务器的PCIe槽位上,结构如图13-1所示。
控制卡下属的物理硬盘有如表13-1所示的状态。
状态 |
说明 |
Online |
硬盘为某个虚拟磁盘的成员盘,可正常使用,处于在线状态。 |
Hot Spare |
被设置为热备盘。 |
Failed |
当“Online”状态或“Hot Spare”状态的硬盘出现不可恢复的错误时,会体现为此状态。 |
Rebuilding |
硬盘正在进行数据重构,此时硬盘的性能会受一定程度的影响。 |
Not Supported |
当前的控制卡不支持该硬盘,需要更换成RAID控制卡支持的硬盘。 |
Raw(Pass Through) |
HBA模式下的裸盘。 |
Ready |
硬盘可用于配置RAID组。 Mixed模式下的直通盘也会显示为该状态。 |
Predictive Failure |
硬盘即将变为Failed状态,应备份硬盘上的数据,并更换硬盘。 |
Erase In Progress |
硬盘正在进行擦除。 |
控制卡下创建的RAID组有如表13-2所示的状态。
状态 |
说明 |
Optimal |
RAID组状态良好,所有成员盘均在线。 |
Failed |
故障或离线的硬盘数超过了RAID组可容忍的坏盘数。 |
Interim Recovery |
RAID组降级,因为RAID组中存在故障盘,使得RAID组运行性能降低,数据可能丢失。要解决此问题,请检查硬盘是否正确连接设备,或更换故障的硬盘。 |
Rebuilding |
RAID组正在从容错数据盘中进行重构。 |
Ready for Rebuild |
准备执行重构。 |
3152-8i最多支持238个硬盘,最多支持64个Array,每个Array最多支持64个LD(Logical Drive),整张RAID控制卡所有Array最多支持64个LD。
Array即通常所说的硬盘组,每个Array可以包括1个或多个LD。
3152-8i支持的RAID级别及对应的硬盘个数如表13-3所示。
RAID级别 |
支持硬盘数 |
允许坏盘数 |
RAID 0 |
1 ~ 128 |
0 |
RAID 1 |
2 |
1 |
RAID 1ADM/RAID 1Triple |
3 |
2 |
RAID 5 |
3 ~ 128a |
1 |
RAID 6 |
4 ~ 128a |
2 |
RAID 10 |
4 ~ 128 (偶数) |
NPG数(每个NPG里最多只允许坏1个盘) |
RAID 10ADM/RAID 10Triple |
6 ~ 128(3的倍数) |
NPG数 x 2(每个NPG里最多只允许坏2个盘) |
RAID 50 |
6 ~ 128b |
NPG数(每个NPG里最多只允许坏1个盘) |
RAID 60 |
8 ~ 128b |
NPG数 x 2(每个NPG里最多只允许坏2个盘) |
l a:RAID 5/6设置不同条带大小时,硬盘数量限制如下。 − 当条带大小设置为1024KB时,支持的最大硬盘数为12; − 当条带大小设置为512KB时,支持的最大硬盘数为24; − 当条带大小设置为256KB时,支持的最大硬盘数为48; − 当条带大小设置为128KB时,支持的最大硬盘数为96。 l b:RAID 50/60设置不同条带大小时,硬盘数量限制如下。 − 当条带大小设置为1024KB时,RAID 50支持的最大硬盘数为24; − 当条带大小设置为512KB时,RAID 50支持的最大硬盘数为48; − 当条带大小设置为256KB时,RAID 50支持的最大硬盘数为96。 |
l NPG数:NPG数的个数,例如RAID 50由两个RAID 5组成,则NPG数为2。
l MSCC SmartRAID 3152-8i在FW版本4.72后将RAID 1ADM更名为RAID 1Triple,RAID 10ADM更名为RAID 10Triple。
3152-8iRAID控制卡支持多种工作模式,具体如下:
l RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS。
l HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。
l Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。
l Independent模式:允许Port CN0和CN1使用不同的工作模式(FW版本5.32及之后版本支持,仅适用于直通背板)。
默认为“Mixed”模式。
热备盘用于替代Array故障成员盘的硬盘,在成员盘故障时承载故障盘中的数据。
3152-8i支持创建最多32个热备盘,使Array在有一个或多个与热备盘同类型的成员盘故障的情况下,可以由热备盘替代,防止Array的数据丢失和状态进一步恶化。
3152-8i支持dedicated spare和auto replace spare两种类型的热备盘:
l dedicated spare:dedicated模式的热备盘会作为Array的固定热备盘。当Array中某个硬盘发生故障,dedicated模式的热备盘会替代损坏盘并利用其他成员盘和冗余数据重构,生成损坏盘的数据。更换新的硬盘之后,新加入的硬盘会利用其它成员盘和数据继续重构,恢复Array的状态。Array的状态恢复完成后,热备盘恢复原始状态。该模式下的热备盘可以手动与所有的Array进行关联。
l auto replace spare:Array中某个硬盘发生故障时,auto replace模式的热备盘会替代故障盘并利用其他成员盘和冗余数据重构,生成故障盘的数据。当更换新的硬盘之后,原始热备盘中的数据继续作为Array的成员盘被使用,而新更换的硬盘将作为新的“热备盘”。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当Array的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为热备盘。
l 空闲硬盘可配置为热备盘,已加入Array的硬盘不能配置为热备盘。
l 热备盘必须和Array的成员盘类型相同,且容量不小于Array成员盘最大容量。
热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。
l 请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。
l 插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。
l 在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。
具备冗余功能的Array的成员盘故障之后,热备盘自动替换故障数据盘并开始同步。
重构过程中如果服务器出现重启、下电再上电的情况,服务器上电后,重构将会从零重新开始。
当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数和数据传输率有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待,这时就是所谓的硬盘冲突。
条带化技术是一种自动将I/O负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。
影响条带化效果的因素有:
l 条带宽度:指同时可以并发读或写的条带数量。
这个数量等于Array中的物理硬盘数量。增加条带宽度,可以增加Array的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。
在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。
l 条带大小:指写在每块硬盘上的条带数据块的大小。
硬盘分条即把Array中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。
3152-8i支持多种条带大小,包括16KiB、32KiB、64KiB、128KiB、256KiB、512KiB、1024KiB,默认条带大小为256KiB。
硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。
3152-8i可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在3152-8i下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。
直通模式下的硬盘发生故障时(通常指硬盘本身健康状态不佳),硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
3152-8i下挂载的硬盘支持安全擦除指定硬盘(Erase Disk/Secure Erase)。擦除硬盘彻底、耗时长。
数据擦除过程中,不能执行关机,重启,插拔硬盘等操作,否则会导致硬盘被损坏。
擦除数据完成后,所有的硬盘数据会被清除。请谨慎执行该操作。
3152-8i支持的容量扩展方式有两种:
l 通过增加硬盘方式扩容:在已存在的Array中添加新硬盘,扩大Array容量。
l 通过增加可用空间方式扩容:在LD未占用Array全部容量时,可通过调整LD的可用空间,扩大LD容量
该功能需要下载PMC官方发布的arcconf工具才可进行配置。arcconf工具的下载和安装方法请参见13.8.1 下载和安装ARCCONF工具。
3152-8i支持三种加速方法,分别为:
l maxCache:利用SSD盘组成的RAID组作为高速缓存,为RAID组进行加速。
l Controller cache:利用控制卡的DDR作为高速缓存,为RAID组进行加速。
l SSD IO Bypass:该特性只适用于由SSD组成的RAID组,数据I/O直通到RAID组,不经过RAID控制卡的Cache。
推荐使用Controller cache。
当LD的加速方法设置为“Controller Cache”,且读写比例未设置成0:100或100:0时,读Cache和写Cache同时被使用。
3152-8i支持数据Cache读写,极大提高了数据读写性能。
设置控制卡LD的读写比例的方法请参见13.7.3.1 Modify Controller Settings。
当服务器进行大量写操作时,由于将数据写入高速缓存的速度大于数据写入硬盘的速度:
l 开启高速缓存可提升整机写性能,当服务器写压力减小或高速缓存将写满时,数据再由高速缓存写入硬盘。
l 开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。
为了提升整机的高读写性能和高速缓存中数据的安全,可为RAID控制卡配置超级电容。
服务器电源正常时,由服务器电源对高速缓存供电;服务器异常掉电时,超级电容给RAID控制卡、NAND Flash和高速缓存供电,保证高速缓存中的数据转移到NAND Flash中永久保存,数据转移完成后超级电容停止供电。这样就可以在服务器异常掉电时,确保数据安全。在服务器正常上电时,RAID控制卡对高速缓存供电,确保缓存正常使用。
当包含RAID配置信息的硬盘插入服务器后,服务器在启动过程中识别到当前硬盘配置符合该外部配置要求时,自动导入外部配置。
BIOS中“Boot Type”设置为“UEFI Boot”模式时,打开的管理界面如下所述。
文档中描述的关于3152-8i的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“ARCCONF”命令行工具。
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器。
步骤 2 重启过程中,当出现如图13-2所示界面时,按“Delete”。
步骤 3 输入密码并按“Enter”。
进入如图13-3所示界面。
步骤 4 按“→”切换到“Advanced”页签,如图13-4所示。
步骤 5 选择“MSCC SmartRAID 3152-8i”,按“Enter”。
图13-5 MSCC SmartRAID 3152-8i控制卡主界面
参数 |
说明 |
Controller Information |
查看控制卡相关的基本信息。 |
Configure Controller Settings |
设置控制卡的相关属性。 |
Array Configuration |
创建与管理Array。 |
Disk Utilities |
查看与管理控制卡的硬盘。 |
Set Bootable Device(s) for Legacy Boot Mode |
设置控制卡在Legacy模式下的第一启动盘与第二启动盘。 |
Administration |
控制卡的其他相关操作,包括更新Firmware,收集RAID控制卡日志,恢复RAID控制卡参数为出厂配置等。 |
----结束
操作场景
l 创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见13.5.5 设置RAID控制卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 3152-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 各RAID级别所需的硬盘数请参见13.3.1 支持多种RAID级别。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见13.4.1 登录管理界面。
步骤 1 在图13-5界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 2 选择Create Array。
进入成员盘选择界面,如图13-6所示。
步骤 3 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l RAID 0支持的硬盘个数为1~128。
步骤 4 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图13-7所示。
步骤 5 选择要配置的Array级别“RAID0”,并选择“Proceed to next Form”。
进入Array属性配置界面,如图13-8所示,参数说明如表13-5所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit Size |
LD的容量计算单位。 |
SSD Over Provisioning Optimization |
设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。 l Disabled l Enabled 说明 l 只有当RAID组由SSD组成时,才能设置该属性。 l 该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。 |
Acceleration Method |
设置LD所采用的加速方法(推荐使用Controller cache)。 l IO Bypass(只有当LD由SSD组成时,该选项有效) l Controller cache(同时使用读Cache和写Cache) l None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。) |
Submit Changes |
确认修改。 |
步骤 6 按照表13-5所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 7 (可选)创建多个LD。
当Array的容量小于最大值时,才可进行此操作。
1. 在图13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图13-9所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。
步骤 8 检查配置结果。具体操作请参见13.5.1 查看和修改Array属性。
步骤 9 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见13.5.7 设置物理硬盘Cache。
----结束
操作场景
l 创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见13.5.5 设置RAID控制卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 3152-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 各RAID级别所需的硬盘数请参见13.3.1 支持多种RAID级别。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见13.4.1 登录管理界面。
步骤 1 在图13-5界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 2 选择Create Array。
进入成员盘选择界面,如图13-10所示。
步骤 3 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l RAID 1支持的硬盘个数为2。
步骤 4 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图13-11所示。
步骤 5 选择要配置的Array级别“RAID1”,并选择“Proceed to next Form”。
进入Array属性配置界面,如图13-12所示,参数说明如表13-6所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit Size |
LD的容量计算单位。 |
SSD Over Provisioning Optimization |
设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。 l Disabled l Enabled 说明 l 只有当RAID组由SSD组成时,才能设置该属性。 l 该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。 |
Acceleration Method |
设置LD所采用的加速方法(推荐使用Controller cache)。 l IO Bypass(只有当LD由SSD组成时,该选项有效) l Controller cache(同时使用读Cache和写Cache) l None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。) |
Submit Changes |
确认修改。 |
步骤 6 按照表13-6所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 7 (可选)创建多个LD。
当Array的容量小于最大值时,才可进行此操作。
1. 在图13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图13-13所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。
步骤 8 检查配置结果。具体操作请参见13.5.1 查看和修改Array属性。
步骤 9 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见13.5.7 设置物理硬盘Cache。
----结束
操作场景
l 创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见13.5.5 设置RAID控制卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 3152-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
l 各RAID级别所需的硬盘数请参见13.3.1 支持多种RAID级别。
l MSCC SmartRAID 3152-8i在FW版本4.72后将RAID 1ADM更名为RAID 1Triple。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见13.4.1 登录管理界面。
步骤 1 在图13-5界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 2 选择Create Array。
进入成员盘选择界面,如图13-14所示。
步骤 3 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l RAID 1ADM支持的硬盘个数为3。
步骤 4 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图13-15所示。
步骤 5 选择要配置的Array级别“RAID1(ADM)”,并选择“Proceed to next Form”。
进入Array属性配置界面,如图13-16所示,参数说明如表13-7所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit Size |
LD的容量计算单位。 |
SSD Over Provisioning Optimization |
设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。 l Disabled l Enabled 说明 l 只有当RAID组由SSD组成时,才能设置该属性。 l 该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。 |
Acceleration Method |
设置LD所采用的加速方法(推荐使用Controller cache)。 l IO Bypass(只有当LD由SSD组成时,该选项有效) l Controller cache(同时使用读Cache和写Cache) l None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。) |
Submit Changes |
确认修改。 |
步骤 6 按照表13-7所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 7 (可选)创建多个LD。
当Array的容量小于最大值时,才可进行此操作。
1. 在图13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图13-17所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。
步骤 8 检查配置结果。具体操作请参见13.5.1 查看和修改Array属性。
步骤 9 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见13.5.7 设置物理硬盘Cache。
----结束
操作场景
l 创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见13.5.5 设置RAID控制卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 3152-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 各RAID级别所需的硬盘数请参见13.3.1 支持多种RAID级别。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见13.4.1 登录管理界面。
步骤 1 在图13-5界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 2 选择Create Array。
进入成员盘选择界面,如图13-18所示。
步骤 3 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l RAID 10支持的硬盘个数为4~128(偶数)。
步骤 4 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图13-19所示。
步骤 5 选择要配置的Array级别“RAID1+0”,并选择“Proceed to next Form”。
进入Array属性配置界面,如图13-20所示,参数说明如表13-8所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit Size |
LD的容量计算单位。 |
SSD Over Provisioning Optimization |
设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。 l Disabled l Enabled 说明 l 只有当RAID组由SSD组成时,才能设置该属性。 l 该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。 |
Acceleration Method |
设置LD所采用的加速方法(推荐使用Controller cache)。 l IO Bypass(只有当LD由SSD组成时,该选项有效) l Controller cache(同时使用读Cache和写Cache) l None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。) |
Submit Changes |
确认修改。 |
步骤 6 按照表13-8所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 7 (可选)创建多个LD。
当Array的容量小于最大值时,才可进行此操作。
1. 在图13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图13-21所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。
步骤 8 检查配置结果。具体操作请参见13.5.1 查看和修改Array属性。
步骤 9 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见13.5.7 设置物理硬盘Cache。
----结束
操作场景
l 创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见13.5.5 设置RAID控制卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 3152-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
l 各RAID级别所需的硬盘数请参见13.3.1 支持多种RAID级别。
l MSCC SmartRAID 3152-8i在FW版本4.72后将RAID 10ADM更名为RAID 10Triple。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见13.4.1 登录管理界面。
步骤 1 在图13-5界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 2 选择Create Array。
进入成员盘选择界面,如图13-22所示。
步骤 3 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l RAID 10ADM支持的硬盘个数为6~128。
步骤 4 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图13-23所示。
步骤 5 选择要配置的Array级别“RAID10(ADM)”,并选择“Proceed to next Form”。
进入Array属性配置界面,如图13-24所示,参数说明如表13-9所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit Size |
LD的容量计算单位。 |
SSD Over Provisioning Optimization |
设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。 l Disabled l Enabled 说明 l 只有当RAID组由SSD组成时,才能设置该属性。 l 该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。 |
Acceleration Method |
设置LD所采用的加速方法(推荐使用Controller cache)。 l IO Bypass(只有当LD由SSD组成时,该选项有效) l Controller cache(同时使用读Cache和写Cache) l None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。) |
Submit Changes |
确认修改。 |
步骤 6 按照表13-9所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 7 (可选)创建多个LD。
当Array的容量小于最大值时,才可进行此操作。
1. 在图13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图13-25所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。
步骤 8 检查配置结果。具体操作请参见13.5.1 查看和修改Array属性。
步骤 9 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见13.5.7 设置物理硬盘Cache。
----结束
操作场景
l 创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见13.5.5 设置RAID控制卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 3152-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 各RAID级别所需的硬盘数请参见13.3.1 支持多种RAID级别。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见13.4.1 登录管理界面。
步骤 1 在图13-5界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 2 选择Create Array。
进入成员盘选择界面,如图13-26所示。
步骤 3 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l RAID 5支持的硬盘个数为3~128。
步骤 4 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图13-27所示。
步骤 5 选择要配置的Array级别“RAID5”,并选择“Proceed to next Form”。
进入Array属性配置界面,如图13-28所示,参数说明如表13-10所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit size |
LD的容量计算单位。 |
Parity Initialization Method |
设置校验初始化的方法。 l Default:在线进行后台校验初始化,选择该模式的LD会立即上报给OS,在后台进行校验初始化,对性能有一定程度的影响。 l Rapid:离线进行快速初始化,初始化完成后才会上报给OS。 说明 该选项只在创建RAID5/50/6/60的时候出现。 |
SSD Over Provisioning optimization |
设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。 l Disabled l Enabled 说明 l 只有当RAID组由SSD组成时,才能设置该属性。 l 该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。 |
Acceleration method |
设置LD所采用的加速方法(推荐使用Controller cache)。 l IO Bypass(只有当LD由SSD组成时,该选项有效) l Controller cache(同时使用读Cache和写Cache) l None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。) |
Submit Changes |
确认修改。 |
步骤 6 按照表13-10所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 7 (可选)创建多个LD。
当Array的容量小于最大值时,才可进行此操作。
1. 在图13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图13-29所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。
步骤 8 检查配置结果。具体操作请参见13.5.1 查看和修改Array属性。
步骤 9 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见13.5.7 设置物理硬盘Cache。
----结束
操作场景
l 创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见13.5.5 设置RAID控制卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 3152-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 各RAID级别所需的硬盘数请参见13.3.1 支持多种RAID级别。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见13.4.1 登录管理界面。
步骤 1 在图13-5界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 2 选择Create Array。
进入成员盘选择界面,如图13-30所示。
步骤 3 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l RAID 50支持的硬盘个数为6~128。
步骤 4 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图13-31所示。
步骤 5 选择要配置的Array级别“RAID50”,并选择“Proceed to next Form”。
进入NPG设置界面,如图13-32所示。
“NPG”指LD包含的子组数,如设置为“2”时表示RAID 50包含两个RAID 5。
RAID50的每个NPG中需要包含3个或3个以上硬盘,且每个NPG中包含的硬盘数必须一致。
步骤 6 设置RAID 50的NPG个数,选择“Proceed to next Form”并按“Enter”。
进入Array属性配置界面,如图13-33所示,参数说明如表13-11所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit size |
LD的容量计算单位。 |
Parity Initialization Method |
设置校验初始化的方法。 l Default:在线进行后台校验初始化,选择该模式的LD会立即上报给OS,在后台进行校验初始化,对性能有一定程度的影响。 l Rapid:离线进行快速初始化,初始化完成后才会上报给OS。 说明 该选项只在创建RAID5/50/6/60的时候出现。 |
SSD Over Provisioning optimization |
设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。 l Disabled l Enabled 说明 l 只有当RAID组由SSD组成时,才能设置该属性。 l 该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。 |
Acceleration method |
设置LD所采用的加速方法(推荐使用Controller cache)。 l IO Bypass(只有当LD由SSD组成时,该选项有效) l Controller cache(同时使用读Cache和写Cache) l None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。) |
Submit Changes |
确认修改。 |
步骤 7 按照表13-11所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 8 (可选)创建多个LD。
当Array的容量小于最大值时,才可进行此操作。
1. 在图13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图13-34所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。
步骤 9 检查配置结果。具体操作请参见13.5.1 查看和修改Array属性。
步骤 10 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见13.5.7 设置物理硬盘Cache。
----结束
操作场景
l 创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见13.5.5 设置RAID控制卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 3152-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 各RAID级别所需的硬盘数请参见13.3.1 支持多种RAID级别。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见13.4.1 登录管理界面。
步骤 1 在图13-5界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 2 选择Create Array。
进入成员盘选择界面,如图13-35所示。
步骤 3 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l RAID 6支持的硬盘个数为4~128。
步骤 4 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图13-36所示。
步骤 5 选择要配置的Array级别“RAID6(ADG)”,并选择“Proceed to next Form”。
进入Array属性配置界面,如图13-37所示,参数说明如表13-12所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit size |
LD的容量计算单位。 |
Parity Initialization Method |
设置校验初始化的方法。 l Default:在线进行后台校验初始化,选择该模式的LD会立即上报给OS,在后台进行校验初始化,对性能有一定程度的影响。 l Rapid:离线进行快速初始化,初始化完成后才会上报给OS。 说明 该选项只在创建RAID5/50/6/60的时候出现。 |
SSD Over Provisioning optimization |
设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。 l Disabled l Enabled 说明 l 只有当RAID组由SSD组成时,才能设置该属性。 l 该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。 |
Acceleration method |
设置LD所采用的加速方法(推荐使用Controller cache)。 l IO Bypass(只有当LD由SSD组成时,该选项有效) l Controller cache(同时使用读Cache和写Cache) l None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。) |
Submit Changes |
确认修改。 |
步骤 6 按照表13-12所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 7 (可选)创建多个LD。
当Array的容量小于最大值时,才可进行此操作。
1. 在图13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图13-38所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。
步骤 8 检查配置结果。具体操作请参见13.5.1 查看和修改Array属性。
步骤 9 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见13.5.7 设置物理硬盘Cache。
----结束
操作场景
l 创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见13.5.5 设置RAID控制卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 3152-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 各RAID级别所需的硬盘数请参见13.3.1 支持多种RAID级别。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见13.4.1 登录管理界面。
步骤 1 在图13-5界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 2 选择Create Array。
进入成员盘选择界面,如图13-39所示。
步骤 3 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l RAID 60支持的硬盘个数为8~128。
步骤 4 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图13-40所示。
步骤 5 选择要配置的Array级别“RAID60”,并选择“Proceed to next Form”。
进入NPG设置界面,如图13-41所示。
l “NPG”指LD包含的子组数,如设置为“2”时表示RAID 60包含两个RAID 6。
l RAID60的每个NPG中需要包含4个或4个以上硬盘,且每个NPG中包含的硬盘数必须一致。
步骤 6 设置RAID 60的NPG个数,选择“Proceed to next Form”并按“Enter”。
进入Array属性配置界面,如图13-42所示,参数说明如表13-13所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit size |
LD的容量计算单位。 |
Parity Initialization Method |
设置校验初始化的方法。 l Default:在线进行后台校验初始化,选择该模式的LD会立即上报给OS,在后台进行校验初始化,对性能有一定程度的影响。 l Rapid:离线进行快速初始化,初始化完成后才会上报给OS。 说明 该选项只在创建RAID5/50/6/60的时候出现。 |
SSD Over Provisioning optimization |
设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。 l Disabled l Enabled 说明 l 只有当RAID组由SSD组成时,才能设置该属性。 l 该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。 |
Acceleration method |
设置LD所采用的加速方法(推荐使用Controller cache)。 l IO Bypass(只有当LD由SSD组成时,该选项有效) l Controller cache(同时使用读Cache和写Cache) l None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。) |
Submit Changes |
确认修改。 |
步骤 7 按照表13-13所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 8 (可选)创建多个LD。
当Array的容量小于最大值时,才可进行此操作。
1. 在图13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图13-43所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。
步骤 9 检查配置结果。具体操作请参见13.5.1 查看和修改Array属性。
步骤 10 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见13.5.7 设置物理硬盘Cache。
----结束
操作步骤
在图13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入
进入“Manage Arrays”界面,如图13-44所示。
步骤 2 选择要进行查看的Array,并按“Enter”。
进入Array操作界面,如图13-45所示,参数说明如表13-14所示。
参数 |
说明 |
Array Type |
Array的类型。 |
List Logical Drives |
逻辑盘相关的接口,可查看、修改逻辑盘的属性,删除逻辑盘等。 |
Create Logical Drive |
创建逻辑盘。 |
IO Bypass Settings |
设置SSD在不使用Controller Cache时的逻辑盘加速方法。 说明 l 该特性即为13.3.10 读写高速缓存所述的“SSD IO Bypass”。 l SSD组成的RAID组在使能Controller cache的情况下无法使能IO Bypass功能。如需使能IO Bypass,需要先禁用RAID组的Controller Cache,再使能IO Bypass。 |
Manage Spare Drives |
热备盘相关的接口,可创建,删除热备盘等。 |
Identify Device |
点亮/熄灭硬盘locate灯。 |
Delete Array |
删除Array。 |
----结束
查看LD的属性
在图13-45中选择“List Logical Drive”并按“Enter”。
进入LD列表。
步骤 1 选择要进行查看的LD并按“Enter”。
进入LD相关操作界面,如图13-46所示,参数说明如表13-15所示。
参数 |
说明 |
Logical Drive Details |
查看LD的相关属性。 |
Edit Logical Drive |
修改LD的相关属性。 |
Delete Logical Drive |
删除LD。 |
步骤 2 选择“Logical Drive Details”并按“Enter”。
显示LD的相关属性,如图13-47所示,界面参数如表13-16所示。
参数 |
说明 |
Status |
当前LD的状态。 |
Size |
整个LD的容量大小。 |
RAID level |
当前LD的RAID级别。 |
Legacy disk geometry(C/H/S) |
当前LD所处的硬盘几何位置。 |
Strip Size |
整个LD的单个NPG条带大小。 说明 “NPG”指LD包含的子组数,如RAID 50包含两个RAID 5时,则RAID 50的NPG为2。 |
Full Stripe Size |
整个LD的分条大小。 |
Number of Parity Groups(NPG) |
整个LD的NPG数量。 说明 当LD的级别为“RAID 50”或“RAID 60”时,显示该参数。 |
Logical Drive Label |
LD的自定义标签。 |
Acceleration Method |
LD的加速方法。 |
Logical Drive Members |
LD的物理成员盘。 |
----结束
修改LD的属性
在图13-45中选择“Edit Logical Drive”并按“Enter”。
进入LD列表。
步骤 1 选择要修改属性的LD并按“Enter”。
进入LD相关操作界面,如图13-48所示,参数说明如表13-17所示。
参数 |
说明 |
Acceleration Method |
修改LD所采用的加速方法。 l IO Bypass(只有当LD由SSD组成时,该选项有效) l Controller cache(同时使用读Cache和写Cache) l None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。) |
Logical Drive Label |
修改LD的自定义标签。 |
Submit Changes |
确认修改。 |
步骤 2 依照表13-17说明修改LD的相关属性。
步骤 3 选择“Submit Changes”并按“Enter”。
----结束
操作场景
对服务器的硬盘进行Array分组后,一般会配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l 3152-8i支持dedicated spare和auto replace spare两种类型的热备盘,具体介绍请参见13.3.3 硬盘热备份。
l 只有当“Spare Activation Mode”(热备盘的激活模式)设置为“Predictive Spare Activation”时,RAID0才支持配置热备盘。具体方法请参见13.7.3.1 Modify Controller Settings。
必备事项
前提条件
l 服务器存在空闲硬盘。
l 已登录管理界面,具体操作请参见13.4.1 登录管理界面。
数据
该操作无需准备数据。
操作步骤
在图13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入
进入“Manage Arrays”界面,如图13-49所示。
步骤 2 选择要创建热备盘的Array并按“Enter”。
步骤 3 选择“Manage Spare Drives”并按“Enter”。
进入热备盘类型选择界面,如图13-50所示,参数说明如表13-18所示。
参数 |
说明 |
Assign Dedicated Spare |
设置硬盘为dedicated spare drive。 dedicated模式的热备盘会作为Array的固定热备盘。当Array中某个硬盘发生故障,dedicated模式的热备盘会替代损坏盘并利用其他成员盘和冗余数据重构,生成损坏盘的数据。新加入的硬盘会利用其它成员盘和数据继续重构,恢复Array的状态。Array的状态恢复完成后,热备盘恢复原始状态。 该模式下的热备盘可以手动与所有的Array进行关联。 |
Assign Auto Replace Spare |
设置硬盘为auto replace drives。 该模式下,Array中某个硬盘发生故障时,auto replace模式的热备盘会替代故障盘并利用其他成员盘和冗余数据重构,生成故障盘的数据。当更换新的硬盘之后,原始热备盘中的数据继续作为Array的成员盘被使用,而新更换的硬盘将作为新的“热备盘”。 该模式下的热备盘只能作为某一个Array的热备盘。 |
步骤 4 按照表13-18所述,选择要设置的热备盘类型,并按“Enter”。
进入硬盘选择界面。
步骤 5 选择要设置的硬盘并按“Enter”。
没有加入Array且与Array成员盘类型一致的硬盘可设置为热备盘。建议使用与Array的成员盘型号、容量一致的硬盘作为热备盘。
步骤 6 选择“Assign Dedicated Spare”或“Assign Auto Replace Spare”并按“Enter”。
提示操作成功。
----结束
操作场景
当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。
操作步骤
在图13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入
进入“Manage Arrays”界面,如图13-51所示。
步骤 2 选择要进行操作的Array并按“Enter”。
步骤 3 选择“Manage Spare Drives”并按“Enter”。
进入“Manage Spare Drives”界面,如图13-52所示。
步骤 4 选择“Delete Spare Drives”并按“Enter”。
进入硬盘选择界面,如图13-53所示。
步骤 5 选择要删除的热备盘并按“Enter”。
步骤 6 选择“Delete Spare Drives”并按“Enter”。
提示操作成功。
----结束
操作场景
当服务器不需要Array或重新配置Array时,要先删除当前Array配置来释放硬盘。
删除Array后,Array上的所有数据和Array下的所有LD都将被删除,请谨慎执行删除Array操作。
必备事项
前提条件
l 已创建Array。
l 已登录管理界面,具体操作请参见13.4.1 登录管理界面。
数据
待删除Array中的数据已备份。
操作步骤
在图13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入“Manage Arrays”界面,如图13-54所示。
步骤 2 选择要删除的Array并按“Enter”。
步骤 3 选择“Delete Array”并按“Enter”。
进入操作确认界面。
步骤 4 按“Enter”。
提示操作成功。
----结束
l 当背板类型为直通背板时,可通过本章节的指导,分别设置Connector 0和Connector 1的工作模式,也可通过设置“Configure Controller Port Mode”参数,将所有Connector的工作模式同时设置为同一模式。具体操作请参见13.7.3.8 Configure Controller Port Mode。
l 当背板类型为Expander时,只能通过设置“Configure Controller Port Mode”参数,将RAID控制卡的工作模式同时设置为同一模式。具体操作请参见13.7.3.8 Configure Controller Port Mode。
操作步骤
进入“Modify Controller Settings”界面。
1. 在图13-5界面中,按照“Configure Controller Settings>Modify Controller Settings”的顺序进入“Modify Controller Settings”界面,如图13-55所示。
图13-55 “Modify Controller Settings”界面
步骤 2 设置Connector 0的工作模式。
1. 选择“Port CN0 Mode”并按“Enter”。
弹出工作模式选择菜单。
RAID控制卡支持多种工作模式,分别为:
l RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS。
l Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。
l HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。
默认为“Mixed”模式。
2. 根据实际需要选择要设置的工作模式,并按“Enter”。
步骤 3 设置Connector 1的工作模式。
1. 选择“Port CN1 Mode”并按“Enter”。
2. 根据实际需要选择要设置的工作模式,并按“Enter”。
两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。
步骤 4 选择“Submit Changes”并按“Enter”。
提示操作成功。
----结束
l maxcache支持的RAID级别为RAID 0/1/10/5。
l 创建之前请确认服务器已存在RAID组。
l 创建之前请确认RAID控制卡已配置超级电容且超级电容状态正常。查看超级电容状态的方法请参见13.7.3.5 Backup Power Source。
l 加入到maxCache Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 必须使用同类型同规格的硬盘创建maxCache Array。
l 各RAID级别所需的硬盘数请参见13.3.1 支持多种RAID级别。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见13.4.1 登录管理界面。
步骤 1 在图13-5界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 2 选择Create MaxCache Array。
进入成员盘选择界面,如图13-56所示。
步骤 3 选中硬盘后,按“Enter”键,将硬盘加入Array。
硬盘状态为“×”时表示硬盘被选中。
步骤 4 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图13-57所示。
步骤 5 选择要配置的Array级别,并选择“Proceed to next Form”。
进入Array属性配置界面,如图13-58所示,参数说明如表13-19所示。
参数 |
说明 |
Size |
整个LD的容量大小。 说明 创建Array时,会默认为Array创建一个LD。此处指创建的LD容量大小。 |
Unit size |
LD的容量计算单位。 l TiB l GiB l MiB |
Cache Write Policy |
LD的Cache写策略。 l Write-Back:当SSD组成的maxCache LD收到所有传输数据后,将给主机返回数据传输完成信号。 l Write-Through:当硬盘子系统接收到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。 说明 只有Cache的写策略设置为“Write-Back”时,maxCache才能为Array加速。 |
Cache Line Size |
maxcahce创建时的参数之一,该参数可以设置的值有64/128/256,默认值为64,该值越大,maxcache LD能够创建的容量上限越大。 |
Submit Changes |
确认修改。 |
步骤 6 按照表13-19所述配置Array属性,选择“Submit Changes”并按“Enter”。
进入Array选择界面,如图13-59所示。
此处显示服务器当前存在的所有由HDD组成的Array。
步骤 7 选择maxCache Array加速的目标Array,并按“Enter”。
提示操作成功,如图13-60所示。
步骤 8 按“Enter”返回主菜单。
----结束
在图13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入“Manage Arrays”界面,如图13-61所示。
步骤 2 选择要修改属性的maxCache Array,并按“Enter”。
步骤 3 选择“List Logical Drives”,并按“Enter”。
进入LD选择界面,如图13-62所示。
步骤 4 选择要修改属性的maxCache的LD,并按“Enter”。
进入LD相关操作界面,如图13-63所示。
步骤 5 选择“Edit Logical Drive”,并按“Enter”。
进入“Edit Logical Drive”界面。在此界面可以修改maxCache的cache写策略。
步骤 6 选择“Modify Caching Write Policy”,并按“Enter”。
弹出可设置的写策略菜单。
步骤 7 选择要设置的写策略,并按“Enter”。
步骤 8 选择“Submit Changes”,并按“Enter”。
提示操作成功。
----结束
当maxCache Array的“Cache Write Policy”设置为“Write-Back”时,maxCache Array无法进行删除。需要把maxCache Array的“Cache Write Policy”修改为“Write-Through”后,才可删除maxCache Array。
在图13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入“Manage Arrays”界面,如图13-64所示。
步骤 2 选择要删除的maxCache Array,并按“Enter”。
步骤 3 选择“List Logical Drives”,并按“Enter”。
进入LD选择界面,如图13-65所示。
步骤 4 选择要删除maxCache的LD,并按“Enter”。
进入LD相关操作界面,如图13-66所示。
步骤 5 选择“Delete maxCache”,并按“Enter”。
弹出操作确认框。
步骤 6 按“Enter”。
----结束
操作步骤
在图13-5界面中,按照“Configure Controller Settings”>“Modify Controller Settings”>的顺序进入“Modify Controller Settings”界面,如图13-67所示,参数说明如表13-20所示。
图13-67 Modify Controller Settings
参数 |
说明 |
Transformation Priority |
设置Array扩展、逻辑盘扩展、逻辑盘迁移、Array收缩/迁移等操作的优先级,分为High/Medium/Low三个选项。 说明 该选项设置为“high”时,会抢占I/O资源,影响读写I/O性能,建议用户保持默认取值。 |
Rebuild Priority |
设置逻辑盘重构的优先级,分为Low/Medium/Medium High/High四个选项。 |
Surface Scan Analysis Priority |
设置两次硬盘表面扫描的时间间隔,硬盘表面扫描主要是检查硬盘健康状态。 可选项为0~31,默认值为3,数字表示controller在下一次surface scan analysis之前的延迟时间,单位为秒。0表示禁用硬盘表面扫描功能。 |
Current Parallel Surface Scan Count |
设置同时启动硬盘表面扫描进程的数量,取值范围为1~16,默认值为1。设置为1时表示禁用硬盘表面扫描功能。 |
Controller Cache |
设置是否使用控制卡缓存 Enabled:使用控制卡缓存 Disabled:不使用控制卡缓存 |
Spare Activation Mode |
设置热备盘的激活模式,可选模式有: l Failure Spare Activation:当硬盘出现故障时才触发热备盘重构。 l Predictive Spare Activation:当硬盘出现预失效就触发热备盘重构。 默认取值为:Failure Spare Activation。 |
Unconfigured Physical Drive Write Cache State |
设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
HBA Physical Drive Write Cache State |
设置HBA模式下硬盘的写Cache状态 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
Configured Physical Drive Write Cache State |
设置RAID/Mixed模式下RAID组成员盘的写Cache状态。 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
Port CN0 Mode |
设置Connector 0端口的模式,有以下三种模式: l RAID:控制卡所有的RAID功能都被启用,但直通盘不会报送给OS。 l Mixed:RAID逻辑盘和直通盘都会报送给OS。 l HBA:controller所有的RAID功能都被禁用,控制卡下所有硬盘被视为直通盘。 说明 l 当背板类型为直通背板时,才会显示该参数。 l 两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。 |
Port CN1 Mode |
设置Connector 1端口的模式,有以下三种模式: l RAID:控制卡所有的RAID功能都被启用,但直通盘不会报送给OS。 l Mixed:RAID逻辑盘和直通盘都会报送给OS。 l HBA:controller所有的RAID功能都被禁用,控制卡下所有硬盘均被视为直通盘。 说明 l 当背板类型为直通背板时,才会显示该参数。 l 两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。 |
Submit Changes |
确认修改。 |
l 如果要设置RAID/Mixed模式下非RAID组成员盘的写Cache状态,请执行步骤2。
l 如果要设置HBA模式下硬盘的写Cache状态,请执行步骤3。
l 如果要设置RAID/Mixed模式下RAID组成员盘的写Cache状态,请执行步骤4。
步骤 2 设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。
1. 选择“Unconfigured Physical Drive Write Cache State”并按“Enter”。
2. 参考表13-20的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。
3. 选择“Submit Changes”并按“Enter”。
提示操作成功。
1. 选择“HBA Physical Drive Write Cache State”并按“Enter”。
2. 参考表13-20的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。
3. 选择“Submit Changes”并按“Enter”。
提示操作成功。
步骤 4 设置RAID/Mixed模式下RAID组成员盘的写Cache状态。
1. 选择“Configured Physical Drive Write Cache State”并按“Enter”。
2. 参考表13-20的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。
3. 选择“Submit Changes”并按“Enter”。
提示操作成功。
----结束
查询RAID控制卡固件版本的方法有如下几种:
l 在iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。
l 服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见13.8.2.3 查询控制卡的FW和驱动版本。
回显信息中的“Firmware”字段即为RAID控制卡的固件版本。
l 在RAID控制卡管理界面进行查询,具体方法为:
a. 登录RAID控制卡的管理界面,具体操作请参见13.4.1 登录管理界面。
b. 在主界面中选择“Controller Information”并按“Enter”。
显示RAID控制卡基本信息。界面中的“Firmware version”即为RAID控制卡的固件版本,如图13-68所示。
图13-68 Controller Information界面
l 擦除硬盘耗时长,所有数据都将被清除,请谨慎执行该操作。
l 擦除期间请勿执行关机,重启,插拔硬盘等操作,否则会导致硬盘被损坏。
登录管理界面。具体操作方法请参见13.4.1 登录管理界面。
步骤 1 在主界面中选择“Disk Utilities”并按“Enter”。
显示硬盘列表,如图13-69所示。
步骤 2 选择要执行擦除操作的硬盘,并按“Enter”。
显示硬盘操作界面,如图13-70所示。
步骤 3 选择“Erase Disk”并按“Enter”。
进入选择擦除模式界面,如图13-71所示。
步骤 4 选择“Erase Pattern”并按“Enter”。
显示可选择的擦除模式。
l Three-passes: Random + Random +All zeroes:对硬盘写入随机数两次,第三次全盘写0
l Two-passes: Random +All zeroes:对硬盘写入随机数一次,第二次全盘写0
l One-pass: Write All zeroes:对硬盘全盘写0。
l Restricted Sanitize Overwrite:受限的硬盘擦除,擦除失败后需要重新做擦除。
l Unrestricted Sanitize Overwrite:不受限制的硬盘擦除,如果擦除失败,对于可恢复的硬盘,则不影响使用。
步骤 5 选择擦除的模式,并按“Enter”。
步骤 6 选择“Start Erase”,并按“Enter”。
开始进行擦除。
步骤 7 (可选)重新进入“Erase Disk”界面,可查看擦除进度,如图13-72所示。
擦除时选择“Abort Erase”并按“Enter”后,将终止擦除。下一次进行擦除时将重新开始。
----结束
l 使用iBMC带外管理时需将带外管理接口设置为MCTP。
l 在OS下使用命令行工具更改带外管理接口请参见13.8.2.6 设置RAID控制卡带外管理接口。
登录管理界面。具体操作方法请参见13.4.1 登录管理界面。
步骤 1 在主界面中根据路径“Configure Controller Settings > Out of Band Messaging Settings”进入“Out of Band Messaging Settings”界面,如图13-73所示。
图13-73 “Out of Band Messaging Settings”
步骤 2 选择“Change Settings”并按“Enter”。
进入“Select Out of Band Messaging Interface”界面,如图13-74所示。
图13-74 “Select Out of Band Messaging Interface”
步骤 3 选择“OOB Interface”并按“Enter”。
进入带外管理接口选择界面,如图13-75所示。
步骤 4 选择“MCTP”并按“Enter”。
步骤 5 选择“Proceed to next Form”,并按“Enter”。
进入MCTP参数设置界面,如图13-76所示,参数说明如表13-21所示。
参数 |
说明 |
SMBus Device Type |
系统管理总线设备类型。 l Default l Fixed l ARP |
SMBus Physical Channel |
系统管理总线物理通道。 |
VDM Discovery Notify |
VDM 发现通知。 |
Use Static EIDs during initialization |
在初始化期间使用静态EID。 |
SMBus Slave Address |
系统管理总线从机地址。 |
步骤 6 设置MCTP相关参数。
步骤 7 选择“Submit Changes”并按“Enter”完成配置,如图13-77所示。
步骤 8 (可选)在主界面中根据路径“Configure Controller Settings > Out of Band Messaging Settings”重新进入“Out of Band Messaging Settings”界面可查看下次生效设置,如图13-78所示。
图13-78 “Out of Band Messaging Settings”
步骤 9 按“F10”退出BIOS,重启系统后即可使用iBMC进行带外管理。
----结束
介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。
更多故障案例请联系技术支持获取。
问题描述
当服务器出现如下现象时,说明硬盘故障。
l 硬盘Fault指示灯点亮。
l 硬盘指示灯不亮。
l 服务器上报硬盘故障告警。
直通模式下的硬盘发生故障时(通常指硬盘本身健康状态不佳),硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
处理方法
l 更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位。
l 更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。
拔掉故障硬盘。
步骤 1 判断硬盘故障后,数据是否可恢复。
l 若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则数据不可恢复。直接安装新硬盘,重新配置RAID,操作完成。
− EFI/UEFI模式下创建RAID 0的操作请参见13.4.2 创建RAID 0。
− 通过命令行创建RAID 0 的操作请参见13.8.2.19 创建和删除RAID。
l 若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在13.3.1 支持多种RAID级别查看RAID组支持的最大故障硬盘数量。
l 若RAID组存在热备盘,则热备盘自动补充坏盘,进入rebuild状态同步数据。
l 若RAID组为冗余RAID但不存在热备盘,则需要安装新硬盘进行数据恢复。
步骤 2 插入新硬盘。
l 若插入的硬盘无数据,则根据原RAID情况有如下工作方式:
− 若原RAID组存在热备盘,热备盘数据自动拷贝至新插入的硬盘中。原热备盘恢复热备状态,操作完成。
− 若原RAID组为冗余RAID且不存在热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成。
l 若插入的硬盘存在RAID信息,请执行步骤4。
步骤 4 手动重构RAID。
----结束
问题描述
当RAID控制卡电容故障时,会导致Cache不可用,从而降低读写速度。
处理方法
进入OS,查询设备信息。具体操作请参见12.8.2.1 查询控制卡的基本信息。
步骤 1 查看回显信息中的“Bettery Power Status”信息,如所图13-79所示,根据电容状态进行不同的操作。
l Failed:电容故障,请更换电容。
l Ok:表示电容充电完成,状态正常,
l Not Battery charged:表示电容不在位,请安装电容。
l No fully charged:表示电容正在充电,请等待15min后操作RAID控制卡。
步骤 2 如果仍然存在异常,请联系技术支持处理。
----结束
问题描述
当服务器出现如下现象时,说明控制卡故障。
l 数据无法写入控制卡控制的硬盘。
l 服务器上报控制卡故障告警。
处理方法
登录iBMC Web界面查看告警信息。
步骤 1 根据告警信息,参考iBMC告警处理。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤3
步骤 3 查询兼容性查询助手或者联系技术支持处理。
----结束
问题描述
正常情况下,当服务器配置了RAID控制卡且RAID控制卡状态正常时,进入BIOS的Advanced页签后,会显示RAID控制卡的信息,如图13-80所示。
如果Advanced页签不显示RAID控制卡的信息,如图13-81所示,则:
l 如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:
− 如果不显示驱动打印信息,可尝试下电后重新拔插RAID控制卡再上电、下电后更换RAID控制卡再上电或者联系技术支持。
− 如果显示“MSCC SmartRAID 3152-8i”,如图13-82所示,则可以通过本章节的指导修复RAID控制卡。
l 如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,如图13-83所示,则可以通过本章节的指导修复RAID控制卡;如果不显示,可尝试下电后重新拔插RAID控制卡再上电、下电更换RAID控制卡再上电或者联系技术支持。
处理方法
l 当BIOS的版本为0.98之前版本(不包含0.98版本)时:
a. 在Advanced页签选择“Driver Health Manager”并按Enter。
进入“Driver Health Manager”界面。
b. 选择要进行修复的RAID控制卡驱动,如“MSCC UEFI Driver v****”,并按“Enter”。
c. 选择“Repair. Erase data held in Write-Back Cache”,并按“Enter”开始修复。
d. 修复完成后重启服务器,进入“Advanced”界面,检查RAID控制卡信息是否正常。
n 是 => 处理完毕。
n 否 => 请联系技术支持处理。
l 当BIOS的版本为0.98及以上版本时:
a. 在“Advanced”页签选择“Some drivers are not healthy”。
进入健康状态查询界面。
b. 选择“Repair the whole platform”,并按“Enter”。
c. 选择“Repair. Erase data held in Write-Back Cache”,并按“Enter”开始修复。
d. 修复完成后重启服务器,进入“Advanced”界面,检查RAID控制卡信息是否正常。
n 是 => 处理完毕。
n 否 => 请联系技术支持处理。
问题描述
登录控制卡主界面,根据路径“Manage Arrays > Array > List Logical Drives > Logical 1 > Logical Drive Details”进入RAID组详细信息界面,确认RAID组的状态“Status”为“Failed”。
其中“Array”根据实际情况选择Array A/B等。
处理方法
登录控制卡主界面,具体操作请参见13.4.1 登录管理界面。
步骤 1 根据路径“Manage Arrays > Array > List Logical Drives > Logical 1”进入RAID组配置界面。
步骤 2 选择“Re-Enable Logical Drive”重新激活RAID组。
步骤 3 根据路径“Manage Arrays > Array > List Logical Drives > Logical 1 > Logical Drive Details”进入RAID组详细信息界面。查看RAID组的状态“Status”是否恢复为“Optimal”或者“Ok”。
l 是 => 处理完毕。
l 否 => 步骤5
联系技术支持处理。
----结束
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器。
步骤 2 重启过程中,当出现如图13-84所示界面时,按“Delete”。
步骤 3 输入密码并按“Enter”。
进入如图13-85所示界面。
步骤 4 按“→”切换到“Advanced”页签,如图13-86所示。
步骤 5 选择“MSCC SmartRAID 3152-8i”,按“Enter”。
图13-87 MSCC SmartRAID 3152-8i控制卡主界面
参数 |
说明 |
Controller Information |
查看控制卡相关的基本信息。 |
Configure Controller Settings |
设置控制卡的相关属性。 |
Array Configuration |
创建与管理Array。 |
Disk Utilities |
查看与管理控制卡的硬盘。 |
Set Bootable Device(s) for Legacy Boot Mode |
设置控制卡在Legacy模式下的第一启动盘与第二启动盘。 |
Administration |
控制卡的其他相关操作,包括更新Firmware,收集RAID控制卡日志,恢复RAID控制卡参数为出厂配置等。 |
----结束
在“Controller Information”界面中,可以查看控制卡相关的基本信息。
界面介绍
在如图13-5所示的主界面中选择“Controller Information”,打开“Controller Information”界面,如图13-88和图13-89所示,参数说明如表13-23所示。
图13-88 “Controller Information”界面(1)
图13-89 “Controller Information”界面(2)
参数 |
说明 |
Controller |
控制卡的名称。 |
Device Id |
设备编号。 |
PCI Address(Segment:Bus:Device:Function) |
BIOS分配给控制卡的PCI总线地址。 |
Hardware Revision |
硬件修订版本。 |
Negotiated PCIe Data Rate |
PCIe协商速率 |
Serial Number |
控制卡序列号。 |
WWID |
world wide name,控制卡的唯一标识号。 |
Firmware version |
Firmware的版本号。 |
Firmware release date |
Firmware的发布日期。 |
UEFI Driver version |
UEFI驱动版本号。 |
UEFI Driver release date |
UEFI驱动版本发布日期。 |
Controller Memory Module Size |
控制卡的cache大小。 |
Controller Status |
控制卡的状态。 |
Cache Status |
Cache的状态。 |
Controller Mode |
RAID控制卡的当前的使用模式,有多种工作模式。 l RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS。 l HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。 l Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。 l Independent模式:允许Port CN0和CN1使用不同的工作模式(FW版本5.32及之后版本支持,仅适用于直通背板)。 默认为“Mixed”模式。 |
Supported Modes |
控制卡Port口的支持模式。 l Port CN0:RAID HBA Mixed l Port CN1:RAID HBA Mixed |
在“Configure Controller Settings”界面中,可以设置控制卡的相关属性。
界面介绍
在如图13-5所示的配置工具主界面中选择“Configure Controller Settings”,打开“Configure Controller Settings”界面,如图13-90所示,参数说明如表13-24所示。
图13-90 Configure Controller Settings
参数 |
说明 |
Modify Controller Settings |
修改控制卡的相关属性。 |
Modify Cache Settings |
修改Cache的设置。 |
Advanced Controller Settings |
修改控制卡的高级属性。 |
Clear Configuration |
清除控制卡当前所有的Array与RAID组配置。 |
Backup Power Source |
超级电容(提供超级电容状态信息)。 |
Manage Power Settings |
管理电源设置(修改控制卡的电源模式、启用/禁用控制卡的生存模式)。 |
Out of Band Messaging Settings |
控制卡带外管理。 |
Configure Controller Port Mode |
设置RAID控制卡的使用模式。 |
界面说明
“Modify Controller Settings”界面如图13-91所示,参数说明如表13-25所示。
图13-91 Modify Controller Settings
参数 |
说明 |
Transformation Priority |
设置Array扩展、逻辑盘扩展、逻辑盘迁移、Array收缩/迁移等操作的优先级,分为High/Medium/Low三个选项。 说明 该选项设置为“high”时,会抢占I/O资源,影响读写I/O性能,建议用户保持默认取值。 |
Rebuild Priority |
设置逻辑盘重构的优先级,分为Low/Medium/Medium High/High四个选项。 |
Surface Scan Analysis Priority |
设置两次硬盘表面扫描的时间间隔,硬盘表面扫描主要是检查硬盘健康状态。 可选项为0~31,默认值为3,数字表示controller在下一次surface scan analysis之前的延迟时间,单位为秒。0表示禁用硬盘表面扫描功能。 |
Current Parallel Surface Scan Count |
设置同时启动硬盘表面扫描进程的数量,取值范围为1~16,默认值为1。设置为1时表示禁用硬盘表面扫描功能。 |
Spare Activation Mode |
设置热备盘的激活模式,可选模式有: l Failure Spare Activation:当硬盘出现故障时才触发热备盘重构。 l Predictive Spare Activation:当硬盘出现预失效就触发热备盘重构。 默认取值为:Failure Spare Activation。 |
Unconfigured Physical Drive Write Cache State |
设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
HBA Physical Drive Write Cache State |
设置HBA模式下硬盘的写Cache状态 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
Configured Physical Drive Write Cache State |
设置RAID/Mixed模式下RAID组成员盘的写Cache状态。 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
Port CN0 Mode |
设置Connector 0端口的模式,有以下三种模式: l RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS。 l Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。 l HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。 说明 l 当背板类型为直通背板时,才会显示该参数。 l 两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。 |
Port CN1 Mode |
设置Connector 1端口的模式,有以下三种模式: l RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS。 l Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。 l HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。 说明 l 当背板类型为直通背板时,才会显示该参数。 l 两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。 |
Submit Changes |
确认修改。 |
当“Surface Scan Analysis priority”选项设置为0或“Current Parallel Surface Scan Count”选项设置为1时,硬盘表面扫描功能(Surface Scan)会被禁用。
界面说明
“Modify Cache Settings”界面如图13-92所示,参数说明如表13-26所示。
参数 |
说明 |
No Battery Write Cache |
当电池/电容不在位或未完全充电时,启用写缓存。 l Disabled:禁用此功能(默认) l Enabled:开启此功能 须知 在没有充分充电的备份电源的前提下开启这个选项,可能会在电源故障时导致数据丢失,请谨慎启用该功能。 |
Cache Ratio (Read) |
调整预读Cache与写Cache的内存量,输入范围:0-100(增量为5)。 |
Submit Changes |
保存设置 |
界面说明
“Advanced Controller Settings”界面如图13-93所示,参数说明如表13-27所示。
图13-93 Advanced Controller Settings
参数 |
说明 |
Degraded Mode Performance Optimization |
对于降级的RAID5,启用此设置,将指示RAID控制卡通过硬盘缓存,提高大规模读请求的性能;禁用此设置,将强制RAID控制卡从相同的硬盘中多次读取数据。 |
Physical Drive Request Elevator Sort |
设置硬盘的写入电梯排序算法的行为。这种调度优化将I/O请求按优先级排序,使硬盘取数臂和磁头运动继续沿同一方向进行。启用电梯排序功能将优化寻道时间;禁用电梯排序功能将增加吞吐量。 |
RAID6/60 Alternate Inconsistent Repair Policy |
禁用该修复策略时,若RAID控制卡检测到奇偶校验信息与硬盘数据不匹配,将指示RAID控制卡更新奇偶校验信息,保持数据不变;启用该修复策略时,若RAID控制卡检测到奇偶校验信息与硬盘数据不匹配,将指示RAID控制卡根据奇偶校验信息更新硬盘上的数据。 |
Maximum Drive Request Queue Depth |
设置RAID控制卡的队列深度,有效取值自动设置为2,4,8,16和32。 |
Monitor and Performance Analysis Delay |
以分钟为单位,设置RAID的监控和性能分析延迟参数。默认参数值为60分钟。若将该值设置为0,将禁用监控和性能分析功能。 |
HDD Flexible Latency Optimization |
为硬盘提供灵活时延优化功能。启用灵活时延优化功能,RAID控制卡会检测I/O请求,设置时延阈值。如果检测到的I/O请求时延满足该阈值,则即时禁用电梯排序功能和业务请求,执行满足阈值的I/O请求,减少高时延I/O请求数量。阈值的有效取值范围如下: l Disabled:禁用 l Low:低值 l Middle(100ms):中等值 l High:高值 l Very High(30ms):较高值 l Very High(10ms):极高值 |
Submit Changes |
确认修改。 |
界面说明
“Clear Configuration”界面如图13-94所示,参数说明如表13-28所示。
参数 |
说明 |
Delete All Array Configurations |
清除所有Array的配置信息。 |
Delete Configuration metadata on all physical drives |
清除所有不属于Array,但带有Array信息的物理硬盘数据。 |
界面说明
“Backup Power Source”界面如图13-95所示,参数说明如表13-29所示。
参数 |
说明 |
Backup Power Status |
超级电容当前状态。 l charging:超级电容正在充电。 l charged:超级电容充电完成。 l Not Present:未接入超级电容。 |
界面说明
“Manage Power Settings”界面如图13-96所示,参数说明如表13-30所示。
参数 |
说明 |
Power Mode |
设置控制卡的power mode。 l Minimum Power:将static设置设为最低级。 l Balanced:static设置随配置而定。 l Maximum Performance:将static设置设为最高级。 默认为“Maximum Performance”。 |
Survival Mode |
当RAID控制卡的温度超过阈值时,Survival Mode将允许控制卡将所有的功耗配置设置为最小值,选择该模式后,服务器将继续在这种环境下工作,但性能可能会下降。 l Enabled:启动该特性。 l Disabled:关闭该特性。 默认取值为“Enabled”。 |
Submit Changes |
确认修改。 |
界面说明
“Out of Band Messaging Settings”界面如图13-97所示,参数说明如表13-31所示。
图13-97 Out of Band Messaging Settings
参数 |
说明 |
Active Settings |
当前设置。 |
OOB Interface |
带外管理数据接口。 l MCTP:通过MCTP(Management Component Transport Protocol)管理接口进行带外管理。 l PBSI:通过PBSI管理接口进行带外管理。 l Disabled OOB Interface:禁用带外管理。 可通过在图13-97选择“Changes Settings”界面进行更改。 |
SMBus Device Type |
系统管理总线设备类型。 l Default l Fixed l ARP |
SMBus Physical Channel |
系统管理总线物理通道。 |
VDM Discovery Notify |
VDM 发现通知。 |
Use Static EIDs during initialization |
在初始化期间使用静态EID。 |
SMBus Slave Address |
系统管理总线从机地址。 |
界面说明
“Configure Controller Port Mode”界面如图13-98所示,参数说明如表13-32所示。
图13-98 Configure Controller Port Mode
参数 |
说明 |
Current Controller Port Mode |
控制卡当前的端口模式。 |
Set Controller Port Mode |
设置控制卡的端口模式,有以下几种: l RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS。 l HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。 l Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。 l Independent模式:允许Port CN0和CN1使用不同的工作模式(FW版本5.32及之后版本支持,仅适用于直通背板)。 默认为“Mixed”模式。 |
Submit Changes |
确认修改。 |
设置控制卡的端口模式
通过该操作,可将所有Connector的工作模式同时设置为同一模式。
在图13-98中选择“Set Controller Port Mode”,并按“Enter”。
弹出端口模式菜单。
步骤 1 选择要设置的控制卡端口模式,并按“Enter”。
步骤 2 选择“Submit Changes”,并按“Enter”。
提示操作成功。
----结束
界面说明
“Array Configuration”界面如图13-99所示,参数说明如表13-33所示。
参数 |
说明 |
Create Array |
创建Array。 详细介绍可参见13.4.2 创建RAID 0~13.4.10 创建RAID 60。 |
Create maxCache Array |
创建maxCache Array。 详细介绍可参见13.5.6.1 创建maxcache Array。 |
Manage Arrays |
管理Array。 详细介绍可参见13.5.1 查看和修改Array属性。 |
界面说明
“Disk Utilities”界面如图13-100所示,显示硬盘列表。
硬盘的标识信息说明如下:
l ①表示RAID控制卡的Port口编号,其中CN0表示RAID控制卡的Port A口,CN1表示RAID控制卡的Port B口。
l ②表示机箱或背板的位置ID。
l ③表示硬盘槽位号。
l ④表示硬盘的容量。
l ⑤表示硬盘的类型。
l ⑥表示硬盘的型号。
选定要操作的硬盘,并按“Enter”,显示操作菜单,如图13-101所示,参数说明如表13-34所示。
参数 |
说明 |
Device Information |
查看硬盘相关信息。 |
Identify Device |
开启/关闭硬盘定位指示灯。 |
Erase Disk |
安全擦除硬盘。 通过该选项可擦除非RAID组成员盘的数据。 说明 l 硬盘擦除耗时长,执行完成后,数据会被清除。 l 硬盘擦除过程中执行上下电,插拔硬盘等操作会导致硬盘数据损坏。 l 请谨慎使用该功能。 |
Update Device Firmware |
升级硬盘的Firmware。 说明 该功能暂不可用。 |
如果当前配置的硬盘背板是Expander类型时,“Disk Utilities”界面还会显示Expander的相关信息,如图13-102所示。
查看硬盘属性
在图13-100中选择“Device Information”并按“Enter”后,显示硬盘的详细信息,如图13-103所示,参数说明如表13-35所示。
参数 |
说明 |
Device Type |
硬盘的类型 |
Model |
硬盘型号 |
Drive Encryption Capability |
硬盘加密功能 |
Serial Number |
硬盘序列号 |
Port:Box:Bay |
当前硬盘的物理位置 |
Firmware version |
硬盘固件版本 |
Logical Sector Size |
硬盘的逻辑分区大小 |
Physical Sector Size |
硬盘的物理分区大小 |
Size |
硬盘容量 |
Speed(rpm) |
硬盘转速 |
Negotiated Link Rate |
硬盘链路协商速率 |
Maximum Link Rate |
硬盘链路最大速率 |
Write Cache Status |
硬盘的写Cache状态 |
Mode |
硬盘的工作模式 |
Temperature |
硬盘温度 |
Associated to Array |
硬盘是否已加入Array |
打开/关闭硬盘定位指示灯
1. 在图13-100中选择“Identify Device”并按“Enter”。
进入如图13-104所示界面。
2. 在“Identification Duration(seconds)”中输入定位指示灯的闪烁时长(范围为1~86400,单位为秒,不设置时默认为86400s)。
3. 选择“Start”并按“Enter”。
定位指示灯开始闪烁。
4. (可选)选择“Stop”并按“Enter”。
定位指示灯停止闪烁。
安全擦除硬盘数据
具体操作步骤请见13.5.9 擦除硬盘。
界面说明
因服务器不支持Legacy模式,该界面的设置无效。
“Set Bootable Device(s) for Legacy Boot Mode”界面如图13-105所示,参数说明如表13-36所示。
图13-105 Set Bootable Device(s) for Legacy Boot Mode
参数 |
说明 |
Primary Bootable Device |
第一启动盘。 |
Secondary Bootable Device |
第二启动盘。 |
Select Bootable Logical Drive |
设置逻辑盘为第一启动盘或第二启动盘。 |
Select Bootable Physical Drive |
设置物理硬盘为第一启动盘或第二启动盘。 |
Number of OS bootable drives |
设置系统启动盘的数量。 |
Clear Bootable Device(s) |
清除启动盘。 l Select Boot Precedence:选择将要清除的启动盘。 l Clear Bootable Device(s):确认清除启动盘。 |
界面说明
“Administration”界面如图13-106所示,参数说明如表13-37所示。
参数 |
说明 |
Flash Controller Firmware |
更新RAID控制卡的Firmware。 该接口暂不可用。 |
Save Support Archive |
收集RAID控制卡日志。 该接口暂不可用。 |
Reset controller settings to factory defaults |
将RAID控制卡恢复出厂配置。 |
使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。
下载工具
登录Microsemi网站上RAID控制卡的页面,如图13-107所示。
图13-107 “Storage Manager Downloads”
步骤 2 单击“Adaptec ARCCONF Command Line Utility*”跳转至ARCCONF工具详细界面。
步骤 3 单击。
步骤 4 按照提示信息下载ARCCONF工具。
步骤 5 解压后得到适用于不同操作系统的工具包。
----结束
安装工具
使用文件传输工具(例如Winscp)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。
步骤 1 在Linux命令行执行rpm -ivh Arcconfxxx.aarch64.rpm命令安装ARCCONF工具。
ARCCONF工具的安装路径为/usr/Arcconf,需进入该目录后执行RAID控制卡相关命令。
安装完毕后,即可执行RAID控制卡命令。
----结束
l 为快速获取命令结果,建议在每条命令之后增加nodiskinfo参数,如arcconf list controller_id nodiskinfo。
l ARCCONF工具在23168及以后版本支持nodiskinfo参数。
命令功能
查询控制卡的基本信息。
命令格式
arcconf list controller_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
使用指南
无
使用实例
# 查询ID为1的控制卡属性。
[root@localhost ~]# arcconf list 1
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
Controller
ID :
Status, Slot, Mode, Name, SerialNumber, WWN
----------------------------------------------------------------------
Controller
1: :
Optimal, Slot 1, Mixed, MSCC Adaptec SmartRAID 3152-8i, 7A45F30016A, 50000D1E00189F30
----------------------------------------------------------------------
Array Information
----------------------------------------------------------------------
Array
ID
: Status (Interface, TotalSize MB, FreeSpace MB)
----------------------------------------------------------------------
Array
0
: Ok (SATA SSD, 305152 MB, 0 MB)
----------------------------------------------------------------------
Logical device information
----------------------------------------------------------------------
Logical
ID
: Status (RAID, Interface, Size MB) Name
----------------------------------------------------------------------
Logical
0
: Optimal (0, Data, 305190 MB) LogicalDrv 0
----------------------------------------------------------------------
maxCache information
----------------------------------------------------------------------
----------------------------------------------------------------------
Physical Device information
----------------------------------------------------------------------
Physical
ID
: State (Interface, BlockSize, SizeMB, Vendor, Model, Type) WWN, [Location]
----------------------------------------------------------------------
Physical
0,0
: Online (SATA, 512 Bytes, 152627MB, ATA , INTEL
SSDSA2BW16, Solid State Drive) 30000D1E00189F30, [Enclosure Direct Attached, Slot
0(Connector 0:CN0)]
Physical
0,1
: Online (SATA, 512 Bytes, 1526185MB, ATA ,
SSDSC2BB016T7H , Solid State Drive) 30000D1E00189F32, [Enclosure Direct
Attached, Slot 1(Connector 0:CN0)]
Physical
0,4
: Ready (SAS, 512 Bytes, 1716957MB, TOSHIBA ,
AL14SEB18EQ , Hard Drive) 500003969812C842, [Enclosure
Direct Attached, Slot 4(Connector 1:CN1)]
Physical
0,5
: Ready (SAS, 512 Bytes, 858483MB, HGST , HUC101890CSS200 ,
Hard Drive) 5000CCA0361C09C1, [Enclosure Direct Attached, Slot 5(Connector
1:CN1)]
Physical 0,6 :
Ready (SATA, 512 Bytes, 457862MB, ATA ,
MTFDDAK480TDC-1A, Solid State Drive) 30000D1E00189F39, [Enclosure Direct
Attached, Slot 6(Connector 1:CN1)]
Physical
0,7
: Ready (SATA, 512 Bytes, 915715MB, ATA ,
MTFDDAK960TDC-1A, Solid State Drive) 30000D1E00189F3B, [Enclosure Direct
Attached, Slot 7(Connector 1:CN1)]
Physical
2,2
: Ready (SES2, Not Applicable, Not Applicable, MSCC , Virtual
SGPIO, Enclosure Services Device) 50000D1E00189F30, [Not Applicable]
Command completed successfully.
命令功能
查询控制卡的基本信息。
命令格式
命令格式 |
功能 |
arcconf getconfig controller_id AD |
查询适配器信息 |
arcconf getconfig controller_id LD |
查询所有LD的信息 |
arcconf getconfig controller_id LD LD_id |
查询特定LD的信息 |
arcconf getconfig controller_id PD |
查询所有物理硬盘的信息 |
arcconf getconfig controller_id PD physical_id |
查询特定物理硬盘的信息 |
arcconf getconfig controller_id AR |
查询所有Array的信息 |
arcconf getconfig controller_id AR AR_id |
查询特定Array的信息 |
arcconf getconfig controller_id MC |
查询maxCached的信息 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
LD_id |
LD的ID |
– |
physical_id |
硬盘的physical编号 |
– |
slot_id |
物理硬盘槽位编号 |
– |
AR_id |
Array的ID |
– |
使用指南
无
使用实例
# 查询所有Array的信息。
[root@localhost ~]# ./arcconf
getconfig 1 ar
Controllers found: 1
----------------------------------------------------------------------
Array Information
----------------------------------------------------------------------
Array Number 0
Name
: A
Status
:
Ok
Interface
: SATA SSD
Total
Size
: 305152 MB
Unused
Size
: 204800 MB
Block
Size
: 512 Bytes
Array
Utilization
: 32.77% Used, 67.23% Unused
Type
: Data
Transformation
Status
: Not Applicable
Spare Rebuild
Mode
: Dedicated
SSD I/O Bypass :
Disabled
--------------------------------------------------------
Array Logical Device Information
--------------------------------------------------------
Logical
0
: Optimal (1, Data, 49999 MB) LogicalDrv 0
--------------------------------------------------------
Array Physical Device Information
--------------------------------------------------------
Device
0
: Present (915715MB, SATA, SSD, Channel:0,
Device:0) 18031A983BCA
Device
1
: Present (152627MB, SATA, SSD, Channel:0, Device:1) CVPR1461036N160DGN
--------------------------------------------------------
Array Hotspare Information
--------------------------------------------------------
Device
3
: Dedicated Hot-Spare (457862MB, SATA, SSD, Channel:0,
Device:3)
2029E247
Command completed successfully.
[root@localhost ~]#
# 查询所有LD的基本信息。
[root@localhost ~]# ./arcconf
getconfig 1 ld
Controllers found: 1
----------------------------------------------------------------------
Logical device information
----------------------------------------------------------------------
Logical Device number 0
Logical Device
name
: LogicalDrv 0
Disk
Name
: /dev/sdd
Block Size of member
drives
: 512 Bytes
Array
: 0
RAID level
: 1
Status of Logical
Device
: Optimal
Size
: 49999 MB
Stripe-unit
size
: 256 KB
Full Stripe
Size
: 256 KB
Interface
Type
: SATA SSD
Device
Type
: Data
Boot
Type
: None
Heads
: 255
Sectors Per
Track
: 32
Cylinders
: 12549
Caching
: Enabled
Mount
Points
: Not Applicable
LD Acceleration
Method
: Controller Cache
Volume Unique
Identifier
: 600508B1001C329D07A9BDA053FF081B
--------------------------------------------------------
Array Physical Device Information
--------------------------------------------------------
Device
0
:
Present (915715MB, SATA, SSD, Channel:0,
Device:0) 18031A983BCA
Device
1
: Present (152627MB, SATA, SSD, Channel:0, Device:1) CVPR1461036N160DGN
--------------------------------------------------------
Array Hotspare Information
--------------------------------------------------------
Device
3
: Dedicated Hot-Spare (457862MB, SATA, SSD, Channel:0,
Device:3)
2029E247
Command completed successfully.
[root@localhost ~]#
命令功能
查询控制卡的FW和驱动的版本信息。
命令格式
arcconf getversion
使用实例
# 查询控制卡FW和驱动的版本信息。
[root@localhost ~]# ./arcconf
getversion
Controllers found: 1
Controller #1
==============
Firmware
: 1.43[0] (0)
Driver
: 0.9.14-100 (0)
Command completed successfully.
[root@localhost ~]#
命令功能
通过该命令可以升级控制卡的Firmware。
命令格式
arcconf romupdate controller_id fwfile
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
- |
fwfile |
Firmware升级所需的.bin文件名 |
- |
使用实例
# 升级控制卡FW。
[root@linux 2.93]# arcconf romupdate
1 SmartFWx100.bin
Controllers found: 1
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Updating controller 1 firmware...
Succeeded
You must restart the system for firmware updates to take effect.
Command completed successfully.
命令功能
设置控制卡工作模式。
控制卡工作模式默认为“Mixed”。
命令格式
arcconf setcontrollermode controller_id mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
mode |
控制卡工作模式 |
l 2:设置为HBA模式。 l 3:设置为RAID模式。 l 5:设置为Mixed模式。 说明 3152-8i的工作模式的介绍请参见12.3.2 支持多种工作模式。 |
使用指南
无
使用实例
# 设置控制卡工作模式为“Mixed”。
[root@localhost ~]# ./arcconf
setcontrollermode 1 5
Controllers found: 1
Command completed successfully.
# 查询控制卡工作模式。
[root@localhost ~]# arcconf getconfig
1
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
Controller
Status
: Optimal
Controller
Mode
: Mixed
Channel
description
: SCSI
Controller
Model
: MSCC Adaptec SmartRAID 3152-8i
Controller Serial
Number
: 7A45F30016A
Controller World Wide
Name
: 50000D1E00189F30
Physical
Slot
: 1
Temperature
: 48 C/ 118 F (Normal)
Host bus
type
: PCIe 3.0
Host bus
speed
: 7880 MBps
Host bus link
width
: 8 bit(s)/link(s)
PCI Address
(Bus:Device:Function) : 0:3b:0:0
Number of Ports
: 2
Internal Port
Count
: 2
External Port
Count
: 0
Defunct disk drive
count
: 0
NCQ
status
: Enabled
Queue Depth :
Automatic
Monitor and Performance
Delay : 60
minutes
Elevator
Sort
: Enabled
Degraded Mode Performance Optimization : Disabled
Latency
: Disabled
Statistics data collection
mode : Disabled
Post Prompt
Timeout
: 0 seconds
Boot
Controller
: False
Primary Boot
Volume
: None
Secondary Boot Volume :
ADDD8BE3B85736315B553DAF0D36B31E
Driver
Name
: smartpqi
Driver Supports SSD I/O
Bypass : Yes
Manufacturing Part
Number
: Not Applicable
Manufacturing Spare Part Number :
Not Applicable
Manufacturing Wellness
Log
: Not Applicable
NVRAM Checksum
Status
: Passed
Sanitize Lock
Setting
: None
......
回显信息中的“Controller Mode”即为控制卡的工作模式。
命令功能
设置RAID控制卡带外管理接口。
命令格式
命令 |
说明 |
arcconf setcontrollerparam controller_id oobinterface parameter |
设置RAID控制卡带外管理接口协议类型。 |
arcconf setcontrollerparam controller_id oobinterface PBSI I2CADDRESS i2cAddress I2CCLOCKSPEED i2cClockSpeed I2CCLOCKSTRETCH i2cClockStretch |
设置RAID控制卡带外管理接口为PBSI和相关参数。 |
arcconf setcontrollerparam controller_id oobinterface MCTP I2CADDRESS i2cAddress SMBUSDEVICETYPE SMBusDeviceType SMBUSCHANNEL SMBusChannel STATICEID StaticEID VDMNOTIFICATION VDMNotification |
设置RAID控制卡带外管理接口为MCTP和相关参数。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID。 |
– |
parameter |
设置RAID控制卡的带外管理接口。 |
l PBSI:设置RAID控制卡的带外管理接口为PBSI。 l MCTP:设置RAID控制卡的带外管理接口为MCTP。 l Disabled:禁用RAID控制卡的带外管理接口。 l Reset:重置RAID控制卡的带外管理接口,默认为MCTP。 |
i2cAddress |
设置RAID控制卡的I2C地址。 |
十六进制。范围:0x00-0xFF |
i2cClockSpeed |
设置RAID控制卡的I2C时钟速率。 |
l 0:保持默认值。 l 1:10 kHz l 2:100 kHz l 3:400 kHz l 4:800 kHz |
i2cClockStretch |
设置RAID控制卡的I2C时钟延展。 |
Enable:开启I2C时钟延展。 Disable:禁用I2C时钟延展。 |
SMBusDeviceType |
设置SMBus设备类型。 |
l 0:默认 l 1:I2C地址保持固定,无法通过ARP(Address Resolution Protocol)进行分配。 l 2:主设备通过ARP协议将I2C地址分配给从设备,从而避免地址冲突。 |
SMBusChannel |
设置SMBus通道状态。 |
l Enable:开启SMBus通道。 l Disable:关闭SMBus通道。 |
StaticEID |
设置静态EID(End Point Identifier)状态。 |
l Enable:开启静态EID。 l Disable:关闭静态EID。 |
VDMNotification |
设置VDM(Vendor Defined Message)发现通知。 |
l Enable:开启VDM发现通知。 l Disable:关闭VDM发现通知。 |
使用指南
更改设置后需重启服务器生效。
使用实例
# 重置RAID控制卡带外管理接口。
[root@localhost ~]# arcconf
setcontrollerparam 1 oobinterface reset
Controllers found: 1
You must restart the system for out-of-band setting updates to take effect.
Command completed successfully.
# 设置RAID控制卡带外管理接口为MCTP和相关参数。
[root@localhost ~]# arcconf
SETCONTROLLERPARAM 1 OOBINTERFACE MCTP I2CAddress 0xDE SMBUSDEVICETYPE 0
SMBUSCHANNEL Enable STATICEID Enable VDMNotification Enable
Controllers found: 1
You must restart the system for out-of-band setting updates to take effect.
Command completed successfully.
# 设置RAID控制卡带外管理接口为PBSI和相关参数。
[root@localhost ~]# arcconf
setcontrollerparam 1 oobinterface PBSI i2caddress 0xde i2cclockspeed 0
i2cclockstretch enable
Controllers found: 1
You must restart the system for out-of-band setting updates to take effect.
Command completed successfully.
命令功能
查询所有适用arcconf工具的控制卡。
命令格式
arcconf list
使用实例
# 查询所有适用arcconf工具的控制卡。
[root@localhost ~]# ./arcconf list
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
Controller
ID :
Status, Slot, Mode, Name, SerialNumber, WWN
----------------------------------------------------------------------
Controller
1: :
Optimal, Slot 1, Mixed, MSCC Adaptec SmartRAID 3152-8i, 7A45F30016A,
50000D1E00189F30
Command completed successfully.
[root@localhost ~]#
命令功能
通过该命令可以将PD或LD设置成启动设备,其中,PD在控制卡的工作模式为HBA或MIX时生效,LD在控制卡的工作模式为MIX或RAID时生效。
命令格式
arcconf setboot controller_id logicaldrive LD_id type boot_type
arcconf setboot controller_id device physical_id type boot_type
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
LD_id |
LD的ID |
– |
boot_type |
启动项的类型 |
Primary :将LD或PD设置为第一启动设备。 Secondary :将LD或PD设置为第二启动设备。 |
physical_id |
硬盘的physical ID |
– |
使用实例
# 设置LD0为第一启动设备。
[root@localhost ~]# arcconf setboot 1
logicaldrive 0 type primary
Controllers found: 1
Do you wish to change the boot type of the selected device.
Press y, then ENTER to continue or press ENTER to abort: y
Command completed successfully.
命令功能
设置热备盘的模式。
命令格式
arcconf setarrayparam controller_id array_id sparetype mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
array_id |
array的ID |
– |
mode |
热备盘的类型 |
l 1:Dedicated l 2:Autoreplace 说明 热备盘相关介绍请参见12.3.3 硬盘热备份。 |
使用实例
# 设置Array的热备盘模式为:Dedicated。
[root@localhost ~]# arcconf
setarrayparam 1 0 sparetype 1
Controllers found: 1
Command completed successfully.
[root@localhost ~]#
命令功能
点亮、熄灭控制卡的硬盘定位指示灯。
命令格式
命令 |
功能 |
arcconf identify controller_id device physical_id time time |
对特定的物理硬盘进行点灯,time为可选项,表示点灯持续的时间,单位为秒。 |
arcconf identify controller_id device physical_id |
对特定的物理硬盘持续点灯,按任意键会停止点灯。 |
arcconf identify controller_id all time time |
对所有的物理硬盘进行点灯,time为可选项,表示点灯持续的时间,单位为秒。 |
arcconf identify controller_id all stop |
对所有的物理硬盘停止点灯 |
arcconf identify controller_id logicaldrive LD_id time time |
对特定的LD进行点灯,time为可选项,表示点灯持续的时间,单位为秒。 |
arcconf identify controller_id logicaldrive LD_id |
对特定的LD停止点灯 |
arcconf identify controller_id array array_id time time |
对特定的Array进行点灯,time为可选项,表示点灯持续的时间,单位为秒。 |
arcconf identify controller_id array array_id |
对特定的Array停止点灯 |
arcconf identify controller_id maxcache time time |
对maxCache进行点灯,time为可选项,表示点灯持续的时间,单位为秒。 |
arcconf identify controller_id maxcache |
对maxCache停止点灯 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
LD_id |
LD的ID |
– |
physical_id |
硬盘的physical ID |
– |
time |
硬盘指示灯点亮的时间。 |
为可选项,表示点灯持续的时间,单位为秒。 |
array_id |
array的ID |
– |
使用实例
# 对slot 0硬盘的停止指示灯。
[root@localhost ~]# ./arcconf
identify 1 device 0 0
Controllers found: 1
Only devices managed by an enclosure processor may be identified
The specified device(s) is/are blinking.
Press any key to stop the blinking.
# 设置所有的盘进行点灯60秒。
[root@localhost ~]# ./arcconf
identify 1 all time 60
Controllers found: 1
Only devices managed by an enclosure processor may be identified
Command completed successfully.
# 熄灭所有的硬盘指示灯。
[root@localhost ~]# ./arcconf
identify 1 all stop
Controllers found: 1
Command completed successfully.
命令功能
修改LD的条带大小。
命令格式
arcconf modify controller_id from LD_id to stripesize size LD_size LD_level physical_id physical_id......
为准确修改LD的条带大小,执行该命令前,请提前确认并正确输入LD的容量大小,级别以及成员盘的physical ID。
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
size |
修改后的条带大小 |
16/32/64/128/256/512/1024,单位为KB |
LD_size |
LD的容量大小 |
单位为MB |
LD_level |
LD的RAID级别 |
– |
physical_id |
LD成员盘的physical ID |
– |
使用实例
# 将LD的条带大小设置为256KB。
[root@localhost ~]# arcconf modify 1
from 0 to stripesize 256 49999 1 0 0 0 1
Controllers found: 1
Reconfiguration of a logical device is a long process. Are you sure you
want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Reconfiguring logical device: LogicalDrv 0
Command completed successfully.
命令功能
在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。
命令格式
arcconf modify controller_id from LD_id to LD_size LD_level physical_id physical_id......
l 为准确进行扩容,执行该命令前,请提前确认并正确输入RAID级别以及成员盘的physical ID。
l 扩容时需要保证所增加的容量不大于当前LD所在Array剩余容量。
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
LD_id |
LD的ID |
– |
LD_size |
扩容后LD的容量大小 |
单位为MB |
LD_level |
LD的RAID级别 |
– |
physical_id |
LD成员盘的physical ID |
– |
使用实例
# 将LD的容量扩展为89999MB。
[root@localhost ~]# arcconf modify 1
from 0 to 89999 1 0 0 0 1
Controllers found: 1
Reconfiguration of a logical device is a long process. Are you sure you
want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Reconfiguring logical device: LogicalDrv 0
Command completed successfully.
命令功能
在已存在的RAID中添加新硬盘,扩大RAID容量。
通过增加新盘进行扩容分两步进行,先给Array添加硬盘,再进行扩容。
l RAID1/1ADM/10在加盘扩充中会导致RAID级别升高(依据加入的硬盘数量)。
l 加盘扩容时,RAID0/RAID5/RAID6每次只能增加1个硬盘,RAID50/RAID60每次只能增加2个硬盘,RAID10ADM每次只能增加3个硬盘。
命令格式
arcconf modify controller_id array array_id expand physical_id physical_id......
arcconf modify controller_id from LD_id to LD_size LD_level physical_id physical_id......
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
array_id |
Array的id |
– |
LD_size |
扩容后的RAID容量 |
– |
physical_id |
成员盘的physical ID |
– |
使用实例
# 为Array添加硬盘。
[root@localhost ~]# arcconf modify 1
array 0 expand 0 2
Controllers found: 1
This will modify the array 0.
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Modifying array: 0
Command completed successfully.
# 对LD进行扩容。
[root@localhost ~]# arcconf modify 1
from 0 to 109996 0 0 0 0 1 0 2
Controllers found: 1
Reconfiguration of a logical device is a long process. Are you sure you
want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Reconfiguring logical device: LogicalDrv 0
Command completed successfully.
[root@localhost ~]#
命令功能
对RAID级别进行迁移。
l 当RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
l 迁移只支持增加与RAID组成员盘同类型同规格的硬盘。
l 为防止数据丢失,请在该操作之前备份当前RAID组的数据。
l 只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。
l 迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。
命令格式
arcconf modify controller_id from LD_id to LD_size LD_level physical_id physical_id......
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
LD_id |
LD的ID |
– |
LD_size |
LD迁移前的容量 |
– |
LD_level |
迁移后的LD级别 |
– |
physical_id |
LD成员盘的physical ID |
– |
使用实例
#从RAID 0迁移到RAID 5。
[root@localhost ~]# arcconf modify 1
from 0 to 305190 5 0 0 0 1 0 6 0 7
Controllers found: 1
Reconfiguration of a logical device is a long process. Are you sure you
want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Reconfiguring logical device: LogicalDrv 0
Command completed successfully.
# 查询迁移进程。
[root@localhost ~]# arcconf getconfig
1 ld
Controllers found: 1
^[[A----------------------------------------------------------------------
Logical device information
----------------------------------------------------------------------
Logical Device number 0
Logical Device
name
: LogicalDrv 0
Disk
Name
: /dev/sda
Block Size of member drives
: 512 Bytes
Array
: 0
RAID
level
: 5
Status of Logical
Device
: Optimal(Background Parity Initialization : 51 %)
Parity Initialization Status
: In Progress
Size
: 305190 MB
Stripe-unit
size
: 256 KB
Full Stripe
Size
: 768 KB
Interface
Type
: SATA SSD
Device
Type
: Data
Boot
Type
: None
Heads
: 255
Sectors Per
Track
: 32
Cylinders
: 65535
Caching
: Enabled
Mount
Points
: Not Applicable
LD Acceleration
Method
: Controller Cache
Volume Unique
Identifier
: 600508B1001C7B7C4BBF3ACB01F885BC
--------------------------------------------------------
Array Physical Device Information
--------------------------------------------------------
Device
0
: Present (152627MB, SATA, SSD, Channel:0, Device:0) CVPR1461036N160DGN
Device
1
: Present (1526185MB, SATA, SSD, Channel:0, Device:1) PHDV624000FL1P6EGN
Device
6
: Present (457862MB, SATA, SSD, Channel:0,
Device:6) 17501B83246B
Device
7
: Present (915715MB, SATA, SSD, Channel:0,
Device:7) 18031A983BCA
Command completed successfully.
命令功能
为LD设置热备盘。
命令格式
arcconf setstate controller_id device physical_id hsp array array_id sparetype type
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
physical_id |
硬盘的physical ID |
– |
array_id |
Array的ID |
– |
type |
热备盘的类型 |
1 : Dedicated 2 : Autoreplace 说明 热备盘相关介绍请参见12.3.3 硬盘热备份。 |
使用实例
# 为LD设置Autoreplace热备盘。
[root@localhost ~]# arcconf
setstate 1 device 0 3 hsp array 0 sparetype 2
Controllers found: 1
Any existing hot-spare drives of a different sparetype will be removed.
The physical drive used for this operation is connected to Mixed Mode(Smart
HBA) connector. Using it will not allow operating system to use the drive
contents.
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Command completed successfully.
命令功能
设置后台任务优先级并使当前任务优先级生效。
后台任务包括后台初始化、RAID重构、迁移、扩容等。
命令格式
arcconf setpriority controller_id priority current
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
priority |
后台任务优先级 |
l high l medium l low |
使用指南
无
使用实例
# 设置后台任务优先级为“high”并生效。
domino:~# ./arcconf setpriority 1 high current
Controllers found: 1
Command completed successfully.
命令功能
使能和关闭LD的cache功能。
命令格式
arcconf setcache controller_id logicaldrive LD_id con
arcconf setcache controller_id logicaldrive LD_id coff
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
LD_id |
LD的ID |
– |
使用实例
# 使能LD0的cache功能。
[root@localhost ~]# arcconf setcache
1 logicaldrive 0 con
Controllers found: 1
Cache mode is already set to Enabled.
Command aborted.
[root@localhost ~]#
# 关闭LD0的cache功能。
[root@localhost ~]# arcconf setcache
1 logicaldrive 0 coff
Controllers found: 1
Command completed successfully.
[root@localhost ~]#
命令功能
设置后台一致性校验的并行个数。
命令格式
arcconf consistencycheck controller_id parallelcount parallelcount_number
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
parallelcount_number |
后台一致性校验的并行个数 |
– |
使用实例
# 设置后台一致性校验的并行个数为4。
[root@localhost ~]# arcconf
consistencycheck 1 parallelcount 4
Controllers found: 1
Command completed successfully.
[root@localhost ~]#
CONSISTENCYCHECK <Controller#> PARALLELCOUNT <Count>
命令功能
创建、删除RAID。
命令格式
arcconf create controller_id logicaldrive option size level physical_id physical_id......
arcconf delete controller_id logicaldrive ld_id noprompt
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
请参照12.8.2.1 查询控制卡的基本信息获取控制卡的controller_id。 controller_id从1开始排序,如果有多张控制卡,将按照1,2,3...的方式进行排序。 |
option |
要创建的LD的相关属性,具体请参见表13-38。 |
– |
size |
LD的容量大小。 |
单位为MB,设置时只输入数字即可,如数值设为“1024”,则表示虚拟磁盘的容量为1024MB。 如果设置为“MAX”,表示使用硬盘的所有容量创建虚拟磁盘。 |
level |
要创建的LD的级别。 |
支持的RAID级别请参照12.3.1 支持多种RAID级别。 |
physical_id |
LD成员盘的physical ID |
请参照12.8.2.2 查询物理硬盘、Array、LD、maxCache等相关信息获取物理硬盘的ID。 |
ld_id |
虚拟磁盘ID |
请参照12.8.2.2 查询物理硬盘、Array、LD、maxCache等相关信息获取虚拟磁盘的ID。 |
可设置属性 |
说明 |
取值 |
Stripesize |
LD的条带大小 |
16/32/64/128/256/512/1024 |
Legs |
LD的NPG,只在创建RAID 50和RAID 60时可设置。 |
– |
Name |
LD的名称。 |
– |
Method |
LD的初始化的方式。 |
l BUILD l DEFAULT |
Wcache |
即IO Bypass,只在创建maxCache时可设置。 |
l WT:write-through (Disabled) l WB:write-back (Enabled) |
LDcache |
即Controller Cache。 |
– |
SSDOverProvisioningOptimization |
SSD的特性。 |
l enable l disable 说明 l 只有当RAID组由SSD组成时,才能设置该属性。 l 该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。 |
DataLD |
被加速的LD的ID。 |
– |
使用指南
无
使用实例
# 创建RAID 50。
[root@localhost ~]# arcconf create 1
logicaldrive stripesize 256 legs 2 name vd1 method default ldcache lon MAX 50 0
0 0 1 0 2 0 3 0 4 0 5
Controllers found: 1
Space will be wasted as devices specified are of different sizes.
Do you want to add a logical device to the configuration?
Press y, then ENTER to continue or press ENTER to abort: y
Creating logical device: vd1
Command completed successfully.
# 删除ID为0的虚拟磁盘。
[root@localhost ~]# arcconf delete 1
logicaldrive 0 noprompt
Controllers found: 1
WARNING: Deleting this logical device will automatically delete array 0 because
it is the only logical device present on that array.
All data in logical device 0 will be lost.
Deleting: logical device 0 ("Logical Drive 1")
arr
Command completed successfully.
命令功能
创建MaxCache。
命令格式
arcconf create controller_id maxcache wcache policy datald LD_id size level physical_id physical_id......
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
policy |
maxCache的加速策略 |
wt:设置不为LD进行加速 wb:设置为LD进行加速 |
LD_id |
被加速的LD的ID |
– |
size |
maxCache 的容量 |
– |
level |
maxCache的级别 |
0/1/10/5 |
physical_id |
硬盘的physical ID |
– |
使用实例
# 创建级别为RAID 1的MaxCache。
[root@localhost ~]# arcconf create 1
maxcache wcache wb datald 0 17000 1 0 0 0 1
Controllers found: 1
Space will be wasted as devices specified are of different sizes.
After maxCache creation, the following operations are not allowed on the
controller.
MODIFY on logical device and Array
SPLITMIRROR on array
CACHERATIO on controller
Do you want to add a logical device to the configuration?
Press y, then ENTER to continue or press ENTER to abort: y
Creating maxCache
Command completed successfully.
[root@localhost ~]#
命令功能
设置控制卡的读写比例。
命令格式
arcconf setcache controller_id cacheratio read write
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
read |
读cache的比例 |
0~100 |
write |
写cache的比例 |
0~100 |
读cache的比例与写cache的比例总和应为100。
使用实例
# 设置读cache的比例与写cache的比例各为50%。
[root@localhost ~]# arcconf setcache
1 cacheratio 50 50
Controllers found: 1
Command completed successfully.
[root@localhost ~]#
命令功能
该命令允许在没有电容的状态下使用控制卡cache。
在没有电容的状态下使用控制卡cache时,一旦掉电,会导致数据丢失,请谨慎使用该命令。
命令格式
arcconf setcache controller_id nobatterywritecache enable
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
使用实例
# 设置无电容状态下使用cache。
[root@localhost ~]# arcconf setcache
1 nobatterywritecache enable
Controllers found: 1
WARNING : Enabling write caching on a cache module without a fully charged
battery or capacitor could cause data loss in the event of a power failure.
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Command completed successfully.
[root@localhost ~]#
命令功能
使能一致性校验的修复策略。
命令格式
arcconf consistencycheck controller_id inconsistencyrepairpolicy enable
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
使用实例
# 使能一致性校验的修复策略。
[root@localhost ~]# arcconf
consistencycheck 1 inconsistencyrepairpolicy enable
Controllers found: 1
Command completed successfully.
[root@localhost ~]#
命令功能
使能一致性校验生成调试信息并发出通知。
命令格式
arcconf consistencycheck controller_id eventnotify enable
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
使用实例
# 使能一致性校验生成调试信息并发出通知。
[root@localhost ~]# arcconf
consistencycheck 1 eventnotify enable
Controllers found: 1
Command completed successfully.
[root@localhost ~]#
CONSISTENCYCHECK <Controller#> EVENTNOTIFY <Enable | Disable>
命令功能
关闭一致性校验功能。
命令格式
arcconf consistencycheck controller_id off
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
使用实例
# 关闭一致性校验功能。
[root@localhost ~]# arcconf
consistencycheck 1 off
Controllers found: 1
Command completed successfully.
CONSISTENCYCHECK <Controller#> <On [Delay]|Off> [noprompt] [nologs]
命令功能
查询、设置硬盘写Cache策略。
命令格式
arcconf getconfig controller_id ad
arcconf setcache controller_id drivewritecachepolicy drivetype cachepolicy drivetype cachepolicy...
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
- |
drivetype |
要设置写Cache策略的硬盘类型 |
l Configured:设置RAID/Mixed模式下RAID组成员盘的写Cache策略。 l Unconfigured:设置RAID/Mixed模式下非RAID组成员盘的写Cache策略。 l HBA:设置HBA模式下硬盘的写Cache策略。 |
cachepolicy |
硬盘写Cache策略 |
l 0:Default(将硬盘的写Cache保持为默认状态) l 1:Enabled(打开硬盘的写Cache功能) l 2:Disabled(关闭硬盘的写Cache功能) |
使用实例
# 设置Configured状态的硬盘Cache写策略为Enabled,设置Unconfigured状态的硬盘Cache写策略为Disabled。
[root@localhost ~]# ./arcconf
setcache 1 drivewritecachepolicy Configured 1 Unconfigured 2
Controllers found: 1
Enabling controller drive write cache can increase write performance but risks
losing the data in the cache on sudden loss.
Command completed successfully.
# 查询当前的硬盘写Cache策略
[root@localhost ~]# ./arcconf
getconfig 1 ad
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
Controller
Statue
: Optimal
Controller
Mode
:Mixed
Channle
description :SCSI
...
----------------------------------------------------------------------
Physical Drive Write Cache Policy Information
----------------------------------------------------------------------
Configured
Drives
:Enabled
Unconfigured
Drives
:Disabled
HBA
Drives
:Default
----------------------------------------------------------------------
...
命令功能
收集控制卡的Firmware日志。
命令格式
arcconf SAVESUPPORTARCHIVE
使用实例
# 收集控制卡的Firmware日志。
[root@linux /]# arcconf
SAVESUPPORTARCHIVE
Controllers found: 1
Usage: SAVESUPPORTARCHIVE [Path] [Firmware|GUI|Arcconf|Storlib|Basecode|Redfish]
Example: SAVESUPPORTARCHIVE C:\Adaptec\maxView Firmware
Example: SAVESUPPORTARCHIVE /var/log/maxView Storlib
Example: SAVESUPPORTARCHIVE
Example: SAVESUPPORTARCHIVE .
===================================================================================
Saves all the logs
Path :
directory other than default
Firmware : saves Firmware logs
GUI : saves GUI
logs
Arcconf : saves Arcconf
logs
StorLib : saves StorLib
logs
Basecode : saves Basecode logs
Redfish : saves Redfish
logs
The path is not specified, Using the default.
The logs are saved in relevant folders in /var/log/Support
Command completed successfully.
命令功能
设置硬盘、LD、MaxCache的状态。
命令格式
命令格式 |
功能 |
arcconf setstate controller_id device physical_id state |
设置硬盘状态。 |
arcconf setstate controller_id logicaldrive LD_id optimal |
设置LD状态为optimal。 |
arcconf setstate controller_id maxcache LD_id optimal |
设置MaxCache状态为optimal。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
physical_id |
硬盘的physical ID |
– |
state |
设置硬盘状态。 |
l hsp:将硬盘设置为热备盘,具体可参见12.8.2.15 为LD设置热备盘。 l rdy:移除硬盘热备状态,或将硬盘状态从fail设置为ready。 l ddd:强制将硬盘状态设置为离线(故障)。 l eed:启用擦除的硬盘。 |
array_id |
Array的ID |
– |
type |
设置热备的类型。 |
l 1:dedicated spare(局部热备盘) l 2:auto replace spare(全局热备盘) |
LD_id |
LD的ID |
– |
使用指南
更换LD成员盘时,建议将LD状态设置为optimal后再进行更换,以免误插拔导致Array失效。
使用实例
# 将硬盘设置为离线。
[root@localhost ~]# arcconf
setstate 1 device 0 11 ddd
Controllers found: 1
Changing state from Ready to Failed may delete any data partitions present on
the drive.
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Command completed successfully.
# 将LD状态设置为optimal。
[root@localhost ~]# arcconf
setstate 1 logicaldrive 0 optimal
Controllers found: 1
Attention: Using advanced options to force a logical device online is a
dangerous operation and
requires substantial knowledge of the RAID level and the nature of the logical
device failure.
Even if this operation can force the logical device online,
all data on this logical device may be lost if one or more disks contain
outdated data.
All available disk segments that constitute this logical device will be forced
online;
the data they contain will be used as valid data.
If you are not sure, abort and contact your service representative.
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Command completed successfully.
# 将MaxCache的状态设置为optimal。
[root@localhost ~]# arcconf
setstate 1 maxcache 1 optimal
Controllers found: 1
Attention: Using advanced options to force a maxCache logical device online is
a dangerous operation and
requires substantial knowledge of the RAID level and the nature of the maxCache
logical device failure.
Even if this operation can force the maxCache logical device online,
all data on this maxCache logical device may be lost if one or more disks
contain outdated data.
All available disk segments that constitute this maxCache logical device will
be forced online;
the data they contain will be used as valid data.
If you are not sure, abort and contact your service representative.
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Command completed successfully.
命令功能
设置SSD I/O Bypass状态。
命令格式
arcconf setarrayparam controller_id array_id ssdiobypass state
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
array_id |
array的ID |
– |
state |
设置SSD I/O Bypass启用状态 |
l enable:启用SSD I/O Bypass l disable:禁用SSD I/O Bypass |
使用指南
无
使用实例
# 禁用SSD I/O Bypass。
[root@localhost ~]# arcconf
setarrayparam 1 2 ssdiobypass disable
Controllers found: 1
Disabling SSD I/O bypass will impact the performance of all the logical
device(s) in the array. You can enable the controller caching on logical
device(s) to improve performance.
Command completed successfully.
关于本章
介绍MSCC SmartHBA 2100-8i RAID控制卡的外观、特性、以及配置方法。
本章节涉及的截图以1.61 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。
MSCC SmartHBA 2100-8i控制卡(以下简称2100-8i)提供2个12Gbit/s的mini SAS HD接口,支持PCIe 3.0接口,并支持最多8个phy。
2100-8i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。
2100-8i的结构如图14-1所示。
控制卡下属的物理硬盘有如表14-1所示的状态。
状态 |
说明 |
Online |
硬盘为某个虚拟磁盘的成员盘,可正常使用,处于在线状态。 |
Hot Spare |
被设置为热备盘。 |
Failed |
当“Online”状态或“Hot Spare”状态的硬盘出现不可恢复的错误时,会体现为此状态。 |
Rebuilding |
硬盘正在进行数据重构,此时硬盘的性能会受一定程度的影响。 |
Not Supported |
当前的控制卡不支持该硬盘,需要更换成RAID控制卡支持的硬盘。 |
Raw(Pass Through) |
HBA模式下的裸盘。 |
Ready |
硬盘可用于配置RAID组。 Mixed模式下的直通盘也会显示为该状态。 |
Predictive Failure |
硬盘即将变为Failed状态,应备份硬盘上的数据,并更换硬盘。 |
Erase In Progress |
硬盘正在进行擦除。 |
控制卡下创建的RAID组有如表14-2所示的状态。
状态 |
说明 |
Optimal |
RAID组状态良好,所有成员盘均在线。 |
Failed |
故障或离线的硬盘数超过了RAID组可容忍的坏盘数。 |
Interim Recovery |
RAID组降级,因为RAID组中存在故障盘,使得RAID组运行性能降低,数据可能丢失。要解决此问题,请检查硬盘是否正确连接设备,或更换故障的硬盘。 |
Rebuilding |
RAID组正在从容错数据盘中进行重构。 |
Ready for Rebuild |
准备执行重构。 |
2100-8i最多支持238个硬盘,最多支持64个Array,每个Array最多支持64个LD(Logical Drive),整张RAID控制卡所有Array最多支持64个LD。
Array即通常所说的硬盘组,每个Array可以包括1个或多个LD。
2100-8i支持的RAID级别及对应的硬盘个数如表14-3所示。
RAID级别 |
支持硬盘数 |
允许坏盘数 |
RAID 0 |
1 ~ 128 |
0 |
RAID 1 |
2 |
1 |
RAID 10 |
4 ~ 128 (偶数) |
子组数(每个子组里最多只允许坏1个盘) |
l 子组数:子RAID的个数,例如RAID 10由两个RAID 1组成,则子组数为2。
l 不支持RAID 5级别。
2100-8i RAID控制卡支持多种工作模式,具体如下:
l RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS。
l HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。
l Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。
l Independent模式:允许Port CN0和CN1使用不同的工作模式(FW版本5.32及之后版本支持,仅适用于直通背板)。
默认为“Mixed”模式。
热备盘是用于替代Array故障成员盘的硬盘,在成员盘故障时承载故障盘中的数据。
2100-8i支持创建最多32个热备盘,一个Array下最多支持创建4个热备盘,使Array在有一个或多个与热备盘同类型的成员盘故障的情况下,可以由热备盘替代,防止Array的数据丢失和状态进一步恶化。
2100-8i支持dedicated spare和auto replace spare两种类型的热备盘:
l dedicated spare:dedicated模式的热备盘会作为Array的固定热备盘。当Array中某个硬盘发生故障,dedicated模式的热备盘会替代损坏盘并利用其他成员盘和冗余数据重构,生成损坏盘的数据。更换新的硬盘之后,新加入的硬盘会利用其它成员盘和数据继续重构,恢复Array的状态。Array的状态恢复完成后,热备盘恢复原始状态。该模式下的热备盘可以手动与所有的Array进行关联。
l auto replace spare:Array中某个硬盘发生故障时,auto replace模式的热备盘会替代故障盘并利用其他成员盘和冗余数据重构,生成故障盘的数据。当更换新的硬盘之后,原始热备盘中的数据继续作为Array的成员盘被使用,而新更换的硬盘将作为新的“热备盘”。该模式下的热备盘只能作为某一个Array的热备盘。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当Array的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为热备盘。
l 空闲硬盘可配置为热备盘,已加入Array的硬盘不能配置为热备盘。
l 热备盘必须和Array的成员盘类型相同,且容量不小于Array成员盘最大容量。
热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下取出和更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。
l 请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。
l 插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。
l 在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。
具备冗余功能的Array的成员盘故障之后,热备盘自动替换故障数据盘并开始同步。
重构过程中如果服务器出现重启、下电再上电的情况,服务器上电后,重构将会从零重新开始。
当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数和数据传输率有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待,这时就是所谓的硬盘冲突。
条带化技术是一种自动将I/O负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。
影响条带化效果的因素有:
l 条带宽度:指同时可以并发读或写的条带数量。
这个数量等于Array中的物理硬盘数量。增加条带宽度,可以增加Array的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。
在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。
l 条带大小:指写在每块硬盘上的条带数据块的大小。
硬盘分条即把Array中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。
2100-8i支持多种条带大小,包括16KiB、32KiB、64KiB、128KiB、256KiB、512KiB、1024KiB,默认条带大小为256KiB。
硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。
2100-8i可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在2100-8i下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。
直通模式下的硬盘发生故障时(通常指硬盘本身健康状态不佳),硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
2100-8i下挂载的硬盘支持“Erase Disk”,即安全擦除指定硬盘。Erase Disk格式化彻底、耗时长。
数据擦除过程中,不能执行关机,重启,插拔硬盘等操作,否则会导致硬盘被损坏。
擦除数据完成后,所有的硬盘数据会被清除。请谨慎执行该操作。
当包含RAID配置信息的硬盘插入服务器后,服务器在启动过程中识别到当前硬盘配置符合该外部配置要求时,自动导入外部配置。
BIOS中“Boot Type”设置为“UEFI Boot”模式时,打开的管理界面如下所述。
文档中描述的关于2100-8i的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“ARCCONF”命令行工具。
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器。
步骤 2 重启过程中,当出现如图14-2所示界面时,按“Delete”。
步骤 3 输入密码并按“Enter”。
进入如图14-3所示界面。
步骤 4 按“→”切换到“Advanced”页签,如图14-4所示。
步骤 5 选择“MSCC SmartHBA 2100-8i”,按“Enter”。
图14-5 MSCC SmartHBA 2100-8i控制卡主界面
参数 |
说明 |
Controller Information |
查看控制卡相关的基本信息。 |
Configure Controller Settings |
设置控制卡的相关属性。 |
Array Configuration |
创建与管理Array。 |
Disk Utilities |
查看与管理控制卡的硬盘。 |
Set Bootable Device(s) for Legacy Boot Mode |
设置控制卡在Legacy模式下的第一启动盘与第二启动盘。 |
Administration |
控制卡的其他相关操作,包括更新Firmware,收集RAID控制卡日志,恢复RAID控制卡参数为出厂配置等。 |
----结束
操作场景
l 创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见14.5.5 设置RAID控制卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 2100-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 各RAID级别所需的硬盘数请参见14.3.1 支持多种RAID级别。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见14.4.1 登录管理界面。
步骤 1 在图14-5界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 2 选择“Create Array”并按Enter。
进入成员盘选择界面,如图14-6所示。
步骤 3 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l 创建RAID 0支持的硬盘个数为1~128。
步骤 4 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图14-7所示。
步骤 5 选择要配置的Array级别“RAID0”,并选择“Proceed to next Form”。
进入Array属性配置界面,如图14-8所示,参数说明如表14-5所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit size |
LD的容量计算单位。 l TiB l GiB l MiB |
Acceleration method |
设置LD所采用的加速方法。 l IO Bypass(只有当LD由SSD组成时,该选项有效) l None(禁用加速) |
Submit Changes |
确认修改。 |
步骤 6 按照表14-5所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 7 (可选)创建多个LD。
在Array未占用成员硬盘全部容量时,才可进行此操作。
1. 在图14-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图14-9所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。每个Array最多支持128个LD。
步骤 8 检查配置结果。具体操作请参见14.5.1 查看Array属性。
步骤 9 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见14.5.6 设置物理硬盘Cache。
----结束
操作场景
l 创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见14.5.5 设置RAID控制卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 2100-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 各RAID级别所需的硬盘数请参见14.3.1 支持多种RAID级别。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见14.4.1 登录管理界面。
步骤 1 在图14-5界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 2 选择Create Array。
进入成员盘选择界面,如图14-10所示。
步骤 3 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l RAID 1支持的硬盘个数为2。
步骤 4 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图14-11所示。
步骤 5 选择要配置的Array级别“RAID1”,并选择“Proceed to next Form”。
进入Array属性配置界面,如图14-12所示,参数说明如表14-6所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit size |
LD的容量计算单位。 l TiB l GiB l MiB |
Acceleration method |
设置LD所采用的加速方法。 l IO Bypass(只有当LD由SSD组成时,该选项有效) l None(禁用加速) |
Submit Changes |
确认修改。 |
步骤 6 按照表14-6所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 7 (可选)创建多个LD。
在Array未占用成员硬盘全部容量时,才可进行此操作。
1. 在图14-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图14-13所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。每个Array最多支持128个LD。
步骤 8 检查配置结果。具体操作请参见14.5.1 查看Array属性。
步骤 9 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见14.5.6 设置物理硬盘Cache。
----结束
操作场景
l 创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见14.5.5 设置RAID控制卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 2100-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 各RAID级别所需的硬盘数请参见14.3.1 支持多种RAID级别。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见14.4.1 登录管理界面。
步骤 1 在图14-5界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 2 选择Create Array。
进入成员盘选择界面,如图14-14所示。
步骤 3 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l RAID 10支持的硬盘个数为4~128且必须为偶数。
步骤 4 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图14-15所示。
步骤 5 选择要配置的Array级别“RAID1+0”,并选择“Proceed to next Form”。
进入Array属性配置界面,如图14-16所示,参数说明如表14-7所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit size |
LD的容量计算单位。 l TiB l GiB l MiB |
Acceleration method |
设置LD所采用的加速方法。 l IO Bypass(只有当LD由SSD组成时,该选项有效) l None(禁用加速) |
Submit Changes |
确认修改。 |
步骤 6 按照表14-7所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 7 (可选)创建多个LD。
Array未占用成员硬盘全部容量时,才可进行此操作。
1. 在图14-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图14-17所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。每个Array最多支持128个LD。
步骤 8 检查配置结果。具体操作请参见14.5.1 查看Array属性。
步骤 9 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见14.5.6 设置物理硬盘Cache。
----结束
操作步骤
在图14-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入
进入“Manage Arrays”界面,如图14-18所示。
步骤 2 选择要进行查看的Array,并按“Enter”。
进入Array操作界面,如图14-19所示,参数说明如表14-8所示。
参数 |
说明 |
Array Type |
Array的类型,通常显示为“Data”,表示Array是数据盘。 |
List Logical Drives |
逻辑盘相关的接口,可查看、修改逻辑盘的属性,删除逻辑盘等。 |
Create Logical Drive |
创建逻辑盘。 |
Manage Spare Drives |
热备盘相关的接口,可创建,删除热备盘等。 |
Identify Device |
点亮/熄灭整个Array所有硬盘的locate灯。 |
Delete Array |
删除Array。 |
----结束
查看LD的属性
在图14-19中选择“List Logical Drive”并按“Enter”。
进入LD列表。
步骤 1 选择要进行查看的LD并按“Enter”。
进入LD相关操作界面,如图14-20所示,参数说明如表14-9所示。
参数 |
说明 |
Logical Drive Details |
查看LD的相关属性。 |
Edit Logical Drive |
修改LD的相关属性。 |
Delete Logical Drive |
删除LD。 |
步骤 2 选择“Logical Drive Details”并按“Enter”。
显示LD的相关属性,如图14-21所示,界面参数如表14-10所示。
参数 |
说明 |
Status |
当前LD的状态。 |
Size |
整个LD的容量大小。 |
RAID Level |
当前LD的RAID级别。 |
Legacy Disk Geometry(C/H/S) |
当前LD所处的硬盘几何位置。 |
Strip Size |
整个LD的单个子组条带大小。 |
Full Stripe Size |
整个LD的分条大小。 |
Logical Drive Label |
LD的自定义标签。 |
Acceleration Method |
LD的加速方法。 l IO Bypass(只有当LD由SSD组成时,该选项有效) l None(禁用加速) |
Logical Drive Members |
LD的物理成员盘。 |
----结束
操作场景
对服务器的硬盘进行Array分组后,一般会配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l 2100-8i支持dedicated spare和auto replace spare两种类型的热备盘,具体介绍请参见14.3.3 硬盘热备份。
l 只有当“Spare Activation Mode”(热备盘的激活模式)设置为“Predictive Spare Activation”时,RAID0才支持配置热备盘。具体方法请参见14.7.3.1 Modify Controller Settings。
必备事项
前提条件
l 服务器存在空闲硬盘。
l 已登录管理界面,具体操作请参见14.4.1 登录管理界面。
数据
该操作无需准备数据。
操作步骤
在图14-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入
进入“Manage Arrays”界面,如图14-22所示。
步骤 2 选择要创建热备盘的Array并按“Enter”。
步骤 3 选择“Manage Spare Drives”并按“Enter”。
进入热备盘类型选择界面,如图14-23所示,参数说明如表14-11所示。
参数 |
说明 |
Assign Dedicated Spare |
设置硬盘为dedicated spare drive。 dedicated模式的热备盘会作为Array的固定热备盘。当Array中某个硬盘发生故障,dedicated模式的热备盘会替代损坏盘并利用其他成员盘和冗余数据重构,生成损坏盘的数据。更换新的硬盘之后,新加入的硬盘会利用其它成员盘和数据继续重构,恢复Array的状态。Array的状态恢复完成后,热备盘恢复原始状态。 该模式下的热备盘可以手动与所有的Array进行关联。 |
Assign Auto Replace Spare |
设置硬盘为auto replace drives。 该模式下,Array中某个硬盘发生故障时,auto replace模式的热备盘会替代故障盘并利用其他成员盘和冗余数据重构,生成故障盘的数据。当更换新的硬盘之后,原始热备盘中的数据继续作为Array的成员盘被使用,而新更换的硬盘将作为新的“热备盘”。 该模式下的热备盘只能作为某一个Array的热备盘。 |
步骤 4 按照表14-11所述,选择要设置的热备盘类型,并按“Enter”。
进入硬盘选择界面。
步骤 5 选择要设置的硬盘并按“Enter”。
没有加入Array且与Array成员盘类型一致的硬盘可设置为热备盘。建议使用与Array的成员盘型号、容量一致的硬盘作为热备盘。
步骤 6 选择“Assign Dedicated Spare”或“Assign Auto Replace Spare”并按“Enter”。
提示操作成功。
----结束
操作场景
当环境中硬盘个数不满足业务需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。
操作步骤
在图14-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入
进入“Manage Arrays”界面,如图14-24所示。
步骤 2 选择要进行操作的Array并按“Enter”。
步骤 3 选择“Manage Spare Drives”并按“Enter”。
进入“Manage Spare Drives”界面,如图14-25所示。
步骤 4 选择“Delete Spare Drives”并按“Enter”。
进入硬盘选择界面,如图14-26所示。
步骤 5 选择要删除的热备盘并按“Enter”。
步骤 6 选择“Delete Spare Drives”并按“Enter”。
提示操作成功。
----结束
操作场景
当服务器不需要Array或需要重新配置Array时,要先删除当前Array配置来释放硬盘。
删除Array后,Array上的所有数据和Array下的所有LD都将被删除,请谨慎执行删除Array操作。
必备事项
前提条件
l 已创建Array。
l 已登录管理界面,具体操作请参见14.4.1 登录管理界面。
数据
待删除Array中的数据已备份。
操作步骤
在图14-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入“Manage Arrays”界面,如图14-27所示。
步骤 2 选择要删除的Array并按“Enter”。
步骤 3 选择“Delete Array”并按“Enter”。
进入操作确认界面。
删除Array后,Array上的所有数据和Array下的所有LD都将被删除,请谨慎执行删除Array操作。
步骤 4 按“Enter”。
提示操作成功。
----结束
l 当背板类型为直通背板时,可通过本章节的指导,分别设置Connector 0和Connector 1的工作模式,也可通过设置“Configure Controller Port Mode”参数,将所有Connector的工作模式同时设置为同一模式。具体操作请参见14.7.3.6 Configure Controller Port Mode。
l 当背板类型为Expander时,只能通过设置“Configure Controller Port Mode”参数,将RAID控制卡的工作模式同时设置为同一模式。具体操作请参见14.7.3.6 Configure Controller Port Mode。
操作步骤
进入“Modify Controller Settings”界面。
在图14-5界面中,按照“Configure Controller Settings>Modify Controller Settings”的顺序进入“Modify Controller Settings”界面,如图14-28所示。
图14-28 “Modify Controller Settings”界面
步骤 2 设置Connector 0的工作模式。
1. 选择“Port CN0 Mode”并按“Enter”。
弹出工作模式选择菜单。
l 2100-8i支持多种工作模式,分别为:
l RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS。
l Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。
l HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。
l 当配置有RAID组时,不支持将RAID控制卡的工作模式切换成HBA模式。
l 默认为“Mixed”模式。
2. 根据实际需要选择要设置的工作模式,并按“Enter”。
步骤 3 设置Connector 1的工作模式。
1. 选择“Port CN1 Mode”并按“Enter”。
2. 根据实际需要选择要设置的工作模式,并按“Enter”。
两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。
步骤 4 选择“Submit Changes”并按“Enter”。
提示操作成功。
----结束
操作步骤
在图14-5界面中,按照“Configure Controller Settings”>“Modify Controller Settings”>的顺序进入“Modify Controller Settings”界面,如图14-29所示,参数说明如表14-12所示。
图14-29 Modify Controller Settings
参数 |
说明 |
Transformation Priority |
设置Array扩展、逻辑盘扩展、逻辑盘迁移、Array收缩/迁移等操作的优先级,分为High/Medium/Low三个选项。 默认取值为“Medium”。 说明 该选项设置为“high”时,会抢占I/O资源,影响读写I/O性能,建议用户保持默认取值。 |
Rebuild Priority |
设置逻辑盘重构的优先级,分为Low/Medium/Medium High/High四个选项。 默认取值为“High”。 |
Surface Scan Analysis Priority |
设置两次硬盘表面扫描的时间间隔,硬盘表面扫描主要是检查硬盘健康状态。 可选项为0~31,默认值为3,数字表示Controller在下一次Surface Scan Analysis之前的延迟时间,单位为秒。0表示禁用硬盘表面扫描功能。 |
Current Parallel Surface Scan Count |
设置同时启动硬盘表面扫描进程的数量,取值范围为1~16,默认值为1。设置为1时表示禁用硬盘表面扫描功能。 |
Spare Activation Mode |
设置热备盘的激活模式,可选模式有: l Failure Spare Activation l Predictive Spare Activation 默认取值为“Failure Spare Activation”。 |
Unconfigured Physical Drive Write Cache State |
设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
HBA Physical Drive Write Cache State |
设置HBA模式下硬盘的写Cache状态 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
Configured Physical Drive Write Cache State |
设置RAID/Mixed模式下RAID组成员盘的写Cache状态。 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
Port CN0 Mode |
设置Connector 0端口的模式,有以下三种模式: l RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS。 l Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。 l HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。 说明 l 当背板类型为直通背板时,才会显示该参数。 l 两个Connector Port如果接在同一块Expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。 |
Port CN1 Mode |
设置Connector 1端口的模式,有以下三种模式: l RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS。 l Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。 l HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。 说明 l 当背板类型为直通背板时,才会显示该参数。 l 两个Connector Port如果接在同一块Expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。 |
Submit Changes |
确认修改。 |
l 如果要设置RAID/Mixed模式下非RAID组成员盘的写Cache状态,请执行步骤2。
l 如果要设置HBA模式下硬盘的写Cache状态,请执行步骤3。
l 如果要设置RAID/Mixed模式下RAID组成员盘的写Cache状态,请执行步骤4。
步骤 2 设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。
1. 选择“Unconfigured Physical Drive Write Cache State”并按“Enter”。
2. 参考表14-12的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。
3. 选择“Submit Changes”并按“Enter”。
提示操作成功。
1. 选择“HBA Physical Drive Write Cache State”并按“Enter”。
2. 参考表14-12的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。
3. 选择“Submit Changes”并按“Enter”。
提示操作成功。
步骤 4 设置RAID/Mixed模式下RAID组成员盘的写Cache状态。
1. 选择“Configured Physical Drive Write Cache State”并按“Enter”。
2. 参考表14-12的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。
3. 选择“Submit Changes”并按“Enter”。
提示操作成功。
----结束
查询RAID控制卡固件版本的方法有如下几种:
l 在iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。
l 服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见14.8.2.3 查询控制卡的FW和驱动版本。
回显信息中的“Firmware”字段即为RAID控制卡的固件版本。
l 在RAID控制卡管理界面进行查询,具体方法为:
a. 登录RAID控制卡的管理界面,具体操作请参见14.4.1 登录管理界面。
b. 在主界面中选择“Controller Information”并按“Enter”。
显示RAID控制卡基本信息。界面中的“Firmware version”即为RAID控制卡的固件版本,如图14-30所示。
图14-30 Controller Information界面
介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。
更多故障案例请联系技术支持获取。
问题描述
当服务器出现如下现象时,说明硬盘故障。
l 硬盘Fault指示灯点亮。
l 硬盘指示灯不亮。
l 服务器上报硬盘故障告警。
直通模式下的硬盘发生故障时(通常指硬盘本身健康状态不佳),硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
处理方法
l 更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位。
l 新硬盘必须与RAID组成员盘类型一致且容量不小于RAID组成员盘的容量。
l 更换RAID组的硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组(RAID0除外)重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。
判断硬盘故障后,数据是否可恢复。
l 若RAID组为RAID 0,则数据不可恢复。直接安装新硬盘,重新配置RAID,操作完成。
l 若RAID组未失效且存在可用热备盘,则热备盘自动替代故障盘,进入Rebuild状态同步数据。
l 若RAID组为冗余未失效的RAID配置且不存在可用热备盘,则需要安装新硬盘进行数据恢复。
步骤 1 拔掉故障硬盘。
步骤 2 插入新硬盘。
l 若插入的硬盘无数据,则根据原RAID情况有如下工作方式:
− 若原RAID组存在热备盘且已完成了数据重构,热备盘数据自动拷贝至新插入的硬盘中。原热备盘恢复热备状态,操作完成。
− 若RAID组为冗余未失效的RAID配置且不存在可用热备盘,新插入的硬盘自动执行Rebuild操作重构故障硬盘数据,操作完成。
l 若插入的硬盘存在RAID信息,请执行步骤4。
步骤 4 手动重构RAID。
----结束
问题描述
当服务器出现如下现象时,说明控制卡故障。
l 数据无法写入控制卡控制的硬盘。
l 服务器上报控制卡故障告警。
处理方法
登录iBMC Web界面查看告警信息。
步骤 1 根据告警信息,参考iBMC告警处理。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤3
步骤 3 查询兼容性查询助手或者联系技术支持处理。
----结束
问题描述
登录控制卡主界面,根据路径“Manage Arrays > Array > List Logical Drives > Logical 1 > Logical Drive Details”进入RAID组详细信息界面,确认RAID组的状态“Status”为“Failed”。
其中“Array”根据实际情况选择Array A/B等。
处理方法
登录控制卡主界面,具体操作请参见14.4.1 登录管理界面。
步骤 1 根据路径“Manage Arrays > Array > List Logical Drives > Logical 1”进入RAID组配置界面。
步骤 2 选择“Re-Enable Logical Drive”重新激活RAID组。
步骤 3 根据路径“Manage Arrays > Array > List Logical Drives > Logical 1 > Logical Drive Details”进入RAID组详细信息界面。查看RAID组的状态“Status”是否恢复为“Optimal”或者“Ok”。
l 是 => 处理完毕。
l 否 => 步骤5
联系技术支持处理。
----结束
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器。
步骤 2 重启过程中,当出现如图14-31所示界面时,按“Delete”。
步骤 3 输入密码并按“Enter”。
进入如图14-32所示界面。
步骤 4 按“→”切换到“Advanced”页签,如图14-33所示。
步骤 5 选择“MSCC SmartHBA 2100-8i”,按“Enter”。
图14-34 MSCC SmartHBA 2100-8i控制卡主界面
参数 |
说明 |
Controller Information |
查看控制卡相关的基本信息。 |
Configure Controller Settings |
设置控制卡的相关属性。 |
Array Configuration |
创建与管理Array。 |
Disk Utilities |
查看与管理控制卡的硬盘。 |
Set Bootable Device(s) for Legacy Boot Mode |
设置控制卡在Legacy模式下的第一启动盘与第二启动盘。 |
Administration |
控制卡的其他相关操作,包括更新Firmware,收集RAID控制卡日志,恢复RAID控制卡参数为出厂配置等。 |
----结束
在“Controller Information”界面中,可以查看控制卡相关的基本信息。
界面介绍
在如图14-5所示的主界面中选择“Controller Information”,打开“Controller Information”界面,如图14-35所示,参数说明如表14-14所示。
图14-35 “Controller Information”界面
参数 |
说明 |
Controller |
RAID控制卡的名称。 |
Device Id |
设备编号。 |
PCI Address |
BIOS分配给RAID控制卡的PCI总线地址。 |
Hardware Revision |
硬件修订版本。 |
Serial Number |
RAID控制卡序列号。 |
WWID |
world wide name,RAID控制卡的唯一标识号。 |
Firmware version |
Firmware的版本号。 |
Firmware release data |
Firmware的发布日期。 |
UEFI Driver version |
UEFI驱动版本号。 |
UEFI Driver release date |
UEFI驱动版本发布日期。 |
Temperature |
RAID控制卡当前温度,耐受温度上限为105度,超过80度,即为不正常。 |
Controller Memory Module Size |
RAID控制卡的cache大小。 |
Controller Mode |
RAID控制卡的当前的使用模式,有多种工作模式。 l RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS。 l HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。 l Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。 l Independent模式:允许Port CN0和CN1使用不同的工作模式(FW版本5.32及之后版本支持,仅适用于直通背板)。 默认为“Mixed”模式。 |
Supported Mode |
RAID控制卡Port口的支持模式。 l Port CN0:RAID HBA Mixed l Port CN1:RAID HBA Mixed |
在“Configure Controller Settings”界面中,可以设置控制卡的相关属性。
界面介绍
在如图14-5所示的配置工具主界面中选择“Configure Controller Settings”,打开“Configure Controller Settings”界面,如图14-36所示,参数说明如表14-15所示。
图14-36 Configure Controller Settings
参数 |
说明 |
Modify Controller Settings |
修改控制卡的相关属性。 |
Advanced Controller Settings |
修改控制卡的高级属性。 |
Clear Configuration |
清除控制卡当前所有的Array与RAID组配置。 |
Manage Power Settings |
控制卡能耗设置。 |
BMC Settings |
RAID控制卡带外管理相关的BMC设置。 |
Configure Controller Port Mode |
设置RAID控制卡的使用模式。 |
界面说明
“Modify Controller Settings”界面如图14-37所示,参数说明如表14-16所示。
图14-37 Modify Controller Settings
参数 |
说明 |
Transformation Priority |
设置Array扩展、逻辑盘扩展、逻辑盘迁移、Array收缩/迁移等操作的优先级,分为High/Medium/Low三个选项。 默认取值为“Medium”。 说明 该选项设置为“high”时,会抢占I/O资源,影响读写I/O性能,建议用户保持默认取值。 |
Rebuild Priority |
设置逻辑盘重构的优先级,分为Low/Medium/Medium High/High四个选项。 默认取值为“High”。 |
Surface Scan Analysis Priority |
设置两次硬盘表面扫描的时间间隔,硬盘表面扫描主要是检查硬盘健康状态。 可选项为0~31,默认值为3,数字表示Controller在下一次Surface Scan Analysis之前的延迟时间,单位为秒。0表示禁用硬盘表面扫描功能。 |
Current Parallel Surface Scan Count |
设置同时启动硬盘表面扫描进程的数量,取值范围为1~16,默认值为1。设置为1时表示禁用硬盘表面扫描功能。 |
Spare Activation Mode |
设置热备盘的激活模式,可选模式有: l Failure Spare Activation l Predictive Spare Activation 默认取值为“Failure Spare Activation”。 |
Unconfigured Physical Drive Write Cache State |
设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
HBA Physical Drive Write Cache State |
设置HBA模式下硬盘的写Cache状态 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
Configured Physical Drive Write Cache State |
设置RAID/Mixed模式下RAID组成员盘的写Cache状态。 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
Port CN0 Mode |
设置Connector 0端口的模式,有以下三种模式: l RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS。 l Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。 l HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。 说明 l 当背板类型为直通背板时,才会显示该参数。 l 两个Connector Port如果接在同一块Expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。 |
Port CN1 Mode |
设置Connector 1端口的模式,有以下三种模式: l RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS。 l Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。 l HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。 说明 l 当背板类型为直通背板时,才会显示该参数。 l 两个Connector Port如果接在同一块Expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。 |
Submit Changes |
确认修改。 |
当“Surface Scan Analysis priority”选项设置为0或“Current Parallel Surface Scan Count”选项设置为1时,硬盘表面扫描功能(Surface Scan)会被禁用。
界面说明
“Advanced Controller Settings”界面如图14-38所示,参数说明如表14-17所示。
图14-38 Advanced Controller Settings
参数 |
说明 |
Degraded Mode Performance Optimization |
对于降格的RAID5逻辑驱动器,启用此设置将指示控制卡通过缓冲物理驱动器请求,提高大规模读请求的性能;禁用此设置将强制控制卡从同一驱动器中多次读取数据。 |
Physical Drive Request Elevator Sort |
设置驱动器的写入电梯排序算法的行为。这种调度优化将I/O请求按优先级排序,使硬盘取数臂和磁头运动继续沿同一方向进行。启用电梯排序功能将优化寻道时间;禁用电梯排序功能将增加吞吐量。 |
Maximum Drive Request Queue Depth |
设置控制卡的队列深度,有效取值自动设置为2,4,8,16和32。 |
Monitor and Performance Analysis Delay |
以分钟为单位,设置控制卡的监控和性能分析延迟参数。默认参数值为60分钟。若将该值设置为0,将禁用监控和性能分析功能。 |
HDD Flexible Latency Optimization |
为硬盘提供灵活时延优化功能。启用灵活时延优化功能,控制卡会检测I/O请求,设置时延阈值。如果检测到的I/O请求时延满足该阈值,则即时禁用电梯排序功能和业务请求,执行满足阈值的I/O请求,减少高时延I/O请求数量。阈值的有效取值范围如下: l Disabled:禁用 l Low:低值 l Middle(100ms):中等值 l High:高值 l Very High(30ms):较高值 l Very High(10ms):极高值 |
Submit Changes |
确认修改。 |
界面说明
“Clear Configuration”界面如图14-39所示,参数说明如表14-18所示。
参数 |
说明 |
Delete All Array Configurations |
清除所有RAID组的配置信息。 须知 选择该参数会删除当前RAID控制卡下所有的RAID配置信息,请谨慎操作。 |
Delete Configuration metadata on all physical drives |
清除所有不属于RAID组,但带有RAID信息的物理硬盘数据。 |
界面说明
“Manage Power Settings”界面如图14-40所示,参数说明如表14-19所示。
参数 |
说明 |
Power Mode |
设置控制卡的Power Mode。 l Minimum Power:将Static设置设为最低级。 l Maximum Performance:将Static设置设为最高级。 说明 默认为“Maximum Performance”。 |
Survival Mode |
当RAID控制卡的温度超过阈值时,Survival Mode将允许控制卡将所有的功耗配置设置为最小值,选择该模式后,服务器将继续在这种环境下工作,但性能可能会下降。 l Enabled:启动该特性。 l Disabled:关闭该特性。 默认取值为Enabled。 |
Submit Changes |
确认修改。 |
“BMC Settings”界面如图14-41所示,参数说明如表14-20所示。
参数 |
说明 |
I2C Slave Address(Hexadecimal) |
设置Controller在I2C总线上的设备地址。 该地址为协议格式中第一个字节(称为slave address),由7位地址和一位R/W读写位(0写1读)组成,设置范围为0xD0~0xFF。 说明 建议该选项保持默认值。 |
Submit Changes |
确认修改。 |
界面说明
“Configure Controller Port Mode”界面如图14-42所示,参数说明如表14-21所示。
图14-42 Configure Controller Port Mode
参数 |
说明 |
Controller Port Mode |
设置控制卡的端口模式,有以下几种: l RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS。 l HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。 l Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。 l Independent模式:允许Port CN0和CN1使用不同的工作模式(FW版本5.32及之后版本支持,仅适用于直通背板)。 默认为“Mixed”模式。 |
Submit Changes |
确认修改。 |
设置控制卡的端口模式
通过该操作,可将所有Connector的工作模式同时设置为同一模式。
在图14-42中选择“Controller Port Mode”,并按“Enter”。
弹出端口模式菜单。
步骤 1 选择要设置的控制卡端口模式,并按“Enter”。
步骤 2 选择“Submit Changes”,并按“Enter”。
提示操作成功。
----结束
界面说明
“Array Configuration”界面如图14-43所示,参数说明如表14-22所示。
参数 |
说明 |
Create Array |
创建Array。 详细介绍可参见14.4.2 创建RAID 0~14.4.4 创建RAID 10 |
Create maxCache Array |
创建maxCache Array。 说明 2100-8i不支持创建maxCache Array。 |
Manage Arrays |
管理已创建的Array。 详细介绍可参见14.5.1 查看Array属性。 |
界面说明
“Disk Utilities”界面如图14-44所示。
如果当前配置的硬盘背板是Expander类型时,该界面还会显示Expander的相关信息,如图14-45所示。
界面说明
在“Set Bootable Device(s) for Legacy Boot Mode”界面可设置Legacy模式下的启动盘,如图14-46所示,参数说明如表14-23所示。
图14-46 Set Bootable Device(s) for Legacy Boot Mode
参数 |
说明 |
Primary Bootable Device |
第一启动盘。 |
Secondary Bootable Device |
第二启动盘。 |
Select Bootable Logical Drive |
设置逻辑盘为第一启动盘或第二启动盘。 |
Number of OS bootable drives |
设置系统启动盘的数量。 |
Clear Bootable Device(s) |
清除启动盘。 l Select Boot Precedence:选择将要清除的启动盘。 l Clear Bootable Device(s):确认清除启动盘。 |
因服务器不支持Legacy模式,该界面的设置无效。
界面说明
“Administration”界面如图14-47所示,参数说明如表14-24所示。
参数 |
说明 |
Flash Controller Firmware |
更新控制卡的Firmware。 该接口暂不可用。 |
Save Support Archive |
收集控制卡日志。 该接口暂不可用。 |
Reset controller settings to factory defaults |
将控制卡恢复出厂配置。 |
使用OS命令行工具可以在服务器正常运行过程中对控制卡进行操作,不需要重启服务器。
下载工具
登录Microsemi网站上RAID控制卡的页面,如图14-48所示。
图14-48 “Storage Manager Downloads”
步骤 2 单击“Adaptec ARCCONF Command Line Utility*”跳转至ARCCONF工具详细界面。
步骤 3 单击。
步骤 4 按照提示信息下载ARCCONF工具。
步骤 5 解压后得到适用于不同操作系统的工具包。
----结束
安装工具
使用文件传输工具(例如Winscp)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。
步骤 1 在Linux命令行执行rpm -ivh Arcconfxxx.aarch64.rpm命令安装ARCCONF工具。
ARCCONF工具的安装路径为/usr/Arcconf,需进入该目录后执行RAID控制卡相关命令。
安装完毕后,即可执行RAID控制卡命令。
----结束
l 为快速获取命令结果,建议在每条命令之后增加nodiskinfo参数,如arcconf list controller_id nodiskinfo。
l ARCCONF工具在23168及以后版本支持nodiskinfo参数。
命令功能
查询控制卡的基本信息。
命令格式
arcconf list controller_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
使用指南
无
使用实例
# 查询ID为1的控制卡属性。
[root@localhost ~]# arcconf list 1
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
Controller
ID :
Status, Slot, Mode, Name, SerialNumber, WWN
----------------------------------------------------------------------
Controller
1: :
Optimal, Slot 1, RAID (Hide RAW), MSCC Adaptec SmartHBA 2100-8i, 7A4563EDE26,
50000D1703F07180
----------------------------------------------------------------------
Array Information
----------------------------------------------------------------------
Array
ID
: Status (Interface, TotalSize MB, FreeSpace MB)
----------------------------------------------------------------------
Array
0
: Has Failed Logical Drive (SATA, 19077120 MB, 0 MB)
Array
1
: Ok (SATA, 9538560 MB, 5343744 MB)
----------------------------------------------------------------------
Logical device information
----------------------------------------------------------------------
Logical
ID
: Status (RAID, Interface, Size MB) Name
----------------------------------------------------------------------
Logical
0
: Failed (10, Data, 4194304 MB) A
Logical
1
: Optimal (10, Data, 5344246 MB) B
Logical
2
: Optimal (1, Data, 2097152 MB) Logical Drive 3
----------------------------------------------------------------------
Physical Device information
----------------------------------------------------------------------
Physical
ID
: State (Interface, BlockSize, SizeMB, Vendor, Model, Type) WWN, [Location]
----------------------------------------------------------------------
Physical
0,8
: Online (SATA, 512 Bytes, 4769307MB, ATA ,
HUS726050ALE610 , Hard Drive) 500E004AAAAAAA00, [Enclosure 1, Slot 0(Connector
0:CN0)]
Physical
0,9
: Online (SATA, 512 Bytes, 4769307MB, ATA , HGST
HUS726050AL, Hard Drive) 500E004AAAAAAA01, [Enclosure 1, Slot 1(Connector
0:CN0)]
Physical
0,10 :
Online (SATA, 512 Bytes, 4769307MB, ATA , HGST
HUS726050AL, Hard Drive) 500E004AAAAAAA02, [Enclosure 1, Slot 2(Connector
0:CN0)]
Physical
0,11 :
Online (SATA, 512 Bytes, 4769307MB, ATA , HGST
HUS726050AL, Hard Drive) 500E004AAAAAAA03, [Enclosure 1, Slot 3(Connector
0:CN0)]
Physical
0,12 :
Online (SATA, 512 Bytes, 4769307MB, ATA , HGST
HUS726050AL, Hard Drive) 500E004AAAAAAA04, [Enclosure 1, Slot 4(Connector
0:CN0)]
Physical
0,13 :
Online (SATA, 512 Bytes, 4769307MB, ATA , HGST
HUS726050AL, Hard Drive) 500E004AAAAAAA05, [Enclosure 1, Slot 5(Connector
0:CN0)]
Physical
2,0
: Ready (SES2, Not Applicable, Not Applicable, 12G SAS, Expander, Enclosure
Services Device) 500E004AAAAAAA1F, [Connector 0:CN0, Enclosure 1]
Physical
2,3
: Ready (SES2, Not Applicable, Not Applicable, MSCC , Virtual
SGPIO, Enclosure Services Device) 50000D1703F07180, [Not Applicable]
Command completed successfully.
命令功能
查询控制卡的基本信息。
命令格式
命令格式 |
功能 |
arcconf getconfig controller_id AD |
查询适配器信息 |
arcconf getconfig controller_id LD |
查询所有LD的信息 |
arcconf getconfig controller_id LD LD_id |
查询特定LD的信息 |
arcconf getconfig controller_id PD |
查询所有物理硬盘的信息 |
arcconf getconfig controller_id PD physical_id |
查询特定物理硬盘的信息 |
arcconf getconfig controller_id AR |
查询所有Array的信息 |
arcconf getconfig controller_id AR AR_id |
查询特定Array的信息 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
LD_id |
LD的ID |
– |
physical_id |
硬盘的physical编号 |
– |
AR_id |
Array的ID |
– |
使用指南
无
使用实例
# 查询所有Array的信息。
[root@localhost ~]# arcconf getconfig
1 ar
Controllers found: 1
----------------------------------------------------------------------
Array Information
----------------------------------------------------------------------
Array Number 0
Name
: A
Status
:
Has Failed Logical Drive
Interface
: SATA
Total
Size
: 19077120 MB
Unused
Size
: 0 MB
Block
Size
: 512 Bytes
Array
Utilization
: 100.00% Used, 0.00% Unused
Type
: Data
Transformation
Status
: Not Applicable
Spare Rebuild
Mode
: Dedicated
SSD I/O
Bypass
: Not Applicable
--------------------------------------------------------
Array Logical Device Information
--------------------------------------------------------
Logical
0
: Failed (10, Data, 4194304 MB) A
Logical
1
: Optimal (10, Data, 5344246 MB) B
--------------------------------------------------------
Array Physical Device Information
--------------------------------------------------------
Device
8
: Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1,
Slot:0)
NAG24LBX
Device
9
: Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:1) NAG24N8X
Device
10
: Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:2) NAG24L3X
Device
11
: Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:3) NAG24L0X
Array Number 1
Name
: B
Status
: Ok
Interface
: SATA
Total
Size
: 9538560 MB
Unused Size
: 5343744 MB
Block
Size
: 512 Bytes
Array
Utilization
: 43.97% Used, 56.03% Unused
Type
: Data
Transformation Status :
Not Applicable
Spare Rebuild
Mode
: Dedicated
SSD I/O
Bypass
: Not Applicable
--------------------------------------------------------
Array Logical Device Information
--------------------------------------------------------
Logical
2
: Optimal (1, Data, 2097152 MB) Logical Drive 3
--------------------------------------------------------
Array Physical Device Information
--------------------------------------------------------
Device
12
: Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:4) NAG24LMX
Device
13
: Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:5) NAG24NPX
Command completed successfully.
# 查询所有LD的基本信息。
[root@localhost ~]# arcconf getconfig
1 ld
Controllers found: 1
----------------------------------------------------------------------
Logical device information
----------------------------------------------------------------------
Logical Device number 0
Logical Device
name
: A
Disk
Name
: Not Applicable
Block Size of member drives :
512 Bytes
Array
: 0
RAID
level
: 10
Status of Logical
Device
: Failed
Size
: 4194304 MB
Stripe-unit size :
256 KB
Full Stripe
Size
: 512 KB
Interface
Type
: Serial ATA
Device
Type
: Data
Boot
Type
: None
Heads :
255
Sectors Per
Track
: 32
Cylinders
: 65535
Mount
Points
: Not Applicable
LD Acceleration
Method
: None
Volume Unique
Identifier
: 600508B1001CC135379258C5A0305DB4
--------------------------------------------------------
Logical Device segment information
--------------------------------------------------------
Group 0, Segment
0
: Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1,
Slot:0)
NAG24LBX
Group 0, Segment
1
: Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:1) NAG24N8X
Group 1, Segment
0
: Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:2) NAG24L3X
Group 1, Segment
1
: Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:3) NAG24L0X
Logical Device number 1
Logical Device
name
: B
Disk
Name
: /dev/sda
Block Size of member
drives
: 512 Bytes
Array
: 0
RAID
level
: 10
Status of Logical
Device
: Optimal
Size
: 5344246 MB
Stripe-unit
size
: 256 KB
Full Stripe
Size
: 512 KB
Interface Type :
Serial ATA
Device
Type
: Data
Boot
Type
: None
Heads
: 255
Sectors Per
Track
: 32
Cylinders :
65535
Mount
Points
: Not Applicable
LD Acceleration
Method
: None
Volume Unique
Identifier
: 600508B1001C2AD867883CE2E456B2DD
--------------------------------------------------------
Logical Device segment information
--------------------------------------------------------
Group 0, Segment
0
: Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1,
Slot:0) NAG24LBX
Group 0, Segment
1
: Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:1) NAG24N8X
Group 1, Segment
0
: Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:2) NAG24L3X
Group 1, Segment
1
: Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:3) NAG24L0X
Logical Device number 2
Logical Device
name
: Logical Drive 3
Disk
Name
: /dev/sdb
Block Size of member
drives
: 512 Bytes
Array
: 1
RAID
level
: 1
Status of Logical
Device
: Optimal
Size
:
2097152 MB
Stripe-unit
size
: 256 KB
Full Stripe
Size
: 256 KB
Interface
Type
: Serial ATA
Device
Type
: Data
Boot
Type
: None
Heads
: 255
Sectors Per
Track
: 32
Cylinders
: 65535
Mount
Points
: /boot/efi 57220 MB Partition Number 1 / 476837 MB Partition
Number 2
LD Acceleration
Method
: None
Volume Unique
Identifier
: 600508B1001C1B97F48F2E0DC9CC2FCA
--------------------------------------------------------
Array Physical Device Information
--------------------------------------------------------
Device
12
: Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:4) NAG24LMX
Device
13
: Present
(4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:5) NAG24NPX
Command completed successfully.
命令功能
查询控制卡的FW和驱动的版本信息。
命令格式
arcconf getversion
使用实例
# 查询控制卡FW和驱动的版本信息。
[root@localhost ~]# arcconf
getversion
Controllers found: 1
Controller #1
==============
Firmware
: 1.43[0] (0)
Driver
: Linux 1.1.2-125 (0)
Command completed successfully.
命令功能
通过该命令可以升级控制卡的Firmware。
命令格式
arcconf romupdate controller_id fwfile
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
- |
fwfile |
Firmware升级所需的.bin文件名 |
- |
使用实例
# 升级控制卡FW。
[root@linux 2.93]# arcconf romupdate
1 SmartFWx100.bin
Controllers found: 1
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Updating controller 1 firmware...
Succeeded
You must restart the system for firmware updates to take effect.
Command completed successfully.
命令功能
设置控制卡工作模式。
控制卡工作模式默认为“Mixed”。
命令格式
arcconf setcontrollermode controller_id mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
mode |
控制卡工作模式 |
l 2:设置为HBA模式。 l 3:设置为RAID模式。 l 5:设置为Mixed 模式。 说明 2100-8i的工作模式的介绍请参见13.3.2 支持多种工作模式。 |
使用指南
无
使用实例
# 设置控制卡工作模式为“RAID”。
[root@localhost ~]# ./arcconf
setcontrollermode 1 3
Controllers found: 1
Command completed successfully.
# 查询控制卡工作模式。
[root@localhost ~]# arcconf getconfig
1
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
Controller
Status
: Optimal
Controller
Mode
: RAID (Hide RAW)
Channel description :
SCSI
Controller
Model
: MSCC Adaptec SmartHBA 2100-8i
Controller Serial
Number
: 7A4563EDE26
Controller World Wide
Name
: 50000D1703F07180
Physical
Slot :
1
Temperature
: 48 C/ 118 F (Normal)
Host bus
type
: PCIe 3.0
Host bus
speed
: 7880 MBps
Host bus link
width
: 8 bit(s)/link(s)
PCI Address
(Bus:Device:Function) : 0:3b:0:0
Number of
Ports
: 2
Internal Port
Count
: 2
External Port
Count
: 0
Defunct disk drive
count
: 0
NCQ
status
: Enabled
Queue
Depth
: Automatic
Monitor and Performance
Delay : 60
minutes
Elevator
Sort
: Enabled
Degraded Mode Performance Optimization : Disabled
Latency
: Disabled
Statistics data collection
mode : Disabled
Post Prompt
Timeout
: 0 seconds
Boot
Controller
: False
Primary Boot
Volume
: None
Secondary Boot
Volume
: None
Driver
Name
: smartpqi
Driver Supports SSD I/O
Bypass : Yes
Manufacturing Part
Number
: Not Applicable
Manufacturing Spare Part
Number : Not Applicable
Manufacturing Wellness
Log
: Not Applicable
NVRAM Checksum
Status
: Passed
Sanitize Lock
Setting
: None
--------------------------------------------------------
Power Settings
--------------------------------------------------------
Power
Consumption
: 7910 milliWatts
Current Power
Mode
: Maximum Performance
Pending Power
Mode
: Not Applicable
Survival
Mode
: Enabled
--------------------------------------------------------
I2C Settings
--------------------------------------------------------
I2C
Address
: 0xDE
I2C Clock
Speed
: 400 KHZ
I2C Clock
Stretching
: Enabled
--------------------------------------------------------
Cache Properties
--------------------------------------------------------
Global Physical Device Write Cache Policy: Disabled
--------------------------------------------------------
RAID Properties
--------------------------------------------------------
Logical
devices/Failed/Degraded :
3/1/0
Automatic
Failover
: Disabled
Background consistency
check :
Idle
Consistency Check
Delay
: 3 seconds
Parallel Consistency Check Supported :
Enabled
Parallel Consistency Check
Count : 1
Inconsistency Repair
Policy
: Disabled
Consistency Check Inconsistency Notify : Disabled
Rebuild
Priority
: High
Expand
Priority
:
Medium
--------------------------------------------------------
Controller Version Information
--------------------------------------------------------
......
回显信息中的“Controller Mode”即为控制卡的工作模式。
命令功能
查询所有适用arcconf工具的控制卡。
命令格式
arcconf list
使用实例
# 查询所有适用arcconf工具的控制卡。
[root@localhost ~]# arcconf list
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
Controller
ID :
Status, Slot, Mode, Name, SerialNumber, WWN
----------------------------------------------------------------------
Controller
1: :
Optimal, Slot 1, Mixed, MSCC Adaptec SmartHBA 2100-8i, 7A4563EDE26,
50000D1703F07180
Command completed successfully.
命令功能
通过该命令可以将PD或LD设置成启动设备,其中,PD在控制卡的工作模式为HBA或MIX时生效,LD在控制卡的工作模式为MIX或RAID时生效。
命令格式
arcconf setboot controller_id logicaldrive LD_id type boot_type
arcconf setboot controller_id device physical_id type boot_type
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
LD_id |
LD的ID |
– |
boot_type |
启动项的类型 |
Primary :将LD或PD设置为第一启动设备。 Secondary :将LD或PD设置为第二启动设备。 |
physical_id |
硬盘的physical ID |
– |
使用实例
# 设置LD1为第一启动设备。
[root@localhost ~]# arcconf setboot 1
logicaldrive 1 type primary
Controllers found: 1
Do you wish to change the boot type of the selected device.
Press y, then ENTER to continue or press ENTER to abort: y
Command completed successfully.
命令功能
设置热备盘的模式。
命令格式
arcconf setarrayparam controller_id array_id sparetype mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
array_id |
array的ID |
– |
mode |
热备盘的类型 |
l 1:Dedicated l 2:Autoreplace 说明 热备盘相关介绍请参见13.3.3 硬盘热备份。 |
使用实例
# 设置Array的热备盘模式为:Dedicated。
[root@localhost ~]# arcconf
setarrayparam 1 0 sparetype 1
Controllers found: 1
Command completed successfully.
[root@localhost ~]#
命令功能
点亮、熄灭控制卡的硬盘定位指示灯。
命令格式
表14-25
命令 |
功能 |
arcconf identify controller_id device physical_id time time |
对特定的物理硬盘进行点灯,time为可选项,表示点灯持续的时间,单位为秒。 |
arcconf identify controller_id device physical_id |
对特定的物理硬盘持续点灯,按任意键会停止点灯。 |
arcconf identify controller_id all time time |
对所有的物理硬盘进行点灯,time为可选项,表示点灯持续的时间,单位为秒。 |
arcconf identify controller_id all stop |
对所有的物理硬盘停止点灯 |
arcconf identify controller_id logicaldrive LD_id time time |
对特定的LD进行点灯,time为可选项,表示点灯持续的时间,单位为秒。 |
arcconf identify controller_id logicaldrive LD_id |
对特定的LD停止点灯 |
arcconf identify controller_id array array_id time time |
对特定的Array进行点灯,time为可选项,表示点灯持续的时间,单位为秒。 |
arcconf identify controller_id array array_id |
对特定的Array停止点灯 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
LD_id |
LD的ID |
– |
physical_id |
硬盘的physical ID |
– |
time |
硬盘指示灯点亮的时间。 |
为可选项,表示点灯持续的时间,单位为秒。 |
array_id |
array的ID |
– |
使用实例
# 对slot 0硬盘的停止指示灯。
[root@localhost ~]# ./arcconf
identify 1 device 0 0
Controllers found: 1
Only devices managed by an enclosure processor may be identified
The specified device(s) is/are blinking.
Press any key to stop the blinking.
# 设置所有的盘进行点灯60秒。
[root@localhost ~]# ./arcconf
identify 1 all time 60
Controllers found: 1
Only devices managed by an enclosure processor may be identified
Command completed successfully.
# 熄灭所有的硬盘指示灯。
[root@localhost ~]# ./arcconf
identify 1 all stop
Controllers found: 1
Command completed successfully.
命令功能
为LD设置热备盘。
命令格式
arcconf setstate controller_id device physical_id hsp array array_id sparetype type
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
physical_id |
硬盘的physical ID |
– |
array_id |
Array的ID |
– |
type |
热备盘的类型 |
1 : Dedicated 2 : Autoreplace 说明 热备盘相关介绍请参见13.3.3 硬盘热备份。 |
使用实例
# 为LD设置Autoreplace热备盘。
[root@localhost ~]# arcconf setstate
1 device 0 3 hsp array 0 sparetype 2
Controllers found: 1
Any existing hot-spare drives of a different sparetype will be removed.
The physical drive used for this operation is connected to Mixed Mode(Smart
HBA) connector. Using it will not allow operating system to use the drive
contents.
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Command completed successfully.
[root@localhost ~]#
命令功能
设置后台一致性校验的并行个数。
命令格式
arcconf consistencycheck controller_id parallelcount parallelcount_number
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
parallelcount_number |
后台一致性校验的并行个数 |
– |
使用实例
# 设置后台一致性校验的并行个数为4。
[root@localhost ~]# arcconf
consistencycheck 1 parallelcount 4
Controllers found: 1
Command completed successfully.
[root@localhost ~]#
CONSISTENCYCHECK <Controller#> PARALLELCOUNT <Count>
命令功能
创建、删除RAID。
命令格式
arcconf create controller_id logicaldrive option size level physical_id physical_id......
arcconf delete controller_id logicaldrive ld_id noprompt
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
请参照13.8.2.1 查询控制卡的基本信息获取控制卡的controller_id。 controller_id从1开始排序,如果有多张控制卡,将按照1,2,3...的方式进行排序。 |
option |
要创建的LD的相关属性,具体请参见表14-26。 |
– |
size |
LD的容量大小。 |
单位为MB,设置时只输入数字即可,如数值设为“1024”,则表示虚拟磁盘的容量为1024MB。 如果设置为“MAX”,表示使用硬盘的所有容量创建虚拟磁盘。 |
level |
要创建的LD的级别。 |
支持的RAID级别请参照13.3.1 支持多种RAID级别。 |
physical_id |
LD成员盘的physical ID |
请参照13.8.2.2 查询物理硬盘、Array、LD等相关信息获取物理硬盘的ID。 |
ld_id |
虚拟磁盘ID |
请参照13.8.2.2 查询物理硬盘、Array、LD等相关信息获取虚拟磁盘的ID。 |
可设置属性 |
说明 |
取值 |
Stripesize |
LD的条带大小 |
16/32/64/128/256/512/1024 |
Name |
LD的名称。 |
– |
LDcache |
即Controller Cache。 |
– |
SSDOverProvisioningOptimization |
SSD的特性。 |
l enable l disable 说明 l 只有当RAID组由SSD组成时,才能设置该属性。 l 该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。 |
DataLD |
被加速的LD的ID。 |
– |
使用指南
无
使用实例
# 创建RAID 0。
[root@localhost ~]# ./arcconf create
1 logicaldrive max 0 0 7
Controllers found: 1
Do you want to add a logical device to the configuration?
Press y, then ENTER to continue or press ENTER to abort: y
Creating logical device: LogicalDrv 1
Command completed successfully.
# 删除ID为1的虚拟磁盘。
[root@localhost ~]# ./arcconf delete
1 logicaldrive 1 noprompt
Controllers found: 1
WARNING: Deleting this logical device will automatically delete array 1 because
it is the only logical device present on that array.
All data in logical device 1 will be lost.
Deleting: logical device 1 ("LogicalDrv 1")
Command completed successfully.
命令功能
使能一致性校验的修复策略。
命令格式
arcconf consistencycheck controller_id inconsistencyrepairpolicy enable
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
使用实例
# 使能一致性校验的修复策略。
[root@localhost ~]# arcconf
consistencycheck 1 inconsistencyrepairpolicy enable
Controllers found: 1
Command completed successfully.
[root@localhost ~]#
命令功能
使能一致性校验生成调试信息并发出通知。
命令格式
arcconf consistencycheck controller_id eventnotify enable
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
使用实例
# 使能一致性校验生成调试信息并发出通知。
[root@localhost ~]# arcconf
consistencycheck 1 eventnotify enable
Controllers found: 1
Command completed successfully.
[root@localhost ~]#
CONSISTENCYCHECK <Controller#> EVENTNOTIFY <Enable | Disable>
命令功能
关闭一致性校验功能。
命令格式
arcconf consistencycheck controller_id off
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
使用实例
# 关闭一致性校验功能。
[root@localhost ~]# arcconf
consistencycheck 1 off
Controllers found: 1
Command completed successfully.
CONSISTENCYCHECK <Controller#> <On [Delay]|Off> [noprompt] [nologs]
命令功能
查询、设置硬盘写Cache策略。
命令格式
arcconf getconfig controller_id ad
arcconf setcache controller_id drivewritecachepolicy drivetype cachepolicy drivetype cachepolicy...
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
- |
drivetype |
要设置写Cache策略的硬盘类型 |
l Configured:设置RAID/Mixed模式下RAID组成员盘的写Cache策略。 l Unconfigured:设置RAID/Mixed模式下非RAID组成员盘的写Cache策略。 l HBA:设置HBA模式下硬盘的写Cache策略。 |
cachepolicy |
硬盘写Cache策略 |
l 0:Default(将硬盘的写Cache保持为默认状态) l 1:Enabled(打开硬盘的写Cache功能) l 2:Disabled(关闭硬盘的写Cache功能) |
使用实例
# 设置Configured状态的硬盘Cache写策略为Enabled,设置Unconfigured状态的硬盘Cache写策略为Disabled。
[root@localhost ~]# ./arcconf
setcache 1 drivewritecachepolicy Configured 1 Unconfigured 2
Controllers found: 1
Enabling controller drive write cache can increase write performance but risks
losing the data in the cache on sudden loss.
Command completed successfully.
# 查询当前的硬盘写Cache策略
[root@localhost ~]# ./arcconf
getconfig 1 ad
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
Controller
Statue
: Optimal
Controller
Mode
:Mixed
Channle
description :SCSI
...
----------------------------------------------------------------------
Physical Drive Write Cache Policy Information
----------------------------------------------------------------------
Configured
Drives
:Enabled
Unconfigured
Drives
:Disabled
HBA
Drives
:Default
----------------------------------------------------------------------
...
命令功能
收集控制卡的Firmware日志。
命令格式
arcconf SAVESUPPORTARCHIVE
使用实例
# 收集控制卡的Firmware日志。
[root@linux /]# arcconf
SAVESUPPORTARCHIVE
Controllers found: 1
Usage: SAVESUPPORTARCHIVE [Path]
[Firmware|GUI|Arcconf|Storlib|Basecode|Redfish]
Example: SAVESUPPORTARCHIVE C:\Adaptec\maxView Firmware
Example: SAVESUPPORTARCHIVE /var/log/maxView Storlib
Example: SAVESUPPORTARCHIVE
Example: SAVESUPPORTARCHIVE .
===================================================================================
Saves all the logs
Path :
directory other than default
Firmware : saves Firmware logs
GUI : saves GUI
logs
Arcconf : saves Arcconf
logs
StorLib : saves StorLib
logs
Basecode : saves Basecode logs
Redfish : saves Redfish
logs
The path is not specified, Using the default.
The logs are saved in relevant folders in /var/log/Support
Command completed successfully.
命令功能
设置硬盘、LD、MaxCache的状态。
命令格式
命令格式 |
功能 |
arcconf setstate controller_id device physical_id state |
设置硬盘状态。 |
arcconf setstate controller_id logicaldrive LD_id optimal |
设置LD状态为optimal。 |
arcconf setstate controller_id maxcache LD_id optimal |
设置MaxCache状态为optimal。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
physical_id |
硬盘的physical ID |
– |
state |
设置硬盘状态。 |
l hsp:将硬盘设置为热备盘,具体可参见14.8.2.10 为LD设置热备盘。 l rdy:移除硬盘热备状态,或将硬盘状态从fail设置为ready。 l ddd:强制将硬盘状态设置为离线(故障)。 l eed:启用擦除的硬盘。 |
array_id |
Array的ID |
– |
type |
设置热备的类型。 |
l 1:dedicated spare(局部热备盘) l 2:auto replace spare(全局热备盘) |
LD_id |
LD的ID |
– |
使用指南
更换LD成员盘时,建议将LD状态设置为optimal后再进行更换,以免误插拔导致Array失效。
使用实例
# 将硬盘设置为离线。
[root@localhost ~]# arcconf
setstate 1 device 0 11 ddd
Controllers found: 1
Changing state from Ready to Failed may delete any data partitions present on
the drive.
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Command completed successfully.
# 将LD状态设置为optimal。
[root@localhost ~]# arcconf
setstate 1 logicaldrive 0 optimal
Controllers found: 1
Attention: Using advanced options to force a logical device online is a
dangerous operation and
requires substantial knowledge of the RAID level and the nature of the logical
device failure.
Even if this operation can force the logical device online,
all data on this logical device may be lost if one or more disks contain
outdated data.
All available disk segments that constitute this logical device will be forced
online;
the data they contain will be used as valid data.
If you are not sure, abort and contact your service representative.
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Command completed successfully.
# 将MaxCache的状态设置为optimal。
[root@localhost ~]# arcconf
setstate 1 maxcache 1 optimal
Controllers found: 1
Attention: Using advanced options to force a maxCache logical device online is
a dangerous operation and
requires substantial knowledge of the RAID level and the nature of the maxCache
logical device failure.
Even if this operation can force the maxCache logical device online,
all data on this maxCache logical device may be lost if one or more disks
contain outdated data.
All available disk segments that constitute this maxCache logical device will
be forced online;
the data they contain will be used as valid data.
If you are not sure, abort and contact your service representative.
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Command completed successfully.
命令功能
设置SSD I/O Bypass状态。
命令格式
arcconf setarrayparam controller_id array_id ssdiobypass state
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
– |
array_id |
array的ID |
– |
state |
设置SSD I/O Bypass启用状态 |
l enable:启用SSD I/O Bypass l disable:禁用SSD I/O Bypass |
使用指南
无
使用实例
# 禁用SSD I/O Bypass。
[root@localhost ~]# arcconf
setarrayparam 1 2 ssdiobypass disable
Controllers found: 1
Disabling SSD I/O bypass will impact the performance of all the logical
device(s) in the array. You can enable the controller caching on logical
device(s) to improve performance.
Command completed successfully.
关于本章
主要介绍Avago MegaRAID SAS 9460-8i RAID控制卡的外观、特性、以及配置方法。
本章节涉及的截图以5.120.01-2904 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。
Avago MegaRAID SAS 9460-8i RAID控制卡(以下简称9460-8i)是基于MegaRAID架构的8端口12Gbit/s SAS控制卡,并采用PCIe3.0x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。
9460-8i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。
9460-8i支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考15.2.16 硬盘直通。
9460-8i自带的Cache对RAID控制卡性能的提升有非常重要的作用,主要体现在:
l 在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。
l 在读数据时,如果可以直接在Cache中命中的话,将减少硬盘寻道操作,降低响应时间,提升了数据读速度。
Cache数据的掉电保护依赖于与RAID控制卡相连的超级电容。超级电容的外形、连接方式、安装方式可参考各服务器的用户指南。
1 |
超级电容错误状态指示灯 |
2 |
芯片过温指示灯 |
3 |
心跳灯 |
4 |
脏数据缓存指示灯 |
5 |
超级电容 |
6 |
miniSAS接口(port 0,SFF-8643) |
7 |
miniSAS接口(port 1,SFF-8643) |
8 |
散热器 |
9460-8i单板指示灯说明如表15-1所示。
指示灯 |
颜色 |
说明 |
芯片过温指示灯 |
黄色 |
l 常亮:设备温度传感器超过阈值。 l 灭:设备温度在正常温度范围内。 |
超级电容错误状态指示灯 |
黄色 |
l 常亮:超级电容电源模块故障或者过温。 l 灭:超级电容正常或不在位。 |
脏数据缓存指示灯 |
绿色 |
l 常亮:没有保存到存储设备中的脏缓存。 l 灭:脏数据缓存正常。 |
心跳灯 |
绿色 |
l 闪烁:芯片运行正常,闪烁频率为1Hz。 l 灭:RAID控制卡未开始运行或FW运行异常。 |
9460-8i支持的硬盘、虚拟磁盘、硬盘组数量分别为:
l 最多支持240个硬盘。
该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。
l 最多支持64个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
l 最多支持64个硬盘组(即配置界面中看到的“Drive Group”),每个硬盘组最多支持240个硬盘。
l 每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
9460-8i支持的RAID类型及对应的硬盘个数如表15-2所示。
RAID级别 |
支持硬盘数 |
支持子组数 |
子组支持硬盘数 |
允许坏盘数 |
RAID 0 |
1~32 |
不涉及 |
不涉及 |
0 |
RAID 1 |
2~32(偶数) |
硬盘数÷2 |
||
RAID 5 |
3~32 |
1 |
||
RAID 6 |
3~32 |
2 |
||
RAID 10 |
4~240(偶数) |
2~8个RAID 1 |
2~32(偶数) |
子组数 |
RAID 50 |
6~240 |
2~8个RAID 5 |
3~32 |
子组数 |
RAID 60 |
6~240 |
2~8个RAID 6 |
3~32 |
子组数x2 |
l 不支持RAID 00级别。
l 子组数:子RAID的个数,例如RAID 50由两个RAID 5组成,则子组数为2。
l RAID 10、RAID 50每个子组中最多允许1个坏盘。
l RAID 60每个子组中最多允许2个坏盘。
l RAID10、50、60包含的总硬盘数由子组数和子组支持的硬盘数共同决定。
9460-8i的热备功能分为两种:热备盘和紧急备份。
热备盘
对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l Global HSP:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
配置方法请参见15.4.1.1 配置全局热备盘。
l Dedicated HSP:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。
配置方法请参见15.4.1.2 配置局部热备盘。
热备盘容量需大于等于成员盘容量。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
l 用作热备盘的硬盘数据将会丢失。
紧急备份
使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
l 紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。
l 在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。
l 紧急备份的硬盘生效次序:相同类型硬盘 > 相同接口不同介质类型硬盘 > 不同接口相同介质类型硬盘 > 不同接口不同介质类型硬盘。
紧急备份有两种情况,对应了两种设置:
l 当成员盘fail时,空闲盘替代成员盘作为紧急备份。
l 当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。
具体配置方法请参见15.4.2 设置紧急热备功能。
热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。
l 请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。
l 插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。
l 人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考15.2.18 导入外部配置章节恢复RAID组,无需更换硬盘。
l 在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。
具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。
l 不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:
l RAID组状态保持Optimal不变。
l 热备盘状态由Online变为Hot Spare。
l 新加入硬盘状态由Copyback/Copybacking变为Online。
l 可使用命令行工具暂停或继续回拷,具体请参见15.7.2.11 查询和设置RAID重构。
l 若回拷时重启服务器,进度将保存。
l 局部热备以及全局热备,更换故障盘后,均会产生回拷。
条带化
当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待。
条带化技术是一种自动的将I/O的负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。
影响条带化效果的因素有:
l 条带宽度:指同时可以并发读或写的条带数量。
这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。
l 条带大小:指写在每块硬盘上的条带数据块的大小。
分条
硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。
9460-8i支持多种条带大小,包括64KB、128KB、256KB、512KB及1MB,默认条带大小为256KB。
配置RAID时一般采用默认值。
RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见15.4.5 迁移RAID级别。
当前支持以下级别类型的迁移:
l RAID 0迁移到RAID 1、RAID 5、RAID 6
l RAID 1迁移到RAID 0、RAID 5、RAID 6
l RAID 5迁移到RAID 0、RAID 6
l RAID 6迁移到RAID 0、RAID 5
RAID迁移对硬盘数量的要求如15.2.6 RAID级别迁移所示。
迁移RAID级别 |
原始硬盘组硬盘数量 |
迁移后的硬盘组硬盘数量 |
RAID 0迁移 RAID 1 |
1~32 |
2~32(偶数) |
RAID 0迁移到RAID 5 |
1~32 |
3~32 |
RAID 0迁移到RAID 6 |
1~32 |
3~32 |
RAID 1迁移到RAID 0 |
2~32(偶数) |
2~32 |
RAID 1迁移到RAID 5 |
2~32(偶数) |
3~32 |
RAID 1迁移到RAID 6 |
2~32(偶数) |
3~32 |
RAID 5迁移到RAID 0 |
3~32 |
3~32 |
RAID 5迁移到RAID 6 |
3~32 |
3~32 |
RAID 6迁移到RAID 0 |
3~32 |
3~32 |
RAID 6迁移到RAID 5 |
3~32 |
3~32 |
VD初始化
创建VD(Virtual Drive)后,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。9460-8i提供了多种相应的初始化方式:
l 前台初始化:
− 快速初始化:Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。
− 完全初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。
l 后台初始化:
− 对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。
− 对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。
一致性校验(CC)和后台初始化通常会对性能造成一定损失,直至该操作完成。
一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。
硬盘初始化
硬盘可执行的初始化包括:
l Initialize Drive:对前100MByte空间进行全写0操作。
l Drive Erase:对全部空间进行写0操作。
不支持停止SATA SSD的擦除和初始化过程。
9460-8i支持的容量扩展方式有两种:
l 通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。
详细操作方法可参考15.4.3 添加新硬盘到RAID。
l 通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。
详细操作方法可参考15.4.4 扩展Virtual Drives可用空间。
l 只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。
l RAID10、RAID 50、RAID 60不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。
l 当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见 15.7.2.28 通过增加成员盘可用容量扩容RAID。
安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘和硬盘的安全擦除功能:
l Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。
l Normal:对虚拟磁盘或硬盘进行三轮擦除动作。
l Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。
安全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。
9460-8i支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。
系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况,称之为写洞。
将写失败的数据备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:
l RAID 1、RAID 5、RAID 6、RAID 10、RAID 50,RAID 60支持写洞保护,Write hole数据都保存在掉电保护区,不需要开关控制。
− 掉电保护装置可用时,Write hole数据异常掉电重启后会进入恢复流程。
− 掉电保护装置不可用时,记录在掉电保护区的Write hole数据异常掉电后丢失,不做Write hole恢复。
l RAID 1、RAID 5掉线盘时不可做写洞保护。
l RAID 6掉线一块盘时可做写洞保护。
l RAID 10、RAID 50、RAID 60部分降级时可做写洞保护,按子组恢复数据。完全降级时不可做写洞保护。
l 不对RAID 0做写洞保护。
9460-8i支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:
l Read:读策略选择“Read Ahead”模式,9460-8i在读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,提升了数据读速度。
l Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,9460-8i就向HOST发出数据传输完成的信号。
在写数据时,直接写入Cache,当写入的数据积累到一定程度,9460-8i才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。
数据写入高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用高速缓存来提升系统性能。
l 开启高速缓存可提升整机写性能,当服务器写压力减小或高速缓存将写满时,数据再由高速缓存写入硬盘。
l 开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。
为了提升整机的高读写性能和高速缓存中数据的安全,可为9460-8i配置超级电容。
超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将高速缓存中的数据写入超级电容模块中的NAND Flash中。
9460-8i分为支持配置超级电容与不支持配置超级电容两种形态,只有支持配置超级电容的RAID控制卡可以启用数据掉电保护功能。
超级电容电量校准
由于数据保护需要超级电容的配合,为了记录超级电容的放电曲线,以便RAID控制卡了解超级电容的状态,例如最大和最小电压等,同时为了延长超级电容的寿命,RAID控制卡默认启动超级电容自动校准模式。
RAID控制卡通过如下所述的三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。
1. RAID控制卡将超级电容的电量充到最大值。
2. 自动启动校准进程,将超级电容完全放电。
3. 重新开始充电,直至达到最大电量。
超级电容电量校准过程中,RAID控制卡写策略自动调整为“WT”模式以保证数据完整性,此时RAID控制卡性能会降低。电量校准的时间取决于超级电容充放电速度。
硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。
硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。
硬盘巡检不能在参与以下任何操作的任何硬盘上运行:
l RAID热备修复
l 动态扩盘
l 完全初始化或后台初始化
l 一致性校验
S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据受到损失。
RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。
RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。
默认情况下,硬盘节能功能处于开启状态。
当硬盘节能功能开启且在指定时间内没有I/O访问时,RAID控制卡下挂载的“Uncongfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。
硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。
9460-8i可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在9460-8i下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。
9460-8i支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
如果需要使能硬盘直通功能,请在图15-100所示界面的“JBOD Mode”参数进行设置。
l 开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。
l JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
硬盘漫游是指在同一控制卡下移动物理硬盘。控制卡将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。
要使用硬盘漫游,按以下步骤操作:
1. 关闭操作系统。
2. 将服务器下电。
3. 将物理硬盘移动到背板所需位置。
4. 执行安全检查。确保正确插入物理硬盘。
5. 将服务器上电。
6. 控制卡从物理硬盘上的配置数据中检测到RAID配置。
如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。
此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。
9460-8i提供硬盘故障记录功能:
l 使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。
l 禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,9460-8i会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。
维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。
l 使能该功能后,当硬盘故障时,会点亮Fault指示灯。
l 禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。
默认情况下,9460-8i使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。
针对有冗余功能的RAID 1、5、6、10、50、60,RAID控制卡可以对RAID组的硬盘数据进行一致性校验,对硬盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。
由于RAID 0不具备冗余性,因此不支持一致检查。
建议每月至少进行一次一致性校验。
文档中描述的关于9460-8i的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器。
步骤 2 重启过程中,当出现如图15-3所示界面时,按“Delete”,进入输入密码界面。
步骤 3 输入密码并按“Enter”。
进入如图15-4所示界面。
步骤 4 通过“←”或“→ ”进入“Advanced”页签,如图15-5所示。
如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见15.5.4 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy进行修复。
步骤 5 选择“Avago MegaRAID <SAS 9460-8i> Configuration Utility”,按“Enter”。
进入9460-8i主界面,如图15-6和图15-7所示,界面参数如表15-4所示。
参数 |
说明 |
Main Menu |
RAID控制卡主菜单,包含了RAID控制卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID控制卡当前工作状态。 |
Backplane |
背板个数。 |
BBU |
超级电容在位情况。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的硬盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID控制卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 |
Configure |
提供删除配置的接口。 |
Set Factory Defaults |
恢复出厂设置。 |
Update Firmware |
升级固件。 说明 9460-8i不支持在此界面升级FW。 |
Silence Alarm |
板载蜂鸣器的使能状态。 说明 9460-8i未配置蜂鸣器,此项设置不起作用。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9460-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见15.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见15.6.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图15-8和图15-9所示,参数说明如表15-5所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图15-10所示,界面参数如表15-6所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 0支持的硬盘个数为1~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。
5. 按表15-6所述配置过滤条件。
6. 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”返回上级界面。
步骤 4 按照表15-5所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照15.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9460-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见15.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见15.6.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图15-11和图15-12所示,参数说明如表15-7所示。
图15-11 Create Virtual Drive(1)
图15-12 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图15-13所示,界面参数如表15-8所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 1支持的硬盘个数为2~32(偶数)。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。
5. 按表15-8所述配置过滤条件。
6. 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”完成成员盘配置。
步骤 4 按照表15-7所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照15.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9460-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见15.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见15.6.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图15-14和图15-15所示,参数说明如表15-9所示。
图15-14 Create Virtual Drive(1)
图15-15 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 5”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图15-16所示,界面参数如表15-10所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 5支持的硬盘个数为3~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。
5. 按表15-10所述配置过滤条件。
6. 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”完成成员盘配置。
步骤 4 按照表15-9所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照15.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9460-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见15.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见15.6.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图15-17和图15-18所示,参数说明如表15-11所示。
图15-17 Create Virtual Drive(1)
图15-18 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 6”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图15-19所示,界面参数如表15-12所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 6支持的硬盘个数为3~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。
5. 按表15-12所述配置过滤条件。
6. 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”完成成员盘配置。
步骤 4 按照表15-11所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照15.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9460-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见15.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见15.6.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图15-20和图15-21所示,参数说明如表15-13所示。
图15-20 Create Virtual Drive(1)
图15-21 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图15-22所示,界面参数如表15-14所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 按表15-14所述配置过滤条件。
5. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 10支持2~8个Span,每个Span支持的硬盘数为2~32(偶数),且各个Span的硬盘数量必须保持一致。
l RAID 10支持的硬盘总数为4~240(偶数)。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。
6. 选择“Apply Changes”按“Enter”保存配置。
7. 单击“OK”完成成员盘配置。
当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如图15-23所示。
1. 选择“Add More Spans”并按“Enter”。
2. 选择“Select Drives”并按“Enter”。
3. 在打开的列表中选择第2个Span的成员盘。
各个Span的硬盘数量必须保持一致。
4. 选择完成后,选择“Apply Changes”并“Enter”。
提示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID10至少需要创建2个Span,最多可以创建8个Span。
步骤 6 按照表15-13所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照15.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 8 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9460-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见15.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见15.6.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图15-24和图15-25所示,参数说明如表15-15所示。
图15-24 Create Virtual Drive(1)
图15-25 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 50”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图15-26所示,界面参数如表15-16所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 按表15-16所述配置过滤条件。
5. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 50支持2~8个Span,每个Span支持的硬盘数为3~32,各个Span的硬盘数量必须保持一致。
l RAID 50支持的硬盘总数为6~240。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。
6. 选择“Apply Changes”按“Enter”保存配置。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”完成成员盘配置。
当配置的级别为RAID 50时,需要配置多个Span,此时配置界面如图15-27所示。
1. 选择“Add More Spans”并按“Enter”。
2. 选择“Select Drives”并按“Enter”。
3. 在打开的列表中选择第2个Span的成员盘。
各个Span的硬盘数量必须保持一致。
4. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
提示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID50至少需要创建2个Span,最多可以创建8个Span。
步骤 6 按照表15-15所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照15.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 8 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9460-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见15.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见15.6.1 进入管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图15-28和图15-29所示,参数说明如表15-17所示。
图15-28 Create Virtual Drive(1)
图15-29 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 60”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图15-30所示,界面参数如表15-18所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 按表15-18所述配置过滤条件。
5. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 60支持2~8个Span,每个Span支持的硬盘数为3~32,且各个Span的硬盘数量必须保持一致。
l RAID 60支持的硬盘总数为6~240。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。
6. 选择“Apply Changes”按“Enter”保存配置。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”完成成员盘配置。
当配置的级别为RAID 60时,需要配置多个Span,此时配置界面如图15-31所示。
1. 选择“Add More Spans”并按“Enter”。
2. 选择“Select Drives”并按“Enter”。
3. 在打开的列表中选择第2个Span的成员盘。
各个Span的硬盘数量必须保持一致。
4. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
提示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID60至少需要创建2个Span,最多可以创建8个Span。
步骤 6 按照表15-17所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照15.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 8 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
同一台服务器配置了单个9460-8i卡或者多种芯片硬盘控制卡的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。
设置启动项的操作方法请参见BIOS 参数参考的“设置启动设备”章节。
对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
9460-8i支持2种类型的热备盘:
l Global Hotspare:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
l Dedicated Hotspare:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
l 用作热备盘的硬盘数据将会丢失。
操作步骤
登录管理界面,具体操作方法请参见15.3.1 进入管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图15-32所示。
步骤 2 配置全局热备盘。
1. 将“Operation”设置为“Assign Global Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
显示The operation has been performed successfully。
3. 按“ESC”完成配置并返回上级界面。
----结束
操作步骤
当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
登录管理界面,具体操作方法请参见15.3.1 进入管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图15-33所示。
步骤 2 配置局部热备盘。
1. 将“Operation”设置为“Assign Dedicated Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
打开当前存在的虚拟磁盘列表,如图15-34所示。
3. 选择要关联的虚拟磁盘并按“Enter”。
4. 选择“OK”按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作场景
当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。
操作步骤
登录管理界面,具体操作方法请参见15.3.1 进入管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图15-35所示。
步骤 2 删除热备盘。
1. 将“Operation”设置为“Unassign Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 按“ESC”完成配置并返回上级界面。
----结束
操作步骤
登录管理界面,具体操作方法请参见15.3.1 进入管理界面。
步骤 1 进入“Advanced Controller Properties”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
3. 选择“Advanced Controller Properties”并按“Enter”。
进入“Advanced Controller Properties”界面,如图15-36所示。
图15-36 Advanced Controller Properties(1)
步骤 2 设置紧急热备。
1. 选择“Spare”并按“Enter”。
2. 将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如图15-37所示。
图15-37 Advanced Controller Properties(2)
3. 选择“Apply Changes”并按“Enter”。
显示The operation has been performed successfully。
4. 选择“OK”并按“Enter”,完成配置。
----结束
操作场景
l 只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。
l RAID10、RAID 50、RAID 60不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
对系统的影响
增加硬盘扩容过程中,如果出现硬盘故障,会导致:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行增加硬盘扩容操作。
必备事项
前提条件
添加硬盘扩容之前,需具备如下条件:
l 服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。
l 已通过远程虚拟控制台登录到服务器的实时操作桌面。
l 已登录管理界面,具体操作请参见15.3.1 进入管理界面。
数据
操作之前建议先备份数据。
操作步骤
进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”。
进入虚拟磁盘选项界面,如图15-38所示。
步骤 2 添加新硬盘。
1. 选择要进行扩容的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图15-39所示。
3. 选择“Reconfigure Virtual Drives”并按“Enter”
4. 选择“Go”并按“Enter”。
5. 选择要扩容的RAID级别。
增加硬盘扩容时,请保证该处的RAID级别与原级别一致。
6. 选择“Choose the Operation”,并按“Enter”。
进入硬盘选择界面,如图15-40所示。
7. 选择要增加的硬盘,并按“Apply Changes”。
进入确认操作界面。
l 增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。
l RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。
8. 选择“Confirm”并按“Enter”。
9. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
10. 选择“OK”并按“Enter”。
返回到如图15-41所示界面。
11. 选择“Start Operation”并按“Enter”。
显示操作成功。返回虚拟磁盘选项界面,验证扩容结果,如图15-42所示,表示RAID正在进行扩容。
----结束
操作场景
在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见15.3.1 进入管理界面。
步骤 1 进入要操作的虚拟磁盘界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图15-43所示。
图15-43 Virtual Drive Management
步骤 2 扩容虚拟磁盘。
1. 将“Operation”设置为“Expand Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入虚拟磁盘扩容界面,如图15-44界面所示,界面参数如表15-19所示。
参数 |
参数说明 |
Current Capacity |
虚拟磁盘当前容量。 |
Available Capacity |
可用于扩展的容量。 |
Enter a Percentage of Available Capacity |
输入扩容比例。 |
Capacity of Virtual Drive after Expansion |
扩容后虚拟磁盘容量。 |
3. 设置扩容百分比。
4. 选择“OK”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
返回虚拟磁盘选项界面,验证扩容结果,如图15-45所示。
----结束
操作场景
随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。
在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。
对系统的影响
RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行RAID级别迁移操作。
必备事项
前提条件
迁移RAID级别之前,需具备如下条件:
l 已通过远程虚拟控制台登录到服务器的实时操作桌面。
l 当前存在的硬盘个数满足目标RAID级别要求。
l 已登录管理界面,具体操作请参见15.3.1 进入管理界面。
9460-8i支持以下级别类型的迁移:
l RAID 0迁移到RAID 1、RAID 5、RAID 6
l RAID 1迁移到RAID 0、RAID 5、RAID 6
l RAID 5迁移到RAID 0、RAID 6
l RAID 6迁移到RAID 0、RAID 5
RAID迁移对硬盘数量的要求如表15-3所示。
l 当RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
l 迁移只支持增加与RAID组成员盘同类型同规格的硬盘。
l 为防止数据丢失,请在该操作之前备份当前RAID组的数据。
l 只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。
l 迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。
操作步骤
进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”并按“Enter”。
进入虚拟磁盘选项界面,如图15-46所示。
步骤 2 选择RAID迁移的目标级别。
下面以将RAID 1迁移到RAID 5为例进行说明。
1. 选择要进行迁移的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图15-47所示。
3. 选择“Reconfigure Virtual Drives”,并按“Enter”。
4. 选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如图15-48所示。不设置时默认与原RAID组配置一致。
5. 选择“Go”,并按“Enter”。
进入RAID配置界面,如图15-49所示。
图15-49 Reconfigure Virtual Drives
6. 选择“New RAID Level”并按“Enter”。
打开RAID迁移的目标级别选择窗口,如图15-50所示。
7. 选择“RAID 5”并按“Enter”。
步骤 3 添加硬盘。
1. 选择“Choose the operation”并按“Enter”。
打开硬盘选择窗口。
2. 选择要增加的硬盘并按“Enter”。
l RAID迁移对硬盘数量的要求请参见表15-3。
l 增加的硬盘要与RAID组的成员盘同类型同规格。
3. 选择“Apply Changes”并按“Enter”。
弹出操作确认会话框。
4. 选择“Confirm”并按“Enter”。
5. 选择“Yes”并按“Enter”。
提示操作成功。
6. 选择“OK”并按“Enter”返回图15-49界面。
步骤 4 RAID级别迁移。
1. 选择“Start Operation”并按“Enter”。
提示操作成功。
步骤 5 查看迁移结果。
1. 进入Virtual Drive Management界面,检查迁移结果,如图15-51所示,表示RAID正在进行迁移。
l 迁移过程中若重启服务器,该任务将在重启后继续进行。
l 迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。
2. 选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 1”变成“RAID 5”,RAID组容量增大,且“Status”状态显示为“Optimal”,表示RAID迁移成功。
----结束
操作场景
RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见15.3.1 进入管理界面。
步骤 1 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图15-52所示。
图15-52 Virtual Drive Management
步骤 2 删除虚拟磁盘。
1. 将“Operation”设置为“Delete Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“OK”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作场景
介绍将带有外部配置的硬盘进行重构的操作方法,不带外部配置硬盘的重构方法请参见15.5.1.1 硬盘故障。
操作步骤
在“Main Menu”界面中选择“Drive Management”并按“Enter”。
步骤 1 选中要进行重构的硬盘,按“Enter”。
步骤 2 将“Operation”设置为“Make Unconfigured Good”。
步骤 3 选择“Go”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 按“Enter”完成配置。
硬盘状态变为“(Foreign),Unconfigured Good”。
步骤 5 清除外部配置,具体操作请参见15.4.9 导入和清除外部配置。
RAID组开始进行重构。
----结束
当出现硬盘离线情况时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。
操作场景
用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。
操作步骤
登录管理界面,具体操作方法请参见15.3.1 进入管理界面。
步骤 1 进入“Controller Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
显示RAID控制卡基本信息,如图15-53所示,参数说明如表15-20所示。
参数 |
参数说明 |
Product Name |
RAID控制卡名称。 |
Serial Number |
RAID控制卡序列号。 |
Controller Status |
RAID控制卡的工作状态。 |
Select Boot Device |
当前启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见15.3.9 配置启动项。 |
PCI ID |
RAID控制卡的PCI ID。 |
PCI Slot Number |
RAID控制卡的PCI槽位号。 |
Package Version |
RAID控制卡的套件版本。 |
Firmware Version |
RAID控制卡的固件版本号。 |
NVDATA Version |
RAID控制卡配置信息的版本号。 |
Connector Count |
RAID控制卡与主板的接口个数。 |
Drive Count |
RAID控制卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID控制卡下已有虚拟磁盘数量。 |
Advanced Controller Management |
更多的控制卡操作。 |
Advanced Controller Properties |
查看和修改控制卡的高级属性。 |
步骤 2 查看控制卡高级属性。
选择“Advanced Controller Properties”并按“Enter”。
进入控制卡高级属性界面,如图15-54和图15-55所示,参数说明如表15-21所示。
在该界面下,可查看并修改RAID控制卡的高级属性。
图15-54 Advanced Controller Properties (1)
图15-55 Advanced Controller Properties (2)
参数 |
说明 |
Cache and Memory |
查看控制卡Cache和Memory信息。 |
Patrol Read |
系统巡检。 |
Power Save Setting |
设置硬盘休眠。 |
Spare |
设置控制卡热备状态。 |
Task Rates |
设置各种任务占用系统比率。 |
Alarm Control |
9460-8i RAID控制卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。 默认为“pause on error”。 |
Controller BIOS |
控制卡BIOS的使能情况。 |
ROC Temperature |
控制卡温度。 |
Shield State Supported |
是否支持暂停I/O,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
硬盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Maintain Drive Fail History |
表示是否使能硬盘故障记录功能,默认为使能状态。 说明 l 该参数设置为“Disabled”时: l 当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。 l 新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。 l 该参数设置为“Enabled”时: l 新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。 l 新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见15.4.9 导入和清除外部配置章节。 |
SMART Polling |
SMART轮巡检测周期。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性校验 |
JBOD Mode |
是否使能硬盘直通功能。 |
Write Verify |
- |
----结束
操作场景
l 服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。
l 新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。
l 如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!
l 为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。
l 当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。
导入外部配置
登录管理界面,具体操作方法请参见15.3.1 进入管理界面。
步骤 1 在主界面中选择“Main Menu”并按“Enter”。
步骤 2 选择“Configuration Management”并按“Enter”。
步骤 3 选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。
进入外部配置管理界面,如图15-56所示。
图15-56 Manage Foreign Configuration
步骤 4 选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图15-57所示。
步骤 5 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 6 选择“Confirm”并按“Enter”。
步骤 7 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 8 按“ESC”完成配置返回上级界面。
----结束
清除外部配置
登录管理界面,具体操作方法请参见15.3.1 进入管理界面。
步骤 1 在主界面中选择“Main Menu”并按“Enter”。
步骤 2 选择“Configuration Management”并按“Enter”。
步骤 3 选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。
进入外部配置管理界面,如图15-58所示。
图15-58 Manage Foreign Configuration
步骤 4 选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图15-59所示。
步骤 5 选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 6 选择“Confirm”并按“Enter”。
步骤 7 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 8 按“ESC”完成配置返回上级界面。
----结束
9460-8i支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
l 开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。
JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
登录管理界面,具体操作方法请参见15.3.1 进入管理界面。
步骤 1 依次进入Main Menu>Controller Management>Advanced Controller Properties界面,如图15-60所示。
图15-60 Advanced Controller Properties
步骤 2 选择“JBOD Mode”并按Enter。
步骤 3 选择“Enabled”并按“Enter”。
步骤 4 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 选择“OK”并按“Enter”完成配置。
----结束
该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID0存在一个VD为例,详细操作方法如下:
按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如图15-61所示。
步骤 2 将“Select Drives From”设置为“Free Capacity”,如图15-62所示。
步骤 3 选择“Select Drive Groups”并按“Enter”。
显示当前存在的RAID组(Drive Group),如图15-63所示。
步骤 4 选择要创建多个VD的RAID组并按“Enter”,如图15-64所示。
步骤 5 选择“Apply Changes”并按“Enter”。
提示操作成功。
步骤 6 选择“OK”并按“Enter”返回VD配置界面,如图15-65所示,参数说明如表15-22所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drive Groups |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 7 按照表15-22所述配置VD的相关属性。
步骤 8 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
步骤 9 选择“Confirm”并按“Enter”。
步骤 10 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
可进入Virtual Drive Management界面,查看当前存在的所有VD,如图15-66所示。
图15-66 Virtual Drive Management
----结束
每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤11。
查询RAID控制卡固件版本的方法有如下几种:
l 在iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。
l 服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见15.7.2.1 查询RAID控制卡配置信息。
回显信息中的“FW Version”字段即为RAID控制卡的固件版本。
l 在RAID控制卡管理界面进行查询,具体方法为:
a. 登录RAID控制卡的管理界面,具体操作请参见15.3.1 进入管理界面。
b. 在主界面中选择“Main Menu”并按“Enter”。
进入“Main Menu”页面,如图15-67所示。
c. 选择“Controller Management”并按“Enter”。
显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如图15-68所示。
图15-68 Controller Management界面
介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。
更多故障案例请联系技术支持获取。
问题描述
当服务器出现如下现象时,说明硬盘故障。
l 硬盘故障指示灯常亮。
l 服务器开机状态下,硬盘指示灯不亮。
l 服务器上报硬盘故障告警。
处理方法
l JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
l 通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。
l 通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。
l 通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考15.6.2.4 Drive Management。
l 通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
步骤 1 更换新硬盘。
l 更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考15.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。
l 若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在表15-2查看RAID组支持的最大故障硬盘数量。
l 更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。
l 新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。
拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:
l 若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。
l 若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。
l 若故障硬盘为直通盘,则直接更换即可。
l 若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。
− UEFI模式下创建RAID0的方法请参见15.3.2 创建RAID 0。
− 通过命令行方式创建RAID0的方法请参见15.7.2.2 创建和删除RAID。
----结束
问题描述
正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
但当RAID控制卡未设置紧急热备时,成员盘状态显示为fail或prefail时,可使用以下方法处理。
处理方法
使用StorCLI工具,具体操作请参考15.7.1 下载和安装StorCLI工具。
步骤 1 执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考15.7.2.17 设置硬盘状态。
storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]
l controller_id:硬盘所在RAID控制卡的ID
l enclosure_id:硬盘所在Enclosure的ID
l slot_id:物理硬盘槽位ID
步骤 2 更换离线硬盘。
步骤 3 RAID组自动执行重构。
等待重构完成。
----结束
问题描述
硬盘状态显示为Unconfigured Bad或UBad。
处理方法
使用StorCLI工具,具体操作请参见15.7.1 下载和安装StorCLI工具。
步骤 1 执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见15.7.2.17 设置硬盘状态。
storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]
l controller_id:硬盘所在RAID控制卡的ID
l enclosure_id:硬盘所在Enclosure的ID
l slot_id:物理硬盘槽位ID
步骤 2 重新查看硬盘状态是否更改为Unconfigured Good或Ugood。具体操作请参见15.6.2.4 Drive Management界面或15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤4。
步骤 3 查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见15.4.9 导入和清除外部配置或15.7.2.34 查看/导入/清除外部配置。
l 问题解决 => 处理完毕。
l 问题未解决 => 联系技术支持处理。
----结束
问题描述
当RAID控制卡电容故障时,可能导致服务器出现如下情况:
l 服务器读写速度显著降低。
l RAID控制卡的CU界面中显示电容状态异常。
处理方法
进入RAID控制卡的CU界面,查看电容状态是否为“Optimal”。
电容状态可查询15.6.2.5 Hardware Components界面的“Battery Status”参数。
l 是 => 处理完毕
l 否 => 步骤2
步骤 1 将服务器下电,打开机箱,并查看RAID控制卡电容是否在位。
l 是 => 步骤4
l 否 => 步骤3
步骤 2 检查整机配置,为服务器安装电容,查看电容状态是否为“Optimal”。
l 是 => 处理完毕
l 否 => 步骤6
步骤 3 重新安装RAID控制卡电容,查看电容状态是否为“Optimal”。
l 是 => 处理完毕
l 否 => 步骤5
步骤 4 更换RAID控制卡电容,查看电容状态是否为“Optimal”,且“问题描述”所述的异常状态是否消失。
l 是 => 处理完毕
l 否 => 步骤6
----结束
问题描述
当服务器出现如下现象时,说明控制卡故障。
l 数据无法写入控制卡控制的硬盘。
l 服务器上报控制卡故障告警。
处理方法
登录iBMC Web界面查看告警信息。
步骤 1 根据告警信息,参考iBMC告警处理。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤3
步骤 3 查询兼容性查询助手或者联系技术支持处理。
----结束
问题描述
正常情况下,当服务器配置了RAID控制卡且RAID控制卡状态正常时,进入BIOS的Advanced页签后,会显示RAID控制卡的信息,如图15-69所示。
如果Advanced页签不显示RAID控制卡的信息,如图15-70所示,则:
l 如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:
− 如果不显示驱动打印信息,可尝试下电后重新拔插RAID控制卡再上电、下电后更换RAID控制卡再上电或者联系技术支持。
− 如果显示“AVAGO EFI SAS Driver”,则可以通过本章节的指导修复RAID控制卡。
l 如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,则可以通过本章节的指导修复RAID控制卡;如果不显示,可尝试下电后重新拔插RAID控制卡再上电、下电更换RAID控制卡再上电或者联系技术支持。
图15-71 Advanced页签(3)
处理方法
l 当BIOS的版本为0.98之前版本(不包含0.98版本)时:
a. 在Advanced页签选择“Driver Health Manager”并按Enter。
进入“Driver Health Manager”界面。
b. 选择要进行修复的RAID控制卡驱动,如“AVAGO EFI SAS Driver SAS3508”,并按“Enter”。
进入“Critical Message”界面。
c. 查看“Critical Message”界面的打印信息:
n 显示“The following VDs have missing disks. ”=> 请参见15.5.4.1 The following VDs have missing disks。
n 显示“There are offline or missing virtual drives with preserved cache.” => 请参见15.5.4.2 There are offline or missing virtual drives with preserved cache
n 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见15.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
n 显示“Memory/battery problems were detected / Unexpected power-loss occurred”=> 请参见15.5.4.4 Memory/battery problems were detected / Unexpected power-loss occurred。
l 当BIOS的版本为0.98及以上版本时:
a. 在“Advanced”页签选择“Some drivers are not healthy”。
进入健康状态查询界面。
b. 选择“Repair the whole platform”,并按“Enter”。
进入“Critical Message”界面。
c. 查看“Critical Message”界面的打印信息。
n 显示“The following VDs have missing disks. ”=> 请参见15.5.4.1 The following VDs have missing disks。
n 显示“There are offline or missing virtual drives with preserved cache.” => 请参见15.5.4.2 There are offline or missing virtual drives with preserved cache
n 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见15.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
n 显示“Memory/battery problems were detected / Unexpected power-loss occurred”=> 请参见15.5.4.4 Memory/battery problems were detected / Unexpected power-loss occurred。
RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见0RAID控制卡启动中出现的常见的错误消息及处理方法。
问题描述
如图15-72所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。
处理方法
修复RAID控制卡。
1. 在图15-72中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
2. 输入“C”并按“Enter”。
3. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
4. 输入“y”并按“Enter”。
提示“Critical Message handling completed. Please exit”。修复完成。
步骤 1 重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图15-73所示,进入“Driver Healthy Protocol Utility”界面后,显示“There are offline or missing virtual drives with preserved cache”。
处理方法
选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
步骤 1 输入任意内容,并按“Enter”。
提示Critical Message handling completed. Please exit。修复完成。
步骤 2 按Esc。
进入RAID控制卡界面,如图15-74所示。
步骤 3 选择“Discard Preserved Cache”并按Enter。
弹出操作确认界面,如图15-75所示。
步骤 4 选择“Confirm”并按“Enter”。
步骤 5 选择“Yes”并按“Enter”。
提示操作成功。
步骤 6 重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图15-76所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”
处理建议
该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:
l 下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。
l 忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:
a. 在图15-76中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
b. 输入“c”并按“Enter”。
c. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
d. 输入“y”并按“Enter”。
提示Critical Message handling completed. Please exit。
e. 按“Esc”退出当前界面。
弹出确认保存配置会话框,如图15-77所示。
f. 按“Y”保存配置,操作完成。
g. 按Esc键返回“Device Manager”界面。
h. 选择9460-8i RAID控制卡,并按“Enter”,进入RAID控制卡管理界面。
问题描述
如图15-78所示,进入“Driver Healthy Protocol Utility”界面后,显示“Memory/battery problems were detected / Unexpected power-loss occurred”。
处理方法
选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
步骤 1 输入任意内容,并按“Enter”。
提示Critical Message handling completed. Please exit。修复完成。
步骤 2 重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图15-79所示,进入“Driver Healthy Protocol Utility”界面后,显示“Disabling writes to flash as the flash part has gone bad”。
处理方法
将服务器下电。
步骤 1 更换RAID控制卡。
步骤 2 将服务器上电,导入外部配置恢复原来的RAID配置,请参见15.4.9 导入和清除外部配置或15.7.2.34 查看/导入/清除外部配置。
检查提示是否清除。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD mode将RAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如图15-80所示,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。
当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。
处理方法
(可选)登录RAID控制卡管理界面,具体操作请参见15.6.1 进入管理界面。
步骤 1 依次进入Main Menu>Controller Management>Advanced Controller Management界面,如图15-81所示。
图15-81 Advanced Controller Management界面
步骤 2 选择“Switch to RAID mode”并按“Enter”。
提示操作成功,如图15-82所示。
步骤 3 选择“OK”并按“Enter”。
返回到“Advanced Controller Management”界面,显示正在切换模式,如图15-83所示。
图15-83 Advanced Controller Management界面
步骤 4 按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见15.6.1 进入管理界面。
步骤 5 依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如图15-84所示。
图15-84 Advanced Controller Management界面
l 是 => 处理完毕
l 否 => 请联系技术支持
----结束
问题描述
硬盘响应命令超时,控制卡会对硬盘进行复位。3次复位后尚未恢复时将可能耗尽控制卡TM(Task Management)资源,触发Fatal error,此时会通过OCR(Online Controller Reset)自愈恢复,期间将有短时间业务中断(约30s~60s),控制卡复位后会完成踢盘,将故障硬盘置为Ubad状态。
控制卡自愈恢复,需要开启OCR开关。
触发条件
当下发到硬盘的I/O出现超时不响应的情况时,RAID控制卡会通过reset硬盘来恢复,正常情况下,硬盘会重新接入或者多次reset之后会进行踢盘。
当出现reset之后硬盘仍然无法响应RAID控制卡指令且无法踢盘时,RAID控制卡会再次reset进行复位,每次reset会占用RAID控制卡资源,短时间内多次reset会导致RAID控制卡资源耗尽,该场景下,RAID控制卡会通过重新加载FW进行恢复。
该机制为此类卡的正常处理机制,由于架构限制,无法进行优化。
识别方法
l 已安装OS:
当遇到短时间业务中断,恢复后查看有被置为Ubad状态的硬盘时,可以查看控制卡日志,搜索dm.c并查看其发生时间,如与业务中断时间节点接近,即可断定为触发了该机制。
注意控制卡与OS时间差。
l 未安装OS:
无OS时,触发该机制的操作为:从“Advanced”页签进入控制卡界面。若触发该机制,进入控制卡卡操作界面时将会卡住,无法恢复。
处理方法
定位故障硬盘。
l 已安装OS:
− 如确认触发了该机制并且已经完成了踢盘,需要更换Ubad状态的硬盘。
− 如无Ubad状态的硬盘,查看日志并搜索“indicates critical condition”,目标行的“element xx indicates critical condition”中,“xx”即为问题硬盘的槽位号。
已安装OS,但是进入“Advanced”页签的控制卡操作界面卡住,需要重新上下电进入OS,按照以上方式定位故障硬盘。
l 未安装OS:
系统未安装OS,出现该异常时,保留预安装OS RAID组数目的硬盘,将其他硬盘拔出并记录槽位号,如成功安装OS进入系统后,按照已安装OS的操作来确认问题硬盘。
步骤 1 更换故障硬盘。
l 是 => 处理完毕。
l 否 => 请联系技术支持。
----结束
问题描述
l 无法创建RAID组。
l 进入控制卡主界面后,显示“Discard Preserved Cache”,如图15-85所示。
处理方法
进入控制卡主界面。
步骤 1 选择“Discard Preserved Cache”并按Enter。
弹出操作确认界面,如图15-86所示。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示“The operation has been performed successfully”即操作成功。
----结束
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器。
步骤 2 重启过程中,当出现如图15-87所示界面时,按“Delete”,进入输入密码界面。
步骤 3 输入密码并按“Enter”。
进入如图15-88所示界面。
步骤 4 通过“←”或“→ ”进入“Advanced”页签,如图15-89所示。
如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见15.5.4 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy进行修复。
步骤 5 选择“Avago MegaRAID <SAS 9460-8i> Configuration Utility”,按“Enter”。
进入9460-8i主界面,如图15-90和图15-91所示,界面参数如表15-23所示。
参数 |
说明 |
Main Menu |
RAID控制卡主菜单,包含了RAID控制卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID控制卡当前工作状态。 |
Backplane |
背板个数。 |
BBU |
超级电容在位情况。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的硬盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID控制卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 |
Configure |
提供删除配置的接口。 |
Set Factory Defaults |
恢复出厂设置。 |
Update Firmware |
升级固件。 说明 9460-8i不支持在此界面升级FW。 |
Silence Alarm |
板载蜂鸣器的使能状态。 说明 9460-8i未配置蜂鸣器,此项设置不起作用。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。
界面介绍
“Main Menu”界面如图15-92,参数说明如表15-24所示。
参数 |
参数说明 |
Configuration Management |
配置管理RAID。 |
Controller Management |
管理RAID控制卡。 |
Virtual Drive Management |
管理虚拟磁盘。 |
Drive Management |
管理硬盘。 |
Hardware Components |
查询部件信息。 |
可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。
界面介绍
“Configuration Management”界面如图15-93,参数说明如表15-25所示。
图15-93 Configuration Management
参数 |
参数说明 |
Auto Configure RAID 0 |
自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0。 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。 |
View Drive Group Properties |
查看硬盘组属性。 当存在硬盘组时会显示该参数。 |
Clear Configuration |
清除当前所有RAID配置。 |
Manage Foreign Configuration |
管理外部配置。 当存在外部配置时会显示该参数。 |
查看虚拟磁盘属性
在图15-93中选择“View Drive Group Properties”并按“Enter”。
图15-94 View Drive Group Properties
参数 |
参数说明 |
Drive Group |
硬盘组名称。 |
Capacity Allocation |
硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。 |
清除RAID配置
选择“Clear Configuration”并按“Enter”。
进入操作确认界面。
步骤 1 选中“Confirm”并按“Enter”。
步骤 2 在打开的列表中选择“Enabled”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 按“Enter”。
配置完成。
----结束
查看并导入外部配置
在图15-93中选择“Manage Foreign Configuration”并按“Enter”。
界面如图15-95所示。
图15-95 Manage Foreign Configuration
步骤 2 选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图15-96所示。
步骤 3 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 4 选择“Confirm”并按“Enter”。
步骤 5 在列表中选择“Enable”并按“Enter”。
步骤 6 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 7 选择“OK”并按“Enter”完成配置。
----结束
清除外部配置
选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 在列表中选择“Enable”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面提供控制卡管理接口,可查看并修改控制卡的详细参数。
界面介绍
“Controller Management”界面如图15-97,参数说明如表15-27所示。
参数 |
参数说明 |
Product Name |
RAID控制卡名称。 |
Serial Number |
RAID控制卡序列号。 |
Controller Status |
RAID控制卡的工作状态。 |
Select Boot Device |
当前启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。 |
PCI ID |
RAID控制卡的PCI ID。 |
PCI Slot Number |
RAID控制卡的PCI槽位号。 |
Package Version |
RAID控制卡的套件版本。 |
Firmware Version |
RAID控制卡的固件版本号。 |
NVDATA Version |
RAID控制卡配置信息的版本号。 |
Connector Count |
RAID控制卡与主板的接口个数。 |
Drive Count |
RAID控制卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID控制卡下已有虚拟磁盘数量。 |
Advanced Controller Management |
更多的控制卡操作。 |
Advanced Controller Properties |
查看和修改控制卡的高级属性。 |
更多控制卡操作
在图15-97中选择“Advanced Controller Management”并按“Enter”。
图15-98 Advanced Controller Management
参数 |
说明 |
Clear Controller Events |
清除控制卡的事件日志。 |
Save Controller Events |
保存控制卡的事件日志。 |
Save TTY Log |
保存终端操作日志。 |
Manage SAS Storage Link Speed |
管理接口速率。 |
Manage MegaRAID Advanced Software Options |
管理高级软件功能。 |
Schedule Consistency Check |
设置一致性校验参数。 |
Set Factory Defaults |
恢复为出厂配置。 |
Switch to JBOD mode |
切换RAID控制卡的工作模式,默认为RAID模式。当RAID控制卡当前的工作模式为RAID时,显示为“Switch to JBOD mode”;当RAID控制卡当前的工作模式为JBOD时,显示为“Switch to RAID mode”。 RAID控制卡的工作模式仅支持设置为“RAID”,请勿修改为“JBOD”。 如已设置为JBOD,请参见15.5.5 将Controller Mode恢复为RAID进行恢复;如需要开启JBOD功能,请参见15.4.10 设置JBOD模式进行设置。 |
Controller Mode |
RAID控制卡当前的工作模式。 |
查看并修改控制卡高级属性
在图15-97中选择“Advanced Controller Properties”并按“Enter”。
界面如图15-99和图15-100所示,界面中参数说明如表15-29所示。
图15-99 Advanced Controller Properties(1)
图15-100 Advanced Controller Properties(2)
参数 |
说明 |
Cache and Memory |
查看控制卡Cache和Memory信息。 |
Patrol Read |
系统巡检。 |
Power Save Setting |
设置硬盘休眠。 |
Spare |
设置控制卡热备状态。 |
Task Rates |
设置各种任务占用系统比率。 |
Alarm Control |
9460-8iRAID控制卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。 默认为“pause on error”。 |
Controller BIOS |
控制卡BIOS的使能情况。 |
ROC Temperature |
控制卡温度。 |
Shield State Supported |
是否支持暂停I/O,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
磁盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Expanded Virtual Drive Support |
是否支持扩容虚拟磁盘的功能。 |
Maintain Drive Fail History |
表示是否使能硬盘故障记录功能,默认为使能状态。 说明 l 该参数设置为“Disabled”时: l 当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。 l 新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。 l 该参数设置为“Enabled”时: l 新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。 l 新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见15.4.9 导入和清除外部配置章节。 |
SMART Polling |
SMART轮巡检测周期。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性校验。 |
JBOD Mode |
硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。 |
步骤 2 在图15-99中选择“Task Rates”并按“Enter”。界面如图15-101所示,界面中参数说明如表15-30所示。
参数 |
说明 |
Background Initialization <BGI> Rate |
设置执行后台初始化的速率。 说明 数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Consistency Check Rate |
设置执行一致性校验的速率。 说明 数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Patrol Read Rate |
设置执行巡检读取的速率。 说明 数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Rebuild Rate |
设置硬盘发生故障时在新硬盘上执行重构数据的速率。 说明 数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Reconstruction Rate |
设置执行RAID级别迁移或在线容量扩展时重构数据的速率。 说明 数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Apply Changes |
保存配置。 |
步骤 3 按照表15-29所述修改控制卡的高级属性参数。
步骤 4 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 单击“OK”完成配置。
----结束
该界面提供虚拟磁盘的查询和管理接口。
界面介绍
“Virtual Drive Management”界面如图15-102,显示虚拟磁盘列表。
选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如图15-103所示,参数说明如表15-31所示。
图15-103 Virtual Drive Management
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:定位虚拟磁盘的所有硬盘。 l Stop Locate:取消定位。 l Delete Virtual Drive:删除虚拟磁盘。 l Expand Virtual Drive:扩展虚拟磁盘容量。 l Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。 l Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。 l Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。 l Fast Initialization:快速初始化虚拟磁盘。 l Slow Initialization:安全初始化虚拟磁盘。 l Check Consistency:一致性校验。 l Virtual Drive Erase:格式化虚拟磁盘。 |
Progress |
当前任务进度。 l 仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。 l 当前界面不会自动刷新,需退出后重新进入查看当前进度。 |
Stop |
停止当前任务。 仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。 |
Name |
虚拟磁盘名称。 |
Raid Level |
虚拟磁盘RAID级别。 |
Status |
虚拟磁盘当前运行状态。 |
Size |
虚拟磁盘容量。 |
View Associated Drives |
查看成员盘属性。 |
Advanced... |
查看虚拟磁盘高级属性。 |
查看成员盘属性
在图15-103中选择“View Associated Drives”并按“Enter”。
界面如图15-104,显示成员盘列表。
图15-104 View Associated Drives
步骤 2 选择要查看的成员盘,并按“Enter”。
步骤 3 选择“View Drive Properties”并按“Enter”。
进入硬盘属性界面,如图15-105界面所示,界面参数如表15-32所示。
参数 |
参数说明 |
Operation |
该成员盘可执行的操作,包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Place Drive Online/Offline:将硬盘上线/离线。 |
Drive ID |
成员盘的ID。 |
Status |
成员盘的当前工作状态。 |
Size |
成员盘的容量。 |
Type |
成员盘类型。 |
Model |
成员盘的模块类型。 |
Hardware Vendor |
成员盘的生产厂商。 |
Associated Virtual Drive |
成员盘所在的虚拟磁盘。 |
Advanced... |
查询成员盘更多属性。 |
----结束
查看和修改虚拟磁盘高级属性
在图15-103中选择“Advanced”并按“Enter”。
界面如图15-106和图15-107所示,界面参数如表15-33所示。
参数 |
参数说明 |
Logical Sector Size |
逻辑扇区大小。 |
Strip Size |
条带大小。 |
Starting Logical Block Addressing |
逻辑单元起始地址。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Protected |
是否支持硬盘保护。 |
Bad Blocks |
是否支持坏块处理。 |
SSD Caching |
是否支持SSD Caching。 |
Access |
是否支持Access。 |
Current Write Cache Policy |
当前写Cache策略,包括: l Write Through:当硬盘子系统接收到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。 l Write Back:当RAID控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Always Write Back:当未配置超级电容或超级电容故障时,RAID控制卡将不会自动切换到Write Through模式。 说明 “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR的写数据将会丢失。不推荐使用该模式。 |
Default Write Cache Policy |
默认的写Cache策略。 |
Disable Background Initialization |
是否禁用后台初始化。 |
Read Cache Policy |
当前读Cache策略,包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。RAID控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 |
Drive Cache |
是否支持cache。 |
Input/Output |
I/O读取策略,包括: l Direct:直接从硬盘读取数据,不经过Cache缓存。 l Cached:从Cache缓存中读取数据。 |
Apply Changes |
保存配置。 |
步骤 2 按照表15-33所述配置“Advanced”的参数。
步骤 3 选择“Apply Changes”并按“Enter”。
显示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面显示硬盘基本属性,提供硬盘操作接口。
界面介绍
“Drive Management”界面如图15-108所示,显示硬盘列表。
选定要操作的硬盘并按“Enter”进入详细操作界面,如图15-109所示,参数说明如表15-34所示。
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Initialize Drive:硬盘初始化。 l Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。 − Simple:仅对硬盘进行一轮擦除动作。 − Normal:对硬盘进行三轮擦除动作。 − Thorough:对硬盘进行九轮擦除动作。 − Stop Erase:停止数据擦除操作。 l Make Unconfigured Good/Bad:修改硬盘状态。 l Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。 l Assign Global Hot Spare Drive:设置全局热备盘。 l Assign Dedicated Hot Spare Drive:设置局部热备盘。 l Unassign Hot Spare Drive:删除热备盘。 l Cryptographic Erase:对加密硬盘进行数据擦除。 l Place Drive Online:将Offline状态的硬盘设置为Online。 说明 l Place Drive Online操作只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。 l 如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。 l 对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。 |
Drive ID |
硬盘的ID。 |
Status |
硬盘的当前工作状态。 |
Size |
硬盘的容量。 |
Type |
硬盘的类型。 |
Model |
硬盘型号。 |
Hardware Vendor |
硬盘的生产厂商。 |
Associated Virtual Drive |
表示硬盘已加入虚拟磁盘,此处显示虚拟磁盘信息。 |
Advanced... |
查询更多硬盘属性。 |
安全擦除硬盘数据
该操作会删除硬盘上的数据,请谨慎执行。
将“Operation”设置为“Drive Erase”。
步骤 1 选择“Erase Mode”并按“Enter”。
步骤 2 在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。
步骤 3 选择“OK”并按“Enter”。
进入操作确认界面。
步骤 4 选择“Confirm”并按“Enter”。
步骤 5 选择“Yes”并按“Enter”。
提示操作成功。
----结束
查看硬盘属性
选择“Advanced...”并按“Enter”。
打开硬盘属性界面,如图15-110和图15-111所示,参数说明如表15-35所示。
参数 |
参数说明 |
Certified |
硬盘是否有供应商认证。 |
Logical Sector Size |
逻辑扇区大小。 |
Physical Sector Size |
物理扇区大小。 |
SMART Status |
SMART功能是否使能。 |
Revision |
硬盘Firmware版本。 |
Media Errors |
Media error个数。 |
Predicted Fail Count |
Pred fail个数。 |
SAS Address |
硬盘SAS地址。 |
Drive Power State |
硬盘上电状态。 |
Emergency Spare |
是否支持紧急备份功能,即是否可以选空闲盘或者热备做备份盘。 |
Commissioned Hot Spare |
是否指定了备份盘,即把一个热备盘指定给一个RAID组使用。 |
Cache Setting |
是否可设置Cache。 |
Available Size |
硬盘可用空间。 |
Used Space |
已使用的硬盘空间。 |
Disk Protocol |
硬盘支持的协议。 |
Device Speed |
设备速率。 |
Negotiated Drive Transfer Speed |
硬盘数据传输速率。 |
Number of Connections |
连接器个数。 |
FDE Capable |
硬盘是否支持FDE(Full Disk Encryption)技术。 |
Cryptographic Erase Capable |
硬盘是否支持加密擦除功能。 |
Unmap Capable |
解除映射能力。 |
Temperature |
硬盘温度。 |
该界面主要提供RAID控制卡传感器信息。
界面介绍
“Hardware Components”界面如图15-112,参数说明如表15-36所示。
参数 |
参数说明 |
Temperature Sensors |
当前温度传感器状态。 |
Fans |
当前风扇模块工作状态。 |
Power Supplies |
当前供电模块工作状态。 |
Battery Management |
电容管理。 |
Enclosure Management |
查看更多传感器信息。 |
查看更多传感器信息
选择“Enclosure Management”并按“Enter”。
进入部件选择界面,如图15-113所示。
步骤 2 选择“Select Enclosure”并按“Enter”。
步骤 3 选择要操作的部件并按“Enter”。
步骤 4 选择“View Enclosure Status”并按“Enter”。
显示传感器的详细信息。
步骤 5 在TEMPERATUR SENSOR下通过“Select Temperature Sensor”选择要查询的温度传感器。
“Temperature Sensor Status”显示所查询的传感器的状态。
步骤 6 在FAN下通过“Select Fan”选择要查询的风扇传感器。
“Fan Status”显示所查询的传感器的状态。
步骤 7 在POWER SUPPLY下通过“Select Power Supply”选择要查询的供电模块传感器。
“Power Supply Status”显示所查询的传感器的状态。
----结束
提供RAID控制卡操作管理接口。
界面介绍
“View Server Profile”界面如图15-114所示,参数说明如表15-37所示。
参数 |
参数说明 |
UEFI Spec Version |
服务器支持的UEFI Spec版本。 |
Controller Management |
提供控制卡管理接口,详细情况请参见15.6.2.2 Controller Management。 |
Hardware Components |
提供控制卡部件查询接口,详细情况请参见15.6.2.5 Hardware Components。 |
Drive Management |
提供硬盘管理接口,详细情况请参见15.6.2.4 Drive Management。 |
Virtual Drive Management |
提供虚拟磁盘管理接口,详细情况请参见15.6.2.3 Virtual Drive Management。 |
该界面可查看、导入、清空外部配置。
界面介绍
“View Foreign Configuration”界面如图15-115所示。
图15-115 View Foreign Configuration
查看并导入外部配置
选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图15-116所示。
步骤 2 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 3 选择“Confirm”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 单击“OK”完成配置。
----结束
清除外部配置
选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 单击“OK”完成配置。
----结束
可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。
界面介绍
“Configure”界面如图15-117所示,参数说明如表15-38所示。
参数 |
参数说明 |
Auto Configure RAID 0 |
自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0。 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。 |
View Drive Group Properties |
查看硬盘组属性。 当存在硬盘组时会显示该参数。 |
Clear Configuration |
清除当前所有RAID配置。 |
Manage Foreign Configuration |
管理外部配置。 |
清除当前配置
选择“Clear Configuration”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 单击“OK”完成配置。
----结束
恢复出厂配置
在主界面选择“Set Factory Defaults”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 单击“OK”完成配置。
----结束
该界面提供RAID控制卡高级软件特性查看和导入接口。
界面介绍
“Manage MegaRAID Advanced Software Options”界面如图15-118所示,界面中参数说明如表15-39所示。
图15-118 Manage MegaRAID Advanced Software Options
参数 |
说明 |
SAFE ID |
RAID控制卡的安全编码。 |
Serial Number |
RAID控制卡序列号。 |
Activation Key |
待激活的高级特性的Key。 |
Active |
激活高级特性。 9460-8i不支持高级特性的激活操作,该功能无效。 |
Deactive All Trail Software |
注销当前所有高级特性。 |
退出配置界面。
退出配置界面
在9460-8i主界面按“ESC”,显示如图15-119所示界面。
步骤 2 按F10退出BIOS。
弹出操作确认窗口。
步骤 3 选择“OK”并按Enter。
退出BIOS,显示“ Press Control+Alt+Delete to reboot”。
----结束
使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。
下载工具
步骤 1 在“DOWNLOADS”页签中单击“Management Software and Tools”。
打开管理软件和工具列表。
步骤 2 下载最新版本的“StorCLI”工具。
步骤 3 解压后得到适用于不同操作系统的工具包。
----结束
安装工具
使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。
步骤 1 在Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。
StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。
安装完毕后,即可执行RAID控制卡命令。
----结束
命令功能
查询9460-8i的基本配置信息。
命令格式
storcli64 /ccontroller_id show
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID |
使用指南
建议保持默认配置。
使用实例
# 查询RAID控制卡配置信息。
[root@localhost]# ./storcli64_arm /c0
show
Generating detailed summary of the adapter, it may take a while to complete.
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 4.19.36-vhulk1907.1.0.h453.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Product Name = AVAGO MegaRAID SAS 9460-8i
Serial Number = SP01022668
SAS Address = 500062b206129f00
PCI Address = 00:01:00:00
System Time = 11/13/2019 04:33:58
Mfg. Date = 03/12/20
Controller Time = 11/13/2019 09:33:56
FW Package Build = 51.13.0-3223
BIOS Version = 7.13.00.0_070D0300
FW Version = 5.130.00-3059
Driver Name = megaraid_sas
Driver Version = 07.713.02.00
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x16
SubVendor Id = 0x1000
SubDevice Id = 0x9461
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Drive Groups = 2
TOPOLOGY :
========
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT
Size PDC PI SED DS3 FSpace TR
-----------------------------------------------------------------------------
0 - - -
- RAID0 Optl N 372.093 GB dflt N N
none Y N
0 0 - -
- RAID0 Optl N 372.093 GB dflt N N none
Y N
0 0 0 133:0 35 DRIVE
Onln N 372.093 GB dflt N N none
- N
1 - - -
- RAID0 Optl N 3.273 TB dflt N
N none Y N
1 0 - -
- RAID0 Optl N 3.273 TB dflt N
N none Y N
1 0 0 133:1 4 DRIVE
Onln N 3.273 TB dflt N N none
- N
-----------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 2
VD LIST :
=======
-------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC
Size Name
-------------------------------------------------------------
0/0 RAID0 Optl RW
Yes RWTD - ON 200.0 GB
1/3 RAID0 Optl RW
Yes NRWTD - ON 50.0 GB
-------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read
Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 3
PD LIST :
=======
------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI
SeSz Model Sp
Type
------------------------------------------------------------------------------
133:0 35 Onln 0 372.093 GB SAS SSD
N N 512B HWE32SS3004H001N U -
133:1 4 Onln 1 3.273 TB
SAS SSD N N 512B HSSD-D5220AS0200 U -
133:2 2 UGood - 3.273 TB SAS
SSD N N 512B HSSD-D5220AS0200 U -
------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Cachevault_Info :
===============
------------------------------------
Model State Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 26C - 2019/05/16
------------------------------------
命令功能
创建、删除RAID。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id add vd rlevel[0|1|5|6|10|50|60] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [wt|*wb|awb] [nora|*ra] [Strip=<8|16|32|64|128|256|1024>] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid] |
创建RAID组 |
storcli64 /ccontroller_id/vraid_id del |
删除RAID组 |
*表示默认值。
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
rlevel |
要配置的RAID组级别 |
level可为0、1、5、6、10、50、60,数字分别代表对应的RAID组级别。 |
size |
要配置的RAID组容量 |
默认值为all,即所有成员盘的容量之和。 |
name |
要配置的RAID组名称 |
- |
drives |
要加入RAID组的硬盘 |
- |
startid-endid |
硬盘的起始和结束ID |
- |
slot_id |
硬盘ID |
- |
pdperarray |
子组中的硬盘数 创建RAID10、RAID50、RAID60时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。 |
- |
pdcache |
设置RAID的成员盘的Cache状态 |
l on l off l default |
pi |
使能数据保护 |
- |
wrcache |
设置RAID组的写Cache属性,完整的命令为wrcache=wt|wb|awb,这里“wrcache=”可省略 |
l wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”模式。 |
rdcache |
设置RAID组的读Cache属性,完整的命令为rdcache=ra|nora,这里“rdcache=”可省略。 |
l ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。 l nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。 |
Strip |
设置RAID组条带大小 |
MR卡:64, 128, 256, 512, 1024 iMR卡:只能为64 单位为KB |
EmulationType |
控制逻辑盘在OS中上报的扇区 |
l 0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l 1: Disable,即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l 2:Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Spares |
指定RAID组的热备盘 |
- |
raid_id |
要删除的RAID组的ID |
- |
l 以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
l 当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid。
使用指南
无
使用实例
# 创建RAID 0。
domino:~# ./storcli64 /c0 add vd
r0 size=100GB drives=252:0-3
Controller = 0
Status = Success
Description = Add VD Succeeded
# 删除RAID。
domino:~# ./storcli64 /c0/v0 del
Controller = 0
Status = Success
Description = Delete VD Succeeded
命令功能
查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。
命令格式
storcli64 /ccontroller_id show
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all
storcli64 /ccontroller_id/vvd_id show all
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID |
enclosure_id |
硬盘所在Enclosure的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡连接的硬盘背板的ID |
slot_id |
物理硬盘槽位编号 |
可以将该参数设置为all,表示查询所有硬盘的ID |
vd_id |
虚拟磁盘ID |
可以为all,表示查询所有虚拟磁盘信息。 |
使用指南
回显中主要字段的含义如表15-40所示。
命令格式 |
字段 |
含义 |
举例 |
storcli64 /ccontroller_id show |
Product Name |
RAID控制卡的型号 |
sas3108 |
FW Version |
RAID控制卡的FW版本 |
4.660.00-8140 |
|
Driver Name |
RAID控制卡的驱动名称 |
megaraid_sas |
|
Driver Version |
RAID控制卡的驱动版本 |
06.811.02.00-rh1 |
|
Current Personality |
RAID控制卡的工作模式 |
RAID-Mode |
|
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all |
SN |
物理硬盘的序列号 |
PHWL517601YR800RGN |
Manufacturer Id |
物理硬盘的供应商ID |
ATA |
|
Model Number |
物理硬盘的模块序号 |
INTEL SSDSC2BB800G4 |
|
Firmware Revision |
物理硬盘的FW版本 |
D2010370 |
|
Raw size |
物理硬盘的容量 |
745.211 GB [0x5d26ceb0 Sectors] |
|
Logical Sector Size |
物理硬盘逻辑分区大小 |
512B |
|
Physical Sector Size |
物理扇区大小 |
4 KB |
|
storcli64 /ccontroller_id/vvd_id show all |
TYPE |
RAID组的级别 |
RAID1 |
State |
RAID组的状态 |
Optl |
|
Access |
RAID组数据的访问策略 |
RW |
|
Cache |
RAID组当前的读写策略与I/O Policy |
RWTD |
|
Size |
RAID组的大小 |
100.0 GB |
|
PDs for VD0 |
RAID组下的物理硬盘 |
- |
|
Strip Size |
RAID组的条带大小 |
256KB |
|
Write Cache(initial setting) |
RAID组Cache的写策略 |
Write Through |
|
Disk Cache Policy |
RAID组成员盘的Cache策略 |
Disk's Default |
使用实例
#查询RAID控制卡的详细信息。
[root@localhost ~]# ./storcli64 /c0
show
Generating detailed summary of the adapter, it may take a while to complete.
Controller = 0
Status = Success
Description = None
Product Name = SAS3508
Serial Number =
SAS Address = 50030130f0900000
PCI Address = 00:01:00:00
System Time = 07/07/2018 22:06:42
Mfg. Date = 00/00/00
Controller Time = 07/07/2018 14:06:41
FW Package Build = 24.16.0-0093
BIOS Version = 6.32.02.0_4.17.08.00_0x06150500
FW Version = 4.660.00-8140
Driver Name = megaraid_sas
Driver Version = 06.811.02.00-rh1
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x5D
SubVendor Id = 0x19E5
SubDevice Id = 0xD207
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Drive Groups = 1
TOPOLOGY :
========
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT
Size PDC PI SED DS3 FSpace TR
-----------------------------------------------------------------------------
0 - - -
- RAID1 Optl N 744.125 GB dflt N N
none N N
0 0 - -
- RAID1 Optl N 744.125 GB dflt N N
none N N
0 0 0 252:1 18 DRIVE
Onln N 744.125 GB dflt N N none
- N
0 0 1 252:0 48 DRIVE
Onln N 744.125 GB dflt N N none
- N
-----------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 1
VD LIST :
=======
---------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac
sCC Size Name
---------------------------------------------------------------
0/0 RAID1 Optl RW
Yes RWBD - ON 744.125 GB
---------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read
Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 6
PD LIST :
=======
---------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI
SeSz
Model
Sp Type
---------------------------------------------------------------------------------
252:0 48 Onln 0 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
252:1 18 Onln 0 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
252:2 19 UGood - 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BA800G4 U -
252:3 20 UGood - 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BA800G4 U -
252:4 49 UGood - 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
252:5 47 UGood - 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
---------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Cachevault_Info :
===============
------------------------------------
Model State Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 28C - 2016/11/04
------------------------------------
#查询slot0的物理硬盘的信息。
[root@localhost ~]# ./storcli64
/c0/e252/s0 show all
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
Drive /c0/e252/s0 :
=================
---------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI
SeSz
Model
Sp Type
---------------------------------------------------------------------------------
252:0 48 Onln 0 744.125 GB SATA SSD N
N 512B INTEL SSDSC2BB800G4 U -
---------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Drive /c0/e252/s0 - Detailed Information :
========================================
Drive /c0/e252/s0 State :
=======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature = 20C (68.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
Drive /c0/e252/s0 Device attributes :
===================================
SN = PHWL517601YR800RGN
Manufacturer Id = ATA
Model Number = INTEL SSDSC2BB800G4
NAND Vendor = NA
WWN = 55cd2e404c533246
Firmware Revision = D2010370
Raw size = 745.211 GB [0x5d26ceb0 Sectors]
Coerced size = 744.125 GB [0x5d040800 Sectors]
Non Coerced size = 744.711 GB [0x5d16ceb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 6.0Gb/s
NCQ setting = Enabled
Write cache = N/A
Logical Sector Size = 512B
Physical Sector Size = 4 KB
Connector Name = Port A x1
Drive /c0/e252/s0 Policies/Settings :
===================================
Drive position = DriveGroup:0, Span:0, Row:1
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = No
Wide Port Capable = No
Port Information :
================
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
0 Active 6.0Gb/s 0x4433221100000000
-----------------------------------------
Inquiry Data =
40 00 ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 48 50 4c 57 31 35 36 37 31 30 52 59
30 38 52 30 4e 47 20 20 00 00 00 00 00 00 32 44
31 30 33 30 30 37 4e 49 45 54 20 4c 53 53 53 44
32 43 42 42 30 38 47 30 20 34 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 01 80
00 40 00 2f 00 40 00 00 00 00 07 00 ff 3f 10 00
3f 00 10 fc fb 00 01 bf ff ff ff 0f 00 00 07 00
# 查询VD 0的信息。
[root@rhel6u5 ~]#
/opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
/c0/v0 :
======
---------------------------------------------------------
DG/VD TYPE State Access Consist Cache sCC Size
Name
---------------------------------------------------------
1/0 RAID1 Optl RW
Yes RWTD - 1.089 TB
---------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|B=Blocked|Consist=Consistent|
R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
PDs for VD 0 :
============
-----------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz
Model Sp
-----------------------------------------------------------------------
25:22 14 Onln 1 1.089 TB SAS HDD
N N 512B ST1200MM0007 U
25:23 26 Onln 1 1.089 TB SAS HDD
N N 512B ST1200MM0007 U
-----------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded
VD0 Properties :
==============
Strip Size = 256 KB
Number of Blocks = 2341795840
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 2
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = Disabled
Active Operations = None
Exposed to OS = Yes
Creation Date = 04-01-2018
Creation Time = 12:38:35 PM
Emulation type = None
命令功能
查询超级电容的名称及TFM Flash卡缓存容量的大小等信息。
命令格式
storcli64 /ccontroller_id/cv show all
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
可以为all,表示所有控制卡。 |
查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用实例
#查询超级电容的相关信息。
[root@localhost ~]# ./storcli64
/c0/cv show all
Controller = 0
Status = Success
Description = None
Cachevault_Info :
===============
--------------------
Property Value
--------------------
Type CVPM02
Temperature 28 C
State Optimal
--------------------
Firmware_Status :
===============
---------------------------------------
Property
Value
---------------------------------------
Replacement
required
No
No space to cache offload No
Module microcode update required No
---------------------------------------
GasGaugeStatus :
==============
------------------------------
Property
Value
------------------------------
Pack
Energy
294 J
Capacitance
108 %
Remaining Reserve Space 0
------------------------------
Design_Info :
===========
------------------------------------
Property
Value
------------------------------------
Date of Manufacture 04/11/2016
Serial Number
22417
Manufacture Name LSI
Design Capacity 288 J
Device
Name
CVPM02
tmmFru
N/A
CacheVault Flash Size 8.0 GB
tmmBatversionNo 0x05
tmmSerialNo
0xee7d
tmm Date of Manufacture 09/12/2016
tmmPcbAssmNo
022544412A
tmmPCBversionNo 0x03
tmmBatPackAssmNo 49571-13A
scapBatversionNo 0x00
scapSerialNo 0x5791
scap Date of Manufacture 04/11/2016
scapPcbAssmNo
1700134483
scapPCBversionNo A
scapBatPackAssmNo 49571-13A
Module Version
6635-02A
------------------------------------
Properties :
==========
--------------------------------------------------------------
Property
Value
--------------------------------------------------------------
Auto Learn Period 27d (2412000 seconds)
Next Learn time 2018/08/03 17:48:38 (586633718
seconds)
Learn Delay Interval 0 hour(s)
Auto-Learn Mode Transparent
--------------------------------------------------------------
l 上述回显信息中,“Device Name CVPM02”表示超级电容的名称为 “CVPM02”,“CacheVault Flash Size 8.0GB”表示TFM Flash卡缓存容量为“8.0GB”。
l 当回显信息的“State”显示为“FAILED”时,需要更换超级电容。
命令功能
查询和设置系统巡检的相关参数。
命令格式
storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number
storcli64 /ccontroller_id set patrolread delay=delaytime
storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}
storcli64 /ccontroller_id show patrolread
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
系统巡检起始时间 |
例如:2016/07/15 23 说明 起始时间单位为“时”。 |
number |
可同时巡检的硬盘数量 |
– |
delaytime |
系统巡检周期 |
单位为hour。 |
查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。
domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
PR Starttime 2016/07/15 23:00:00
PR MaxConcurrentPd 2
---------------------------------------
# 使能patrolread并设置为自动模式。
domino:~# ./storcli64 /c0 set
patrolread=on mode=auto
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
Patrol Read Mode auto
---------------------------------------
# 查询patrolread信息。
domino:~# ./storcli64 /c0 show patrolread
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------------------------
Ctrl_Prop Value
--------------------------------------------
PR Mode 2016/07/15 23:00:00
PR Execution Delay
PR iterations completed 0
PR Next Start time 07/16/2016,00:00:00
PR on SSD Disabled
PR Current State Stopped
--------------------------------------------
命令功能
查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。
命令格式
storcli64 /ccontroller_id show spinupdelay
storcli64 /ccontroller_id show spinupdrivecount
storcli64 /ccontroller_id set spinupdelay=time
storcli64 /ccontroller_id set spinupdrivecount=count
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
每组起转硬盘间的时间间隔 |
默认为2,单位为s。 |
count |
上电时允许同时起转的硬盘数量 |
默认为4。 |
查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
建议保持默认配置。
使用实例
# 查询RAID控制卡Spinup参数。
domino:~# ./storcli64 /c0 show
spinupdelay
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
domino:~# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 4
--------------------------
# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。
domino:~# ./storcli64 /c0 set
spinupdelay=20
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 20 second(s)
--------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 5
--------------------------
命令功能
设置物理硬盘数据擦除模式,查询擦除进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
硬盘槽位号 |
– |
mode |
数据擦除模式 |
l simple:对硬盘进行一轮擦除动作。 l normal:对硬盘进行三轮擦除动作。 l thorough:对硬盘进行九轮擦除动作。 |
以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。
domino:~# ./storcli64 /c0/e252/s3
start erase simple
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.
命令功能
暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。
命令格式
storcli64 /ccontroller_id/vraid_id action bgi
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
action |
后台初始化的操作 |
l show:查看后台初始化进度 l pause:暂停后台初始化 l resume:继续后台初始化 l stop:停止后台初始化 |
以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查看后台初始化进度。
domino:~# ./storcli64 /c0/v0 show
bgi
Controller = 0
Status = Success
Description = Noe
VD Operation Status :
===================
------------------------------------------------------
VD Operation Progress% Staus Estimated Time Left
------------------------------------------------------
0 BGI 3 In progress 53 Minutes
------------------------------------------------------
命令功能
查询和设置Cache的刷新周期。
命令格式
storcli64 /ccontroller_id show cacheflushint
storcli64 /ccontroller_id set cacheflushint time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
Cache的刷新周期 |
单位为s |
查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Cache的刷新周期为“10”。
domino:~# ./storcli64 /c0 set
cacheflushint=10
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10 sec
---------------------------
# 查询Cache的刷新周期。
domino:~# ./storcli64 /c0 show
cacheflushint
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10
---------------------------
命令功能
设置物理硬盘初始化功能,查询初始化进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
action |
要执行的操作 |
l show:查看初始化进度 l start:开始初始化 l stop:结束初始化 |
以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 初始化slot3硬盘,并查询初始化进度。
domino:~# ./storcli64 /c0/e252/s3
start initialization
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show initialization
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
命令功能
开始、暂停、继续、停止RAID重构,并查询进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action rebuild
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
action |
要执行的操作 |
l start:开始重构 l show:查看重构进度 l pause:暂停重构 l resume:继续重构 l stop:停止重构 |
查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 手动开始重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
# 查看硬盘当前重构状态。
[root@localhost ~]# ./storcli64
/c0/e70/s7 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e70/s7 5 In progress 26 Minutes
-----------------------------------------------------
# 暂停硬盘重构进程。
[root@localhost ~]# ./storcli64
/c0/e70/s7 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Succeeded.
# 继续重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 resume rebuild
Controller = 0
Status = Success
Description = Resume Drive Rebuild Succeeded.
# 停止重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 stop rebuild
Controller = 0
Status = Success
Description = Stop Drive Rebuild Succeeded.
命令功能
开始、暂停、继续、停止回拷,并查询进度。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id start copyback target=target_enclosure_id:target_slot_id |
开始回拷。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id action copyback |
暂停、继续、查看、停止回拷。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
target_enclosure_id |
执行回拷的目标硬盘所在Enclosure的ID。 |
- |
target_slot_id |
执行回拷的目标物理硬盘槽位编号。 |
- |
action |
要执行的操作 |
l show:查看回拷进度 l pause:暂停回拷 l resume:继续回拷 l stop:停止回拷 |
查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 手动开始回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s7 start copyback target=70:3
Controller = 0
Status = Success
Description = Start Drive Copyback Succeeded.
# 查看硬盘当前回拷状态。
[root@localhost ~]# ./storcli64
/c0/e70/s3 show copyback
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e70/s3 17 In progress 16 Minutes
-----------------------------------------------------
# 暂停硬盘回拷进程。
[root@localhost ~]# ./storcli64
/c0/e70/s3 pause copyback
Controller = 0
Status = Success
Description = Pause Drive Copyback Succeeded.
# 继续回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s3 resume copyback
Controller = 0
Status = Success
Description = Resume Drive Copyback Succeeded.
# 停止回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s3 stop copyback
Controller = 0
Status = Success
Description = Stop Drive Copyback Succeeded.
命令功能
设置Smart扫描周期。
命令格式
storcli64 /ccontroller_id set smartpollinterval=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
value |
Smart扫描周期 |
单位为s。 |
查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Smart扫描周期为“60s”。
domino:~# ./storcli64 /c0 set
smartpollinterval=60
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------
命令功能
设置一致性校验参数。
命令格式
storcli64 /ccontroller_id[/vvd_id]show cc
storcli64 /ccontroller_id/vvd_id start cc force
storcli64 /ccontroller_id/vvd_id action cc
storcli64 /ccontroller_id set cc=conc delay=value starttime=time excludevd=evd_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
vd_id |
要操作的RAID的ID |
– |
action |
要执行的操作 |
l pause:暂停 l resume:继续执行 l stop:停止 |
value |
一致性校验周期 |
– |
time |
一致性校验起始时间 |
例如:2016/07/14 22 说明 起始时间单位为“时”。 |
evd_id |
不进行一致性校验的虚拟磁盘ID |
– |
以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
show命令中不带/vvd_id时,表示查询自动CC参数。
show命令中带/vvd_id时,表示查询CC进度。
使用实例
# 设置一致性自动检查参数。
domino:~# ./storcli64 /c0 set
cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------
Ctrl_Prop Value
------------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2016/07/14 22:00:00
CC ExcludeVD(0) Success
------------------------------------
# 查询CC进度。
domino:~# ./storcli64 /c0/v1 show
cc
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimited Time Left
-----------------------------------------------------------
0 CC - Not in progress -
-----------------------------------------------------------
命令功能
设置全局热备盘和局部热备盘。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive |
设置全局热备盘。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=<N|0,1,2..>] |
设置局部热备盘。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive |
删除热备盘。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
dgs |
硬盘组的ID |
l 不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘 l 0,1,2..:硬盘组ID |
以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置slot 3硬盘为全局热备盘。
domino:~# ./storcli64 /c0/e252/s3
add hotsparedrive
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
# 设置slot 3硬盘为vd0的局部热备盘。
domino:~# ./storcli64 /c0/e252/s3
add hotsparedrive dgs=0
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
命令功能
设置虚拟磁盘或物理硬盘为启动项。
命令格式
storcli64 /ccontroller_id/vvd_id set bootdrive=on
storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
vd_id |
待设置的虚拟磁盘的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置VD0为启动项。
domino:~# ./storcli64 /c0/v0 set
bootdrive=on
Controller = 0
Status = Success
Description = Noe
Detailed Status :
===============
----------------------------------------
VD Property Value Staus ErrCd ErrMsg
----------------------------------------
0 Boot Drive On Success 0 -
----------------------------------------
# 设置slot 7硬盘为启动项。
domino:~# ./storcli64 /c0/e252/s7
set bootdrive=on
Controller = 0
Status = Success
Description = Noe
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
BootDrive PD:252_7
-------------------
命令功能
设置硬盘状态。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
state |
要设置的硬盘状态 |
l online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。 l offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。 l jbod:通过该参数可以将硬盘设置为直通硬盘。 l good: − ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置; − JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。 l good:将硬盘设为空闲盘 |
force |
强制设置硬盘状态,为可选参数。 如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force。 |
- |
以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。
domino:~# ./storcli64 /c0/e0/s1
set good
Controller = 0
Status = Success
Description = Set Drive Good Succeeded.
命令功能
设置RAID的读写策略。
命令格式
storcli64 /ccontroller_id/vraid_id set accesspolicy=mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
RAID读写策略 |
l rw:可读可写 l blocked:禁止访问 l ro:只读访问 |
以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置RAID读写策略为“rw”。
domino:~# ./storcli64 /c0/v0 set
accesspolicy=rw
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 AccPolicy RW Success 0 -
---------------------------------------
命令功能
设置RAID组成员盘的Cache状态。
命令格式
storcli64 /ccontroller_id/vvd_id set pdcache=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
vd_id |
RAID组的ID |
- |
action |
要执行的操作 |
l on:打开硬盘Cache l off:关闭硬盘Cache l default:将硬盘Cache设置为默认状态 |
以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 打开ID为0的RAID组的硬盘Cache。
./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 PdCac On
Success 0 -
---------------------------------------
命令功能
设置RAID组的Cache读写策略。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/vraid_id set wrcache=wrmode |
设置Cache写策略 |
storcli64 /ccontroller_id/vraid_id set rdcache=rdmode |
设置Cache读策略 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
raid_id |
待设置的RAID组的ID |
可以为all,表示所有RAID。 |
wrmode |
设置Cache写策略 |
l wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”策略。 |
rdmode |
设置Cache读策略 |
l ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。 l nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。 |
以上涉及的各个ID的方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Cache读写模式为“wt”。
domino:~# ./storcli64 /c0/v0 set
wrcache=wt
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 wrCache WT Success 0 -
---------------------------------------
命令功能
设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。
命令格式
storcli64 /ccontroller_id set eghs eug=state
storcli64 /ccontroller_id set eghs smarter=state
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
state |
紧急热备功能的启用状态 |
l on:启用 l off:禁用 |
查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。
domino:~# ./storcli64 /c0 set eghs
eug=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------
Ctrl_Prop Value
------------------
EmergencyUG ON
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
EmergencySmarter ON
-----------------------
命令功能
设置RAID前台初始化模式。
命令格式
storcli64 /ccontroller_id/vraid_id start mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
前台初始化模式 |
l init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。 l init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。 |
以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 快速初始化RAID。
domino:~# ./storcli64 /c0/v0 start
init
Controller = 0
Status = Success
Description = Start INIT Operation Success
命令功能
设置RAID控制卡的硬盘直通功能的使能情况,并指定直通硬盘。
命令格式
storcli64 /ccontroller_id set jbod=state
storcli64 /ccontroller_id/eenclosure_id/sslot_id set JBOD
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
state |
RAID控制卡JBOD功能的使能情况 |
l on l off |
以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 使能RAID控制卡的硬盘直通功能,并设置slot 7硬盘为直通盘。
domino:~# ./storcli64 /c0 set
jbod=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
JBOD ON
----------------
domino:~# ./storcli64 /c0/e252/s7 set JBOD
Controller = 0
Status = Success
Description = Set Drive JBOD Succeeded.
命令功能
点亮和熄灭指定硬盘的定位指示灯。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。 |
slot_id |
物理硬盘槽位编号 |
可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。 |
action |
要执行的操作 |
l start:点亮硬盘的定位指示灯。 l stop:熄灭硬盘的定位指示灯。 |
以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 点亮slot 7硬盘的定位指示灯。
domino:~# ./storcli64 /c0/e252/s7
start locate
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.
命令功能
设置空闲硬盘和热备盘的省电模式。
命令格式
storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID。 |
– |
state |
省电模式的启用状态。 |
l on:启用 l off:禁用 |
disktype |
硬盘类型。 |
l 1:空闲硬盘 l 2:热备盘 |
time |
等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。 |
单位为minutes。 |
查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置空闲硬盘的省电模式。
domino:~# ./storcli64 /c0 set
ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
SpnDwnUncDrv Enable
SpnDwnTm 30 minutes
--------------------------
命令功能
设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。
命令格式
storcli64 /ccontroller_id set action=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
action |
要设置的项目 |
l bgirate:后台初始化速率 l ccrate:一致性校验速率 l prrate:硬盘巡检速率 l rebuildrate:RAID重构速率 l reconrate:RAID扩容和迁移速率 |
value |
后台任务资源占用率 |
1~100 |
查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置硬盘巡检速率为“30%”。
domino:~# ./storcli64 /c0 set
prrate=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
Patrol Read Rate 30%
-----------------------
命令功能
设置控制卡BIOS在检测到异常时停止继续启动的功能。
命令格式
storcli64 /ccontroller_id set bios mode=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
action |
要执行的操作 |
l soe:控制卡BIOS在检测到异常时停止启动 l ie:忽略检测到的异常 |
查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启Stop on error功能。
domino:~# ./storcli64 /c0 set bios
mode=soe
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
命令格式
storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
vd_id |
要扩容的RAID的ID |
– |
capacity |
扩容后的容量 |
– |
expandarray |
当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。 |
– |
以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查询VD的可扩展容量。
[root@localhost ~]# storcli64 /c0/v1
show expansion
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
EXPANSION INFORMATION :
=====================
--------------------------------------------
VD Size OCE NoArrExp WithArrExp Status
--------------------------------------------
1 10.000 GB Y 3.627 TB 5.447 TB -
--------------------------------------------
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion
VD=Virtual Drive | NoArrExp - Without Array Expansion
如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。
# 将VD0的容量扩大“200GB”。
domino:~# ./storcli64 /c0/v0
expand size=200GB
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
0 100.0 GB 457.861 GB 200.0 GB 201.458 GB 44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %
RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
当增加新盘后,可进行RAID级别迁移。
命令格式
storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
vd_id |
要操作的RAID的ID |
– |
slot_id |
要加入RAID的新硬盘的槽位号 |
– |
level |
增加硬盘后RAID的级别 |
l 与原RAID级别相同时,该命令为扩大RAID容量。 l 与原RAID级别不同时,该命令为RAID级别迁移。 |
以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 在RAID 0中增加slot 2硬盘扩容。
domino:~# ./storcli64 /c0/v0 start
migrate type=r0 option=add drives=252:2
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 13 Minutes
-------------------------------------------------------
# 单盘RAID 0加盘迁移至RAID 1。
domino:~# ./storcli64 /c0/v0 start
migrate type=r1 option=add drives=252:3
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 14 Minutes
-------------------------------------------------------
命令功能
查询和清除PreservedCache数据。
命令格式
storcli64 /ccontroller_id show preservedcache
storcli64 /ccontroller_id/vvd_id delete preservedcache force
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
vd_id |
要操作的RAID的ID |
– |
以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查询PreservedCache。
domino:~# ./storcli64 /c0 show
preservedcache
Controller = 0
Status = Success
Description = No Virtual Drive has Preserved Cache Data.
命令功能
升级硬盘的FW。
命令格式
./storcli64 /ccontroller_id /eenclosure_id/sslot_id download src=FW_name.bin
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
FW_name |
硬盘FW的名称 |
– |
以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用实例
#升级硬盘FW。
[root@localhost ~]# ./storcli64
/c0/e64/s5 download src=5200_D1MU004_Releasefullconcatenatedbinary.bin
Starting microcode update .....please wait...
Flashing PD image ..... please wait...
Controller = 0
Status = Success
Description = Firmware Download succeeded.
Drive Firmware Download :
========================
--------------------------------------------------------------------------------
Drive Status ErrCd ErrMsg
--------------------------------------------------------------------------------
/c0/e64/s5 Success 0 -
--------------------------------------------------------------------------------
命令功能
手动重构RAID组。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row
storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
要加入Array的物理硬盘槽位编号 |
– |
DG |
硬盘发生故障的DG的ID |
– |
Arr |
硬盘发生故障的Array的ID |
– |
Row |
硬盘发生故障的Array的row number |
– |
以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
重构RAID分3个步骤进行:
1.通过./storcli64 /c0 show 命令,查询故障硬盘的DG、Arr和Row所对应的数字。
2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。
3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID。
使用实例
# 将硬盘加入RAID组。
[root@localhost ~]# storcli64
/c0/e252/s1 insert dg=0 array=0 row=0
Controller = 0
Status = Success
Description = Insert Drive Succeeded.
# 手动重构RAID。
[root@localhost ~]# storcli64
/c0/e252/s1 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
命令功能
收集和清除RAID控制卡的日志。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id show termlog [type=logtype] [logfile[=filename]] |
收集RAID控制卡的日志。 |
storcli64 /ccontroller_id delete termlog |
删除RAID控制卡的日志。 |
storcli64 /ccontroller_id show alilog [logfile[=filename]] |
收集控制卡属性信息、TTY日志和事件到指定文件。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID。 |
- |
logtype |
查询日志类型。 |
l config:查询TTY BBU缓存设置。 l content:查询日志信息。 缺省值:content。 |
filename |
文件名称,将保存日志到此文件。 |
可自定义文件名称,缺省时将默认保存至“StorSAS.log”文件中。 |
查询RAID控制卡ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 收集RAID控制卡的日志。
[root@localhost idriver]# ./storcli64
/c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19 6:48:11: C0:TTY History buffer cleared
Controller = 0
Status = Success
Description = None
# 删除RAID控制卡的日志。
[root@localhost idriver]# ./storcli64
/c0 delete termlog
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------------------
Ctrl Method Result
----------------------------
0 Delete Termlog deleted
----------------------------
命令功能
指导用户查看、导入或者清除RAID控制卡的外部配置。
命令格式
storcli64 /ccontroller_id/fall import preview
storcli64 /ccontroller_id/fall import
storcli64 /ccontroller_id/fall delete
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
使用指南
无
使用实例
# 查看RAID控制卡的外部配置。
[root@localhost ~]# ./storcli64
/c0/fall import preview
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
FOREIGN PREVIEW :
===============
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Total foreign drive groups = 0
# 删除RAID控制卡的外部配置。
[root@localhost ~]# ./storcli64
/c0/fall delete
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration
命令功能
介绍Snapdump相关操作。
命令格式
命令格式 |
说明 |
storcli64 /ccontroller_id show snapdump |
查询snapdump功能是否打开,是否有自动生成的snapdump文件。 |
storcli64 /ccontroller_id get snapdump id=all |
获取历史生成的snapdump文件。 |
storcli64 /ccontroller_id get snapdump |
获取历史生成的snapdump文件和当前再生成一个snapdump文件。 |
storcli64 /ccontroller_id set snapdump state=on|off |
打开和关闭snapdump功能。 |
storcli64 /ccontroller_id delete snapdump force |
删除历史snapdump日志功能。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID。 |
state=on|off |
Snapdump状态 |
on为开启,off为关闭。 |
使用指南
l Snapdump文件是一个日志文件,在一些RAID控制卡异常场景下可以自动生成的日志,也可以主动获取当前RAID控制卡的snapdump日志。
l 使用前可以先查询snapdump功能是否打开,是否有自动生成的snapdump文件,再去收集snapdump。
l 获取历史生成的snapdump文件和当前再生成一个snapdump文件会影响业务,建议离线使用。
l 打开和关闭snapdump功能,如果无法打开注意看提示,请确认当前RAID控制卡固件版本是否支持。
l 收集snapdump文件在当前命令执行目录下,文件格式为snapdump_**************.zip。
使用实例
#查询snapdump功能是否打开,是否有自动生成的snapdump文件。
[root@localhost ~]# storcli64 /c0
show snapdump
Controller = 0
Status = Success
Description = None
SnapDump Properties :
===================
----------------------------------
Ctrl_Prop
Value
----------------------------------
Snapdump
ON
Snapdump Save Count N/A
Snapdump Delay OCR 15
Snapdump properties Read-Write
Snapdump Current Count 2
----------------------------------
SnapDump Details :
================
----------------------------------------------
ID Snapdump Size Snapdump time OnDemand
----------------------------------------------
0 2649396 08-06-2021 07:23:43 Yes
1 2070406 08-07-2021 06:59:24 Yes
----------------------------------------------
#获取历史生成的snapdump文件。
[root@localhost ~]# storcli64 /c0 get
snapdump id=all
Controller = 0
Status = Success
Description = None
#获取历史生成的snapdump文件和当前再生成一个snapdump文件。
[root@localhost ~]# storcli64 /c0 get
snapdump
Controller = 0
Status = Success
Description = Download Support Log
#打开和关闭snapdump功能。
打开:
[root@localhost ~]# storcli64 /c0 set
snapdump state=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
Set Snapdump on
-------------------
关闭:
[root@localhost ~]# storcli64 /c0 set
snapdump state=off
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
Set Snapdump off
-------------------
#删除历史snapdump日志功能。
[root@localhost ~]# storcli64 /c0
delete snapdump force
Controller = 0
Status = Success
Description = Snapdump delete
命令功能
升级控制卡FW。
命令格式
命令格式 |
说明 |
storcli64 /cController_ID download file=xxx.rom [noverchk] |
升级控制卡FW。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
- |
xxx.rom |
固件包的名称 |
- |
使用指南
l 使用“noverchk”参数时将不检查固件包,降级版本时必须使用此参数。
l 升级完成后,需重新上下电服务器使固件包生效。
使用实例
#升级控制卡FW。
[root@localhost fw]# ./storcli64_arm
/c0 download file =FW4.rom noverchk
Download Completed.
Flashing image to adapter...
Controller = 0
Status = Success
Description = F/W Flash Completed.Please reboot the system for the changes to
take effect.
关于本章
主要介绍Avago MegaRAID SAS 9440-8i RAID控制卡的外观、特性、以及配置方法。
本章节涉及的截图以5.160.01-3415 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。
Avago MegaRAID SAS 9440-8i RAID 控制卡(以下简称9440-8i)是基于MegaRAID架构的8端口12Gbit/s SAS控制卡,并采用PCIex8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。
9440-8i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。
9440-8i不支持虚拟化场景,在安装操作系统前,需要在BIOS中将“Advanced > MISC Config”界面中的参数“Support Smmu”设置为“Disabled”。
9440-8i不支持flush write verify功能。
9440-8i支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考16.2.13 硬盘直通。
1 |
芯片过温指示灯 |
2 |
心跳灯 |
3 |
散热器 |
4 |
miniSAS接口(port 0,SFF-8643) |
5 |
miniSAS接口(port 1,SFF-8643) |
- |
- |
9440-8i单板指示灯说明如表16-1所示。
指示灯 |
颜色 |
说明 |
芯片过温指示灯 |
黄色 |
l 常亮:设备温度传感器超过阈值。 l 灭:设备温度在正常温度范围内。 |
心跳灯 |
绿色 |
l 闪烁:芯片运行正常,闪烁频率为1Hz。 l 灭:RAID控制卡未开始运行或FW运行异常。 |
9440-8i支持硬盘以直通方式和加入RAID组两种方式混合使用,其中:
l 硬盘直通模式支持的最大硬盘数量为63。
l 直通模式的硬盘和加入RAID组中的硬盘数量最多为63。
l 所有RAID组包含的最大硬盘数量为32。
该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。
l 每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
l 最多支持32个虚拟磁盘(即配置界面中看到的“Virtual Drive”),每个虚拟磁盘最多包含32个硬盘。
9440-8i支持的RAID类型及对应的硬盘个数如表16-2所示。
RAID级别 |
支持硬盘数 |
支持子组数 |
子组支持硬盘数 |
允许坏盘数 |
RAID 0 |
1~32 |
不涉及 |
不涉及 |
0 |
RAID 1 |
2~32(偶数) |
硬盘数÷2 |
||
RAID 10 |
4~32(偶数) |
2~8个RAID 1 |
2~16(偶数) |
子组数 |
l 不支持RAID 00、RAID 5和RAID 50级别。
l 子组数:子RAID的个数。
l RAID 10每个子组中最多允许1个坏盘。
l RAID 10包含的总硬盘数由子组数和子组支持的硬盘数共同决定。
9440-8i的热备功能分为两种:热备盘和紧急备份。
热备盘
对服务器的硬盘进行RAID分组后,一般会配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l Global HSP:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
配置方法请参见16.4.1.1 配置全局热备盘。
l Dedicated HSP:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。
配置方法请参见16.4.1.2 配置局部热备盘。
热备盘容量需大于等于成员盘容量。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
l 用作热备盘的硬盘数据将会丢失。
紧急备份
使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
l 紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。
l 在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。
l 紧急备份的硬盘生效次序:相同类型硬盘 > 相同接口不同介质类型硬盘 > 不同接口相同介质类型硬盘 > 不同接口不同介质类型硬盘。
紧急备份有两种情况,对应了两种设置:
l 当成员盘fail时,空闲盘替代成员盘作为紧急备份。
l 当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。
配置方法请参见16.4.2 设置紧急热备功能。
热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。
l 请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。
l 插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。
l 人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考16.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。
具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。
l 不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:
l RAID组状态保持“Optimal”不变。
l 热备盘状态由“Online”变为“Hot Spare”。
l 新加入硬盘状态由“Copyback/Copybacking”变为“Online”。
l 可使用命令行工具暂停或继续回拷。
l 若回拷时重启服务器,进度将保存。
l 局部热备以及全局热备,更换故障盘后,均会产生回拷。
条带化
当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数和数据传输率有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待,这时就是所谓的硬盘冲突。
条带化技术是一种自动将I/O负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。
影响条带化效果的因素有:
l 条带宽度:指同时可以并发读或写的条带数量。
这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。
在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。
l 条带大小:指写在每块硬盘上的条带数据块的大小。
分条
硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。
9440-8i不支持设置条带大小,默认为64KB。
VD初始化
创建虚拟磁盘后,需要将其初始化,使其可以被操作系统使用,且使具有冗余功能的虚拟磁盘中各成员盘的数据关系满足相应的RAID级别要求。
控制卡提供了多种相应的初始化方式:
l 前台初始化:
− 快速初始化:Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。
− 完全初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。
l 后台初始化:对于RAID 1/RAID 10,如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。
l 一致性校验和后台初始化通常会对性能造成一定损失,直至该操作完成。
l 一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。
硬盘初始化
硬盘可执行的初始化包括:
l Initialize Drive:对前100MByte空间进行全写0操作。
l Drive Erase:对全部空间进行写0操作。
不支持停止SATA SSD的擦除和初始化过程。
RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见16.4.5 迁移RAID级别。
当前支持以下级别类型的迁移:
l RAID 0迁移到RAID 1
l RAID 1迁移到RAID 0
RAID迁移对硬盘数量的要求如表16-3所示。
迁移RAID级别 |
原始硬盘组硬盘数量 |
迁移后的硬盘组硬盘数量 |
RAID 0迁移 RAID 1 |
1~32 |
2~32(偶数) |
RAID 1迁移到RAID 0 |
2~32(偶数) |
2~32 |
控制卡支持的容量扩展方式有两种:
l 通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。
详细操作方法可参考16.4.3 添加新硬盘到RAID。
l 通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。
详细操作方法可参考16.4.4 扩展Virtual Drive可用空间。
l 只有RAID 0、RAID1支持增加硬盘扩容。
l RAID 10不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。
l 当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见 16.7.2.17 通过增加成员盘可用容量扩容RAID。
安全擦除即将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘安全擦除功能:
l Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。
l Normal:对虚拟磁盘或硬盘进行三轮擦除动作。
l Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。
安全数据擦除过程中,主机无法访问该虚拟磁盘。
控制卡支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。
硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。
硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。
硬盘巡检不能在参与以下任何操作的任何硬盘上运行:
l RAID热备修复
l 动态扩盘
l 完全初始化或后台初始化
l 一致性校验
S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T 监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据丢失。
RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描。扫描周期可通过S.M.A.R.T Polling设置,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。
RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。
默认情况下,硬盘节能功能处于开启状态。
当硬盘节能功能开启时,RAID控制卡下挂载的“Unconfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)需要唤醒正处于节能状态的硬盘,该操作会有一定程度的延迟。
硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。
控制卡可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。
控制卡支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
如果需要使能硬盘直通功能,请参见16.4.10 设置JBOD模式。
JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
硬盘漫游是指在同一控制卡下移动物理硬盘。控制卡将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。
要使用硬盘漫游,按以下步骤操作:
1. 关闭操作系统。
2. 将服务器下电。
3. 将物理硬盘移动到背板所需位置。
4. 执行安全检查。确保正确插入物理硬盘。
5. 将服务器上电。
6. 控制卡从物理硬盘上的配置数据中检测到RAID配置。
如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。
此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。
控制卡提供硬盘故障记录功能:
l 使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。
l 禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,控制卡会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。
维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。
l 使能该功能后,当硬盘故障时,会点亮Fault指示灯。
l 禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。
默认情况下,控制卡使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。
针对有冗余功能的RAID 1、RAID10,RAID控制卡可以对RAID组的硬盘数据进行一致性校验,对硬盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。
由于RAID 0不具备冗余性,因此不支持一致性校验。
建议每月至少进行一次一致性校验。
文档中描述的关于9440-8i的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器。
步骤 2 重启过程中,当出现如图16-3所示界面时,按“Delete”。
步骤 3 输入密码并按“Enter”。
进入如图16-4所示界面。
步骤 4 按“→”切换到“Advanced”页签,如图16-5所示。
如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见16.5.3 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy进行修复。
步骤 5 选择要操作的9440-8i控制卡,按“Enter”。
进入如图16-6和图16-7所示主界面,界面参数如表16-4所示。
参数 |
说明 |
Main Menu |
RAID控制卡主菜单,包含了RAID控制卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID控制卡当前工作状态。 |
Backplane |
背板个数。 |
CacheVault |
是否支持Cache。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的硬盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID控制卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 说明 仅当控制卡存在外部配置时,会显示该选项。 |
Configure |
提供删除配置的接口。 |
Set Factory Defaults |
恢复出厂设置。 |
Update Firmware |
升级固件。 |
Silence Alarm |
板载蜂鸣器的使能状态。 说明 控制卡未配置蜂鸣器,此项设置不起作用。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9440-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见16.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见16.3.1 登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图16-8和图16-9所示,参数说明如表16-5所示。
图16-8 “Create Virtual Drive”界面(1)
图16-9 “Create Virtual Drive”界面(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图16-10所示,界面参数如表16-6所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 按表16-6所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 0支持的硬盘个数为1~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。
5. 选择“Apply Changes”并按“Enter”保存配置。
提示“The operation has been performed successfully.”
6. 选择“OK”并按“Enter”完成成员盘配置。
步骤 4 配置虚拟磁盘属性。
按照表16-5所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照16.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 选择“Save Configuration”并按“Enter”。
弹出操作确认界面。
2. 选择“Confirm”并按“Enter”确认。
3. 选择“Yes”并按“Enter”。
提示“The operation has been performed successfully”。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9440-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见16.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见16.3.1 登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图16-11和图16-12所示,参数说明如表16-7所示。
图16-11 “Create Virtual Drive”界面(1)
图16-12 “Create Virtual Drive”界面(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图16-13所示,界面参数如表16-8所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 按表16-8所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 1支持的硬盘个数为2~32(偶数)。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。
5. 选择“Apply Changes”并按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
步骤 4 配置虚拟磁盘属性。
按照表16-7所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照16.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 选择“Save Configuration”并按“Enter”。
弹出操作确认界面。
2. 通过“Enter”键把“Confirm”状态切换成“Enabled”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9440-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见16.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见16.3.1 登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图16-14和图16-15所示,参数说明如表16-9所示。
图16-14 Create Virtual Drive (1)
图16-15 “Create Virtual Drive” (2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图16-16所示,界面参数如表16-10所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 按表16-10所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 10支持2~8个Span,每个Span支持的硬盘数为2~16(偶数),且各个Span的硬盘数量必须保持一致。
l RAID 10支持的硬盘总数为4~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。
5. 选择“Apply Changes”按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如图16-17所示。
1. 选择“Add More Spans”并按“Enter”。
2. 选择“Select Drives”并按“Enter”。
3. 在打开的列表中选择第2个Span的成员盘。
各个Span的硬盘数量必须保持一致。
4. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
5. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID10至少需要创建2个Span,最多可以创建8个Span。
步骤 6 配置虚拟磁盘属性。
按照表16-9所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照16.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 选择“Save Configuration”并按“Enter”。
弹出操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 8 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”界面并按“Enter”。
显示当前存在的RAID信息。
----结束
同一台服务器配置了单个9440-8i卡或者多种芯片硬盘控制卡的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。
设置启动项的操作方法请参见BIOS 参数参考的“设置启动设备”章节。
对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
l 用作热备盘的硬盘数据将会丢失。
操作步骤
登录管理界面,具体操作方法请参见16.3.1 登录管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图16-18所示。
步骤 2 配置全局热备盘。
1. 将“Operation”设置为“Assign Global Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
显示The operation has been performed successfully。
3. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作步骤
当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
登录管理界面,具体操作方法请参见16.3.1 登录管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图16-19所示。
步骤 2 配置局部热备盘。
1. 将“Operation”设置为“Assign Dedicated Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
打开当前存在的RAID列表。
3. 选择要关联的RAID并按“Enter”。
4. 选择“OK”按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”,完成配置并返回上级界面。
----结束
操作场景
当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。
操作步骤
登录管理界面,具体操作方法请参见16.3.1 登录管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图16-20所示。
步骤 2 删除热备盘。
1. 将“Operation”设置为“Unassign Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作步骤
登录管理界面,具体操作方法请参见16.3.1 登录管理界面。
步骤 1 进入“Advanced Controller Properties”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
3. 选择“Advanced Controller Properties”并按“Enter”。
步骤 2 设置紧急热备。
1. 选择“Spare”并按“Enter”。
2. 将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如图16-21所示。
3. 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
----结束
操作场景
l 只有RAID 0、RAID 1支持增加硬盘扩容。
l RAID 10不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
l 服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。
l 执行添加新硬盘到RAID操作之前,建议先备份数据。
增加硬盘扩容过程中,如果出现硬盘故障,会导致:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行增加硬盘扩容操作。
操作步骤
登录管理界面。具体操作方法请参见16.3.1 登录管理界面。
步骤 1 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”。
进入虚拟磁盘选项界面,如图16-22所示。
步骤 2 添加新硬盘。
1. 选择要进行扩容的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图16-23所示。
3. 选择“Reconfigure Virtual Drives”,并按“Enter”
4. 选择“Go”并按“Enter”。
5. 选择要扩容的RAID级别。
增加硬盘扩容时,请保证该处的RAID级别与原级别一致。
6. 选择“Choose the Operation”,并按“Enter”。
进入硬盘选择界面,如图16-24所示。
7. 选择要增加的硬盘,并按“Enter”。
l 硬盘状态为“【×】”时表示该硬盘已选择。
l 增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。
l RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。
8. 选择“Apply Changes”并按“Enter”。
进入操作确认界面。
9. 选择“Confirm”并按“Enter”。
10. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
11. 选择“OK”并按“Enter”。
返回到如图16-25所示界面。
12. 选择“Start Operation”并按“Enter”。
显示操作成功。
13. 选择“OK”并按“Enter”。
重新进入虚拟磁盘选项界面,验证扩容结果,如图16-26所示,表示RAID正在进行扩容。
图16-26 Reconfigure Virtual Drives
扩容属于后台动作,在HII界面只能触发而不能正式开始扩容,所以扩容的进度条一直显示为0%。当进入OS后,扩容才会开始进行。
----结束
操作场景
在Virtual Drive未占用成员硬盘全部容量时,可通过调整Virtual Drive的可用空间,扩大Virtual Drive容量。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见16.3.1 登录管理界面。
步骤 1 进入要操作的虚拟磁盘界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图16-27所示。
图16-27 Virtual Drive Management
步骤 2 扩容虚拟磁盘。
1. 将“Operation”设置为“Expand Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入虚拟磁盘扩容界面,如图16-28界面所示,界面参数如表16-11所示。
参数 |
参数说明 |
Current Capacity |
虚拟磁盘当前容量。 |
Available Capacity |
可用于扩展的容量。 |
Enter a Percentage of Available Capacity |
输入扩容比例。 |
Capacity of Virtual Drive after Expansion |
扩容后虚拟磁盘容量。 |
3. 设置扩容百分比。
4. 选择“OK”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作场景
随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。
在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。
对系统的影响
RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行RAID级别迁移操作。
必备事项
前提条件
迁移RAID级别之前,需具备如下条件:
l 已通过远程虚拟控制台登录到服务器的实时操作桌面。
l 当前存在的硬盘个数满足目标RAID级别要求。
l 已登录管理界面,具体操作请参见16.3.1 登录管理界面。
控制卡支持以下级别类型的迁移:
l RAID 0迁移到RAID 1
l RAID 1迁移到RAID 0
RAID迁移对硬盘数量的要求如表16-3所示。
l 当RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
l 迁移只支持增加与RAID组成员盘同类型同规格的硬盘。
l 为防止数据丢失,请在该操作之前备份当前RAID组的数据。
l 只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。
l 迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。
操作步骤
进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”并按“Enter”。
进入虚拟磁盘选项界面,如图16-29所示。
步骤 2 选择RAID迁移的目标级别。
下面以将RAID 0迁移到RAID 1为例进行说明。
1. 选择要进行迁移的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图16-30所示。
3. 选择“Reconfigure Virtual Drives”,并按“Enter”。
4. 选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如图16-31所示。不设置时默认与原RAID组配置一致。
5. 选择“Go”,并按“Enter”。
进入RAID配置界面,如图16-32所示。
图16-32 Reconfigure Virtual Drives
6. 选择“New RAID Level”并按“Enter”。
打开RAID迁移的目标级别选择窗口,如图16-33所示。
7. 选择“RAID 1”并按“Enter”。
步骤 3 添加硬盘。
1. 选择“Choose the operation”并按“Enter”。
打开硬盘选择窗口。
2. 选择要增加的硬盘并按“Enter”。
RAID迁移对硬盘数量的要求请参见表16-3。
3. 选择“Apply Changes”并按“Enter”。
弹出操作确认会话框。
4. 选择“Confirm”并按“Enter”。
5. 选择“Yes”并按“Enter”。
提示操作成功。
6. 按“Esc”返回图16-32界面。
步骤 4 RAID级别迁移。
1. 选择“Start Operation”并按“Enter”。
提示操作成功。
2. 选择“OK”并按“Enter”。
步骤 5 查看迁移结果。
1. 进入Virtual Drive Management界面,检查迁移结果,如图16-34所示,表示RAID正在进行迁移。
l 迁移过程中若重启服务器,该任务将在重启后继续进行。
l 迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。
2. 选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 0”变成“RAID 1”,且“Status”状态显示为“Optimal”时,表示RAID迁移成功。
----结束
迁移属于后台动作,在HII界面只能触发而不能正式开始,所以迁移的进度条一直显示为0%。当进入OS后,迁移才会开始进行。
操作场景
RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见16.3.1 登录管理界面。
步骤 1 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图16-35所示。
图16-35 Virtual Drive Management
步骤 2 删除虚拟磁盘。
1. 将“Operation”设置为“Delete Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作场景
介绍将带有外部配置的硬盘进行重构的操作方法,不带外部配置硬盘的重构方法请参见16.5.1.1 硬盘故障。
操作步骤
在“Main Menu”界面中选择“Drive Management”并按“Enter”。
步骤 1 选中要进行重构的硬盘,按“Enter”。
步骤 2 将“Operation”设置为“Make Unconfigured Good”。
步骤 3 选择“Go”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 按“Enter”完成配置。
硬盘状态变为“(Foreign),Unconfigured Good”。
步骤 5 清除外部配置,具体操作请参见16.4.9 导入和清除外部配置。
RAID组开始进行重构。
----结束
l 当出现硬盘离线情况时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。
l rebuild属于后台动作,在HII界面只能触发而不能正式开始rebuild,所以rebuild的进度条一直显示为0%。当进入OS后,rebuild才会开始进行。
操作场景
用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。
操作步骤
登录管理界面,具体操作方法请参见16.3.1 登录管理界面。
步骤 1 进入“Controller Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
显示RAID控制卡基本信息,如图16-36和图16-37所示,参数说明如表16-12所示。
图16-36 Controller Management(1)
图16-37 Controller Management(2)
参数 |
参数说明 |
Product Name |
RAID控制卡名称。 |
Serial Number |
RAID控制卡序列号。 |
Controller Status |
RAID控制卡的工作状态。 |
Personality Mode |
RAID控制卡的模式。 |
Select Boot Device |
当前启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见16.3.5 配置启动项。 |
PCI ID |
RAID控制卡的PCI ID。 |
PCI Segment:Bus:Device:Fuction |
RAID控制卡的PCI设备索引。 |
PCI Slot Number |
RAID控制卡的PCI槽位号。 |
Package Version |
RAID控制卡的套件版本。 |
Firmware Version |
RAID控制卡的固件版本号。 |
NVDATA Version |
RAID控制卡配置信息的版本号。 |
Supported Device Interfaces |
支持的设备接口。 |
Drive Count |
RAID控制卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID控制卡下已有虚拟磁盘数量。 |
Advanced Controller Management |
更多的控制卡操作。 |
Advanced Controller Properties |
查看和修改控制卡的高级属性。 |
步骤 2 选择“Advanced Controller Properties”并按“Enter”。
进入控制卡高级属性界面,如图16-38所示,参数说明如表16-13所示。
图16-38 Advanced Controller Properties界面(1)
图16-39 Advanced Controller Properties界面(2)
参数 |
说明 |
Patrol Read |
系统巡检。 |
Power Save Setting |
设置硬盘休眠。 |
Spare |
设置控制卡热备状态。 |
Task Rates |
设置各种任务占用系统比率。 |
Alarm Control |
控制卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Coercion Mode |
表示硬盘容量压缩模式,包括: l None l 128MB l 1GB 默认为“1GB”。 说明 硬盘压缩模式可以对不同厂商的相同规格硬盘的容量差异进行取整处理,使不同厂商的硬盘强制为相同的容量,以便可以在同一个RAID组中使用。取整单位可以为None、128MB、1GB,其中None表示RAID控制卡对不同厂商的硬盘不做取整处理。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。 默认为“Stop On Errors”。 |
Controller BIOS |
控制卡BIOS的使能情况。 |
ROC Temperature |
控制卡温度。 |
Shield State Supported |
是否支持暂停I/O,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
硬盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Maintain Drive Fail History |
表示是否使能硬盘故障记录功能,默认为使能状态。 说明 l 该参数设置为“Disabled”时: l 当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。 l 新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。 l 该参数设置为“Enabled”时: l 新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。 l 新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见16.4.9 导入和清除外部配置章节。 |
SMART Polling |
SMART轮巡检测周期。默认值为“300”。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性校验。 |
JBOD Mode |
硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。 |
Large IO Support |
启用或禁用大型I/O支持功能。 |
Unmap Capability |
解除映射能力。 |
Firmware Device Order |
该功能开启后,设置为启动项的RAID组盘符为sda。 说明 开启该功能前,请先确认控制卡驱动与固件配套。 |
Apply Changes |
保存配置。 |
----结束
操作场景
l 服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。
l 新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。
l 如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!
l 为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。
l 当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。
导入外部配置
登录管理界面,具体操作方法请参见16.3.1 登录管理界面。
步骤 1 在主界面中选择“Main Menu”并按“Enter”。
步骤 2 选择“Configuration Management”并按“Enter”。
步骤 3 选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。
进入外部配置管理界面,如图16-40所示。
图16-40 Manage Foreign Configuration
步骤 4 选择“Preview Foreign Configuration”并按“Enter”。
进入外部配置管理界面,如图16-41所示。
图16-41 Preview Foreign Configuration
步骤 5 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 6 选择“Confirm”并按“Enter”。
步骤 7 选择“Yes”,并按“Enter”。
提示The operation has been performed successfully。
步骤 8 选择“OK”并按“Enter”完成配置返回上级界面。
----结束
清空外部配置
登录管理界面,具体操作方法请参见16.3.1 登录管理界面。
步骤 1 在主界面中选择“Main Menu”并按“Enter”。
步骤 2 选择“Configuration Management”并按“Enter”。
步骤 3 选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。
进入外部配置管理界面,如图16-42所示。
图16-42 Manage Foreign Configuration
步骤 4 选择“Preview Foreign Configuration”并按“Enter”。
进入外部配置管理界面,如图16-43所示。
图16-43 Preview Foreign Configuration
步骤 5 选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 6 选择“Confirm”并按“Enter”。
步骤 7 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 8 选择“OK”并按“Enter”完成配置返回上级界面。
----结束
控制卡支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
l 开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。
l JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
登录管理界面,具体操作方法请参见16.3.1 登录管理界面。
步骤 1 依次进入Main Menu>Controller Management>Advanced Controller Properties界面。
步骤 2 选择“JBOD Mode”并按Enter。
步骤 3 选择“Enabled”并按“Enter”。
步骤 4 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 选择“OK”并按“Enter”完成配置。
----结束
该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID0存在一个VD为例(如图16-44所示),详细操作方法如下:
图16-44 Virtual Drive Management
按照“Main Menu > Configuration Management > Create Virtual Drive”的路径进入“Create Virtual Drive”界面,如图16-45所示。
步骤 2 将“Select RAID Level”设置为“RAID0”。
步骤 3 将“Select Drives From”设置为“Free Capacity”,如图16-46所示。
步骤 4 选择“Select Drive Groups”并按“Enter”。
显示当前存在的RAID组(Drive Group),如图16-47所示。
步骤 5 选择要创建多个VD的RAID组,并按“Enter”,如图16-48所示。
步骤 6 选择“Apply Changes”并按“Enter”。
提示操作成功。
步骤 7 选择“OK”并按“Enter”返回VD配置界面,如图16-49所示,参数说明如表16-14所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照16.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 8 按照表16-14所述配置VD的相关属性。
步骤 9 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
步骤 10 选择“Confirm”并按“Enter”。
步骤 11 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
可进入Virtual Drive Management界面,查看当前存在的所有VD,如图16-50所示。
图16-50 Virtual Drive Management
----结束
每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤12。
查询RAID控制卡固件版本的方法有如下几种:
l 在iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。
l 服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见16.7.2.1 查询RAID控制卡配置信息。
回显信息中的“FW Version”字段即为RAID控制卡的固件版本。
l 在RAID控制卡管理界面进行查询,具体方法为:
a. 登录RAID控制卡的管理界面,具体操作请参见16.3.1 登录管理界面。
b. 在主界面中选择“Main Menu”并按“Enter”。
进入“Main Menu”页面,如图16-51所示。
c. 选择“Controller Management”并按“Enter”。
显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如图16-52所示。
图16-52 Controller Management界面
介绍了硬盘故障和RAID控制卡故障的常用处理方法。
更多故障案例请联系技术支持获取。
问题描述
当服务器出现如下现象时,说明硬盘故障。
l 硬盘故障指示灯常亮。
l 服务器开机状态下,硬盘指示灯不亮。
l 服务器上报硬盘故障告警。
处理方法
JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
l 通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。
l 通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。
l 通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考16.6.2.4 Drive Management。
l 通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
步骤 1 更换新硬盘。
l 更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘导致,则可以将硬盘设置为Unconfig Good后,参考16.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。
l 若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在表16-2查看RAID组支持的最大故障硬盘数量。
l 更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。
l 新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。
拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:
l 若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。
l 若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。
l 若故障硬盘为直通盘,则直接更换即可。
l 若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。
− UEFI模式下创建RAID0的方法请参见16.3.2 创建RAID 0。
− 通过命令行方式创建RAID0的方法请参见16.7.2.8 创建和删除RAID。
----结束
问题描述
正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
但当RAID控制卡未设置紧急热备时,成员盘状态显示为fail或prefail时,可使用以下方法处理。
处理方法
使用StorCLI工具,具体操作请参考16.7.1 下载和安装StorCLI工具。
步骤 1 执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考16.7.2.21 设置硬盘状态。
storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]
l controller_id:硬盘所在RAID控制卡的ID
l enclosure_id:硬盘所在Enclosure的ID
l slot_id:物理硬盘槽位ID
步骤 2 更换离线硬盘。
步骤 3 RAID组自动执行重构。
等待重构完成。
----结束
问题描述
硬盘状态显示为Unconfigured Bad或UBad。
处理方法
使用StorCLI工具,具体操作请参见16.7.1 下载和安装StorCLI工具。
步骤 1 执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见16.7.2.21 设置硬盘状态。
storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]
l controller_id:硬盘所在RAID控制卡的ID
l enclosure_id:硬盘所在Enclosure的ID
l slot_id:物理硬盘槽位ID
步骤 2 重新查看硬盘状态是否更改为Unconfigured Good或Ugood。具体操作请参见16.6.2.4 Drive Management界面或16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤4。
步骤 3 查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见16.4.9 导入和清除外部配置或16.7.2.26 查看/导入/清除外部配置。
l 问题解决 => 处理完毕。
l 问题未解决 => 联系技术支持处理。
----结束
问题描述
当服务器出现如下现象时,说明控制卡故障。
l 数据无法写入控制卡控制的硬盘。
l 服务器上报控制卡故障告警。
处理方法
登录iBMC Web界面查看告警信息。
步骤 1 根据告警信息,参考iBMC告警处理。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤3
步骤 3 查询兼容性查询助手或者联系技术支持处理。
----结束
问题描述
正常情况下,当服务器配置了RAID控制卡且RAID控制卡状态正常时,进入BIOS的Advanced页签后,会显示RAID控制卡的信息,如图16-53所示。
如果Advanced页签不显示RAID控制卡的信息,如图16-54所示,则:
l 如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:
− 如果不显示驱动打印信息,可尝试下电后重新拔插RAID控制卡再上电、下电后更换RAID控制卡再上电或者联系技术支持。
− 如果显示“AVAGO EFI SAS Driver”,则可以通过本章节的指导修复RAID控制卡。
l 如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,则可以通过本章节的指导修复RAID控制卡;如果不显示,可尝试下电后重新拔插RAID控制卡再上电、下电更换RAID控制卡再上电或者联系技术支持。
处理方法
l 当BIOS的版本为0.98之前版本(不包含0.98版本)时:
a. 在Advanced页签选择“Driver Health Manager”并按Enter。
进入“Driver Health Manager”界面。
b. 选择要进行修复的RAID控制卡驱动,如“AVAGO EFI SAS Driver”,并按“Enter”。
进入“Critical Message”界面。
c. 查看“Critical Message”界面的打印信息:
n 显示“The following VDs have missing disks. ”=> 请参见16.5.3.1 The following VDs have missing disks。
n 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见16.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
l 当BIOS的版本为0.98及以上版本时:
a. 在“Advanced”页签选择“Some drivers are not healthy”。
进入健康状态查询界面。
b. 选择“Repair the whole platform”,并按“Enter”。
进入“Critical Message”界面。
c. 查看“Critical Message”界面的打印信息。
n 显示“The following VDs have missing disks. ”=> 请参见16.5.3.1 The following VDs have missing disks。
n 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见16.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见0RAID控制卡启动中出现的常见的错误消息及处理方法。
问题描述
如图16-55所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。
处理方法
修复RAID控制卡。
1. 在图16-55中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
2. 输入“C”并按“Enter”。
3. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
4. 输入“y”并按“Enter”。
提示“Critical Message handling completed. Please exit”。修复完成。
步骤 1 重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图16-56所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”
处理建议
该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:
l 下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。
l 忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:
a. 在图16-56中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
b. 输入“c”并按“Enter”。
c. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
d. 输入“y”并按“Enter”。
提示Critical Message handling completed. Please exit。
e. 按“Esc”退出当前界面。
弹出确认保存配置会话框,如图16-57所示。
f. 按“Y”保存配置,操作完成。
g. 按Esc键返回“Device Manager”界面。
h. 选择9440-8i RAID控制卡,并按“Enter”,进入RAID控制卡管理界面。
问题描述
如图16-58所示,进入“Driver Healthy Protocol Utility”界面后,显示“Disabling writes to flash as the flash part has gone bad”。
处理方法
将服务器下电。
步骤 1 更换RAID控制卡。
步骤 2 将服务器上电,导入外部配置恢复原来的RAID配置,请参见16.4.9 导入和清除外部配置或16.7.2.26 查看/导入/清除外部配置。
检查提示是否清除。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
硬盘响应命令超时,控制卡会对硬盘进行复位。3次复位后尚未恢复时将可能耗尽控制卡TM(Task Management)资源,触发Fatal error,此时会通过OCR(Online Controller Reset)自愈恢复,期间将有短时间业务中断(约30s~60s),控制卡复位后会完成踢盘,将故障硬盘置为Ubad状态。
控制卡自愈恢复,需要开启OCR开关。
触发条件
当下发到硬盘的I/O出现超时不响应的情况时,RAID控制卡会通过reset硬盘来恢复,正常情况下,硬盘会重新接入或者多次reset之后会进行踢盘。
当出现reset之后硬盘仍然无法响应RAID控制卡指令且无法踢盘时,RAID控制卡会再次reset进行复位,每次reset会占用RAID控制卡资源,短时间内多次reset会导致RAID控制卡资源耗尽,该场景下,RAID控制卡会通过重新加载FW进行恢复。
该机制为此类卡的正常处理机制,由于架构限制,无法进行优化。
识别方法
l 已安装OS:
当遇到短时间业务中断,恢复后查看有被置为Ubad状态的硬盘时,可以查看控制卡日志,搜索dm.c并查看其发生时间,如与业务中断时间节点接近,即可断定为触发了该机制。
注意控制卡与OS时间差。
l 未安装OS:
无OS时,触发该机制的操作为:从“Advanced”页签进入控制卡界面。若触发该机制,进入控制卡卡操作界面时将会卡住,无法恢复。
处理方法
定位故障硬盘。
l 已安装OS:
− 如确认触发了该机制并且已经完成了踢盘,需要更换Ubad状态的硬盘。
− 如无Ubad状态的硬盘,查看日志并搜索“indicates critical condition”,目标行的“element xx indicates critical condition”中,“xx”即为问题硬盘的槽位号。
已安装OS,但是进入“Advanced”页签的控制卡操作界面卡住,需要重新上下电进入OS,按照以上方式定位故障硬盘。
l 未安装OS:
系统未安装OS,出现该异常时,保留预安装OS RAID组数目的硬盘,将其他硬盘拔出并记录槽位号,如成功安装OS进入系统后,按照已安装OS的操作来确认问题硬盘。
步骤 1 更换故障硬盘。
l 是 => 处理完毕。
l 否 => 请联系技术支持。
----结束
问题描述
RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD mode将RAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如图16-59所示,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。
当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。
处理方法
(可选)登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面。
步骤 1 依次进入Main Menu>Controller Management>Advanced Controller Management界面,如图16-60所示。
图16-60 Advanced Controller Management界面
步骤 2 选择“Switch to RAID mode”并按“Enter”。
提示操作成功,如图16-61所示。
步骤 3 选择“OK”并按“Enter”。
返回到“Advanced Controller Management”界面,显示正在切换模式,如图16-62所示。
图16-62 Advanced Controller Management界面
步骤 4 按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面。
步骤 5 依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如图16-63所示。
图16-63 Advanced Controller Management界面
l 是 => 处理完毕。
l 否 => 请联系技术支持。
----结束
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器。
步骤 2 重启过程中,当出现如图16-64所示界面时,按“Delete”。
步骤 3 输入密码并按“Enter”。
进入如图16-65所示界面。
步骤 4 按“→”切换到“Advanced”页签,如图16-66所示。
如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见16.5.3 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy进行修复。
步骤 5 选择要操作的9440-8i控制卡,按“Enter”。
进入如图16-67和图16-68所示主界面,界面参数如表16-15所示。
参数 |
说明 |
Main Menu |
RAID控制卡主菜单,包含了RAID控制卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID控制卡当前工作状态。 |
Backplane |
背板个数。 |
CacheVault |
是否支持Cache。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的硬盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID控制卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 说明 仅当控制卡存在外部配置时,会显示该选项。 |
Configure |
提供删除配置的接口。 |
Set Factory Defaults |
恢复出厂设置。 |
Update Firmware |
升级固件。 |
Silence Alarm |
板载蜂鸣器的使能状态。 说明 控制卡未配置蜂鸣器,此项设置不起作用。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。
界面介绍
“Main Menu”界面如图16-69,参数说明如表16-16所示。
参数 |
参数说明 |
Configuration Management |
配置管理RAID。 |
Controller Management |
管理RAID控制卡。 |
Virtual Drive Management |
管理虚拟磁盘。 |
Drive Management |
管理硬盘。 |
Hardware Components |
查询部件信息。 |
可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。
界面介绍
“Configuration Management”界面如图16-70,参数说明如表16-17所示。
图16-70 Configuration Management
参数 |
参数说明 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。 |
View Drive Group Properties |
查看硬盘组属性。 当存在硬盘组时会显示该参数。 |
Make JBOD |
硬盘直通功能,硬盘不加入RAID,直接使用。 |
Clear Configuration |
清除配置。 |
Manage Foreign Configuration |
管理外部配置。 当存在外部配置时会显示该参数。 |
快速创建RAID
在图16-70中选择“Create Profile Based Virtual Drive”并按“Enter”。
步骤 1 通过“↑”、“↓”选择要创建的RAID(以“Generic RAID 1”为例)并按“Enter”。
打开RAID配置界面,如图16-71,参数说明如表16-18所示。
参数 |
参数说明 |
Drive Selection Criteria |
系统自动选择的成员盘。 |
Virtual Drive Name |
系统自定义的RAID组名称。 |
RAID Level |
当前配置的RAID组的级别。 |
Virtual Drive Size |
RAID组的容量。 |
Power Save Mode |
数据掉电保护模式。 |
Strip Size |
RAID组扇区大小。 |
Read Policy |
RAID组的数据读策略。 |
Write Policy |
RAID组的数据写策略。 |
IO Policy |
RAID组I/O策略。 |
Access Policy |
数据读写的策略。 |
Drive Cache |
硬盘Cache策略。 |
Create Dedicated Hot Spare |
是否为RAID组创建局部热备盘。 |
Save Configuration |
保存当前配置。 |
步骤 2 按表16-18所示查看或配置相关参数。
步骤 3 选择“Save Configuration”并按“Enter”。
弹出操作确认界面。
步骤 4 选择“Confirm”并按“Enter”。
步骤 5 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 6 选择“OK”并按“Enter”完成配置。
----结束
查看虚拟磁盘属性
在图16-70中选择“View Drive Group Properties”并按“Enter”。
图16-72 View Drive Group Properties
参数 |
参数说明 |
Drive Group |
硬盘组名称。 |
Capacity Allocation |
硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。 |
该界面提供控制卡管理接口,可查看并修改控制卡的详细参数。
界面介绍
“Controller Management”界面如图16-73和图16-74所示,参数说明如表16-20所示。
图16-73 Controller Management(1)
图16-74 Controller Management(2)
参数 |
参数说明 |
Product Name |
RAID控制卡名称。 |
Serial Number |
RAID控制卡序列号。 |
Controller Status |
RAID控制卡的工作状态。 |
Personality Mode |
RAID控制卡的模式。 |
Select Boot Device |
当前启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见16.3.5 配置启动项。 |
PCI ID |
RAID控制卡的PCI ID。 |
PCI Segment:Bus:Device:Fuction |
RAID控制卡的PCI设备索引。 |
PCI Slot Number |
RAID控制卡的PCI槽位号。 |
Package Version |
RAID控制卡的套件版本。 |
Firmware Version |
RAID控制卡的固件版本号。 |
NVDATA Version |
RAID控制卡配置信息的版本号。 |
Supported Device Interfaces |
支持的设备接口。 |
Drive Count |
RAID控制卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID控制卡下已有虚拟磁盘数量。 |
Advanced Controller Management |
更多的控制卡操作。 |
Advanced Controller Properties |
查看和修改控制卡的高级属性。 |
查看并修改控制卡高级属性
在图16-73中选择“Advanced Controller Properties”并按“Enter”。
界面如图16-75和图16-76所示,界面中参数说明如表16-21所示。
图16-75 Advanced Controller Properties界面(1)
图16-76 Advanced Controller Properties界面(2)
参数 |
说明 |
Patrol Read |
系统巡检。 |
Power Save Setting |
设置硬盘休眠。 |
Spare |
设置控制卡热备状态。 |
Task Rates |
设置各种任务占用系统比率。 |
Alarm Control |
控制卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Coercion Mode |
表示硬盘容量压缩模式,包括: l None l 128MB l 1GB 默认为“1GB”。 说明 硬盘压缩模式可以对不同厂商的相同规格硬盘的容量差异进行取整处理,使不同厂商的硬盘强制为相同的容量,以便可以在同一个RAID组中使用。取整单位可以为None、128MB、1GB,其中None表示RAID控制卡对不同厂商的硬盘不做取整处理。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。 默认为“Stop On Errors”。 |
Controller BIOS |
控制卡BIOS的使能情况。 |
ROC Temperature |
控制卡温度。 |
Shield State Supported |
是否支持暂停I/O,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
硬盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Maintain Drive Fail History |
表示是否使能硬盘故障记录功能,默认为使能状态。 说明 l 该参数设置为“Disabled”时: l 当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。 l 新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。 l 该参数设置为“Enabled”时: l 新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。 l 新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见16.4.9 导入和清除外部配置章节。 |
SMART Polling |
SMART轮巡检测周期。默认值为“300”。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性校验。 |
JBOD Mode |
硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。 |
Large IO Support |
启用或禁用大型I/O支持功能。 |
Unmap Capability |
解除映射能力。 |
Firmware Device Order |
该功能开启后,设置为启动项的RAID组盘符为sda。 说明 开启该功能前,请先确认控制卡驱动与固件配套。 |
Apply Changes |
保存配置。 |
步骤 2 在图16-75中选择“Task Rates”并按“Enter”。界面如图16-77所示,界面中参数说明如表16-22所示。
参数 |
说明 |
Background Initialization <BGI> Rate |
设置执行后台初始化的速率。 说明 数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Consistency Check Rate |
设置执行一致性校验的速率。 说明 数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Patrol Read Rate |
设置执行巡检读取的速率。 说明 数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Rebuild Rate |
设置硬盘发生故障时在新硬盘上执行重构数据的速率。 说明 数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Reconstruction Rate |
设置执行RAID级别迁移或在线容量扩展时重构数据的速率。 说明 数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Apply Changes |
保存配置。 |
步骤 3 按照表16-21所述修改控制卡的高级属性参数。
步骤 4 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 选择“OK”并按“Enter”完成配置。
----结束
该界面提供虚拟磁盘的查询和管理接口。
界面介绍
“Virtual Drive Management”界面如图16-78,显示虚拟磁盘列表。
选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如图16-79所示,参数说明如表16-23所示。
图16-79 Virtual Drive Management
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:定位虚拟磁盘的所有硬盘。 l Stop Locate:取消定位。 l Delete Virtual Drive:删除虚拟磁盘。 l Expand Virtual Drive:扩展虚拟磁盘容量。 l Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。 l Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。 l Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。 l Fast Initialization:快速初始化虚拟磁盘。 l Slow Initialization:安全初始化虚拟磁盘。 l Check Consistency:一致性校验。 l Virtual Drive Erase:格式化虚拟磁盘。 |
Progress |
当前任务进度。 l 仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。 l 当前界面不会自动刷新,需退出后重新进入查看当前进度。 |
Stop |
停止当前任务。 仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。 |
Name |
虚拟磁盘名称。 |
Raid Level |
虚拟磁盘RAID级别。 |
Status |
虚拟磁盘当前运行状态。 |
Size |
虚拟磁盘容量。 |
View Associated Drives |
查看成员盘属性。 |
Advanced... |
查看虚拟磁盘高级属性。 |
查看成员盘属性
在图16-79中选择“View Associated Drives”并按“Enter”。
界面如图16-80,显示成员盘列表。
步骤 2 选择要查看的成员盘,并按“Enter”。
步骤 3 选择“View Drive Properties”并按“Enter”。
进入硬盘属性界面,如图16-81界面所示,界面参数如表16-24所示。
参数 |
参数说明 |
Operation |
该成员盘可执行的操作,包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Place Drive Online/Offline:将硬盘上线/离线。 |
Drive ID |
成员盘的ID。 |
Connection |
硬盘接口。 |
Enclosure Position |
机箱或背板的位置。 |
Slot Number |
硬盘的槽位号。 |
Status |
成员盘的当前工作状态。 |
Size |
成员盘的容量。 |
Type |
成员盘类型。 |
Model |
成员盘的模块类型。 |
Serial Number |
硬盘的序列号。 |
Hardware Vendor |
成员盘的生产厂商。 |
Associated Virtual Drive |
成员盘所在的虚拟磁盘。 |
Advanced... |
查询成员盘更多属性。 |
----结束
查看和修改虚拟磁盘高级属性
在图16-79中选择“Advanced”并按“Enter”。
界面如图16-82和图16-83所示,界面参数如表16-25所示。
参数 |
参数说明 |
Logical Sector Size |
逻辑扇区大小。 |
Strip Size |
条带大小。 |
Starting Logical Block Addressing |
逻辑单元起始地址。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 当成员盘为512B/512B时: l Default:逻辑盘扇区为512B/512B。 l None:逻辑盘扇区为512B/512B。 l Force:逻辑盘扇区为512B/4KB。 当成员盘为512B/4KB时: l Default:逻辑盘扇区为512B/4KB。 l None:逻辑盘扇区为512B/512B。 l Force:逻辑盘扇区为512B/4KB。 |
Bad Blocks |
是否支持坏块处理。 |
Access |
数据读取的策略,分以下三种: l Read Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Current Write Cache Policy |
当前写Cache策略。默认为“Write Through”。 说明 “Write Through”表示当硬盘子系统接收到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。 |
Default Write Cache Policy |
默认的写Cache策略。 |
Disable Background Initialization |
是否禁用后台初始化。 |
Read Cache Policy |
当前读Cache策略,默认为“No Read Ahead”,即关闭预读取功能。 说明 不支持在该界面设置读Cache策略。 |
Drive Cache |
是否支持cache。 |
Input/Output |
I/O读取策略,默认为“Direct”,即直接从硬盘读取数据,不经过Cache缓存。 说明 不支持在该界面设置I/O读取策略。 |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 不支持设置该功能。 |
Apply Changes |
保存配置。 |
步骤 2 按照表16-25所述配置“Advanced”的参数。
步骤 3 选择“Apply Changes”并按“Enter”。
显示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面显示硬盘基本属性,提供硬盘操作接口。
界面介绍
“Drive Management”界面如图16-84所示,显示硬盘列表。
选定要操作的硬盘并按“Enter”进入详细操作界面,如图16-85所示,参数说明如表16-26所示。
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Initialize Drive:硬盘初始化。 l Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。 − Simple:仅对硬盘进行一轮擦除动作。 − Normal:对硬盘进行三轮擦除动作。 − Thorough:对硬盘进行九轮擦除动作。 − Stop Erase:停止数据擦除操作。 l Make Unconfigured Good/Bad:修改硬盘状态。 l Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。 l Assign Global Hot Spare Drive:设置全局热备盘。 l Assign Dedicated Hot Spare Drive:设置局部热备盘。 l Unassign Hot Spare Drive:删除热备盘。 l Prepare for Removal:硬盘拔出前的准备工作。 l Place Drive Online:将Offline状态的硬盘设置为Online。 说明 l Place Drive Online操作只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。 l 如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。 l 对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。 |
Drive ID |
硬盘的ID。 |
Connection |
硬盘接口。 |
Enclosure Position |
机箱或背板的位置。 |
Slot Number |
硬盘的槽位号。 |
Status |
硬盘的当前工作状态。 |
Size |
硬盘的容量。 |
Type |
硬盘的类型。 |
Model |
硬盘型号。 |
Serial Number |
硬盘的序列号。 |
Hardware Vendor |
硬盘的生产厂商。 |
Advanced... |
查询更多硬盘属性。 |
安全擦除硬盘数据
该操作会删除硬盘上的数据,请谨慎执行。
将“Operation”设置为“Drive Erase”。
步骤 1 选择“Erase Mode”并按“Enter”。
步骤 2 在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。
步骤 3 选择“Go”并按“Enter”。
步骤 4 选择“Confirm”并按“Enter”。
步骤 5 选择“Yes”并按“Enter”。
提示操作成功。
----结束
查看硬盘属性
选择“Advanced...”并按“Enter”。
打开硬盘属性界面,如图16-86和图16-87所示,参数说明如表16-27所示。
图16-87 “Drive Properties”界面(2)
参数 |
参数说明 |
Certified |
硬盘是否有供应商认证。 |
Logical Sector Size |
逻辑扇区大小。 |
Physical Sector Size |
物理扇区大小。 |
SMART Status |
SMART功能是否使能。 |
Revision |
硬盘Firmware版本。 |
Media Errors |
Media error个数。 |
Predicted Fail Count |
Pred fail个数。 |
SAS Address |
硬盘SAS地址。 |
Mutipath |
该功能为支持检测和使用从RAID控制卡到盘柜中的SAS设备的多条路径,连接到盘柜的设备有多条路径。到设备同一端口的冗余路径,可以保障当其中一条路径发生故障时,控制卡和设备之间可以使用另一条路径进行通信。同时使用具有负载平衡的多条路径,而不是单条路径,可以通过冗余来提高可靠性。 |
Drive Power State |
硬盘上电状态。 |
Cache Setting |
是否可设置Cache。 |
Disk Protocol |
硬盘支持的协议。 |
Capable Speed |
硬盘速率。 |
Negotiated Speed |
硬盘数据传输速率。 |
Number of Connections |
连接器个数。 |
FDE Capable |
硬盘是否支持FDE(Full Disk Encryption)技术。 |
Cryptographic Erase Capable |
硬盘是否支持加密擦除功能。 |
Unmap Capable |
解除映射能力。 |
Unmap Capability for Configuration |
取消映射配置功能。 |
Temperature |
硬盘温度。 |
该界面主要提供RAID控制卡传感器信息。
界面介绍
“Hardware Components”界面如图16-88,参数说明如表16-28所示。
参数 |
参数说明 |
Temperature Sensors |
当前温度传感器状态。 |
Fans |
当前风扇模块工作状态。 |
Power Supplies |
当前供电模块工作状态。 |
Enclosure Management |
部件管理。 |
提供RAID控制卡操作管理接口。
界面介绍
“View Server Profile”界面如图16-89所示,参数说明如表16-29所示。
参数 |
参数说明 |
UEFI Spec Version |
服务器支持的UEFI Spec版本。 |
Controller Management |
提供控制卡管理接口,详细情况请参见16.6.2.2 Controller Management。 |
Hardware Components |
提供控制卡部件查询接口,详细情况请参见16.6.2.5 Hardware Components。 |
Drive Management |
提供硬盘管理接口,详细情况请参见16.6.2.4 Drive Management。 |
Virtual Drive Management |
提供虚拟磁盘管理接口,详细情况请参见16.6.2.3 Virtual Drive Management。 |
该界面可查看、导入、清空外部配置。
界面介绍
“Manage Foreign Configuration”界面如图16-90所示。
图16-90 Manage Foreign Configuration
查看并导入外部配置
选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图16-91所示。
图16-91 View Foreign Configuration
步骤 2 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 3 选择“Confirm”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 选择“OK”并按“Enter”完成配置。
----结束
清除外部配置
选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 选择“OK”并按“Enter”完成配置。
----结束
该界面可清除当前所有配置。
界面介绍
“Configure”界面如图16-92所示,参数说明如表16-30所示。
参数 |
参数说明 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。 |
View Drive Group Properties |
查看硬盘组属性。 当存在硬盘组时会显示该参数。 |
Make JBOD |
硬盘直通功能,硬盘不加入RAID,直接使用。 |
Clear Configuration |
清除当前配置。 |
清除当前配置
选择“Clear Configuration”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 选择“OK”并按“Enter”完成配置。
----结束
恢复出厂配置
在主界面选择“Set Factory Defaults”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 选择“OK”并按“Enter”完成配置。
----结束
该界面提供RAID控制卡高级软件特性查看和导入接口。
界面介绍
“Manage MegaRAID Advanced Software Options”界面如图16-93所示,界面中参数说明如表16-31所示。
图16-93 Manage MegaRAID Advanced Software Options
参数 |
说明 |
SAFE ID |
RAID控制卡的安全编码。 |
Serial Number |
RAID控制卡序列号。 |
Activation Key |
待激活的高级特性的Key。 |
Active |
激活高级特性。 说明 不支持高级特性的激活操作,该功能无效。 |
Deactive All Trail Software |
注销当前所有高级特性。 |
退出配置界面
在9440-8i主界面按“ESC”,显示如图16-94所示界面。
步骤 2 按F10退出BIOS。
弹出操作确认窗口。
步骤 3 选择“OK”并按Enter。
退出BIOS,显示“ Press Control+Alt+Delete to reboot”。
----结束
使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。
下载工具
步骤 1 在“DOWNLOADS”页签中单击“Management Software and Tools”。
打开管理软件和工具列表。
步骤 2 下载最新版本的“StorCLI”工具。
步骤 3 解压后得到适用于不同操作系统的工具包。
----结束
安装工具
使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。
步骤 1 在Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。
StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。
安装完毕后,即可执行RAID控制卡命令。
----结束
命令功能
查询9440-8i的基本配置信息。
命令格式
storcli64 /ccontroller_id show
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID |
使用指南
建议保持默认配置。
使用实例
# 查询RAID控制卡配置信息。
[root@localhost ~]# storcli64 /c0
show
Generating detailed summary of the adapter, it may take a while to complete.
CLI Version = 007.0913.0000.0000 Jan 11, 2019
Operating system = Linux 4.19.36-vhulk1907.1.0.h608.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Product Name = AVAGO MegaRAID SAS 9440-8i
Serial Number = SP93000051
SAS Address = 500605b00f3999e0
PCI Address = 00:03:00:00
System Time = 03/03/2020 16:35:38
Mfg. Date = 07/29/19
Controller Time = 03/03/2020 08:35:37
FW Package Build = 51.12.0-3097
BIOS Version = 7.12.03.0_0x070C0300
FW Version = 5.120.01-2995
Driver Name = megaraid_sas
Driver Version = 07.712.02.00
Vendor Id = 0x1000
Device Id = 0x17
SubVendor Id = 0x1000
SubDevice Id = 0x9440
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 3
Device Number = 0
Function Number = 0
Drive Groups = 1
TOPOLOGY :
========
---------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size
PDC PI SED DS3 FSpace TR
---------------------------------------------------------------------------
0 - - -
- RAID0 Optl N 1.089 TB dflt N N dflt
N N
0 0 - -
- RAID0 Optl N 1.089 TB dflt N N dflt
N N
0 0 0 69:0 0
DRIVE Onln N 1.089 TB dflt N N dflt
- N
---------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 1
VD LIST :
=======
-------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC
Size Name
-------------------------------------------------------------
0/0 RAID0 Optl RW
Yes NRWTD - ON 1.089 TB
-------------------------------------------------------------
EID=Enclosure Device ID| VD=Virtual Drive| DG=Drive Group|Rec=Recovery
Cac=CacheCade|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read
Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 1
PD LIST :
=======
--------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz
Model Sp Type
--------------------------------------------------------------------------
69:0 0 Onln 0 1.089 TB SATA SSD
N N 512B SSDSC2BB012T7H U -
--------------------------------------------------------------------------
EID=Enclosure Device ID|Slt=Slot No.|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=Unsupported|UGShld=UnConfigured shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported
命令功能
查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。
命令格式
storcli64 /ccontroller_id show spinupdelay
storcli64 /ccontroller_id show spinupdrivecount
storcli64 /ccontroller_id set spinupdelay=time
storcli64 /ccontroller_id set spinupdrivecount=count
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
每组起转硬盘间的时间间隔 |
默认为2,单位为s。 |
count |
上电时允许同时起转的硬盘数量 |
默认为4。 |
查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
建议保持默认配置。
使用实例
# 查询RAID控制卡Spinup参数。
domino:~# ./storcli64 /c0 show
spinupdelay
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
domino:~# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 2
--------------------------
# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。
domino:~# ./storcli64 /c0 set
spinupdelay=20
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Spin Up Delay 20 second(s)
---------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 5
--------------------------
命令功能
设置空闲硬盘和热备盘的省电模式。
命令格式
storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID。 |
– |
state |
省电模式的启用状态。 |
l on:启用 l off:禁用 |
disktype |
硬盘类型。 |
l 1:空闲硬盘 l 2:热备盘 |
time |
等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。 |
单位为minutes。 |
查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置空闲硬盘的省电模式。
domino:~# ./storcli64 /c0 set
ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------
Ctrl_Prop Value
------------------------
SpnDwnUncDrv Enabled
SpnDwnTm 30 minutes
------------------------
命令功能
设置物理硬盘初始化功能,查询初始化进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
action |
要执行的操作 |
l show:查看初始化进度 l start:开始初始化 l stop:结束初始化 |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 初始化slot3硬盘,并查询初始化进度。
domino:~# ./storcli64 /c0/e252/s3
start initialization
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show initialization
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status
Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0
Seconds
------------------------------------------------------
命令功能
设置物理硬盘数据擦除模式,查询擦除进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
mode |
数据擦除模式 |
l simple:对硬盘进行一轮擦除动作。 l normal:对硬盘进行三轮擦除动作。 l thorough:对硬盘进行九轮擦除动作。 |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。
domino:~# ./storcli64 /c0/e252/s3
start erase simple
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status
Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0
Seconds
------------------------------------------------------
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.
命令功能
设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。
命令格式
storcli64 /ccontroller_id set action=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
action |
要设置的项目 |
l bgirate:后台初始化速率 l ccrate:一致性校验速率 l prrate:硬盘巡检速率 l rebuildrate:RAID重构速率 l reconrate:RAID扩容和迁移速率 |
value |
后台任务资源占用率 |
1~100 |
查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置硬盘巡检速率为“30%”。
domino:~# ./storcli64 /c0 set
prrate=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
Patrol Read Rate 30%
-----------------------
命令功能
设置控制卡BIOS在检测到异常时停止继续启动的功能。
命令格式
storcli64 /ccontroller_id set bios mode=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
action |
要执行的操作 |
l soe:控制卡BIOS在检测到异常时停止启动 l ie:忽略检测到的异常 |
查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启Stop on error功能。
domino:~# ./storcli64 /c0 set bios
mode=soe
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------
命令功能
创建、删除RAID。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id add vd rlevel[0|1|10] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid] |
创建RAID组 |
storcli64 /ccontroller_id/vraid_id del |
删除RAID组 |
*表示默认值。
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
rlevel |
要配置的RAID组级别 |
level可为0、1、10,数字分别代表对应的RAID组级别。 |
size |
要配置的RAID组容量 |
默认值为all,即所有成员盘的容量之和。 |
name |
要配置的RAID组名称 |
- |
drives |
要加入RAID组的硬盘 |
- |
startid-endid |
硬盘的起始和结束ID |
- |
slot_id |
硬盘ID |
- |
pdperarray |
子组中的硬盘数 创建RAID10时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。 |
- |
pdcache |
设置RAID的成员盘的Cache状态 |
l on l off l default |
pi |
使能数据保护 |
- |
EmulationType |
控制逻辑盘在OS中上报的扇区 |
l 0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l 1: Disable,即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l 2:Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Spares |
指定RAID组的热备盘 |
- |
raid_id |
要删除的RAID组的ID |
- |
l 以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
l 当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid。
使用指南
无
使用实例
# 创建RAID 0。
domino:~# ./storcli64 /c0 add vd
r0 size=100GB drives=252:0-3
Controller = 0
Status = Success
Description = Add VD Succeeded
# 删除RAID。
domino:~# ./storcli64 /c0/v0 del
Controller = 0
Status = Success
Description = Delete VD Succeeded
命令功能
设置RAID前台初始化模式。
命令格式
storcli64 /ccontroller_id/vraid_id start mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
前台初始化模式 |
l init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。 l init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。 |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 快速初始化RAID。
domino:~# ./storcli64 /c0/v0 start
init
Controller = 0
Status = Success
Description = Start INIT Operation Success
命令功能
暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。
命令格式
storcli64 /ccontroller_id/vraid_id action bgi
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
action |
后台初始化的操作 |
l show:查看后台初始化进度 l pause:暂停后台初始化 l resume:继续后台初始化 l stop:停止后台初始化 |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查看后台初始化进度。
domino:~# ./storcli64 /c0/v0 show
bgi
Controller = 0
Status = Success
Description = Noe
VD Operation Status :
===================
------------------------------------------------------
VD Operation Progress% Staus Estimated Time
Left
------------------------------------------------------
0
BGI
3 In progress 53 Minutes
------------------------------------------------------
命令功能
设置虚拟磁盘或物理硬盘为启动项。
命令格式
storcli64 /ccontroller_id/vvd_id set bootdrive=on
storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
vd_id |
待设置的虚拟磁盘的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置VD0为启动项。
domino:~# ./storcli64 /c0/v0 set
bootdrive=on
Controller = 0
Status = Success
Description = Noe
Detailed Status :
===============
----------------------------------------
VD Property Value Staus ErrCd ErrMsg
----------------------------------------
0 Boot Drive On Success 0 -
----------------------------------------
# 设置slot 7硬盘为启动项。
domino:~# ./storcli64 /c0/e252/s7
set bootdrive=on
Controller = 0
Status = Success
Description = Noe
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
BootDrive PD:252_7
-------------------
命令功能
设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。
命令格式
storcli64 /ccontroller_id set eghs eug=state
storcli64 /ccontroller_id set eghs smarter=state
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
state |
紧急热备功能的启用状态 |
l on:启用 l off:禁用 |
查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。
domino:~# ./storcli64 /c0 set eghs
eug=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------
Ctrl_Prop Value
------------------
EmergencyUG ON
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
EmergencySmarter ON
-----------------------
命令功能
设置全局热备盘和局部热备盘。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive |
设置全局热备盘。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=<N|0,1,2..>] |
设置局部热备盘。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive |
删除热备盘。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
dgs |
硬盘组的ID |
l 不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘 l 0,1,2..:硬盘组ID |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置slot 3硬盘为全局热备盘。
domino:~# ./storcli64 /c0/e252/s3
add hotsparedrive
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
# 设置slot 3硬盘为vd0的局部热备盘。
domino:~# ./storcli64 /c0/e252/s3
add hotsparedrive dgs=0
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
命令功能
开始、暂停、继续、停止RAID重构,并查询进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action rebuild
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
action |
要执行的操作 |
l start:开始重构 l show:查看重构进度 l pause:暂停重构 l resume:继续重构 l stop:停止重构 |
查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 手动开始重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
# 查看硬盘当前重构状态。
[root@localhost ~]# ./storcli64
/c0/e70/s7 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e70/s7 5 In progress 26
Minutes
-----------------------------------------------------
# 暂停硬盘重构进程。
[root@localhost ~]# ./storcli64
/c0/e70/s7 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Succeeded.
# 继续重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 resume rebuild
Controller = 0
Status = Success
Description = Resume Drive Rebuild Succeeded.
# 停止重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 stop rebuild
Controller = 0
Status = Success
Description = Stop Drive Rebuild Succeeded.
命令功能
开始、暂停、继续、停止回拷,并查询进度。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id start copyback target=target_enclosure_id:target_slot_id |
开始回拷。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id action copyback |
暂停、继续、查看、停止回拷。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
target_enclosure_id |
执行回拷的目标硬盘所在Enclosure的ID。 |
- |
target_slot_id |
执行回拷的目标物理硬盘槽位编号。 |
- |
action |
要执行的操作 |
l show:查看回拷进度 l pause:暂停回拷 l resume:继续回拷 l stop:停止回拷 |
查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 手动开始回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s7 start copyback target=70:3
Controller = 0
Status = Success
Description = Start Drive Copyback Succeeded.
# 查看硬盘当前回拷状态。
[root@localhost ~]# ./storcli64
/c0/e70/s3 show copyback
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e70/s3 17 In progress 16 Minutes
-----------------------------------------------------
# 暂停硬盘回拷进程。
[root@localhost ~]# ./storcli64
/c0/e70/s3 pause copyback
Controller = 0
Status = Success
Description = Pause Drive Copyback Succeeded.
# 继续回拷。
[root@localhost ~]# ./storcli64 /c0/e70/s3
resume copyback
Controller = 0
Status = Success
Description = Resume Drive Copyback Succeeded.
# 停止回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s3 stop copyback
Controller = 0
Status = Success
Description = Stop Drive Copyback Succeeded.
命令功能
设置Smart扫描周期。
命令格式
storcli64 /ccontroller_id set smartpollinterval=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
value |
Smart扫描周期 |
单位为s。 |
查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Smart扫描周期为“60s”。
domino:~# ./storcli64 /c0 set
smartpollinterval=60
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
命令格式
storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
vd_id |
要扩容的RAID的ID |
– |
capacity |
扩容后的容量 |
– |
expandarray |
当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。 |
– |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查询VD的可扩展容量。
[root@localhost ~]# storcli64 /c0/v1
show expansion
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
EXPANSION INFORMATION :
=====================
--------------------------------------------
VD Size OCE NoArrExp WithArrExp Status
--------------------------------------------
1 10.000 GB Y 3.627 TB 5.447 TB -
--------------------------------------------
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion
VD=Virtual Drive | NoArrExp - Without Array Expansion
如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。
# 将VD0的容量扩大“200GB”。
domino:~# ./storcli64 /c0/v0
expand size=200GB
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize
AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
0 100.0 GB 457.861 GB 200.0 GB 201.458 GB
44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %
RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
当增加新盘后,可进行RAID级别迁移。
命令格式
storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
vd_id |
要操作的RAID的ID |
– |
slot_id |
要加入RAID的新硬盘的槽位号 |
– |
level |
增加硬盘后RAID的级别 |
l 与原RAID级别相同时,该命令为扩大RAID容量。 l 与原RAID级别不同时,该命令为RAID级别迁移。 |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 在RAID 0中增加slot 2硬盘扩容。
domino:~# ./storcli64 /c0/v0 start
migrate type=r0 option=add drives=252:2
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time
Left
-------------------------------------------------------
0 Migrate 1
In progress 13 Minutes
-------------------------------------------------------
# 单盘RAID 0加盘迁移至RAID 1。
domino:~# ./storcli64 /c0/v0 start
migrate type=r1 option=add drives=252:3
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time
Left
-------------------------------------------------------
0 Migrate 1
In progress 14 Minutes
-------------------------------------------------------
命令功能
设置一致性校验参数。
命令格式
storcli64 /ccontroller_id[/vvd_id]show cc
storcli64 /ccontroller_id/vvd_id start cc force
storcli64 /ccontroller_id/vvd_id action cc
storcli64 /ccontroller_id set cc=conc delay=value starttime=time excludevd=evd_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
vd_id |
要操作的RAID的ID |
– |
action |
要执行的操作 |
l pause:暂停 l resume:继续执行 l stop:停止 |
value |
一致性校验周期 |
– |
time |
一致性校验起始时间 |
例如:2016/07/14 22 说明 起始时间单位为“时”。 |
evd_id |
不进行一致性校验的虚拟磁盘ID |
– |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
show命令中不带/vvd_id时,表示查询自动CC参数。
show命令中带/vvd_id时,表示查询CC进度。
使用实例
# 设置一致性自动检查参数。
domino:~# ./storcli64 /c0 set
cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------
Ctrl_Prop Value
------------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2016/07/14 22:00:00
CC ExcludeVD(0) Success
------------------------------------
# 查询CC进度。
domino:~# ./storcli64 /c0/v1 show
cc
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress%
Status Estimited Time Left
-----------------------------------------------------------
0 CC
- Not in progress -
-----------------------------------------------------------
命令功能
查询和设置系统巡检的相关参数。
命令格式
storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number
storcli64 /ccontroller_id set patrolread delay=delaytime
storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}
storcli64 /ccontroller_id show patrolread
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
系统巡检起始时间 |
例如:2016/07/15 23 说明 起始时间单位为“时”。 |
number |
可同时巡检的硬盘数量 |
– |
delaytime |
系统巡检周期 |
单位为hour。 |
查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。
domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
PR Starttime 2016/07/15 23:00:00
PR MaxConcurrentPd 2
---------------------------------------
# 使能patrolread并设置为自动模式。
domino:~# ./storcli64 /c0 set
patrolread=on mode=auto
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
Patrol Read Mode auto
---------------------------------------
# 查询patrolread信息。
domino:~# ./storcli64 /c0 show patrolread
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------------------------
Ctrl_Prop Value
--------------------------------------------
PR Mode 2016/07/15 23:00:00
PR Execution Delay
PR iterations completed 0
PR Next Start time 07/16/2016,00:00:00
PR on SSD Disabled
PR Current State Stopped
--------------------------------------------
命令功能
设置硬盘状态。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
state |
要设置的硬盘状态 |
l online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。 l offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。 l jbod:通过该参数可以将硬盘设置为直通硬盘。 l good: − ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置; − JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。 l good:将硬盘设为空闲盘 |
force |
强制设置硬盘状态,为可选参数。 如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force。 |
- |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。
domino:~# ./storcli64 /c0/e0/s1
set good
Controller = 0
Status = Success
Description = Set Drive Good Succeeded.
# 设置slot 7硬盘为直通盘。
domino:~# ./storcli64 /c0/e252/s7
set JBOD
Controller = 0
Status = Success
Description = Set Drive JBOD Succeeded.
命令功能
点亮和熄灭指定硬盘的定位指示灯。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。 |
slot_id |
物理硬盘槽位编号 |
可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。 |
action |
要执行的操作 |
l start:点亮硬盘的定位指示灯。 l stop:熄灭硬盘的定位指示灯。 |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 点亮slot 7硬盘的定位指示灯。
domino:~# ./storcli64 /c0/e252/s7
start locate
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.
命令功能
查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。
命令格式
storcli64 /ccontroller_id show
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all
storcli64 /ccontroller_id/vvd_id show all
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID |
enclosure_id |
硬盘所在Enclosure的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡连接的硬盘背板的ID |
slot_id |
物理硬盘槽位编号 |
可以将该参数设置为all,表示查询所有硬盘的ID |
vd_id |
虚拟磁盘ID |
可以将该参数设置为all,表示查询所有虚拟磁盘的ID |
使用指南
回显中主要字段的含义如表16-32所示。
命令格式 |
字段 |
含义 |
举例 |
storcli64 /ccontroller_id show |
Product Name |
RAID控制卡的型号 |
sas3108 |
FW Version |
RAID控制卡的FW版本 |
4.660.00-8140 |
|
Driver Name |
RAID控制卡的驱动名称 |
megaraid_sas |
|
Driver Version |
RAID控制卡的驱动版本 |
06.811.02.00-rh1 |
|
Current Personality |
RAID控制卡的工作模式 |
RAID-Mode |
|
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all |
SN |
物理硬盘的序列号 |
PHWL517601YR800RGN |
Manufacturer Id |
物理硬盘的供应商ID |
ATA |
|
Model Number |
物理硬盘的模块序号 |
INTEL SSDSC2BB800G4 |
|
Firmware Revision |
物理硬盘的FW版本 |
D2010370 |
|
Raw size |
物理硬盘的容量 |
745.211 GB [0x5d26ceb0 Sectors] |
|
Logical Sector Size |
物理硬盘逻辑分区大小 |
512B |
|
Physical Sector Size |
物理扇区大小 |
4 KB |
|
storcli64 /ccontroller_id/vvd_id show all |
TYPE |
RAID组的级别 |
RAID1 |
State |
RAID组的状态 |
Optl |
|
Access |
RAID组数据的访问策略 |
RW |
|
Cache |
RAID组当前的读写策略与I/O Policy |
RWTD |
|
Size |
RAID组的大小 |
100.0 GB |
|
PDs for VD0 |
RAID组下的物理硬盘 |
- |
|
Strip Size |
RAID组的条带大小 |
256KB |
|
Write Cache(initial setting) |
RAID组Cache的写策略 |
Write Through |
|
Disk Cache Policy |
RAID组成员盘的Cache策略 |
Disk's Default |
使用实例
#查询RAID控制卡的详细信息。
domino:~# ./storcli64 /c0 show
Controller = 0
Status = Success
Description = None
Product Name = SAS3408
Serial Number = 024JNFCNK2000314
SAS Address = 58cfd18f55442000
PCI Address = 00:03:00:00
System Time = 07/18/2019 14:55:54
Mfg. Date = 00/00/00
Controller Time = 07/18/2019 06:55:53
FW Package Build = 50.6.3-0109
BIOS Version = 7.06.02.2_0x07060502
FW Version = 5.060.01-2262
Driver Name = megaraid_sas
Driver Version = 07.709.08.00
Vendor Id = 0x1000
Device Id = 0x17
SubVendor Id = 0x19E5
SubDevice Id = 0xD213
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 3
Device Number = 0
Function Number = 0
Drive Groups = 1
TOPOLOGY :
========
---------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size
PDC PI SED DS3 FSpace TR
---------------------------------------------------------------------------
0 - - -
- RAID0 Optl N 3.637 TB dflt N N dflt
N N
0 0 - -
- RAID0 Optl N 3.637 TB dflt N N dflt
N N
0 0 0 65:0 41 DRIVE
Onln N 3.637 TB dflt N N dflt
- N
---------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 1
VD LIST :
=======
-------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC
Size Name
-------------------------------------------------------------
0/0 RAID0 Optl RW
Yes NRWTD - ON 3.637 TB
-------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read
Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 39
PD LIST :
=======
------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med
SED PI SeSz
Model
Sp
------------------------------------------------------------------------------
65:0 41 Onln 0 3.637 TB
SATA HDD N N 512B ST4000NM0035-1V4107 U
65:1 45 UGood - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 D
65:2 33 UGood - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 D
65:3 40 UGood - 3.637 TB SATA
HDD N N 512B ST4000NM115-1YZ107 D
65:4 39 UGood - 5.456 TB SATA
HDD N N 512B ST6000NM0115-1YZ110 D
65:5 38 UGood - 5.456 TB SATA
HDD N N 512B ST6000NM0115-1YZ110 D
65:6 46 UGood - 5.456 TB SATA
HDD N N 512B ST6000NM0115-1YZ110 D
65:7 53 UGood - 5.456 TB SATA
HDD N N 512B ST6000NM0115-1YZ110 D
65:8 61 UGUnsp - 3.637 TB SATA HDD
N N 512B ST4000NM0035-1V4107 U
65:9 0 UGood - 3.637 TB
SATA HDD N N 512B ST4000NM115-1YZ107 D
65:10 1 UGood - 5.456 TB SATA
HDD N N 512B ST6000NM0115-1YZ110 D
65:11 62 UGUnsp - 3.637 TB SATA HDD
N N 512B ST4000NM0035-1V4107 U
65:12 51 UGood - 9.094 TB SATA HDD
N N 512B ST10000NM0478-2H7100 D
65:13 52 UGood - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 D
65:14 50 UGood - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 D
65:16 57 UGUnsp - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 U
65:17 58 UGUnsp - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 U
65:18 42 UGood - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 D
65:19 44 UGood - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 D
65:20 49 UGood - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 D
65:21 43 UGood - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 D
65:22 48 UGood - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 D
65:23 47 UGood - 3.637 TB SATA HDD
N N 512B ST4000NM0035-1V4107 D
65:24 3 UGood - 3.637 TB SATA
HDD N N 512B ST4000NM0035-1V4107 D
65:25 5 UGood - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 D
65:26 4 UGood - 5.456 TB SATA
HDD N N 512B ST6000NM0115-1YZ110 D
65:27 2 UGood - 3.637 TB SATA
HDD N N 512B ST4000NM0035-1V4107 D
65:28 59 UGUnsp - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 U
65:29 6 UGood - 837.258 GB SAS HDD
N N 512B
ST900MM0168 D
65:30 55 UGood - 3.637 TB SATA HDD
N N 512B ST4000NM0035-1V4107 D
65:31 60 UGUnsp - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 U
65:32 56 UGUnsp - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 U
65:33 35 UGood - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 D
65:34 34 UGood - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 D
65:35 37 UGood - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 D
65:36 36 UGood - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 D
65:37 30 UGood - 278.464 GB SAS HDD
N N 512B
AL15SEB030N D
65:38 32 UGood - 1.745 TB SATA SSD
N N 512B INTEL SSDSC2KG019T8 U
65:39 31 UGood - 222.585 GB SATA SSD
N N 512B INTEL SSDSC2KG240G8 U
------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
#查询slot0的物理硬盘的信息。
[root@localhost ~]# ./storcli64
/c0/e65/s0 show all
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
Drive /c0/e65/s0 :
================
--------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz
Model
Sp
--------------------------------------------------------------------------
65:0 41 Onln 0 3.637 TB SATA HDD
N N 512B ST4000NM0035-1V4107 U
--------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Drive /c0/e65/s0 - Detailed Information :
=======================================
Drive /c0/e65/s0 State :
======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature = 30C (86.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
Drive /c0/e65/s0 Device attributes :
==================================
SN = ZC18JNP4
Manufacturer Id = ATA
Model Number = ST4000NM0035-1V4107
NAND Vendor = NA
WWN = 5000c500b3297aee
Firmware Revision = TNA5
Raw size = 3.638 TB [0x1d1c0beb0 Sectors]
Coerced size = 3.637 TB [0x1d1a94800 Sectors]
Non Coerced size = 3.637 TB [0x1d1b0beb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 12.0Gb/s
NCQ setting = Enabled
Write Cache = Disabled
Logical Sector Size = 512B
Physical Sector Size = 512B
Connector Name = C0 & C1
Drive /c0/e65/s0 Policies/Settings :
==================================
Drive position = DriveGroup:0, Span:0, Row:0
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = Yes
Wide Port Capable = No
Port Information :
================
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
0 Active 12.0Gb/s 0x500605b000027380
-----------------------------------------
Inquiry Data =
5a 0c ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 20 20 20 20 20 20 20 20 20 20 20 20
43 5a 38 31 4e 4a 34 50 00 00 00 00 00 00 4e 54
35 41 20 20 20 20 54 53 30 34 30 30 4d 4e 30 30
35 33 31 2d 34 56 30 31 20 37 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 10 80
00 40 00 2f 00 40 00 02 00 02 07 00 ff 3f 10 00
3f 00 10 fc fb 00 10 5c ff ff ff 0f 00 00 07 00
# 查询VD 0的信息。
[root@rhel6u5 ~]#
/opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
/c0/v0 :
======
-------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC
Size Name
-------------------------------------------------------------
0/0 RAID0 Optl RW
Yes NRWTD - ON 3.637 TB
-------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read
Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
PDs for VD 0 :
============
--------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model
Sp
--------------------------------------------------------------------------
65:0 41 Onln 0 3.637 TB SATA HDD
N N 512B ST4000NM0035-1V4107 U
--------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
VD0 Properties :
==============
Strip Size = 64 KB
Number of Blocks = 7812499456
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 1
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = None
Active Operations = None
Exposed to OS = Yes
Creation Date = 06-07-2025
Creation Time = 08:44:04 AM
Emulation type = default
Cachebypass size = Cachebypass-64k
Cachebypass Mode = Cachebypass Intelligent
Is LD Ready for OS Requests = Yes
SCSI NAA Id = 68cfd18f554420002ffcf3d4ce5e8046
命令功能
手动重构RAID组。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row
storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
要加入Array的物理硬盘槽位编号 |
– |
DG |
硬盘发生故障的DG的ID |
– |
Arr |
硬盘发生故障的Array的ID |
– |
Row |
硬盘发生故障的Array的row number |
– |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
重构RAID分3个步骤进行:
1.通过./storcli64 /c0 show 命令,查询故障硬盘的DG、Arr和Row所对应的数字。
2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。
3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID。
使用实例
# 将硬盘加入RAID组。
[root@localhost ~]# storcli64
/c0/e252/s1 insert dg=0 array=0 row=0
Controller = 0
Status = Success
Description = Insert Drive Succeeded.
# 手动重构RAID。
[root@localhost ~]# storcli64
/c0/e252/s1 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
命令功能
收集和清除RAID控制卡的日志。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id show termlog [type=logtype] [logfile[=filename]] |
收集RAID控制卡的日志。 |
storcli64 /ccontroller_id delete termlog |
删除RAID控制卡的日志。 |
storcli64 /ccontroller_id show alilog [logfile[=filename]] |
收集控制卡属性信息、TTY日志和事件到指定文件。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID。 |
- |
logtype |
查询日志类型。 |
l config:查询TTY BBU缓存设置。 l content:查询日志信息。 缺省值:content。 |
filename |
文件名称,将保存日志到此文件。 |
可自定义文件名称,缺省时将默认保存至“StorSAS.log”文件中。 |
查询RAID控制卡ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 收集RAID控制卡的日志。
[root@localhost idriver]# ./storcli64
/c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19 6:48:11: C0:TTY History buffer cleared
Controller = 0
Status = Success
Description = None
# 删除RAID控制卡的日志。
[root@localhost idriver]# ./storcli64
/c0 delete termlog
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------------------
Ctrl Method Result
----------------------------
0 Delete Termlog deleted
----------------------------
命令功能
指导用户查看、导入或者清除RAID控制卡的外部配置。
命令格式
storcli64 /ccontroller_id/fall import preview
storcli64 /ccontroller_id/fall import
storcli64 /ccontroller_id/fall delete
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
使用指南
无
使用实例
# 查看RAID控制卡的外部配置。
[root@localhost ~]# ./storcli64
/c0/fall import preview
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
FOREIGN PREVIEW :
===============
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Total foreign drive groups = 0
# 删除RAID控制卡的外部配置。
[root@localhost ~]# ./storcli64
/c0/fall delete
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration
命令功能
介绍Snapdump相关操作。
命令格式
命令格式 |
说明 |
storcli64 /ccontroller_id show snapdump |
查询snapdump功能是否打开,是否有自动生成的snapdump文件。 |
storcli64 /ccontroller_id get snapdump id=all |
获取历史生成的snapdump文件。 |
storcli64 /ccontroller_id get snapdump |
获取历史生成的snapdump文件和当前再生成一个snapdump文件。 |
storcli64 /ccontroller_id set snapdump state=on|off |
打开和关闭snapdump功能。 |
storcli64 /ccontroller_id delete snapdump force |
删除历史snapdump日志功能。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID。 |
state=on|off |
Snapdump状态 |
on为开启,off为关闭。 |
使用指南
l Snapdump文件是一个日志文件,在一些RAID控制卡异常场景下可以自动生成的日志,也可以主动获取当前RAID控制卡的snapdump日志。
l 使用前可以先查询snapdump功能是否打开,是否有自动生成的snapdump文件,再去收集snapdump。
l 获取历史生成的snapdump文件和当前再生成一个snapdump文件会影响业务,建议离线使用。
l 打开和关闭snapdump功能,如果无法打开注意看提示,请确认当前RAID控制卡固件版本是否支持。
l 收集snapdump文件在当前命令执行目录下,文件格式为snapdump_**************.zip。
使用实例
#查询snapdump功能是否打开,是否有自动生成的snapdump文件。
[root@localhost ~]# storcli64 /c0
show snapdump
Controller = 0
Status = Success
Description = None
SnapDump Properties :
===================
----------------------------------
Ctrl_Prop
Value
----------------------------------
Snapdump
ON
Snapdump Save Count N/A
Snapdump Delay OCR 15
Snapdump properties Read-Write
Snapdump Current Count 2
----------------------------------
SnapDump Details :
================
----------------------------------------------
ID Snapdump Size Snapdump time OnDemand
----------------------------------------------
0 2649396 08-06-2021 07:23:43 Yes
1 2070406 08-07-2021 06:59:24 Yes
----------------------------------------------
#获取历史生成的snapdump文件。
[root@localhost ~]# storcli64 /c0 get
snapdump id=all
Controller = 0
Status = Success
Description = None
#获取历史生成的snapdump文件和当前再生成一个snapdump文件。
[root@localhost ~]# storcli64 /c0 get
snapdump
Controller = 0
Status = Success
Description = Download Support Log
#打开和关闭snapdump功能。
打开:
[root@localhost ~]# storcli64 /c0 set
snapdump state=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
Set Snapdump on
-------------------
关闭:
[root@localhost ~]# storcli64 /c0 set
snapdump state=off
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
Set Snapdump off
-------------------
#删除历史snapdump日志功能。
[root@localhost ~]# storcli64 /c0
delete snapdump force
Controller = 0
Status = Success
Description = Snapdump delete
命令功能
升级控制卡FW。
命令格式
命令格式 |
说明 |
storcli64 /cController_ID download file=xxx.rom [noverchk] |
升级控制卡FW。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
- |
xxx.rom |
固件包的名称 |
- |
使用指南
l 使用“noverchk”参数时将不检查固件包,降级版本时必须使用此参数。
l 升级完成后,需重新上下电服务器使固件包生效。
使用实例
#升级控制卡FW。
[root@localhost fw]# ./storcli64_arm
/c0 download file =FW4.rom noverchk
Download Completed.
Flashing image to adapter...
Controller = 0
Status = Success
Description = F/W Flash Completed.Please reboot the system for the changes to
take effect.
关于本章
介绍AVAGO MegaRAID SAS9460-16i的外观、特性以及配置方法。
本章节涉及的截图以5.130.00-3059 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。
AVAGO MegaRAID SAS9460-16i RAID 控制标卡(以下简称9460-16i)是基于MegaRAID架构的16端口12Gbit/s SAS控制卡,并采用PCIe3.0x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。
9460-16i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。
9460-16i支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考17.2.6 RAID级别迁移。
9460-16i自带的Cache对标卡性能的提升有非常重要的作用,主要体现在:
l 在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。
l 在读数据时,如果可以直接在Cache中命中的话,将减少硬盘寻道操作,降低响应时间,提升了数据读速度。
l Cache数据的掉电保护依赖于与RAID控制卡相连的超级电容。超级电容的外形、连接方式、安装方式可参考各服务器的用户指南。
l 9460-16i不支持flush write verify功能。
1 |
超级电容 |
2 |
miniSAS接口(port 0,SFF-8643) |
3 |
miniSAS接口(port 1,SFF-8643) |
4 |
miniSAS接口(port 2,SFF-8643) |
5 |
miniSAS接口(port 3,SFF-8643) |
6 |
超级电容错误状态指示灯 |
7 |
芯片过温指示灯 |
8 |
心跳灯 |
9 |
脏数据缓存指示灯 |
- |
- |
9460-16i单板指示灯说明如表17-1所示。
指示灯 |
颜色 |
说明 |
芯片过温指示灯 |
黄色 |
l 常亮:设备温度传感器超过阈值。 l 灭:设备温度在正常温度范围内。 |
超级电容错误状态指示灯 |
黄色 |
l 常亮:超级电容电源模块故障或者过温。 l 灭:超级电容正常或不在位。 |
心跳灯 |
绿色 |
l 闪烁:芯片运行正常,闪烁频率为1Hz。 l 灭:RAID控制卡未开始运行或FW运行异常。 |
脏数据缓存指示灯 |
绿色 |
l 常亮:没有保存到存储设备中的脏缓存。 l 灭:脏数据缓存正常。 |
控制卡支持的硬盘、虚拟磁盘、硬盘组数量分别为:
l 最多支持240个硬盘。
该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。
l 最多支持64个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
l 最多支持64个硬盘组(即配置界面中看到的“Drive Group”),每个硬盘组最多支持240个硬盘。
l 每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
控制卡支持的RAID类型及对应的硬盘个数如表17-2所示。
RAID级别 |
支持硬盘数 |
支持子组数 |
子组支持硬盘数 |
允许坏盘数 |
RAID 0 |
1~32 |
不涉及 |
不涉及 |
0 |
RAID 1 |
2~32(偶数) |
硬盘数÷2 |
||
RAID 5 |
3~32 |
1 |
||
RAID 6 |
3~32 |
2 |
||
RAID 10 |
4~240(偶数) |
2~8个RAID 1 |
2~32(偶数) |
子组数 |
RAID 50 |
6~240 |
2~8个RAID 5 |
3~32 |
子组数 |
RAID 60 |
6~240 |
2~8个RAID 6 |
3~32 |
子组数x2 |
l 不支持RAID 00级别。
l 子组数:子RAID的个数,例如RAID 50由两个RAID 5组成,则子组数为2。
l RAID 10、RAID 50每个子组中最多允许1个坏盘。
l RAID 60每个子组中最多允许2个坏盘。
l RAID10、50、60包含的总硬盘数由子组数和子组支持的硬盘数共同决定。
控制卡的热备功能分为两种:热备盘和紧急备份。
热备盘
对服务器的硬盘进行RAID分组后,一般会配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l Global HSP:即全局热备盘,为控制标卡上所有已配置的RAID所共有,1块控制标卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
配置方法请参看17.4.1.1 配置全局热备盘。
l Dedicated HSP:即局部热备盘,为控制标卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。配置方法请参看17.4.1.2 配置局部热备盘。
热备盘容量需大于等于成员盘容量。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
l 用作热备盘的硬盘数据将会丢失。
紧急备份
使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
l 紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。
l 在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。
l 紧急备份的硬盘生效次序:相同类型硬盘 > 相同接口不同介质类型硬盘 > 不同接口相同介质类型硬盘 > 不同接口不同介质类型硬盘。
紧急备份有两种情况,对应了两种设置:
l 当成员盘fail时,空闲盘替代成员盘作为紧急备份。
l 当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。
具体配置方法请参看17.4.2 设置紧急热备功能。
热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。
l 请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。
l 插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。
l 人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考17.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。
具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。
l 不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:
l RAID组状态保持Optimal不变。
l 热备盘状态由Online变为Hot Spare。
l 新加入硬盘状态由Copyback/Copybacking变为Online。
l 可使用命令行工具暂停或继续回拷,具体请参见17.7.2.11 查询和设置回拷。
l 若回拷时重启服务器,进度将保存。
条带化
当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待。
条带化技术是一种自动的将I/O的负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。
影响条带化效果的因素有:
l 条带宽度:指同时可以并发读或写的条带数量。
这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。
l 条带大小:指写在每块硬盘上的条带数据块的大小。
分条
硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。
控制卡支持多种条带大小,包括64KB、128KB、256KB、512KB及1MB,默认条带大小为256KB。
配置RAID时一般采用默认值。
RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见17.4.5 迁移RAID级别。
当前支持以下级别类型的迁移:
l RAID 0迁移到RAID 1、RAID 5、RAID 6
l RAID 1迁移到RAID 0、RAID 5、RAID 6
l RAID 5迁移到RAID 0、RAID 6
l RAID 6迁移到RAID 0、RAID 5
RAID迁移对硬盘数量的要求如表17-3所示。
迁移RAID级别 |
原始硬盘组硬盘数量 |
迁移后的硬盘组硬盘数量 |
RAID 0迁移 RAID 1 |
1~32 |
2~32(偶数) |
RAID 0迁移到RAID 5 |
1~32 |
3~32 |
RAID 0迁移到RAID 6 |
1~32 |
3~32 |
RAID 1迁移到RAID 0 |
2~32(偶数) |
2~32 |
RAID 1迁移到RAID 5 |
2~32(偶数) |
3~32 |
RAID 1迁移到RAID 6 |
2~32(偶数) |
3~32 |
RAID 5迁移到RAID 0 |
3~32 |
3~32 |
RAID 5迁移到RAID 6 |
3~32 |
3~32 |
RAID 6迁移到RAID 0 |
3~32 |
3~32 |
RAID 6迁移到RAID 5 |
3~32 |
3~32 |
VD初始化
创建VD(Virtual Drive)后,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。控制卡提供了多种相应的初始化方式:
l 前台初始化:
− 快速初始化:Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。
− 完全初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。
l 后台初始化:
− 对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。
− 对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。
l 一致性校验(CC)和后台初始化通常会对性能造成一定损失,直至该操作完成。
l 一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。
硬盘初始化
硬盘可执行的初始化包括:
l Initialize Drive:对前100MByte空间进行全写0操作。
l Drive Erase:对全部空间进行写0操作。
不支持停止SATA SSD的擦除和初始化过程。
控制卡支持的容量扩展方式有两种:
l 通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。
详细操作方法可参考17.4.3 添加新硬盘到RAID。
l 通过增加可用空间方式扩容:在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。
详细操作方法可参考17.4.4 扩展Virtual Drives可用空间。
l 只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。
l RAID10、RAID 50、RAID 60不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。
l 当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见 17.7.2.26 通过增加成员盘可用容量扩容RAID。
安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘和硬盘的安全擦除功能:
l Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。
l Normal:对虚拟磁盘或硬盘进行三轮擦除动作。
l Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。
安全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。
控制卡支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。
系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况,称之为写洞。
将写失败的数据备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:
l RAID 1、RAID 5、RAID 6、RAID 10、RAID 50,RAID 60支持写洞保护,Write hole数据都保存在掉电保护区,不需要开关控制。
− 掉电保护装置可用时,Write hole数据异常掉电重启后会进入恢复流程。
− 掉电保护装置不可用时,记录在掉电保护区的Write hole数据异常掉电后丢失,不做Write hole恢复。
l RAID 1、RAID 5掉线盘时不可做写洞保护。
l RAID 6掉线一块盘时可做写洞保护。
l RAID 10、RAID 50、RAID 60部分降级时可做写洞保护,按子组恢复数据。完全降级时不可做写洞保护。
l 不对RAID 0做写洞保护。
控制卡支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:
l Read:读策略选择“Read Ahead”模式,控制卡在读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,提升了数据读速度。
l Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,控制卡就向HOST发出数据传输完成的信号。
在写数据时,直接写入Cache,当写入的数据积累到一定程度,才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。
数据写入高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用高速缓存来提升系统性能。
l 开启高速缓存可提升整机写性能,当服务器写压力减小或高速缓存将写满时,数据再由高速缓存写入硬盘。
l 开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。
为了提升整机的高读写性能和高速缓存中数据的安全,可为控制卡配置超级电容。
超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将高速缓存中的数据写入超级电容模块中的NAND Flash中。
超级电容电量校准
由于数据保护需要超级电容的配合,为了记录超级电容的放电曲线,以便RAID控制卡了解超级电容的状态,例如最大和最小电压等,同时为了延长超级电容的寿命,RAID控制卡默认启动超级电容自动校准模式。
RAID控制卡通过如下所述的三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。
1. RAID控制卡将超级电容的电量充到最大值。
2. 自动启动校准进程,将超级电容完全放电。
3. 重新开始充电,直至达到最大电量。
超级电容电量校准过程中,RAID控制卡写策略自动调整为“WT”模式以保证数据完整性,此时RAID控制卡性能会降低。电量校准的时间取决于超级电容充放电速度。
硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。
硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。
硬盘巡检不能在参与以下任何操作的任何硬盘上运行:
l RAID热备修复
l 动态扩盘
l 完全初始化或后台初始化
l 一致性校验
S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据受到损失。
RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。
RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。
默认情况下,硬盘节能功能处于开启状态。
当硬盘节能功能开启且在指定时间内没有I/O访问时,RAID控制卡下挂载的“Uncongfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。
硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。
控制卡可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在控制卡下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。
控制卡支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
如果需要使能硬盘直通功能,请参见17.4.11 设置JBOD模式。
l 开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。
l JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
硬盘漫游是指在同一控制卡下移动物理硬盘。控制卡将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。
要使用硬盘漫游,按以下步骤操作:
1. 关闭操作系统。
2. 将服务器下电。
3. 将物理硬盘移动到背板所需位置。
4. 执行安全检查。确保正确插入物理硬盘。
5. 将服务器上电。
6. 控制卡从物理硬盘上的配置数据中检测到RAID配置。
如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。
此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。
控制卡提供硬盘故障记录功能:
l 使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。
l 禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,控制卡会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。
维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。
l 使能该功能后,当硬盘故障时,会点亮Fault指示灯。
l 禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。
默认情况下使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。具体操作方法请参见查看并修改控制卡高级属性
文档中描述的关于控制卡的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。
如果服务器已经在Legacy或者UEFI模式下安装OS,切换启动方式后将无法进入操作系统,需要切换为安装时的启动方式再进入,如操作系统需要重装,请根据实际情况选择UEFI或Legacy模式安装OS。
当服务器配置了较多的可启动设备时,在Legacy模式下可能出现部分设备无法正常启动,建议使用UEFI模式启动,UEFI模式较Legacy模式可以支持更多可启动设备;如需要使用Legacy模式,建议根据实际业务场景禁用串口重定向或网卡PXE等,确保操作系统可以正常启动,具体操作请参考BIOS参数参考的设置网卡的PXE和设置串口重定向章节。
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器。
步骤 2 重启过程中,当出现如图17-3所示界面时,按“Delete”,进入输入密码界面。
步骤 3 输入密码并按“Enter”。
进入如图17-4所示界面。
步骤 4 通过“←”或“→ ”进入“Advanced”页签,如图17-5所示。
如果Device Manager界面显示“Some drivers are not healthy”,请参见17.5.4 Device Manager中RAID控制卡状态显示Not Healthy进行修复。
步骤 5 选择“Avago MegaRAID SAS 9460-16i Configuration Utility”,按“Enter”。
进入如图17-6和图17-7所示主界面,界面参数如表17-4所示。
参数 |
说明 |
Main Menu |
RAID控制卡主菜单,包含了RAID控制卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID控制卡当前工作状态。 |
Backplane |
背板个数。 |
BBU |
超级电容在位情况。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的硬盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID控制卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 当存在外部配置时才会显示该选项。 |
Configure |
提供创建RAID,快速创建RAID,查看硬盘组属性,清除当前所有RAID配置,管理外部配置的接口。 |
Set Factory Defaults |
恢复出厂设置。 |
Update Firmware |
升级固件。 |
Silence Alarm |
板载蜂鸣器的使能状态。 说明 9460-16i未配置蜂鸣器,此项设置不起作用。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9460-16i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看17.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
登录管理界面。具体操作方法请参见17.3.1 登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图17-8和图17-9所示,参数说明如表17-5所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照17.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图17-10所示,界面参数如表17-6所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Apply Changes |
保存配置。 |
3. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 0支持的硬盘个数为1~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。
4. 按表17-6所述配置过滤条件。
5. 选择“Apply Changes”并按“Enter”。
6. 选择“Confirm”并按“Enter”。
7. 选择“Yes”并按“Enter”。
8. 选择“OK”并按“Enter”完成成员盘配置。
步骤 4 配置虚拟磁盘属性。
按照表17-5所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照17.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID组信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9460-16i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看17.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见17.3.1 登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图17-11和图17-12所示,参数说明如表17-7所示。
图17-11 Create Virtual Drive(1)
图17-12 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照17.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图17-13所示,界面参数如表17-8所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Apply Changes |
保存配置。 |
3. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 1支持的硬盘个数为2~32(偶数)。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。
4. 按表17-8所述配置过滤条件。
5. 选择“Apply Changes”并按“Enter”。
6. 选择“Confirm”并按“Enter”。
7. 选择“Yes”并按“Enter”。
8. 选择“OK”并按“Enter”完成成员盘配置。
步骤 4 配置虚拟磁盘属性。
按照表17-7所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照17.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID组信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9460-16i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看17.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见17.3.1 登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图17-14和图17-15所示,参数说明如表17-9所示。
图17-14 Create Virtual Drive(1)
图17-15 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照17.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 5”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图17-16所示,界面参数如表17-10所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Apply Changes |
保存配置。 |
3. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 5支持的硬盘个数为3~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。
4. 按表17-10所述配置过滤条件。
5. 选择“Apply Changes”并按“Enter”。
6. 选择“Confirm”并按“Enter”。
7. 选择“Yes”并按“Enter”。
8. 按“Enter”完成成员盘配置。
步骤 4 配置虚拟磁盘属性。
按照表17-9所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照17.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID组信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9460-16i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看17.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见17.3.1 登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图17-17和图17-18所示,参数说明如表17-11所示。
图17-17 Create Virtual Drive(1)
图17-18 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照17.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 6”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图17-19所示,界面参数如表17-12所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Apply Changes |
保存配置。 |
3. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 6支持的硬盘个数为3~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。
4. 按表17-12所述配置过滤条件。
5. 选择“Apply Changes”并按“Enter”。
6. 选择“Confirm”并按“Enter”。
7. 选择“Yes”并按“Enter”。
8. 选择“OK”并按“Enter”完成成员盘配置。
步骤 4 配置虚拟磁盘属性。
按照表17-11所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照17.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID组信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9460-16i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看17.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见17.3.1 登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图17-20和图17-21所示,参数说明如表17-13所示。
图17-20 Create Virtual Drive(1)
图17-21 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照17.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图17-22所示,界面参数如表17-14所示。
参数 |
参数说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Apply Changes |
保存配置。 |
3. 按表17-14所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 10支持2~8个Span,每个Span支持的硬盘数为2~16(偶数),且各个Span的硬盘数量必须保持一致。
l RAID 10支持的硬盘总数为4~32(偶数)。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。
5. 选择“Apply Changes”按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
1. 当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如图17-23所示。
2. 选择“Add More Spans”并按“Enter”。
3. 选择“Select Drives”并按“Enter”。
4. 在打开的列表中选择第2个Span的成员盘。
5. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID10至少需要创建2个Span,最多可以创建8个Span。
步骤 6 配置虚拟磁盘属性。
按照表17-13所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照17.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 8 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID组信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9460-16i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看17.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见17.3.1 登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图17-24和图17-25所示,参数说明如表17-15所示。
图17-24 Create Virtual Drive(1)
图17-25 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照17.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 50”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图17-26所示,界面参数如表17-16所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Apply Changes |
保存配置。 |
3. 按表17-16所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 50支持2~8个Span,每个Span支持的硬盘数为3~16,且各个Span的硬盘数量必须保持一致。
l RAID 50支持的硬盘总数为6~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。
5. 选择“Apply Changes”按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
1. 当配置的级别为RAID 50时,需要配置多个Span,此时配置界面如图17-27所示。
2. 选择“Add More Spans”并按“Enter”。
3. 选择“Select Drives”并按“Enter”。
4. 在打开的列表中选择第2个Span的成员盘。
5. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID50至少需要创建2个Span,最多可以创建8个Span。
步骤 6 配置虚拟磁盘属性。
按照表17-15所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照17.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 8 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID组信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9460-16i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看17.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见17.3.1 登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图17-28和图17-29所示,参数说明如表17-17所示。
图17-28 Create Virtual Drive(1)
图17-29 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照17.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 60”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图17-30所示,界面参数如表17-18所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Apply Changes |
保存配置。 |
3. 按表17-18所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 60支持2~8个Span,每个Span支持的硬盘数为3~32,且各个Span的硬盘数量必须保持一致。
l RAID 60支持的硬盘总数为6~240。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。
5. 选择“Apply Changes”按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
1. 当配置的级别为RAID 60时,需要配置多个Span,此时配置界面如图17-31所示。
2. 选择“Add More Spans”并按“Enter”。
3. 选择“Select Drives”并按“Enter”。
4. 在打开的列表中选择第2个Span的成员盘。
5. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID60至少需要创建2个Span,最多可以创建8个Span。
步骤 6 配置虚拟磁盘属性。
按照表17-17所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照17.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 8 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID组信息。
----结束
请通过图17-91的“Select Boot Device”选项设置启动项。
当一台服务器配置了单张RAID控制卡时,RAID控制卡下的硬盘启动项即为该服务器的硬盘启动项,具体设置方法请参见17.3.9.1 设置RAID控制卡下的启动项。
当服务器配置了多张RAID控制卡时,硬盘启动项需要在BIOS中进行设置,具体设置方法请参见BIOS参数参考的“设置服务器启动设备”章节。
对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
9460-16i支持2种类型的热备盘:
l Global Hotspare:即全局热备盘,为控制标卡上所有已配置的RAID所共有,1块控制标卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
l Dedicated Hotspare:即局部热备盘,为控制标卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
l 用作热备盘的硬盘数据将会丢失。
操作步骤
登录管理界面,具体操作方法请参见17.3.1 登录管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图17-32所示。
步骤 2 配置全局热备盘。
1. 选择“Operation ”并按“ Enter” 。
2. 选择“Assign Global Hot Spare Drive ”并按“ Enter” 。
3. 选择“Go”并按“Enter”。
显示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作步骤
当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
登录管理界面,具体操作方法请参见17.3.1 登录管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图17-33所示。
步骤 2 配置局部热备盘。
1. 将“Operation”设置为“Assign Dedicated Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
打开当前存在的虚拟磁盘列表。
3. 选择要关联的虚拟磁盘并按“Enter”。
4. 选择“OK”并按“Enter”。
提示操作成功。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作场景
当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。
操作步骤
登录管理界面,具体操作方法请参见17.3.1 登录管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图17-34所示。
步骤 2 删除热备盘。
1. 将“Operation”设置为“Unassign Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 按“Enter”完成配置并返回上级界面。
----结束
操作步骤
登录管理界面,具体操作方法请参见17.3.1 登录管理界面。
步骤 1 进入“Advanced Controller Properties”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
3. 选择“Advanced Controller Properties”并按“Enter”。
进入“Advanced Controller Properties”界面,如图17-35与图17-36所示。
图17-35 Advanced Controller Properties(1)
图17-36 Advanced Controller Properties(2)
步骤 2 设置紧急热备。
1. 选择“Spare”并按“Enter”。
2. 将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如图17-37所示。
图17-37 Advanced Controller Properties
3. 选择“Apply Changes”并按“Enter”。
4. 选择“OK”并按“Enter”,完成配置。
----结束
操作场景
l 只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。
l RAID10、RAID 50、RAID 60不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
对系统的影响
增加硬盘扩容过程中,如果出现硬盘故障,会导致:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行增加硬盘扩容操作。
必备事项
前提条件
添加硬盘扩容之前,需具备如下条件:
l 服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。
l 已通过远程虚拟控制台登录到服务器的实时操作桌面。
l 已登录管理界面,具体操作方法请参见17.3.1 登录管理界面。
数据
操作之前建议先备份数据。
操作步骤
进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”并按“Enter”。
进入虚拟磁盘选项界面,如图17-38所示。
步骤 2 添加新硬盘。
1. 选择要进行扩容的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图17-39所示。
3. 选择“Reconfigure Virtual Drives”并按“Enter”
4. 选择“Go”并按“Enter”。
5. 选择要扩容的RAID级别。
增加硬盘扩容时,请保证该处的RAID级别与原级别一致。
6. 选择“Choose the Operation”,并按“Enter”。
进入硬盘选择界面,如图17-40所示。
7. 选择要增加的硬盘,并按“Apply Changes”。
进入确认操作界面。
l 增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。
l RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。
8. 选择“Confirm”并按“Enter”。
9. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
10. 选择“OK”并按“Enter”完成配置并返回上级界面,如图17-41所示。
11. 选择“Start Operation”并按“Enter”。
显示操作成功。返回虚拟磁盘选项界面,验证扩容结果,如图17-42所示,表示RAID正在进行扩容。
图17-42 Virtual Drive Management
----结束
操作场景
在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。
操作步骤
登录管理界面。具体操作方法请参见17.3.1 登录管理界面。
步骤 1 进入要操作的虚拟磁盘界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图17-43所示。
图17-43 Virtual Drive Management
步骤 2 扩容虚拟磁盘。
1. 将“Operation”设置为“Expand Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入虚拟磁盘扩容界面,如图17-44界面所示,界面参数如表17-19所示。
参数 |
参数说明 |
Current Capacity |
虚拟磁盘当前容量。 |
Available Capacity |
可用于扩展的容量。 |
Enter a Percentage of Available Capacity |
输入扩容比例。 |
Capacity of Virtual Drive after Expansion |
扩容后虚拟磁盘容量。 |
3. 设置扩容百分比。
4. 选择“OK”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返还上级界面。
----结束
操作场景
随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。
在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。
对系统的影响
RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行RAID级别迁移操作。
必备事项
前提条件
迁移RAID级别之前,需具备如下条件:
l 已通过远程虚拟控制台登录到服务器的实时操作桌面。
l 当前存在的硬盘个数满足目标RAID级别要求。
l 已登录管理界面,具体操作方法请参见17.3.1 登录管理界面。
控制卡支持以下级别类型的迁移:
l RAID 0迁移到RAID 1、RAID 5、RAID 6
l RAID 1迁移到RAID 0、RAID 5、RAID 6
l RAID 5迁移到RAID 0、RAID 6
l RAID 6迁移到RAID 0、RAID 5
RAID迁移对硬盘数量的要求如表17-3所示。
l 当RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
l 迁移只支持增加与RAID组成员盘同类型同规格的硬盘。
l 为防止数据丢失,请在该操作之前备份当前RAID组的数据。
l 只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。
l 迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。
操作步骤
进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”并按“Enter”。
进入虚拟磁盘选项界面,如图17-45所示。
步骤 2 选择RAID迁移的目标级别。
下面以将RAID 1迁移到RAID 5为例进行说明。
1. 选择要进行迁移的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图17-46所示。
3. 选择“Reconfigure Virtual Drives”,并按“Enter”。
4. 选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如图17-47和图17-48所示。设置完成后按选择“Apply Changes”并按“Enter”保存配置。不设置时默认与原RAID组配置一致。
5. 选择“Go”,并按“Enter”。
进入RAID配置界面,如图17-49所示。
图17-49 Reconfigure Virtual Drives
6. 选择“New RAID Level”并按“Enter”。
打开RAID迁移的目标级别选择窗口,如图17-50所示。
7. 选择“RAID 5”并按“Enter”。
步骤 3 添加硬盘。
1. 选择“Choose the operation”并按“Enter”。
打开硬盘选择窗口。
2. 选择要增加的硬盘并按“Enter”。
RAID迁移对硬盘数量的要求请参见表17-3。
3. 选择“Apply Changes”并按“Enter”。
弹出操作确认会话框。
4. 选择“Confirm”并按“Enter”。
5. 选择“Yes”并按“Enter”。
提示操作成功。
6. 选择“OK”并按“Enter”返回图17-49界面。
步骤 4 RAID级别迁移。
1. 选择“Start Operation”并按“Enter”。
提示操作成功。
步骤 5 查看迁移结果。
1. 进入Virtual Drive Management界面,检查迁移结果,如图17-51所示,表示RAID正在进行迁移。
l 迁移过程中若重启服务器,该任务将在重启后继续进行。
l 迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。
2. 选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 1”变成“RAID 5”,RAID组容量增大,且“Status”状态显示为“Optimal”时,表示RAID迁移成功。
----结束
操作场景
RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。
操作步骤
登录管理界面。具体操作方法请参见17.3.1 登录管理界面。
步骤 1 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图17-52所示。
图17-52 Virtual Drive Management
步骤 2 删除虚拟磁盘。
1. 将“Operation”设置为“Delete Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
下面描述将带有外部配置的硬盘进行重构的操作方法,不带外部配置硬盘的重构方法请参见17.5.1.1 硬盘故障。
操作步骤
在“Main Menu”界面中选择“Drive Management”并按“Enter”。
步骤 1 选中要进行重构的硬盘,按“Enter”。
步骤 2 将“Operation”设置为“Make Unconfigured Good”。
步骤 3 选择“Go”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 按“Enter”完成配置。
硬盘状态变为“(Foreign),Unconfigured Good”。
步骤 5 清除外部配置,具体操作请参见17.4.9 导入和清除外部配置。
RAID组开始进行重构。
----结束
操作场景
用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。
操作步骤
登录管理界面,具体操作方法请参见17.3.1 登录管理界面。
步骤 1 进入“Controller Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
显示RAID控制卡基本信息,如图17-53和图17-54所示,参数说明如表17-20所示。
图17-53 Controller Management(1)
图17-54 Controller Management(2)
参数 |
参数说明 |
Product Name |
控制标卡名称。 |
Serial Number |
控制标卡序列号。 |
Controller Status |
控制标卡的工作状态。 |
Personality Mode |
控制标卡的模式。 |
Select Boot Device |
当前启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。 |
PCI ID |
控制标卡的PCI ID。 |
PCI Slot Number |
控制标卡的PCI槽位号。 |
Package Version |
控制标卡的套件版本。 |
Firmware Version |
控制标卡的固件版本号。 |
NVDATA Version |
控制标卡配置信息的版本号。 |
Drive Count |
控制标卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID控制卡下已有虚拟磁盘数量。 |
Advanced Controller Management |
更多的控制卡操作。 |
Advanced Controller Properties |
查看和修改控制卡的高级属性。 |
步骤 2 查看控制卡高级属性。
1. 选择“Advanced Controller Properties”并按“Enter”。
进入控制卡高级属性界面,如图17-55和图17-56所示,参数说明如表17-21所示。
在该界面下,可查看并修改RAID控制卡的高级属性。
图17-55 Advanced Controller Properties (1)
图17-56 Advanced Controller Properties (2)
参数 |
说明 |
Cache and Memory |
查看控制卡Cache和Memory信息。 |
Patrol Read |
系统巡检。 |
Power Save Settings |
设置硬盘休眠。 |
Spare |
设置控制卡热备状态。 |
Task Rates |
设置各种任务占用系统比率。 |
Alarm Control |
9460-16i控制卡标卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Coercion Mode |
容量对齐的模式。包括: l None l 128MB l 1GB |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。 默认为“Pause on Errors”。 |
Controller BIOS |
控制卡BIOS的使能情况。 |
ROC Temperature |
控制卡温度。 |
Shield State Supported |
是否支持暂停I/O,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
硬盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Maintain Drive Fail History |
表示是否使能硬盘故障记录功能,默认为使能状态。 说明 l 该参数设置为“Disabled”时: l 当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。 l 新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。 l 该参数设置为“Enabled”时: l 新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。 l 新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见17.4.9 导入和清除外部配置章节。 |
SMART Polling |
SMART轮巡检测周期。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性校验 |
JBOD Mode |
是否使能硬盘直通功能。 |
Write Verify |
- |
Drive Detection Type |
随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制卡属性。 可用选项为: l Disabled l High Latency l Aggressive l Default |
Drive Corrective Action |
随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致I/O延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。 l Disabled:禁用该功能 l Enabled:开启该功能 |
Drive Error Threshold |
通过该选项设置适当的控制卡属性。 l Every 8 hours l Every1 hours l Every 15 mins l Every 5 mins |
Large IO Support |
启用或禁用大型I/O支持功能。 |
Unmap Capability |
解除映射能力。 |
Apply changes |
保存配置。 |
----结束
操作场景
l 服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。
l 新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。
l 如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!
l 为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。
l 当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。
导入外部配置
登录管理界面,具体操作方法请参见17.3.1 登录管理界面。
步骤 1 在主界面中选择“Main Menu”并按“Enter”。
步骤 2 选择“Configuration Management”并按“Enter”。
步骤 3 选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。
进入外部配置管理界面,如图17-57所示。
图17-57 Manage Foreign Configuration
步骤 4 选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图17-58所示。
步骤 5 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 6 选择“Confirm”并按“Enter”。
步骤 7 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 8 按“Enter”完成配置返回上级界面。
----结束
清除外部配置
登录管理界面,具体操作方法请参见17.3.1 登录管理界面。
步骤 1 在主界面中选择“Main Menu”并按“Enter”。
步骤 2 选择“Configuration Management”并按“Enter”。
步骤 3 选择“Manage Foreign Configuration”并按“Enter”。
进入外部配置管理界面,如图17-59所示。
图17-59 Manage Foreign Configuration
步骤 4 选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图17-60所示。
步骤 5 选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 6 选择“Confirm”并按“Enter”。
步骤 7 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 8 单击“OK”完成配置返回上级界面。
----结束
该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID50存在一个VD为例(如图17-61所示),详细操作方法如下:
图17-61 Virtual Drive Management
按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如图17-62所示。
步骤 2 选择“Select RAID Level”并“Enter”。
步骤 3 在弹出的RAID级别菜单中选择“RAID50”并按“Enter”。
步骤 4 将“Select Drives From”设置为“Free Capacity”,如图17-63所示。
步骤 5 选择“Select Drive Groups”并按“Enter”。
显示当前存在的RAID组(Drive Group),如图17-64所示。
步骤 6 选择要创建多个VD的RAID组并按“Enter”,如图17-65所示。
步骤 7 选择“Apply Changes”并按“Enter”。
提示操作成功。
步骤 8 选择“OK”并按“Enter”返回VD配置界面,如图17-66和图17-67所示,参数说明如表17-22所示。
图17-66 Create Virtual Drive(1)
图17-67 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drive Group |
选择硬盘组。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照17.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 9 按照表17-22所述配置VD的相关属性。
步骤 10 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
步骤 11 选择“Confirm”并按“Enter”。
步骤 12 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
可进入Virtual Drive Management界面,查看当前存在的所有VD,如图17-68所示。
图17-68 Virtual Drive Management
----结束
每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤13。
控制卡支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
l 开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。
l JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
登录管理界面,具体操作方法请参见17.3.1 登录管理界面。
步骤 1 依次进入Main Menu>Controller Management>Advanced Controller Properties界面,如图17-69所示。
图17-69 Advanced Controller Properties
步骤 2 选择“JBOD Mode”并按Enter。
步骤 3 选择“Enabled”并按“Enter”。
步骤 4 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 选择“OK”并按“Enter”完成配置。
----结束
查询RAID控制卡固件版本的方法有如下几种:
l 在iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。
l 服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见9.7.2.1 查询RAID控制卡配置信息。
回显信息中的“FW Version”字段即为RAID控制卡的固件版本。
l 在RAID控制卡管理界面进行查询,具体方法为:
a. 登录RAID控制卡的管理界面,具体操作请参见9.3.1 进入管理界面。
b. 在主界面中选择“Main Menu”并按“Enter”。
进入“Main Menu”页面,如图17-70所示。
c. 选择“Controller Management”并按“Enter”。
显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如图17-71所示。
图17-71 Controller Management界面
介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。
更多故障案例请联系技术支持获取。
问题描述
当服务器出现如下现象时,说明硬盘故障。
l 硬盘故障指示灯常亮。
l 服务器开机状态下,硬盘指示灯不亮。
l 服务器上报硬盘故障告警。
处理方法
JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
l 通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。
l 通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。
l 通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考17.6.2.4 Drive Management。
l 通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
步骤 1 更换新硬盘。
l 更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考17.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。
l 若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在17.2.1 支持多种RAID类型查看RAID组支持的最大故障硬盘数量。
l 更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。
l 新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。
拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:
l 若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。
l 若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。
l 若故障硬盘为直通盘,则直接更换即可。
l 若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。
− UEFI模式下创建RAID0的方法请参见17.3.2 创建RAID 0。
− 通过命令行方式创建RAID0的方法请参见17.7.2.2 创建和删除RAID。
----结束
问题描述
正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
但当RAID控制卡未设置紧急热备时,成员盘状态显示为fail或prefail时,可使用以下方法处理。
处理方法
使用StorCLI工具,具体操作请参考17.7.1 下载和安装StorCLI工具。
步骤 1 执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考17.7.2.16 设置硬盘状态。
storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]
l controller_id:硬盘所在RAID控制卡的ID
l enclosure_id:硬盘所在Enclosure的ID
l slot_id:物理硬盘槽位ID
步骤 2 更换离线硬盘。
步骤 3 RAID组自动执行重构。
等待重构完成。
----结束
问题描述
硬盘状态显示为Unconfigured Bad或UBad。
处理方法
使用StorCLI工具,具体操作请参见17.7.1 下载和安装StorCLI工具。
步骤 1 执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见17.7.2.16 设置硬盘状态。
storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]
l controller_id:硬盘所在RAID控制卡的ID
l enclosure_id:硬盘所在Enclosure的ID
l slot_id:物理硬盘槽位ID
步骤 2 重新查看硬盘状态是否更改为Unconfigured Good或Ugood。具体操作请参见17.6.2.4 Drive Management界面或17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤4。
步骤 3 查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见17.4.9 导入和清除外部配置或17.7.2.30 查看/导入/清除外部配置。
l 问题解决 => 处理完毕。
l 问题未解决 => 联系技术支持处理。
----结束
问题描述
当RAID控制卡电容故障时,可能导致服务器出现如下情况:
l 服务器读写速度显著降低。
l RAID控制卡的CU界面中显示电容状态异常。
处理方法
进入RAID控制卡的CU界面,查看电容状态是否为“Optimal”。
电容状态可查询图17-107界面的“Battery Status”参数。
l 是 => 处理完毕
l 否 => 步骤2
步骤 1 将服务器下电,打开机箱,并查看RAID控制卡电容是否在位。
l 是 => 步骤4
l 否 => 步骤3
步骤 2 检查整机配置,为服务器安装电容,查看电容状态是否为“Optimal”。
l 是 => 处理完毕
l 否 => 步骤6
步骤 3 重新安装RAID控制卡电容,查看电容状态是否为“Optimal”。
l 是 => 处理完毕
l 否 => 步骤5
步骤 4 更换RAID控制卡电容,查看电容状态是否为“Optimal”,且“问题描述”所述的异常状态是否消失。
l 是 => 处理完毕
l 否 => 步骤6
----结束
问题描述
当服务器出现如下现象时,说明控制卡故障。
l 数据无法写入控制卡控制的硬盘。
l 服务器上报控制卡故障告警。
处理方法
登录iBMC Web界面查看告警信息。
步骤 1 根据告警信息,参考iBMC告警处理。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤3
步骤 3 查询兼容性查询助手或者联系技术支持处理。
----结束
问题描述
进入“Device Manager”界面后,显示“Some drivers are not healthy”。
处理方法
选择“Some drivers are not healthy”。
进入健康状态查询界面。
步骤 1 选择“Repair the whole platform”,并按“Enter”。
进入“Driver Healthy Protocol Utility”界面。
步骤 2 查看“Driver Healthy Protocol Utility”界面的打印信息。
l 显示“The following VDs have missing disks.” => 请参见17.5.4.1 The following VDs have missing disks。
l 显示“There are offline or missing virtual drives with preserved cache.” => 请参见17.5.4.2 There are offline or missing virtual drives with preserved cache。
l 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见17.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
l 显示“Memory/battery problems were detected / Unexpected power-loss occurred”=> 请参见17.5.4.4 Memory/battery problems were detected。
----结束
RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见0RAID控制卡启动中出现的常见的错误消息及处理方法。
问题描述
进入“Driver Healthy Protocol Utility”界面后,显示The following VDs have missing disks.。
处理方法
修复RAID控制卡。
1. 选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
2. 输入“c”,选择“Yes”并按“Enter”。
返回“Driver Healthy Protocol Utility”界面。
3. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
4. 输入“y”,选择“Yes”并按“Enter”。
提示Critical Message handling completed. Please exit。修复完成。
步骤 1 重启服务器,进入“Device Manager”界面,检查界面是否显示“The platform is healthy”。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
进入“Driver Healthy Protocol Utility”界面后,显示“There are offline or missing virtual drives with preserved cache”。
处理方法
选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
步骤 1 输入任意内容,选择“Yes”并按“Enter”。
提示Critical Message handling completed. Please exit。
步骤 2 按“Esc”键返回到“Device Manager”界面。
步骤 3 选择“Avago MegaRAID SAS 9460-16i Configuration Utility”并按“Enter”。
进入“Configuration Utility”界面。
步骤 4 选择“Discard Preserved Cache”并按“Enter”。
弹出操作确认对话框。
步骤 5 选择“Confirm”并按“Enter”。
步骤 6 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 7 选择“OK”并按“Enter”。
步骤 8 重启服务器。
步骤 9 进入“Device Manager”界面,检查界面是否显示The platform is healthy。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图17-72所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”
处理建议
该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:
l 下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。
l 忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:
a. 在图17-72中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
b. 输入“c”并按“Enter”。
c. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
d. 输入“y”并按“Enter”。
提示Critical Message handling completed. Please exit。
e. 按“Esc”退出当前界面。
弹出确认保存配置会话框,如图17-73所示。
f. 按“Y”保存配置,操作完成。
g. 按Esc键返回“Device Manager”界面。
h. 选择控制卡并按“Enter”,进入控制卡管理界面。
问题描述
进入“Driver Healthy Protocol Utility”界面后,显示“Memory/battery problems were detected. The adapter has recovered, but cached data was lost”。
处理方法
选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
步骤 1 输入任意内容,选择“Yes”并按“Enter”。
提示“Critical Message handling completed. Please exit”。
步骤 2 重启服务器,进入“Device Manager”界面,检查界面是否显示“The platform is healthy”。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图17-74所示,进入“Driver Healthy Protocol Utility”界面后,显示“Disabling writes to flash as the flash part has gone bad”。
处理方法
将服务器下电。
步骤 1 更换RAID控制卡。
步骤 2 将服务器上电,导入外部配置恢复原来的RAID配置,请参见17.4.9 导入和清除外部配置或17.7.2.30 查看/导入/清除外部配置。
检查提示是否清除。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
硬盘响应命令超时,控制卡会对硬盘进行复位。3次复位后尚未恢复时将可能耗尽控制卡TM(Task Management)资源,触发Fatal error,此时会通过OCR(Online Controller Reset)自愈恢复,期间将有短时间业务中断(约30s~60s),控制卡复位后会完成踢盘,将故障硬盘置为Ubad状态。
控制卡自愈恢复,需要开启OCR开关。
触发条件
当下发到硬盘的I/O出现超时不响应的情况时,RAID控制卡会通过reset硬盘来恢复,正常情况下,硬盘会重新接入或者多次reset之后会进行踢盘。
当出现reset之后硬盘仍然无法响应RAID控制卡指令且无法踢盘时,RAID控制卡会再次reset进行复位,每次reset会占用RAID控制卡资源,短时间内多次reset会导致RAID控制卡资源耗尽,该场景下,RAID控制卡会通过重新加载FW进行恢复。
该机制为此类卡的正常处理机制,由于架构限制,无法进行优化。
识别方法
l 已安装OS:
当遇到短时间业务中断,恢复后查看有被置为Ubad状态的硬盘时,可以查看控制卡日志,搜索dm.c并查看其发生时间,如与业务中断时间节点接近,即可断定为触发了该机制。
注意控制卡与OS时间差。
l 未安装OS:
无OS时,触发该机制的操作为:从“Advanced”页签进入控制卡界面。若触发该机制,进入控制卡卡操作界面时将会卡住,无法恢复。
处理方法
定位故障硬盘。
l 已安装OS:
− 如确认触发了该机制并且已经完成了踢盘,需要更换Ubad状态的硬盘。
− 如无Ubad状态的硬盘,查看日志并搜索“indicates critical condition”,目标行的“element xx indicates critical condition”中,“xx”即为问题硬盘的槽位号。
已安装OS,但是进入“Advanced”页签的控制卡操作界面卡住,需要重新上下电进入OS,按照以上方式定位故障硬盘。
l 未安装OS:
系统未安装OS,出现该异常时,保留预安装OS RAID组数目的硬盘,将其他硬盘拔出并记录槽位号,如成功安装OS进入系统后,按照已安装OS的操作来确认问题硬盘。
步骤 1 更换故障硬盘。
l 是 => 处理完毕。
l 否 => 请联系技术支持。
----结束
问题描述
RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD mode将RAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如图17-75所示,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。
当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。
处理方法
(可选)登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面。
步骤 1 依次进入Main Menu>Controller Management>Advanced Controller Management界面,如图17-76所示。
图17-76 Advanced Controller Management界面
步骤 2 选择“Switch to RAID mode”并按“Enter”。
提示操作成功,如图17-77所示。
步骤 3 选择“OK”并按“Enter”。
返回到“Advanced Controller Management”界面,显示正在切换模式,如图17-78所示。
图17-78 Advanced Controller Management界面
步骤 4 按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面。
步骤 5 依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如图17-79所示。
图17-79 Advanced Controller Management界面
l 是 => 处理完毕。
l 否 => 请联系技术支持。
----结束
问题描述
l 无法创建RAID组。
l 进入控制卡主界面后,显示“Discard Preserved Cache”,如图17-80所示。
处理方法
进入控制卡主界面。
步骤 1 选择“Discard Preserved Cache”并按Enter。
弹出操作确认界面,如图17-81所示。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示“The operation has been performed successfully”即操作成功。
----结束
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器。
步骤 2 重启过程中,当出现如图17-82所示界面时,按“Delete”,进入输入密码界面。
步骤 3 输入密码并按“Enter”。
进入如图17-83所示界面。
步骤 4 通过“←”或“→ ”进入“Advanced”页签,如图17-84所示。
如果Device Manager界面显示“Some drivers are not healthy”,请参见17.5.4 Device Manager中RAID控制卡状态显示Not Healthy进行修复。
步骤 5 选择“Avago MegaRAID SAS 9460-16i Configuration Utility”,按“Enter”。
进入如图17-85和图17-86所示主界面,界面参数如表17-23所示。
参数 |
说明 |
Main Menu |
RAID控制卡主菜单,包含了RAID控制卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID控制卡当前工作状态。 |
Backplane |
背板个数。 |
BBU |
超级电容在位情况。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的硬盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID控制卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 当存在外部配置时才会显示该选项。 |
Configure |
提供创建RAID,快速创建RAID,查看硬盘组属性,清除当前所有RAID配置,管理外部配置的接口。 |
Set Factory Defaults |
恢复出厂设置。 |
Update Firmware |
升级固件。 |
Silence Alarm |
板载蜂鸣器的使能状态。 说明 9460-16i未配置蜂鸣器,此项设置不起作用。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。
界面介绍
“Main Menu”界面如图17-87,参数说明如表17-24所示。
参数 |
参数说明 |
Configuration Management |
配置管理RAID。 |
Controller Management |
管理RAID控制卡。 |
Virtual Drive Management |
管理虚拟磁盘。 |
Drive Management |
管理硬盘。 |
Hardware Components |
查询部件信息。 |
可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。
界面介绍
“Configuration Management”界面如图17-88,参数说明如表17-25所示。
图17-88 Configuration Management
参数 |
参数说明 |
Auto Configure RAID 0 |
自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0。 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。 |
View Drive Group Properties |
查看硬盘组属性。 当存在硬盘组时会显示该参数。 |
Make JBOD |
硬盘直通功能,硬盘不加入RAID,直接使用。 |
Make Unconfigured Good |
将硬盘从JBOD状态设置为“Unconfigured Good”状态。 当存在直通盘时显示该参数。 |
Clear Configuration |
清除当前所有RAID配置。 |
Manage Foreign Configuration |
管理外部配置。 当存在外部配置时才会显示该选项。 |
清除RAID配置
选择“Clear Configuration”并按“Enter”。
进入操作确认界面。
步骤 1 选中“Confirm”并按“Enter”。
步骤 2 在打开的列表中选择“Enabled”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 按“Enter”。
配置完成。
----结束
快速创建RAID
通过“↑”、“↓”选择要创建的RAID(以“Generic RAID 0”为例)并按“Enter”。
打开RAID配置界面,如图17-89,参数说明如表17-26所示。
参数 |
说明 |
Drive Selection Criteria |
系统自动选择的成员盘。 |
Virtual Drive Name |
系统自定义的RAID组名称。 |
RAID Level |
当前配置的RAID组的级别。 |
Virtual Drive Size |
RAID组的容量。 |
Power Save Mode |
数据掉电保护模式。 |
Strip Size |
RAID组扇区大小。 |
Read Policy |
RAID组的数据读策略。 |
Write Policy |
RAID组的数据写策略。 |
IO Policy |
RAID组I/O策略。 |
Access Policy |
数据读写的策略。 |
Drive Cache |
硬盘Cache策略。 |
Default Initialization |
RAID组默认的初始化方式。 说明 快速创建RAID 0时,出现该选项。初始化类型默认为Fast且不可更改。 |
Create Dedicated Hot Spare |
是否为RAID组创建一块局部热备盘。 说明 快速创建RAID1、5、6时,出现该选项。 |
Save Configuration |
保存当前配置。 |
步骤 2 按表17-26所示查看或配置相关参数。
步骤 3 选择“Save Configuration”并按“Enter”。
弹出操作成功提示界面。
步骤 4 按“Enter”。
----结束
查看硬盘组属性
在图17-88中选择“View Drive Group Properties”并按“Enter”。
图17-90 View Drive Group Properties
参数 |
参数说明 |
Drive Group |
硬盘组名称。 |
Capacity Allocation |
硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。 |
----结束
该界面提供控制卡管理接口,可查看并修改控制卡的详细参数。
界面介绍
“Controller Management”界面如图17-91和图17-92所示,参数说明如表17-28所示。
图17-91 Controller Management(1)
图17-92 Controller Management(2)
参数 |
参数说明 |
Product Name |
控制标卡名称。 |
Serial Number |
控制标卡序列号。 |
Controller Status |
控制标卡的工作状态。 |
Personality Mode |
RAID控制卡的模式。 |
Select Boot Device |
当前启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。 |
PCI ID |
控制标卡的PCI ID。 |
PCI Slot Number |
控制标卡的PCI槽位号。 |
Package Version |
控制标卡的套件版本。 |
Firmware Version |
控制标卡的固件版本号。 |
NVDATA Version |
控制标卡配置信息的版本号。 |
Drive Count |
控制标卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID控制卡下已有虚拟磁盘数量。 |
Advanced Controller Management |
管理控制卡高级功能。 |
Advanced Controller Properties |
查看和修改控制卡的高级属性。 |
更多控制卡操作
在图17-91中选择“Advanced Controller Management”并按“Enter”。
图17-93 Advanced Controller Management
参数 |
说明 |
Clear Controller Events |
清除控制卡的事件日志。 |
Save Controller Events |
保存控制卡的事件日志。 |
Save TTY Log |
保存终端操作日志。 |
Manage SAS Storage Link Speed |
管理RAID控制卡接口速率。 |
Manage MegaRAID Advanced Software Options |
管理高级软件功能。 |
Schedule Consistency Check |
设置一致性校验参数。 |
Set Factory Defaults |
恢复为出厂配置。 |
Manage Personality Mode |
设置RAID控制卡当前的工作模式。 |
Manage Controller Profiles |
查看和管理控制卡的配置文件。 |
----结束
在图17-91中选择“Advanced Controller Properties”并按“Enter”。
界面如图17-94和图17-95所示,界面中参数说明如表17-30所示。
图17-94 Advanced Controller Properties(1)
图17-95 Advanced Controller Properties(2)
参数 |
说明 |
Cache and Memory |
查看控制卡Cache和Memory信息。 |
Patrol Read |
系统巡检。 |
Power Save Settings |
设置节能功能。 |
Spare |
热备属性设置。 |
Task Rates |
设置各种任务占用系统比率。 |
Alarm Control |
9460-16i未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Coercion Mode |
容量对齐的模式。包括: l None l 128MB l 1GB 默认为“1GB”。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errrors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。 默认为“Pause on Errors”。 |
Controller BIOS |
控制卡BIOS的使能情况。 |
ROC Temperature |
控制卡温度。 |
Shield State Supported |
是否支持暂停I/O,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
硬盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Maintain Drive Fail History |
表示是否使能硬盘故障记录功能,默认为使能状态。 说明 l 该参数设置为“Disabled”时: l 当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。 l 新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。 l 该参数设置为“Enabled”时: l 新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。 l 新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见17.4.9 导入和清除外部配置章节。 |
SMART Polling |
SMART轮巡检测周期。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性校验。 |
JBOD Mode |
硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。 |
Write Verify |
写校验。 |
Drive Detection Type |
随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制卡属性。 可用选项为: l Disabled l High Latency l Aggressive l Default |
Drive Corrective Action |
随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致I/O延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。 l Disabled:禁用该功能 l Enabled:开启该功能 |
Drive Error Threshold |
通过该选项设置适当的控制卡属性。 l Every 8 hours l Every1 hours l Every 15 mins l Every 5 mins |
Large IO Support |
启用或禁用大型I/O支持功能。 |
Unmap Capability |
解除映射能力。 |
Apply Changes |
保存配置。 |
步骤 2 在图17-94中选择“Task Rates”并按“Enter”。界面如图17-96所示,界面中参数说明如表17-31所示。
参数 |
说明 |
Background Initialization <BGI> Rate |
设置执行后台初始化的速率。 说明 数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Consistency Check Rate |
设置执行一致性校验的速率。 说明 数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Patrol Read Rate |
设置执行巡检读取的速率。 说明 数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Rebuild Rate |
设置硬盘发生故障时在新硬盘上执行重构数据的速率。 说明 数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Reconstruction Rate |
设置执行RAID级别迁移或在线容量扩展时重构数据的速率。 说明 数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Apply Changes |
保存配置。 |
步骤 3 按照表17-30所述修改控制卡的高级属性参数。
步骤 4 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 单击“OK”完成配置。
----结束
该界面提供虚拟磁盘的查询和管理接口。
界面介绍
“Virtual Drive Management”界面如图17-97,显示虚拟磁盘列表。
图17-97 Virtual Drive Management
选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如图17-98所示,参数说明如表17-32所示。
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:定位虚拟磁盘的所有硬盘。 l Stop Locate:取消定位。 l Delete Virtual Drive:删除虚拟磁盘。 l Expand Virtual Drive:扩展虚拟磁盘容量。 l Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。 l Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。 l Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。 l Fast Initialization:快速初始化虚拟磁盘。 l Slow Initialization:安全初始化虚拟磁盘。 l Check Consistency:一致性校验。 l Virtual Drive Erase:格式化虚拟磁盘。 |
Progress |
当前任务进度。 l 仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。 l 当前界面不会自动刷新,需退出后重新进入查看当前进度。 |
Stop |
停止当前任务。 仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。 |
Name |
虚拟磁盘名称。 |
Raid Level |
虚拟磁盘RAID级别。 |
Status |
虚拟磁盘当前运行状态。 |
Size |
虚拟磁盘容量。 |
View Associated Drives |
查看成员盘属性。 |
Advanced... |
查看虚拟磁盘高级属性。 |
查看成员盘属性
在图17-98中选择“View Associated Drives”并按“Enter”。
界面如图17-99,显示成员盘列表。
步骤 2 选择要查看的成员盘并按“Enter”。
步骤 3 选择“View Drive Properties”并按“Enter”。
进入硬盘属性界面,如图17-100界面所示,界面参数如表17-33所示。
参数 |
参数说明 |
Operation |
该成员盘可执行的操作,包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Place Drive Online/Offline:将硬盘上线/离线。 |
Drive ID |
成员盘的ID。 |
Connection |
硬盘接口。 |
Enclosure Position |
机箱或背板的位置。 |
Slot Number |
硬盘的槽位号。 |
Status |
成员盘的当前工作状态。 |
Size |
成员盘的容量。 |
Type |
成员盘类型。 |
Model |
成员盘的模块类型。 |
Serial Number |
成员盘的序列号。 |
Associated Virtual Drive |
成员盘所在的虚拟磁盘。 |
Advanced... |
查询成员盘更多属性。 |
----结束
查看和修改虚拟磁盘高级属性
在图17-98中选择“Advanced...”并按“Enter”。
界面如图17-101和图17-102所示,界面参数如表17-34所示。
参数 |
参数说明 |
Parity Size |
奇偶校验大小。 |
Logical Sector Size |
逻辑扇区大小。 |
Strip Size |
条带大小。 |
Starting Logical Block Addressing |
逻辑单元起始地址。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 当成员盘为512B/512B时: l Default:逻辑盘扇区为512B/512B。 l None:逻辑盘扇区为512B/512B。 l Force:逻辑盘扇区为512B/4KB。 当成员盘为512B/4KB时: l Default:逻辑盘扇区为512B/4KB。 l None:逻辑盘扇区为512B/512B。 l Force:逻辑盘扇区为512B/4KB。 |
Bad Blocks |
是否支持坏块处理。 |
SSD Caching |
是否支持SSD Caching。 |
Access |
是否支持Access。 |
Current Write Cache Policy |
当前写Cache策略,包括: l Write Through:当硬盘子系统接收到所有传输数据后,RAID控制标卡将给主机返回数据传输完成信号。 l Write Back:当RAID控制标卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Always Write Back:当未配置超级电容或超级电容故障时,RAID控制标卡将不会自动切换到Write Through模式。 说明 “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR的写数据将会丢失。不推荐使用该模式。 |
Default Write Cache Policy |
默认的写Cache策略。 |
Disable Background Initialization |
是否禁用后台初始化。 |
Read Cache Policy |
当前读Cache策略,包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。RAID控制标卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 |
Drive Cache |
设置硬盘cache状态。 |
Input/Output |
I/O读取策略,包括: l Direct:直接从硬盘读取数据,不经过Cache缓存。 l Cached:从Cache缓存中读取数据。 |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 l Enabled l Disabled |
Apply Changes |
保存配置。 |
步骤 2 按照表17-34所述配置“Advanced”的参数。
步骤 3 选择“Apply Changes”并按“Enter”。
显示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面显示硬盘基本属性,提供硬盘操作接口。
界面介绍
“Drive Management”界面如图17-103所示,显示硬盘列表。
硬盘的标识信息说明如下:
l ①表示RAID控制卡的Port口编号,其中Drive C0/Drive Port A表示RAID控制卡的Port A口,Drive C1/Drive Port B表示RAID控制卡的Port B口。
l ②表示机箱或背板的位置ID。
l ③表示硬盘槽位号。
l ④表示硬盘类型。
l ⑤表示硬盘的容量。
l ⑥表示硬盘的状态。
l ⑦表示硬盘的扇区大小。
选定要操作的硬盘并按“Enter”进入详细操作界面,如图17-104所示,参数说明如表17-35所示。
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Initialize Drive:硬盘初始化。 l Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。 − Simple:仅对硬盘进行一轮擦除动作。 − Normal:对硬盘进行三轮擦除动作。 − Thorough:对硬盘进行九轮擦除动作。 − Stop Erase:停止数据擦除操作。 l Make Unconfigured Good/Bad:修改硬盘状态。 l Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。 l Assign Global Hot Spare Drive:设置全局热备盘。 l Assign Dedicated Hot Spare Drive:设置局部热备盘。 l Unassign Hot Spare Drive:删除热备盘。 l Place Drive Online:将Offline状态的硬盘设置为Online。 说明 l Place Drive Online操作仅仅只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。 l 如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。 l 对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。 |
Drive ID |
硬盘的ID。 |
Connection |
硬盘接口。 |
Enclosure Position |
机箱或背板的位置。 |
Slot Number |
硬盘的槽位号。 |
Status |
硬盘的当前工作状态。 |
Size |
硬盘的容量。 |
Type |
硬盘的类型。 |
Model |
硬盘型号。 |
Serial Number |
硬盘的序列号。 |
Advanced... |
查询更多硬盘属性。 |
安全擦除硬盘数据
该操作会删除硬盘上的数据,请谨慎执行。
将“Operation”设置为“Drive Erase”。
步骤 1 选择“Erase Mode”并按“Enter”。
步骤 2 在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。
步骤 3 选择“Go”并按“Enter”。
步骤 4 选择“Confirm”并按“Enter”。
步骤 5 选择“Yes”并按“Enter”。
提示操作成功。
----结束
查看硬盘属性
选择“Advanced...”并按“Enter”。
打开硬盘属性界面,如图17-105和图17-106所示,参数说明如表17-36所示。
参数 |
参数说明 |
Certified |
是否通过认证。 |
Logical Sector Size |
逻辑扇区大小。 |
Physical Sector Size |
物理扇区大小。 |
SMART Status |
SMART功能是否使能。 |
Revision |
硬盘Firmware版本。 |
Media Error |
Media error个数。 |
Predicted Fail Count |
Pred fail个数。 |
SAS Address |
硬盘SAS地址。 |
Drive Power State |
硬盘上电状态。 |
Cache Setting |
是否可设置Cache。 |
Disk Protocol |
硬盘支持的协议。 |
Device Speed |
设备速率。 |
Negotiated Drive Transfer Speed |
硬盘数据传输速率。 |
Number of Connections |
连接器个数。 |
FDE Capable |
硬盘是否支持FDE(Full Disk Encryption)技术。 |
Cryptographic Erase Capable |
硬盘的加密擦除能力。 |
Unmap Capable |
解除映射能力。 |
Unmap Capability for Configuration |
取消映射配置功能。 |
Temperature |
硬盘温度。 |
该界面主要提供RAID控制卡传感器信息。
界面介绍
“Hardware Components”界面如图17-107,参数说明如表17-37所示。
参数 |
参数说明 |
Battery Status |
电容的工作状态。 |
Battery Management |
电容管理。 |
Enclosure Management |
查看更多传感器信息。 |
提供RAID控制卡操作管理接口。
界面介绍
“View Server Profile”界面如图17-108所示,参数说明如表17-38所示。
参数 |
参数说明 |
UEFI Spec Version |
服务器支持的UEFI Spec版本。 |
Controller Management |
提供控制卡管理接口,详细情况请参见17.6.2.2 Controller Management。 |
Hardware Components |
提供控制卡部件查询接口,详细情况请参见17.6.2.5 Hardware Components。 |
Drive Management |
提供硬盘管理接口,详细情况请参见17.6.2.4 Drive Management。 |
Virtual Drive Management |
提供虚拟磁盘管理接口,详细情况请参见17.6.2.3 Virtual Drive Management。 |
该界面可查看、导入、清空外部配置。
界面介绍
“Manage Foreign Configuration”界面如图17-109所示。
图17-109 Manage Foreign Configuration
查看并导入外部配置
选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图17-110所示。
步骤 2 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 3 选择“Confirm”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 单击“OK”完成配置。
----结束
清除外部配置
选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 单击“OK”完成配置。
----结束
可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。
界面介绍
“Configure”界面如图17-111所示,参数说明如表17-39所示。
参数 |
参数说明 |
Auto Configure RAID 0 |
自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0。 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。 |
View Drive Group Properties |
查看硬盘组属性。 当存在硬盘组时会显示该参数。 |
Make JBOD |
硬盘直通功能,硬盘不加入RAID,直接使用。 |
Make Unconfigured Good |
配置硬盘状态。 |
Clear Configuration |
清除当前所有RAID配置。 |
Manage Foreign Configuration |
管理外部配置。 当存在外部配置时才会显示该选项。 |
清除当前配置
选择“Clear Configuration”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 单击“OK”完成配置。
----结束
恢复出厂配置
在主界面选择“Set Factory Defaults”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 单击“OK”完成配置。
----结束
该界面提供固件升级接口。
界面介绍
“Update Firmware”界面如图17-112所示,参数说明如表17-40所示。
参数 |
参数说明 |
Select File System |
选择使用的文件系统。 |
Select Directory |
选择文件存放路径。可选路径包括: Current Dir:当前路径 EFI:自适应路径 |
Select Image |
选择要加载的文件。 |
升级固件
l 进行固件升级时,必须使用FAT12、FAT16或FAT32格式的介质。
l 仅检查支持EFI_SIMPLE_FILE_SYSTEM_PROTOCOL的文件系统。
l FW镜像文件必须位于根目录或根目录的下一个级别才能进行访问。
按照表17-40所述配置升级参数。
步骤 1 选择“Update”并按“Enter”。
打开操作确认界面。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 在列表中选择“Enable”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 单击“OK”完成配置。
----结束
该界面提供RAID控制卡高级软件特性查看和导入接口。
界面介绍
“Manage MegaRAID Advanced Software Options”界面如图17-113所示,界面中参数说明如表17-41所示。
图17-113 Manage MegaRAID Advanced Software Options
参数 |
说明 |
SAFE ID |
RAID控制卡的安全编码。 |
Serial Number |
RAID控制卡序列号。 |
Activation Key |
待激活的高级特性的Key。 |
Active |
激活高级特性。 9460-16i不支持高级特性的激活操作,该功能无效。 |
Deactive All Trail Software |
注销当前所有高级特性。 |
退出配置界面。
退出配置界面
1. 在主界面按“ESC”,显示如图17-114所示“Advanced”界面。
2. 按“Esc”退出配置界面。
使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。
下载工具
步骤 1 在“DOWNLOADS”页签中单击“Management Software and Tools”。
打开管理软件和工具列表。
步骤 2 下载最新版本的“StorCLI”工具。
步骤 3 解压后得到适用于不同操作系统的工具包。
----结束
安装工具
使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。
步骤 1 在Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。
StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。
安装完毕后,即可执行RAID控制卡命令。
----结束
命令功能
查询9460-16i的基本配置信息。
命令格式
storcli64 /ccontroller_id show
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID |
使用指南
建议保持默认配置。
使用实例
# 查询RAID控制卡配置信息。
[root@localhost ~]# ./storcli64 /c0
show
Generating detailed summary of the adapter, it may take a while to complete.
Controller = 0
Status = Success
Description = None
Product Name = AVAGO MegaRAID SAS 9460-16i
Serial Number = SP90207195
SAS Address = 500062b20452edc0
PCI Address = 00:d8:00:00
System Time = 07/16/2020 05:16:46
Mfg. Date = 01/19/19
Controller Time = 07/16/2020 09:16:45
FW Package Build = 50.6.3-0109
BIOS Version = 7.06.02.2_0x07060502
FW Version = 5.060.00-2262
Driver Name = megaraid_sas
Driver Version = 07.705.02.00-rh1
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x14
SubVendor Id = 0x1000
SubDevice Id = 0x9460
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 216
Device Number = 0
Function Number = 0
Drive Groups = 1
TOPOLOGY :
========
---------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size
PDC PI SED DS3 FSpace TR
---------------------------------------------------------------------------
0 - - -
- RAID1 Optl N 3.637 TB dflt N N none
N N
0 0 - -
- RAID1 Optl N 3.637 TB dflt N N none
N N
0 0 0 65:2 6
DRIVE Onln N 3.637 TB dflt N N none
- N
0 0 1 65:3 4
DRIVE Onln N 3.637 TB dflt N N none
- N
---------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 1
VD LIST :
=======
-----------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC
Size Name
-----------------------------------------------------------------
0/0 RAID1 Optl RW
No RWBD - ON 3.637 TB
RAID1_OS
-----------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read
Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 14
PD LIST :
=======
-------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz
Model
Sp Type
-------------------------------------------------------------------------------
65:0 2 UGood - 1.090 TB SAS HDD
N N 512B
ST1200MM0009 D -
65:1 3 UGood - 1.090 TB SAS HDD
N N 512B ST1200MM0009
D -
65:2 6 Onln 0 3.637 TB SATA HDD
N N 512B ST4000NM0035-1V4107 U -
65:3 4 Onln 0 3.637 TB SATA HDD
N N 512B ST4000NM0035-1V4107 U -
65:4 8 UGood - 3.637 TB SATA HDD
N N 512B ST4000NM0035-1V4107 D -
65:5 13 UGood - 3.637 TB SATA HDD N
N 512B ST4000NM0035-1V4107 D -
65:6 10 UGood - 3.637 TB SATA HDD N
N 512B ST4000NM0035-1V4107 D -
65:7 5 UGood - 3.637 TB SATA HDD
N N 512B ST4000NM0035-1V4107 D -
65:8 12 UGood - 3.637 TB SATA HDD N
N 512B ST4000NM0035-1V4107 D -
65:9 15 UGood - 3.637 TB SATA HDD N
N 512B ST4000NM0035-1V4107 D -
65:10 14 UGood - 3.637 TB SATA HDD N
N 512B ST4000NM0035-1V4107 D -
65:11 9 UGood - 3.637 TB SATA HDD N
N 512B ST4000NM0035-1V4107 D -
65:12 7 UGood - 3.637 TB SATA HDD N
N 512B ST4000NM0035-1V4107 D -
65:13 11 UGood - 3.637 TB SATA HDD N
N 512B ST4000NM0035-1V4107 D -
-------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Cachevault_Info :
===============
------------------------------------
Model State Temp Mode MfgDate
------------------------------------
CVPM05 Optimal 31C - 2019/06/24
------------------------------------
命令功能
创建、删除RAID。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id add vd rlevel[0|1|5|6|10|50|60] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [wt|*wb|awb] [nora|*ra] [Strip=<8|16|32|64|128|256|1024>] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid] |
创建RAID组 |
storcli64 /ccontroller_id/vraid_id del |
删除RAID组 |
*表示默认值。
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
rlevel |
要配置的RAID组级别 |
level可为0、1、5、6、10、50、60,数字分别代表对应的RAID组级别。 |
size |
要配置的RAID组容量 |
默认值为all,即所有成员盘的容量之和。 |
name |
要配置的RAID组名称 |
- |
drives |
要加入RAID组的硬盘 |
- |
startid-endid |
硬盘的起始和结束ID |
- |
slot_id |
硬盘ID |
- |
pdperarray |
子组中的硬盘数 创建RAID10、RAID50、RAID60时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。 |
- |
pdcache |
设置RAID的成员盘的Cache状态 |
l on l off l default |
pi |
使能数据保护 |
- |
wrcache |
设置RAID组的写Cache属性,完整的命令为wrcache=wt|wb|awb,这里“wrcache=”可省略 |
l wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”模式。 |
rdcache |
设置RAID组的读Cache属性,完整的命令为rdcache=ra|nora,这里“rdcache=”可省略。 |
l ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。 l nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。 |
Strip |
设置RAID组条带大小 |
MR卡:64, 128, 256, 512, 1024 iMR卡:只能为64 单位为KB |
EmulationType |
控制逻辑盘在OS中上报的扇区 |
l 0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l 1: Disable,即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l 2:Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Spares |
指定RAID组的热备盘 |
- |
raid_id |
要删除的RAID组的ID |
- |
l 以上涉及的各个ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
l 当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid。
使用指南
无
使用实例
# 创建RAID 0。
[root@localhost ~]# ./storcli64 /c0
add vd r0 size=100GB drives=64:9,10
Controller = 0
Status = Success
Description = Add VD Succeeded
# 删除RAID。
domino:~# ./storcli64 /c0/v0 del
Controller = 0
Status = Success
Description = Delete VD Succeeded
命令功能
查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。
命令格式
storcli64 /ccontroller_id show
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all
storcli64 /ccontroller_id/vvd_id show all
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID |
enclosure_id |
硬盘所在Enclosure的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡连接的硬盘背板的ID |
slot_id |
物理硬盘槽位编号 |
可以将该参数设置为all,表示查询所有硬盘的ID |
vd_id |
虚拟磁盘ID |
可以为all,表示查询所有虚拟磁盘信息。 |
使用指南
无
使用实例
# 查询VD 0的信息。
domino:~# ./storcli64 /c0/v0 show
Controller = 0
Status = Success
Description = None
Virtual Drives :
==============
---------------------------------------------------------
DG/VD TYPE State Access Consist Cache sCC Size Name
---------------------------------------------------------
0/0 RAID1 Optl RW Yes RWBD - 100.0 GB
---------------------------------------------------------
Cac=CacheCad|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded
Optl=Optimal|RO=Read
OnlyRW=Read Write|HD=Hidden|B=Blocked|Consist=Consistent|AWB=Always WriteBack|WT=WriteThrough|
C=Cached IOID=Direct IO|sCC=Scheduled Check Consistency
命令功能
查询和设置系统巡检的相关参数。
命令格式
storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number
storcli64 /ccontroller_id set patrolread delay=delaytime
storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}
storcli64 /ccontroller_id show patrolread
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
系统巡检起始时间 |
例如:2016/07/15 23 说明 起始时间单位为“时”。 |
number |
可同时巡检的硬盘数量 |
– |
delaytime |
系统巡检周期 |
单位为hour。 |
查看RAID控制卡ID的方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。
domino:~# ./storcli64 /c0 set
patrolread starttime=2016/07/15 23 maxconcurrentpd=2
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
PR Starttime 2016/07/15 23:00:00
PR MaxConcurrentPd 2
---------------------------------------
# 使能patrolread并设置为自动模式。
domino:~# ./storcli64 /c0 set
patrolread=on mode=auto
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
Patrol Read Mode auto
---------------------------------------
# 查询patrolread信息。
domino:~# ./storcli64 /c0 show
patrolread
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------------------------
Ctrl_Prop Value
--------------------------------------------
PR Mode 2016/07/15 23:00:00
PR Execution Delay
PR iterations completed 0
PR Next Start time 07/16/2016,00:00:00
PR on
SSD
Disabled
PR Current State Stopped
--------------------------------------------
命令功能
查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。
命令格式
storcli64 /ccontroller_id show spinupdelay
storcli64 /ccontroller_id show spinupdrivecount
storcli64 /ccontroller_id set spinupdelay=time
storcli64 /ccontroller_id set spinupdrivecount=count
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
每组起转硬盘间的时间间隔 |
默认为2,单位为s。 |
count |
上电时允许同时起转的硬盘数量 |
默认为4。 |
查看RAID控制卡ID的方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
建议保持默认配置。
使用实例
# 查询RAID控制卡Spinup参数。
[root@localhost ~]# ./storcli64 /c0
show spinupdelay
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
[root@localhost ~]# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 2
--------------------------
# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。
domino:~# ./storcli64 /c0 set
spinupdelay=20
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 20 second(s)
--------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 5
--------------------------
命令功能
设置物理硬盘数据擦除模式,查询擦除进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
mode |
数据擦除模式 |
l simple:对硬盘进行一轮擦除动作。 l normal:对硬盘进行三轮擦除动作。 l thorough:对硬盘进行九轮擦除动作。 |
以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。
domino:~# ./storcli64 /c0/e252/s3
start erase simple
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.
命令功能
暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。
命令格式
storcli64 /ccontroller_id/vraid_id action bgi
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
action |
后台初始化的操作 |
l show:查看后台初始化进度 l pause:暂停后台初始化 l resume:继续后台初始化 l stop:停止后台初始化 |
以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查看后台初始化进度。
[root@localhost ~]# ./storcli64
/c0/v0 show bgi
Controller = 0
Status = Success
Description = Noe
VD Operation Status :
===================
------------------------------------------------------
VD Operation Progress% Staus Estimated Time Left
------------------------------------------------------
0
BGI
3 In progress 53 Minutes
------------------------------------------------------
命令功能
查询和设置Cache的刷新周期。
命令格式
storcli64 /ccontroller_id show cacheflushint
storcli64 /ccontroller_id set cacheflushint time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
Cache的刷新周期 |
单位为s |
查看RAID控制卡ID的方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Cache的刷新周期为“10”。
domino:~# ./storcli64 /c0 set
cacheflushint=10
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10 sec
---------------------------
# 查询Cache的刷新周期。
domino:~# ./storcli64 /c0 show
cacheflushint
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10
---------------------------
命令功能
设置物理硬盘初始化功能,查询初始化进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
action |
要执行的操作 |
l show:查看初始化进度 l start:开始初始化 l stop:结束初始化 |
以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 初始化slot3硬盘,并查询初始化进度。
[root@localhost ~]# ./storcli64
/c0/e64/s3 start initialization
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
[root@localhost ~]# ./storcli64 /c0/e64/s3 show initialization
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e64/s3 0 In progress 0 Seconds
-----------------------------------------------------
命令功能
开始、暂停、继续、停止RAID重构,并查询进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action rebuild
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
action |
要执行的操作 |
l start:开始重构 l show:查看重构进度 l pause:暂停重构 l resume:继续重构 l stop:停止重构 |
查看RAID控制卡ID的方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 手动开始重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
# 查看硬盘当前重构状态。
[root@localhost ~]# ./storcli64
/c0/e70/s7 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e70/s7 5 In progress 26
Minutes
-----------------------------------------------------
# 暂停硬盘重构进程。
[root@localhost ~]# ./storcli64
/c0/e70/s7 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Succeeded.
# 继续重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 resume rebuild
Controller = 0
Status = Success
Description = Resume Drive Rebuild Succeeded.
# 停止重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 stop rebuild
Controller = 0
Status = Success
Description = Stop Drive Rebuild Succeeded.
命令功能
开始、暂停、继续、停止回拷,并查询进度。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id start copyback target=target_enclosure_id:target_slot_id |
开始回拷。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id action copyback |
暂停、继续、查看、停止回拷。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
target_enclosure_id |
执行回拷的目标硬盘所在Enclosure的ID。 |
- |
target_slot_id |
执行回拷的目标物理硬盘槽位编号。 |
- |
action |
要执行的操作 |
l show:查看回拷进度 l pause:暂停回拷 l resume:继续回拷 l stop:停止回拷 |
查看RAID控制卡ID的方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 手动开始回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s7 start copyback target=70:3
Controller = 0
Status = Success
Description = Start Drive Copyback Succeeded.
# 查看硬盘当前回拷状态。
[root@localhost ~]# ./storcli64
/c0/e70/s3 show copyback
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e70/s3 17 In progress 16 Minutes
-----------------------------------------------------
# 暂停硬盘回拷进程。
[root@localhost ~]# ./storcli64
/c0/e70/s3 pause copyback
Controller = 0
Status = Success
Description = Pause Drive Copyback Succeeded.
# 继续回拷。
[root@localhost ~]# ./storcli64 /c0/e70/s3
resume copyback
Controller = 0
Status = Success
Description = Resume Drive Copyback Succeeded.
# 停止回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s3 stop copyback
Controller = 0
Status = Success
Description = Stop Drive Copyback Succeeded.
命令功能
查询、设置Smart扫描周期。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id set smartpollinterval=value |
设置Smart扫描周期。 |
storcli64 /ccontroller_id show smartpollinterval |
查询Smart扫描周期。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
value |
Smart扫描周期 |
单位为s。 |
查看RAID控制卡ID的方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Smart扫描周期为“60s”。
domino:~# ./storcli64 /c0 set
smartpollinterval=60
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------
命令功能
查询、设置一致性检查参数。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id[/vvd_id]show cc |
查询一致性检查参数。 |
storcli64 /ccontroller_id/vvd_id start cc force |
开始进行一致性检查。 |
storcli64 /ccontroller_id/vvd_id action cc |
暂停/停止/继续执行一致性检查。 |
storcli64 /ccontroller_id set consistencycheck|cc=[off|seq|conc] [delay=value] starttime=time excludevd=evd_id |
设置一致性自动检查参数。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
vd_id |
要操作的RAID的ID |
- |
action |
要执行的操作 |
l pause:暂停 l resume:继续执行 l stop:停止 |
cc |
将一致性检查设置为顺序模式或并行模式,或关闭一致性检查。 |
l off:关闭一致性检查 l seq:顺序模式 l conc:并行模式 |
value |
一致性检查周期 |
- |
time |
一致性检查起始时间 |
例如:2016/07/14 22 说明 起始时间单位为“时”。 |
evd_id |
不进行一致性检查的虚拟磁盘ID |
- |
以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
show命令中不带/vvd_id时,表示查询自动CC参数。
show命令中带/vvd_id时,表示查询CC进度。
使用实例
# 设置一致性自动检查参数。
domino:~# ./storcli64 /c0 set
cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------
Ctrl_Prop Value
------------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2016/07/14 22:00:00
CC ExcludeVD(0) Success
------------------------------------
# 查询CC进度。
domino:~# ./storcli64 /c0/v1 show
cc
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimited Time Left
-----------------------------------------------------------
0 CC - Not in progress -
-----------------------------------------------------------
命令功能
设置全局热备盘和局部热备盘。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive |
设置全局热备盘。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=<N|0,1,2..>] |
设置局部热备盘。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive |
删除热备盘。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
dgs |
硬盘组的ID |
l 不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘 l 0,1,2..:硬盘组ID |
以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置slot 3硬盘为全局热备盘。
domino:~# ./storcli64 /c0/e252/s3
add hotsparedrive
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
# 设置slot 3硬盘为vd0的局部热备盘。
domino:~# ./storcli64 /c0/e252/s3
add hotsparedrive dgs=0
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
命令功能
设置虚拟磁盘或物理硬盘为启动项。
命令格式
storcli64 /ccontroller_id/vvd_id set bootdrive=on
storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
vd_id |
待设置的虚拟磁盘的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置VD0为启动项。
[root@localhost ~]# ./storcli64
/c0/v0 set bootdrive=on
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
-----------------------------------------
VD Property Value Status ErrCd ErrMsg
-----------------------------------------
0 Boot Drive On Success 0 -
-----------------------------------------
[root@localhost ~]#
# 设置slot 7硬盘为启动项。
omino:~# ./storcli64 /c0/e252/s7
set bootdrive=on
Controller = 0
Status = Success
Description = Noe
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
BootDrive PD:252_7
-------------------
命令功能
设置硬盘状态。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
state |
要设置的硬盘状态 |
l online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。 l offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。 l jbod:通过该参数可以将硬盘设置为直通硬盘。 l good: − ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置; − JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。 l good:将硬盘设为空闲盘 |
force |
强制设置硬盘状态,为可选参数。 如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force。 |
- |
以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。
domino:~# ./storcli64 /c0/e0/s1
set good
Controller = 0
Status = Success
Description = Set Drive Good Succeeded.
# 设置slot 7硬盘为直通盘。
domino:~# ./storcli64 /c0/e252/s7
set JBOD
Controller = 0
Status = Success
Description = Set Drive JBOD Succeeded.
命令功能
设置RAID的读写策略。
命令格式
storcli64 /ccontroller_id/vraid_id set accesspolicy=mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
RAID读写策略 |
l rw:可读可写 l blocked:禁止访问 l ro:只读访问 |
以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置RAID读写策略为“rw”。
[root@localhost ~]# ./storcli64
/c0/v0 set accesspolicy=rw
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
----------------------------------------
VD Property Value Status ErrCd ErrMsg
----------------------------------------
0 AccPolicy RW Success 0 -
----------------------------------------
命令功能
设置RAID组成员盘的Cache状态。
命令格式
storcli64 /ccontroller_id/vvd_id set pdcache=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
vd_id |
RAID组的ID |
- |
action |
要执行的操作 |
l on:打开硬盘Cache l off:关闭硬盘Cache l default:将硬盘Cache设置为默认状态 |
以上涉及的各个ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 打开ID为0的RAID组的硬盘Cache。
./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 PdCac On
Success 0 -
---------------------------------------
命令功能
设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。
命令格式
storcli64 /ccontroller_id set eghs eug=state
storcli64 /ccontroller_id set eghs smarter=state
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
state |
紧急热备功能的启用状态 |
l on:启用 l off:禁用 |
查看RAID控制卡ID的方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。
[root@localhost ~]# ./storcli64 /c0
set eghs eug=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------
Ctrl_Prop Value
------------------
EmergencyUG ON
------------------
[root@localhost ~]# ./storcli64 /c0 set eghs smarter=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
EmergencySmarter ON
-----------------------
命令功能
设置空闲硬盘和热备盘的省电模式。
命令格式
storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID。 |
– |
state |
省电模式的启用状态。 |
l on:启用 l off:禁用 |
disktype |
硬盘类型。 |
l 1:空闲硬盘 l 2:热备盘 |
time |
等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。 |
单位为minutes。 |
查看RAID控制卡ID的方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置空闲硬盘的省电模式。
[root@localhost ~]# ./storcli64 /c0
set ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------
Ctrl_Prop Value
------------------------
SpnDwnUncDrv Enabled
SpnDwnTm 30 minutes
------------------------
命令功能
设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。
命令格式
storcli64 /ccontroller_id set action=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
action |
要设置的项目 |
l bgirate:后台初始化速率 l ccrate:一致性校验速率 l prrate:硬盘巡检速率 l rebuildrate:RAID重构速率 l reconrate:RAID扩容和迁移速率 |
value |
后台任务资源占用率 |
1~100 |
查看RAID控制卡ID的方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置硬盘巡检速率为“30%”。
[root@localhost ~]# ./storcli64
/c0 set prrate=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
Patrol Read Rate 30%
-----------------------
命令功能
设置控制卡BIOS在检测到异常时停止继续启动的功能。
命令格式
storcli64 /ccontroller_id set bios mode=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
action |
要执行的操作 |
l soe:控制卡BIOS在检测到异常时停止启动 l ie:忽略检测到的异常 |
查看RAID控制卡ID的方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启Stop on error功能。
[root@localhost ~]# ./storcli64 /c0
set bios mode=soe
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------
命令功能
设置RAID组的Cache读写策略。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/vraid_id set wrcache=wrmode |
设置Cache写策略 |
storcli64 /ccontroller_id/vraid_id set rdcache=rdmode |
设置Cache读策略 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
raid_id |
待设置的RAID组的ID |
可以为all,表示所有RAID。 |
wrmode |
设置Cache写策略 |
l wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”策略。 |
rdmode |
设置Cache读策略 |
l ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。 l nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。 |
以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Cache读写模式为“wt”。
[root@localhost ~]# ./storcli64
/c0/v0 set wrcache=wt
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 wrCache WT Success 0 -
---------------------------------------
命令功能
设置RAID前台初始化模式。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/vraid_id start mode [Force] |
开始进行RAID前台初始化。 |
storcli64 /ccontroller_id/vraid_id stop init |
停止RAID前台初始化。 |
storcli64 /ccontroller_id/vraid_id show init |
查询RAID前台初始化进度。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
raid_id |
待设置的RAID的ID |
- |
mode |
前台初始化模式 |
l init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。 l init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。 |
Force |
如果RAID组有用户数据,必须增加该参数进行初始化。 |
- |
以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 快速初始化RAID。
[root@localhost ~]# ./storcli64
/c0/v4 start init
Controller = 0
Status = Success
Description = Start INIT Operation Success
命令功能
点亮和熄灭指定硬盘的定位指示灯。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。 |
slot_id |
物理硬盘槽位编号 |
可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。 |
action |
要执行的操作 |
l start:点亮硬盘的定位指示灯。 l stop:熄灭硬盘的定位指示灯。 |
以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 点亮slot 7硬盘的定位指示灯。
domino:~# ./storcli64 /c0/e252/s7
start locate
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
命令格式
storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
vd_id |
要扩容的RAID的ID |
– |
capacity |
扩容后的容量 |
– |
expandarray |
当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。 |
– |
以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查询VD的可扩展容量。
[root@localhost ~]# storcli64 /c0/v1
show expansion
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
EXPANSION INFORMATION :
=====================
--------------------------------------------
VD Size OCE NoArrExp WithArrExp Status
--------------------------------------------
1 10.000 GB Y 3.627 TB 5.447 TB -
--------------------------------------------
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion
VD=Virtual Drive | NoArrExp - Without Array Expansion
如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。
# 将VD0的容量扩大“200GB”。
domino:~# ./storcli64 /c0/v0
expand size=200GB
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
0 100.0 GB 457.861 GB 200.0 GB 201.458 GB 44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %
RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
当增加新盘后,可进行RAID级别迁移。
命令格式
storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
vd_id |
要操作的RAID的ID |
– |
slot_id |
要加入RAID的新硬盘的槽位号 |
– |
level |
增加硬盘后RAID的级别 |
l 与原RAID级别相同时,该命令为扩大RAID容量。 l 与原RAID级别不同时,该命令为RAID级别迁移。 |
以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 在RAID 0中增加slot 2硬盘扩容。
domino:~# ./storcli64 /c0/v0 start
migrate type=r0 option=add drives=252:2
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 13 Minutes
-------------------------------------------------------
# 单盘RAID 0加盘迁移至RAID 1。
domino:~# ./storcli64 /c0/v0 start
migrate type=r1 option=add drives=252:3
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 14 Minutes
-------------------------------------------------------
命令功能
查询和清除PreservedCache数据。
命令格式
storcli64 /ccontroller_id show preservedcache
storcli64 /ccontroller_id/vvd_id delete preservedcache force
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
vd_id |
要操作的RAID的ID |
– |
以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查询PreservedCache。
domino:~# ./storcli64 /c0 show
preservedcache
Controller = 0
Status = Success
Description = No Virtual Drive has Preserved Cache Data.
命令功能
收集和清除RAID控制卡的日志。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id show termlog [type=logtype] [logfile[=filename]] |
收集RAID控制卡的日志。 |
storcli64 /ccontroller_id delete termlog |
删除RAID控制卡的日志。 |
storcli64 /ccontroller_id show alilog [logfile[=filename]] |
收集控制卡属性信息、TTY日志和事件到指定文件。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID。 |
- |
logtype |
查询日志类型。 |
l config:查询TTY BBU缓存设置。 l content:查询日志信息。 缺省值:content。 |
filename |
文件名称,将保存日志到此文件。 |
可自定义文件名称,缺省时将默认保存至“StorSAS.log”文件中。 |
查询RAID控制卡ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 收集RAID控制卡的日志。
[root@localhost idriver]# ./storcli64
/c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19 6:48:11: C0:TTY History buffer cleared
Controller = 0
Status = Success
Description = None
# 删除RAID控制卡的日志。
[root@localhost idriver]# ./storcli64
/c0 delete termlog
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------------------
Ctrl Method Result
----------------------------
0 Delete Termlog deleted
----------------------------
命令功能
指导用户查看、导入或者清除RAID控制卡的外部配置。
命令格式
storcli64 /ccontroller_id/fall import preview
storcli64 /ccontroller_id/fall import
storcli64 /ccontroller_id/fall delete
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
使用指南
无
使用实例
# 查看RAID控制卡的外部配置。
[root@localhost ~]# ./storcli64
/c0/fall import preview
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
FOREIGN PREVIEW :
===============
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Total foreign drive groups = 0
# 删除RAID控制卡的外部配置。
[root@localhost ~]# ./storcli64
/c0/fall delete
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration
命令功能
介绍Snapdump相关操作。
命令格式
命令格式 |
说明 |
storcli64 /ccontroller_id show snapdump |
查询snapdump功能是否打开,是否有自动生成的snapdump文件。 |
storcli64 /ccontroller_id get snapdump id=all |
获取历史生成的snapdump文件。 |
storcli64 /ccontroller_id get snapdump |
获取历史生成的snapdump文件和当前再生成一个snapdump文件。 |
storcli64 /ccontroller_id set snapdump state=on|off |
打开和关闭snapdump功能。 |
storcli64 /ccontroller_id delete snapdump force |
删除历史snapdump日志功能。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID。 |
state=on|off |
Snapdump状态 |
on为开启,off为关闭。 |
使用指南
l Snapdump文件是一个日志文件,在一些RAID控制卡异常场景下可以自动生成的日志,也可以主动获取当前RAID控制卡的snapdump日志。
l 使用前可以先查询snapdump功能是否打开,是否有自动生成的snapdump文件,再去收集snapdump。
l 获取历史生成的snapdump文件和当前再生成一个snapdump文件会影响业务,建议离线使用。
l 打开和关闭snapdump功能,如果无法打开注意看提示,请确认当前RAID控制卡固件版本是否支持。
l 收集snapdump文件在当前命令执行目录下,文件格式为snapdump_**************.zip。
使用实例
#查询snapdump功能是否打开,是否有自动生成的snapdump文件。
[root@localhost ~]# storcli64 /c0
show snapdump
Controller = 0
Status = Success
Description = None
SnapDump Properties :
===================
----------------------------------
Ctrl_Prop
Value
----------------------------------
Snapdump
ON
Snapdump Save Count N/A
Snapdump Delay OCR 15
Snapdump properties Read-Write
Snapdump Current Count 2
----------------------------------
SnapDump Details :
================
----------------------------------------------
ID Snapdump Size Snapdump time OnDemand
----------------------------------------------
0 2649396 08-06-2021 07:23:43 Yes
1 2070406 08-07-2021 06:59:24 Yes
----------------------------------------------
#获取历史生成的snapdump文件。
[root@localhost ~]# storcli64 /c0 get
snapdump id=all
Controller = 0
Status = Success
Description = None
#获取历史生成的snapdump文件和当前再生成一个snapdump文件。
[root@localhost ~]# storcli64 /c0 get
snapdump
Controller = 0
Status = Success
Description = Download Support Log
#打开和关闭snapdump功能。
打开:
[root@localhost ~]# storcli64 /c0 set
snapdump state=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
Set Snapdump on
-------------------
关闭:
[root@localhost ~]# storcli64 /c0 set
snapdump state=off
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
Set Snapdump off
-------------------
#删除历史snapdump日志功能。
[root@localhost ~]# storcli64 /c0
delete snapdump force
Controller = 0
Status = Success
Description = Snapdump delete
命令功能
升级控制卡FW。
命令格式
命令格式 |
说明 |
storcli64 /cController_ID download file=xxx.rom [noverchk] |
升级控制卡FW。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
- |
xxx.rom |
固件包的名称 |
- |
使用指南
l 使用“noverchk”参数时将不检查固件包,降级版本时必须使用此参数。
l 升级完成后,需重新上下电服务器使固件包生效。
使用实例
#升级控制卡FW。
[root@localhost fw]# ./storcli64_arm
/c0 download file =FW4.rom noverchk
Download Completed.
Flashing image to adapter...
Controller = 0
Status = Success
Description = F/W Flash Completed.Please reboot the system for the changes to
take effect.
关于本章
主要介绍BROADCOM MegaRAID 9540-8i RAID控制卡的外观、特性、以及配置方法。
本章节涉及的截图以5.230.01-3723 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。
Avago MegaRAID 9540-8i RAID 控制卡(以下简称9540-8i)是基于MegaRAID架构的8端口12Gbit/s SAS控制卡,并采用PCIe 4.0 ×8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。
9540-8i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。
9540-8i不支持虚拟化场景,在安装操作系统前,需要在BIOS中将“Advanced > MISC Config”界面中的参数“Support Smmu”设置为“Disabled”。
9540-8i不支持flush write verify功能。
9540-8i支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考18.2.12 硬盘直通。
9540-8i的结构如图18-1所示。
1 |
UART接口 |
2 |
心跳指示灯 |
3 |
芯片过温指示灯 |
4 |
SlimSAS接口(SFF-8654) |
5 |
散热器 |
- |
- |
9540-8i单板指示灯说明如表18-1所示。
指示灯 |
颜色 |
说明 |
芯片过温指示灯 |
黄色 |
l 常亮:设备温度传感器超过阈值。 l 灭:设备温度在正常温度范围内。 |
心跳指示灯 |
绿色 |
l 闪烁:芯片运行正常,闪烁频率为1Hz。 l 灭:RAID控制卡未开始运行或FW运行异常。 |
9540-8i支持硬盘以直通方式和加入RAID组两种方式混合使用,其中:
l 硬盘直通模式支持的最大硬盘数量为63。
l 直通模式的硬盘和加入RAID组中的硬盘数量最多为63。
l 所有RAID组包含的最大硬盘数量为32。
该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。
l 每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
l 最多支持32个虚拟磁盘(即配置界面中看到的“Virtual Drive”),每个虚拟磁盘最多包含32个硬盘。
9540-8i支持的RAID类型及对应的硬盘个数如表18-2所示。
RAID级别 |
支持硬盘数 |
支持子组数 |
子组支持硬盘数 |
允许坏盘数 |
RAID 0 |
1~32 |
不涉及 |
不涉及 |
0 |
RAID 1 |
2~32(偶数) |
硬盘数÷2 |
||
RAID 10 |
4~32(偶数) |
2~8个RAID 1 |
2~16(偶数) |
子组数 |
l 不支持RAID 00、RAID 5和RAID 50级别。
l 子组数:子RAID的个数。
l RAID 10每个子组中最多允许1个坏盘。
l RAID 10包含的总硬盘数由子组数和子组支持的硬盘数共同决定。
9540-8i的热备功能分为两种:热备盘和紧急备份。
热备盘
对服务器的硬盘进行RAID分组后,一般会配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l Global HSP:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
配置方法请参见18.4.1.1 配置全局热备盘。
l Dedicated HSP:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。
配置方法请参见18.4.1.2 配置局部热备盘。
热备盘容量需大于等于成员盘容量。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
l 用作热备盘的硬盘数据将会丢失。
紧急备份
使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
l 紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。
l 在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。
l 紧急备份的硬盘生效次序:相同类型硬盘 > 相同接口不同介质类型硬盘 > 不同接口相同介质类型硬盘 > 不同接口不同介质类型硬盘。
紧急备份有两种情况,对应了两种设置:
l 当成员盘fail时,空闲盘替代成员盘作为紧急备份。
l 当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。
配置方法请参见18.4.2 设置紧急热备功能。
热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。
l 请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。
l 插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。
l 人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考18.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。
具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。
l 不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:
l RAID组状态保持“Optimal”不变。
l 热备盘状态由“Online”变为“Hot Spare”。
l 新加入硬盘状态由“Copyback/Copybacking”变为“Online”。
l 可使用命令行工具暂停或继续回拷。
l 若回拷时重启服务器,进度将保存。
l 局部热备以及全局热备,更换故障盘后,均会产生回拷。
VD初始化
创建虚拟磁盘后,需要将其初始化,使其可以被操作系统使用,且使具有冗余功能的虚拟磁盘中各成员盘的数据关系满足相应的RAID级别要求。
控制卡提供了多种相应的初始化方式:
l 前台初始化:
− 快速初始化:Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。
− 完全初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。
l 后台初始化:对于RAID 1/RAID 10,如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。
l 一致性校验和后台初始化通常会对性能造成一定损失,直至该操作完成。
l 一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。
硬盘初始化
硬盘可执行的初始化包括:
l Initialize Drive:对前100MByte空间进行全写0操作。
l Drive Erase:对全部空间进行写0操作。
不支持停止SATA SSD的擦除和初始化过程。
RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见18.4.5 迁移RAID级别。
当前支持以下级别类型的迁移:
l RAID 0迁移到RAID 1
l RAID 1迁移到RAID 0
RAID迁移对硬盘数量的要求如表18-3所示。
迁移RAID级别 |
原始硬盘组硬盘数量 |
迁移后的硬盘组硬盘数量 |
RAID 0迁移 RAID 1 |
1~32 |
2~32(偶数) |
RAID 1迁移到RAID 0 |
2~32(偶数) |
2~32 |
控制卡支持的容量扩展方式有两种:
l 通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。
详细操作方法可参考18.4.3 添加新硬盘到RAID。
l 通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。
详细操作方法可参考18.4.4 扩展Virtual Drive可用空间。
l 只有RAID 0、RAID1支持增加硬盘扩容。
l RAID 10不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。
l 当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见 18.7.2.26 通过增加成员盘可用容量扩容RAID。
安全擦除即将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘安全擦除功能:
l Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。
l Normal:对虚拟磁盘或硬盘进行三轮擦除动作。
l Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。
安全数据擦除过程中,主机无法访问该虚拟磁盘。
控制卡支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。
硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。
硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。
硬盘巡检不能在参与以下任何操作的任何硬盘上运行:
l RAID热备修复
l 动态扩盘
l 完全初始化或后台初始化
l 一致性校验
S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T 监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据丢失。
RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描。扫描周期可通过S.M.A.R.T Polling设置,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。
RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。
默认情况下,硬盘节能功能处于开启状态。
当硬盘节能功能开启时,RAID控制卡下挂载的“Unconfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)需要唤醒正处于节能状态的硬盘,该操作会有一定程度的延迟。
硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。
控制卡可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。
控制卡支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
如果需要使能硬盘直通功能,请参见18.4.10 设置JBOD模式。
JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
硬盘漫游是指在同一控制卡下移动物理硬盘。控制卡将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。
要使用硬盘漫游,按以下步骤操作:
1. 关闭操作系统。
2. 将服务器下电。
3. 将物理硬盘移动到背板所需位置。
4. 执行安全检查。确保正确插入物理硬盘。
5. 将服务器上电。
6. 控制卡从物理硬盘上的配置数据中检测到RAID配置。
如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。
此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。
控制卡提供硬盘故障记录功能:
l 使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。
l 禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,控制卡会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。
维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。
l 使能该功能后,当硬盘故障时,会点亮Fault指示灯。
l 禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。
默认情况下,控制卡使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。
针对有冗余功能的RAID 1、RAID10,RAID控制卡可以对RAID组的硬盘数据进行一致性校验,对硬盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。
由于RAID 0不具备冗余性,因此不支持一致性校验。
建议每月至少进行一次一致性校验。
文档中描述的关于9540-8i的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器。
步骤 2 重启过程中,当出现如图18-2所示界面时,按“Delete”,进入输入密码界面。
步骤 3 输入密码并按“Enter”。
进入如图18-3所示界面。
步骤 4 按“→”切换到“Advanced”页签,如图18-4所示。
如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见18.5.3 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy进行修复。
步骤 5 选择要操作的9540-8i控制卡,按“Enter”。
进入如图18-5和图18-6所示主界面,界面参数如表18-4所示。
参数 |
说明 |
Main Menu |
RAID控制卡主菜单,包含了RAID控制卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID控制卡当前工作状态。 |
Backplane |
背板个数。 |
CacheVault |
是否支持Cache。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的硬盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID控制卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 说明 仅当控制卡存在外部配置时,会显示该选项。 |
Configure |
提供删除配置的接口。 |
Set Factory Defaults |
恢复出厂设置。 |
Update Firmware |
升级固件。 |
Silence Alarm |
板载蜂鸣器的使能状态。 说明 控制卡未配置蜂鸣器,此项设置不起作用。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9540-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见18.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
登录管理界面。具体操作方法请参见18.3.1 登录管理界面。
步骤 1 根据路径“Main Menu > Configuration Management > Create Virtual Drive”进入RAID配置界面,如图18-7和图18-8所示,参数说明如表18-5所示。
若控制卡中存在JBOD盘,创建虚拟磁盘时将提示“One or more JBOD drives have been detected in the system. Only Unconfigured Good drives can be used in a configuration. Please select the JBOD drives you would like to convert to Unconfigured Good drives from the list below.”,此时可采取以下操作:
l 可根据列表选定JBOD盘,选择“OK”将JBOD盘转换为空闲盘。再进入创建虚拟磁盘界面。
l 选择Skip并按“Enter”直接进入创建虚拟磁盘界面。
图18-7 “Create Virtual Drive”界面(1)
图18-8 “Create Virtual Drive”界面(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图18-9所示,界面参数如表18-6所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 按表18-6所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 0支持的硬盘个数为1~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。
5. 选择“Apply Changes”并按“Enter”保存配置。
提示“The operation has been performed successfully.”
6. 选择“OK”并按“Enter”完成成员盘配置。
步骤 4 按照表18-5所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照18.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 选择“Save Configuration”并按“Enter”。
弹出操作确认界面。
2. 选择“Confirm”并按“Enter”确认。
3. 选择“Yes”并按“Enter”。
提示“The operation has been performed successfully”。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9540-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见18.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
登录管理界面。具体操作方法请参见18.3.1 登录管理界面。
步骤 1 根据路径“Main Menu > Configuration Management > Create Virtual Drive”进入RAID配置界面,如图18-10和图18-11所示,参数说明如表18-7所示。
若控制卡中存在JBOD盘,创建虚拟磁盘时将提示“One or more JBOD drives have been detected in the system. Only Unconfigured Good drives can be used in a configuration. Please select the JBOD drives you would like to convert to Unconfigured Good drives from the list below.”,此时可采取以下操作:
l 可根据列表选定JBOD盘,选择“OK”将JBOD盘转换为空闲盘。再进入创建虚拟磁盘界面。
l 选择Skip并按“Enter”直接进入创建虚拟磁盘界面。
图18-10 “Create Virtual Drive”界面(1)
图18-11 “Create Virtual Drive”界面(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图18-12所示,界面参数如表18-8所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 按表18-8所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 1支持的硬盘个数为2~32(偶数)。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。
5. 选择“Apply Changes”并按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
步骤 4 按照表18-7所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照18.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 选择“Save Configuration”并按“Enter”。
弹出操作确认界面。
2. 选择“Confirm”并按“Enter”确认。
3. 选择“Yes”并按“Enter”。
提示“The operation has been performed successfully”。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9540-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见18.2.1 支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
登录管理界面。具体操作方法请参见18.3.1 登录管理界面。
步骤 1 根据路径“Main Menu > Configuration Management > Create Virtual Drive”进入RAID配置界面,如图18-13和图18-14所示,参数说明如表18-9所示。
若控制卡中存在JBOD盘,创建虚拟磁盘时将提示“One or more JBOD drives have been detected in the system. Only Unconfigured Good drives can be used in a configuration. Please select the JBOD drives you would like to convert to Unconfigured Good drives from the list below.”,此时可采取以下操作:
l 可根据列表选定JBOD盘,选择“OK”将JBOD盘转换为空闲盘。再进入创建虚拟磁盘界面。
l 选择Skip并按“Enter”直接进入创建虚拟磁盘界面。
图18-13 Create Virtual Drive (1)
图18-14 “Create Virtual Drive” (2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图18-15所示,界面参数如表18-10所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 按表18-10所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 10支持2~8个Span,每个Span支持的硬盘数为2~16(偶数),且各个Span的硬盘数量必须保持一致。
l RAID 10支持的硬盘总数为4~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。
5. 选择“Apply Changes”按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如图18-16所示。
1. 选择“Add More Spans”并按“Enter”。
2. 选择“Select Drives”并按“Enter”。
3. 在打开的列表中选择第2个Span的成员盘。
各个Span的硬盘数量必须保持一致。
4. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
5. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID10至少需要创建2个Span,最多可以创建8个Span。
步骤 6 按照表18-9所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照18.4.11 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 选择“Save Configuration”并按“Enter”。
弹出操作确认界面。
2. 选择“Confirm”并按“Enter”确认。
3. 选择“Yes”并按“Enter”。
提示“The operation has been performed successfully”。
4. 选择“OK”并按“Enter”完成配置。
步骤 8 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
您可以通过此操作设置控制卡启动项。
在OS下用命令行工具设置启动项,请参见18.7.2.20 设置启动项。
操作步骤
登录管理界面。具体操作方法请参见18.3.1 登录管理界面。
步骤 1 在主界面选择“Controller Management”并按“Enter”。
进入“Controller Management”界面。如图18-17所示。
步骤 2 通过“↑”、“↓”选择“Select Boot Device”并按“Enter”。
显示可设置为启动项的硬盘或虚拟磁盘。
仅在JBOD模式开启时,可设置硬盘为启动项。
步骤 3 选择需配置为启动项的硬盘或虚拟磁盘,按“Enter”完成配置。
----结束
当一台服务器配置了单张控制卡时,控制卡下的启动项即为该服务器的启动项,具体设置方法请参见18.3.5.1 设置控制卡启动项。
同一台服务器配置了多张控制卡时,EFI/UEFI模式下的系统启动盘需要在BIOS中进行设置。
设置启动项的操作方法请参见BIOS 参数参考的“设置启动设备”章节。
对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
l 用作热备盘的硬盘数据将会丢失。
操作步骤
登录管理界面,具体操作方法请参见18.3.1 登录管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图18-18所示。
步骤 2 配置全局热备盘。
1. 将“Operation”设置为“Assign Global Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
显示The operation has been performed successfully。
3. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作步骤
当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
登录管理界面,具体操作方法请参见18.3.1 登录管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图18-19所示。
步骤 2 配置局部热备盘。
1. 将“Operation”设置为“Assign Dedicated Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
打开当前存在的RAID列表。
3. 选择要关联的RAID并按“Enter”。
4. 选择“OK”按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”,完成配置并返回上级界面。
----结束
操作场景
当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。
操作步骤
登录管理界面,具体操作方法请参见18.3.1 登录管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图18-20所示。
步骤 2 删除热备盘。
1. 将“Operation”设置为“Unassign Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作步骤
登录管理界面,具体操作方法请参见18.3.1 登录管理界面。
步骤 1 进入“Advanced Controller Properties”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
3. 选择“Advanced Controller Properties”并按“Enter”。
步骤 2 设置紧急热备。
1. 选择“Spare”并按“Enter”。
2. 将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如图18-21所示。
3. 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
----结束
操作场景
l 只有RAID 0、RAID 1支持增加硬盘扩容。
l RAID 10不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
l 服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。
l 执行添加新硬盘到RAID操作之前,建议先备份数据。
增加硬盘扩容过程中,如果出现硬盘故障,会导致:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行增加硬盘扩容操作。
操作步骤
登录管理界面。具体操作方法请参见18.3.1 登录管理界面。
步骤 1 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”。
进入虚拟磁盘选项界面,如图18-22所示。
步骤 2 添加新硬盘。
1. 选择要进行扩容的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图18-23所示。
3. 选择“Reconfigure Virtual Drives”,并按“Enter”
4. 选择“Go”并按“Enter”。
5. 选择要扩容的RAID级别。
增加硬盘扩容时,请保证该处的RAID级别与原级别一致。
6. 选择“Choose the Operation”,并按“Enter”。
进入硬盘选择界面,如图18-24所示。
7. 选择要增加的硬盘,并按“Enter”。
l 硬盘状态为“【×】”时表示该硬盘已选择。
l 增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。
l RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。
8. 选择“Apply Changes”并按“Enter”。
进入操作确认界面。
9. 选择“Confirm”并按“Enter”。
10. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
11. 选择“OK”并按“Enter”。
返回到如图18-25所示界面。
12. 选择“Start Operation”并按“Enter”。
显示操作成功。
13. 选择“OK”并按“Enter”。
重新进入虚拟磁盘选项界面,验证扩容结果,如图18-26所示,表示RAID正在进行扩容。
图18-26 Reconfigure Virtual Drives
扩容属于后台动作,在HII界面只能触发而不能正式开始扩容,所以扩容的进度条一直显示为0%。当进入OS后,扩容才会开始进行。
----结束
操作场景
在Virtual Drive未占用成员硬盘全部容量时,可通过调整Virtual Drive的可用空间,扩大Virtual Drive容量。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见18.3.1 登录管理界面。
步骤 1 进入要操作的虚拟磁盘界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图18-27所示。
图18-27 Virtual Drive Management
步骤 2 扩容虚拟磁盘。
1. 将“Operation”设置为“Expand Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入虚拟磁盘扩容界面,如图18-28界面所示,界面参数如表18-11所示。
参数 |
参数说明 |
Current Capacity |
虚拟磁盘当前容量。 |
Available Capacity |
可用于扩展的容量。 |
Enter a Percentage of Available Capacity |
输入扩容比例。 |
Capacity of Virtual Drive after Expansion |
扩容后虚拟磁盘容量。 |
3. 设置扩容百分比。
4. 选择“OK”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作场景
随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。
在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。
对系统的影响
RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行RAID级别迁移操作。
必备事项
前提条件
迁移RAID级别之前,需具备如下条件:
l 已通过远程虚拟控制台登录到服务器的实时操作桌面。
l 当前存在的硬盘个数满足目标RAID级别要求。
l 已登录管理界面,具体操作请参见18.3.1 登录管理界面。
控制卡支持以下级别类型的迁移:
l RAID 0迁移到RAID 1
l RAID 1迁移到RAID 0
RAID迁移对硬盘数量的要求如表18-3所示。
l 当RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
l 迁移只支持增加与RAID组成员盘同类型同规格的硬盘。
l 为防止数据丢失,请在该操作之前备份当前RAID组的数据。
l 只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。
l 迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。
操作步骤
进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”并按“Enter”。
进入虚拟磁盘选项界面,如图18-29所示。
步骤 2 选择RAID迁移的目标级别。
下面以将RAID 0迁移到RAID 1为例进行说明。
1. 选择要进行迁移的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图18-30所示。
3. 选择“Reconfigure Virtual Drives”,并按“Enter”。
4. 选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如图18-31所示。不设置时默认与原RAID组配置一致。
5. 选择“Go”,并按“Enter”。
进入RAID配置界面,如图18-32所示。
图18-32 Reconfigure Virtual Drives
6. 选择“New RAID Level”并按“Enter”。
打开RAID迁移的目标级别选择窗口,如图18-33所示。
7. 选择“RAID 1”并按“Enter”。
步骤 3 添加硬盘。
1. 选择“Choose the operation”并按“Enter”。
打开硬盘选择窗口。
2. 选择要增加的硬盘并按“Enter”。
RAID迁移对硬盘数量的要求请参见表18-3。
3. 选择“Apply Changes”并按“Enter”。
弹出操作确认会话框。
4. 选择“Confirm”并按“Enter”。
5. 选择“Yes”并按“Enter”。
提示操作成功。
6. 按“Esc”返回图18-32界面。
步骤 4 RAID级别迁移。
1. 选择“Start Operation”并按“Enter”。
提示操作成功。
2. 选择“OK”并按“Enter”。
步骤 5 查看迁移结果。
1. 进入Virtual Drive Management界面,检查迁移结果,如图18-34所示,表示RAID正在进行迁移。
l 迁移过程中若重启服务器,该任务将在重启后继续进行。
l 迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。
2. 选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 0”变成“RAID 1”,且“Status”状态显示为“Optimal”时,表示RAID迁移成功。
----结束
迁移属于后台动作,在HII界面只能触发而不能正式开始,所以迁移的进度条一直显示为0%。当进入OS后,迁移才会开始进行。
操作场景
RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见18.3.1 登录管理界面。
步骤 1 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图18-35所示。
图18-35 Virtual Drive Management
步骤 2 删除虚拟磁盘。
1. 将“Operation”设置为“Delete Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作场景
介绍将带有外部配置的硬盘进行重构的操作方法,不带外部配置硬盘的重构方法请参见0硬盘相关故障。
操作步骤
在“Main Menu”界面中选择“Drive Management”并按“Enter”。
步骤 1 选中要进行重构的硬盘,按“Enter”。
步骤 2 将“Operation”设置为“Make Unconfigured Good”。
步骤 3 选择“Go”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 按“Enter”完成配置。
硬盘状态变为“(Foreign),Unconfigured Good”。
步骤 5 清除外部配置,具体操作请参见18.4.9 导入和清除外部配置。
RAID组开始进行重构。
----结束
l 当出现硬盘离线情况时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。
l rebuild属于后台动作,在HII界面只能触发而不能正式开始rebuild,所以rebuild的进度条一直显示为0%。当进入OS后,rebuild才会开始进行。
操作场景
用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。
操作步骤
登录管理界面。具体操作方法请参见18.3.1 登录管理界面。
步骤 1 根据路径“Main Menu > Controller Management”进入“Controller Management”界面。如图18-36和图18-37所示,参数说明如表18-12所示。
图18-36 Controller Management(1)
图18-37 Controller Management(2)
参数 |
参数说明 |
Product Name |
RAID控制卡名称。 |
Serial Number |
RAID控制卡序列号。 |
Controller Status |
RAID控制卡的工作状态。 |
Personality Mode |
RAID控制卡的模式。 |
Select Boot Device |
当前启动项。 |
PCI ID |
RAID控制卡的PCI ID。 |
PCI Segment:Bus:Device:Fuction |
RAID控制卡的PCI设备索引。 |
PCI Slot Number |
RAID控制卡的PCI槽位号。 |
Package Version |
RAID控制卡的套件版本。 |
Firmware Version |
RAID控制卡的固件版本号。 |
NVDATA Version |
RAID控制卡配置信息的版本号。 |
Supported Device Interfaces |
支持的设备接口。 |
Drive Count |
RAID控制卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID控制卡下已有虚拟磁盘数量。 |
Advanced Controller Management |
更多的控制卡操作。 |
Advanced Controller Properties |
查看和修改控制卡的高级属性。 |
步骤 2 选择“Advanced Controller Properties”并按“Enter”。
进入控制卡高级属性界面,如图18-38所示,参数说明如表18-13所示。
图18-38 Advanced Controller Properties界面(1)
图18-39 Advanced Controller Properties界面(2)
参数 |
说明 |
Patrol Read |
系统巡检。 |
Power Save Setting |
设置硬盘休眠。 |
Spare |
设置控制卡热备状态。 |
Task Rates |
设置各种任务占用系统比率。 |
Alarm Control |
控制卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Coercion Mode |
表示硬盘容量压缩模式,包括: l None l 128MB l 1GB 默认为“1GB”。 说明 硬盘压缩模式可以对不同厂商的相同规格硬盘的容量差异进行取整处理,使不同厂商的硬盘强制为相同的容量,以便可以在同一个RAID组中使用。取整单位可以为None、128MB、1GB,其中None表示RAID控制卡对不同厂商的硬盘不做取整处理。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。 默认为“Stop On Errors”。 |
Controller BIOS |
控制卡BIOS的使能情况。 |
ROC Temperature |
控制卡温度。 |
Shield State Supported |
是否支持暂停I/O,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
硬盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Maintain Drive Fail History |
表示是否使能硬盘故障记录功能,默认为使能状态。 说明 l 该参数设置为“Disabled”时: l 当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。 l 新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。 l 该参数设置为“Enabled”时: l 新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。 l 新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见18.4.9 导入和清除外部配置章节。 |
SMART Polling |
SMART轮巡检测周期。默认值为“300”。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性校验。 |
JBOD Mode |
硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。 |
Large IO Support |
启用或禁用大型I/O支持功能。 |
Unmap Capability |
解除映射能力。 |
Firmware Device Order |
该功能开启后,设置为启动项的RAID组盘符为sda。 说明 开启该功能前,请先确认控制卡驱动与固件配套。 |
Apply Changes |
保存配置。 |
----结束
操作场景
l 服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。
l 新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。
l 如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!
l 为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。
l 当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。
导入外部配置
登录管理界面,具体操作方法请参见18.3.1 登录管理界面。
步骤 1 在主界面中选择“Main Menu”并按“Enter”。
步骤 2 选择“Configuration Management”并按“Enter”。
步骤 3 选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。
进入外部配置管理界面,如图18-40所示。
图18-40 Manage Foreign Configuration
步骤 4 选择“Preview Foreign Configuration”并按“Enter”。
进入外部配置管理界面,如图18-41所示。
图18-41 Preview Foreign Configuration
步骤 5 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 6 选择“Confirm”并按“Enter”。
步骤 7 选择“Yes”,并按“Enter”。
提示The operation has been performed successfully。
步骤 8 选择“OK”并按“Enter”完成配置返回上级界面。
----结束
清空外部配置
登录管理界面,具体操作方法请参见18.3.1 登录管理界面。
步骤 1 在主界面中选择“Main Menu”并按“Enter”。
步骤 2 选择“Configuration Management”并按“Enter”。
步骤 3 选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。
进入外部配置管理界面,如图18-42所示。
图18-42 Manage Foreign Configuration
步骤 4 选择“Preview Foreign Configuration”并按“Enter”。
进入外部配置管理界面,如图18-43所示。
图18-43 Preview Foreign Configuration
步骤 5 选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 6 选择“Confirm”并按“Enter”。
步骤 7 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 8 选择“OK”并按“Enter”完成配置返回上级界面。
----结束
控制卡支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
l 开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。
l JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
登录管理界面。具体操作方法请参见18.3.1 登录管理界面。
步骤 1 根据路径“Main Menu > Controller Management > Advanced Controller Properties”进入控制卡高级属性界面。
步骤 2 选择“JBOD Mode”并按Enter。
步骤 3 选择“Enabled”并按“Enter”。如图18-44所示。
图18-44 “Advanced Controller Properties”
步骤 4 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 选择“OK”并按“Enter”完成配置。
----结束
该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID0存在一个VD为例(如图18-45所示),详细操作方法如下:
图18-45 Virtual Drive Management
按照“Main Menu > Configuration Management > Create Virtual Drive”的路径进入“Create Virtual Drive”界面,如图18-46所示。
步骤 2 将“Select RAID Level”设置为“RAID0”。
步骤 3 将“Select Drives From”设置为“Free Capacity”,如图18-47所示。
步骤 4 选择“Select Drive Groups”并按“Enter”。
显示当前存在的RAID组(Drive Group),如图18-48所示。
步骤 5 选择要创建多个VD的RAID组,并按“Enter”,如图18-49所示。
步骤 6 选择“Apply Changes”并按“Enter”。
提示操作成功。
步骤 7 选择“OK”并按“Enter”返回VD配置界面,如图18-50所示,参数说明如表18-14所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照16.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 8 按照表18-14所述配置VD的相关属性。
步骤 9 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
步骤 10 选择“Confirm”并按“Enter”。
步骤 11 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
可进入Virtual Drive Management界面,查看当前存在的所有VD,如图18-51所示。
图18-51 Virtual Drive Management
----结束
每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤12。
查询RAID控制卡固件版本的方法有如下几种:
l 在iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。
l 服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见0查询控制卡配置信息。
回显信息中的“FW Version”字段即为RAID控制卡的固件版本。
l 在RAID控制卡管理界面进行查询:根据路径“Main Menu > Controller Management”进入“Controller Management”界面。如图18-52所示。
界面中的“Firmware Version”即为RAID控制卡的固件版本
介绍了硬盘故障和RAID控制卡故障的常用处理方法。
更多故障案例请联系技术支持获取。
问题描述
当服务器出现如下现象时,说明硬盘故障。
l 硬盘故障指示灯常亮。
l 服务器开机状态下,硬盘指示灯不亮。
l 服务器上报硬盘故障告警。
处理方法
JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
l 通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。
l 通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。
l 通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考18.6.1.9 Drive Management。
l 通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考18.7.2.32 查询RAID控制卡/RAID组/物理硬盘信息。
步骤 1 更换新硬盘。
l 更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘导致,则可以将硬盘设置为Unconfig Good后,参考18.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。
l 若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在表18-2查看RAID组支持的最大故障硬盘数量。
l 更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。
l 新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。
拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:
l 若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。
l 若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。
l 若故障硬盘为直通盘,则直接更换即可。
l 若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。
− UEFI模式下创建RAID0的方法请参见18.3.2 创建RAID 0。
− 通过命令行方式创建RAID0的方法请参见18.7.2.17 创建和删除RAID。
----结束
问题描述
正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
但当RAID控制卡未设置紧急热备时,成员盘状态显示为fail或prefail时,可使用以下方法处理。
处理方法
使用StorCLI工具,具体操作请参考0下载和安装StorCLI工具。
步骤 1 执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考18.7.2.30 设置硬盘状态。
storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]
l controller_id:硬盘所在RAID控制卡的ID
l enclosure_id:硬盘所在Enclosure的ID
l slot_id:物理硬盘槽位ID
步骤 2 更换离线硬盘。
步骤 3 RAID组自动执行重构。
等待重构完成。
----结束
问题描述
硬盘状态显示为Unconfigured Bad或UBad。
处理方法
使用StorCLI工具,具体操作请参见0下载和安装StorCLI工具。
步骤 1 执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见18.7.2.30 设置硬盘状态。
storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]
l controller_id:硬盘所在RAID控制卡的ID
l enclosure_id:硬盘所在Enclosure的ID
l slot_id:物理硬盘槽位ID
步骤 2 重新查看硬盘状态是否更改为Unconfigured Good或Ugood。具体操作请参见18.6.1.9 Drive Management界面或18.7.2.32 查询RAID控制卡/RAID组/物理硬盘信息。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤4。
步骤 3 查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见18.4.9 导入和清除外部配置或18.7.2.35 查看/导入/清除外部配置。
l 问题解决 => 处理完毕。
l 问题未解决 => 联系技术支持处理。
----结束
问题描述
当服务器出现如下现象时,说明控制卡故障。
l 数据无法写入控制卡控制的硬盘。
l 服务器上报控制卡故障告警。
处理方法
登录iBMC Web界面查看告警信息。
步骤 1 根据告警信息,参考iBMC告警处理。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤3
步骤 3 查询兼容性查询助手或者联系技术支持处理。
----结束
问题描述
正常情况下,当服务器配置了RAID控制卡且RAID控制卡状态正常时,进入BIOS的Advanced页签后,会显示RAID控制卡的信息,如图18-53所示。
如果Advanced页签不显示RAID控制卡的信息,如图18-54所示,则:
l 如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:
− 如果不显示驱动打印信息,可尝试下电后重新拔插RAID控制卡再上电、下电后更换RAID控制卡再上电或者联系技术支持。
− 如果显示“BROADCOM MegaRAID Driver”,则可以通过本章节的指导修复RAID控制卡。
l 如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,则可以通过本章节的指导修复RAID控制卡;如果不显示,可尝试下电后重新拔插RAID控制卡再上电、下电更换RAID控制卡再上电或者联系技术支持。
处理方法
l 当BIOS的版本为0.98之前版本(不包含0.98版本)时:
a. 在Advanced页签选择“Driver Health Manager”并按Enter。
进入“Driver Health Manager”界面。
b. 选择要进行修复的RAID控制卡驱动,如“AVAGO EFI SAS Driver”,并按“Enter”。
进入“Critical Message”界面。
c. 查看“Critical Message”界面的打印信息:
n 显示“The following VDs have missing disks. ”=> 请参见0The following VDs have missing disks。
n 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见18.5.3.6 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
l 当BIOS的版本为0.98及以上版本时:
a. 在“Advanced”页签选择“Some drivers are not healthy”。
进入健康状态查询界面。
b. 选择“Repair the whole platform”,并按“Enter”。
进入“Critical Message”界面。
c. 查看“Critical Message”界面的打印信息。
n 显示“The following VDs have missing disks. ”=> 请参见0The following VDs have missing disks。
n 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见18.5.3.6 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见0RAID控制卡启动中出现的常见的错误消息及处理方法。
问题描述
如图18-55所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。
处理方法
修复RAID控制卡。
1. 在图18-55中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
2. 输入“C”并按“Enter”。
3. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
4. 输入“y”并按“Enter”。
提示“Critical Message handling completed. Please exit”。修复完成。
步骤 1 重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图18-56所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”
处理建议
该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:
l 下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。
l 忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:
a. 在图18-56中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
b. 输入“c”并按“Enter”。
c. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
d. 输入“y”并按“Enter”。
提示Critical Message handling completed. Please exit。
e. 按“Esc”退出当前界面。
弹出确认保存配置会话框,如图18-57所示。
f. 按“Y”保存配置,操作完成。
g. 按Esc键返回“Device Manager”界面。
h. 选择控制卡并按“Enter”,进入RAID控制卡管理界面。
问题描述
硬盘响应命令超时,控制卡会对硬盘进行复位。3次复位后尚未恢复时将可能耗尽控制卡TM(Task Management)资源,触发Fatal error,此时会通过OCR(Online Controller Reset)自愈恢复,期间将有短时间业务中断(约30s~60s),控制卡复位后会完成踢盘,将故障硬盘置为Ubad状态。
控制卡自愈恢复,需要开启OCR开关。
触发条件
当下发到硬盘的I/O出现超时不响应的情况时,RAID控制卡会通过reset硬盘来恢复,正常情况下,硬盘会重新接入或者多次reset之后会进行踢盘。
当出现reset之后硬盘仍然无法响应RAID控制卡指令且无法踢盘时,RAID控制卡会再次reset进行复位,每次reset会占用RAID控制卡资源,短时间内多次reset会导致RAID控制卡资源耗尽,该场景下,RAID控制卡会通过重新加载FW进行恢复。
该机制为此类卡的正常处理机制,由于架构限制,无法进行优化。
识别方法
l 已安装OS:
当遇到短时间业务中断,恢复后查看有被置为Ubad状态的硬盘时,可以查看控制卡日志,搜索dm.c并查看其发生时间,如与业务中断时间节点接近,即可断定为触发了该机制。
注意控制卡与OS时间差。
l 未安装OS:
无OS时,触发该机制的操作为:从“Advanced”页签进入控制卡界面。若触发该机制,进入控制卡卡操作界面时将会卡住,无法恢复。
处理方法
定位故障硬盘。
l 已安装OS:
− 如确认触发了该机制并且已经完成了踢盘,需要更换Ubad状态的硬盘。
− 如无Ubad状态的硬盘,查看日志并搜索“indicates critical condition”,目标行的“element xx indicates critical condition”中,“xx”即为问题硬盘的槽位号。
已安装OS,但是进入“Advanced”页签的控制卡操作界面卡住,需要重新上下电进入OS,按照以上方式定位故障硬盘。
l 未安装OS:
系统未安装OS,出现该异常时,保留预安装OS RAID组数目的硬盘,将其他硬盘拔出并记录槽位号,如成功安装OS进入系统后,按照已安装OS的操作来确认问题硬盘。
步骤 1 更换故障硬盘。
l 是 => 处理完毕。
l 否 => 请联系技术支持。
----结束
问题描述
RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD mode将RAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如图18-58所示,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。
当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。
处理方法
(可选)登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面。
步骤 1 依次进入Main Menu>Controller Management>Advanced Controller Management界面,如图18-59所示。
图18-59 Advanced Controller Management界面
步骤 2 选择“Switch to RAID mode”并按“Enter”。
提示操作成功,如图18-60所示。
步骤 3 选择“OK”并按“Enter”。
返回到“Advanced Controller Management”界面,显示正在切换模式,如图18-61所示。
图18-61 Advanced Controller Management界面
步骤 4 按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面。
步骤 5 依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如图18-62所示。
图18-62 Advanced Controller Management界面
l 是 => 处理完毕。
l 否 => 请联系技术支持。
----结束
RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。
界面介绍
“Main Menu”界面如图18-63,参数说明如表18-15所示。
参数 |
参数说明 |
Configuration Management |
配置管理RAID。 |
Controller Management |
管理RAID控制卡。 |
Virtual Drive Management |
管理虚拟磁盘。 |
Drive Management |
管理硬盘。 |
Hardware Components |
查询部件信息。 |
可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。
界面介绍
“Configuration Management”界面如图18-64,参数说明如表18-16所示。
图18-64 Configuration Management
参数 |
参数说明 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。 |
View Drive Group Properties |
查看硬盘组属性。 当存在硬盘组时会显示该参数。 |
Make JBOD |
硬盘直通功能,硬盘不加入RAID,直接使用。 |
Clear Configuration |
清除配置。 |
Manage Foreign Configuration |
管理外部配置。 当存在外部配置时会显示该参数。 |
界面说明
“Create Virtual Drive”界面如图18-65和图18-66所示,参数说明如表18-17所示。
图18-65 “Create Virtual Drive”界面(1)
图18-66 “Create Virtual Drive”界面(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。包括: l NO:使能后台初始化功能。 l Yes:禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
界面说明
“Create Profile Based Virtual Drive”界面如图18-67所示,参数说明如表18-18所示。
图18-67 “Create Profile Based Virtual Drive”
参数 |
说明 |
Generic RAID 0 |
快速创建RAID0。 |
Generic RAID 1 |
快速创建RAID1。 |
Generic RAID 5 |
快速创建RAID5。不支持此选项。 |
Generic RAID 6 |
快速创建RAID6。不支持此选项。 |
File Server |
快速创建文件服务器。不支持此选项。 |
Web/Generic Server |
快速创建网页/通用服务器。不支持此选项。 |
Database |
快速创建数据库。 |
快速创建RAID
通过“↑”、“↓”选择要创建的RAID(以“Generic RAID 1”为例)并按“Enter”。
打开RAID配置界面,如图18-68,参数说明如表18-19所示。
参数 |
参数说明 |
Drive Selection Criteria |
系统自动选择的成员盘。 |
Virtual Drive Name |
系统自定义的RAID组名称。 |
RAID Level |
当前配置的RAID组的级别。 |
Virtual Drive Size |
RAID组的容量。 |
Power Save Mode |
数据掉电保护模式。 |
Strip Size |
RAID组扇区大小。 |
Read Policy |
RAID组的数据读策略。 |
Write Policy |
RAID组的数据写策略。 |
IO Policy |
RAID组I/O策略。 |
Access Policy |
数据读写的策略。 |
Drive Cache |
硬盘Cache策略。 |
Create Dedicated Hot Spare |
是否为RAID组创建局部热备盘。 |
Save Configuration |
保存当前配置。 |
步骤 2 按表18-18所示查看或配置相关参数。
步骤 3 选择“Save Configuration”并按“Enter”。
弹出操作确认界面。
步骤 4 选择“Confirm”并按“Enter”。
步骤 5 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 6 选择“OK”并按“Enter”完成配置。
----结束
界面说明
“View Drive Group Properties”界面如图18-69,参数说明如表18-20所示。
图18-69 “View Drive Group Properties”
参数 |
参数说明 |
Drive Group |
硬盘组名称。 |
Capacity Allocation |
硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。 |
选择空闲硬盘转换为直通盘。
界面说明
“Make JBOD”界面如图18-70所示。
选择直通盘转换为空闲盘。
界面说明
“Make Unconfigured Good”界面如图18-71所示。
图18-71 “Make Unconfigured Good”
该操作将清除控制卡上所有的RAID、热备盘、Pinned Cache和直通盘配置信息,请谨慎执行该操作。
界面说明
“Clear Configuration”界面如图18-72所示。
该界面提供控制卡管理接口,可查看并修改控制卡的详细参数。
界面介绍
“Controller Management”界面如图18-73和图18-74所示,参数说明如表18-21所示。
图18-73 Controller Management(1)
图18-74 Controller Management(2)
参数 |
参数说明 |
Product Name |
RAID控制卡名称。 |
Serial Number |
RAID控制卡序列号。 |
Controller Status |
RAID控制卡的工作状态。 |
Personality Mode |
RAID控制卡的模式。 |
Select Boot Device |
当前启动项。 |
PCI ID |
RAID控制卡的PCI ID。 |
PCI Segment:Bus:Device:Fuction |
RAID控制卡的PCI设备索引。 |
PCI Slot Number |
RAID控制卡的PCI槽位号。 |
Package Version |
RAID控制卡的套件版本。 |
Firmware Version |
RAID控制卡的固件版本号。 |
NVDATA Version |
RAID控制卡配置信息的版本号。 |
Supported Device Interfaces |
支持的设备接口。 |
Drive Count |
RAID控制卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID控制卡下已有虚拟磁盘数量。 |
Advanced Controller Management |
更多的控制卡操作。 |
Advanced Controller Properties |
查看和修改控制卡的高级属性。 |
界面介绍
“Advanced Controller Management”界面如图18-75所示。
图18-75 “Advanced Controller Management”
表18-22 参数说明
参数 |
说明 |
Clear Controller Events |
清除控制卡的事件日志。 |
Save Controller Events |
保存控制卡的事件日志。 |
Save TTY Log |
保存终端操作日志。 |
Enable Drive Security |
使能硬盘加密功能。 |
Disable Drive Security |
关闭硬盘加密功能。 |
Change Security Settings |
修改硬盘加密功能的设置,包括修改密码、修改加密模式等。 |
Manage SAS Storage Link Speed |
管理接口速率。 |
Manage MegaRAID Advanced Software Options |
管理高级软件功能。 |
Schedule Consistency Check |
设置一致性校验参数。 |
Set Factory Defaults |
恢复为出厂配置。 |
Manage Personality Mode |
设置RAID控制卡当前的工作模式。 |
Manage Controller Profiles |
查看和管理控制卡的配置文件。 |
界面说明
“Advanced Controller Properties”界面如图18-76和图18-77所示,参数说明如表18-23所示。
图18-76 Advanced Controller Properties界面(1)
图18-77 Advanced Controller Properties界面(2)
参数 |
说明 |
Patrol Read |
系统巡检。 |
Power Save Setting |
设置硬盘休眠。 |
Spare |
设置控制卡热备状态。 |
Task Rates |
设置各种任务占用系统比率。 |
Alarm Control |
控制卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Coercion Mode |
表示硬盘容量压缩模式,包括: l None l 128MB l 1GB 默认为“1GB”。 说明 硬盘压缩模式可以对不同厂商的相同规格硬盘的容量差异进行取整处理,使不同厂商的硬盘强制为相同的容量,以便可以在同一个RAID组中使用。取整单位可以为None、128MB、1GB,其中None表示RAID控制卡对不同厂商的硬盘不做取整处理。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。 默认为“Stop On Errors”。 |
Controller BIOS |
控制卡BIOS的使能情况。 |
ROC Temperature |
控制卡温度。 |
Shield State Supported |
是否支持暂停I/O,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
硬盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Maintain Drive Fail History |
表示是否使能硬盘故障记录功能,默认为使能状态。 说明 l 该参数设置为“Disabled”时: l 当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。 l 新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。 l 该参数设置为“Enabled”时: l 新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。 l 新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见18.4.9 导入和清除外部配置章节。 |
SMART Polling |
SMART轮巡检测周期。默认值为“300”。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性校验。 |
JBOD Mode |
硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。 |
Large IO Support |
启用或禁用大型I/O支持功能。 |
Unmap Capability |
解除映射能力。 |
Firmware Device Order |
该功能开启后,设置为启动项的RAID组盘符为sda。 说明 开启该功能前,请先确认控制卡驱动与固件配套。 |
Apply Changes |
保存配置。 |
设置后台任务速率
在图18-76中选择“Task Rates”并按“Enter”。界面如图18-78所示,参数说明如表18-24所示。
参数 |
说明 |
Background Initialization <BGI> Rate |
设置执行后台初始化的速率。 说明 数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Consistency Check Rate |
设置执行一致性校验的速率。 说明 数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Patrol Read Rate |
设置执行巡检读取的速率。 说明 数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Rebuild Rate |
设置硬盘发生故障时在新硬盘上执行重构数据的速率。 说明 数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Reconstruction Rate |
设置执行RAID级别迁移或在线容量扩展时重构数据的速率。 说明 数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Apply Changes |
保存配置。 |
步骤 2 按照表18-23所述修改控制卡的高级属性参数。
步骤 3 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面提供虚拟磁盘的查询和管理接口。
界面介绍
“Virtual Drive Management”界面如图18-79,显示虚拟磁盘列表。
选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如图18-80所示,参数说明如表18-25所示。
图18-80 Virtual Drive Management
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:定位虚拟磁盘的所有硬盘。 l Stop Locate:取消定位。 l Delete Virtual Drive:删除虚拟磁盘。 l Expand Virtual Drive:扩展虚拟磁盘容量。 l Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。 l Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。 l Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。 l Fast Initialization:快速初始化虚拟磁盘。 l Slow Initialization:安全初始化虚拟磁盘。 l Check Consistency:一致性校验。 l Virtual Drive Erase:格式化虚拟磁盘。 |
Progress |
当前任务进度。 l 仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。 l 当前界面不会自动刷新,需退出后重新进入查看当前进度。 |
Stop |
停止当前任务。 仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。 |
Name |
虚拟磁盘名称。 |
Raid Level |
虚拟磁盘RAID级别。 |
Status |
虚拟磁盘当前运行状态。 |
Size |
虚拟磁盘容量。 |
View Associated Drives |
查看成员盘属性。 |
Advanced... |
查看虚拟磁盘高级属性。 |
查看成员盘属性
在图18-80中选择“View Associated Drives”并按“Enter”。
界面如图18-81,显示成员盘列表。
步骤 2 选择要查看的成员盘,并按“Enter”。
步骤 3 选择“View Drive Properties”并按“Enter”。
进入硬盘属性界面,如图18-82界面所示,界面参数如表18-26所示。
参数 |
参数说明 |
Operation |
该成员盘可执行的操作,包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Place Drive Online/Offline:将硬盘上线/离线。 |
Drive ID |
成员盘的ID。 |
Connection |
硬盘接口。 |
Enclosure Position |
机箱或背板的位置。 |
Slot Number |
硬盘的槽位号。 |
Status |
成员盘的当前工作状态。 |
Size |
成员盘的容量。 |
Type |
成员盘类型。 |
Model |
成员盘的模块类型。 |
Serial Number |
硬盘的序列号。 |
Hardware Vendor |
成员盘的生产厂商。 |
Associated Virtual Drive |
成员盘所在的虚拟磁盘。 |
Advanced... |
查询成员盘更多属性。 |
----结束
查看和修改虚拟磁盘高级属性
在图18-80中选择“Advanced”并按“Enter”。
界面如图18-83和图18-84所示,界面参数如表18-27所示。
参数 |
参数说明 |
Logical Sector Size |
逻辑扇区大小。 |
Strip Size |
条带大小。 |
Starting Logical Block Addressing |
逻辑单元起始地址。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 当成员盘为512B/512B时: l Default:逻辑盘扇区为512B/512B。 l None:逻辑盘扇区为512B/512B。 l Force:逻辑盘扇区为512B/4KB。 当成员盘为512B/4KB时: l Default:逻辑盘扇区为512B/4KB。 l None:逻辑盘扇区为512B/512B。 l Force:逻辑盘扇区为512B/4KB。 |
Bad Blocks |
是否支持坏块处理。 |
Access |
数据读取的策略,分以下三种: l Read Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Current Write Cache Policy |
当前写Cache策略。默认为“Write Through”。 说明 “Write Through”表示当硬盘子系统接收到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。 |
Default Write Cache Policy |
默认的写Cache策略。 |
Disable Background Initialization |
是否禁用后台初始化。 |
Read Cache Policy |
当前读Cache策略,默认为“No Read Ahead”,即关闭预读取功能。 说明 不支持在该界面设置读Cache策略。 |
Drive Cache |
是否支持cache。 |
Input/Output |
I/O读取策略,默认为“Direct”,即直接从硬盘读取数据,不经过Cache缓存。 说明 不支持在该界面设置I/O读取策略。 |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 不支持设置该功能。 |
Apply Changes |
保存配置。 |
步骤 2 按照表18-27所述配置“Advanced”的参数。
步骤 3 选择“Apply Changes”并按“Enter”。
显示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面显示硬盘基本属性,提供硬盘操作接口。
界面介绍
“Drive Management”界面如图18-85所示,显示硬盘列表。
选定要操作的硬盘并按“Enter”进入详细操作界面,如图18-86所示,参数说明如表18-28所示。
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Initialize Drive:硬盘初始化。 l Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。 − Simple:仅对硬盘进行一轮擦除动作。 − Normal:对硬盘进行三轮擦除动作。 − Thorough:对硬盘进行九轮擦除动作。 − Stop Erase:停止数据擦除操作。 l Make Unconfigured Good/Bad:修改硬盘状态。 l Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。 l Assign Global Hot Spare Drive:设置全局热备盘。 l Assign Dedicated Hot Spare Drive:设置局部热备盘。 l Unassign Hot Spare Drive:删除热备盘。 l Prepare for Removal:硬盘拔出前的准备工作。 l Place Drive Online:将Offline状态的硬盘设置为Online。 说明 l Place Drive Online操作只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。 l 如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。 l 对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。 |
Drive ID |
硬盘的ID。 |
Connection |
硬盘接口。 |
Enclosure Position |
机箱或背板的位置。 |
Slot Number |
硬盘的槽位号。 |
Status |
硬盘的当前工作状态。 |
Size |
硬盘的容量。 |
Type |
硬盘的类型。 |
Model |
硬盘型号。 |
Serial Number |
硬盘的序列号。 |
Hardware Vendor |
硬盘的生产厂商。 |
Advanced... |
查询更多硬盘属性。 |
安全擦除硬盘数据
该操作会删除硬盘上的数据,请谨慎执行。
将“Operation”设置为“Drive Erase”。
步骤 1 选择“Erase Mode”并按“Enter”。
步骤 2 在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。
步骤 3 选择“Go”并按“Enter”。
步骤 4 选择“Confirm”并按“Enter”。
步骤 5 选择“Yes”并按“Enter”。
提示操作成功。
----结束
查看硬盘属性
选择“Advanced...”并按“Enter”。
打开硬盘属性界面,如图18-87和图18-88所示,参数说明如表18-29所示。
图18-88 “Drive Properties”界面(2)
参数 |
参数说明 |
Certified |
硬盘是否有供应商认证。 |
Logical Sector Size |
逻辑扇区大小。 |
Physical Sector Size |
物理扇区大小。 |
SMART Status |
SMART功能是否使能。 |
Revision |
硬盘Firmware版本。 |
Media Errors |
Media error个数。 |
Predicted Fail Count |
Pred fail个数。 |
SAS Address |
硬盘SAS地址。 |
Mutipath |
该功能为支持检测和使用从RAID控制卡到盘柜中的SAS设备的多条路径,连接到盘柜的设备有多条路径。到设备同一端口的冗余路径,可以保障当其中一条路径发生故障时,控制卡和设备之间可以使用另一条路径进行通信。同时使用具有负载平衡的多条路径,而不是单条路径,可以通过冗余来提高可靠性。 |
Drive Power State |
硬盘上电状态。 |
Cache Setting |
是否可设置Cache。 |
Disk Protocol |
硬盘支持的协议。 |
Capable Speed |
硬盘速率。 |
Negotiated Speed |
硬盘数据传输速率。 |
Number of Connections |
连接器个数。 |
FDE Capable |
硬盘是否支持FDE(Full Disk Encryption)技术。 |
Cryptographic Erase Capable |
硬盘是否支持加密擦除功能。 |
Unmap Capable |
解除映射能力。 |
Unmap Capability for Configuration |
取消映射配置功能。 |
Temperature |
硬盘温度。 |
该界面主要提供RAID控制卡传感器信息。
界面介绍
“Hardware Components”界面如图18-89,参数说明如表18-30所示。
参数 |
参数说明 |
Temperature Sensors |
当前温度传感器状态。 |
Fans |
当前风扇模块工作状态。 |
Power Supplies |
当前供电模块工作状态。 |
Enclosure Management |
部件管理。 |
提供RAID控制卡操作管理接口。
界面介绍
“View Server Profile”界面如图18-90所示,参数说明如表18-31所示。
参数 |
参数说明 |
UEFI Spec Version |
服务器支持的UEFI Spec版本。 |
Controller Management |
提供控制卡管理接口,详细情况请参见18.6.1.7 Controller Management。 |
Hardware Components |
提供控制卡部件查询接口,详细情况请参见18.6.1.10 Hardware Components。 |
Drive Management |
提供硬盘管理接口,详细情况请参见18.6.1.9 Drive Management。 |
Virtual Drive Management |
提供虚拟磁盘管理接口,详细情况请参见18.6.1.8 Virtual Drive Management。 |
该界面可查看、导入、清空外部配置。
界面介绍
“Manage Foreign Configuration”界面如图18-91所示。
图18-91 Manage Foreign Configuration
查看并导入外部配置
选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图18-92所示。
图18-92 View Foreign Configuration
步骤 2 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 3 选择“Confirm”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 选择“OK”并按“Enter”完成配置。
----结束
清除外部配置
选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 选择“OK”并按“Enter”完成配置。
----结束
该界面可清除当前所有配置。
界面介绍
“Configure”界面如图18-93所示,参数说明如表18-32所示。
参数 |
参数说明 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。 |
View Drive Group Properties |
查看硬盘组属性。 当存在硬盘组时会显示该参数。 |
Make JBOD |
硬盘直通功能,硬盘不加入RAID,直接使用。 |
Clear Configuration |
清除当前配置。 |
清除当前配置
选择“Clear Configuration”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 选择“OK”并按“Enter”完成配置。
----结束
恢复出厂配置
在主界面选择“Set Factory Defaults”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 选择“OK”并按“Enter”完成配置。
----结束
该界面提供RAID控制卡高级软件特性查看和导入接口。
界面介绍
“Manage MegaRAID Advanced Software Options”界面如图18-94所示,界面中参数说明如表18-33所示。
图18-94 Manage MegaRAID Advanced Software Options
参数 |
说明 |
SAFE ID |
RAID控制卡的安全编码。 |
Serial Number |
RAID控制卡序列号。 |
Activation Key |
待激活的高级特性的Key。 |
Active |
激活高级特性。 说明 不支持高级特性的激活操作,该功能无效。 |
Deactive All Trail Software |
注销当前所有高级特性。 |
按“F10”退出BIOS管理界面。
使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。
下载工具
步骤 1 在“DOWNLOADS”页签中单击“Management Software and Tools”。
打开管理软件和工具列表。
步骤 2 下载最新版本的“StorCLI”工具。
步骤 3 解压后得到适用于不同操作系统的工具包。
----结束
安装工具
使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。
步骤 1 在Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。
StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。
安装完毕后,即可执行RAID控制卡命令。
----结束
命令功能
查询控制卡的基本配置信息。
命令格式
storcli64 /ccontroller_id show
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID |
使用指南
建议保持默认配置。
使用实例
# 查询RAID控制卡配置信息。
[root@localhost storcli]# ./storcli64
/c0 show
Generating detailed summary of the adapter, it may take a while to complete.
Controller = 0
Status = Success
Description = None
Product Name = MegaRAID 9540-8i
Serial Number = SPC1707270
SAS Address = 500062b20b845340
PCI Address = 00:04:00:00
System Time = 03/02/2023 14:49:09
Mfg. Date = 05/03/22
Controller Time = 03/02/2023 06:49:09
FW Package Build = 52.23.0-4636
BIOS Version = 7.23.00.0_0x07170100
FW Version = 5.230.01-3723
Driver Name = megaraid_sas
Driver Version = 07.710.50.00-rc1
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x10E6
SubVendor Id = 0x1000
SubDevice Id = 0x40D5
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 4
Device Number = 0
Function Number = 0
Domain ID = 0
Security Protocol = None
Drive Groups = 1
TOPOLOGY :
========
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT
Size PDC PI SED DS3 FSpace TR
-----------------------------------------------------------------------------
0 - - -
- RAID1 Optl N 837.843 GB dflt N N
dflt Y N
0 0 - -
- RAID1 Optl N 837.843 GB dflt N N
dflt Y N
0 0 0 69:3 1
DRIVE Onln N 837.843 GB dflt N N dflt
- N
0 0 1 69:4 2
DRIVE Onln N 837.843 GB dflt N N dflt
- N
-----------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive
Type|Onln=Online|Rbld=Rebuild|Optl=Optimal|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 1
VD LIST :
=======
---------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac
sCC Size Name
---------------------------------------------------------------
0/0 RAID1 Optl RW
No NRWTD - ON 200.000 GB
---------------------------------------------------------------
VD=Virtual Drive| DG=Drive Group|Rec=Recovery
Cac=CacheCade|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|dflt=Default|RO=Read Only|RW=Read
Write|HD=Hidden|TRANS=TransportReady
B=Blocked|Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
JBOD Drives = 1
JBOD LIST :
=========
------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI
SeSz Model Sp
Type
------------------------------------------------------------------------------
69:2 0 JBOD - 838.362 GB SAS
HDD N N 512B HUC109090CSS600 U -
------------------------------------------------------------------------------
ID=JBOD Target ID|EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|Onln=Online
Offln=Offline|Intf=Interface|Med=Media Type|SeSz=Sector Size
SED=Self Encryptive Drive|PI=Protection Info|Sp=Spun|U=Up|D=Down
Physical Drives = 6
PD LIST :
=======
------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI
SeSz Model Sp
Type
------------------------------------------------------------------------------
69:2 0 JBOD - 838.362 GB SAS
HDD N N 512B HUC109090CSS600 U -
69:3 1 Onln 0 837.843 GB SAS
HDD N N 512B HUC109090CSS600 U -
69:4 2 Onln 0 837.843 GB SAS
HDD N N 512B HUC109090CSS600 U -
69:5 3 UGood - 837.843 GB SAS HDD
N N 512B HUC109090CSS600 U -
69:6 4 UGood - 837.843 GB SAS HDD
N N 512B HUC109090CSS600 U -
69:7 5 UGood - 837.843 GB SAS HDD
N N 512B HUC109090CSS600 U -
------------------------------------------------------------------------------
EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Sntze=Sanitize|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=UGood Unsupported|UGShld=UGood shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported|Rbld=Rebuild
Enclosures = 1
Enclosure LIST :
==============
------------------------------------------------------------------------
EID State Slots PD PS Fans TSs Alms SIM Port# ProdID
VendorSpecific
------------------------------------------------------------------------
69 OK 8 6
0 0 0 0 0
- VirtualSES
------------------------------------------------------------------------
EID=Enclosure Device ID | PD=Physical drive count | PS=Power Supply count
TSs=Temperature sensor count | Alms=Alarm count | SIM=SIM Count |
ProdID=Product ID
命令功能
查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。
命令格式
storcli64 /ccontroller_id show spinupdelay
storcli64 /ccontroller_id show spinupdrivecount
storcli64 /ccontroller_id set spinupdelay=time
storcli64 /ccontroller_id set spinupdrivecount=count
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
每组起转硬盘间的时间间隔 |
默认为2,单位为s。 |
count |
上电时允许同时起转的硬盘数量 |
默认为4。 |
查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
建议保持默认配置。
使用实例
# 查询RAID控制卡Spinup参数。
domino:~# ./storcli64 /c0 show
spinupdelay
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
domino:~# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 2
--------------------------
# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。
domino:~# ./storcli64 /c0 set
spinupdelay=20
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Spin Up Delay 20 second(s)
---------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 5
--------------------------
命令功能
设置空闲硬盘和热备盘的省电模式。
命令格式
storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID。 |
– |
state |
省电模式的启用状态。 |
l on:启用 l off:禁用 |
disktype |
硬盘类型。 |
l 1:空闲硬盘 l 2:热备盘 |
time |
等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。 |
单位为minutes。 |
查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置空闲硬盘的省电模式。
domino:~# ./storcli64 /c0 set
ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------
Ctrl_Prop Value
------------------------
SpnDwnUncDrv Enabled
SpnDwnTm 30 minutes
------------------------
命令功能
设置物理硬盘初始化功能,查询初始化进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
action |
要执行的操作 |
l show:查看初始化进度 l start:开始初始化 l stop:结束初始化 |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 初始化slot3硬盘,并查询初始化进度。
domino:~# ./storcli64 /c0/e252/s3
start initialization
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show initialization
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status
Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0
Seconds
------------------------------------------------------
命令功能
设置物理硬盘数据擦除模式,查询擦除进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
mode |
数据擦除模式 |
l simple:对硬盘进行一轮擦除动作。 l normal:对硬盘进行三轮擦除动作。 l thorough:对硬盘进行九轮擦除动作。 |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。
domino:~# ./storcli64 /c0/e252/s3
start erase simple
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status
Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0
Seconds
------------------------------------------------------
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.
命令功能
设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。
命令格式
storcli64 /ccontroller_id set action=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
action |
要设置的项目 |
l bgirate:后台初始化速率 l ccrate:一致性校验速率 l prrate:硬盘巡检速率 l rebuildrate:RAID重构速率 l reconrate:RAID扩容和迁移速率 |
value |
后台任务资源占用率 |
1~100 |
查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置硬盘巡检速率为“30%”。
domino:~# ./storcli64 /c0 set
prrate=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
Patrol Read Rate 30%
-----------------------
命令功能
设置控制卡BIOS在检测到异常时停止继续启动的功能。
命令格式
storcli64 /ccontroller_id set bios mode=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
action |
要执行的操作 |
l soe:控制卡BIOS在检测到异常时停止启动 l ie:忽略检测到的异常 |
查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启Stop on error功能。
domino:~# ./storcli64 /c0 set bios
mode=soe
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------
命令功能
创建、删除RAID。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id add vd rlevel[0|1|10] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid] |
创建RAID组 |
storcli64 /ccontroller_id/vraid_id del |
删除RAID组 |
*表示默认值。
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
rlevel |
要配置的RAID组级别 |
level可为0、1、10,数字分别代表对应的RAID组级别。 |
size |
要配置的RAID组容量 |
默认值为all,即所有成员盘的容量之和。 |
name |
要配置的RAID组名称 |
- |
drives |
要加入RAID组的硬盘 |
- |
startid-endid |
硬盘的起始和结束ID |
- |
slot_id |
硬盘ID |
- |
pdperarray |
子组中的硬盘数 创建RAID10时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。 |
- |
pdcache |
设置RAID的成员盘的Cache状态 |
l on l off l default |
pi |
使能数据保护 |
- |
EmulationType |
控制逻辑盘在OS中上报的扇区 |
l 0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l 1: Disable,即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l 2:Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Spares |
指定RAID组的热备盘 |
- |
raid_id |
要删除的RAID组的ID |
- |
l 以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
l 当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid。
使用指南
无
使用实例
# 创建RAID 0。
domino:~# ./storcli64 /c0 add vd
r0 size=100GB drives=252:0-3
Controller = 0
Status = Success
Description = Add VD Succeeded
# 删除RAID。
domino:~# ./storcli64 /c0/v0 del
Controller = 0
Status = Success
Description = Delete VD Succeeded
命令功能
设置RAID前台初始化模式。
命令格式
storcli64 /ccontroller_id/vraid_id start mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
前台初始化模式 |
l init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。 l init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。 |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 快速初始化RAID。
domino:~# ./storcli64 /c0/v0 start
init
Controller = 0
Status = Success
Description = Start INIT Operation Success
命令功能
暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。
命令格式
storcli64 /ccontroller_id/vraid_id action bgi
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
action |
后台初始化的操作 |
l show:查看后台初始化进度 l pause:暂停后台初始化 l resume:继续后台初始化 l stop:停止后台初始化 |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查看后台初始化进度。
domino:~# ./storcli64 /c0/v0 show
bgi
Controller = 0
Status = Success
Description = Noe
VD Operation Status :
===================
------------------------------------------------------
VD Operation Progress% Staus Estimated Time
Left
------------------------------------------------------
0
BGI
3 In progress 53 Minutes
------------------------------------------------------
命令功能
设置虚拟磁盘或物理硬盘为启动项。
命令格式
storcli64 /ccontroller_id/vvd_id set bootdrive=on
storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
vd_id |
待设置的虚拟磁盘的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置VD0为启动项。
domino:~# ./storcli64 /c0/v0 set
bootdrive=on
Controller = 0
Status = Success
Description = Noe
Detailed Status :
===============
----------------------------------------
VD Property Value Staus ErrCd ErrMsg
----------------------------------------
0 Boot Drive On Success 0 -
----------------------------------------
# 设置slot 7硬盘为启动项。
domino:~# ./storcli64 /c0/e252/s7
set bootdrive=on
Controller = 0
Status = Success
Description = Noe
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
BootDrive PD:252_7
-------------------
命令功能
设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。
命令格式
storcli64 /ccontroller_id set eghs eug=state
storcli64 /ccontroller_id set eghs smarter=state
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
state |
紧急热备功能的启用状态 |
l on:启用 l off:禁用 |
查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。
domino:~# ./storcli64 /c0 set eghs
eug=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------
Ctrl_Prop Value
------------------
EmergencyUG ON
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
EmergencySmarter ON
-----------------------
命令功能
设置全局热备盘和局部热备盘。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive |
设置全局热备盘。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=<N|0,1,2..>] |
设置局部热备盘。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive |
删除热备盘。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
dgs |
硬盘组的ID |
l 不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘 l 0,1,2..:硬盘组ID |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置slot 3硬盘为全局热备盘。
domino:~# ./storcli64 /c0/e252/s3
add hotsparedrive
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
# 设置slot 3硬盘为vd0的局部热备盘。
domino:~# ./storcli64 /c0/e252/s3
add hotsparedrive dgs=0
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
命令功能
开始、暂停、继续、停止RAID重构,并查询进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action rebuild
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
action |
要执行的操作 |
l start:开始重构 l show:查看重构进度 l pause:暂停重构 l resume:继续重构 l stop:停止重构 |
查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 手动开始重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
# 查看硬盘当前重构状态。
[root@localhost ~]# ./storcli64
/c0/e70/s7 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e70/s7 5 In progress 26
Minutes
-----------------------------------------------------
# 暂停硬盘重构进程。
[root@localhost ~]# ./storcli64
/c0/e70/s7 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Succeeded.
# 继续重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 resume rebuild
Controller = 0
Status = Success
Description = Resume Drive Rebuild Succeeded.
# 停止重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 stop rebuild
Controller = 0
Status = Success
Description = Stop Drive Rebuild Succeeded.
命令功能
开始、暂停、继续、停止回拷,并查询进度。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id start copyback target=target_enclosure_id:target_slot_id |
开始回拷。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id action copyback |
暂停、继续、查看、停止回拷。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
target_enclosure_id |
执行回拷的目标硬盘所在Enclosure的ID。 |
- |
target_slot_id |
执行回拷的目标物理硬盘槽位编号。 |
- |
action |
要执行的操作 |
l show:查看回拷进度 l pause:暂停回拷 l resume:继续回拷 l stop:停止回拷 |
查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 手动开始回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s7 start copyback target=70:3
Controller = 0
Status = Success
Description = Start Drive Copyback Succeeded.
# 查看硬盘当前回拷状态。
[root@localhost ~]# ./storcli64
/c0/e70/s3 show copyback
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e70/s3 17 In progress 16 Minutes
-----------------------------------------------------
# 暂停硬盘回拷进程。
[root@localhost ~]# ./storcli64
/c0/e70/s3 pause copyback
Controller = 0
Status = Success
Description = Pause Drive Copyback Succeeded.
# 继续回拷。
[root@localhost ~]# ./storcli64 /c0/e70/s3
resume copyback
Controller = 0
Status = Success
Description = Resume Drive Copyback Succeeded.
# 停止回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s3 stop copyback
Controller = 0
Status = Success
Description = Stop Drive Copyback Succeeded.
命令功能
设置Smart扫描周期。
命令格式
storcli64 /ccontroller_id set smartpollinterval=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
value |
Smart扫描周期 |
单位为s。 |
查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Smart扫描周期为“60s”。
domino:~# ./storcli64 /c0 set
smartpollinterval=60
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
命令格式
storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
vd_id |
要扩容的RAID的ID |
– |
capacity |
扩容后的容量 |
– |
expandarray |
当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。 |
– |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查询VD的可扩展容量。
[root@localhost ~]# storcli64 /c0/v1
show expansion
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
EXPANSION INFORMATION :
=====================
--------------------------------------------
VD Size OCE NoArrExp WithArrExp Status
--------------------------------------------
1 10.000 GB Y 3.627 TB 5.447 TB -
--------------------------------------------
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion
VD=Virtual Drive | NoArrExp - Without Array Expansion
如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。
# 将VD0的容量扩大“200GB”。
domino:~# ./storcli64 /c0/v0
expand size=200GB
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize
AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
0 100.0 GB 457.861 GB 200.0 GB 201.458 GB
44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %
RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
当增加新盘后,可进行RAID级别迁移。
命令格式
storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
vd_id |
要操作的RAID的ID |
– |
slot_id |
要加入RAID的新硬盘的槽位号 |
– |
level |
增加硬盘后RAID的级别 |
l 与原RAID级别相同时,该命令为扩大RAID容量。 l 与原RAID级别不同时,该命令为RAID级别迁移。 |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 在RAID 0中增加slot 2硬盘扩容。
domino:~# ./storcli64 /c0/v0 start
migrate type=r0 option=add drives=252:2
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time
Left
-------------------------------------------------------
0 Migrate 1
In progress 13 Minutes
-------------------------------------------------------
# 单盘RAID 0加盘迁移至RAID 1。
domino:~# ./storcli64 /c0/v0 start
migrate type=r1 option=add drives=252:3
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time
Left
-------------------------------------------------------
0 Migrate 1
In progress 14 Minutes
-------------------------------------------------------
命令功能
设置一致性校验参数。
命令格式
storcli64 /ccontroller_id[/vvd_id]show cc
storcli64 /ccontroller_id/vvd_id start cc force
storcli64 /ccontroller_id/vvd_id action cc
storcli64 /ccontroller_id set cc=conc delay=value starttime=time excludevd=evd_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
vd_id |
要操作的RAID的ID |
– |
action |
要执行的操作 |
l pause:暂停 l resume:继续执行 l stop:停止 |
value |
一致性校验周期 |
– |
time |
一致性校验起始时间 |
例如:2016/07/14 22 说明 起始时间单位为“时”。 |
evd_id |
不进行一致性校验的虚拟磁盘ID |
– |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
show命令中不带/vvd_id时,表示查询自动CC参数。
show命令中带/vvd_id时,表示查询CC进度。
使用实例
# 设置一致性自动检查参数。
domino:~# ./storcli64 /c0 set
cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------
Ctrl_Prop Value
------------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2016/07/14 22:00:00
CC ExcludeVD(0) Success
------------------------------------
# 查询CC进度。
domino:~# ./storcli64 /c0/v1 show
cc
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress%
Status Estimited Time
Left
-----------------------------------------------------------
0 CC
- Not in progress -
-----------------------------------------------------------
命令功能
查询和设置系统巡检的相关参数。
命令格式
storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number
storcli64 /ccontroller_id set patrolread delay=delaytime
storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}
storcli64 /ccontroller_id show patrolread
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
系统巡检起始时间 |
例如:2016/07/15 23 说明 起始时间单位为“时”。 |
number |
可同时巡检的硬盘数量 |
– |
delaytime |
系统巡检周期 |
单位为hour。 |
查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。
domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
PR Starttime 2016/07/15 23:00:00
PR MaxConcurrentPd 2
---------------------------------------
# 使能patrolread并设置为自动模式。
domino:~# ./storcli64 /c0 set
patrolread=on mode=auto
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
Patrol Read Mode auto
---------------------------------------
# 查询patrolread信息。
domino:~# ./storcli64 /c0 show patrolread
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------------------------
Ctrl_Prop Value
--------------------------------------------
PR Mode 2016/07/15 23:00:00
PR Execution Delay
PR iterations completed 0
PR Next Start time 07/16/2016,00:00:00
PR on SSD Disabled
PR Current State Stopped
--------------------------------------------
命令功能
设置硬盘状态。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
state |
要设置的硬盘状态 |
l online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。 l offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。 l jbod:通过该参数可以将硬盘设置为直通硬盘。 l good: − ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置; − JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。 l good:将硬盘设为空闲盘 |
force |
强制设置硬盘状态,为可选参数。 如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force。 |
- |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。
domino:~# ./storcli64 /c0/e0/s1
set good
Controller = 0
Status = Success
Description = Set Drive Good Succeeded.
# 设置slot 7硬盘为直通盘。
domino:~# ./storcli64 /c0/e252/s7
set JBOD
Controller = 0
Status = Success
Description = Set Drive JBOD Succeeded.
命令功能
点亮和熄灭指定硬盘的定位指示灯。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。 |
slot_id |
物理硬盘槽位编号 |
可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。 |
action |
要执行的操作 |
l start:点亮硬盘的定位指示灯。 l stop:熄灭硬盘的定位指示灯。 |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 点亮slot 7硬盘的定位指示灯。
domino:~# ./storcli64 /c0/e252/s7
start locate
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.
命令功能
查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。
命令格式
storcli64 /ccontroller_id show
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all
storcli64 /ccontroller_id/vvd_id show all
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID |
enclosure_id |
硬盘所在Enclosure的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡连接的硬盘背板的ID |
slot_id |
物理硬盘槽位编号 |
可以将该参数设置为all,表示查询所有硬盘的ID |
vd_id |
虚拟磁盘ID |
可以将该参数设置为all,表示查询所有虚拟磁盘的ID |
使用指南
回显中主要字段的含义如表18-34所示。
命令格式 |
字段 |
含义 |
举例 |
storcli64 /ccontroller_id show |
Product Name |
RAID控制卡的型号 |
sas3108 |
FW Version |
RAID控制卡的FW版本 |
4.660.00-8140 |
|
Driver Name |
RAID控制卡的驱动名称 |
megaraid_sas |
|
Driver Version |
RAID控制卡的驱动版本 |
06.811.02.00-rh1 |
|
Current Personality |
RAID控制卡的工作模式 |
RAID-Mode |
|
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all |
SN |
物理硬盘的序列号 |
PHWL517601YR800RGN |
Manufacturer Id |
物理硬盘的供应商ID |
ATA |
|
Model Number |
物理硬盘的模块序号 |
INTEL SSDSC2BB800G4 |
|
Firmware Revision |
物理硬盘的FW版本 |
D2010370 |
|
Raw size |
物理硬盘的容量 |
745.211 GB [0x5d26ceb0 Sectors] |
|
Logical Sector Size |
物理硬盘逻辑分区大小 |
512B |
|
Physical Sector Size |
物理扇区大小 |
4 KB |
|
storcli64 /ccontroller_id/vvd_id show all |
TYPE |
RAID组的级别 |
RAID1 |
State |
RAID组的状态 |
Optl |
|
Access |
RAID组数据的访问策略 |
RW |
|
Cache |
RAID组当前的读写策略与I/O Policy |
RWTD |
|
Size |
RAID组的大小 |
100.0 GB |
|
PDs for VD0 |
RAID组下的物理硬盘 |
- |
|
Strip Size |
RAID组的条带大小 |
256KB |
|
Write Cache(initial setting) |
RAID组Cache的写策略 |
Write Through |
|
Disk Cache Policy |
RAID组成员盘的Cache策略 |
Disk's Default |
使用实例
#查询RAID控制卡的详细信息。
domino:~# ./storcli64 /c0 show
Controller = 0
Status = Success
Description = None
Product Name = SAS3408
Serial Number = 024JNFCNK2000314
SAS Address = 58cfd18f55442000
PCI Address = 00:03:00:00
System Time = 07/18/2019 14:55:54
Mfg. Date = 00/00/00
Controller Time = 07/18/2019 06:55:53
FW Package Build = 50.6.3-0109
BIOS Version = 7.06.02.2_0x07060502
FW Version = 5.060.01-2262
Driver Name = megaraid_sas
Driver Version = 07.709.08.00
Vendor Id = 0x1000
Device Id = 0x17
SubVendor Id = 0x19E5
SubDevice Id = 0xD213
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 3
Device Number = 0
Function Number = 0
Drive Groups = 1
TOPOLOGY :
========
---------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size
PDC PI SED DS3 FSpace TR
---------------------------------------------------------------------------
0 - - -
- RAID0 Optl N 3.637 TB dflt N N dflt
N N
0 0 - -
- RAID0 Optl N 3.637 TB dflt N N dflt
N N
0 0 0 65:0 41 DRIVE
Onln N 3.637 TB dflt N N dflt
- N
---------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 1
VD LIST :
=======
-------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC
Size Name
-------------------------------------------------------------
0/0 RAID0 Optl RW
Yes NRWTD - ON 3.637 TB
-------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read
Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 39
PD LIST :
=======
------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med
SED PI SeSz
Model
Sp
------------------------------------------------------------------------------
65:0 41 Onln 0 3.637 TB
SATA HDD N N 512B ST4000NM0035-1V4107 U
65:1 45 UGood - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 D
65:2 33 UGood - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 D
65:3 40 UGood - 3.637 TB SATA
HDD N N 512B ST4000NM115-1YZ107 D
65:4 39 UGood - 5.456 TB SATA
HDD N N 512B ST6000NM0115-1YZ110 D
65:5 38 UGood - 5.456 TB SATA
HDD N N 512B ST6000NM0115-1YZ110 D
65:6 46 UGood - 5.456 TB SATA
HDD N N 512B ST6000NM0115-1YZ110 D
65:7 53 UGood - 5.456 TB SATA
HDD N N 512B ST6000NM0115-1YZ110 D
65:8 61 UGUnsp - 3.637 TB SATA HDD
N N 512B ST4000NM0035-1V4107 U
65:9 0 UGood - 3.637 TB
SATA HDD N N 512B ST4000NM115-1YZ107 D
65:10 1 UGood - 5.456 TB SATA
HDD N N 512B ST6000NM0115-1YZ110 D
65:11 62 UGUnsp - 3.637 TB SATA HDD N
N 512B ST4000NM0035-1V4107 U
65:12 51 UGood - 9.094 TB SATA HDD
N N 512B ST10000NM0478-2H7100 D
65:13 52 UGood - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 D
65:14 50 UGood - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 D
65:16 57 UGUnsp - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 U
65:17 58 UGUnsp - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 U
65:18 42 UGood - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 D
65:19 44 UGood - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 D
65:20 49 UGood - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 D
65:21 43 UGood - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 D
65:22 48 UGood - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 D
65:23 47 UGood - 3.637 TB SATA HDD
N N 512B ST4000NM0035-1V4107 D
65:24 3 UGood - 3.637 TB SATA
HDD N N 512B ST4000NM0035-1V4107 D
65:25 5 UGood - 10.912 TB SATA HDD
N N 512B ST12000NM0007-2A1101 D
65:26 4 UGood - 5.456 TB SATA
HDD N N 512B ST6000NM0115-1YZ110 D
65:27 2 UGood - 3.637 TB SATA
HDD N N 512B ST4000NM0035-1V4107 D
65:28 59 UGUnsp - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 U
65:29 6 UGood - 837.258 GB SAS HDD
N N 512B
ST900MM0168 D
65:30 55 UGood - 3.637 TB SATA HDD
N N 512B ST4000NM0035-1V4107 D
65:31 60 UGUnsp - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 U
65:32 56 UGUnsp - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 U
65:33 35 UGood - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 D
65:34 34 UGood - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 D
65:35 37 UGood - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 D
65:36 36 UGood - 5.456 TB SATA HDD
N N 512B ST6000NM0115-1YZ110 D
65:37 30 UGood - 278.464 GB SAS HDD
N N 512B
AL15SEB030N D
65:38 32 UGood - 1.745 TB SATA SSD
N N 512B INTEL SSDSC2KG019T8 U
65:39 31 UGood - 222.585 GB SATA SSD
N N 512B INTEL SSDSC2KG240G8 U
------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
#查询slot0的物理硬盘的信息。
[root@localhost ~]# ./storcli64
/c0/e65/s0 show all
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
Drive /c0/e65/s0 :
================
--------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz
Model
Sp
--------------------------------------------------------------------------
65:0 41 Onln 0 3.637 TB SATA HDD
N N 512B ST4000NM0035-1V4107 U
--------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Drive /c0/e65/s0 - Detailed Information :
=======================================
Drive /c0/e65/s0 State :
======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature = 30C (86.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
Drive /c0/e65/s0 Device attributes :
==================================
SN = ZC18JNP4
Manufacturer Id = ATA
Model Number = ST4000NM0035-1V4107
NAND Vendor = NA
WWN = 5000c500b3297aee
Firmware Revision = TNA5
Raw size = 3.638 TB [0x1d1c0beb0 Sectors]
Coerced size = 3.637 TB [0x1d1a94800 Sectors]
Non Coerced size = 3.637 TB [0x1d1b0beb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 12.0Gb/s
NCQ setting = Enabled
Write Cache = Disabled
Logical Sector Size = 512B
Physical Sector Size = 512B
Connector Name = C0 & C1
Drive /c0/e65/s0 Policies/Settings :
==================================
Drive position = DriveGroup:0, Span:0, Row:0
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = Yes
Wide Port Capable = No
Port Information :
================
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
0 Active 12.0Gb/s 0x500605b000027380
-----------------------------------------
Inquiry Data =
5a 0c ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 20 20 20 20 20 20 20 20 20 20 20 20
43 5a 38 31 4e 4a 34 50 00 00 00 00 00 00 4e 54
35 41 20 20 20 20 54 53 30 34 30 30 4d 4e 30 30
35 33 31 2d 34 56 30 31 20 37 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 10 80
00 40 00 2f 00 40 00 02 00 02 07 00 ff 3f 10 00
3f 00 10 fc fb 00 10 5c ff ff ff 0f 00 00 07 00
# 查询VD 0的信息。
[root@rhel6u5 ~]#
/opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
/c0/v0 :
======
-------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC
Size Name
-------------------------------------------------------------
0/0 RAID0 Optl RW
Yes NRWTD - ON 3.637 TB
-------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
PDs for VD 0 :
============
--------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz
Model
Sp
--------------------------------------------------------------------------
65:0 41 Onln 0 3.637 TB SATA HDD
N N 512B ST4000NM0035-1V4107 U
--------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
VD0 Properties :
==============
Strip Size = 64 KB
Number of Blocks = 7812499456
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 1
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = None
Active Operations = None
Exposed to OS = Yes
Creation Date = 06-07-2025
Creation Time = 08:44:04 AM
Emulation type = default
Cachebypass size = Cachebypass-64k
Cachebypass Mode = Cachebypass Intelligent
Is LD Ready for OS Requests = Yes
SCSI NAA Id = 68cfd18f554420002ffcf3d4ce5e8046
命令功能
手动重构RAID组。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row
storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
要加入Array的物理硬盘槽位编号 |
– |
DG |
硬盘发生故障的DG的ID |
– |
Arr |
硬盘发生故障的Array的ID |
– |
Row |
硬盘发生故障的Array的row number |
– |
以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
重构RAID分3个步骤进行:
1.通过./storcli64 /c0 show 命令,查询故障硬盘的DG、Arr和Row所对应的数字。
2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。
3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID。
使用实例
# 将硬盘加入RAID组。
[root@localhost ~]# storcli64
/c0/e252/s1 insert dg=0 array=0 row=0
Controller = 0
Status = Success
Description = Insert Drive Succeeded.
# 手动重构RAID。
[root@localhost ~]# storcli64
/c0/e252/s1 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
命令功能
收集和清除RAID控制卡的日志。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id show termlog [type=logtype] [logfile[=filename]] |
收集RAID控制卡的日志。 |
storcli64 /ccontroller_id delete termlog |
删除RAID控制卡的日志。 |
storcli64 /ccontroller_id show alilog [logfile[=filename]] |
收集控制卡属性信息、TTY日志和事件到指定文件。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID。 |
- |
logtype |
查询日志类型。 |
l config:查询TTY BBU缓存设置。 l content:查询日志信息。 缺省值:content。 |
filename |
文件名称,将保存日志到此文件。 |
可自定义文件名称,缺省时将默认保存至“StorSAS.log”文件中。 |
查询RAID控制卡ID的查询方法请参见18.7.2.32 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 收集RAID控制卡的日志。
[root@localhost idriver]# ./storcli64
/c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19 6:48:11: C0:TTY History buffer cleared
Controller = 0
Status = Success
Description = None
# 删除RAID控制卡的日志。
[root@localhost idriver]# ./storcli64
/c0 delete termlog
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------------------
Ctrl Method Result
----------------------------
0 Delete Termlog deleted
----------------------------
命令功能
指导用户查看、导入或者清除RAID控制卡的外部配置。
命令格式
storcli64 /ccontroller_id/fall import preview
storcli64 /ccontroller_id/fall import
storcli64 /ccontroller_id/fall delete
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
使用指南
无
使用实例
# 查看RAID控制卡的外部配置。
[root@localhost ~]# ./storcli64
/c0/fall import preview
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
FOREIGN PREVIEW :
===============
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Total foreign drive groups = 0
# 删除RAID控制卡的外部配置。
[root@localhost ~]# ./storcli64
/c0/fall delete
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration
命令功能
介绍Snapdump相关操作。
命令格式
命令格式 |
说明 |
storcli64 /ccontroller_id show snapdump |
查询snapdump功能是否打开,是否有自动生成的snapdump文件。 |
storcli64 /ccontroller_id get snapdump id=all |
获取历史生成的snapdump文件。 |
storcli64 /ccontroller_id get snapdump |
获取历史生成的snapdump文件和当前再生成一个snapdump文件。 |
storcli64 /ccontroller_id set snapdump state=on|off |
打开和关闭snapdump功能。 |
storcli64 /ccontroller_id delete snapdump force |
删除历史snapdump日志功能。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID。 |
state=on|off |
Snapdump状态 |
on为开启,off为关闭。 |
使用指南
l Snapdump文件是一个日志文件,在一些RAID控制卡异常场景下可以自动生成的日志,也可以主动获取当前RAID控制卡的snapdump日志。
l 使用前可以先查询snapdump功能是否打开,是否有自动生成的snapdump文件,再去收集snapdump。
l 获取历史生成的snapdump文件和当前再生成一个snapdump文件会影响业务,建议离线使用。
l 打开和关闭snapdump功能,如果无法打开注意看提示,请确认当前RAID控制卡固件版本是否支持。
l 收集snapdump文件在当前命令执行目录下,文件格式为snapdump_**************.zip。
使用实例
#查询snapdump功能是否打开,是否有自动生成的snapdump文件。
[root@localhost ~]# storcli64 /c0
show snapdump
Controller = 0
Status = Success
Description = None
SnapDump Properties :
===================
----------------------------------
Ctrl_Prop
Value
----------------------------------
Snapdump ON
Snapdump Save Count N/A
Snapdump Delay OCR 15
Snapdump properties Read-Write
Snapdump Current Count 2
----------------------------------
SnapDump Details :
================
----------------------------------------------
ID Snapdump Size Snapdump time OnDemand
----------------------------------------------
0 2649396 08-06-2021 07:23:43 Yes
1 2070406 08-07-2021 06:59:24 Yes
----------------------------------------------
#获取历史生成的snapdump文件。
[root@localhost ~]# storcli64 /c0 get
snapdump id=all
Controller = 0
Status = Success
Description = None
#获取历史生成的snapdump文件和当前再生成一个snapdump文件。
[root@localhost ~]# storcli64 /c0 get
snapdump
Controller = 0
Status = Success
Description = Download Support Log
#打开和关闭snapdump功能。
打开:
[root@localhost ~]# storcli64 /c0 set
snapdump state=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
Set Snapdump on
-------------------
关闭:
[root@localhost ~]# storcli64 /c0 set
snapdump state=off
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
Set Snapdump off
-------------------
#删除历史snapdump日志功能。
[root@localhost ~]# storcli64 /c0
delete snapdump force
Controller = 0
Status = Success
Description = Snapdump delete
命令功能
升级控制卡FW。
命令格式
命令格式 |
说明 |
storcli64 /cController_ID download file=xxx.rom [noverchk] |
升级控制卡FW。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
- |
xxx.rom |
固件包的名称 |
- |
使用指南
l 使用“noverchk”参数时将不检查固件包,降级版本时必须使用此参数。
l 升级完成后,需重新上下电服务器使固件包生效。
使用实例
#升级控制卡FW。
[root@localhost fw]# ./storcli64_arm
/c0 download file =FW4.rom noverchk
Download Completed.
Flashing image to adapter...
Controller = 0
Status = Success
Description = F/W Flash Completed.Please reboot the system for the changes to
take effect.
关于本章
主要介绍BROADCOM MegaRAID 9560-8i RAID控制卡的外观、特性、以及配置方法。
本章节涉及的截图以5.200.02-3681 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。
BROADCOM MegaRAID 9560-8i RAID控制卡(以下简称9560-8i)是基于MegaRAID架构的8端口12Gbit/s SAS控制卡,并采用PCIe4.0x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。
9560-8i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。
9560-8i自带的Cache对RAID控制卡性能的提升有非常重要的作用,主要体现在:
l 在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。
l 在读数据时,如果可以直接在Cache中命中的话,将减少硬盘寻道操作,降低响应时间,提升了数据读速度。
l Cache数据的掉电保护依赖于与RAID控制卡相连的超级电容。超级电容的外形、连接方式、安装方式可参考各服务器的用户指南。
l 9560-8i分为支持配置超级电容与不支持配置超级电容两种形态,只有支持配置超级电容的RAID控制卡具有Cache数据的掉电保护功能。
l 9560-8i不支持flush write verify功能。
1 |
心跳灯 |
2 |
芯片过温指示灯 |
3 |
SlimSAS接口(SFF-8654) |
4 |
散热器 |
5 |
超级电容 |
6 |
超级电容错误状态指示灯 |
9560-8i单板指示灯说明如表19-1所示。
指示灯 |
颜色 |
说明 |
芯片过温指示灯 |
黄色 |
l 常亮:设备温度传感器超过阈值。 l 灭:设备温度在正常温度范围内。 |
超级电容错误状态指示灯 |
黄色 |
l 常亮:超级电容电源模块故障或者过温。 l 灭:超级电容正常或不在位。 |
心跳灯 |
绿色 |
l 闪烁:芯片运行正常,闪烁频率为1Hz。 l 灭:RAID控制卡未开始运行或FW运行异常。 |
9560-8i支持的硬盘、虚拟磁盘、硬盘组数量分别为:
l 最多支持240个硬盘。
该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。
l 最多支持64个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
l 最多支持64个硬盘组(即配置界面中看到的“Drive Group”),每个硬盘组最多支持240个硬盘。
l 每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
9560-8i支持的RAID类型及对应的硬盘个数如表19-2所示。
RAID级别 |
支持硬盘数 |
支持子组数 |
子组支持硬盘数 |
允许坏盘数 |
RAID 0 |
1~32 |
不涉及 |
不涉及 |
0 |
RAID 1 |
2~32(偶数) |
硬盘数÷2 |
||
RAID 5 |
3~32 |
1 |
||
RAID 6 |
4~32 |
2 |
||
RAID 10 |
4~240(偶数) |
2~8个RAID 1 |
2~32(偶数) |
子组数 |
RAID 50 |
6~240 |
2~8个RAID 5 |
3~32 |
子组数 |
RAID 60 |
8~240 |
2~8个RAID 6 |
4~32 |
子组数×2 |
l 不支持RAID 00级别。
l 故障硬盘的数量不能大于当前RAID组最大允许故障盘数量。
l 子组数:子RAID组的个数,例如RAID 50由两个RAID 5组成,则子组数为2。
l RAID 10、RAID 50每个子组中最多允许故障1个硬盘。
l RAID 60每个子组中最多允许故障2个硬盘。
l RAID10、50、60包含的总硬盘数由子组数和子组支持的硬盘数共同决定。
9560-8i的热备功能分为两种:热备盘和紧急备份。
热备盘
对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l Global HSP:即全局热备盘,为RAID控制卡上所有已配置的RAID组所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID组内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
配置方法请参见0配置全局热备盘。
l Dedicated HSP:即局部热备盘,为RAID控制卡上某个指定的RAID组所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID组内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。
配置方法请参见19.4.1.1 配置局部热备盘。
l 热备盘容量需大于等于成员盘容量。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID组的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID组成员盘最大容量。
l 除RAID 0外,其他类型的RAID组均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
紧急备份
使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
l 紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。
l 在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。
l 紧急备份的硬盘生效次序:相同类型硬盘 > 相同接口不同介质类型硬盘 > 不同接口相同介质类型硬盘 > 不同接口不同介质类型硬盘。
紧急备份有两种情况,对应了两种设置:
l 当成员盘fail时,空闲盘替代成员盘作为紧急备份。
l 当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。
具体配置方法请参见19.4.2 设置紧急热备功能。
热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下取出和更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。
l 请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。
l 插拔前需确认该硬盘逻辑状态以及该RAID组级别允许坏盘的数量。
l 人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考19.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。
具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。
l 不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:
l RAID组状态保持“Optimal”不变。
l 热备盘状态由“Online”变为“Hot Spare”。
l 新加入硬盘状态由“Copyback/Copybacking”变为“Online”。
l 可使用命令行工具暂停或继续回拷。
l 若回拷时重启服务器,进度将保存。
l 局部热备以及全局热备,更换故障盘后,均会产生回拷。
条带化
当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待。
条带化技术是一种自动的将I/O的负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。
影响条带化效果的因素有:
l 条带宽度:指同时可以并发读或写的条带数量。
这个数量等于RAID组中的物理硬盘数量。增加条带宽度,可以增加RAID组的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。
l 条带大小:指写在每块硬盘上的条带数据块的大小。
分条
硬盘分条即把RAID组中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。
9560-8i支持多种条带大小,包括64KB、128KB、256KB、512KB及1MB。
配置RAID组时一般采用默认值。
RAID组的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见19.4.5 迁移RAID级别。
当前支持以下级别类型的迁移:
l RAID 0迁移到RAID 1、RAID 5、RAID 6
l RAID 1迁移到RAID 0、RAID 5、RAID 6
l RAID 5迁移到RAID 0、RAID 6
l RAID 6迁移到RAID 0、RAID 5
RAID组迁移对硬盘数量的要求如表19-3所示。
迁移RAID级别 |
原始硬盘组硬盘数量 |
迁移后的硬盘组硬盘数量 |
RAID 0迁移 RAID 1 |
1~32 |
2~32(偶数) |
RAID 0迁移到RAID 5 |
1~32 |
3~32 |
RAID 0迁移到RAID 6 |
1~32 |
4~32 |
RAID 1迁移到RAID 0 |
2~32(偶数) |
2~32 |
RAID 1迁移到RAID 5 |
2~32(偶数) |
3~32 |
RAID 1迁移到RAID 6 |
2~32(偶数) |
4~32 |
RAID 5迁移到RAID 0 |
3~32 |
3~32 |
RAID 5迁移到RAID 6 |
3~32 |
4~32 |
RAID 6迁移到RAID 0 |
4~32 |
4~32 |
RAID 6迁移到RAID 5 |
4~32 |
4~32 |
VD初始化
创建VD(Virtual Drive)后,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。9560-8i提供了多种相应的初始化方式:
l 前台初始化:
− 快速初始化:Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。
− 完全初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。
l 后台初始化:
− 对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。
− 对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。
硬盘初始化
硬盘可执行的初始化包括:
l Initialize Drive:对前100MByte空间进行全写0操作。
l Drive Erase:对全部空间进行写0操作。
9560-8i支持的容量扩展方式有两种:
l 通过增加硬盘方式扩容:在已存在的RAID组中添加新硬盘,扩大RAID组容量。
详细操作方法可参考19.4.3 添加新硬盘到RAID。
l 通过增加可用空间方式扩容:在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。
详细操作方法可参考19.4.4 扩展Virtual Drives可用空间。
l 只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。
l RAID10、RAID 50、RAID 60不支持增加硬盘扩容。
l 当单个RAID组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。
安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘和硬盘的安全擦除功能:
l Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。
l Normal:对虚拟磁盘或硬盘进行三轮擦除动作。
l Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。
安全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。
9560-8i支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。
系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况,称之为写洞。
将写失败的数据备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:
l 对于RAID 5、RAID 6、RAID 50,Write hole数据都保存在掉电保护区,不需要开关控制。
− 掉电保护装置可用时,Write hole数据异常掉电重启后会进入恢复流程。
− 掉电保护装置不可用时,记录在掉电保护区的Write hole数据异常掉电后丢失,不做Write hole恢复。
l RAID 6掉线一块盘时可做写洞保护。
l RAID 50部分降级时可做写洞保护,按子组恢复数据。RAID 50完全降级时不可做写洞保护。
l 不对RAID 0、RAID 1和RAID 10做写洞保护。
9560-8i支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:
l Read:读策略选择“Read Ahead”模式,9560-8i在读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,提升了数据读速度。
l Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,9560-8i就向HOST发出数据传输完成的信号。
在写数据时,直接写入Cache,当写入的数据积累到一定程度,9560-8i才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。
数据写入RAID控制卡高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用RAID控制卡高速缓存来提升系统性能。
l 开启RAID控制卡高速缓存可提升整机写性能,当服务器写压力减小或RAID控制卡高速缓存将写满时,数据再由RAID控制卡高速缓存写入硬盘。
l 开启RAID控制卡高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,RAID控制卡高速缓存中的数据将会丢失。
为了提升整机的高读写性能和RAID控制卡高速缓存中数据的安全,可为9560-8i配置超级电容。
超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将RAID控制卡高速缓存中的数据写入超级电容模块中的NAND Flash中。
9560-8i分为支持配置超级电容与不支持配置超级电容两种形态,只有支持配置超级电容的RAID控制卡可以启用数据掉电保护功能。
超级电容电量校准
由于数据保护需要超级电容的配合,为了记录超级电容的放电曲线,以便RAID控制卡了解超级电容的状态,例如最大和最小电压等,同时为了延长超级电容的寿命,RAID控制卡默认启动超级电容自动校准模式。
RAID控制卡通过如下所述的三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。
1. RAID控制卡将超级电容的电量充到最大值。
2. 自动启动校准进程,将超级电容完全放电。
3. 重新开始充电,直至达到最大电量。
超级电容电量校准过程中,RAID控制卡写策略自动调整为“Write Through”模式以保证数据完整性,此时RAID控制卡性能会降低。电量校准的时间取决于超级电容充放电速度。
硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。
硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。
硬盘巡检不能在参与以下任何操作的任何硬盘上运行:
l RAID热备修复
l 动态扩盘
l 完全初始化或后台初始化
l 一致性校验(CC)
S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据受到损失。
RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。
RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。
默认情况下,硬盘节能功能处于开启状态。
当硬盘节能功能开启且在指定时间内没有I/O访问时,RAID控制卡下挂载的“Uncongfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。
硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。
控制卡可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在控制卡下的硬盘作为安装盘;而不支持硬盘直通的控制卡,在操作系统安装过程中,只能找到该控制卡下已经配置好的虚拟磁盘作为安装盘。
控制卡支持同时以虚拟磁盘和直通方式使用硬盘。
JBOD的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
硬盘漫游是指在同一RAID控制卡下移动物理硬盘。RAID控制卡将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。
要使用硬盘漫游,按以下步骤操作:
1. 关闭操作系统。
2. 将服务器下电。
3. 将物理硬盘移动到背板上所需的硬盘槽位。
4. 执行安全检查。确保正确插入物理硬盘。
5. 将服务器上电。
6. RAID控制卡从物理硬盘上的配置数据中检测到RAID配置。
如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。
此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。
9560-8i提供硬盘故障记录功能:
l 使能该功能时,当RAID组降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。
l 禁用该功能时,当RAID组降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,9560-8i会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。
维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。
l 使能该功能后,当硬盘故障时,会点亮Fault指示灯。
l 禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。
默认情况下,9560-8i使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。
针对有冗余功能的RAID 1、5、6、10、50、60,RAID控制卡可以对RAID组的硬盘数据进行一致性校验,对硬盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。
由于RAID 0不具备冗余性,因此不支持一致性校验。
建议每月至少进行一次一致性校验。
文档中描述的关于9560-8i的所有配置,都需要重启服务器进入BIOS配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。
对系统的影响
进入BIOS配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 将服务器上电或重启服务器。
步骤 2 在服务器硬件自检过程中,当出现如图19-3所示界面时,按“Delete”,进入输入密码界面。
步骤 3 输入密码,并按“Enter”。
进入如图19-4所示界面。
步骤 4 按“→”切换到“Advanced”页签,如图19-5所示。
步骤 5 按“↓”选择“BROADCOM <MegaRAID 9560-8i 4GB> Configuration Utility”,按“Enter”。
进入如图19-6和图19-7所示主界面,界面参数如表19-4所示。
参数 |
说明 |
Main Menu |
RAID控制卡主菜单,包含了RAID控制卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID控制卡当前工作状态。 |
Backplane |
背板个数。 |
CacheVault |
缓存备份情况,即超级电容是否在位。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
JBODs |
直通盘数量。 |
Drive Groups |
存在的硬盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID控制卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 当存在外部配置时才会显示该参数。 |
Configure |
提供创建RAID组,快速创建RAID组,查看硬盘组属性,清除当前所有RAID配置,管理外部配置的接口。 |
Set Factory Defaults |
恢复出厂设置。 |
Update Firmware |
升级固件。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。
l 9560-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见0支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”,并按“Enter”。
2. 选择“Configuration Management”,并按“Enter”。
3. 选择“Create Virtual Drive”,并按“Enter”。
打开RAID配置界面,如图19-8和图19-9所示,参数说明如表19-5所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID组级别。 |
Secure Virtual Drive |
RAID组加密功能使能状态。 l Enabled l Disabled |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 l Enabled l Disabled |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。 l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 不支持将虚拟磁盘的I/O策略设置为Cached。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 l Yes:使能后台初始化功能 l No:禁用后台初始化功能 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID组级别。
1. 通过“↑”、“↓”选择“Select RAID Level”,并按“Enter”。
2. 在打开的列表中选择要配置的RAID组级别“RAID0”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”,并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”,并按“Enter”。
打开添加成员盘的界面,如图19-10所示,界面参数如表19-6所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。
l RAID0支持的硬盘个数为1~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。
5. 按表19-6所述配置过滤条件。
6. 选择“Apply Changes”,并按“Enter”。
提示The operation has been performed successfully。
7. 选择“OK”,并按“Enter”返回上级界面。
步骤 4 按照表19-5所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照19.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”,并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”,并按“Enter”。
3. 选择“Yes”,并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”,并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“Esc”返回“Main Menu”界面。
2. 选择“Virtual Drive Management”,并按“Enter”。
显示当前存在的RAID组信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。
l 9560-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见0支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”,并按“Enter”。
2. 选择“Configuration Management”,并按“Enter”。
3. 选择“Create Virtual Drive”,并按“Enter”。
打开RAID组配置界面,如图19-11和图19-12所示,参数说明如表19-7所示。
图19-11 Create Virtual Drive(1)
图19-12 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID组级别。 |
Secure Virtual Drive |
RAID组加密功能使能状态。 l Enabled l Disabled |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 l Enabled l Disabled |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。 l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 不支持将虚拟磁盘的I/O策略设置为Cached。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 l Yes:使能后台初始化功能 l No:禁用后台初始化功能 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID组级别。
1. 通过“↑”、“↓”选择“Select RAID Level”,并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID1”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”,并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”,并按“Enter”。
打开添加成员盘的界面,如图19-13所示,界面参数如表19-8所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。
l RAID1支持的硬盘个数为2~32(偶数)。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。
5. 按表19-8所述配置过滤条件。
6. 选择“Apply Changes”,并按“Enter”。
提示The operation has been performed successfully。
7. 选择“OK”,并按“Enter”完成成员盘配置。
步骤 4 按照表19-7所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照19.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”,并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”,并按“Enter”。
3. 选择“Yes”,并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”,并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“Esc”返回“Main Menu”界面。
2. 选择“Virtual Drive Management”,并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。
l 9560-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见0支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”,并按“Enter”。
2. 选择“Configuration Management”,并按“Enter”。
3. 选择“Create Virtual Drive”,并按“Enter”。
打开RAID组配置界面,如图19-14和图19-15所示,参数说明如表19-9所示。
图19-14 Create Virtual Drive(1)
图19-15 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID组级别。 |
Secure Virtual Drive |
RAID组加密功能使能状态。 l Enabled l Disabled |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 l Enabled l Disabled |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。 l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 不支持将虚拟磁盘的I/O策略设置为Cached。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 l Yes:使能后台初始化功能 l No:禁用后台初始化功能 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID组级别。
1. 通过“↑”、“↓”选择“Select RAID Level”,并按“Enter”。
2. 在打开的列表中选择要配置的RAID组级别“RAID5”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”,并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”,并按“Enter”。
打开添加成员盘的界面,如图19-16所示,界面参数如表19-10所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。
l RAID5支持的硬盘个数为3~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。
5. 按表19-10所述配置过滤条件。
6. 选择“Apply Changes”,并按“Enter”。
提示The operation has been performed successfully。
7. 选择“OK”,并按“Enter”完成成员盘配置。
步骤 4 按照表19-9所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照19.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”,并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”,并按“Enter”。
3. 选择“Yes”,并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”,并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“Esc”返回“Main Menu”界面。
2. 选择“Virtual Drive Management”,并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。
l 9560-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见0支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”,并按“Enter”。
2. 选择“Configuration Management”,并按“Enter”。
3. 选择“Create Virtual Drive”,并按“Enter”。
打开RAID组配置界面,如图19-17和图19-18所示,参数说明如表19-11所示。
图19-17 Create Virtual Drive(1)
图19-18 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID组级别。 |
Secure Virtual Drive |
RAID组加密功能使能状态。 l Enabled l Disabled |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 l Enabled l Disabled |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。 l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 不支持将虚拟磁盘的I/O策略设置为Cached。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 l Yes:使能后台初始化功能 l No:禁用后台初始化功能 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID组级别。
1. 通过“↑”、“↓”选择“Select RAID Level”,并按“Enter”。
2. 在打开的列表中选择要配置的RAID组级别“RAID6”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”,并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”,并按“Enter”。
打开添加成员盘的界面,如图19-19所示,界面参数如表19-12所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。
l RAID6支持的硬盘个数为4~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。
5. 按表19-12所述配置过滤条件。
6. 选择“Apply Changes”,并按“Enter”。
提示The operation has been performed successfully。
7. 选择“OK”,并按“Enter”完成成员盘配置。
步骤 4 按照表19-11所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照19.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”,并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”,并按“Enter”。
3. 选择“Yes”,并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”,并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按“Esc”返回上级界面。
2. 选择“Virtual Drive Management”,并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。
l 9560-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见0支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”,并按“Enter”。
2. 选择“Configuration Management”,并按“Enter”。
3. 选择“Create Virtual Drive”,并按“Enter”。
打开RAID组配置界面,如图19-20和图19-21所示,参数说明如表19-13所示。
图19-20 Create Virtual Drive(1)
图19-21 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID组级别。 |
Secure Virtual Drive |
RAID组加密功能使能状态。 l Enabled l Disabled |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 l Enabled l Disabled |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Span 0: |
第一个Span。 |
Select Drives |
选择成员盘。 |
Add More Spans |
添加更多Span。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照19.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。 l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 不支持将虚拟磁盘的I/O策略设置为Cached。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID组级别。
1. 通过“↑”、“↓”选择“Select RAID Level”,并按“Enter”。
2. 在打开的列表中选择要配置的RAID组级别“RAID10”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”,并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”,并按“Enter”。
打开添加成员盘的界面,如图19-22所示,界面参数如表19-14所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 按表19-14所述配置过滤条件。
5. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。
l RAID10支持2~8个Span,每个Span支持的硬盘数为2~32(偶数),且各个Span的硬盘数量必须保持一致。
l RAID10支持的硬盘总数为4~240(偶数)。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。
6. 选择“Apply Changes”按“Enter”保存配置。
7. 单击“OK”完成成员盘配置。
当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如图19-23所示。
1. 选择“Add More Spans”,并按“Enter”。
2. 选择“Select Drives”,并按“Enter”。
3. 在打开的列表中选择第2个Span的成员盘。
各个Span的硬盘数量必须保持一致。
4. 选择完成后,选择“Apply Changes”并“Enter”。
提示The operation has been performed successfully。
5. 选择“OK”,并按“Enter”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID10至少需要创建2个Span,最多可以创建8个Span。
步骤 6 按照表19-13所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照19.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”,并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”,并按“Enter”。
3. 选择“Yes”,并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”,并按“Enter”完成配置。
步骤 8 检查配置结果。
1. 按两次“Esc”返回“Main Menu”界面。
2. 选择“Virtual Drive Management”,并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。
l 9560-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见0支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”,并按“Enter”。
2. 选择“Configuration Management”,并按“Enter”。
3. 选择“Create Virtual Drive”,并按“Enter”。
打开RAID组配置界面,如图19-24和图19-25所示,参数说明如表19-15所示。
图19-24 Create Virtual Drive(1)
图19-25 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID组级别。 |
Secure Virtual Drive |
RAID组加密功能使能状态。 l Enabled l Disabled |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 l Enabled l Disabled |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Span 0: |
第一个Span。 |
Select Drives |
选择成员盘。 |
Add More Spans |
添加更多Span。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照19.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。 l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 不支持将虚拟磁盘的I/O策略设置为Cached。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID组级别。
1. 通过“↑”、“↓”选择“Select RAID Level”,并按“Enter”。
2. 在打开的列表中选择要配置的RAID组级别“RAID 50”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”,并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”,并按“Enter”。
打开添加成员盘的界面,如图19-26所示,界面参数如表19-16所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 按表19-16所述配置过滤条件。
5. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。
l RAID 50支持2~8个Span,每个Span支持的硬盘数为3~32,各个Span的硬盘数量必须保持一致。
l RAID 50支持的硬盘总数为6~240。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。
6. 选择“Apply Changes”按“Enter”保存配置。
提示The operation has been performed successfully。
7. 选择“OK”,并按“Enter”完成成员盘配置。
当配置的级别为RAID 50时,需要配置多个Span,此时配置界面如图19-27所示。
1. 选择“Add More Spans”,并按“Enter”。
2. 选择“Select Drives”,并按“Enter”。
3. 在打开的列表中选择第2个Span的成员盘。
各个Span的硬盘数量必须保持一致。
4. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
提示The operation has been performed successfully。
5. 选择“OK”,并按“Enter”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID50至少需要创建2个Span,最多可以创建8个Span。
步骤 6 按照表19-15所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照19.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”,并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”,并按“Enter”。
3. 选择“Yes”,并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”,并按“Enter”完成配置。
步骤 8 检查配置结果。
1. 按两次“Esc”返回“Main Menu”界面。
2. 选择“Virtual Drive Management”,并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。
l 9560-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见0支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”,并按“Enter”。
2. 选择“Configuration Management”,并按“Enter”。
3. 选择“Create Virtual Drive”,并按“Enter”。
打开RAID配置界面,如图19-28和图19-29所示,参数说明如表19-17所示。
图19-28 Create Virtual Drive(1)
图19-29 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID组级别。 |
Secure Virtual Drive |
RAID组加密功能使能状态。 l Enabled l Disabled |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 l Enabled l Disabled |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Span 0: |
第一个Span。 |
Select Drives |
选择成员盘。 |
Add More Spans |
添加更多Span。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照19.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。 l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 不支持将虚拟磁盘的I/O策略设置为Cached。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID组级别。
1. 通过“↑”、“↓”选择“Select RAID Level”,并按“Enter”。
2. 在打开的列表中选择要配置的RAID组级别“RAID 60”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”,并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”,并按“Enter”。
打开添加成员盘的界面,如图19-30所示,界面参数如表19-18所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 按表19-18所述配置过滤条件。
5. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。
l RAID 60支持2~8个Span,每个Span支持的硬盘数为4~32,且各个Span的硬盘数量必须保持一致。
l RAID 60支持的硬盘总数为8~240。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。
6. 选择“Apply Changes”按“Enter”保存配置。
提示The operation has been performed successfully。
7. 选择“OK”,并按“Enter”完成成员盘配置。
当配置的级别为RAID 60时,需要配置多个Span。
1. 选择“Add More Spans”,并按“Enter”。
2. 选择“Select Drives”,并按“Enter”。
3. 在打开的列表中选择第2个Span的成员盘。
各个Span的硬盘数量必须保持一致。
4. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
提示The operation has been performed successfully。
5. 选择“OK”,并按“Enter”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
步骤 6 按照表19-17所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照19.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”,并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”,并按“Enter”。
3. 选择“Yes”,并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”,并按“Enter”完成配置。
步骤 8 检查配置结果。
1. 按两次“Esc”返回“Main Menu”界面。
2. 选择“Virtual Drive Management”,并按“Enter”。
显示当前存在的RAID信息。
----结束
同一台服务器配置了单个9560-8i卡或者多种芯片硬盘控制卡的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。
设置启动项的操作方法请参见BIOS 参数参考的“设置启动设备”章节。
对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
9560-8i支持2种类型的热备盘:
l Global Hotspare:即全局热备盘,为RAID控制卡上所有已配置的RAID组所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID组内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
l Dedicated Hotspare:即局部热备盘,为RAID控制卡上某个指定的RAID组所专有,每个RAID组都可以配置1个或多个局部热备盘。当指定RAID组内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID组的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID组成员盘最大容量。
l 除RAID 0外,其他类型的RAID组均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
操作步骤
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”,并按“Enter”。
2. 选择“Drive Management”,并按“Enter”。
3. 选定要操作的硬盘,并按“Enter”进入详细操作界面,如图19-31所示。
步骤 2 配置全局热备盘。
1. 将“Operation”设置为“Assign Global Hot Spare Drive”。
2. 选择“Go”,并按“Enter”。
显示The operation has been performed successfully。
3. 按“Esc”完成配置并返回上级界面。
----结束
操作步骤
当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”,并按“Enter”。
2. 选择“Drive Management”,并按“Enter”。
3. 选定要操作的硬盘,并按“Enter”进入详细操作界面,如图19-32所示。
步骤 2 配置局部热备盘。
1. 将“Operation”设置为“Assign Dedicated Hot Spare Drive”。
2. 选择“Go”,并按“Enter”。
打开当前存在的虚拟磁盘列表,如图19-33所示。
3. 选择要关联的虚拟磁盘,并按“Enter”。
4. 选择“OK”按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”,并按“Enter”完成配置并返回上级界面。
----结束
操作场景
当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。
操作步骤
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”,并按“Enter”。
2. 选择“Drive Management”,并按“Enter”。
3. 选定要操作的硬盘,并按“Enter”进入详细操作界面,如图19-34所示。
步骤 2 删除热备盘。
1. 将“Operation”设置为“Unassign Hot Spare Drive”。
2. 选择“Go”,并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”,并按“Enter”。
4. 选择“Yes”,并按“Enter”。
显示The operation has been performed successfully。
5. 按“Esc”完成配置并返回上级界面。
----结束
操作步骤
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Advanced Controller Properties”界面。
1. 在主界面中选择“Main Menu”,并按“Enter”。
2. 选择“Controller Management”,并按“Enter”。
3. 选择“Advanced Controller Properties”,并按“Enter”。
进入“Advanced Controller Properties”界面,如图19-35所示。
图19-35 Advanced Controller Properties
步骤 2 设置紧急热备。
1. 选择“Spare”,并按“Enter”。
2. 将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如图19-36所示。
3. 选择“Apply Changes”,并按“Enter”。
显示The operation has been performed successfully。
4. 选择“OK”,并按“Enter”,完成配置。
----结束
操作场景
l 只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。
l RAID10、RAID 50、RAID 60不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l RAID控制卡不支持同时对两个RAID及以上的RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
l 添加硬盘扩容之前,请确认服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。
增加硬盘扩容过程中,如果出现硬盘故障,会导致:
l 若出现故障盘后,RAID组中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID组失效。
l 若出现故障盘后,RAID组中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID组。
请谨慎执行增加硬盘扩容操作。
操作步骤
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”,并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”。
进入虚拟磁盘选项界面,如图19-37所示。
步骤 2 添加新硬盘。
1. 选择要进行扩容的RAID组,并按“Enter”。
2. 选中“Operation”,并按“Enter”。
打开操作选项页面,如图19-38所示。
3. 选择“Reconfigure Virtual Drives”,并按“Enter”
4. 选择“Go”,并按“Enter”。
5. 选择要扩容的RAID组级别。
增加硬盘扩容时,请保证该处的RAID组级别与原级别一致。
6. 选择“Choose the Operation”,并按“Enter”。
进入硬盘选择界面,如图19-39所示。
7. 选择要增加的硬盘,并按“Apply Changes”。
进入确认操作界面。
l 增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。
l RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。
8. 选择“Confirm”,并按“Enter”。
9. 选择“Yes”,并按“Enter”。
显示The operation has been performed successfully。
10. 选择“OK”,并按“Enter”。
返回到如图19-40所示界面。
11. 选择“Start Operation”,并按“Enter”。
显示操作成功。
12. 返回虚拟磁盘选项界面,验证扩容结果。
选择对应的RAID组按“Enter”。查看当前扩盘进度。如图19-41所示。
----结束
操作场景
在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入要操作的虚拟磁盘界面。
1. 在主界面中选择“Main Menu”,并按“Enter”。
2. 选择“Virtual Drive Management”,并按“Enter”。
3. 选择要操作的虚拟磁盘,并按“Enter”。
显示虚拟磁盘基本信息,如图19-42所示。
图19-42 Virtual Drive Management
步骤 2 扩容虚拟磁盘。
1. 将“Operation”设置为“Expand Virtual Drive”。
2. 选择“Go”,并按“Enter”。
进入虚拟磁盘扩容界面,如图19-43界面所示,界面参数如表19-19所示。
参数 |
参数说明 |
Current Capacity |
虚拟磁盘当前容量。 |
Available Capacity |
可用于扩展的容量。 |
Enter a Percentage of Available Capacity |
输入扩容比例。 |
Capacity of Virtual Drive after Expansion |
扩容后虚拟磁盘容量。 |
3. 设置扩容百分比。
4. 选择“OK”,并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”,并按“Enter”完成配置并返回上级界面。
6. 返回虚拟磁盘选项界面,选择对应的RAID组并按“Enter“。
验证扩容进度,如图19-44所示。
----结束
操作场景
随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。
在虚拟磁盘迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID组迁移操作。
9560-8i支持以下级别类型的迁移:
l RAID 0迁移到RAID 1、RAID 5、RAID 6
l RAID 1迁移到RAID 0、RAID 5、RAID 6
l RAID 5迁移到RAID 0、RAID 6
l RAID 6迁移到RAID 0、RAID 5
RAID组迁移对硬盘数量的要求如表19-3所示。
l 当RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
l 迁移只支持增加与RAID组成员盘同类型同规格的硬盘。
l 为防止数据丢失,请在该操作之前备份当前RAID组的数据。
l 只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。
l 迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。
RAID组级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:
l 若出现故障盘后,RAID组中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID组失效。
l 若出现故障盘后,RAID组中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID组。
请谨慎执行RAID组级别迁移操作。
操作步骤
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”,并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”,并按“Enter”。
进入虚拟磁盘选项界面,如图19-45所示。
步骤 2 选择RAID组迁移的目标级别。
下面以将RAID 0迁移到RAID 5为例进行说明。
1. 选择要进行迁移的RAID组,并按“Enter”。
2. 选中“Operation”,并按“Enter”。
打开操作选项页面,如图19-46所示。
3. 选择“Reconfigure Virtual Drives”,并按“Enter”。
4. 选择“Advanced...”,并按“Enter”可设置RAID组的其他属性,如图19-47和图19-48所示。不设置时默认与原RAID组配置一致。
5. 选择“Go”,并按“Enter”。
进入RAID组配置界面,如图19-49所示。
图19-49 Reconfigure Virtual Drives
6. 选择“New RAID Level”,并按“Enter”。
打开RAID组迁移的目标级别选择窗口。
7. 选择“RAID 5”,并按“Enter”。
步骤 3 添加硬盘。
1. 选择“Choose the operation”,并按“Enter”。
打开硬盘选择窗口,如图19-50所示。
2. 选择要增加的硬盘,并按“Enter”。
l RAID组迁移对硬盘数量的要求请参见表19-3。
l 增加的硬盘要与RAID组的成员盘同类型同规格。
3. 选择“Apply Changes”,并按“Enter”。
弹出操作确认会话框。
4. 选择“Confirm”,并按“Enter”。
5. 选择“Yes”,并按“Enter”。
提示操作成功。
6. 选择“OK”,并按“Enter”返回图19-49界面。
步骤 4 RAID组级别迁移。
1. 选择“Start Operation”,并按“Enter”。
提示操作成功。
步骤 5 查看迁移结果。
1. 进入Virtual Drive Management界面,选择对应的RAID组并按“Enter”。
检查迁移进度,如图19-51所示,表示RAID组正在进行迁移。
l 迁移过程中若重启服务器,该任务将在重启后继续进行。
l 迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。
2. 选择该虚拟磁盘,并按“Enter”,可查看迁移完成后的RAID组信息。当RAID组的级别由“RAID 1”变成“RAID 5”,RAID组容量增大,且“Status”状态显示为“Optimal”,表示RAID组迁移成功。
----结束
操作场景
RAID组被删除后无法进行恢复,请谨慎执行删除RAID组操作。
操作步骤
备份硬盘数据,并登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”,并按“Enter”。
2. 选择“Virtual Drive Management”,并按“Enter”。
3. 选择要操作的虚拟磁盘,并按“Enter”。
显示虚拟磁盘基本信息,如图19-52所示。
图19-52 Virtual Drive Management
步骤 2 删除虚拟磁盘。
1. 将“Operation”设置为“Delete Virtual Drive”。
2. 选择“Go”,并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”,并按“Enter”。
4. 选择“OK”,并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”,并按“Enter”完成配置并返回上级界面。
----结束
操作场景
介绍将带有外部配置的硬盘进行重构的操作方法,不带外部配置硬盘的重构方法请参见0硬盘相关故障。
操作步骤
在“Main Menu”界面中选择“Drive Management”并按“Enter”。
步骤 1 选中要进行重构的硬盘,按“Enter”。
步骤 2 将“Operation”设置为“Make Unconfigured Good”。
步骤 3 选择“Go”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 按“Enter”完成配置。
硬盘状态变为“(Foreign),Unconfigured Good”。
步骤 5 清除外部配置,具体操作请参见19.4.9 导入和清除外部配置。
RAID组开始进行重构。
----结束
当出现硬盘离线且RAID组可用时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。
操作场景
用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。
操作步骤
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Controller Management”界面。
1. 在主界面中选择“Main Menu”,并按“Enter”。
2. 选择“Controller Management”,并按“Enter”。
显示RAID控制卡基本信息,如图19-53所示,参数说明如表19-20所示。
图19-53 Controller Management(1)
图19-54 Controller Management(2)
参数 |
参数说明 |
Product Name |
RAID控制卡名称。 |
Serial Number |
RAID控制卡序列号。 |
Controller Status |
RAID控制卡的工作状态。 |
Personality Mode |
RAID控制卡的工作模式。 |
Select Boot Device |
当前启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。 |
PCI ID |
RAID控制卡的PCI ID。 |
PCI Segment:Bus:Device:Function |
PCI总线域BDF号。 |
PCI Slot Number |
RAID控制卡的PCI槽位号。 |
Package Version |
RAID控制卡的套件版本。 |
Firmware Version |
RAID控制卡的固件版本号。 |
NVDATA Version |
RAID控制卡配置信息的版本号。 |
Supported Device Interface |
支持的设备接口类型。 |
Drive Count |
RAID控制卡下挂载的硬盘个数。 |
JBOD Count |
直通盘数量。 |
Virtual Drive Count |
RAID控制卡下已有虚拟磁盘数量。 |
Advanced Controller Management |
高级控制卡操作。 |
Advanced Controller Properties |
查看和修改控制卡的高级属性。 |
步骤 2 查看控制卡高级属性。
选择“Advanced Controller Properties”,并按“Enter”。
进入控制卡高级属性界面,如图19-55和图19-56所示,参数说明如表19-21所示。
在该界面下,可查看并修改RAID控制卡的高级属性。
图19-55 “Advanced Controller Properties”(1)
图19-56 “Advanced Controller Properties”(2)
参数 |
说明 |
Cache and Memory |
查看控制卡Cache和Memory信息。 |
Patrol Read |
系统巡检。 |
Power Save Settings |
设置硬盘休眠。 |
Spare |
设置控制卡热备状态。 |
Task Rates |
设置各种任务的处理速率。 |
External Key Management |
管理外部密钥。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Coercion Mode |
硬盘容量压缩模式。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。 默认为“Pause on Errors”。 |
Controller BIOS |
控制卡BIOS的使能情况。 |
ROC Temperature (C) |
控制卡温度。 |
Shield State Supported |
是否支持暂停IO,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
硬盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Maintain Drive Fail History |
表示是否使能硬盘故障记录功能,默认为使能状态。 说明 l 该参数设置为“Disabled”时: l 当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。 l 新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。 l 该参数设置为“Enabled”时: l 新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。 l 新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见19.4.9 导入和清除外部配置章节。 |
SMART Polling |
SMART轮巡检测周期。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性校验。 |
Write Verify |
写校验。 |
Large IO Support |
启用或禁用大型IO支持功能。 |
Unmap Capability |
解除映射能力。 |
Firmware Device Order |
该功能开启后,设置为启动项的RAID组盘符为sda。 说明 开启该功能前,请先确认控制卡驱动与固件配套。 |
Preboot Trace Buffer |
预启动跟踪缓冲区。 |
Apply Changes |
保存配置。 |
----结束
操作场景
l 服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。
l 新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。
l 如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!
l 为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。
l 当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。
导入外部配置
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 在主界面中选择“Main Menu”,并按“Enter”。
步骤 2 选择“Configuration Management”,并按“Enter”。
步骤 3 选择“Manage Foreign Configuration”,并按“Enter”。
进入外部配置管理界面,如图19-57所示。
图19-57 Manage Foreign Configuration
步骤 4 选择“Preview Foreign Configuration”,并按“Enter”。
显示当前存在的外部配置的详细信息,如图19-58所示。
步骤 5 选择“Import Foreign Configuration”,并按“Enter”。
打开操作确认界面。
步骤 6 选择“Confirm”,并按“Enter”。
步骤 7 选择“Yes”,并按“Enter”。
提示The operation has been performed successfully。
步骤 8 按“Esc”完成配置返回上级界面。
----结束
清除外部配置
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 在主界面中选择“Main Menu”,并按“Enter”。
步骤 2 选择“Configuration Management”,并按“Enter”。
步骤 3 选择“Manage Foreign Configuration”,并按“Enter”。
进入外部配置管理界面,如图19-59所示。
图19-59 Manage Foreign Configuration
步骤 4 选择“Preview Foreign Configuration”,并按“Enter”。
显示当前存在的外部配置的详细信息,如图19-60所示。
步骤 5 选择“Clear Foreign Configuration”,并按“Enter”。
打开操作确认界面。
步骤 6 选择“Confirm”,并按“Enter”。
步骤 7 选择“Yes”,并按“Enter”。
提示The operation has been performed successfully。
步骤 8 按“Esc”完成配置返回上级界面。
----结束
该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID0存在一个VD为例,详细操作方法如下:
按照“Main Menu > Configuration Management > Create Virtual Drive”的路径进入“Create Virtual Drive”界面,如图19-61所示。
步骤 2 将“Select Drives From”设置为“Free Capacity”,如图19-62所示。
步骤 3 选择“Select Drive Groups”,并按“Enter”。
显示当前存在的RAID组(Drive Group),如图19-63所示。
步骤 4 选择要创建多个VD的RAID组,并按“Enter”,如图19-64所示。
步骤 5 选择“Apply Changes”,并按“Enter”。
提示操作成功。
步骤 6 选择“OK”,并按“Enter”返回VD配置界面,如图19-65和图19-66所示,参数说明如表19-22所示。
图19-65 Create Virtual Drive(1)
图19-66 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID组级别。 |
Secure Virtual Drive |
RAID组加密功能使能状态。 l Enabled l Disabled |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 l Enabled l Disabled |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间,创建多个VD时选择此选项。 |
Select Drive Group |
选择虚拟磁盘组。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照19.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。 l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 不支持将虚拟磁盘的I/O策略设置为Cached。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 l Yes:使能后台初始化功能 l No:禁用后台初始化功能 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 7 按照表19-22所述配置VD的相关属性。
步骤 8 选择“Save Configuration”,并按“Enter”。
显示操作确认界面。
步骤 9 选择“Confirm”,并按“Enter”。
步骤 10 选择“Yes”,并按“Enter”。
提示The operation has been performed successfully。
可进入Virtual Drive Management界面,查看当前存在的所有VD,如图19-67所示。
图19-67 Virtual Drive Management
----结束
每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤11。
查询RAID控制卡固件版本的方法有如下几种:
l 在iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。
l 服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见0查询RAID控制卡配置信息。
回显信息中的“FW Version”字段即为RAID控制卡的固件版本。
l 在RAID控制卡管理界面进行查询,具体方法为:
a. 登录RAID控制卡的管理界面。具体操作方法请参见0登录管理界面。
b. 在主界面中选择“Main Menu”,并按“Enter”。
进入“Main Menu”页面,如图19-68所示。
c. 选择“Controller Management”,并按“Enter”。
显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如图19-69所示。
图19-69 Controller Management界面
介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。
更多故障案例请联系技术支持获取。
问题描述
当服务器出现如下现象时,说明硬盘故障。
l 硬盘故障指示灯常亮。
l 服务器开机状态下,硬盘在位指示灯不亮。
l 服务器上报硬盘故障告警。
处理方法
JBOD模式下的硬盘为UBAD状态时,硬盘故障指示灯会被点亮,同时iBMC会对其进行告警。
l 通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。
l 通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。
l 通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考19.6.2.8 Drive Management。
l 通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
步骤 1 更换新硬盘。
l 更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考19.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。
l 若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在0支持多种RAID类型查看RAID组支持的最大故障硬盘数量。
l 更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。
l 新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。
拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:
l 若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。
l 若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。
l 若故障硬盘为直通盘,则直接更换即可。
l 若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。
− UEFI模式下创建RAID0的方法请参见19.3.2 创建RAID 0。
− 通过命令行方式创建RAID0的方法请参见19.7.2.17 创建和删除RAID。
----结束
问题描述
正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
但当RAID控制卡未设置紧急热备时,成员盘状态显示为fail或prefail时,可使用以下方法处理。
处理方法
使用StorCLI工具,具体操作请参考0下载和安装StorCLI工具。
步骤 1 执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考19.7.2.33 设置硬盘状态。
storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]
l controller_id:硬盘所在RAID控制卡的ID
l enclosure_id:硬盘所在Enclosure的ID
l slot_id:物理硬盘槽位ID
步骤 2 更换离线硬盘。
步骤 3 RAID组自动执行重构。
等待重构完成。
----结束
问题描述
硬盘状态显示为Unconfigured Bad或UBad。
处理方法
使用StorCLI工具,具体操作请参见0下载和安装StorCLI工具。
步骤 1 执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见19.7.2.33 设置硬盘状态。
storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]
l controller_id:硬盘所在RAID控制卡的ID
l enclosure_id:硬盘所在Enclosure的ID
l slot_id:物理硬盘槽位ID
步骤 2 重新查看硬盘状态是否更改为Unconfigured Good或Ugood。具体操作请参见19.6.2.8 Drive Management界面或19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤4。
步骤 3 查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见19.4.9 导入和清除外部配置或11.7.2.28 查看/导入/清除外部配置。
l 问题解决 => 处理完毕。
l 问题未解决 => 联系技术支持处理。
----结束
问题描述
当RAID控制卡电容故障时,可能导致服务器出现如下情况:
l 服务器读写速度显著降低。
l RAID控制卡的CU界面中显示电容状态异常。
处理方法
确认当前使用的RAID控制卡是否支持配置电容。
l 是 => 步骤2
l 否 => 联系技术支持处理。
步骤 1 进入RAID控制卡的CU界面,查看电容状态是否为“Optimal”。
电容状态可查询19.6.2.9 Hardware Components界面的“Battery Status”参数。
l 是 => 处理完毕
l 否 => 步骤3
步骤 2 将服务器下电,打开机箱,并查看RAID控制卡电容是否在位。
l 是 => 步骤5
l 否 => 步骤4
步骤 3 检查整机配置,为服务器安装电容,查看电容状态是否为“Optimal”。
l 是 => 处理完毕
l 否 => 步骤7
步骤 4 重新安装RAID控制卡电容,查看电容状态是否为“Optimal”。
l 是 => 处理完毕
l 否 => 步骤6
步骤 5 更换RAID控制卡电容,查看电容状态是否为“Optimal”,且“问题描述”所述的异常状态是否消失。
l 是 => 处理完毕
l 否 => 步骤7
----结束
问题描述
当服务器出现如下现象时,说明控制卡故障。
l 数据无法写入控制卡控制的硬盘。
l 服务器上报控制卡故障告警。
处理方法
登录iBMC Web界面查看告警信息。
步骤 1 根据告警信息,参考iBMC告警处理。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤3
步骤 3 查询兼容性查询助手或者联系技术支持处理。
----结束
问题描述
正常情况下,当服务器配置了RAID控制卡且RAID控制卡状态正常时,进入BIOS的Advanced页签后,会显示RAID控制卡的信息,如图19-70所示。
如果Advanced页签不显示RAID控制卡的信息,如图19-71所示,则:
l 如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:
− 如果不显示驱动打印信息,可尝试下电后重新拔插RAID控制卡再上电、下电后更换RAID控制卡再上电或者联系技术支持。
− 如果显示“AVAGO EFI SAS Driver”,则可以通过本章节的指导修复RAID控制卡。
l 如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,则可以通过本章节的指导修复RAID控制卡;如果不显示,可尝试下电后重新拔插RAID控制卡再上电、下电更换RAID控制卡再上电或者联系技术支持。
处理方法
l 当BIOS的版本为0.98之前版本(不包含0.98版本)时:
a. 在Advanced页签选择“Driver Health Manager”并按Enter。
进入“Driver Health Manager”界面。
b. 选择要进行修复的RAID控制卡驱动,如“AVAGO EFI SAS Driver”,并按“Enter”。
进入“Critical Message”界面。
c. 查看“Critical Message”界面的打印信息:
n 显示“The following VDs have missing disks. ”=> 请参见0The following VDs have missing disks。
n 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见19.5.4.5 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
l 当BIOS的版本为0.98及以上版本时:
a. 在“Advanced”页签选择“Some drivers are not healthy”。
进入健康状态查询界面。
b. 选择“Repair the whole platform”,并按“Enter”。
进入“Critical Message”界面。
c. 查看“Critical Message”界面的打印信息。
n 显示“The following VDs have missing disks. ”=> 请参见0The following VDs have missing disks。
n 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见19.5.4.5 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见0RAID控制卡启动中出现的常见的错误消息及处理方法。
问题描述
如图19-72所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。
处理方法
修复RAID控制卡。
1. 在图19-72中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
2. 输入“C”并按“Enter”。
3. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
4. 输入“y”并按“Enter”。
提示“Critical Message handling completed. Please exit”。修复完成。
步骤 1 重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图19-73所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”
处理建议
该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:
l 下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。
l 忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:
a. 在图19-73中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
b. 输入“c”并按“Enter”。
c. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
d. 输入“y”并按“Enter”。
提示Critical Message handling completed. Please exit。
e. 按“Esc”退出当前界面。
弹出确认保存配置会话框,如图19-74所示。
f. 按“Y”保存配置,操作完成。
g. 按Esc键返回“Device Manager”界面。
h. 选择控制卡并按“Enter”,进入RAID控制卡管理界面。
问题描述
硬盘响应命令超时,控制卡会对硬盘进行复位。3次复位后尚未恢复时将可能耗尽控制卡TM(Task Management)资源,触发Fatal error,此时会通过OCR(Online Controller Reset)自愈恢复,期间将有短时间业务中断(约30s~60s),控制卡复位后会完成踢盘,将故障硬盘置为Ubad状态。
控制卡自愈恢复,需要开启OCR开关。
触发条件
当下发到硬盘的I/O出现超时不响应的情况时,RAID控制卡会通过reset硬盘来恢复,正常情况下,硬盘会重新接入或者多次reset之后会进行踢盘。
当出现reset之后硬盘仍然无法响应RAID控制卡指令且无法踢盘时,RAID控制卡会再次reset进行复位,每次reset会占用RAID控制卡资源,短时间内多次reset会导致RAID控制卡资源耗尽,该场景下,RAID控制卡会通过重新加载FW进行恢复。
该机制为此类卡的正常处理机制,由于架构限制,无法进行优化。
识别方法
l 已安装OS:
当遇到短时间业务中断,恢复后查看有被置为Ubad状态的硬盘时,可以查看控制卡日志,搜索dm.c并查看其发生时间,如与业务中断时间节点接近,即可断定为触发了该机制。
注意控制卡与OS时间差。
l 未安装OS:
无OS时,触发该机制的操作为:从“Advanced”页签进入控制卡界面。若触发该机制,进入控制卡卡操作界面时将会卡住,无法恢复。
处理方法
定位故障硬盘。
l 已安装OS:
− 如确认触发了该机制并且已经完成了踢盘,需要更换Ubad状态的硬盘。
− 如无Ubad状态的硬盘,查看日志并搜索“indicates critical condition”,目标行的“element xx indicates critical condition”中,“xx”即为问题硬盘的槽位号。
已安装OS,但是进入“Advanced”页签的控制卡操作界面卡住,需要重新上下电进入OS,按照以上方式定位故障硬盘。
l 未安装OS:
系统未安装OS,出现该异常时,保留预安装OS RAID组数目的硬盘,将其他硬盘拔出并记录槽位号,如成功安装OS进入系统后,按照已安装OS的操作来确认问题硬盘。
步骤 1 更换故障硬盘。
l 是 => 处理完毕。
l 否 => 请联系技术支持。
----结束
问题描述
RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD mode将RAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如图19-75所示,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。
当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。
处理方法
(可选)登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面。
步骤 1 依次进入Main Menu>Controller Management>Advanced Controller Management界面,如图19-76所示。
图19-76 Advanced Controller Management界面
步骤 2 选择“Switch to RAID mode”并按“Enter”。
提示操作成功,如图19-77所示。
步骤 3 选择“OK”并按“Enter”。
返回到“Advanced Controller Management”界面,显示正在切换模式,如图19-78所示。
图19-78 Advanced Controller Management界面
步骤 4 按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面。
步骤 5 依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如图19-79所示。
图19-79 Advanced Controller Management界面
l 是 => 处理完毕。
l 否 => 请联系技术支持。
----结束
问题描述
l 无法创建RAID组。
l 进入控制卡主界面后,显示“Discard Preserved Cache”,如图19-80所示。
处理方法
进入控制卡主界面。
步骤 1 选择“Discard Preserved Cache”并按Enter。
弹出操作确认界面,如图19-81所示。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示“The operation has been performed successfully”即操作成功。
----结束
对系统的影响
进入BIOS配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 将服务器上电或重启服务器。
步骤 2 在服务器硬件自检过程中,当出现如图19-82所示界面时,按“Delete”,进入输入密码界面。
步骤 3 输入密码,并按“Enter”。
进入如图19-83所示界面。
步骤 4 按“→”切换到“Advanced”页签,如图19-84所示。
步骤 5 按“↓”选择“BROADCOM <MegaRAID 9560-8i 4GB> Configuration Utility”,按“Enter”。
进入如图19-85和图19-86所示主界面,界面参数如表19-23所示。
参数 |
说明 |
Main Menu |
RAID控制卡主菜单,包含了RAID控制卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID控制卡当前工作状态。 |
Backplane |
背板个数。 |
CacheVault |
缓存备份情况,即超级电容是否在位。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
JBODs |
直通盘数量。 |
Drive Groups |
存在的硬盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID控制卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 当存在外部配置时才会显示该参数。 |
Configure |
提供创建RAID组,快速创建RAID组,查看硬盘组属性,清除当前所有RAID配置,管理外部配置的接口。 |
Set Factory Defaults |
恢复出厂设置。 |
Update Firmware |
升级固件。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。
界面介绍
“Main Menu”界面如图19-87,参数说明如表19-24所示。
参数 |
参数说明 |
Configuration Management |
配置管理RAID组。 |
Controller Management |
管理RAID控制卡。 |
Virtual Drive Management |
管理虚拟磁盘。 |
Drive Management |
管理硬盘。 |
Hardware Components |
查询部件信息。 |
可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。
界面介绍
“Configuration Management”界面如图19-88,参数说明如表19-25所示。
图19-88 Configuration Management
参数 |
参数说明 |
Auto Configure RAID 0 |
自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0。 |
Create Virtual Drive |
创建RAID组。 |
Create Profile Based Virtual Drive |
根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。 |
View Drive Group Properties |
查看硬盘组属性。 |
Make JBOD |
硬盘直通功能,硬盘不加入RAID,直接使用。 |
Clear Configuration |
清除当前所有RAID配置。 |
Manage Foreign Configuration |
管理外部配置。 当存在外部配置时才会显示该参数。 |
可通过该页面快速将所有Unconfigured Good状态的硬盘创建为单盘RAID0。
仅控制卡下存在空闲盘时显示此选项。
界面介绍
“Auto Configure RAID 0”界面如图19-89。
图19-89 “Auto Configure RAID 0”
可通过该页面创建虚拟磁盘。
界面介绍
“Create Virtual Drive”界面如图19-90和图19-91所示,参数说明如表19-26所示。
图19-90 “Create Virtual Drive”(1)
图19-91 “Create Virtual Drive”(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID组级别。 |
Secure Virtual Drive |
RAID组加密功能使能状态。 l Enabled l Disabled |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 l Enabled l Disabled |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。 l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 不支持将虚拟磁盘的I/O策略设置为Cached。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 l Yes:使能后台初始化功能 l No:禁用后台初始化功能 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
可在该页面通过向导方式快速创建虚拟磁盘。
界面介绍
“Create Profile Based Virtual Drive”界面如图19-92所示,参数说明如表19-27所示。
图19-92 “Create Profile Based Virtual Drive”
参数 |
说明 |
Generic RAID 0 |
快速创建RAID0。 |
Generic RAID 1 |
快速创建RAID1。 |
Generic RAID 5 |
快速创建RAID5。 |
Generic RAID 6 |
快速创建RAID6。 |
File Server |
快速创建文件服务器。 |
Web/Generic Server |
快速创建网页/通用服务器。 |
Database |
快速创建数据库。 |
可在该页面查看硬盘组属性。
界面介绍
“View Drive Group Properties”界面如图19-93所示,参数说明如表19-28所示。
图19-93 “View Drive Group Properties”
参数 |
参数说明 |
Drive Group |
硬盘组名称。 |
Capacity Allocation |
硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。 |
Secured |
是否加密。 |
选择空闲硬盘转换为直通盘。
仅控制卡下存在空闲盘时显示此选项。
界面说明
“Make JBOD”界面如图19-94所示。
该操作将清除控制卡上所有的RAID、热备盘、Pinned Cache和直通盘配置信息,请谨慎执行该操作。
界面说明
“Clear Configuration”界面如图19-95所示。
该界面可查看、导入、清空外部配置。当存在外部配置时才会显示该选项。
界面介绍
“Manage Foreign Configuration”界面如图19-96所示,参数说明如所示。
图19-96 “Manage Foreign Configuration”
表19-29 参数说明
参数 |
参数说明 |
Preview Foreign Configuration |
预览外部配置。 |
Clear Foreign Configuration |
清除外部配置。 |
该界面提供控制卡管理接口,可查看并修改控制卡的详细参数。
界面介绍
“Controller Management”界面如图19-97和图19-98所示,参数说明如表19-30所示。
图19-97 Controller Management(1)
图19-98 Controller Management(2)
参数 |
参数说明 |
Product Name |
RAID控制卡名称。 |
Serial Number |
RAID控制卡序列号。 |
Controller Status |
RAID控制卡的工作状态。 |
Personality Mode |
RAID控制卡的工作模式。 |
Select Boot Device |
当前启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。 |
PCI ID |
RAID控制卡的PCI ID。 |
PCI Segment:Bus:Device:Function |
PCI总线域BDF号。 |
PCI Slot Number |
RAID控制卡的PCI槽位号。 |
Package Version |
RAID控制卡的套件版本。 |
Firmware Version |
RAID控制卡的固件版本号。 |
NVDATA Version |
RAID控制卡配置信息的版本号。 |
Supported Device Interface |
支持的设备接口类型。 |
Drive Count |
RAID控制卡下挂载的硬盘个数。 |
JBOD Count |
直通盘数量。 |
Virtual Drive Count |
RAID控制卡下已有虚拟磁盘数量。 |
Advanced Controller Management |
高级控制卡操作。 |
Advanced Controller Properties |
查看和修改控制卡的高级属性。 |
该界面提供控制卡高级管理接口,可查看并修改更多控制卡的详细参数。
界面介绍
“Advanced Controller Management”界面如图19-99所示,界面中参数说明如表19-31所示。
图19-99 “Advanced Controller Management”
参数 |
说明 |
Clear Controller Events |
清除控制卡的事件日志。 |
Save Controller Events |
保存控制卡的事件日志。 |
Save TTY Log |
保存终端操作日志。 |
Enable Drive Security |
使能硬盘加密功能。 |
Disable Drive Security |
关闭硬盘加密功能。 |
Change Security Settings |
修改硬盘加密功能的设置,包括修改密码、修改加密模式等。 |
Manage SAS Storage Link Speed |
管理接口速率。 |
Manage PCIe Storage Interface |
管理RAID控制卡的链路宽度和lane的速率。 |
Manage MegaRAID Advanced Software Options |
管理高级软件功能。 |
Schedule Consistency Check |
设置一致性校验参数。 |
Set Factory Defaults |
恢复为出厂配置。 |
Enable Host LED Management for JBOD |
管理JBOD模式的host的LED。 |
Manage Personality Mode |
设置RAID控制卡当前的工作模式。 |
Manage Controller Profiles |
查看和管理控制卡的配置文件。 |
该界面提供控制卡高级管理接口,可查看并修改控制卡的高级属性。
界面介绍
“Advanced Controller Properties”界面如图19-100和图19-101所示,参数说明如表19-32所示。
图19-100 “Advanced Controller Properties”(1)
图19-101 “Advanced Controller Properties”(2)
参数 |
说明 |
Cache and Memory |
查看控制卡Cache和Memory信息。 |
Patrol Read |
系统巡检。 |
Power Save Settings |
设置硬盘休眠。 |
Spare |
设置控制卡热备状态。 |
Task Rates |
设置各种任务的处理速率。 |
External Key Management |
管理外部密钥。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Coercion Mode |
硬盘容量压缩模式。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。 默认为“Pause on Errors”。 |
Controller BIOS |
控制卡BIOS的使能情况。 |
ROC Temperature (C) |
控制卡温度。 |
Shield State Supported |
是否支持暂停IO,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
硬盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Maintain Drive Fail History |
表示是否使能硬盘故障记录功能,默认为使能状态。 说明 l 该参数设置为“Disabled”时: l 当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。 l 新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。 l 该参数设置为“Enabled”时: l 新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。 l 新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见19.4.9 导入和清除外部配置章节。 |
SMART Polling |
SMART轮巡检测周期。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性校验。 |
Write Verify |
写校验。 |
Large IO Support |
启用或禁用大型IO支持功能。 |
Unmap Capability |
解除映射能力。 |
Firmware Device Order |
该功能开启后,设置为启动项的RAID组盘符为sda。 说明 开启该功能前,请先确认控制卡驱动与固件配套。 |
Preboot Trace Buffer |
预启动跟踪缓冲区。 |
Apply Changes |
保存配置。 |
设置后台任务速率
选择“Task Rates”并按“Enter”。界面如图19-102所示,参数说明如表19-33所示。
参数 |
说明 |
Background Initialization <BGI> Rate |
设置执行后台初始化的速率。 说明 数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Consistency Check Rate |
设置执行一致性校验的速率。 说明 数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Patrol Read Rate |
设置执行巡检读取的速率。 说明 数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Rebuild Rate |
设置硬盘发生故障时在新硬盘上执行重构数据的速率。 说明 数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Reconstruction Rate |
设置执行RAID级别迁移或在线容量扩展时重构数据的速率。 说明 数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Apply Changes |
保存配置。 |
步骤 2 按照表19-33所述修改控制卡的高级属性参数。
步骤 3 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面提供虚拟磁盘的查询和管理接口。
界面介绍
“Virtual Drive Management”界面如图19-103,显示虚拟磁盘列表。
选定要操作的虚拟磁盘,并按“Enter”进入详细操作界面,如图19-104所示,参数说明如表19-34所示。
图19-104 Virtual Drive Management
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:定位虚拟磁盘的所有硬盘。 l Stop Locate:取消定位。 l Delete Virtual Drive:删除虚拟磁盘。 l Expand Virtual Drive:扩展虚拟磁盘容量。 l Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。 l Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。 l Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。 l Fast Initialization:快速初始化虚拟磁盘。 l Slow Initialization:安全初始化虚拟磁盘。 l Check Consistency:一致性校验。 l Virtual Drive Erase:格式化虚拟磁盘。 |
Progress |
当前任务进度。 l 仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。 l 当前界面不会自动刷新,需退出后重新进入查看当前进度。 |
Stop |
停止当前任务。 仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。 |
Name |
虚拟磁盘名称。 |
Raid Level |
虚拟磁盘RAID级别。 |
Status |
虚拟磁盘当前运行状态。 |
Size |
虚拟磁盘容量。 |
View Associated Drives |
查看成员盘属性。 |
Advanced... |
查看虚拟磁盘高级属性。 |
查看成员盘属性
在图19-104中选择“View Associated Drives”,并按“Enter”。
界面如图19-105,显示成员盘列表。
图19-105 View Associated Drives
步骤 2 选择要查看的成员盘,并按“Enter”。
步骤 3 选择“View Drive Properties”,并按“Enter”。
进入硬盘属性界面,如图19-106界面所示,界面参数如表19-35所示。
参数 |
参数说明 |
Operation |
该成员盘可执行的操作,包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Place Drive Online/Offline:将硬盘上线/离线。 l Replace Drive:替换硬盘。 |
Drive ID |
成员盘的ID。 |
Connection |
成员盘的接口。 |
Enclosure Position |
Enclosure的位置。 |
Slot Number |
成员盘的槽位号。 |
Status |
成员盘的当前工作状态。 |
Size |
成员盘的容量。 |
Type |
成员盘类型。 |
Model |
成员盘的模块类型。 |
Serial Number |
成员盘的序列号。 |
Hardware Vendor |
成员盘的生产厂商。 |
Associated Virtual Drive |
成员盘所在的虚拟磁盘。 |
Advanced... |
查询成员盘更多属性。 |
----结束
查看和修改虚拟磁盘高级属性
在图19-104中选择“Advanced”,并按“Enter”。
图19-107 Advanced(1)
参数 |
参数说明 |
Mirror Data Size |
镜像数据大小。 |
Logical Sector Size |
逻辑扇区大小。 |
Strip Size |
条带大小。 |
Starting Logical Block Addressing (LBA) |
逻辑单元起始地址。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Secured |
是否支持RAID组的加密功能。 |
Bad Blocks |
是否支持坏块处理。 |
Access |
是否支持Access。 |
Current Write Cache Policy |
当前写Cache策略,包括: l Write Through:当硬盘子系统接收到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。 l Write Back:当RAID控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Force Write Back:当未配置超级电容或超级电容故障时,RAID控制卡将自动切换到Write Through模式。 |
Default Write Cache Policy |
默认的写Cache策略。 |
Disable Background Initialization |
是否禁用后台初始化。 |
Read Cache Policy |
当前读Cache策略,包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。RAID控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 |
Drive Cache |
是否支持cache。 |
Input/Output |
I/O读取策略,包括: l Direct:直接从硬盘读取数据,不经过Cache缓存。 l Cached:从Cache缓存中读取数据。 |
Unmap Capability |
解除映射能力。 |
Apply Changes |
保存配置。 |
步骤 2 按照表19-36所述配置“Advanced”的参数。
步骤 3 选择“Apply Changes”,并按“Enter”。
显示The operation has been performed successfully。
步骤 4 选择“OK”,并按“Enter”完成配置。
----结束
该界面显示硬盘基本属性,提供硬盘操作接口。
界面介绍
“Drive Management”界面如图19-109所示,显示硬盘列表。
硬盘的标识信息说明如下:
l ①表示RAID控制卡的Port口编号。
l ②表示机箱或背板的位置ID。
l ③表示硬盘槽位号。
l ④表示硬盘类型。
l ⑤表示硬盘的容量。
l ⑥表示硬盘的状态。
l ⑦表示硬盘的扇区大小。
选定要操作的硬盘,并按“Enter”进入详细操作界面,如图19-110所示,参数说明如表19-37所示。
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Initialize Drive:硬盘初始化。 l Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。 − Simple:仅对硬盘进行一轮擦除动作。 − Normal:对硬盘进行三轮擦除动作。 − Thorough:对硬盘进行九轮擦除动作。 − Stop Erase:停止数据擦除操作。 l Make Unconfigured Good/Bad:修改硬盘状态。 l Make JBOD:硬盘直通功能,硬盘不加入RAID组,直接使用。 l Assign Global Hot Spare Drive:设置全局热备盘。 l Assign Dedicated Hot Spare Drive:设置局部热备盘。 l Unassign Hot Spare Drive:删除热备盘。 l Cryptographic Erase:对加密硬盘进行数据擦除。 l Place Drive Online:将Offline状态的硬盘设置为Online。 说明 l Place Drive Online操作仅仅只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。 l 如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。 l 对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。 |
Drive ID |
硬盘的ID。 |
Connection |
硬盘的接口。 |
Enclosure Position |
Enclosure的位置。 |
Slot Number |
硬盘的槽位号。 |
Status |
硬盘的当前工作状态。 |
Size |
硬盘的容量。 |
Type |
硬盘的类型。 |
Model |
硬盘型号。 |
Serial Number |
硬盘序列号。 |
Advanced... |
查询更多硬盘属性。 |
安全擦除硬盘数据
该操作会删除硬盘上的数据,请谨慎执行。
将“Operation”设置为“Drive Erase”。
步骤 1 选择“Erase Mode”,并按“Enter”。
步骤 2 在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。
步骤 3 选择“OK”,并按“Enter”。
进入操作确认界面。
步骤 4 选择“Confirm”,并按“Enter”。
步骤 5 选择“Yes”,并按“Enter”。
提示操作成功。
----结束
查看硬盘属性
选择“Advanced...”,并按“Enter”。
打开硬盘属性界面,如图19-111和图19-112所示,参数说明如表19-38所示。
参数 |
参数说明 |
Certified |
硬盘是否通过供应商认证。 |
Logical Sector Size |
逻辑扇区大小。 |
Physical Sector Size |
物理扇区大小。 |
SMART Status |
SMART功能是否使能。 |
Revision |
硬盘Firmware版本。 |
Media Errors |
Media error个数。 |
Predicted Fail Count |
Pred fail个数。 |
SAS Address |
硬盘SAS地址。 |
Drive Power State |
硬盘上电状态。 |
Cache Setting |
是否可设置Cache。 |
Disk Protocol |
硬盘支持的协议。 |
Disk Speed |
硬盘的速率。 |
Negotiated Drive Transfer Speed |
硬盘数据传输速率。 |
Number of Connections |
连接器个数。 |
FDE Capable |
硬盘是否支持FDE(Full Disk Encryption)技术。 |
Cryptographic Erase Capable |
硬盘的加密擦除能力。 |
Unmap Capable |
解除映射能力。 |
Temperature |
硬盘温度。 |
该界面主要提供RAID控制卡传感器信息。
界面介绍
“Hardware Components”界面如图19-113所示,参数说明如表19-39所示。
参数 |
参数说明 |
Battery Status |
当前电池工作状态。 |
Temperature Sensors |
当前温度传感器状态。 |
Fans |
当前风扇模块工作状态。 |
Power Supplies |
当前供电模块工作状态。 |
Battery Management |
电池管理 |
Enclosure Management |
组件管理。 |
该界面主要提供RAID控制卡电池信息。
界面介绍
“Battery Management”界面如图19-114所示,参数说明如表19-40所示。
参数 |
说明 |
Type |
电池类型。 |
Status |
电池状态。 |
Temperature |
电池当前温度。 |
Capacitance |
电池当前容量。 |
Advanced |
更多操作。 |
选择“Advanced”进入如图19-115所示界面,参数说明如表19-41所示。
图19-115 Advanced Battery Management
参数 |
说明 |
Start Manual Learn Cycle |
手动超级电容的电量校准。 |
Set Automatic Learn Cycle Properties |
设置超级电容的电量校准属性。 |
Manufacturer |
电池制造商。 |
Serial Number |
电池序列号。 |
Date of Manufacture |
电池生产日期。 |
Module Version |
电池模块版本。 |
Status |
电池当前状态。 |
Voltage |
电池电压。 |
Current |
电池的电流。 |
Design Capacity |
电池的设计容量。 |
Remaining Capacity |
电池的剩余容量。 |
Auto_learn Mode |
自学习模式。 |
Next Learn Cycle Time |
下一次超级电容的电量校准时间。 |
该界面主要提供RAID控制卡传感器信息。
界面介绍
“Enclosure Management”界面如图19-116所示,参数说明如表19-42所示。
图19-116 “Enclosure Management”
参数 |
说明 |
Select Enclosure |
选择机框。 |
Vendor ID |
厂商iD。 |
Enclosure ID |
机框ID。 |
Enclosure Model |
机框型号。 |
Enclosure Location |
机框位置。 |
Product Revision Level |
产品修订级别。 |
Number of slots |
槽位数量。 |
Attached Drives |
关联硬盘。 |
View Enclosure Status |
查看机框状态。 |
提供RAID控制卡操作管理接口。
界面介绍
“View Server Profile”界面如图19-117所示,参数说明如表19-43所示。
参数 |
参数说明 |
UEFI Spec Version |
服务器支持的UEFI Spec版本。 |
Controller Management |
提供控制卡管理接口,详细情况请参见19.6.2.6 Controller Management。 |
Hardware Components |
提供控制卡部件查询接口,详细情况请参见19.6.2.9 Hardware Components。 |
Drive Management |
提供硬盘管理接口,详细情况请参见19.6.2.8 Drive Management。 |
Virtual Drive Management |
提供虚拟磁盘管理接口,详细情况请参见19.6.2.7 Virtual Drive Management。 |
该界面可查看、导入、清空外部配置。当存在外部配置时才会显示该选项。请参见19.6.2.5.6 Manage Foreign Configuration。
可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。请参见0Configuration Management。
所有配置将恢复到出厂默认配置,请谨慎执行该操作。
该界面可恢复控制卡出厂设置。
界面介绍
“Set Factory Defaults”界面如图19-118所示。
图19-118 “Set Factory Defaults”
该界面提供控制卡高级软件管理接口。
界面介绍
“Advanced Controller Management”界面如图19-119所示,界面中参数说明如表19-44所示。
图19-119 “Advanced Controller Management”
参数 |
说明 |
MegaRAID Advanced Software Options enable special functionalities or features that may not be available in the standard configuration of the controller |
MegaRAID高级软件选项可启用控制器标准配置中可能不提供的特性或功能。 |
Activated MegaRAID Advanced Software Options |
激活的MegaRAID高级软件选项。 |
MegaRAID RAID6 (Unlimited) |
RAID 6(无限制)。 |
MegaRAID RAID5 (Unlimited) |
RAID 5(无限制)。 |
MegaRAID SafeStore (Unlimited) |
安全存储(无限制)。 |
MegaRAID FastPath (Unlimited) |
快速路径(无限制)。 |
Safe ID |
RAID控制卡的安全编码。 |
Serial Number |
RAID控制卡序列号。 |
Activation Key |
待激活的高级特性的Key。 |
Activate |
激活高级特性。 9560-8i不支持高级特性的激活操作,该功能无效。 |
Deactivate All Trial Software |
注销当前所有高级特性。 9560-8i不支持高级特性的激活操作,该功能无效。 |
按“F10”退出BIOS管理界面。
使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。
下载工具
步骤 1 在“DOWNLOADS”页签中单击“Management Software and Tools”。
打开管理软件和工具列表。
步骤 2 下载最新版本的“StorCLI”工具。
步骤 3 解压后得到适用于不同操作系统的工具包。
----结束
安装工具
使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。
步骤 1 在Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。
StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。
安装完毕后,即可执行RAID控制卡命令。
----结束
命令功能
查询9560-8i的基本配置信息。
命令格式
storcli64 /ccontroller_id show
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID |
使用指南
建议保持默认配置。
使用实例
# 查询RAID控制卡配置信息。
[root@localhost ~]# storcli64 /c0
show
Generating detailed summary of the adapter, it may take a while to complete.
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.18.0-147.8.1.el7.aarch64
Controller = 0
Status = Success
Description = None
Product Name = MegaRAID 9560-8i 4GB
Serial Number = SKB3166087
SAS Address = 500062b2082428c0
PCI Address = 00:04:00:00
System Time = 04/11/2022 09:19:35
Mfg. Date = 08/03/21
Controller Time = 04/11/2022 01:19:35
FW Package Build = 52.20.0-4341
BIOS Version = v7.20.01.0_0x07140000
FW Version = 5.200.02-3618
Driver Name = megaraid_sas
Driver Version = 07.720.04.00
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x10E2
SubVendor Id = 0x1000
SubDevice Id = 0x4010
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 4
Device Number = 0
Function Number = 0
Domain ID = 0
Security Protocol = None
Drive Groups = 10
TOPOLOGY :
========
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT
Size PDC PI SED DS3 FSpace TR
-----------------------------------------------------------------------------
0 - - -
- RAID1 Optl N 893.750 GB dflt N N
none N N
0 0 - -
- RAID1 Optl N 893.750 GB dflt N N
none N N
0 0 0 251:12 9 DRIVE
Onln N 893.750 GB dflt N N none
- N
0 0 1 251:13 0 DRIVE
Onln N 893.750 GB dflt N N none
- N
1 - - -
- RAID5 Optl N 18.190 TB dflt N
N dflt N N
1 0 - -
- RAID5 Optl N 18.190 TB dflt N
N dflt N N
1 0 0 251:0 5 DRIVE
Onln N 9.094 TB dflt N N dflt
- N
1 0 1 251:2 7 DRIVE
Onln N 9.094 TB dflt N N dflt
- N
1 0 2 251:6 2 DRIVE
Onln N 9.094 TB dflt N N dflt
- N
2 - - - -
RAID1 Optl N 9.094 TB dflt N N dflt
N N
2 0 - -
- RAID1 Optl N 9.094 TB dflt N
N dflt N N
2 0 0 251:4 3 DRIVE
Onln N 9.094 TB dflt N N dflt
- N
2 0 1 251:7 1 DRIVE
Onln N 9.094 TB dflt N N dflt
- N
3 - - -
- RAID0 Optl N 9.094 TB dflt N
N dflt N N
3 0 - -
- RAID0 Optl N 9.094 TB dflt N
N dflt N N
3 0 0 251:5 6 DRIVE
Onln N 9.094 TB dflt N N dflt
- N
4 - - -
- RAID0 Optl N 9.094 TB dflt N
N dflt N N
4 0 - -
- RAID0 Optl N 9.094 TB dflt N
N dflt N N
4 0 0 251:15 14 DRIVE
Onln N 9.094 TB dflt N N dflt
- N
5 - - -
- RAID0 Optl N 10.913 TB dflt N
N dflt N N
5 0 - -
- RAID0 Optl N 10.913 TB dflt N
N dflt N N
6 - - -
- RAID0 Optl N 9.094 TB dflt N
N dflt N N
6 0 - -
- RAID0 Optl N 9.094 TB dflt N
N dflt N N
6 0 0 251:3 8 DRIVE
Onln N 9.094 TB dflt N N dflt
- N
7 - - -
- RAID0 Optl N 10.913 TB dflt N
N dflt N N
7 0 - -
- RAID0 Optl N 10.913 TB dflt N
N dflt N N
7 0 0 251:11 12 DRIVE
Onln N 10.913 TB dflt N N dflt
- N
8 - - -
- RAID0 Optl N 10.913 TB dflt N
N dflt N N
8 0 - -
- RAID0 Optl N 10.913 TB dflt N
N dflt N N
8 0 0 251:8 10 DRIVE
Onln N 10.913 TB dflt N N dflt
- N
9 - - -
- RAID0 Optl N 12.732 TB dflt N
N dflt N N
9 0 - -
- RAID0 Optl N 12.732 TB dflt N
N dflt N N
9 0 0 251:14 16 DRIVE Onln N
12.732 TB dflt N N dflt - N
-----------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Optl=Optimal|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 10
VD LIST :
=======
------------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac
sCC Size Name
------------------------------------------------------------------
9/230 RAID0 Optl RW Yes
RWBD - ON 12.732 TB raid0_6
8/231 RAID0 Optl RW Yes
RWBD - ON 10.913 TB raid0_5
7/232 RAID0 Optl RW Yes
RWBD - ON 10.913 TB raid0_4
6/233 RAID0 Optl RW Yes
RWBD - ON 9.094 TB raid0_3
5/234 RAID0 Optl RW Yes
RWBD - ON 10.913 TB raid0_2
4/235 RAID0 Optl RW Yes
RWBD - ON 9.094 TB raid0_1
3/236 RAID0 Optl RW Yes
RWBD - ON 9.094 TB raid0_0
2/237 RAID1 Optl RW
No RWBD - ON
9.094 TB raid1_0
1/238 RAID5 Optl RW
No RWBD - ON 18.190
TB raid5_0
0/239 RAID1 Optl RW Yes
RWBD - ON 893.750 GB
------------------------------------------------------------------
VD=Virtual Drive| DG=Drive Group|Rec=Recovery
Cac=CacheCade|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|dflt=Default|RO=Read Only|RW=Read
Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
JBOD Drives = 2
JBOD LIST :
=========
----------------------------------------------------------------------------------------
ID EID:Slt DID State Intf Med Size SeSz Model
Vendor Port
----------------------------------------------------------------------------------------
1 251:1 4 Onln SATA HDD 9.095 TB 512B
ST10000NM0478-2H7100 ATA C0.0 & C0.1
9 251:9 11 Onln SATA HDD 10.914 TB 512B
ST12000NM001G-2MV103 ATA C0.0 & C0.1
----------------------------------------------------------------------------------------
ID=JBOD Target ID|EID=Enclosure Device ID|Slt=Slot No.|DID=Device
ID|Onln=Online|
Offln=Offline|Intf=Interface|Med=Media Type|SeSz=Sector Size
Physical Drives = 16
PD LIST :
=======
-------------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI
SeSz
Model
Sp Type
-------------------------------------------------------------------------------------
251:0 5 Onln 1 9.094 TB SATA
HDD N N 512B ST10000NM0478-2H7100 U -
251:1 4 Onln - 9.095 TB SATA
HDD N N 512B ST10000NM0478-2H7100 U
JBOD
251:2 7 Onln 1 9.094 TB SATA
HDD N N 512B ST10000NM0478-2H7100 U -
251:3 8 Onln 6 9.094 TB SATA
HDD N N 512B ST10000NM0478-2H7100 U -
251:4 3 Onln 2 9.094 TB SATA
HDD N N 512B ST10000NM0478-2H7100 U -
251:5 6 Onln 3 9.094 TB SATA
HDD N N 512B ST10000NM0478-2H7100 U -
251:6 2 Onln 1 9.094 TB SATA
HDD N N 512B ST10000NM0478-2H7100 U -
251:7 1 Onln 2 9.094 TB SATA
HDD N N 512B ST10000NM0478-2H7100 U -
251:8 10 Onln 8 10.913 TB SATA HDD
N N 512B ST12000NM001G-2MV103 U -
251:9 11 Onln - 10.914 TB SATA HDD
N N 512B ST12000NM001G-2MV103 U JBOD
251:10 13 Onln 5 10.913 TB SATA HDD N
N 512B ST12000NM001G-2M U
-
251:11 12 Onln 7 10.913 TB SATA HDD N
N 512B ST12000NM001G-2MV103 U -
251:12 9 Onln 0 893.750 GB SATA SSD N
N 512B MTFDDAK960TDD-1AT1ZABYY U -
251:13 0 Onln 0 893.750 GB SATA SSD N
N 512B MTFDDAK960TDD-1AT1ZABYY U -
251:14 16 Onln 9 12.732 TB SATA HDD N
N 512B ST14000NM001G-2KJ103 U -
251:15 14 Onln 4 9.094 TB SATA HDD
N N 512B ST10000NM0478-2H7100 U -
-------------------------------------------------------------------------------------
EID=Enclosure Device ID|Slt=Slot No.|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Sntze=Sanitize|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=UGood Unsupported|UGShld=UGood shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported|Rbld=Rebuild
Enclosures = 1
Enclosure LIST :
==============
---------------------------------------------------------------------------------------
EID State Slots PD PS Fans TSs Alms SIM
Port#
ProdID
VendorSpecific
---------------------------------------------------------------------------------------
251 OK 16 16 0
0 0 0 0 C0.0 & C0.1 x8 Expander
12G16T0
---------------------------------------------------------------------------------------
EID=Enclosure Device ID |PD=Physical drive count |PS=Power Supply count|
TSs=Temperature sensor count |Alms=Alarm count |SIM=SIM Count ||ProdID=Product
ID
Cachevault_Info :
===============
------------------------------------
Model State Temp Mode MfgDate
------------------------------------
CVPM05 Optimal 26C - 2021/11/01
------------------------------------
命令功能
查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id show spinupdelay |
查询RAID控制卡Spinup参数。 |
storcli64 /ccontroller_id show spinupdrivecount |
查询上电时允许同时起转的硬盘数量。 |
storcli64 /ccontroller_id set spinupdelay=time |
设置每组起转硬盘间的时间间隔。 |
storcli64 /ccontroller_id set spinupdrivecount=count |
设置上电时允许同时起转的硬盘数量。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
每组起转硬盘间的时间间隔 |
默认为2,单位为s。 |
count |
上电时允许同时起转的硬盘数量 |
默认为4。 |
查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
建议保持默认配置。
使用实例
# 查询RAID控制卡Spin up参数。
[root@localhost ~]# storcli64 /c0
show spinupdelay
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
# 查询上电时允许同时起转的硬盘数量。
[root@localhost ~]# storcli64 /c0
show spinupdrivecount
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 2
--------------------------
# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。
[root@localhost ~]# storcli64 /c0
set spinupdelay=20
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Spin Up Delay 20 second(s)
---------------------------
[root@localhost ~]# storcli64 /c0 set spinupdrivecount=5
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 5
--------------------------
命令功能
通过设置Spin down参数,可以主动让处于空闲状态的HDD硬盘进入节能模式,进入节能模式后的硬盘会被Firmware标记为移除状态,需要手动将设置Spinup后才能进行RAID创建、删除、硬盘Firmware升级等操作。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id spindown
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Spin down功能。
[root@localhost ~]# storcli64 /c0
/e249/s10 spindown
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Spin Down Drive Succeeded.
进入节能模式的硬盘,状态显示为“D”,如图19-120所示。
命令功能
设置空闲硬盘和热备盘的省电模式。
命令格式
storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID。 |
– |
state |
省电模式的启用状态。 |
l on:启用 l off:禁用 |
disktype |
硬盘类型。 |
l 1:空闲硬盘 l 2:热备盘 |
time |
等待时间,硬盘经过等待时间没有IO,则停转进入休眠状态。 |
单位为minutes。 |
查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无。
使用实例
# 设置空闲硬盘的省电模式。
[root@localhost ~]# storcli64 /c0
set ds=on type=1 spindowntime=30
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------
Ctrl_Prop Value
------------------------
SpnDwnUncDrv Enabled
SpnDwnTm 30 minutes
------------------------
命令功能
设置物理硬盘初始化功能,查询初始化进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
action |
要执行的操作 |
l show:查看初始化进度 l start:开始初始化 l stop:结束初始化 |
以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无。
使用实例
# 初始化slot3硬盘,并查询初始化进度。
[root@localhost ~]# storcli64
/c0/e249/s11 start initialization
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
[root@localhost ~]# storcli64 /c0/e249/s11 show initialization
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
-------------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-------------------------------------------------------
/c0/e249/s11 0 In progress 0
Seconds
-------------------------------------------------------
命令功能
设置物理硬盘数据擦除模式,查询擦除进度。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase |
查询硬盘擦除进度。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase |
中止硬盘擦除。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode |
设置硬盘擦除模式并开始擦除。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
硬盘槽位号 |
– |
mode |
数据擦除模式 |
l simple:对硬盘进行一轮擦除动作。 l normal:对硬盘进行三轮擦除动作。 l thorough:对硬盘进行九轮擦除动作。 |
以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无。
使用实例
# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。
[root@localhost ~]# storcli64
/c0/e249/s9 start erase simple
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
[root@localhost ~]# storcli64 /c0/e249/s9 show erase
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Show Drive Erase Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status
Estimated Time Left
------------------------------------------------------
/c0/e249/s9 0 In progress 0
Seconds
------------------------------------------------------
[root@localhost ~]# storcli64 /c0/e249/s9 stop erase
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.
命令功能
设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。
命令格式
storcli64 /ccontroller_id set action=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
action |
要设置的项目 |
l bgirate:后台初始化速率 l ccrate:一致性校验速率 l prrate:硬盘巡检速率 l rebuildrate:RAID重构速率 l reconrate:RAID扩容和迁移速率 |
value |
后台任务资源占用率 |
1~100 |
查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无。
使用实例
# 设置硬盘巡检速率为“30%”。
[root@localhost ~]# storcli64 /c0 set
prrate=30
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
Patrol Read Rate 30%
-----------------------
命令功能
设置控制卡BIOS在检测到异常时停止继续启动的功能。
命令格式
storcli64 /ccontroller_id set bios mode=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
action |
要执行的操作 |
l soe:控制卡BIOS在检测到异常时停止启动 l ie:忽略检测到的异常 |
查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无。
使用实例
# 开启Stop on error功能。
[root@localhost ~]# storcli64 /c0
set bios mode=soe
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------
命令功能
创建、删除RAID。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id add vd rlevel[0|1|5|6|10|50|60] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [wt|*wb|awb] [nora|*ra] [*direct|cached] [Strip=<8|16|32|64|128|256|1024>] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid] |
创建RAID组 |
storcli64 /ccontroller_id/vraid_id del |
删除RAID组 |
*表示默认值。
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
rlevel |
要配置的RAID组级别 |
level可为0、1、5、6、10、50、60,数字分别代表对应的RAID组级别。 |
size |
要配置的RAID组容量 |
默认值为all,即所有成员盘的容量之和。 |
name |
要配置的RAID组名称 |
- |
drives |
要加入RAID组的硬盘 |
- |
startid-endid |
硬盘的起始和结束ID |
- |
slot_id |
硬盘ID |
- |
pdperarray |
子组中的硬盘数 创建RAID10、RAID50、RAID60时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。 |
- |
pdcache |
设置RAID的成员盘的Cache状态 |
l on l off l default |
pi |
使能数据保护 |
- |
wrcache |
设置RAID组的写Cache属性,完整的命令为wrcache=wt|wb|awb,这里“wrcache=”可省略 |
l wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”模式。 |
rdcache |
设置RAID组的读Cache属性,完整的命令为rdcache=ra|nora,这里“rdcache=”可省略。 |
l ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。 l nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。 |
iopolicy |
设置RAID组的I/O策略,完整的命令为iopolicy=direct|cached,这里“iopolicy=”可省略。 说明 Cache IO的规格后续不再支持,默认为Direct IO,具体信息请查看RAID控制卡固件版本说明书。 |
l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 |
Strip |
设置RAID组条带大小 |
64, 128, 256, 512, 1024 单位为KB。 |
EmulationType |
控制逻辑盘在OS中上报的扇区 |
l 0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l 1: Disable,即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l 2:Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Spares |
指定RAID组的热备盘 |
- |
raid_id |
要删除的RAID组的ID |
- |
l 以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
l 当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid。
使用指南
无。
使用实例
# 创建RAID 0。
[root@localhost ~]# storcli64 /c0
add vd r0 size=100GB drives=249:7-8
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Add VD Succeeded.
# 删除RAID。
[root@localhost ~]# storcli64
/c0/v239 del
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Delete VD succeeded
命令功能
设置RAID组的Cache读写属性。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/vraid_id set wrcache=wrmode |
设置Cache写策略 |
storcli64 /ccontroller_id/vraid_id set rdcache=rdmode |
设置Cache读策略 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
raid_id |
待设置的RAID组的ID |
可以为all,表示所有RAID。 |
wrmode |
设置Cache写策略 |
l wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”策略。 |
rdmode |
设置Cache读策略 |
l ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。 l nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。 |
以上涉及的各个ID的方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无。
使用实例
# 设置Cache写模式为“wt”。
[root@localhost ~]# storcli64
/c0/v239 set wrcache=wt
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 wrCache WT Success 0 -
---------------------------------------
命令功能
设置RAID的读写策略。
命令格式
storcli64 /ccontroller_id/vraid_id set accesspolicy=mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
RAID读写策略 |
l rw:可读可写 l blocked:禁止访问 l ro:只读访问 |
以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无。
使用实例
# 设置RAID读写策略为“rw”。
[root@localhost ~]# storcli64
/c0/v239 set accesspolicy=rw
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 AccPolicy RW Success 0 -
---------------------------------------
命令功能
设置RAID前台初始化模式。
命令格式
storcli64 /ccontroller_id/vraid_id start mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
前台初始化模式 |
l init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。 l init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。 |
以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无。
使用实例
# 快速初始化RAID。
[root@localhost ~]# storcli64
/c0/v238 start init
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Start INIT Operation Success
命令功能
暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。
命令格式
storcli64 /ccontroller_id/vraid_id action bgi
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
action |
后台初始化的操作 |
l show:查看后台初始化进度 l pause:暂停后台初始化 l resume:继续后台初始化 l stop:停止后台初始化 |
以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无。
使用实例
# 查看后台初始化进度。
[root@localhost ~]# storcli64
/c0/v239 show bgi
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Noe
VD Operation Status :
===================
------------------------------------------------------
VD Operation Progress% Staus Estimated Time Left
------------------------------------------------------
0 BGI 3 In progress 53 Minutes
------------------------------------------------------
命令功能
设置虚拟磁盘或物理硬盘为启动项。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/vvd_id set bootdrive=on |
设置虚拟磁盘为启动项。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on |
设置物理硬盘为启动项。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
vd_id |
待设置的虚拟磁盘的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无。
使用实例
# 设置VD239为启动项。
[root@localhost ~]# storcli64
/c0/v239 set bootdrive=on
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Noe
Detailed Status :
===============
----------------------------------------
VD Property Value Staus ErrCd ErrMsg
----------------------------------------
0 Boot Drive On Success 0 -
----------------------------------------
# 设置slot 7硬盘为启动项。
[root@localhost ~]# storcli64
/c0/e239/s7 set bootdrive=on
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Noe
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
BootDrive PD:249_7
-------------------
命令功能
设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。
命令格式
storcli64 /ccontroller_id set eghs eug=state
storcli64 /ccontroller_id set eghs smarter=state
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
state |
紧急热备功能的启用状态 |
l on:启用 l off:禁用 |
查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无。
使用实例
# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。
[root@localhost ~]# storcli64 /c0
set eghs eug=on
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------
Ctrl_Prop Value
------------------
EmergencyUG ON
------------------
[root@localhost ~]# storcli64 /c0 set eghs smarter=on
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
EmergencySmarter ON
-----------------------
命令功能
设置全局热备盘和局部热备盘。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive |
设置全局热备盘。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=<N|0,1,2..>] |
设置局部热备盘。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive |
删除热备盘。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
dgs |
硬盘组的ID |
l 不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘 l 0,1,2..:硬盘组ID |
以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无。
使用实例
# 设置slot 3硬盘为全局热备盘。
[root@localhost ~]# storcli64
/c0/e249/s9 add hotsparedrive
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
# 设置slot 3硬盘为vd0的局部热备盘。
[root@localhost ~]# storcli64
/c0/e249/s3 add hotsparedrive dgs=0
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
命令功能
开始、暂停、继续、停止RAID重构,并查询进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action rebuild
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
action |
要执行的操作 |
l start:开始重构 l show:查看重构进度 l pause:暂停重构 l resume:继续重构 l stop:停止重构 |
查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 手动开始重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
# 查看硬盘当前重构状态。
[root@localhost ~]# ./storcli64
/c0/e70/s7 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e70/s7 5 In progress 26
Minutes
-----------------------------------------------------
# 暂停硬盘重构进程。
[root@localhost ~]# ./storcli64
/c0/e70/s7 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Succeeded.
# 继续重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 resume rebuild
Controller = 0
Status = Success
Description = Resume Drive Rebuild Succeeded.
# 停止重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 stop rebuild
Controller = 0
Status = Success
Description = Stop Drive Rebuild Succeeded.
命令功能
开始、暂停、继续、停止回拷,并查询进度。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id start copyback target=target_enclosure_id:target_slot_id |
开始回拷。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id action copyback |
暂停、继续、查看、停止回拷。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
target_enclosure_id |
执行回拷的目标硬盘所在Enclosure的ID。 |
- |
target_slot_id |
执行回拷的目标物理硬盘槽位编号。 |
- |
action |
要执行的操作 |
l show:查看回拷进度 l pause:暂停回拷 l resume:继续回拷 l stop:停止回拷 |
查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 手动开始回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s7 start copyback target=70:3
Controller = 0
Status = Success
Description = Start Drive Copyback Succeeded.
# 查看硬盘当前回拷状态。
[root@localhost ~]# ./storcli64 /c0/e70/s3
show copyback
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e70/s3 17 In progress 16 Minutes
-----------------------------------------------------
# 暂停硬盘回拷进程。
[root@localhost ~]# ./storcli64
/c0/e70/s3 pause copyback
Controller = 0
Status = Success
Description = Pause Drive Copyback Succeeded.
# 继续回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s3 resume copyback
Controller = 0
Status = Success
Description = Resume Drive Copyback Succeeded.
# 停止回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s3 stop copyback
Controller = 0
Status = Success
Description = Stop Drive Copyback Succeeded.
命令功能
设置SMART扫描周期。
命令格式
storcli64 /ccontroller_id set smartpollinterval=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
value |
SMART扫描周期 |
单位为s。 |
查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无。
使用实例
# 设置SMART扫描周期为“60s”。
[root@localhost ~]# storcli64 /c0
set smartpollinterval=60
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
命令格式
storcli64 /ccontroller_id/vvd_id expand size=capacity
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
vd_id |
要扩容的RAID的ID |
– |
capacity |
扩容后的容量 |
– |
以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无。
使用实例
# 将VD239的容量扩大“200GB”。
[root@localhost ~]# storcli64
/c0/v239 expand size=200GB
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
239 100.0 GB 457.861 GB 200.0 GB 201.458 GB 44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
当增加新盘后,可进行RAID级别迁移。
命令格式
storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
vd_id |
要操作的RAID的ID |
– |
slot_id |
要加入RAID的新硬盘的槽位号 |
– |
level |
增加硬盘后RAID的级别 |
l 与原RAID级别相同时,该命令为扩大RAID容量。 l 与原RAID级别不同时,该命令为RAID级别迁移。 |
以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无。
使用实例
# 在RAID 0中增加slot 2硬盘扩容。
[root@localhost ~]# storcli64
/c0/v0 start migrate type=r0 option=add drives=252:2
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
[root@localhost ~]# storcli64 /c0/v0 show migrate
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 13 Minutes
-------------------------------------------------------
# 单盘RAID 0加盘迁移至RAID 1。
[root@localhost ~]# storcli64
/c0/v239 start migrate type=r1 option=add drives=252:3
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
[root@localhost ~]# storcli64 /c0/v239 show migrate
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
239 Migrate 1 In progress 14 Minutes
-------------------------------------------------------
命令功能
设置一致性校验参数。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id[/vvd_id]show cc |
查询虚拟磁盘一致性校验进度。 |
storcli64 /ccontroller_id/vvd_id start cc force |
开始一致性校验。 |
storcli64 /ccontroller_id/vvd_id action cc |
设置一致性校验操作。 |
storcli64 /ccontroller_id set cc=conc delay=value starttime=time excludevd=evd_id |
设置一致性校验参数。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
vd_id |
要操作的RAID的ID |
– |
action |
要执行的操作 |
l pause:暂停 l resume:继续执行 l stop:停止 |
value |
一致性校验周期 |
– |
time |
一致性校验起始时间 |
例如:2016/07/14 22 说明 起始时间单位为“时”。 |
evd_id |
不进行一致性校验的虚拟磁盘ID |
– |
以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
show命令中不带/vvd_id时,表示查询自动CC参数。
show命令中带/vvd_id时,表示查询CC进度。
使用实例
# 设置一致性自动检查参数。
[root@localhost ~]# storcli64 /c0
set cc=conc delay=1 starttime=2022/04/05 22 excludevd=0
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Failure
Description = None
Detailed Status :
===============
----------------------------------
Ctrl_Prop Value
----------------------------------
CC ExcludeVD(0) Invalid VD Number
----------------------------------
Controller Properties :
=====================
---------------------------------
Ctrl_Prop Value
---------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2022/04/05 22:00:00
---------------------------------
# 查询CC进度。
[root@localhost ~]# storcli64
/c0/v238 show cc
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
------------------------------------------------------------
VD Operation Progress%
Status Estimated Time
Left
------------------------------------------------------------
238 CC
- Not in progress -
------------------------------------------------------------
命令功能
查询和设置系统巡检的相关参数。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number |
设置系统巡检的相关参数。 |
storcli64 /ccontroller_id set patrolread delay=delaytime |
设置系统巡检周期。 |
storcli64 /ccontroller_id show patrolread |
产看系统巡检进度。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
系统巡检起始时间 |
例如:2016/07/15 23 说明 起始时间单位为“时”。 |
number |
可同时巡检的硬盘数量 |
– |
delaytime |
系统巡检周期 |
单位为hour。 |
查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无。
使用实例
# 设置patrol read的起始时间为“2022/04/05 23”,同时巡检的硬盘数为“2”。
[root@localhost ~]# storcli64 /c0
set patrolread starttime=2022/04/05 23 maxconcurrentpd=2
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
PR Starttime 2022/04/05 23:00:00
PR MaxConcurrentPd 2
---------------------------------------
# 查询patrol read信息。
[root@localhost ~]# storcli64 /c0
show patrolread
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------------
Ctrl_Prop
Value
---------------------------------------------
PR
Mode
Auto
PR Execution Delay 168 hours
PR iterations completed 0
PR Next Start time 04/05/2022, 23:00:00
PR on
SSD
Disabled
PR Current State Stopped
PR Excluded VDs None
PR MaxConcurrentPd 2
---------------------------------------------
命令功能
查询和设置Cache的刷新周期。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id show cacheflushint |
查询Cache的刷新周期。 |
storcli64 /ccontroller_id set cacheflushint time |
设置Cache的刷新周期。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
Cache的刷新周期 |
单位为s |
查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无。
使用实例
# 设置Cache的刷新周期为“10”。
[root@localhost ~]# storcli64 /c0
set cacheflushint=10
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop
Value
---------------------------
Cache Flush Interval 10
---------------------------
# 查询Cache的刷新周期。
[root@localhost ~]# storcli64 /c0
show cacheflushint
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------------------
Ctrl_Prop
Value
----------------------------
Cache Flush Interval 10 sec
命令功能
设置硬盘状态。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
state |
要设置的硬盘状态 |
l online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。 l offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。 l jbod:通过该参数可以将硬盘设置为直通硬盘。 l good: − ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置; − JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。 |
force |
强制设置硬盘状态,为可选参数。 如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force。 |
- |
以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无。
使用实例
# 将“Unconfigured Bad”状态下的slot 9硬盘设置为“Unconfigured Good”状态。
[root@localhost ~]# storcli64
/c0/e249/s9 set good
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Set Drive Good Succeeded.
命令功能
点亮和熄灭指定硬盘的定位指示灯。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。 |
slot_id |
物理硬盘槽位编号 |
可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。 |
action |
要执行的操作 |
l start:点亮硬盘的定位指示灯。 l stop:熄灭硬盘的定位指示灯。 |
以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无。
使用实例
# 点亮slot 10硬盘的定位指示灯。
[root@localhost ~]# storcli64
/c0/e249/s10 start locate
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.
命令功能
查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id show |
查询RAID控制卡的详细信息。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all |
查询物理硬盘的详细信息。 |
storcli64 /ccontroller_id/vvd_id show all |
查询虚拟磁盘的详细信息。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID |
enclosure_id |
硬盘所在Enclosure的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡连接的硬盘背板的ID |
slot_id |
物理硬盘槽位编号 |
可以将该参数设置为all,表示查询所有硬盘的ID |
vd_id |
虚拟磁盘ID |
可以为all,表示查询所有虚拟磁盘信息。 |
以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
回显中主要字段的含义如表19-45所示。
命令格式 |
字段 |
含义 |
举例 |
storcli64 /ccontroller_id show |
Product Name |
RAID控制卡的型号 |
MegaRAID 9560-8i 4GB |
FW Version |
RAID控制卡的FW版本 |
5.190.02-3610 |
|
Driver Name |
RAID控制卡的驱动名称 |
megaraid_sas |
|
Driver Version |
RAID控制卡的驱动版本 |
07.710.50.00-rh1 |
|
Current Personality |
RAID控制卡的工作模式 |
RAID-Mode |
|
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all |
SN |
物理硬盘的序列号 |
PHWL517601YR800RGN |
Manufacturer Id |
物理硬盘的供应商ID |
ATA |
|
Model Number |
物理硬盘的模块序号 |
INTEL SSDSC2BB800G4 |
|
Firmware Revision |
物理硬盘的FW版本 |
D2010370 |
|
Raw size |
物理硬盘的容量 |
745.211 GB [0x5d26ceb0 Sectors] |
|
Logical Sector Size |
物理硬盘逻辑分区大小 |
512B |
|
Physical Sector Size |
物理扇区大小 |
4 KB |
|
storcli64 /ccontroller_id/vvd_id show all |
TYPE |
RAID组的级别 |
RAID1 |
State |
RAID组的状态 |
Optl |
|
Access |
RAID组数据的访问策略 |
RW |
|
Cache |
RAID组当前的读写策略与IO Policy |
RWTD |
|
Size |
RAID组的大小 |
100.0 GB |
|
PDs for VD0 |
RAID组下的物理硬盘 |
- |
|
Strip Size |
RAID组的条带大小 |
256KB |
|
Write Cache(initial setting) |
RAID组Cache的写策略 |
Write Through |
|
Disk Cache Policy |
RAID组成员盘的Cache策略 |
Disk's Default |
使用实例
#查询RAID控制卡的详细信息。
[root@localhost ~]# storcli64 /c0
show
Generating detailed summary of the adapter, it may take a while to complete.
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Product Name = MegaRAID 9560-8i 4GB
Serial Number = SKB3166429
SAS Address = 500062b2082427c0
PCI Address = 00:04:00:00
System Time = 10/25/2019 00:59:23
Mfg. Date = 08/03/21
Controller Time = 10/25/2019 04:59:22
FW Package Build = 52.19.0-4294
BIOS Version = 7.19.00.0_0x07130200
FW Version = 5.190.02-3610
Driver Name = megaraid_sas
Driver Version = 07.714.04.00
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x10E2
SubVendor Id = 0x1000
SubDevice Id = 0x4010
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 4
Device Number = 0
Function Number = 0
Domain ID = 0
Security Protocol = None
Drive Groups = 2
TOPOLOGY :
========
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT
Size PDC PI SED DS3 FSpace TR
-----------------------------------------------------------------------------
0 - - -
- RAID0 Optl N 1.089 TB dflt N
N dflt Y N
0 0 - -
- RAID0 Optl N 1.089 TB dflt N
N dflt Y N
0 0 0 249:7 45 DRIVE
Onln N 558.406 GB dflt N N dflt
- N
0 0 1 249:8 43 DRIVE
Onln N 558.406 GB dflt N N dflt -
N
1 - - -
- RAID0 Optl N 2.181 TB dflt N
N dflt Y N
1 0 - -
- RAID0 Optl N 2.181 TB dflt N
N dflt Y N
1 0 0 249:4 47 DRIVE
Onln N 1.636 TB dflt N N dflt
- N
1 0 1 249:5 44 DRIVE
Onln N 1.090 TB dflt N N dflt
- N
-----------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Optl=Optimal|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 2
VD LIST :
=======
---------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac
sCC Size Name
---------------------------------------------------------------
1/238 RAID0 Optl RW Yes
RWBD - ON 100.000 GB
0/239 RAID0 Optl RW Yes
RWBD - ON 100.000 GB
---------------------------------------------------------------
VD=Virtual Drive| DG=Drive Group|Rec=Recovery
Cac=CacheCade|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|dflt=Default|RO=Read Only|RW=Read
Write|HD=Hidden|TRANS=TransportReady
B=Blocked|Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 12
PD LIST :
=======
------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI
SeSz Model Sp
Type
------------------------------------------------------------------------------
249:0 49 UGood - 1.636 TB SAS HDD
N N 512B ST1800MM0129 D -
249:1 46 UGood - 1.636 TB SAS HDD
N N 512B ST1800MM0129 D -
249:2 50 UGood - 2.182 TB SAS HDD
N N 512B ST2400MM0129 D -
249:3 48 UGood - 1.636 TB SAS HDD
N N 512B ST1800MM0129 D -
249:4 47 Onln 1 1.636 TB SAS
HDD N N 512B ST1800MM0129 U -
249:5 44 Onln 1 1.090 TB SAS
HDD N N 512B AL15SEB120N
U -
249:6 51 UGood - 1.090 TB SAS HDD
N N 512B AL15SEB120N D -
249:7 45 Onln 0 558.406 GB SAS HDD
N N 512B AL15SEB060N U -
249:8 43 Onln 0 558.406 GB SAS HDD
N N 512B AL15SEB060N U -
249:9 54 GHS - 837.843 GB SAS HDD
N N 512B ST900MM0006 U -
249:10 53 UGood - 837.843 GB SAS HDD N
N 512B ST900MM0006 D -
249:11 52 UGood - 837.843 GB SAS HDD N
N 512B ST900MM0006 U -
------------------------------------------------------------------------------
EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Sntze=Sanitize|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=UGood Unsupported|UGShld=UGood shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported|Rbld=Rebuild
Enclosures = 1
Enclosure LIST :
==============
---------------------------------------------------------------------------------------
EID State Slots PD PS Fans TSs Alms SIM
Port# ProdID
VendorSpecific
---------------------------------------------------------------------------------------
249 OK 16 12 0
0 0 0 0 C0.0 & C0.1 x8 Expander
12G16F1
---------------------------------------------------------------------------------------
EID=Enclosure Device ID | PD=Physical drive count | PS=Power Supply count
TSs=Temperature sensor count | Alms=Alarm count | SIM=SIM Count |
ProdID=Product ID
Cachevault_Info :
===============
------------------------------------
Model State Temp Mode MfgDate
------------------------------------
CVPM05 Optimal 24C - 2019/06/26
------------------------------------
#查询slot0的物理硬盘的信息。
[root@localhost ~]# storcli64
/c0/e249/s0 show all
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
Drive /c0/e249/s0 :
=================
----------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz
Model Sp Type
----------------------------------------------------------------------------
249:0 49 UGood - 1.636 TB SAS HDD N
N 512B ST1800MM0129 D -
----------------------------------------------------------------------------
EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Sntze=Sanitize|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=UGood Unsupported|UGShld=UGood shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported|Rbld=Rebuild
Drive /c0/e249/s0 - Detailed Information :
========================================
Drive /c0/e249/s0 State :
=======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature = 30C (86.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
Drive /c0/e249/s0 Device attributes :
===================================
SN = WBN1C8HC0000K9232ADZ
Manufacturer Id = SEAGATE
Model Number = ST1800MM0129
NAND Vendor = NA
WWN = 5000C500BCC792B4
Firmware Revision = C0D3
Firmware Release Number = N/A
Raw size = 1.636 TB [0xd196e9b0 Sectors]
Coerced size = 1.636 TB [0xd1860000 Sectors]
Non Coerced size = 1.636 TB [0xd186e9b0 Sectors]
Device Speed = 12.0Gb/s
Link Speed = 12.0Gb/s
Write Cache = Disabled
Logical Sector Size = 512B
Physical Sector Size = 4 KB
Connector Name = C0.0 & C0.1
Drive /c0/e249/s0 Policies/Settings :
===================================
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 1
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
FDE Type = None
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Sanitize Support = Not supported
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = No
Wide Port Capable = No
Unmap capable = No
Unmap capable for LDs = No
Multipath = No
Port Information :
================
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
0 Active 12.0Gb/s 0x5000c500bcc792b5
1 Active 12.0Gb/s 0x0
-----------------------------------------
Inquiry Data =
00 00 06 12 8b 01 10 02 53 45 41 47 41 54 45 20
53 54 31 38 30 30 4d 4d 30 31 32 39 20 20 20 20
43 30 44 33 57 42 4e 31 43 38 48 43 00 00 00 00
00 00 00 00 00 00 00 00 00 00 00 a2 0c 60 20 e0
04 60 04 c0 00 00 00 00 00 00 00 00 00 00 00 00
00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
00 43 6f 70 79 72 69 67 68 74 20 28 63 29 20 32
30 31 39 20 53 65 61 67 61 74 65 20 41 6c 6c 20
# 查询VD 0的信息。
[root@localhost ~]# storcli64
/c0/v239 show all
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
/c0/v0 :
======
---------------------------------------------------------
DG/VD TYPE State Access Consist Cache sCC Size
Name
---------------------------------------------------------
0/239 RAID1 Optl RW
Yes RWTD - 1.089 TB
---------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|B=Blocked|Consist=Consistent|
R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
PDs for VD 0 :
============
-----------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz
Model Sp
-----------------------------------------------------------------------
25:22 14 Onln 1 1.089 TB SAS HDD
N N 512B ST1200MM0007 U
25:23 26 Onln 1 1.089 TB SAS HDD
N N 512B ST1200MM0007 U
-----------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded
VD0 Properties :
==============
Strip Size = 256 KB
Number of Blocks = 2341795840
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 2
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = Disabled
Active Operations = None
Exposed to OS = Yes
Creation Date = 04-01-2018
Creation Time = 12:38:35 PM
Emulation type = None
命令功能
查询超级电容的名称及TFM Flash卡缓存容量的大小等信息。
命令格式
storcli64 /ccontroller_id/cv show all
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
可以为all,表示所有控制卡。 |
查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无。
使用实例
#查询超级电容的相关信息。
[root@localhost ~]# storcli64
/c0/cv show all
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Cachevault_Info :
===============
--------------------
Property Value
--------------------
Type CVPM05
Temperature 24 C
State Optimal
--------------------
Firmware_Status :
===============
---------------------------------------
Property
Value
---------------------------------------
NVCache
State
OK
Replacement
required
No
No space to cache offload No
Module microcode update required No
---------------------------------------
GasGaugeStatus :
==============
------------------------------
Property
Value
------------------------------
Pack
Energy
77 J
Capacitance
91 %
Remaining Reserve Space 0
------------------------------
Design_Info :
===========
------------------------------------
Property
Value
------------------------------------
Date of Manufacture 26/06/2019
Serial Number
3707
Manufacture Name LSI
Design Capacity 103 J
Device
Name
CVPM05
tmmFru
N/A
CacheVault Flash Size 23.625 GB
scapBatversionNo 0x00
scapSerialNo
0x0e7b
scap Date of Manufacture 26/06/2019
scapPcbAssmNo
1700264483
scapPCBversionNo C
scapBatPackAssmNo 49571-222
Module
Version
241-4GB
------------------------------------
Properties :
==========
------------------------------------------------------------------------
Property
Value
------------------------------------------------------------------------
Auto Learn Period 27d
(2412000 seconds)
Next Learn
time
2019/11/21 11:03:45 (627649425 seconds)
Learn Delay Interval 0 hour(s)
Auto-Learn
Mode
Transparent
Last Successful Learn Time Completed, THU, October 24, 2019 at 13:03:45
------------------------------------------------------------------------
l 上述回显信息中,“Device Name CVPM02”表示超级电容的名称为 “CVPM02”,“CacheVault Flash Size 8.0GB”表示TFM Flash卡缓存容量为“8.0GB”。
l 当回显信息的“State”显示为“FAILED”时,需要更换超级电容。
命令功能
升级硬盘的FW。
命令格式
./storcli64 /ccontroller_id /eenclosure_id/sslot_id download src=FW_name.bin
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
FW_name |
硬盘FW的名称 |
– |
以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无。
使用实例
#升级硬盘FW。
[root@localhost ~]# storcli64
/c0/e249/s5 download src=5200_D1MU004_Releasefullconcatenatedbinary.bin
Starting microcode update .....please wait...
Flashing PD image ..... please wait...
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Firmware Download succeeded.
Drive Firmware Download :
========================
--------------------------------------------------------------------------------
Drive Status ErrCd ErrMsg
--------------------------------------------------------------------------------
/c0/e249/s5 Success 0 -
--------------------------------------------------------------------------------
命令功能
手动重构RAID组。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row |
将硬盘加入RAID组。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild |
手动重构RAID组。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
要加入Array的物理硬盘槽位编号 |
– |
DG |
硬盘发生故障的DG的ID |
– |
Arr |
硬盘发生故障的Array的ID |
– |
Row |
硬盘发生故障的Array的row number |
– |
以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
重构RAID分3个步骤进行:
1.通过./storcli64 /c0 show 命令,查询故障硬盘的DG、Arr和Row所对应的数字。
2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。
3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID。
使用实例
# 将硬盘加入RAID组。
[root@localhost ~]# storcli64
/c0/e249/s1 insert dg=0 array=0 row=0
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Insert Drive Succeeded.
# 手动重构RAID。
[root@localhost ~]# storcli64
/c0/e249/s1 start rebuild
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
命令功能
设置RAID控制卡的直通硬盘。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id set JBOD |
设置物理硬盘硬盘直通。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无。
使用实例
# 设置slot 7硬盘为直通盘。
[root@localhost ~]# storcli64
/c0/e249/s7 set JBOD
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Set Drive JBOD Succeeded.
命令功能
收集和清除RAID控制卡的日志。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id show termlog [type=logtype] [logfile[=filename]] |
收集RAID控制卡的日志。 |
storcli64 /ccontroller_id delete termlog |
删除RAID控制卡的日志。 |
storcli64 /ccontroller_id show alilog [logfile[=filename]] |
收集控制卡属性信息、TTY日志和事件到指定文件。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID。 |
- |
logtype |
查询日志类型。 |
l config:查询TTY BBU缓存设置。 l content:查询日志信息。 缺省值:content。 |
filename |
文件名称,将保存日志到此文件。 |
可自定义文件名称,缺省时将默认保存至“StorSAS.log”文件中。 |
查询RAID控制卡ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无。
使用实例
# 收集RAID控制卡的日志。
[root@localhost ~]# storcli64 /c0
show termlog
Firmware Term Log Information on controller 0:
509: (0x13b|74:47) Interrupt CHIPRESET_TIMER (assert)
Additional Data = 0x00000000
T 10/25/2019 03:15:43.933: (0x13c|75:6D) Processing
EVT_SYS_LITE_RESET_OFF event in STATE_FLUSHES_COMPLETE
T 10/25/2019 03:15:43.933: (0x13d|76:6D) Interrupt
SYS_LITE_RESET (deassert) Additional Data = 0x00000000
T 10/25/2019 03:15:52.313: (0x13e|77:77) Processing
EVT_CPU0_READY_FOR_OFFLOAD event in STATE_FLUSHES_COMPLETE
T 10/25/2019 03:15:52.313: (0x13f|78:77) Processing EVT_ENTRY
event in STATE_IDLE
T 10/25/2019 03:15:52.313: (0x141|7A:77) E000E100: 048408CF
T 10/25/2019 03:15:52.313: (0x143|7C:77) E000E200: C1681030
T 10/25/2019 03:16:05.618: (0x144|7D:7D) Processing
EVT_SYS_LITE_RESET_UNARMED event in STATE_IDLE
T 10/25/2019 03:16:05.618: (0x145|7E:7D) Processing EVT_ENTRY
event in STATE_SUBMIT_REC_CDB
T 10/25/2019 03:16:05.618: (0x146|7F:7D) Interrupt
SYS_LITE_RESET (assert) Additional Data = 0x00000010
T 10/25/2019 03:16:05.618: (0x147|00:7D) Interrupt
SYS_LITE_TIMER (assert) Additional Data = 0x00000000
T 10/25/2019 03:16:05.618: (0x148|01:7D) Interrupt DOORBELL0
(assert) Additional Data = 0x00000009
T 10/25/2019 03:16:05.618: (0x149|02:7D) Interrupt DOORBELL1
(assert) Additional Data = 0x00000009
T 10/25/2019 03:16:05.618: (0x14a|03:7D) Processing
EVT_INT_A15WFI_CPU1 event in STATE_SUBMIT_REC_CDB
T 10/25/2019 03:16:05.618: (0x14b|04:7D) Processing
EVT_INT_A15WFI_CPU0 event in STATE_SUBMIT_REC_CDB
T 10/25/2019 03:16:05.618: (0x14c|05:7D) Processing
EVT_INT_REC event in STATE_SUBMIT_REC_CDB
T 10/25/2019 03:16:05.618: (0x14d|06:7D) Processing EVT_INT_A15WFI_L2
event in STATE_SUBMIT_REC_CDB
T 10/25/2019 03:16:05.618: (0x14e|07:7D) Processing EVT_ENTRY
event in STATE_FLUSHES_COMPLETE
T 10/25/2019 03:16:05.618: (0x150|09:7D) E000E100: 448408CA
T 10/25/2019 03:16:05.618: (0x152|0B:7D) E000E200: 812C1031
T 10/25/2019 03:16:05.629: (0x153|0C:7E) Flush Time = 533
microseconds
T 10/25/2019 03:16:05.629: (0x156|0F:7E) 00004004: 1F9672F6
1F96A716
T 10/25/2019 03:16:05.895: (0x157|10:10) Processing
EVT_SYS_LITE_RESET_OFF event in STATE_FLUSHES_COMPLETE
T 10/25/2019 03:16:05.896: (0x158|11:10) Interrupt
SYS_LITE_RESET (deassert) Additional Data = 0x00000000
RMC Ring Buffer - end -
... ...
# 删除RAID控制卡的日志。
[root@localhost ~]# storcli64 /c0
delete termlog
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------------------
Ctrl Method Result
----------------------------
0 Delete Termlog deleted
----------------------------
命令格式
storcli64 /ccontroller_id set bootwithspinnedcache=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
action |
要执行的操作 |
l on l off |
查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查询bootwithpinnedcache功能的使能状态。
[root@localhost ~]# storcli64 /c0
show bootwithpinnedcache
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------------
Ctrl_Prop
Value
-----------------------------
Boot With Pinned Cache OFF
-----------------------------
# 开启bootwithpinnedcache功能。
[root@localhost ~]# storcli64 /c0
set bootwithpinnedcache=on
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------------
Ctrl_Prop
Value
-----------------------------
Boot With Pinned Cache ON
-----------------------------
命令功能
升级控制卡FW。
命令格式
命令格式 |
说明 |
storcli64 /cController_ID download file=xxx.rom [noverchk] |
升级控制卡FW。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
- |
xxx.rom |
固件包的名称 |
- |
使用指南
l 使用“noverchk”参数时将不检查固件包,降级版本时必须使用此参数。
l 升级完成后,需重新上下电服务器使固件包生效。
使用实例
#升级控制卡FW。
[root@localhost fw]# ./storcli64_arm
/c0 download file =FW4.rom noverchk
Download Completed.
Flashing image to adapter...
Controller = 0
Status = Success
Description = F/W Flash Completed.Please reboot the system for the changes to
take effect.
关于本章
介绍BROADCOM MegaRAID 9560-16i的外观、特性以及配置方法。
本章节涉及的截图以5.200.02-3681 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。
BROADCOM MegaRAID 9560-16i RAID控制卡(以下简称9560-16i)是基于MegaRAID架构的16端口12Gbit/s SAS控制卡,并采用PCIe 4.0 x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。
9560-16i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。
9560-16i支持以直通模式和创建RAID组两种方式使用硬盘。
9560-16i自带的Cache对标卡性能的提升有非常重要的作用,主要体现在:
l 在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。
l 在读数据时,如果可以直接在Cache中命中的话,将减少硬盘寻道操作,降低响应时间,提升了数据读速度。
l Cache数据的掉电保护依赖于与控制卡相连的超级电容。超级电容的外形、连接方式、安装方式可参考各服务器的用户指南。
l 9560-16i不支持flush write verify功能。
9560-16i的结构如图20-1和图20-2所示。
1 |
UART接口 |
2 |
心跳指示灯 |
3 |
芯片过温指示灯 |
4 |
SlimSAS接口(port 0,SFF-8654) |
5 |
SlimSAS接口(port 1,SFF-8654) |
6 |
散热器 |
7 |
超级电容接口 |
8 |
超级电容 |
9 |
超级电容错误状态指示灯 |
10 |
ONFI活动指示灯 |
单板指示灯说明如表20-1所示。
指示灯 |
颜色 |
说明 |
芯片过温指示灯 |
黄色 |
l 常亮:设备温度传感器超过阈值。 l 灭:设备温度在正常温度范围内。 |
超级电容错误状态指示灯 |
黄色 |
l 常亮:超级电容电源模块故障或者过温。 l 灭:超级电容正常或不在位。 |
心跳指示灯 |
绿色 |
l 闪烁:芯片运行正常,闪烁频率为1Hz。 l 灭:控制卡未开始运行或FW运行异常。 |
ONFI活动指示灯 |
绿色 |
l 常亮:指示 ONFI 正因高速缓存卸载或恢复而处于活动状态 |
控制卡支持的硬盘、虚拟磁盘、硬盘组数量分别为:
l 最多支持240个硬盘。
该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。
l 最多支持64个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
l 最多支持64个硬盘组(即配置界面中看到的“Drive Group”),每个硬盘组最多支持240个硬盘。
l 每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
控制卡支持的RAID类型及对应的硬盘个数如表20-2所示。
RAID级别 |
支持硬盘数 |
支持子组数 |
子组支持硬盘数 |
允许坏盘数 |
RAID 0 |
1~32 |
不涉及 |
不涉及 |
0 |
RAID 1 |
2~32(偶数) |
硬盘数÷2 |
||
RAID 5 |
3~32 |
1 |
||
RAID 6 |
4~32 |
2 |
||
RAID 10 |
4~240(偶数) |
2~8个RAID 1 |
2~32(偶数) |
子组数 |
RAID 50 |
6~240 |
2~8个RAID 5 |
3~32 |
子组数 |
RAID 60 |
8~240 |
2~8个RAID 6 |
4~32 |
子组数x2 |
l 不支持RAID 00级别。
l 子组数:子RAID的个数,例如RAID 50由两个RAID 5组成,则子组数为2。
l RAID 10、RAID 50每个子组中最多允许1个坏盘。
l RAID 60每个子组中最多允许2个坏盘。
l RAID10、50、60包含的总硬盘数由子组数和子组支持的硬盘数共同决定。
控制卡的热备功能分为两种:热备盘和紧急备份。
热备盘
对服务器的硬盘进行RAID分组后,一般会配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l Global HSP:即全局热备盘,为控制标卡上所有已配置的RAID所共有,1块控制标卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
配置方法请参看0配置全局热备盘。
l Dedicated HSP:即局部热备盘,为控制标卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。配置方法请参看20.4.1.2 配置局部热备盘。
热备盘容量需大于等于成员盘容量。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
l 用作热备盘的硬盘数据将会丢失。
紧急备份
使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
l 紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。
l 在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。
l 紧急备份的硬盘生效次序:相同类型硬盘 > 相同接口不同介质类型硬盘 > 不同接口相同介质类型硬盘 > 不同接口不同介质类型硬盘。
紧急备份有两种情况,对应了两种设置:
l 当成员盘fail时,空闲盘替代成员盘作为紧急备份。
l 当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。
具体配置方法请参看20.4.2 设置紧急热备功能。
热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。
l 请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。
l 插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。
l 人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考20.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。
具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。
l 不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:
l RAID组状态保持Optimal不变。
l 热备盘状态由Online变为Hot Spare。
l 新加入硬盘状态由Copyback/Copybacking变为Online。
l 可使用命令行工具暂停或继续回拷,具体请参见20.7.2.23 查询和设置回拷。
l 若回拷时重启服务器,进度将保存。
条带化
当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待。
条带化技术是一种自动的将I/O的负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。
影响条带化效果的因素有:
l 条带宽度:指同时可以并发读或写的条带数量。
这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。
l 条带大小:指写在每块硬盘上的条带数据块的大小。
分条
硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。
控制卡支持多种条带大小,包括64KB、128KB、256KB、512KB及1MB,默认条带大小为256KB。
配置RAID时一般采用默认值。
RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见20.4.5 迁移RAID级别。
当前支持以下级别类型的迁移:
l RAID 0迁移到RAID 1、RAID 5、RAID 6
l RAID 1迁移到RAID 0、RAID 5、RAID 6
l RAID 5迁移到RAID 0、RAID 6
l RAID 6迁移到RAID 0、RAID 5
RAID迁移对硬盘数量的要求如表20-3所示。
迁移RAID级别 |
原始硬盘组硬盘数量 |
迁移后的硬盘组硬盘数量 |
RAID 0迁移 RAID 1 |
1~32 |
2~32(偶数) |
RAID 0迁移到RAID 5 |
1~32 |
3~32 |
RAID 0迁移到RAID 6 |
1~32 |
3~32 |
RAID 1迁移到RAID 0 |
2~32(偶数) |
2~32 |
RAID 1迁移到RAID 5 |
2~32(偶数) |
3~32 |
RAID 1迁移到RAID 6 |
2~32(偶数) |
3~32 |
RAID 5迁移到RAID 0 |
3~32 |
3~32 |
RAID 5迁移到RAID 6 |
3~32 |
3~32 |
RAID 6迁移到RAID 0 |
3~32 |
3~32 |
RAID 6迁移到RAID 5 |
3~32 |
3~32 |
VD初始化
创建VD(Virtual Drive)后,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。控制卡提供了多种相应的初始化方式:
l 前台初始化:
− 快速初始化:Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。
− 完全初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。
l 后台初始化:
− 对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。
− 对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。
l 一致性校验(CC)和后台初始化通常会对性能造成一定损失,直至该操作完成。
l 一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。
硬盘初始化
硬盘可执行的初始化包括:
l Initialize Drive:对前100MByte空间进行全写0操作。
l Drive Erase:对全部空间进行写0操作。
不支持停止SATA SSD的擦除和初始化过程。
控制卡支持的容量扩展方式有两种:
l 通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。
详细操作方法可参考20.4.3 添加新硬盘到RAID。
l 通过增加可用空间方式扩容:在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。
详细操作方法可参考20.4.4 扩展Virtual Drives可用空间。
l 只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。
l RAID10、RAID 50、RAID 60不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。
l 当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见 20.7.2.38 通过增加成员盘可用容量扩容RAID。
安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘和硬盘的安全擦除功能:
l Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。
l Normal:对虚拟磁盘或硬盘进行三轮擦除动作。
l Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。
安全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。
控制卡支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。
系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况,称之为写洞。
将写失败的数据备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:
l RAID 1、RAID 5、RAID 6、RAID 10、RAID 50,RAID 60支持写洞保护,Write hole数据都保存在掉电保护区,不需要开关控制。
− 掉电保护装置可用时,Write hole数据异常掉电重启后会进入恢复流程。
− 掉电保护装置不可用时,记录在掉电保护区的Write hole数据异常掉电后丢失,不做Write hole恢复。
l RAID 1、RAID 5掉线盘时不可做写洞保护。
l RAID 6掉线一块盘时可做写洞保护。
l RAID 10、RAID 50、RAID 60部分降级时可做写洞保护,按子组恢复数据。完全降级时不可做写洞保护。
l 不对RAID 0做写洞保护。
控制卡支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:
l Read:读策略选择“Read Ahead”模式,控制卡在读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,提升了数据读速度。
l Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,控制卡就向HOST发出数据传输完成的信号。
在写数据时,直接写入Cache,当写入的数据积累到一定程度,才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。
数据写入高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用高速缓存来提升系统性能。
l 开启高速缓存可提升整机写性能,当服务器写压力减小或高速缓存将写满时,数据再由高速缓存写入硬盘。
l 开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。
为了提升整机的高读写性能和高速缓存中数据的安全,可为控制卡配置超级电容。
超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将高速缓存中的数据写入超级电容模块中的NAND Flash中。
超级电容电量校准
由于数据保护需要超级电容的配合,为了记录超级电容的放电曲线,以便RAID控制卡了解超级电容的状态,例如最大和最小电压等,同时为了延长超级电容的寿命,RAID控制卡默认启动超级电容自动校准模式。
RAID控制卡通过如下所述的三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。
1. RAID控制卡将超级电容的电量充到最大值。
2. 自动启动校准进程,将超级电容完全放电。
3. 重新开始充电,直至达到最大电量。
超级电容电量校准过程中,RAID控制卡写策略自动调整为“WT”模式以保证数据完整性,此时RAID控制卡性能会降低。电量校准的时间取决于超级电容充放电速度。
硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。
硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。
硬盘巡检不能在参与以下任何操作的任何硬盘上运行:
l RAID热备修复
l 动态扩盘
l 完全初始化或后台初始化
l 一致性校验
S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据受到损失。
RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。
RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。
默认情况下,硬盘节能功能处于开启状态。
当硬盘节能功能开启且在指定时间内没有I/O访问时,RAID控制卡下挂载的“Uncongfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。
硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。
控制卡可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在控制卡下的硬盘作为安装盘;而不支持硬盘直通的控制卡,在操作系统安装过程中,只能找到该控制卡下已经配置好的虚拟磁盘作为安装盘。
控制卡支持同时以虚拟磁盘和直通方式使用硬盘。
JBOD的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
硬盘漫游是指在同一控制卡下移动物理硬盘。控制卡将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。
要使用硬盘漫游,按以下步骤操作:
1. 关闭操作系统。
2. 将服务器下电。
3. 将物理硬盘移动到背板所需位置。
4. 执行安全检查。确保正确插入物理硬盘。
5. 将服务器上电。
6. 控制卡从物理硬盘上的配置数据中检测到RAID配置。
如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。
此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。
控制卡提供硬盘故障记录功能:
l 使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。
l 禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,控制卡会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。
维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。
l 使能该功能后,当硬盘故障时,会点亮Fault指示灯。
l 禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。
默认情况下使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。具体操作方法请参见20.6.1.10.8 Advanced Controller Properties
文档中描述的关于控制卡的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。
如果服务器已经在Legacy或者UEFI模式下安装OS,切换启动方式后将无法进入操作系统,需要切换为安装时的启动方式再进入,如操作系统需要重装,请根据实际情况选择UEFI或Legacy模式安装OS。
当服务器配置了较多的可启动设备时,在Legacy模式下可能出现部分设备无法正常启动,建议使用UEFI模式启动,UEFI模式较Legacy模式可以支持更多可启动设备;如需要使用Legacy模式,建议根据实际业务场景禁用串口重定向或网卡PXE等,确保操作系统可以正常启动,具体操作请参考BIOS参数参考的设置网卡的PXE和设置串口重定向章节。
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器。
步骤 2 重启过程中,当出现如图20-3所示界面时,按“Delete”,进入输入密码界面。
步骤 3 输入密码并按“Enter”。
进入如图20-4所示界面。
步骤 4 通过“←”或“→ ”进入“Advanced”页签,如图20-5所示。
如果Device Manager界面显示“Some drivers are not healthy”,请参见20.5.4 Device Manager中RAID控制卡状态显示Not Healthy进行修复。
步骤 5 选择“BROADCOM <MegaRAID 9560-16i 8GB> Configuration Utility”,按“Enter”。
进入如图20-6和图20-7所示主界面,界面参数如表20-4所示。
参数 |
说明 |
Main Menu |
控制卡主菜单,包含了控制卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
控制卡当前工作状态。 |
Backplane |
背板数量。 |
CacheVault |
超级电容在位情况。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
JBODs |
直通硬盘的数量。 |
Drive Groups |
存在的硬盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理控制卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 当存在外部配置时才会显示该选项。 |
Configure |
提供创建RAID,快速创建RAID,查看硬盘组属性,清除当前所有RAID配置,管理外部配置的接口。 |
Set Factory Defaults |
恢复出厂设置。 |
Update Firmware |
升级固件。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看0支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图20-8和图20-9所示,参数说明如表20-5所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID组级别。 |
Secure Virtual Drive |
RAID组加密功能使能状态。 l Enabled l Disabled |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 l Enabled l Disabled |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。 l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 不支持将虚拟磁盘的I/O策略设置为Cached。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 l Yes:使能后台初始化功能 l No:禁用后台初始化功能 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图20-10所示,界面参数如表20-6所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Apply Changes |
保存配置。 |
3. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 0支持的硬盘个数为1~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。
4. 按表20-6所述配置过滤条件。
5. 选择“Apply Changes”并按“Enter”。
6. 选择“Confirm”并按“Enter”。
7. 选择“Yes”并按“Enter”。
8. 选择“OK”并按“Enter”完成成员盘配置。
步骤 4 配置虚拟磁盘属性。
按照表20-5所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照20.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID组信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看0支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图20-11和图20-12所示,参数说明如表20-7所示。
图20-11 Create Virtual Drive(1)
图20-12 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID组级别。 |
Secure Virtual Drive |
RAID组加密功能使能状态。 l Enabled l Disabled |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 l Enabled l Disabled |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。 l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 不支持将虚拟磁盘的I/O策略设置为Cached。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 l Yes:使能后台初始化功能 l No:禁用后台初始化功能 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图20-13所示,界面参数如表20-8所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Apply Changes |
保存配置。 |
3. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 1支持的硬盘个数为2~32(偶数)。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。
4. 按表20-8所述配置过滤条件。
5. 选择“Apply Changes”并按“Enter”。
6. 选择“Confirm”并按“Enter”。
7. 选择“Yes”并按“Enter”。
8. 选择“OK”并按“Enter”完成成员盘配置。
步骤 4 配置虚拟磁盘属性。
按照表20-7所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照20.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID组信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看0支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图20-14和图20-15所示,参数说明如表20-9所示。
图20-14 Create Virtual Drive(1)
图20-15 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID组级别。 |
Secure Virtual Drive |
RAID组加密功能使能状态。 l Enabled l Disabled |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 l Enabled l Disabled |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。 l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 不支持将虚拟磁盘的I/O策略设置为Cached。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 l Yes:使能后台初始化功能 l No:禁用后台初始化功能 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 5”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图20-16所示,界面参数如表20-10所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Apply Changes |
保存配置。 |
3. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 5支持的硬盘个数为3~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。
4. 按表20-10所述配置过滤条件。
5. 选择“Apply Changes”并按“Enter”。
6. 选择“Confirm”并按“Enter”。
7. 选择“Yes”并按“Enter”。
8. 按“Enter”完成成员盘配置。
步骤 4 配置虚拟磁盘属性。
按照表20-9所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照20.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID组信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看0支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图20-17和图20-18所示,参数说明如表20-11所示。
图20-17 Create Virtual Drive(1)
图20-18 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID组级别。 |
Secure Virtual Drive |
RAID组加密功能使能状态。 l Enabled l Disabled |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 l Enabled l Disabled |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。 l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 不支持将虚拟磁盘的I/O策略设置为Cached。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 l Yes:使能后台初始化功能 l No:禁用后台初始化功能 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 6”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图20-19所示,界面参数如表20-12所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Apply Changes |
保存配置。 |
3. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 6支持的硬盘个数为4~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。
4. 按表20-12所述配置过滤条件。
5. 选择“Apply Changes”并按“Enter”。
6. 选择“Confirm”并按“Enter”。
7. 选择“Yes”并按“Enter”。
8. 选择“OK”并按“Enter”完成成员盘配置。
步骤 4 配置虚拟磁盘属性。
按照表20-11所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照20.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 5 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 6 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID组信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看0支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图20-20和图20-21所示,参数说明如表20-13所示。
图20-20 Create Virtual Drive(1)
图20-21 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID组级别。 |
Secure Virtual Drive |
RAID组加密功能使能状态。 l Enabled l Disabled |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 l Enabled l Disabled |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。 l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 不支持将虚拟磁盘的I/O策略设置为Cached。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 l Yes:使能后台初始化功能 l No:禁用后台初始化功能 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图20-22所示,界面参数如表20-14所示。
参数 |
参数说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Apply Changes |
保存配置。 |
3. 按表20-14所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 10支持2~8个Span,每个Span支持的硬盘数为2~16(偶数),且各个Span的硬盘数量必须保持一致。
l RAID 10支持的硬盘总数为4~32(偶数)。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。
5. 选择“Apply Changes”按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
1. 当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如图20-23所示。
2. 选择“Add More Spans”并按“Enter”。
3. 选择“Select Drives”并按“Enter”。
4. 在打开的列表中选择第2个Span的成员盘。
5. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID10至少需要创建2个Span,最多可以创建8个Span。
步骤 6 配置虚拟磁盘属性。
按照表20-13所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照20.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 8 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID组信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看0支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图20-24和图20-25所示,参数说明如表20-15所示。
图20-24 Create Virtual Drive(1)
图20-25 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID组级别。 |
Secure Virtual Drive |
RAID组加密功能使能状态。 l Enabled l Disabled |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 l Enabled l Disabled |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。 l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 不支持将虚拟磁盘的I/O策略设置为Cached。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 l Yes:使能后台初始化功能 l No:禁用后台初始化功能 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 50”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图20-26所示,界面参数如表20-16所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Apply Changes |
保存配置。 |
3. 按表20-16所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 50支持2~8个Span,每个Span支持的硬盘数为3~16,且各个Span的硬盘数量必须保持一致。
l RAID 50支持的硬盘总数为6~32。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。
5. 选择“Apply Changes”按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
1. 当配置的级别为RAID 50时,需要配置多个Span,此时配置界面如图20-27所示。
2. 选择“Add More Spans”并按“Enter”。
3. 选择“Select Drives”并按“Enter”。
4. 在打开的列表中选择第2个Span的成员盘。
5. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID50至少需要创建2个Span,最多可以创建8个Span。
步骤 6 配置虚拟磁盘属性。
按照表20-15所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照20.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 8 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID组信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参看0支持多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
操作步骤
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图20-28和图20-29所示,参数说明如表20-17所示。
图20-28 Create Virtual Drive(1)
图20-29 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID组级别。 |
Secure Virtual Drive |
RAID组加密功能使能状态。 l Enabled l Disabled |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 l Enabled l Disabled |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。 l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 不支持将虚拟磁盘的I/O策略设置为Cached。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 l Yes:使能后台初始化功能 l No:禁用后台初始化功能 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 60”,并按“Enter”。
步骤 3 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图20-30所示,界面参数如表20-18所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Apply Changes |
保存配置。 |
3. 按表20-18所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 60支持2~8个Span,每个Span支持的硬盘数为4~32,且各个Span的硬盘数量必须保持一致。
l RAID 60支持的硬盘总数为8~240。
l 当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。
5. 选择“Apply Changes”按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
1. 当配置的级别为RAID 60时,需要配置多个Span,此时配置界面如图20-31所示。
2. 选择“Add More Spans”并按“Enter”。
3. 选择“Select Drives”并按“Enter”。
4. 在打开的列表中选择第2个Span的成员盘。
5. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID60至少需要创建2个Span,最多可以创建8个Span。
步骤 6 配置虚拟磁盘属性。
按照表20-17所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照20.4.10 创建多个VD(Virtual Drive)章节增加其他VD。
步骤 7 保存配置。
1. 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 8 检查配置结果。
1. 按两次“ESC”返回至“Main Menu”界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID组信息。
----结束
操作场景
您可以通过此操作设置控制卡启动项。
在OS下用命令行工具设置启动项,请参见20.7.2.27 设置启动项。
操作步骤
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 在主界面选择“Controller Management”并按“Enter”。
进入“Controller Management”界面。如图20-32所示。
步骤 2 通过“↑”、“↓”选择“Select Boot Device”并按“Enter”。
显示可设置为启动项的硬盘或虚拟磁盘。
仅在JBOD模式开启时,可设置硬盘为启动项。
步骤 3 选择需配置为启动项的硬盘或虚拟磁盘,按“Enter”完成配置。
----结束
当一台服务器配置了单张RAID控制卡时,RAID控制卡下的硬盘启动项即为该服务器的硬盘启动项,具体设置方法请参见0设置控制卡启动项。
当服务器配置了多张RAID控制卡时,硬盘启动项需要在BIOS中进行设置,具体设置方法请参见BIOS参数参考的“设置服务器启动设备”章节。
对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
l 用作热备盘的硬盘数据将会丢失。
操作步骤
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图20-33所示。
步骤 2 配置全局热备盘。
1. 选择“Operation ”并按“ Enter” 。
2. 选择“Assign Global Hot Spare Drive ”并按“ Enter” 。
3. 选择“Go”并按“Enter”。
显示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作步骤
当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图20-34所示。
步骤 2 配置局部热备盘。
1. 将“Operation”设置为“Assign Dedicated Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
打开当前存在的虚拟磁盘列表。
3. 选择要关联的虚拟磁盘并按“Enter”。
4. 选择“OK”并按“Enter”。
提示操作成功。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作场景
当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。
操作步骤
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图20-35所示。
步骤 2 删除热备盘。
1. 将“Operation”设置为“Unassign Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 按“Enter”完成配置并返回上级界面。
----结束
操作步骤
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Advanced Controller Properties”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
3. 选择“Advanced Controller Properties”并按“Enter”。
进入“Advanced Controller Properties”界面,如图20-36与图20-37所示。
图20-36 Advanced Controller Properties(1)
图20-37 Advanced Controller Properties(2)
步骤 2 设置紧急热备。
1. 选择“Spare”并按“Enter”。
2. 将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如图20-38所示。
图20-38 Advanced Controller Properties
3. 选择“Apply Changes”并按“Enter”。
4. 选择“OK”并按“Enter”,完成配置。
----结束
操作场景
l 只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。
l RAID10、RAID 50、RAID 60不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
对系统的影响
增加硬盘扩容过程中,如果出现硬盘故障,会导致:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行增加硬盘扩容操作。
必备事项
前提条件
添加硬盘扩容之前,需具备如下条件:
l 服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。
l 已通过远程虚拟控制台登录到服务器的实时操作桌面。
l 已登录管理界面,具体操作方法请参见0登录管理界面。
数据
操作之前建议先备份数据。
操作步骤
进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”并按“Enter”。
进入虚拟磁盘选项界面,如图20-39所示。
步骤 2 添加新硬盘。
1. 选择要进行扩容的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图20-40所示。
3. 选择“Reconfigure Virtual Drives”并按“Enter”
4. 选择“Go”并按“Enter”。
5. 选择要扩容的RAID级别。
增加硬盘扩容时,请保证该处的RAID级别与原级别一致。
6. 选择“Choose the Operation”,并按“Enter”。
进入硬盘选择界面,如图20-41所示。
7. 选择要增加的硬盘,并按“Apply Changes”。
进入确认操作界面。
l 增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。
l RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。
8. 选择“Confirm”并按“Enter”。
9. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
10. 选择“OK”并按“Enter”完成配置并返回上级界面,如图20-42所示。
11. 选择“Start Operation”并按“Enter”。
显示操作成功。返回虚拟磁盘选项界面,验证扩容结果,如图20-43所示,表示RAID正在进行扩容。
图20-43 Virtual Drive Management
----结束
操作场景
在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。
操作步骤
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入要操作的虚拟磁盘界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图20-44所示。
图20-44 Virtual Drive Management
步骤 2 扩容虚拟磁盘。
1. 将“Operation”设置为“Expand Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入虚拟磁盘扩容界面,如图20-45界面所示,界面参数如表20-19所示。
参数 |
参数说明 |
Current Capacity |
虚拟磁盘当前容量。 |
Available Capacity |
可用于扩展的容量。 |
Enter a Percentage of Available Capacity |
输入扩容比例。 |
Capacity of Virtual Drive after Expansion |
扩容后虚拟磁盘容量。 |
3. 设置扩容百分比。
4. 选择“OK”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返还上级界面。
----结束
操作场景
随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。
在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。
对系统的影响
RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行RAID级别迁移操作。
必备事项
前提条件
迁移RAID级别之前,需具备如下条件:
l 已通过远程虚拟控制台登录到服务器的实时操作桌面。
l 当前存在的硬盘个数满足目标RAID级别要求。
控制卡支持以下级别类型的迁移:
l RAID 0迁移到RAID 1、RAID 5、RAID 6
l RAID 1迁移到RAID 0、RAID 5、RAID 6
l RAID 5迁移到RAID 0、RAID 6
l RAID 6迁移到RAID 0、RAID 5
RAID迁移对硬盘数量的要求如表20-3所示。
l 当RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
l 迁移只支持增加与RAID组成员盘同类型同规格的硬盘。
l 为防止数据丢失,请在该操作之前备份当前RAID组的数据。
l 只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。
l 迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。
操作步骤
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”并按“Enter”。
进入虚拟磁盘选项界面,如图20-46所示。
步骤 2 选择RAID迁移的目标级别。
下面以将RAID 1迁移到RAID 5为例进行说明。
1. 选择要进行迁移的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图20-47所示。
3. 选择“Reconfigure Virtual Drives”,并按“Enter”。
4. 选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如图20-48和图20-49所示。设置完成后按选择“Apply Changes”并按“Enter”保存配置。不设置时默认与原RAID组配置一致。
5. 选择“Go”,并按“Enter”。
进入RAID配置界面,如图20-50所示。
图20-50 Reconfigure Virtual Drives
6. 选择“New RAID Level”并按“Enter”。
打开RAID迁移的目标级别选择窗口,如图20-51所示。
7. 选择“RAID 5”并按“Enter”。
步骤 3 添加硬盘。
1. 选择“Choose the operation”并按“Enter”。
打开硬盘选择窗口。
2. 选择要增加的硬盘并按“Enter”。
RAID迁移对硬盘数量的要求请参见表20-3。
3. 选择“Apply Changes”并按“Enter”。
弹出操作确认会话框。
4. 选择“Confirm”并按“Enter”。
5. 选择“Yes”并按“Enter”。
提示操作成功。
6. 选择“OK”并按“Enter”返回图20-50界面。
步骤 4 RAID级别迁移。
1. 选择“Start Operation”并按“Enter”。
提示操作成功。
步骤 5 查看迁移结果。
1. 进入Virtual Drive Management界面,检查迁移结果,如图20-52所示,表示RAID正在进行迁移。
l 迁移过程中若重启服务器,该任务将在重启后继续进行。
l 迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。
2. 选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 1”变成“RAID 5”,RAID组容量增大,且“Status”状态显示为“Optimal”时,表示RAID迁移成功。
----结束
操作场景
RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。
操作步骤
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图20-53所示。
图20-53 Virtual Drive Management
步骤 2 删除虚拟磁盘。
1. 将“Operation”设置为“Delete Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
下面描述将带有外部配置的硬盘进行重构的操作方法,不带外部配置硬盘的重构方法请参见0硬盘故障。
操作步骤
在“Main Menu”界面中选择“Drive Management”并按“Enter”。
步骤 1 选中要进行重构的硬盘,按“Enter”。
步骤 2 将“Operation”设置为“Make Unconfigured Good”。
步骤 3 选择“Go”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 按“Enter”完成配置。
硬盘状态变为“(Foreign),Unconfigured Good”。
步骤 5 清除外部配置,具体操作请参见20.4.9 导入和清除外部配置。
RAID组开始进行重构。
----结束
操作场景
用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。
操作步骤
登录管理界面。具体操作方法请参见0登录管理界面。
步骤 1 进入“Controller Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
显示RAID控制卡基本信息,如图20-54和图20-55所示,参数说明如表20-20所示。
图20-54 Controller Management(1)
图20-55 Controller Management(2)
参数 |
参数说明 |
Product Name |
控制标卡名称。 |
Serial Number |
控制标卡序列号。 |
Controller Status |
控制标卡的工作状态。 |
Personality Mode |
控制标卡的模式。 |
Select Boot Device |
当前启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。 |
PCI ID |
控制标卡的PCI ID。 |
PCI Slot Number |
控制标卡的PCI槽位号。 |
Package Version |
控制标卡的套件版本。 |
Firmware Version |
控制标卡的固件版本号。 |
NVDATA Version |
控制标卡配置信息的版本号。 |
Drive Count |
控制标卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID控制卡下已有虚拟磁盘数量。 |
Advanced Controller Management |
更多的控制卡操作。 |
Advanced Controller Properties |
查看和修改控制卡的高级属性。 |
步骤 2 查看控制卡高级属性。
1. 选择“Advanced Controller Properties”并按“Enter”。
进入控制卡高级属性界面,如图20-56和图20-57所示,参数说明如表20-21所示。
在该界面下,可查看并修改RAID控制卡的高级属性。
图20-56 Advanced Controller Properties (1)
图20-57 Advanced Controller Properties (2)
参数 |
说明 |
Cache and Memory |
查看控制卡Cache和Memory信息。 |
Patrol Read |
系统巡检。 |
Power Save Settings |
设置硬盘休眠。 |
Spare |
设置控制卡热备状态。 |
Task Rates |
设置各种任务占用系统比率。 |
Alarm Control |
控制卡标卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Coercion Mode |
容量对齐的模式。包括: l None l 128MB l 1GB |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。 默认为“Pause on Errors”。 |
Controller BIOS |
控制卡BIOS的使能情况。 |
ROC Temperature |
控制卡温度。 |
Shield State Supported |
是否支持暂停I/O,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
硬盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Maintain Drive Fail History |
表示是否使能硬盘故障记录功能,默认为使能状态。 说明 l 该参数设置为“Disabled”时: l 当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。 l 新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。 l 该参数设置为“Enabled”时: l 新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。 l 新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见20.4.9 导入和清除外部配置章节。 |
SMART Polling |
SMART轮巡检测周期。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性校验 |
JBOD Mode |
是否使能硬盘直通功能。 |
Write Verify |
- |
Drive Detection Type |
随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制卡属性。 可用选项为: l Disabled l High Latency l Aggressive l Default |
Drive Corrective Action |
随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致I/O延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。 l Disabled:禁用该功能 l Enabled:开启该功能 |
Drive Error Threshold |
通过该选项设置适当的控制卡属性。 l Every 8 hours l Every1 hours l Every 15 mins l Every 5 mins |
Large IO Support |
启用或禁用大型I/O支持功能。 |
Unmap Capability |
解除映射能力。 |
Apply changes |
保存配置。 |
----结束
操作场景
l 服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。
l 新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。
l 如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!
l 为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。
l 当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。
导入外部配置
登录管理界面,具体操作方法请参见0登录管理界面。
步骤 1 在主界面中选择“Main Menu”并按“Enter”。
步骤 2 选择“Configuration Management”并按“Enter”。
步骤 3 选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。
进入外部配置管理界面,如图20-58所示。
图20-58 Manage Foreign Configuration
步骤 4 选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图20-59所示。
步骤 5 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 6 选择“Confirm”并按“Enter”。
步骤 7 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 8 按“Enter”完成配置返回上级界面。
----结束
清除外部配置
登录管理界面,具体操作方法请参见0登录管理界面。
步骤 1 在主界面中选择“Main Menu”并按“Enter”。
步骤 2 选择“Configuration Management”并按“Enter”。
步骤 3 选择“Manage Foreign Configuration”并按“Enter”。
进入外部配置管理界面,如图20-60所示。
图20-60 Manage Foreign Configuration
步骤 4 选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图20-61所示。
步骤 5 选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 6 选择“Confirm”并按“Enter”。
步骤 7 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 8 单击“OK”完成配置返回上级界面。
----结束
该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID0存在一个VD为例(如图20-62所示),详细操作方法如下:
图20-62 Virtual Drive Management
按照“Main Menu > Configuration Management > Create Virtual Drive”的路径进入“Create Virtual Drive”界面,如图20-63所示。
步骤 2 选择“Select RAID Level”并“Enter”。
步骤 3 在弹出的RAID级别菜单中选择“RAID50”并按“Enter”。
步骤 4 将“Select Drives From”设置为“Free Capacity”,如图20-64所示。
步骤 5 选择“Select Drive Groups”并按“Enter”。
显示当前存在的RAID组(Drive Group),如图20-65所示。
步骤 6 选择要创建多个VD的RAID组并按“Enter”,如图20-66所示。
步骤 7 选择“Apply Changes”并按“Enter”。
提示操作成功。
步骤 8 选择“OK”并按“Enter”返回VD配置界面,如图20-67和图20-68所示,参数说明如表20-22所示。
图20-67 Create Virtual Drive(1)
图20-68 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Secure Virtual Drive |
RAID组加密功能使能状态。 l Enabled l Disabled |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。 |
Select Drive Group |
选择硬盘组。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略。 不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 9 按照表20-22所述配置VD的相关属性。
步骤 10 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
步骤 11 选择“Confirm”并按“Enter”。
步骤 12 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
可进入Virtual Drive Management界面,查看当前存在的所有VD,如图20-69所示。
图20-69 Virtual Drive Management
----结束
每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤13。
查询RAID控制卡固件版本的方法有如下几种:
l 在iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。
l 服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见0查询RAID控制卡配置信息。
回显信息中的“FW Version”字段即为RAID控制卡的固件版本。
l 在RAID控制卡管理界面进行查询,具体方法为:
a. 登录RAID控制卡的管理界面,具体操作请参见0登录管理界面。
b. 在主界面中选择“Main Menu”并按“Enter”。
进入“Main Menu”页面,如图20-70所示。
c. 选择“Controller Management”并按“Enter”。
显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如图20-71所示。
图20-71 Controller Management界面
介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。
更多故障案例请联系技术支持获取。
问题描述
当服务器出现如下现象时,说明硬盘故障。
l 硬盘故障指示灯常亮。
l 服务器开机状态下,硬盘指示灯不亮。
l 服务器上报硬盘故障告警。
处理方法
JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。
l 通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。
l 通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。
l 通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考20.6.1.12 Drive Management。
l 通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
步骤 1 更换新硬盘。
l 更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考20.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。
l 若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在0支持多种RAID类型查看RAID组支持的最大故障硬盘数量。
l 更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。
l 新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。
拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:
l 若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。
l 若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。
l 若故障硬盘为直通盘,则直接更换即可。
l 若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。
− UEFI模式下创建RAID0的方法请参见20.3.2 创建RAID 0。
− 通过命令行方式创建RAID0的方法请参见20.7.2.14 创建和删除RAID。
----结束
问题描述
正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
但当RAID控制卡未设置紧急热备时,成员盘状态显示为fail或prefail时,可使用以下方法处理。
处理方法
使用StorCLI工具,具体操作请参考0下载和安装StorCLI工具。
步骤 1 执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考20.7.2.28 设置硬盘状态。
storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]
l controller_id:硬盘所在RAID控制卡的ID
l enclosure_id:硬盘所在Enclosure的ID
l slot_id:物理硬盘槽位ID
步骤 2 更换离线硬盘。
步骤 3 RAID组自动执行重构。
等待重构完成。
----结束
问题描述
硬盘状态显示为Unconfigured Bad或UBad。
处理方法
使用StorCLI工具,具体操作请参见0下载和安装StorCLI工具。
步骤 1 执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见20.7.2.28 设置硬盘状态。
storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]
l controller_id:硬盘所在RAID控制卡的ID
l enclosure_id:硬盘所在Enclosure的ID
l slot_id:物理硬盘槽位ID
步骤 2 重新查看硬盘状态是否更改为Unconfigured Good或Ugood。具体操作请参见20.6.1.12 Drive Management界面或20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤4。
步骤 3 查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见20.4.9 导入和清除外部配置或20.7.2.42 查看/导入/清除外部配置。
l 问题解决 => 处理完毕。
l 问题未解决 => 联系技术支持处理。
----结束
问题描述
当RAID控制卡电容故障时,可能导致服务器出现如下情况:
l 服务器读写速度显著降低。
l RAID控制卡的CU界面中显示电容状态异常。
处理方法
进入RAID控制卡的CU界面,查看电容状态是否为“Optimal”。
电容状态可查询图20-110界面的“Battery Status”参数。
l 是 => 处理完毕
l 否 => 步骤2
步骤 1 将服务器下电,打开机箱,并查看RAID控制卡电容是否在位。
l 是 => 步骤4
l 否 => 步骤3
步骤 2 检查整机配置,为服务器安装电容,查看电容状态是否为“Optimal”。
l 是 => 处理完毕
l 否 => 步骤6
步骤 3 重新安装RAID控制卡电容,查看电容状态是否为“Optimal”。
l 是 => 处理完毕
l 否 => 步骤5
步骤 4 更换RAID控制卡电容,查看电容状态是否为“Optimal”,且“问题描述”所述的异常状态是否消失。
l 是 => 处理完毕
l 否 => 步骤6
----结束
问题描述
当服务器出现如下现象时,说明控制卡故障。
l 数据无法写入控制卡控制的硬盘。
l 服务器上报控制卡故障告警。
处理方法
登录iBMC Web界面查看告警信息。
步骤 1 根据告警信息,参考iBMC告警处理。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤3
步骤 3 查询兼容性查询助手或者联系技术支持处理。
----结束
问题描述
进入“Device Manager”界面后,显示“Some drivers are not healthy”。
处理方法
选择“Some drivers are not healthy”。
进入健康状态查询界面。
步骤 1 选择“Repair the whole platform”,并按“Enter”。
进入“Driver Healthy Protocol Utility”界面。
步骤 2 查看“Driver Healthy Protocol Utility”界面的打印信息。
l 显示“The following VDs have missing disks.” => 请参见0The following VDs have missing disks。
l 显示“There are offline or missing virtual drives with preserved cache.” => 请参见20.5.4.6 There are offline or missing virtual drives with preserved cache。
l 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见20.5.4.7 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
l 显示“Memory/battery problems were detected / Unexpected power-loss occurred”=> 请参见20.5.4.8 Memory/battery problems were detected。
----结束
RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见0RAID控制卡启动中出现的常见的错误消息及处理方法。
问题描述
进入“Driver Healthy Protocol Utility”界面后,显示The following VDs have missing disks.。
处理方法
修复RAID控制卡。
1. 选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
2. 输入“c”,选择“Yes”并按“Enter”。
返回“Driver Healthy Protocol Utility”界面。
3. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
4. 输入“y”,选择“Yes”并按“Enter”。
提示Critical Message handling completed. Please exit。修复完成。
步骤 1 重启服务器,进入“Device Manager”界面,检查界面是否显示“The platform is healthy”。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
进入“Driver Healthy Protocol Utility”界面后,显示“There are offline or missing virtual drives with preserved cache”。
处理方法
选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
步骤 1 输入任意内容,选择“Yes”并按“Enter”。
提示Critical Message handling completed. Please exit。
步骤 2 按“Esc”键返回到“Device Manager”界面。
步骤 3 选择“BROADCOM <MegaRAID 9560-16i 8GB> Configuration Utility”并按“Enter”。
进入“Configuration Utility”界面。
步骤 4 选择“Discard Preserved Cache”并按“Enter”。
弹出操作确认对话框。
步骤 5 选择“Confirm”并按“Enter”。
步骤 6 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 7 选择“OK”并按“Enter”。
步骤 8 重启服务器。
步骤 9 进入“Device Manager”界面,检查界面是否显示The platform is healthy。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图20-72所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”
处理建议
该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:
l 下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。
l 忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:
a. 在图20-72中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
b. 输入“c”并按“Enter”。
c. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
d. 输入“y”并按“Enter”。
提示Critical Message handling completed. Please exit。
e. 按“Esc”退出当前界面。
弹出确认保存配置会话框,如图20-73所示。
f. 按“Y”保存配置,操作完成。
g. 按Esc键返回“Device Manager”界面。
h. 选择控制卡并按“Enter”,进入控制卡管理界面。
问题描述
进入“Driver Healthy Protocol Utility”界面后,显示“Memory/battery problems were detected. The adapter has recovered, but cached data was lost”。
处理方法
选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
步骤 1 输入任意内容,选择“Yes”并按“Enter”。
提示“Critical Message handling completed. Please exit”。
步骤 2 重启服务器,进入“Device Manager”界面,检查界面是否显示“The platform is healthy”。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图20-74所示,进入“Driver Healthy Protocol Utility”界面后,显示“Disabling writes to flash as the flash part has gone bad”。
处理方法
将服务器下电。
步骤 1 更换RAID控制卡。
步骤 2 将服务器上电,导入外部配置恢复原来的RAID配置,请参见20.4.9 导入和清除外部配置或20.7.2.42 查看/导入/清除外部配置。
检查提示是否清除。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
硬盘响应命令超时,控制卡会对硬盘进行复位。3次复位后尚未恢复时将可能耗尽控制卡TM(Task Management)资源,触发Fatal error,此时会通过OCR(Online Controller Reset)自愈恢复,期间将有短时间业务中断(约30s~60s),控制卡复位后会完成踢盘,将故障硬盘置为Ubad状态。
控制卡自愈恢复,需要开启OCR开关。
触发条件
当下发到硬盘的I/O出现超时不响应的情况时,RAID控制卡会通过reset硬盘来恢复,正常情况下,硬盘会重新接入或者多次reset之后会进行踢盘。
当出现reset之后硬盘仍然无法响应RAID控制卡指令且无法踢盘时,RAID控制卡会再次reset进行复位,每次reset会占用RAID控制卡资源,短时间内多次reset会导致RAID控制卡资源耗尽,该场景下,RAID控制卡会通过重新加载FW进行恢复。
该机制为此类卡的正常处理机制,由于架构限制,无法进行优化。
识别方法
l 已安装OS:
当遇到短时间业务中断,恢复后查看有被置为Ubad状态的硬盘时,可以查看控制卡日志,搜索dm.c并查看其发生时间,如与业务中断时间节点接近,即可断定为触发了该机制。
注意控制卡与OS时间差。
l 未安装OS:
无OS时,触发该机制的操作为:从“Advanced”页签进入控制卡界面。若触发该机制,进入控制卡卡操作界面时将会卡住,无法恢复。
处理方法
定位故障硬盘。
l 已安装OS:
− 如确认触发了该机制并且已经完成了踢盘,需要更换Ubad状态的硬盘。
− 如无Ubad状态的硬盘,查看日志并搜索“indicates critical condition”,目标行的“element xx indicates critical condition”中,“xx”即为问题硬盘的槽位号。
已安装OS,但是进入“Advanced”页签的控制卡操作界面卡住,需要重新上下电进入OS,按照以上方式定位故障硬盘。
l 未安装OS:
系统未安装OS,出现该异常时,保留预安装OS RAID组数目的硬盘,将其他硬盘拔出并记录槽位号,如成功安装OS进入系统后,按照已安装OS的操作来确认问题硬盘。
步骤 1 更换故障硬盘。
l 是 => 处理完毕。
l 否 => 请联系技术支持。
----结束
问题描述
RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD mode将RAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如图20-75所示,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。
当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。
处理方法
(可选)登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面。
步骤 1 依次进入Main Menu>Controller Management>Advanced Controller Management界面,如图20-76所示。
图20-76 Advanced Controller Management界面
步骤 2 选择“Switch to RAID mode”并按“Enter”。
提示操作成功,如图20-77所示。
步骤 3 选择“OK”并按“Enter”。
返回到“Advanced Controller Management”界面,显示正在切换模式,如图20-78所示。
图20-78 Advanced Controller Management界面
步骤 4 按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面。
步骤 5 依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如图20-79所示。
图20-79 Advanced Controller Management界面
l 是 => 处理完毕。
l 否 => 请联系技术支持。
----结束
问题描述
l 无法创建RAID组。
l 进入控制卡主界面后,显示“Discard Preserved Cache”,如图20-80所示。
处理方法
进入控制卡主界面。
步骤 1 选择“Discard Preserved Cache”并按Enter。
弹出操作确认界面,如图20-81所示。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示“The operation has been performed successfully”即操作成功。
----结束
RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。
界面介绍
“Main Menu”界面如图20-82,参数说明如表20-23所示。
参数 |
参数说明 |
Configuration Management |
配置管理RAID。 |
Controller Management |
管理RAID控制卡。 |
Virtual Drive Management |
管理虚拟磁盘。 |
Drive Management |
管理硬盘。 |
Hardware Components |
查询部件信息。 |
可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。
界面介绍
“Configuration Management”界面如图20-83,参数说明如表20-24所示。
图20-83 Configuration Management
参数 |
参数说明 |
Auto Configure RAID 0 |
自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0。 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。 |
View Drive Group Properties |
查看硬盘组属性。 当存在硬盘组时会显示该参数。 |
View Global Hotspare Drives |
查看全局热备盘。 当存在全局硬盘时会显示该参数。 |
Make JBOD |
硬盘直通功能,硬盘不加入RAID,直接使用。 |
Make Unconfigured Good |
将硬盘从JBOD状态设置为“Unconfigured Good”状态。 当存在直通盘时显示该参数。 |
Clear Configuration |
清除配置。 |
Manage Foreign Configuration |
管理外部配置。 当存在外部配置时会显示该参数。 |
自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0。
界面说明
“Auto Configure RAID 0”界面如图20-84所示。
图20-84 “Auto Configure RAID 0”
界面说明
“Create Virtual Drive”界面如图20-85和图20-86所示,参数说明如表20-25所示。
图20-85 Create Virtual Drive(1)
图20-86 Create Virtual Drive(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID组级别。 |
Secure Virtual Drive |
RAID组加密功能使能状态。 l Enabled l Disabled |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 l Enabled l Disabled |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 l “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。 l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。) − 在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 说明 不支持将虚拟磁盘的I/O策略设置为Cached。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略(仅对有Cache的硬盘有效): l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 l Yes:使能后台初始化功能 l No:禁用后台初始化功能 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
界面说明
“Create Profile Based Virtual Drive”界面如图20-87所示,参数说明如表20-26所示。
图20-87 “Create Profile Based Virtual Drive”
参数 |
说明 |
Generic RAID 0 |
快速创建RAID0。 |
Generic RAID 1 |
快速创建RAID1。 |
Generic RAID 5 |
快速创建RAID5。 |
Generic RAID 6 |
快速创建RAID6。 |
File Server |
快速创建文件服务器。 |
Web/Generic Server |
快速创建网页/通用服务器。 |
Database |
快速创建数据库。 |
快速创建RAID
通过“↑”、“↓”选择要创建的RAID(以“Generic RAID 1”为例)并按“Enter”。
打开RAID配置界面,如图20-88,参数说明如表20-27所示。
参数 |
参数说明 |
Drive Selection Criteria |
系统自动选择的成员盘。 |
Virtual Drive Name |
系统自定义的RAID组名称。 |
RAID Level |
当前配置的RAID组的级别。 |
Virtual Drive Size |
RAID组的容量。 |
Power Save Mode |
数据掉电保护模式。 |
Strip Size |
RAID组扇区大小。 |
Read Policy |
RAID组的数据读策略。 |
Write Policy |
RAID组的数据写策略。 |
IO Policy |
RAID组I/O策略。 |
Access Policy |
数据读写的策略。 |
Drive Cache |
硬盘Cache策略。 |
Create Dedicated Hot Spare |
是否为RAID组创建局部热备盘。 |
Save Configuration |
保存当前配置。 |
步骤 2 按表20-26所示查看或配置相关参数。
步骤 3 选择“Save Configuration”并按“Enter”。
弹出操作确认界面。
步骤 4 选择“Confirm”并按“Enter”。
步骤 5 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 6 选择“OK”并按“Enter”完成配置。
----结束
界面说明
“View Drive Group Properties”界面如图20-89,参数说明如表20-28所示。
图20-89 View Drive Group Properties
参数 |
参数说明 |
Drive Group |
硬盘组名称。 |
Capacity Allocation |
硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。 |
查看当前存在的所有全局热备盘。
界面说明
“View Global Hotspare Drives”界面如图20-90所示。
图20-90 “View Global Hotspare Drives”
选择空闲硬盘转换为直通盘。
界面说明
“Make JBOD”界面如图20-91所示。
选择直通盘转换为空闲盘。
界面说明
“Make Unconfigured Good”界面如图20-92所示。
图20-92 “Make Unconfigured Good”
该操作将清除控制卡上所有的RAID、热备盘、Pinned Cache和直通盘配置信息,请谨慎执行该操作。
界面说明
“Clear Configuration”界面如图20-93所示。
该界面提供控制卡管理接口,可查看并修改控制卡的详细参数。
界面介绍
“Controller Management”界面如图20-94和图20-95所示,参数说明如表20-29所示。
图20-94 Controller Management(1)
图20-95 Controller Management(2)
参数 |
参数说明 |
Product Name |
RAID控制卡名称。 |
Serial Number |
RAID控制卡序列号。 |
Controller Status |
RAID控制卡的工作状态。 |
Personality Mode |
RAID控制卡的模式。 |
Select Boot Device |
当前启动项。 |
PCI ID |
RAID控制卡的PCI ID。 |
PCI Segment:Bus:Device:Fuction |
RAID控制卡的PCI设备索引。 |
PCI Slot Number |
RAID控制卡的PCI槽位号。 |
Package Version |
RAID控制卡的套件版本。 |
Firmware Version |
RAID控制卡的固件版本号。 |
NVDATA Version |
RAID控制卡配置信息的版本号。 |
Supported Device Interfaces |
支持的设备接口。 |
Drive Count |
RAID控制卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID控制卡下已有虚拟磁盘数量。 |
Advanced Controller Management |
更多的控制卡操作。 |
Advanced Controller Properties |
查看和修改控制卡的高级属性。 |
界面介绍
“Clear Configuration”界面如图20-96所示,参数说明如表20-30所示。
参数 |
说明 |
Clear Controller Events |
清除控制卡的事件日志。 |
Save Controller Events |
保存控制卡的事件日志。 |
Save TTY Log |
保存终端操作日志。 |
Enable Drive Security |
使能硬盘加密功能。 |
Disable Drive Security |
关闭硬盘加密功能。 |
Change Security Settings |
修改硬盘加密功能的设置,包括修改密码、修改加密模式等。 |
Manage SAS Storage Link Speed |
管理接口速率。 |
Manage PCIe Storage Interface |
管理RAID控制卡的链路宽度和lane的速率。 |
Manage MegaRAID Advanced Software Options |
管理高级软件功能。 |
Schedule Consistency Check |
设置一致性校验参数。 |
Set Factory Defaults |
恢复为出厂配置。 |
Enable Host LED Management for JBOD |
管理JBOD模式的host的LED。 |
Manage Personality Mode |
设置RAID控制卡当前的工作模式。 |
Manage Controller Profiles |
查看和管理控制卡的配置文件。 |
界面说明
“Advanced Controller Properties”界面如图20-97和图20-98所示,参数说明如表20-31所示。
图20-97 Advanced Controller Properties界面(1)
图20-98 Advanced Controller Properties界面(2)
参数 |
说明 |
Cache and Memory |
查看控制卡Cache和Memory信息。 |
Patrol Read |
系统巡检。 |
Power Save Settings |
设置硬盘休眠。 |
Spare |
设置控制卡热备状态。 |
Task Rates |
设置各种任务的处理速率。 |
External Key Management |
管理外部密钥。 |
Alarm Control |
板载蜂鸣器使能状态。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Coercion Mode |
硬盘容量压缩模式。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。 默认为“Pause on Errors”。 |
Controller BIOS |
控制卡BIOS的使能情况。 |
ROC Temperature (C) |
控制卡温度。 |
Shield State Supported |
是否支持暂停IO,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
硬盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Maintain Drive Fail History |
表示是否使能硬盘故障记录功能,默认为使能状态。 说明 l 该参数设置为“Disabled”时: l 当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。 l 新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。 l 该参数设置为“Enabled”时: l 新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。 l 新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见20.4.9 导入和清除外部配置章节。 |
SMART Polling |
SMART轮巡检测周期。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性校验。 |
Write Verify |
写校验。 |
Drive Detection Type |
随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制卡属性。 可用选项为: l Disabled l High Latency l Aggressive l Default |
Drive Corrective Action |
随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致IO延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。 l Disabled:禁用该功能 l Enabled:开启该功能 |
Drive Error Threshold |
通过该选项设置适当的控制卡属性。 l Every 8 hours l Every1 hours l Every 15 mins l Every 5 mins |
Large IO Support |
启用或禁用大型IO支持功能。 |
Unmap Capability |
解除映射能力。 |
Apply Changes |
保存配置。 |
修改后台任务速率
在图20-97中选择“Task Rates”并按“Enter”。界面如图20-99所示,界面中参数说明如表20-32所示。
参数 |
说明 |
Background Initialization <BGI> Rate |
设置执行后台初始化的速率。 说明 数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Consistency Check Rate |
设置执行一致性校验的速率。 说明 数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Patrol Read Rate |
设置执行巡检读取的速率。 说明 数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Rebuild Rate |
设置硬盘发生故障时在新硬盘上执行重构数据的速率。 说明 数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Reconstruction Rate |
设置执行RAID级别迁移或在线容量扩展时重构数据的速率。 说明 数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。 |
Apply Changes |
保存配置。 |
步骤 2 按照表20-31所述修改控制卡的高级属性参数。
步骤 3 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面提供虚拟磁盘的查询和管理接口。
界面介绍
“Virtual Drive Management”界面如图20-100,显示虚拟磁盘列表。
图20-100 Virtual Drive Management
管理指定虚拟磁盘
选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如图20-101所示,参数说明如表20-33所示。
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:定位虚拟磁盘的所有硬盘。 l Stop Locate:取消定位。 l Delete Virtual Drive:删除虚拟磁盘。 l Expand Virtual Drive:扩展虚拟磁盘容量。 l Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。 l Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。 l Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。 l Fast Initialization:快速初始化虚拟磁盘。 l Slow Initialization:安全初始化虚拟磁盘。 l Check Consistency:一致性校验。 l Virtual Drive Erase:格式化虚拟磁盘。 |
Progress |
当前任务进度。 l 仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。 l 当前界面不会自动刷新,需退出后重新进入查看当前进度。 |
Stop |
停止当前任务。 仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。 |
Name |
虚拟磁盘名称。 |
Raid Level |
虚拟磁盘RAID级别。 |
Status |
虚拟磁盘当前运行状态。 |
Size |
虚拟磁盘容量。 |
View Associated Drives |
查看成员盘属性。 |
Advanced... |
查看虚拟磁盘高级属性。 |
查看成员盘属性
在图20-101中选择“View Associated Drives”并按“Enter”。
界面如图20-102,显示成员盘列表。
图20-102 View Associated Drives
步骤 2 选择要查看的成员盘并按“Enter”。
步骤 3 选择“View Drive Properties”并按“Enter”。
进入硬盘属性界面,如图20-103界面所示,界面参数如表20-34所示。
参数 |
参数说明 |
Operation |
该成员盘可执行的操作,包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Place Drive Online/Offline:将硬盘上线/离线。 l Replace Drive:替换硬盘 |
Drive ID |
成员盘的ID。 |
Connection |
硬盘接口。 |
Enclosure Position |
机箱或背板的位置。 |
Slot Number |
硬盘的槽位号。 |
Status |
成员盘的当前工作状态。 |
Size |
成员盘的容量。 |
Type |
成员盘类型。 |
Model |
成员盘的模块类型。 |
Serial Number |
成员盘的序列号。 |
Associated Virtual Drive |
成员盘所在的虚拟磁盘。 |
Advanced... |
查询成员盘更多属性。 |
----结束
查看和修改虚拟磁盘高级属性
在图20-101中选择“Advanced...”并按“Enter”。
界面如图20-104和图20-105所示,界面参数如表20-35所示。
参数 |
参数说明 |
Parity Size |
奇偶校验大小。 |
Logical Sector Size |
逻辑扇区大小。 |
Strip Size |
条带大小。 |
Starting Logical Block Addressing |
逻辑单元起始地址。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 当成员盘为512B/512B时: l Default:逻辑盘扇区为512B/512B。 l None:逻辑盘扇区为512B/512B。 l Force:逻辑盘扇区为512B/4KB。 当成员盘为512B/4KB时: l Default:逻辑盘扇区为512B/4KB。 l None:逻辑盘扇区为512B/512B。 l Force:逻辑盘扇区为512B/4KB。 |
Bad Blocks |
是否支持坏块处理。 |
SSD Caching |
是否支持SSD Caching。 |
Access |
是否支持Access。 |
Current Write Cache Policy |
当前写Cache策略,包括: l Write Through:当硬盘子系统接收到所有传输数据后,RAID控制标卡将给主机返回数据传输完成信号。 l Write Back:当RAID控制标卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Always Write Back:当未配置超级电容或超级电容故障时,RAID控制标卡将不会自动切换到Write Through模式。 说明 “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR的写数据将会丢失。不推荐使用该模式。 |
Default Write Cache Policy |
默认的写Cache策略。 |
Disable Background Initialization |
是否禁用后台初始化。 |
Read Cache Policy |
当前读Cache策略,包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。RAID控制标卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 |
Drive Cache |
设置硬盘cache状态。 |
Input/Output |
I/O读取策略,包括: l Direct:直接从硬盘读取数据,不经过Cache缓存。 l Cached:从Cache缓存中读取数据。 |
Unmap Capability |
虚拟磁盘解映射功能使能状态。 l Enabled l Disabled |
Apply Changes |
保存配置。 |
步骤 2 按照表20-35所述配置“Advanced”的参数。
步骤 3 选择“Apply Changes”并按“Enter”。
显示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面显示硬盘基本属性,提供硬盘操作接口。
界面介绍
“Drive Management”界面如图20-106所示,显示硬盘列表。
硬盘的标识信息说明如下:
l ①表示RAID控制卡的Port口编号,其中Drive C0/Drive Port A表示RAID控制卡的Port A口,Drive C1/Drive Port B表示RAID控制卡的Port B口。
l ②表示机箱或背板的位置ID。
l ③表示硬盘槽位号。
l ④表示硬盘类型。
l ⑤表示硬盘的容量。
l ⑥表示硬盘的状态。
l ⑦表示硬盘的扇区大小。
选定要操作的硬盘并按“Enter”进入详细操作界面,如图20-107所示,参数说明如表20-36所示。
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Initialize Drive:硬盘初始化。 l Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。 − Simple:仅对硬盘进行一轮擦除动作。 − Normal:对硬盘进行三轮擦除动作。 − Thorough:对硬盘进行九轮擦除动作。 − Stop Erase:停止数据擦除操作。 l Make Unconfigured Good/Bad:修改硬盘状态。 l Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。 l Assign Global Hot Spare Drive:设置全局热备盘。 l Assign Dedicated Hot Spare Drive:设置局部热备盘。 l Unassign Hot Spare Drive:删除热备盘。 l Place Drive Online:将Offline状态的硬盘设置为Online。 说明 l Place Drive Online操作仅仅只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。 l 如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。 l 对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。 |
Drive ID |
硬盘的ID。 |
Connection |
硬盘接口。 |
Enclosure Position |
机箱或背板的位置。 |
Slot Number |
硬盘的槽位号。 |
Status |
硬盘的当前工作状态。 |
Size |
硬盘的容量。 |
Type |
硬盘的类型。 |
Model |
硬盘型号。 |
Serial Number |
硬盘的序列号。 |
Advanced... |
查询更多硬盘属性。 |
安全擦除硬盘数据
该操作会删除硬盘上的数据,请谨慎执行。
将“Operation”设置为“Drive Erase”。
步骤 1 选择“Erase Mode”并按“Enter”。
步骤 2 在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。
步骤 3 选择“Go”并按“Enter”。
步骤 4 选择“Confirm”并按“Enter”。
步骤 5 选择“Yes”并按“Enter”。
提示操作成功。
----结束
查看硬盘属性
选择“Advanced...”并按“Enter”。
打开硬盘属性界面,如图20-108和图20-109所示,参数说明如表20-37所示。
参数 |
参数说明 |
Certified |
是否通过认证。 |
Logical Sector Size |
逻辑扇区大小。 |
Physical Sector Size |
物理扇区大小。 |
SMART Status |
SMART功能是否使能。 |
Revision |
硬盘Firmware版本。 |
Media Error |
Media error个数。 |
Predicted Fail Count |
Pred fail个数。 |
SAS Address |
硬盘SAS地址。 |
Drive Power State |
硬盘上电状态。 |
Cache Setting |
是否可设置Cache。 |
Disk Protocol |
硬盘支持的协议。 |
Device Speed |
设备速率。 |
Negotiated Drive Transfer Speed |
硬盘数据传输速率。 |
Number of Connections |
连接器个数。 |
FDE Capable |
硬盘是否支持FDE(Full Disk Encryption)技术。 |
Cryptographic Erase Capable |
硬盘的加密擦除能力。 |
Unmap Capable |
解除映射能力。 |
Unmap Capability for Configuration |
取消映射配置功能。 |
Temperature |
硬盘温度。 |
该界面主要提供RAID控制卡传感器信息。
界面介绍
“Hardware Components”界面如图20-110,参数说明如表20-38所示。
参数 |
参数说明 |
Battery Status |
电容的工作状态。 |
Battery Management |
电容管理。 |
Enclosure Management |
查看更多传感器信息。 |
提供RAID控制卡操作管理接口。
界面介绍
“View Server Profile”界面如图20-111所示,参数说明如表20-39所示。
参数 |
参数说明 |
UEFI Spec Version |
服务器支持的UEFI Spec版本。 |
Controller Management |
提供控制卡管理接口,详细情况请参见20.6.1.10 Controller Management。 |
Hardware Components |
提供控制卡部件查询接口,详细情况请参见20.6.1.13 Hardware Components。 |
Drive Management |
提供硬盘管理接口,详细情况请参见20.6.1.12 Drive Management。 |
Virtual Drive Management |
提供虚拟磁盘管理接口,详细情况请参见20.6.1.11 Virtual Drive Management。 |
该界面可查看、导入、清空外部配置。
界面介绍
“Manage Foreign Configuration”界面如图20-112所示。
图20-112 Manage Foreign Configuration
查看并导入外部配置
选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图20-113所示。
步骤 2 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 3 选择“Confirm”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 单击“OK”完成配置。
----结束
清除外部配置
选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 单击“OK”完成配置。
----结束
可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。
界面介绍
“Configure”界面如图20-114所示,参数说明如表20-40所示。
参数 |
参数说明 |
Auto Configure RAID 0 |
自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0。 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。 |
View Drive Group Properties |
查看硬盘组属性。 当存在硬盘组时会显示该参数。 |
Make JBOD |
硬盘直通功能,硬盘不加入RAID,直接使用。 |
Make Unconfigured Good |
配置硬盘状态。 |
Clear Configuration |
清除当前所有RAID配置。 |
Manage Foreign Configuration |
管理外部配置。 当存在外部配置时才会显示该选项。 |
清除当前配置
选择“Clear Configuration”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 单击“OK”完成配置。
----结束
恢复出厂配置
在主界面选择“Set Factory Defaults”并按“Enter”。
打开操作确认界面。
步骤 1 选择“Confirm”并按“Enter”。
步骤 2 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 3 单击“OK”完成配置。
----结束
该界面提供固件升级接口。
界面介绍
“Update Firmware”界面如图20-115所示,参数说明如表20-41所示。
参数 |
参数说明 |
Select File System |
选择使用的文件系统。 |
Select Directory |
选择文件存放路径。可选路径包括: Current Dir:当前路径 EFI:自适应路径 |
Select Image |
选择要加载的文件。 |
升级固件
l 进行固件升级时,必须使用FAT12、FAT16或FAT32格式的介质。
l 仅检查支持EFI_SIMPLE_FILE_SYSTEM_PROTOCOL的文件系统。
l FW镜像文件必须位于根目录或根目录的下一个级别才能进行访问。
按照表20-41所述配置升级参数。
步骤 1 选择“Update”并按“Enter”。
打开操作确认界面。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 在列表中选择“Enable”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 单击“OK”完成配置。
----结束
该界面提供RAID控制卡高级软件特性查看和导入接口。
界面介绍
“Manage MegaRAID Advanced Software Options”界面如图20-116所示,界面中参数说明如表20-42所示。
图20-116 Manage MegaRAID Advanced Software Options
参数 |
说明 |
SAFE ID |
RAID控制卡的安全编码。 |
Serial Number |
RAID控制卡序列号。 |
Activation Key |
待激活的高级特性的Key。 |
Active |
激活高级特性。 不支持高级特性的激活操作,该功能无效。 |
Deactive All Trail Software |
注销当前所有高级特性。 |
按“F10”退出BIOS管理界面。
使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。
下载工具
步骤 1 在“DOWNLOADS”页签中单击“Management Software and Tools”。
打开管理软件和工具列表。
步骤 2 下载最新版本的“StorCLI”工具。
步骤 3 解压后得到适用于不同操作系统的工具包。
----结束
安装工具
使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。
步骤 1 在Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。
StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。
安装完毕后,即可执行RAID控制卡命令。
----结束
命令功能
查询控制卡的基本配置信息。
命令格式
storcli64 /ccontroller_id show
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID |
使用指南
无。
使用实例
# 查询RAID控制卡配置信息。
[root@localhost ~]# storcli64 /c0
show
Generating detailed summary of the adapter, it may take a while to complete.
Controller = 0
Status = Success
Description = None
Product Name = MegaRAID 9560-16i 8GB
Serial Number = SK00977293
SAS Address = 500062b2025080c0
PCI Address = 00:01:00:00
System Time = 03/06/2023 17:11:07
Mfg. Date = 03/05/20
Controller Time = 03/06/2023 09:11:06
FW Package Build = 52.20.0-4481
BIOS Version = 7.20.01.0_0x07140000
FW Version = 5.200.02-3681
Driver Name = megaraid_sas
Driver Version = 07.720.04.00
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x10E2
SubVendor Id = 0x1000
SubDevice Id = 0x4000
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Domain ID = 0
Security Protocol = None
Drive Groups = 2
TOPOLOGY :
========
----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size
PDC PI SED DS3 FSpace TR
----------------------------------------------------------------------------
0 - - -
- RAID1 Optl N 1.818 TB dsbl N N dflt
N N
0 0 - -
- RAID1 Optl N 1.818 TB dsbl N
N dflt N N
0 0 0 252:4 1 DRIVE
Onln N 1.818 TB dsbl N N dflt
- N
0 0 1 252:5 2 DRIVE
Onln N 1.818 TB dsbl N N dflt
- N
1 - - -
- RAID0 Optl N 10.915 TB dflt N N
none Y N
1 0 - -
- RAID0 Optl N 10.915 TB dflt N N
none Y N
1 0 0 252:1 3 DRIVE
Onln N 5.457 TB dflt N N none
- N
1 0 1 252:2 5 DRIVE
Onln N 5.457 TB dflt N N none
- N
----------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Optl=Optimal|Dgrd=Degrade
d
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 2
VD LIST :
=======
-------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC
Size Name
-------------------------------------------------------------
1/238 RAID0 Optl RW Yes
RWTD - ON 2.000 TB
0/239 RAID1 Optl RW Yes
RWTD - ON 1.818 TB
-------------------------------------------------------------
VD=Virtual Drive| DG=Drive Group|Rec=Recovery
Cac=CacheCade|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|dflt=Default|RO=Read Only|RW=Read
Write|HD=Hidden|TRANS=TransportRe
ady
B=Blocked|Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 11
PD LIST :
=======
--------------------------------------------------------------------------------
--------
EID:Slt DID State DG Size Intf Med SED PI
SeSz
Model
Sp Type
--------------------------------------------------------------------------------
--------
252:0 7 GHS - 5.457 TB
SATA HDD N N 512B
HUS726T6TALE600
U
-
252:1 3 Onln 1 5.457 TB SATA
HDD N N 512B
HUS726T6TALE600
U -
252:2 5 Onln 1 5.457 TB SATA
HDD N N 512B
HUS726T6TALE600
U -
252:3 6 UGood - 5.457 TB SATA HDD
N N 512B
HUS726T6TALE600 U
-
252:4 1 Onln 0 1.818 TB SATA
HDD N N 512B
ST2000NM0055-1V4104
U
-
252:5 2 Onln 0 1.818 TB SATA
HDD N N 512B
ST2000NM0055-1V4104
U -
252:6 9 UGood - 5.457 TB SATA HDD
N N 512B
HUS726T6TALE600
U -
252:7 8 UGood - 5.457 TB SATA HDD
N N 512B HUS726T6TALE600
U -
252:12 28 UGood - 446.625 GB SATA SSD N N
512B SAMSUNG
MZ7LH480HAHQ-00005
U
-
252:13 10 UGood - 5.457 TB SATA HDD N
N 512B
HUS726T6TALE600
U -
252:14 11 UGood - 5.457 TB SATA HDD N
N 512B
HUS726T6TALE600
U -
--------------------------------------------------------------------------------
--------
EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Sntze=Sanitize|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=UGood Unsupported|UGShld=UGood shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported|Rbld=Rebuild
Enclosures = 1
Enclosure LIST :
==============
------------------------------------------------------------------------
EID State Slots PD PS Fans TSs Alms SIM Port# ProdID
VendorSpecific
------------------------------------------------------------------------
252 OK 16 11 0
0 0 0 0 -
VirtualSES
------------------------------------------------------------------------
EID=Enclosure Device ID | PD=Physical drive count | PS=Power Supply count
TSs=Temperature sensor count | Alms=Alarm count | SIM=SIM Count |
ProdID=Product
ID
Cachevault_Info :
===============
------------------------------------
Model State Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 34C - 1980/00/00
------------------------------------
命令功能
创建、删除RAID。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id add vd rlevel[0|1|5|6|10|50|60] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [wt|*wb|awb] [nora|*ra] [Strip=<8|16|32|64|128|256|1024>] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid] |
创建RAID组 |
storcli64 /ccontroller_id/vraid_id del |
删除RAID组 |
*表示默认值。
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
rlevel |
要配置的RAID组级别 |
level可为0、1、5、6、10、50、60,数字分别代表对应的RAID组级别。 |
size |
要配置的RAID组容量 |
默认值为all,即所有成员盘的容量之和。 |
name |
要配置的RAID组名称 |
- |
drives |
要加入RAID组的硬盘 |
- |
startid-endid |
硬盘的起始和结束ID |
- |
slot_id |
硬盘ID |
- |
pdperarray |
子组中的硬盘数 创建RAID10、RAID50、RAID60时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。 |
- |
pdcache |
设置RAID的成员盘的Cache状态 |
l on l off l default |
pi |
使能数据保护 |
- |
wrcache |
设置RAID组的写Cache属性,完整的命令为wrcache=wt|wb|awb,这里“wrcache=”可省略 |
l wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”模式。 |
rdcache |
设置RAID组的读Cache属性,完整的命令为rdcache=ra|nora,这里“rdcache=”可省略。 |
l ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。 l nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。 |
Strip |
设置RAID组条带大小 |
MR卡:64, 128, 256, 512, 1024 iMR卡:只能为64 单位为KB |
EmulationType |
控制逻辑盘在OS中上报的扇区 |
l 0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l 1: Disable,即使成员盘中是512e类型的硬盘,扇区大小也显示为512n。 l 2:Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Spares |
指定RAID组的热备盘 |
- |
raid_id |
要删除的RAID组的ID |
- |
l 以上涉及的各个ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。
l 当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid。
使用指南
无
使用实例
# 创建RAID 0。
[root@localhost ~]# ./storcli64 /c0
add vd r0 size=100GB drives=64:9,10
Controller = 0
Status = Success
Description = Add VD Succeeded
# 删除RAID。
domino:~# ./storcli64 /c0/v0 del
Controller = 0
Status = Success
Description = Delete VD Succeeded
命令功能
查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。
命令格式
storcli64 /ccontroller_id show
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all
storcli64 /ccontroller_id/vvd_id show all
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID |
enclosure_id |
硬盘所在Enclosure的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡连接的硬盘背板的ID |
slot_id |
物理硬盘槽位编号 |
可以将该参数设置为all,表示查询所有硬盘的ID |
vd_id |
虚拟磁盘ID |
可以为all,表示查询所有虚拟磁盘信息。 |
使用指南
无
使用实例
# 查询VD 0的信息。
domino:~# ./storcli64 /c0/v0 show
Controller = 0
Status = Success
Description = None
Virtual Drives :
==============
---------------------------------------------------------
DG/VD TYPE State Access Consist Cache sCC Size Name
---------------------------------------------------------
0/0 RAID1 Optl RW Yes RWBD - 100.0 GB
---------------------------------------------------------
Cac=CacheCad|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded
Optl=Optimal|RO=Read
OnlyRW=Read Write|HD=Hidden|B=Blocked|Consist=Consistent|AWB=Always
WriteBack|WT=WriteThrough|
C=Cached IOID=Direct IO|sCC=Scheduled Check Consistency
命令功能
查询和设置系统巡检的相关参数。
命令格式
storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number
storcli64 /ccontroller_id set patrolread delay=delaytime
storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}
storcli64 /ccontroller_id show patrolread
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
系统巡检起始时间 |
例如:2016/07/15 23 说明 起始时间单位为“时”。 |
number |
可同时巡检的硬盘数量 |
– |
delaytime |
系统巡检周期 |
单位为hour。 |
查看RAID控制卡ID的方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。
domino:~# ./storcli64 /c0 set
patrolread starttime=2016/07/15 23 maxconcurrentpd=2
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
PR Starttime 2016/07/15 23:00:00
PR MaxConcurrentPd 2
---------------------------------------
# 使能patrolread并设置为自动模式。
domino:~# ./storcli64 /c0 set
patrolread=on mode=auto
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
Patrol Read Mode auto
---------------------------------------
# 查询patrolread信息。
domino:~# ./storcli64 /c0 show
patrolread
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------------------------
Ctrl_Prop Value
--------------------------------------------
PR Mode 2016/07/15 23:00:00
PR Execution Delay
PR iterations completed 0
PR Next Start time 07/16/2016,00:00:00
PR on
SSD
Disabled
PR Current State Stopped
--------------------------------------------
命令功能
查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。
命令格式
storcli64 /ccontroller_id show spinupdelay
storcli64 /ccontroller_id show spinupdrivecount
storcli64 /ccontroller_id set spinupdelay=time
storcli64 /ccontroller_id set spinupdrivecount=count
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
每组起转硬盘间的时间间隔 |
默认为2,单位为s。 |
count |
上电时允许同时起转的硬盘数量 |
默认为4。 |
查看RAID控制卡ID的方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
建议保持默认配置。
使用实例
# 查询RAID控制卡Spinup参数。
[root@localhost ~]# ./storcli64 /c0
show spinupdelay
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
[root@localhost ~]# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 2
--------------------------
# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。
domino:~# ./storcli64 /c0 set
spinupdelay=20
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 20 second(s)
--------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 5
--------------------------
命令功能
设置物理硬盘数据擦除模式,查询擦除进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
mode |
数据擦除模式 |
l simple:对硬盘进行一轮擦除动作。 l normal:对硬盘进行三轮擦除动作。 l thorough:对硬盘进行九轮擦除动作。 |
以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。
domino:~# ./storcli64 /c0/e252/s3
start erase simple
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.
命令功能
暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。
命令格式
storcli64 /ccontroller_id/vraid_id action bgi
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
action |
后台初始化的操作 |
l show:查看后台初始化进度 l pause:暂停后台初始化 l resume:继续后台初始化 l stop:停止后台初始化 |
以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查看后台初始化进度。
[root@localhost ~]# ./storcli64
/c0/v0 show bgi
Controller = 0
Status = Success
Description = Noe
VD Operation Status :
===================
------------------------------------------------------
VD Operation Progress% Staus Estimated Time Left
------------------------------------------------------
0
BGI
3 In progress 53 Minutes
------------------------------------------------------
命令功能
查询和设置Cache的刷新周期。
命令格式
storcli64 /ccontroller_id show cacheflushint
storcli64 /ccontroller_id set cacheflushint time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
time |
Cache的刷新周期 |
单位为s |
查看RAID控制卡ID的方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Cache的刷新周期为“10”。
domino:~# ./storcli64 /c0 set
cacheflushint=10
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10 sec
---------------------------
# 查询Cache的刷新周期。
domino:~# ./storcli64 /c0 show
cacheflushint
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10
---------------------------
命令功能
设置物理硬盘初始化功能,查询初始化进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
action |
要执行的操作 |
l show:查看初始化进度 l start:开始初始化 l stop:结束初始化 |
以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 初始化slot3硬盘,并查询初始化进度。
[root@localhost ~]# ./storcli64
/c0/e64/s3 start initialization
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
[root@localhost ~]# ./storcli64 /c0/e64/s3 show initialization
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e64/s3 0 In progress 0
Seconds
-----------------------------------------------------
命令功能
开始、暂停、继续、停止RAID重构,并查询进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action rebuild
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
action |
要执行的操作 |
l start:开始重构 l show:查看重构进度 l pause:暂停重构 l resume:继续重构 l stop:停止重构 |
查看RAID控制卡ID的方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 手动开始重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
# 查看硬盘当前重构状态。
[root@localhost ~]# ./storcli64
/c0/e70/s7 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e70/s7 5 In progress 26 Minutes
-----------------------------------------------------
# 暂停硬盘重构进程。
[root@localhost ~]# ./storcli64
/c0/e70/s7 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Succeeded.
# 继续重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 resume rebuild
Controller = 0
Status = Success
Description = Resume Drive Rebuild Succeeded.
# 停止重构。
[root@localhost ~]# ./storcli64
/c0/e70/s7 stop rebuild
Controller = 0
Status = Success
Description = Stop Drive Rebuild Succeeded.
命令功能
开始、暂停、继续、停止回拷,并查询进度。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id start copyback target=target_enclosure_id:target_slot_id |
开始回拷。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id action copyback |
暂停、继续、查看、停止回拷。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
target_enclosure_id |
执行回拷的目标硬盘所在Enclosure的ID。 |
- |
target_slot_id |
执行回拷的目标物理硬盘槽位编号。 |
- |
action |
要执行的操作 |
l show:查看回拷进度 l pause:暂停回拷 l resume:继续回拷 l stop:停止回拷 |
查看RAID控制卡ID的方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 手动开始回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s7 start copyback target=70:3
Controller = 0
Status = Success
Description = Start Drive Copyback Succeeded.
# 查看硬盘当前回拷状态。
[root@localhost ~]# ./storcli64 /c0/e70/s3
show copyback
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
-----------------------------------------------------
Drive-ID Progress% Status Estimated
Time Left
-----------------------------------------------------
/c0/e70/s3 17 In progress 16 Minutes
-----------------------------------------------------
# 暂停硬盘回拷进程。
[root@localhost ~]# ./storcli64
/c0/e70/s3 pause copyback
Controller = 0
Status = Success
Description = Pause Drive Copyback Succeeded.
# 继续回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s3 resume copyback
Controller = 0
Status = Success
Description = Resume Drive Copyback Succeeded.
# 停止回拷。
[root@localhost ~]# ./storcli64
/c0/e70/s3 stop copyback
Controller = 0
Status = Success
Description = Stop Drive Copyback Succeeded.
命令功能
查询、设置Smart扫描周期。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id set smartpollinterval=value |
设置Smart扫描周期。 |
storcli64 /ccontroller_id show smartpollinterval |
查询Smart扫描周期。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
value |
Smart扫描周期 |
单位为s。 |
查看RAID控制卡ID的方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Smart扫描周期为“60s”。
domino:~# ./storcli64 /c0 set
smartpollinterval=60
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------
命令功能
查询、设置一致性检查参数。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id[/vvd_id]show cc |
查询一致性检查参数。 |
storcli64 /ccontroller_id/vvd_id start cc force |
开始进行一致性检查。 |
storcli64 /ccontroller_id/vvd_id action cc |
暂停/停止/继续执行一致性检查。 |
storcli64 /ccontroller_id set consistencycheck|cc=[off|seq|conc] [delay=value] starttime=time excludevd=evd_id |
设置一致性自动检查参数。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
vd_id |
要操作的RAID的ID |
- |
action |
要执行的操作 |
l pause:暂停 l resume:继续执行 l stop:停止 |
cc |
将一致性检查设置为顺序模式或并行模式,或关闭一致性检查。 |
l off:关闭一致性检查 l seq:顺序模式 l conc:并行模式 |
value |
一致性检查周期 |
- |
time |
一致性检查起始时间 |
例如:2016/07/14 22 说明 起始时间单位为“时”。 |
evd_id |
不进行一致性检查的虚拟磁盘ID |
- |
以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
show命令中不带/vvd_id时,表示查询自动CC参数。
show命令中带/vvd_id时,表示查询CC进度。
使用实例
# 设置一致性自动检查参数。
domino:~# ./storcli64 /c0 set
cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------
Ctrl_Prop Value
------------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2016/07/14 22:00:00
CC ExcludeVD(0) Success
------------------------------------
# 查询CC进度。
domino:~# ./storcli64 /c0/v1 show
cc
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimited Time Left
-----------------------------------------------------------
0 CC - Not in progress -
-----------------------------------------------------------
命令功能
设置全局热备盘和局部热备盘。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive |
设置全局热备盘。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=<N|0,1,2..>] |
设置局部热备盘。 |
storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive |
删除热备盘。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
enclosure_id |
硬盘所在Enclosure的ID |
- |
slot_id |
物理硬盘槽位编号 |
- |
dgs |
硬盘组的ID |
l 不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘 l 0,1,2..:硬盘组ID |
以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置slot 3硬盘为全局热备盘。
domino:~# ./storcli64 /c0/e252/s3
add hotsparedrive
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
# 设置slot 3硬盘为vd0的局部热备盘。
domino:~# ./storcli64 /c0/e252/s3
add hotsparedrive dgs=0
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
命令功能
设置虚拟磁盘或物理硬盘为启动项。
命令格式
storcli64 /ccontroller_id/vvd_id set bootdrive=on
storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
vd_id |
待设置的虚拟磁盘的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置VD0为启动项。
[root@localhost ~]# ./storcli64
/c0/v0 set bootdrive=on
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
-----------------------------------------
VD Property Value Status ErrCd ErrMsg
-----------------------------------------
0 Boot Drive On Success 0 -
-----------------------------------------
[root@localhost ~]#
# 设置slot 7硬盘为启动项。
omino:~# ./storcli64 /c0/e252/s7
set bootdrive=on
Controller = 0
Status = Success
Description = Noe
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
BootDrive PD:252_7
-------------------
命令功能
设置硬盘状态。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
state |
要设置的硬盘状态 |
l online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。 l offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。 l jbod:通过该参数可以将硬盘设置为直通硬盘。 l good: − ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置; − JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。 l good:将硬盘设为空闲盘 |
force |
强制设置硬盘状态,为可选参数。 如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force。 |
- |
以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。
domino:~# ./storcli64 /c0/e0/s1
set good
Controller = 0
Status = Success
Description = Set Drive Good Succeeded.
# 设置slot 7硬盘为直通盘。
domino:~# ./storcli64 /c0/e252/s7
set JBOD
Controller = 0
Status = Success
Description = Set Drive JBOD Succeeded.
命令功能
设置RAID的读写策略。
命令格式
storcli64 /ccontroller_id/vraid_id set accesspolicy=mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
RAID读写策略 |
l rw:可读可写 l blocked:禁止访问 l ro:只读访问 |
以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置RAID读写策略为“rw”。
[root@localhost ~]# ./storcli64
/c0/v0 set accesspolicy=rw
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
----------------------------------------
VD Property Value Status ErrCd ErrMsg
----------------------------------------
0 AccPolicy RW Success 0 -
----------------------------------------
命令功能
设置RAID组成员盘的Cache状态。
命令格式
storcli64 /ccontroller_id/vvd_id set pdcache=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
- |
vd_id |
RAID组的ID |
- |
action |
要执行的操作 |
l on:打开硬盘Cache l off:关闭硬盘Cache l default:将硬盘Cache设置为默认状态 |
以上涉及的各个ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 打开ID为0的RAID组的硬盘Cache。
./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 PdCac On
Success 0 -
---------------------------------------
命令功能
设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。
命令格式
storcli64 /ccontroller_id set eghs eug=state
storcli64 /ccontroller_id set eghs smarter=state
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
state |
紧急热备功能的启用状态 |
l on:启用 l off:禁用 |
查看RAID控制卡ID的方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。
[root@localhost ~]# ./storcli64 /c0
set eghs eug=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------
Ctrl_Prop Value
------------------
EmergencyUG ON
------------------
[root@localhost ~]# ./storcli64 /c0 set eghs smarter=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
EmergencySmarter ON
-----------------------
命令功能
设置空闲硬盘和热备盘的省电模式。
命令格式
storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID。 |
– |
state |
省电模式的启用状态。 |
l on:启用 l off:禁用 |
disktype |
硬盘类型。 |
l 1:空闲硬盘 l 2:热备盘 |
time |
等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。 |
单位为minutes。 |
查看RAID控制卡ID的方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置空闲硬盘的省电模式。
[root@localhost ~]# ./storcli64 /c0
set ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------
Ctrl_Prop Value
------------------------
SpnDwnUncDrv Enabled
SpnDwnTm 30 minutes
------------------------
命令功能
设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。
命令格式
storcli64 /ccontroller_id set action=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
action |
要设置的项目 |
l bgirate:后台初始化速率 l ccrate:一致性校验速率 l prrate:硬盘巡检速率 l rebuildrate:RAID重构速率 l reconrate:RAID扩容和迁移速率 |
value |
后台任务资源占用率 |
1~100 |
查看RAID控制卡ID的方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置硬盘巡检速率为“30%”。
[root@localhost ~]# ./storcli64
/c0 set prrate=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
Patrol Read Rate 30%
-----------------------
命令功能
设置控制卡BIOS在检测到异常时停止继续启动的功能。
命令格式
storcli64 /ccontroller_id set bios mode=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
action |
要执行的操作 |
l soe:控制卡BIOS在检测到异常时停止启动 l ie:忽略检测到的异常 |
查看RAID控制卡ID的方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启Stop on error功能。
[root@localhost ~]# ./storcli64 /c0
set bios mode=soe
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------
命令功能
设置RAID组的Cache读写策略。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/vraid_id set wrcache=wrmode |
设置Cache写策略 |
storcli64 /ccontroller_id/vraid_id set rdcache=rdmode |
设置Cache读策略 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
raid_id |
待设置的RAID组的ID |
可以为all,表示所有RAID。 |
wrmode |
设置Cache写策略 |
l wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”策略。 |
rdmode |
设置Cache读策略 |
l ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。 l nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。 |
以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Cache读写模式为“wt”。
[root@localhost ~]# ./storcli64
/c0/v0 set wrcache=wt
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 wrCache WT Success 0 -
---------------------------------------
命令功能
设置RAID前台初始化模式。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id/vraid_id start mode [Force] |
开始进行RAID前台初始化。 |
storcli64 /ccontroller_id/vraid_id stop init |
停止RAID前台初始化。 |
storcli64 /ccontroller_id/vraid_id show init |
查询RAID前台初始化进度。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
- |
raid_id |
待设置的RAID的ID |
- |
mode |
前台初始化模式 |
l init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。 l init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。 |
Force |
如果RAID组有用户数据,必须增加该参数进行初始化。 |
- |
以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 快速初始化RAID。
[root@localhost ~]# ./storcli64
/c0/v4 start init
Controller = 0
Status = Success
Description = Start INIT Operation Success
命令功能
点亮和熄灭指定硬盘的定位指示灯。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。 |
slot_id |
物理硬盘槽位编号 |
可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。 |
action |
要执行的操作 |
l start:点亮硬盘的定位指示灯。 l stop:熄灭硬盘的定位指示灯。 |
以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 点亮slot 7硬盘的定位指示灯。
domino:~# ./storcli64 /c0/e252/s7
start locate
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
命令格式
storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
vd_id |
要扩容的RAID的ID |
– |
capacity |
扩容后的容量 |
– |
expandarray |
当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。 |
– |
以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查询VD的可扩展容量。
[root@localhost ~]# storcli64 /c0/v1
show expansion
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
EXPANSION INFORMATION :
=====================
--------------------------------------------
VD Size OCE NoArrExp WithArrExp Status
--------------------------------------------
1 10.000 GB Y 3.627 TB 5.447 TB -
--------------------------------------------
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion
VD=Virtual Drive | NoArrExp - Without Array Expansion
如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。
# 将VD0的容量扩大“200GB”。
domino:~# ./storcli64 /c0/v0
expand size=200GB
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
0 100.0 GB 457.861 GB 200.0 GB 201.458 GB 44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %
RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
当增加新盘后,可进行RAID级别迁移。
命令格式
storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
vd_id |
要操作的RAID的ID |
– |
slot_id |
要加入RAID的新硬盘的槽位号 |
– |
level |
增加硬盘后RAID的级别 |
l 与原RAID级别相同时,该命令为扩大RAID容量。 l 与原RAID级别不同时,该命令为RAID级别迁移。 |
以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 在RAID 0中增加slot 2硬盘扩容。
domino:~# ./storcli64 /c0/v0 start
migrate type=r0 option=add drives=252:2
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 13 Minutes
-------------------------------------------------------
# 单盘RAID 0加盘迁移至RAID 1。
domino:~# ./storcli64 /c0/v0 start
migrate type=r1 option=add drives=252:3
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 14 Minutes
-------------------------------------------------------
命令功能
查询和清除PreservedCache数据。
命令格式
storcli64 /ccontroller_id show preservedcache
storcli64 /ccontroller_id/vvd_id delete preservedcache force
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
vd_id |
要操作的RAID的ID |
– |
以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查询PreservedCache。
domino:~# ./storcli64 /c0 show
preservedcache
Controller = 0
Status = Success
Description = No Virtual Drive has Preserved Cache Data.
命令功能
收集和清除RAID控制卡的日志。
命令格式
命令 |
说明 |
storcli64 /ccontroller_id show termlog [type=logtype] [logfile[=filename]] |
收集RAID控制卡的日志。 |
storcli64 /ccontroller_id delete termlog |
删除RAID控制卡的日志。 |
storcli64 /ccontroller_id show alilog [logfile[=filename]] |
收集控制卡属性信息、TTY日志和事件到指定文件。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID。 |
- |
logtype |
查询日志类型。 |
l config:查询TTY BBU缓存设置。 l content:查询日志信息。 缺省值:content。 |
filename |
文件名称,将保存日志到此文件。 |
可自定义文件名称,缺省时将默认保存至“StorSAS.log”文件中。 |
查询RAID控制卡ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 收集RAID控制卡的日志。
[root@localhost idriver]# ./storcli64
/c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19 6:48:11: C0:TTY History buffer cleared
Controller = 0
Status = Success
Description = None
# 删除RAID控制卡的日志。
[root@localhost idriver]# ./storcli64
/c0 delete termlog
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------------------
Ctrl Method Result
----------------------------
0 Delete Termlog deleted
----------------------------
命令功能
指导用户查看、导入或者清除RAID控制卡的外部配置。
命令格式
storcli64 /ccontroller_id/fall import preview
storcli64 /ccontroller_id/fall import
storcli64 /ccontroller_id/fall delete
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
使用指南
无
使用实例
# 查看RAID控制卡的外部配置。
[root@localhost ~]# ./storcli64
/c0/fall import preview
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
FOREIGN PREVIEW :
===============
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Total foreign drive groups = 0
# 删除RAID控制卡的外部配置。
[root@localhost ~]# ./storcli64
/c0/fall delete
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration
命令功能
介绍Snapdump相关操作。
命令格式
命令格式 |
说明 |
storcli64 /ccontroller_id show snapdump |
查询snapdump功能是否打开,是否有自动生成的snapdump文件。 |
storcli64 /ccontroller_id get snapdump id=all |
获取历史生成的snapdump文件。 |
storcli64 /ccontroller_id get snapdump |
获取历史生成的snapdump文件和当前再生成一个snapdump文件。 |
storcli64 /ccontroller_id set snapdump state=on|off |
打开和关闭snapdump功能。 |
storcli64 /ccontroller_id delete snapdump force |
删除历史snapdump日志功能。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID。 |
state=on|off |
Snapdump状态 |
on为开启,off为关闭。 |
使用指南
l Snapdump文件是一个日志文件,在一些RAID控制卡异常场景下可以自动生成的日志,也可以主动获取当前RAID控制卡的snapdump日志。
l 使用前可以先查询snapdump功能是否打开,是否有自动生成的snapdump文件,再去收集snapdump。
l 获取历史生成的snapdump文件和当前再生成一个snapdump文件会影响业务,建议离线使用。
l 打开和关闭snapdump功能,如果无法打开注意看提示,请确认当前RAID控制卡固件版本是否支持。
l 收集snapdump文件在当前命令执行目录下,文件格式为snapdump_**************.zip。
使用实例
#查询snapdump功能是否打开,是否有自动生成的snapdump文件。
[root@localhost ~]# storcli64 /c0
show snapdump
Controller = 0
Status = Success
Description = None
SnapDump Properties :
===================
----------------------------------
Ctrl_Prop
Value
----------------------------------
Snapdump
ON
Snapdump Save Count N/A
Snapdump Delay OCR 15
Snapdump properties Read-Write
Snapdump Current Count 2
----------------------------------
SnapDump Details :
================
----------------------------------------------
ID Snapdump Size Snapdump time OnDemand
----------------------------------------------
0 2649396 08-06-2021 07:23:43 Yes
1 2070406 08-07-2021 06:59:24 Yes
----------------------------------------------
#获取历史生成的snapdump文件。
[root@localhost ~]# storcli64 /c0 get
snapdump id=all
Controller = 0
Status = Success
Description = None
#获取历史生成的snapdump文件和当前再生成一个snapdump文件。
[root@localhost ~]# storcli64 /c0 get
snapdump
Controller = 0
Status = Success
Description = Download Support Log
#打开和关闭snapdump功能。
打开:
[root@localhost ~]# storcli64 /c0 set
snapdump state=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
Set Snapdump on
-------------------
关闭:
[root@localhost ~]# storcli64 /c0 set
snapdump state=off
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
Set Snapdump off
-------------------
#删除历史snapdump日志功能。
[root@localhost ~]# storcli64 /c0
delete snapdump force
Controller = 0
Status = Success
Description = Snapdump delete
命令功能
升级控制卡FW。
命令格式
命令格式 |
说明 |
storcli64 /cController_ID download file=xxx.rom [noverchk] |
升级控制卡FW。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡ID |
- |
xxx.rom |
固件包的名称 |
- |
使用指南
l 使用“noverchk”参数时将不检查固件包,降级版本时必须使用此参数。
l 升级完成后,需重新上下电服务器使固件包生效。
使用实例
#升级控制卡FW。
[root@localhost fw]# ./storcli64_arm
/c0 download file =FW4.rom noverchk
Download Completed.
Flashing image to adapter...
Controller = 0
Status = Success
Description = F/W Flash Completed.Please reboot the system for the changes to
take effect.
关于本章
主要介绍SP686C RAID控制卡的外观、特性、以及配置方法。
涉及的截图以1.3.2.1 Firmware版本为例,不同Firmware版本的控制卡界面有差异,具体请以实际为准。
SP686C有如下5个规格:
l SP686C-M-16i 2G
l SP686C-M-16i 4G
l SP686C-MH-32i 4G
l SP686C-M-40i 2G
l SP686C-M-40i 4G
对于SP686C RAID控制卡的通用描述,不做产品名称区分。对于不同规格间有差异的内容描述,做产品名称区分。
SP686C RAID控制卡是12Gbit/s SAS控制卡,并最大支持PCIe 4.0 ×16/×8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。
SP686C RAID控制卡用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。
SP686C RAID控制卡包含以下规格,如表21-1所示。
板卡名称 |
SP686C-M-16i 2G |
SP686C-M-16i 4G |
SP686C-MH-32i 4G |
SP686C-M-40i 2G |
SP686C-M-40i 4G |
PCIe接口a |
PCIe 4.0 ×8 |
PCIe 4.0 ×8 |
PCIe 4.0 ×16 |
PCIe 4.0 ×8 |
PCIe 4.0 ×8 |
Cache容量 |
2GB |
4GB |
4GB |
2GB |
4GB |
最大直连SAS/SATA盘数量 |
16 |
16 |
32 |
40 |
40 |
支持的RAID组最大数量 |
16 |
16 |
32 |
40 |
40 |
单RAID组支持的最大硬盘数量 |
16 |
16 |
32 |
40 |
40 |
单RAID组最大创建逻辑盘数量 |
16 |
16 |
16 |
16 |
16 |
a:所有控制卡的连接器均为PCIe ×16,SP686C-M-16i 2G、SP686C-M-16i 4G、SP686C-M-40i 2G和SP686C-M-40i 4G实际可支持的最大Lane数为×8,SP686C-MH-32i 4G实际可支持的最大Lane数为×16。 |
SP686C RAID控制卡是PCIe标卡,如图21-1所示。
1 |
散热器 |
2 |
超级电容接口 |
3 |
Slimline接口(共3个,从上到下分别为Port1、Port2、Port3) |
4 |
LP Slimline接口(共2个,从上到下分别为Port4、Port5) |
5 |
PCIe连接器 |
6 |
电源指示灯 |
7 |
写入/读出NAND Flash的状态指示灯 |
8 |
系统心跳指示灯 |
9 |
系统错误指示灯 |
- |
- |
不同规格间Slimline接口和LP Slimline接口数量有差异。
SP686C RAID控制卡单板指示灯说明如表21-2所示。
指示灯 |
颜色 |
说明 |
电源指示灯 |
绿色 |
l 亮:电源正常。 l 灭:电源关闭或异常。 |
写入/读出NAND Flash的状态指示灯 |
绿色 |
l 亮:控制卡当前处于写入/读出NAND Flash的状态。 l 灭:控制卡当前不处于写入/读出NAND Flash的状态。 |
系统心跳指示灯 |
绿色 |
l 灯以2s周期闪烁:控制卡正在工作。 l 灯灭:控制卡未开始运行或FW运行异常。 |
系统错误指示灯 |
红色 |
l 亮:系统运行异常。 l 灭:系统运行正常。 |
控制卡可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问硬盘。
控制卡支持同时以虚拟磁盘和裸盘模式使用硬盘。
SP686C RAID控制卡支持的硬盘、虚拟磁盘、硬盘组数量分别为:
l 最多支持40个硬盘。
该数量为热备盘,空闲盘,裸盘与加入RAID组的硬盘数量之和。
l 最多支持127个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
l 最多支持40个硬盘组(即配置界面中看到的“RAID Group”),每个硬盘组最多支持40个硬盘。
l 每个硬盘组(即配置界面中看到的“RAID Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
SP686C RAID控制卡支持的RAID类型及对应的硬盘个数如表21-3所示。
RAID级别 |
支持硬盘数 |
支持子组数 |
子组支持硬盘数 |
允许坏盘数 |
RAID 0 |
1~30a |
不涉及 |
不涉及 |
0 |
RAID 1 |
2 |
1 |
||
RAID 5 |
3~30a |
1 |
||
RAID 6 |
4~30a |
2 |
||
RAID 10 |
4~30(偶数)b |
2~15个RAID 1 |
2 |
子组数 |
RAID 50 |
6~32(SSD)/6~40(HDD)b |
2~8个RAID 5 |
3~30 |
子组数 |
RAID 60 |
8~32(SSD)/8~40(HDD)b |
2~8个RAID 6 |
4~30/32 |
子组数×2 |
a:当条带大小设置为1024KB时,RAID 0/5/6支持最大硬盘数量为16。 b:当条带大小设置为1024KB时,RAID 10/50/60支持最大硬盘数量为20。 |
l 子组数:子RAID的个数。例如RAID 10由两个RAID 1组成,则子组数为2。
l RAID 10、RAID 50每个子组中最多允许1个坏盘。
l RAID 60每个子组中最多允许2个坏盘。
l RAID10、50、60包含的总硬盘数由子组数和子组支持的硬盘数共同决定。
SP686C RAID控制卡支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:
l Read:读策略选择“Ahead”模式,控制卡在读取所需数据时,会预读取部分数据放在Cache中,从而提高读取速度。
l Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,控制卡就向HOST发出数据传输完成的信号。当写入的数据积累到一定程度,控制卡才将数据刷新到硬盘。
为了保证数据的一致性要求,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。
SP686C RAID提供了多种相应的初始化方式:
l 快速初始化:Firmware只要把VD的前后部分空间进行全写0操作,然后切换为后台初始化。
l 前台初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Formatting”。
l 后台初始化:初始化过程在后台进行,目的是使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。
− 对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。
− 对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。
l 一致性校验和后台初始化通常会对前台I/O性能造成一定损失,直至该操作完成。
l 一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。
l 前台初始化完成之前不会上报盘符给OS。
当RAID组中出现故障盘时,可以通过控制卡的数据重构功能,将故障盘中的数据在新盘上重构。
数据重构功能仅适用于具有冗余功能的RAID 1、5、10、6、50、60。
l 控制卡支持热备盘自动重构故障成员盘数据。
l 当RAID组配置了可用的热备盘时,在成员盘故障的情况下,热备盘自动替换故障盘,进行数据重构。
l 当RAID组没有可用的热备盘时,只有更换新盘后才可进行数据重构。
l 当热备盘开始数据重构后,故障的成员盘就被标注为可移除状态。
l 如果在数据重构过程中系统下电,那么在系统重新启动后,控制卡会继续执行数据重构的任务。
检测到硬盘预失效时,将数据提前拷贝到热备盘上,避免磁盘故障导致RAID组降级,提高系统可靠性。
具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。
l 不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:
l RAID组状态保持Optimal不变。
l 热备盘状态由Online变为Hot Spare。
l 新加入硬盘状态由Copybacking变为Online。
l 可使用命令行工具开启或关闭回拷,具体请参见21.7.2.22 查询和设置控制卡回拷开关。
l 若回拷时重启服务器,进度将保存。
针对有冗余功能的RAID 1、5、6、10、50、60,RAID控制卡可以对RAID组的硬盘条带进行一致性校验,对硬盘条带数据进行检验和计算,并与对应的冗余数据进行比较。当自动修复开启时,如果发现有条带不一致的情况,会尝试做自动修复并保存错误信息。
由于RAID 0不具备冗余性,因此不支持一致校验。
当RAID组降级时,不支持一致性校验。
SP686C RAID控制卡的热备功能分为三种:
l 热备盘
l 紧急热备盘
l 热备槽位
设置热备功能请参见0管理热备盘。
l 热备盘容量需大于等于成员盘最小容量。
l 机械盘与固态盘不能互相作为热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须是SATA硬盘或SAS硬盘,容量不小于RAID成员盘最小容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
l 用作热备盘的硬盘数据将会丢失。
l 热备盘优先级:局部热备>全局热备>热备槽位>紧急热备
热备盘
对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l global hotspare:即全局热备盘,为控制卡上所有已配置的RAID所共有,1块控制卡中可配置1个或多个全局热备盘。当任意RAID组硬盘故障时,全局热备盘均可自动替代。
l local hotspare:即局部热备盘,为控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或2个局部热备盘。当指定RAID内的硬盘故障时,局部热备盘可自动替换。
紧急热备
使能控制卡的紧急热备功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该控制卡下的与故障盘同类型的空闲盘会自动进行热备盘替换,避免数据丢失。
l 紧急热备要求用于备份的空闲盘容量大于等于成员盘容量。
l 在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。
l 固件版本1.3.11.8及之前紧急备份的硬盘生效次序:DID号最小的相同介质类型硬盘(包含相同接口和不同接口)。
l 固件版本1.3.11.13及之后紧急备份的硬盘生效次序:DID号最小的相同接口和相同介质类型硬盘 > 不同接口相同介质类型硬盘。
紧急热备有两种情况,对应了两种设置:
l 当成员盘fault时,空闲盘替代成员盘作为紧急备份。
l 当检测到成员盘prefail时,空闲盘作为紧急热备盘替代成员盘。
热备槽位
通过设置热备槽位,热备槽位的硬盘将作为全局热备盘。当任意RAID组硬盘故障时,热备槽位内硬盘均可自动替代。
在RAID未占用成员硬盘全部容量时,SP686C RAID可通过调整VD的可用空间,扩大VD容量。
具体操作请参见21.4.5 扩展VD可用容量。
控制卡支持安全擦除虚拟磁盘和硬盘数据,支持擦除硬盘数据。
安全擦除数据
安全擦除数据功能需硬盘支持。
安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。
安全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。
控制卡支持安全擦除硬盘和虚拟磁盘数据
l 控制卡提供了三种级别的虚拟磁盘安全擦除模式:
− Simple:仅对虚拟磁盘进行一轮擦除动作。
− Normal:对虚拟磁盘进行三轮擦除动作。
− Thorough:对虚拟磁盘进行九轮擦除动作。
l 控制卡提供了三种级别的硬盘安全擦除模式:
− cryptoerase:执行加密擦除操作。
− overwrite:执行覆盖写0操作。
− blockerase: 执行块擦除操作。
擦除硬盘数据
控制卡提供了三种硬盘Erase擦除模式:
l Simple:仅对硬盘进行一轮擦除动作。
l Normal:对硬盘进行三轮擦除动作。
l Thorough:对硬盘进行九轮擦除动作。
硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。
硬盘巡检可根据硬盘I/O调整用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。
硬盘巡检不能在参与以下任何操作的任何硬盘上运行:
l RAID热备修复
l 初始化
l 仅RAID成员盘(除RAID 0外)支持硬盘巡检。
l SSD不支持硬盘巡检。
一种将硬盘与物理槽位解耦的技术。通过该技术即使硬盘所在槽位发生改变,硬盘中的数据仍能被正确识别。
如果控制卡检测到物理硬盘包含RAID配置信息,即识别为外部配置。可执行导入操作将该外部配置在当前控制卡环境中生效,实现RAID配置迁移。
l 建议将RAID组所有硬盘都接入到控制卡下后,再执行导入外来配置。
l 如果RAID组所有硬盘都被拔出,并且不会在当前控制卡下继续使用,建议删除该RAID组。
l 如果RAID组在本控制卡上使用过,然后通过外来配置导入到其它控制卡下使用。当需要再次导入到本控制卡下,需要先删除本控制卡原来残留的对应RAID组,否则可能配置信息冲突。
开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。
为了提升整机的高读写性能和高速缓存中数据的安全,可为SP686C RAID控制卡配置超级电容。
超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将高速缓存中的数据写入超级电容模块中的NAND Flash中。
l 控制卡分为配置超级电容与不配置超级电容两种形态,只有配置超级电容的控制卡支持数据掉电保护功能。
l 超级电容不支持热插拔。
超级电容自学习
控制卡通过三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。
系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况称之为写洞。
将写失败的数据或日志备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:
l RAID 1、RAID 5、RAID 6、RAID 10、RAID 50,RAID 60支持写洞保护,写洞日志都保存在掉电保护区,不需要开关控制。
l RAID 6掉线一块盘时可做写洞保护。
l RAID 10、RAID 50、RAID 60部分降级时可做写洞保护,按子组恢复数据。完全降级时不可做写洞保护。
l 不对RAID 0做写洞保护。
SMART即自动检测分析及报告技术,可以对硬盘内部电路以及盘片表面媒介材料等进行监测,当SMART监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据受到损失。
控制卡支持周期性对其管理的硬盘进行SMART扫描并判断硬盘状态是否正常,默认3600s。
热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。
l 请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘数据丢失。
l 插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。
l 人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为空闲盘后,参考21.4.11 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。
控制卡支持对硬盘进行响应时间统计,对于RAID组下响应时间超出范围的硬盘识别为慢盘。并支持对识别的慢盘,在满足RAID冗余的条件下进行踢盘,避免单个硬盘影响整个RAID组的性能。
l 对识别的慢盘,在满足RAID冗余的条件下进行踢盘,裸盘不会踢盘。
l 对慢盘的识别包含L1/L2/L3三个级别,当慢盘达到L3级别并满足一定条件才会踢盘。
l 踢盘周期内报多个慢盘,超过设置踢盘数量上限后不会踢盘。
l 被踢掉的慢盘会被标记为Fault。
设置方法请参见21.7.2.39 查询和设置慢盘检测和21.7.2.45 查询和设置慢盘踢盘参数。
关于SP686C RAID控制卡的所有配置,都需要重启服务器进入配置界面进行操作。
若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用hiraidadm命令行工具。
对系统的影响
进入BIOS配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器。
步骤 2 重启过程中,当出现如图21-2所示界面时,按“Delete”,进入输入密码界面。
步骤 3 输入密码并按“Enter”。
进入如图21-3所示界面。
步骤 4 可选: 通过“←”或“→ ”进入“Advanced”页签,按“↓”至底部,如图21-4所示。
步骤 5 选择“HUAWEI <SP686C-xxx> Configuration <RAID> - x:x:x” ,按“Enter”。
进入SP686C主界面,如图21-5所示,界面参数如表21-4所示。
参数 |
说明 |
Controller Management |
控制卡管理。 |
Virtual Drive Management |
虚拟磁盘管理。 |
Physical Drive Management |
物理硬盘管理。 |
Hardware Components |
硬件组件管理。 |
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l SP686C RAID控制卡支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同介质类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 不支持使用SED盘创建RAID组。
l 各RAID级别所需的硬盘数请参见21.2.1 多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
l 仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见21.4.7 设置硬盘属性。
操作步骤
登录管理界面。具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在图21-5中选择“Virtual Drive Management”并按“Enter”,进入图21-6界面。
图21-6 “Virtual Drive Management”
2. 选择“Create Virtual Drive”并按“Enter”。
进入RAID配置界面,如图21-7所示,参数说明如表21-5所示。
参数 |
参数说明 |
RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l RAID Group:RAID组。 l Free Drives:未加入过虚拟磁盘的空闲硬盘。 |
Select Drives |
选择成员盘。 |
Name |
虚拟磁盘名称。 |
Capacity Size |
虚拟磁盘的容量。 默认值为max_left(最大容量)。 |
Select Capacity Unit |
容量单位。包括: l MB l GB l TB |
Initialize Type |
初始化类型。包括: l Fast:快速初始化 l Front:前台初始化 l Background:后台初始化。 |
Strip Unit Size |
虚拟磁盘条带大小。支持32KB、64KB、128KB、256KB、512KB、1024KB。 l HDD默认条带大小为256KB。 l SSD默认条带大小为64KB。 |
Write Cache |
虚拟磁盘的Cache写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Write Back Enforce:在控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Through。 说明 l “Write Back Enforce”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
Read Cache |
虚拟磁盘的Cache读策略。可配置的策略包括: l No Ahead:关闭预读取功能。 l Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为No Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Ahead”性能更优。 |
PD Cache |
物理硬盘Cache写策略(仅对有Cache的硬盘有效): l On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 l Default:保持硬盘当前Cache配置。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID0”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
进入添加成员盘的界面,如图21-8所示。
2. 通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。
硬盘状态为“×”时表示该硬盘已选择。
3. 通过“↑”、“↓”选择“Apply Changes”,并按“Enter”返回上级界面。
步骤 4 按照表21-5所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Capacity Size”参数请按实际要求设置,创建第一个VD后,再参照21.4.2 创建多个VD章节增加其他VD。
步骤 5 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
4. 按“Enter”完成配置。
步骤 6 检查配置结果。
1. 返回至图21-6界面。
2. 选择“View Virtual Drives”并按“Enter”。
显示当前存在的VD信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l SP686C RAID控制卡支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同介质类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 不支持使用SED盘创建RAID组。
l 各RAID级别所需的硬盘数请参见21.2.1 多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
l 仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见21.4.7 设置硬盘属性。
操作步骤
登录管理界面。具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在图21-5中选择“Virtual Drive Management”并按“Enter”,进入图21-9界面。
图21-9 “Virtual Drive Management”
2. 选择“Create Virtual Drive”并按“Enter”。
进入RAID配置界面,如图21-10所示,参数说明如表21-6所示。
参数 |
参数说明 |
RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l RAID Group:RAID组。 l Free Drives:未加入过虚拟磁盘的空闲硬盘。 |
Select Drives |
选择成员盘。 |
Name |
虚拟磁盘名称。 |
Capacity Size |
虚拟磁盘的容量。 默认值为max_left(最大容量)。 |
Select Capacity Unit |
容量单位。包括: l MB l GB l TB |
Initialize Type |
初始化类型。包括: l Fast:快速初始化 l Front:前台初始化 l Background:后台初始化。 |
Strip Unit Size |
虚拟磁盘条带大小。支持32KB、64KB、128KB、256KB、512KB、1024KB。 l HDD默认条带大小为256KB。 l SSD默认条带大小为64KB。 |
Write Cache |
虚拟磁盘的Cache写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Write Back Enforce:在控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Through。 说明 l “Write Back Enforce”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
Read Cache |
虚拟磁盘的Cache读策略。可配置的策略包括: l No Ahead:关闭预读取功能。 l Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为No Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Ahead”性能更优。 |
PD Cache |
物理硬盘Cache写策略(仅对有Cache的硬盘有效): l On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 l Default:保持硬盘当前Cache配置。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID1”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
进入添加成员盘的界面,如图21-11所示。
2. 通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。
硬盘状态为“×”时表示该硬盘已选择。
3. 通过“↑”、“↓”选择“Apply Changes”,并按“Enter”返回上级界面。
步骤 4 按照表21-6所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Capacity Size”参数请按实际要求设置,创建第一个VD后,再参照21.4.2 创建多个VD章节增加其他VD。
步骤 5 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
4. 按“Enter”完成配置。
步骤 6 检查配置结果。
1. 返回至图21-6界面。
2. 选择“View Virtual Drives”并按“Enter”。
显示当前存在的VD信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l SP686C RAID控制卡支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同介质类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 不支持使用SED盘创建RAID组。
l 各RAID级别所需的硬盘数请参见21.2.1 多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
l 仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见21.4.7 设置硬盘属性。
操作步骤
登录管理界面。具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在图21-5中选择“Virtual Drive Management”并按“Enter”,进入图21-12界面。
图21-12 “Virtual Drive Management”
2. 选择“Create Virtual Drive”并按“Enter”。
进入RAID配置界面,如图21-13所示,参数说明如表21-7所示。
参数 |
参数说明 |
RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l RAID Group:RAID组。 l Free Drives:未加入过虚拟磁盘的空闲硬盘。 |
Select Drives |
选择成员盘。 |
Name |
虚拟磁盘名称。 |
Capacity Size |
虚拟磁盘的容量。 默认值为max_left(最大容量)。 |
Select Capacity Unit |
容量单位。包括: l MB l GB l TB |
Initialize Type |
初始化类型。包括: l Fast:快速初始化 l Front:前台初始化 l Background:后台初始化。 |
Strip Unit Size |
虚拟磁盘条带大小。支持32KB、64KB、128KB、256KB、512KB、1024KB。 l HDD默认条带大小为256KB。 l SSD默认条带大小为64KB。 |
Write Cache |
虚拟磁盘的Cache写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Write Back Enforce:在控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Through。 说明 l “Write Back Enforce”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
Read Cache |
虚拟磁盘的Cache读策略。可配置的策略包括: l No Ahead:关闭预读取功能。 l Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为No Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Ahead”性能更优。 |
PD Cache |
物理硬盘Cache写策略(仅对有Cache的硬盘有效): l On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 l Default:保持硬盘当前Cache配置。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID5”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
进入添加成员盘的界面,如图21-14所示。
2. 通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。
硬盘状态为“×”时表示该硬盘已选择。
3. 通过“↑”、“↓”选择“Apply Changes”,并按“Enter”返回上级界面。
步骤 4 按照表21-7所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Capacity Size”参数请按实际要求设置,创建第一个VD后,再参照21.4.2 创建多个VD章节增加其他VD。
步骤 5 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
4. 按“Enter”完成配置。
步骤 6 检查配置结果。
1. 返回至图21-6界面。
2. 选择“View Virtual Drives”并按“Enter”。
显示当前存在的VD信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l SP686C RAID控制卡支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同介质类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 不支持使用SED盘创建RAID组。
l 各RAID级别所需的硬盘数请参见21.2.1 多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
l 仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见21.4.7 设置硬盘属性。
操作步骤
登录管理界面。具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在图21-5中选择“Virtual Drive Management”并按“Enter”,进入图21-15界面。
图21-15 “Virtual Drive Management”
2. 打开RAID配置界面,如图21-16所示,参数说明如表21-8所示。
参数 |
参数说明 |
RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l RAID Group:RAID组。 l Free Drives:未加入过虚拟磁盘的空闲硬盘。 |
Select Drives |
选择成员盘。 |
Name |
虚拟磁盘名称。 |
Capacity Size |
虚拟磁盘的容量。 默认值为max_left(最大容量)。 |
Select Capacity Unit |
容量单位。包括: l MB l GB l TB |
Initialize Type |
初始化类型。包括: l Fast:快速初始化 l Front:前台初始化 l Background:后台初始化。 |
Strip Unit Size |
虚拟磁盘条带大小。支持32KB、64KB、128KB、256KB、512KB、1024KB。 l HDD默认条带大小为256KB。 l SSD默认条带大小为64KB。 |
Write Cache |
虚拟磁盘的Cache写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Write Back Enforce:在控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Through。 说明 l “Write Back Enforce”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
Read Cache |
虚拟磁盘的Cache读策略。可配置的策略包括: l No Ahead:关闭预读取功能。 l Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为No Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Ahead”性能更优。 |
PD Cache |
物理硬盘Cache写策略(仅对有Cache的硬盘有效): l On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 l Default:保持硬盘当前Cache配置。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 6”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
进入添加成员盘的界面,如图21-17所示。
2. 通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。
硬盘状态为“×”时表示该硬盘已选择。
3. 通过“↑”、“↓”选择“Apply Changes”,并按“Enter”返回上级界面。
步骤 4 按照表21-8所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Capacity Size”参数请按实际要求设置,创建第一个VD后,再参照21.4.2 创建多个VD章节增加其他VD。
步骤 5 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
4. 按“Enter”完成配置。
步骤 6 检查配置结果。
1. 返回至图21-6界面。
2. 选择“View Virtual Drives”并按“Enter”。
显示当前存在的VD信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l SP686C RAID控制卡支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同介质类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 不支持使用SED盘创建RAID组。
l 各RAID级别所需的硬盘数请参见21.2.1 多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
l 仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见21.4.7 设置硬盘属性。
操作步骤
登录管理界面。具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在图21-5中选择“Virtual Drive Management”并按“Enter”,进入图21-18界面。
图21-18 “Virtual Drive Management”
2. 选择“Create Virtual Drive”并按“Enter”。
进入RAID配置界面,如图21-19所示,参数说明如表21-9所示。
参数 |
参数说明 |
RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l RAID Group:RAID组。 l Free Drives:未加入过虚拟磁盘的空闲硬盘。 |
Select Drives |
选择成员盘。 |
Name |
虚拟磁盘名称。 |
Capacity Size |
虚拟磁盘的容量。 默认值为max_left(最大容量)。 |
Select Capacity Unit |
容量单位。包括: l MB l GB l TB |
Initialize Type |
初始化类型。包括: l Fast:快速初始化 l Front:前台初始化 l Background:后台初始化。 |
Strip Unit Size |
虚拟磁盘条带大小。支持32KB、64KB、128KB、256KB、512KB、1024KB。 l HDD默认条带大小为256KB。 l SSD默认条带大小为64KB。 |
Write Cache |
虚拟磁盘的Cache写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Write Back Enforce:在控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Through。 说明 l “Write Back Enforce”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
Read Cache |
虚拟磁盘的Cache读策略。可配置的策略包括: l No Ahead:关闭预读取功能。 l Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为No Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Ahead”性能更优。 |
PD Cache |
物理硬盘Cache写策略(仅对有Cache的硬盘有效): l On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 l Default:保持硬盘当前Cache配置。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID10”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
进入添加成员盘的界面,如图21-20所示。
2. 通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。
硬盘状态为“×”时表示该硬盘已选择。
3. 通过“↑”、“↓”选择“Apply Changes”,并按“Enter”返回上级界面。
步骤 4 按照表21-9所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Capacity Size”参数请按实际要求设置,创建第一个VD后,再参照21.4.2 创建多个VD章节增加其他VD。
步骤 5 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
4. 按“Enter”完成配置。
步骤 6 检查配置结果。
1. 返回至图21-6界面。
2. 选择“View Virtual Drives”并按“Enter”。
显示当前存在的VD信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l SP686C RAID控制卡支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同介质类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 不支持使用SED盘创建RAID组。
l 各RAID级别所需的硬盘数请参见21.2.1 多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
l 仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见21.4.7 设置硬盘属性。
操作步骤
登录管理界面。具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在图21-5中选择“Virtual Drive Management”并按“Enter”,进入图21-21界面。
图21-21 “Virtual Drive Management”
2. 选择“Create Virtual Drive”并按“Enter”。
进入RAID配置界面,如图21-22所示,参数说明如表21-10所示。
参数 |
参数说明 |
RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l RAID Group:RAID组。 l Free Drives:未加入过虚拟磁盘的空闲硬盘。 |
Select Subgroups Number |
选择子组数量。 |
Select Drives |
选择成员盘。 |
Name |
虚拟磁盘名称。 |
Capacity Size |
虚拟磁盘的容量。 默认值为max_left(最大容量)。 |
Select Capacity Unit |
容量单位。包括: l MB l GB l TB |
Initialize Type |
初始化类型。包括: l Fast:快速初始化 l Front:前台初始化 l Background:后台初始化。 |
Strip Unit Size |
虚拟磁盘条带大小。支持32KB、64KB、128KB、256KB、512KB、1024KB。 l HDD默认条带大小为256KB。 l SSD默认条带大小为64KB。 |
Write Cache |
虚拟磁盘的Cache写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Write Back Enforce:在控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Through。 说明 l “Write Back Enforce”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
Read Cache |
虚拟磁盘的Cache读策略。可配置的策略包括: l No Ahead:关闭预读取功能。 l Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为No Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Ahead”性能更优。 |
PD Cache |
物理硬盘Cache写策略(仅对有Cache的硬盘有效): l On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 l Default:保持硬盘当前Cache配置。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID50”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
进入添加成员盘的界面,如图21-23所示。
2. 通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。
硬盘状态为“×”时表示该硬盘已选择。
3. 通过“↑”、“↓”选择“Apply Changes”,并按“Enter”返回上级界面。
步骤 4 按照表21-10所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Capacity Size”参数请按实际要求设置,创建第一个VD后,再参照21.4.2 创建多个VD章节增加其他VD。
步骤 5 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“The current operation has been executed successfully.Press ENTER to continue ...”。
4. 按“Enter”完成配置。
步骤 6 检查配置结果。
1. 返回至图21-6界面。
2. 选择“View Virtual Drives”并按“Enter”。
显示当前存在的VD信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l SP686C RAID控制卡支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同介质类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 不支持使用SED盘创建RAID组。
l 各RAID级别所需的硬盘数请参见21.2.1 多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
l 仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见21.4.7 设置硬盘属性。
操作步骤
登录管理界面。具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在图21-5中选择“Virtual Drive Management”并按“Enter”,进入图21-24界面。
图21-24 “Virtual Drive Management”
2. 选择“Create Virtual Drive”并按“Enter”。
进入RAID配置界面,如图21-25所示,参数说明如表21-11所示。
参数 |
参数说明 |
RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l RAID Group:RAID组。 l Free Drives:未加入过虚拟磁盘的空闲硬盘。 |
Select Subgroups Number |
选择子组数量。 |
Select Drives |
选择成员盘。 |
Name |
虚拟磁盘名称。 |
Capacity Size |
虚拟磁盘的容量。 默认值为max_left(最大容量)。 |
Select Capacity Unit |
容量单位。包括: l MB l GB l TB |
Initialize Type |
初始化类型。包括: l Fast:快速初始化 l Front:前台初始化 l Background:后台初始化。 |
Strip Unit Size |
虚拟磁盘条带大小。支持32KB、64KB、128KB、256KB、512KB、1024KB。 l HDD默认条带大小为256KB。 l SSD默认条带大小为64KB。 |
Write Cache |
虚拟磁盘的Cache写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Write Back Enforce:在控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Through。 说明 l “Write Back Enforce”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
Read Cache |
虚拟磁盘的Cache读策略。可配置的策略包括: l No Ahead:关闭预读取功能。 l Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为No Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Ahead”性能更优。 |
PD Cache |
物理硬盘Cache写策略(仅对有Cache的硬盘有效): l On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 l Default:保持硬盘当前Cache配置。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID60”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
进入添加成员盘的界面,如图21-26所示。
2. 通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。
硬盘状态为“×”时表示该硬盘已选择。
3. 通过“↑”、“↓”选择“Apply Changes”,并按“Enter”返回上级界面。
步骤 4 按照表21-11所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Capacity Size”参数请按实际要求设置,创建第一个VD后,再参照21.4.2 创建多个VD章节增加其他VD。
步骤 5 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“The current operation has been executed successfully.Press ENTER to continue ...”。
4. 按“Enter”完成配置。
步骤 6 检查配置结果。
1. 返回至图21-6界面。
2. 选择“View Virtual Drives”并按“Enter”。
显示当前存在的VD信息。
----结束
操作场景
您可以通过此操作设置控制卡启动项。
在OS下用命令行工具设置启动项,请参见21.7.3.68 设置虚拟磁盘为默认启动项和21.7.4.90 设置硬盘为默认启动项。
操作步骤
登录管理界面。具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 在主界面选择“Controller Management”并按“Enter”。
进入“Controller Management”界面。如图21-27所示。
图21-27 “Controller Management”
步骤 2 通过“↑”、“↓”选择“Select Boot Device”并按“Enter”。
显示可设置为启动项的硬盘或虚拟磁盘。
仅在裸盘模式开启时,可设置硬盘为启动项。
步骤 3 选择需配置为启动项的硬盘或虚拟磁盘,按“Enter”完成配置。
----结束
当一台服务器配置了单张控制卡时,控制卡下的启动项即为该服务器的启动项,具体设置方法请参见0设置控制卡启动项。
同一台服务器配置了多张控制卡时,EFI/UEFI模式下的系统启动盘需要在BIOS中进行设置。
设置启动项的操作方法请参见BIOS参数参考的“设置启动设备”章节。
操作场景
您可以通过此操作设置硬盘为全局热备盘。
操作步骤
登录管理界面。具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 进入硬盘设置界面。
1. 选择“Physical Drive Management”并按“Enter”。
显示物理硬盘列表。
2. 选择要操作的硬盘并按“Enter”。
进入硬盘设置界面。如图21-28所示。
步骤 2 将“Operation”设置为“Assign Global Hot Spare Drive”,按“Enter”确认。
步骤 3 确认操作。
1. 选择“Perform Operation”并按“Enter”。
进入操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
4. 按“Enter”完成配置。
----结束
操作场景
您可以通过此操作设置物理硬盘为局部热备盘。
需控制卡下存在RAID时才可配置局部热备盘,未配置RAID时无配置局部热备盘选项。
操作步骤
登录管理界面。具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 进入硬盘设置界面。
1. 选择“Physical Drive Management”并按“Enter”。
显示物理硬盘列表。
2. 选择要操作的硬盘并按“Enter”。
进入硬盘设置界面。如图21-29所示。
步骤 2 将“Operation”设置为“Assign Local Hot Spare Drive”,按“Enter”确认。如图21-30所示。
步骤 3 将“Select RAID Group”选择为目标RAID组。
设置为局部热备盘的硬盘容量需大于目标RAID组最小成员盘容量。
步骤 4 确认操作。
1. 选择“Perform Operation”并按“Enter”。
进入操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
4. 按“Enter”完成配置。
----结束
操作场景
您可以通过此操作取消硬盘作为全局热备盘或局部热备盘,恢复硬盘为空闲状态。
操作步骤
登录管理界面。具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 进入硬盘设置界面。
1. 选择“Physical Drive Management”并按“Enter”。
显示物理硬盘列表。
2. 选择要操作的硬盘并按“Enter”。
进入硬盘设置界面。如图21-31所示。
步骤 2 将“Operation”设置为“Set Drive Free”,按“Enter”确认。
步骤 3 确认操作。
1. 选择“Perform Operation”并按“Enter”。
进入操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
4. 按“Enter”完成配置。
----结束
操作场景
您可以通过此操作设置硬盘所在槽位为热备槽位或取消热备槽位。
操作步骤
登录管理界面。具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 进入硬盘设置界面。
1. 选择“Physical Drive Management”并按“Enter”。
显示物理硬盘列表。
2. 选择要操作的硬盘并按“Enter”。
进入硬盘设置界面。如图21-32所示。
步骤 2 将“Operation”设置为热备槽位相关操作。
l Assign Hot Spare Slot:设置硬盘所在槽位为热备槽位。
l Unassign Hot Spare Slot:取消此热备槽位并恢复硬盘为空闲状态。
步骤 3 确认操作。
1. 选择“Perform Operation”并按“Enter”。
进入操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
4. 按“Enter”完成配置。
----结束
操作场景
您可以通过此操作设置控制卡紧急热备开关状态。
操作步骤
登录管理界面。具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 按照顺序“Controller Management > Advanced Controller Properties > Set Controller Properties”进入“Set Controller Properties”界面,如图21-33所示。
图21-33 “Set Controller Properties”
步骤 2 选择“EHSP Switch”并按“Enter”,设置紧急热备开关状态。
l On:开启紧急热备。
l Off:关闭紧急热备。
步骤 3 确认操作。
1. 选择“Save Changes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”。
2. 按“Enter”完成配置。
----结束
操作场景
控制卡内已存在RAID组,且RAID组的成员盘存在空闲容量,可使用空闲容量创建多个VD。
以控制卡内存在一个RAID1为例,如图21-34所示。
操作步骤
登录管理界面。具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 在主界面选择“Virtual Drive Management > Create Virtual Drive”并按“Enter”。
进入“Create Virtual Drive”界面,如图21-35所示。
步骤 2 设置“Select Drives From”为“RAID Group”。
“Create Virtual Drive”界面刷新如图21-36所示,参数说明表21-12所示。
参数 |
参数说明 |
RAID Level |
选择RAID级别。 “Select Drives From”选择“RAID Group”时,根据所选RAID组级别自动设置。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l RAID Group:RAID组,创建多个VD时选择此项。 l Free Drives:未加入过虚拟磁盘的空闲硬盘。 |
Select RAID Group |
选择成员盘。 |
Name |
虚拟磁盘名称。 |
Capacity Size |
虚拟磁盘的容量。 默认值为max_left(最大容量)。 |
Select Capacity Unit |
容量单位。包括: l MB l GB l TB |
Initialize Type |
初始化类型。包括: l Fast:快速初始化 l Front:前台初始化 l Background:后台初始化。 |
Strip Unit Size |
虚拟磁盘条带大小。支持32KB、64KB、128KB、256KB、512KB、1024KB。 l HDD默认条带大小为256KB。 l SSD默认条带大小为64KB。 |
Write Cache |
虚拟磁盘的Cache写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Write Back Enforce:在控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Through。 说明 l “Write Back Enforce”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
Read Cache |
虚拟磁盘的Cache读策略。可配置的策略包括: l No Ahead:关闭预读取功能。 l Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为No Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Ahead”性能更优。 |
PD Cache |
物理硬盘Cache写策略(仅对有Cache的硬盘有效): l On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 l Default:保持硬盘当前Cache配置。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID组。
1. 选择“Select RAID Group”并按“Enter”。
显示当前存在的RAID,如图21-37所示。
2. 选择要创建多个VD的RAID,并按“Enter”确认。
3. 选择“Apply Changes”并按“Enter”。
返回RAID配置界面
步骤 4 按照表21-12所述配置VD的相关属性。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
4. 按“Enter”完成配置。
步骤 6 检查配置结果。
1. 返回至图21-6界面。
2. 选择“View Virtual Drives”并按“Enter”。
显示当前存在的VD信息。
----结束
每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤6。
操作场景
VD被删除后无法进行恢复,请谨慎执行删除VD操作。
操作步骤
登录管理界面。具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 进入“Virtual Drive Information”界面。
1. 在图21-5选择“Virtual Drive Management”并按“Enter”。
2. 选择“View Virtual Drives”并按“Enter”。
3. 选定要操作的VD并按“Enter”进入“Virtual Drive Information”界面,如图21-38所示。
图21-38 “Virtual Drive Information”
步骤 2 将“Operation”设置为“Delete Virtual Drive”。
步骤 3 确认操作。
1. 选择“Perform Operation”并按“Enter”。
进入操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
4. 按“Enter”完成配置。
----结束
操作场景
您可以通过该操作安全擦除VD数据。
擦除时如果RAID组为降级状态,针对RAID组中故障盘数据不会被写入,需要单独处理该故障盘。
操作步骤
登录管理界面。具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 进入“Virtual Drive Information”界面。
1. 在图21-5选择“Virtual Drive Management”并按“Enter”。
2. 选择“View Virtual Drives”并按“Enter”。
3. 选定要操作的VD并按“Enter”进入“Virtual Drive Information”界面,如图21-39所示。
图21-39 “Virtual Drive Information”
步骤 2 安全擦除VD数据。
将“Operation”设置为“Sanitize Virtual Drive”并按“Enter”。如图21-40所示。
图21-40 “Virtual Drive Information”
步骤 3 选择擦除模式。
选择“Sanitize Mode”并按“Enter”。有以下三种擦除模式。
l Simple:仅对虚拟磁盘进行一轮擦除动作。
l Normal:对虚拟磁盘进行三轮擦除动作。
l Thorough:对虚拟磁盘进行九轮擦除动作。
选择完成后按“Enter”确认。
步骤 4 确认操作。
1. 选择“Perform Operation”并按“Enter”。
进入操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
4. 按“Enter”完成配置。
步骤 5 查看擦除进度。
重新进入VD操作界面,可查看擦除进度,如图21-41所示。
选择“Stop Sanitize”并按”Enter”可中止擦除。
----结束
操作场景
在VD未占用成员硬盘全部容量时,可通过调整成员盘可用空间,扩大VD容量。
操作步骤
登录管理界面。具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 进入“Virtual Drive Information”界面。
1. 在图21-5选择“Virtual Drive Management”并按“Enter”。
2. 选择“View Virtual Drives”并按“Enter”。
3. 选定要操作的VD并按“Enter”进入“Virtual Drive Information”界面,如图21-42所示。
图21-42 “Virtual Drive Information”
步骤 2 扩展VD可用容量。
1. 将“Operation”设置为“Expand Virtual Drive”。
2. 选择“Perform Operation”并按“Enter”。
进入“Expand Virtual Drive”界面,如图21-43所示。
3. 选择“Expand Capacity”并按“Enter”。
在“Please type in your data”界面输入需要扩容的容量大小,默认为max_left使用成员盘最大剩余容量。
图21-44 Please type in your data
4. 选择“Select Capacity Unit”并按“Enter”。
选择扩容的容量单位,按“Enter”确认。
5. 选择“Confirm”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
6. 按“Enter”完成配置。
----结束
l 开启裸盘模式后,已经配置为虚拟磁盘或热备盘的硬盘状态保持不变,其余未配置的硬盘变为裸盘。
l 若开启裸盘模式后需将裸盘配置为虚拟磁盘来使用,则需要先将裸盘状态的硬盘设置为空闲盘,具体操作请参见21.4.7 设置硬盘属性。
l 裸盘模式开启后,需设置单盘裸盘状态请参见21.4.7 设置硬盘属性。
登录管理界面。具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 在主界面选择“Physical Drive Management”并按“Enter”。
进入“Physical Drive Management”界面,如图21-45所示。
图21-45 “Physical Drive Management”
步骤 2 选择“Set Card Raw Drive”并按“Enter”。
步骤 3 选择是否开启裸盘模式并按“Enter”确认。
l Raw Drive On:开启裸盘模式
l Raw Drive Off:关闭裸盘模式
步骤 4 选择“Save Raw Drive Status”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
步骤 5 按“Enter”完成配置。
----结束
操作场景
您可以通过此操作完成以下设置:
l 物理硬盘点灯。
l 设置物理硬盘Cache状态。
l 设置物理硬盘为裸盘(仅裸盘模式开启时可用)。
操作步骤
登录管理界面,具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 进入硬盘设置界面。
1. 选择“Physical Drive Management”并按“Enter”。
显示物理硬盘列表。
2. 选择要操作的硬盘并按“Enter”。
进入硬盘设置界面。如图21-46所示。
步骤 2 设置硬盘操作。
1. 选择“Operation”,设置需对硬盘进行的操作,按“Enter”确认。
− Start Locate:点亮硬盘定位指示灯
− Stop Locate:熄灭硬盘定位指示灯
− Drive Cache On:开启硬盘Cache
− Drive Cache Off:关闭硬盘Cache
− Set Drive Free:设置硬盘为空闲盘(仅裸盘模式开启时可用)
− Set Raw Drive On:设置硬盘为裸盘(仅裸盘模式开启时可用)
步骤 3 确认操作。
1. 选择“Perform Operation”并按“Enter”。
进入操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
4. 按“Enter”完成配置。
----结束
操作场景
您可以通过此操作擦除硬盘数据。
操作步骤
登录管理界面。具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 进入硬盘设置界面。
1. 选择“Physical Drive Management”并按“Enter”。
显示物理硬盘列表。
2. 选择要操作的硬盘并按“Enter”。
进入硬盘设置界面。如图21-47所示。
步骤 2 设置擦除方式。
l Sanitize擦除硬盘数据,如图21-48所示。
a. “Operation”选择“Start Sanitize”。
b. 选择“Sanitize Mode”,设置擦除模式。
n Overwrite:执行覆盖写0操作。
n Blockerase: 执行块擦除操作。
n Cryptoerase:执行加密擦除操作。
l Erase擦除硬盘数据,如图21-49所示。
a. “Operation”选择“Start Erase”。
b. 选择“Erase Mode”,设置擦除模式。
n Simple:仅对硬盘进行一轮擦除动作。
n Normal:对硬盘进行三轮擦除动作。
n Thorough:对硬盘进行九轮擦除动作。
步骤 3 确认操作。
1. 选择“Perform Operation”并按“Enter”。
进入操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
4. 按“Enter”完成配置。
步骤 4 进入对应硬盘操作界面可查看擦除进度,如图21-50所示。
----结束
操作场景
用户可以通过查看控制卡属性的方式确定当前控制卡是否符合实际需求。
操作步骤
登录管理界面,具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 在主界面选择“Controller Management”并按“Enter”。
进入“Controller Management”界面。如图21-51所示,参数说明如表21-13所示。
图21-51 “Controller Management”
参数 |
参数说明 |
Product Name |
产品名称。 |
Chip Name |
芯片名称。 |
Board SN |
控制卡序列号。 |
Firmware Version |
控制卡固件版本。 |
Chip Version |
控制卡芯片版本。 |
Board PCB Version |
控制卡的PCB板版本。 |
PCI ID |
控制卡的PCI ID。 |
PCI BDF Number |
控制卡的BDF(Bus,Device,Function)号。 |
Port Config Mode |
端口配置模式。 |
Drive Count |
控制卡挂载的物理硬盘数量。 |
Virtual Drive Count |
控制卡下已有的虚拟磁盘数量。 |
Select Boot Device |
选择启动盘。 |
Advanced Controller Properties |
查看控制卡高级属性。 |
Reset Default Configuration |
恢复默认设置。 |
步骤 2 查看控制卡高级属性。
选择“Advanced Controller Properties”并按“Enter”。
进入控制卡高级属性界面,如图21-52和图21-53所示,参数说明如表21-14所示。
图21-52 “Advanced Controller Properties”(1)
图21-53 “Advanced Controller Properties”(2)
参数 |
说明 |
Set Controller Properties |
设置控制卡属性。 |
Supported Drives Number Of RAID Group |
支持的RAID组数量。 |
Chip DDR Information |
芯片DDR(Double Data Rate)信息。 |
DDR Channel |
通道数量。 |
DDR Size |
DDR容量。 |
DDR Number |
DDR数量。 |
DDR Total Size |
DDR总容量。 |
Max Supported Drives Number |
最大支持硬盘数量。 |
HDDs |
最大支持硬盘数量(HDD)。 |
SSDs |
最大支持硬盘数量(SSD)。 |
Controller Supported Capabilities |
单板支持能力。 |
Max VD Number |
最大支持虚拟磁盘数量。 |
Max PD Number |
最大支持物理硬盘数量。 |
Supported RAID Levels |
支持的RAID级别。 |
----结束
查询控制卡固件版本的方法有如下几种:
l 在iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。
l 服务器启动完成后,在OS下通过控制卡命令行工具进行查询,具体操作请参见21.7.2.50 查询固件详细版本。
l 在控制卡管理界面进行查询,具体方法为:
a. 登录控制卡的管理界面,具体操作请参见0进入BIOS配置管理界面。
b. 在主界面中选择“Controller Management”并按“Enter”。如图21-54所示。
界面中的“Firmware Version”即为控制卡的固件版本。
图21-54 “Controller Management”
操作场景
l 服务器更换控制卡或插拔RAID成员盘后,需要将原有配置导入新的控制卡中。
l 新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。
l 如服务器已配置RAID,在更换新控制卡或插拔RAID成员盘后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!
l 为避免导入外部配置失败,更换的控制卡的型号要与原来的控制卡保持一致。
l 当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。
l 同时导入多个外部配置时,部分成功也将提示外部配置导入成功。
导入外部配置
登录管理界面。具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 在主界面选择“Virtual Drive Management > Manage Foreign Configurations”并按“Enter”。
进入外部配置设置界面,如图21-55所示。
图21-55 “Manage Foreign Configurations”
步骤 2 选择要导入的外部配置,并按“Enter”确认。
状态为“×”时表示该外部配置已选择。
步骤 3 选择“Import Foreign Configurations”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”表示操作成功。
步骤 4 按“Enter”完成配置。
----结束
清除外部配置
登录管理界面。具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 在主界面选择“Virtual Drive Management > Manage Foreign Configurations”并按“Enter”。
进入外部配置设置界面,如图21-56所示。
图21-56 “Manage Foreign Configurations”
步骤 2 选择要清除的外部配置,并按“Enter”确认。
状态为“×”时表示该外部配置已选择。
步骤 3 选择“Clear Foreign Configurations”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”表示操作成功。
步骤 4 按“Enter”完成配置。
----结束
介绍了硬盘故障、控制卡故障、电容故障的常用处理方法。
更多故障案例请联系技术支持获取。
服务器下电后拔出RAID组所有成员盘,被拔出的硬盘Fault指示灯将点亮,RAID信息将保留。
删除RAID组无法恢复硬盘Fault指示灯,需通过以下操作恢复:
l 重新插入硬盘。
l 关闭Phy后再重新开启,具体操作请参见21.7.4.77 设置phy口状态。
问题描述
当服务器出现如下现象时,说明硬盘故障。
l 硬盘故障指示灯常亮。
l 服务器开机状态下,硬盘指示灯不亮。
l 服务器上报硬盘故障告警。
处理方法
l 通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。
l 通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。
l 通过控制卡GUI界面确认故障硬盘槽位信息,参考21.6.3 Physical Drive Management。
l 通过控制卡命令行工具确认故障硬盘槽位信息,参考21.7.2.24 查询控制卡硬盘列表。
步骤 1 更换新硬盘。
l 更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板导致,则可以将硬盘设置为Unconfigured Good后,参考21.4.11 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。
l 若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在表21-3查看RAID组支持的最大故障硬盘数量。
l 更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒再插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。
l 新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号控制卡删除RAID信息或硬盘低格章节。
拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:
l 若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。
l 若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。
l 若故障硬盘为直通盘,则直接更换即可。
l 若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。
− UEFI模式下创建RAID0的方法请参见21.3.2 创建RAID 0。
− 通过命令行方式创建RAID0的方法请参见21.7.2.25 创建虚拟磁盘。
----结束
问题描述
当控制卡电容故障时,可能导致服务器出现如下情况:
l 服务器读写速度显著降低。
l 控制卡的BIOS配置界面中显示电容状态异常。
处理方法
确认当前使用的控制卡是否配置电容。
l 是 => 步骤2
l 否 => 步骤7
步骤 1 进入控制卡的BIOS配置界面,查看电容状态是否为“OK”。
电容状态可查看21.6.4 Hardware Components界面的“Supercapacitor”选项。
l 是 => 处理完毕
l 否 => 步骤3
步骤 2 将服务器下电,打开机箱,并查看控制卡电容是否在位。
l 是 => 步骤5
l 否 => 步骤4
步骤 3 检查整机配置,为服务器安装电容,查看电容状态是否为“OK”。
l 是 => 处理完毕
l 否 => 步骤7
l 是 => 处理完毕
l 否 => 步骤6
步骤 5 更换控制卡电容,查看电容状态是否为“OK”,且“问题描述”所述的异常状态是否消失。
l 是 => 处理完毕
l 否 => 步骤7
----结束
问题描述
当服务器出现如下现象时,说明控制卡故障。
l 数据无法写入控制卡控制的硬盘。
l 服务器上报控制卡故障告警。
处理方法
登录iBMC Web界面查看告警信息。
步骤 1 根据告警信息,参考iBMC告警处理。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤3
步骤 3 查询兼容性查询助手或者联系技术支持处理。
----结束
SP686C RAID控制卡出现故障后,Option ROM提供Driver Health功能,用于在BIOS界面显示及修复相关故障,当前支持故障种类包括5大类:
l Bad Card:控制卡存在不可恢复故障。
l Restore Data:控制卡可能存在数据不一致,可选择恢复或丢弃数据。
l Drop Data:控制卡存在不可恢复数据,只能丢弃数据后重启。
l Write Hole:系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。
l Pinned Cache:LUN失效时,cache中无法下发的脏数据。可以选择保留或删除。
问题描述
l 如图21-57所示,系统加载Option ROM时将检测到控制卡异常,提示“RAID controller is in an unhealthy state, Repair it in BIOS Setup Utility”。
l 进入SP686C主界面,将出现修复提示,如图21-58所示。
处理方法
登录管理界面。具体操作方法请参见0进入BIOS配置管理界面。
步骤 1 根据“Advanced > Some drivers are not healthy > Huawei RAID Adapter Driver”路径进入“Repair Controller Health”界面,如图21-59所示。
图21-59 “Repair Controller Health”
步骤 2 根据步骤2页面提示信息,按照故障修复策略进行处理。
如表21-15所示。故障提示信息包含以下内容:
l 故障描述
l 故障提示及建议
l 修复策略
故障类型 |
提示信息 |
说明 |
处理方法 |
Bad Card类故障(无修复策略,只能换卡) |
Error description |
故障描述,包括: l NFC error:NFC故障 l Small capacitor abnormal:小电容异常 l SRAM error:SRAM故障 |
请参见0Bad Card类故障 |
The controller is faulty.Replace the controller. |
故障提示及建议:控制卡故障,请更换。 |
||
Restore Data类故障 |
Error description |
故障描述,此类故障包括: l IMU error:IMU故障 l FirmWare error:固件故障 l SOC fatal:SOC重故障 l TSP error:TSP故障 |
请参见21.5.4.6 Restore Data类故障 |
The controller has restorable data. Recover the data so that the controller can be configured an managed properly. |
故障提示及建议:此控制卡中存在可恢复数据,请恢复数据以正确配置和管理控制卡。 |
||
Restore Data |
修复策略:恢复数据,可能存在恢复后数据不一致问题。 |
||
Drop Data |
修复策略:丢弃数据。 |
||
Drop Data类故障 |
Error description |
故障描述,此类故障包括: l TSP error:TSP故障 l DDR mbit error:DDR Mbit故障 l RDE error:RDE故障 |
请参见21.5.4.7 Drop Data类故障 |
The controller is faulty. Repair the fault so that the controller can be configured and managed properly. |
故障提示及建议:此控制卡中存在数据丢失,请修复。 |
||
Drop Error |
修复策略:丢弃数据。 |
||
Write Hole类故障 |
Write hole data exists in the controller.Fix this issue so that the controller can be configured and managed properly. |
故障提示及建议:控制卡存在Write Hole数据,修复此问题以正确配置和管理控制卡。 |
请参见21.5.4.8 Write Hole类故障 |
Clear Data |
修复策略:清除数据。 |
||
Pinned Cache类故障 |
Pinned caches are present on the following virtual drives.You are advised to delete the pinned caches to configure the virtual drives correctly. |
故障提示及建议:以下VD存在pinned cache,建议删除Pinned cache以正确配置VD。 |
请参见21.5.4.9 Pinned Cache类故障 |
“Pinned Cache 0: VDID 0, Status: Fault” |
修复策略:错误数据位置。 点击进入修复界面。 |
----结束
处理方法
登录BIOS界面,操作请参见0进入BIOS配置管理界面。
步骤 1 根据“Advanced > Some drivers are not healthy > Huawei RAID Adapter Driver”路径进入“Repair Controller Health”界面,如图21-60所示,参数说明如表21-16所示。
图21-60 “Repair Controller Health”
参数 |
说明 |
Error description |
故障描述,包括: l NFC error:NFC故障 l Small capacitor abnormal:小电容异常 l SRAM error:SRAM故障 |
The controller is faulty.Replace the controller. |
故障提示及建议:控制卡故障,请更换。 |
步骤 2 此类故障只能更换控制卡,无修复策略。
----结束
处理方法
登录BIOS界面,操作请参见0进入BIOS配置管理界面。
步骤 1 根据“Advanced > Some drivers are not healthy > Huawei RAID Adapter Driver”路径进入“Repair Controller Health”界面,如图21-61所示,参数说明如表21-17所示。
图21-61 “Repair Controller Health”
参数 |
说明 |
Error description |
故障描述,此类故障包括: l IMU error:IMU故障 l FirmWare error:固件故障 l SOC fatal:SOC重故障 l TSP error:TSP故障 |
The controller has restorable data. Recover the data so that the controller can be configured an managed properly. |
故障提示及建议:此控制卡中存在可恢复数据,请恢复数据以正确配置和管理控制卡。 |
Restore Data |
修复策略:恢复数据,可能存在恢复后数据不一致问题。 |
Drop Data |
修复策略:丢弃数据。 |
步骤 2 选择“Restore Data”并按“Enter”。
进入“Confirm Repair Controller”界面,如图21-62所示。
图21-62 “Confirm Repair Controller”
步骤 3 选择“Confirm”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
开始修复,如图21-63所示。修复过程中请勿关机。
步骤 5 当界面提示“The fault has been repaired, Restart the system to apply the repairs. Press ENTER to continue...”时,按“Enter”键继续,如图21-64所示。
步骤 6 界面提示“The fault has been repaired,Restart the system to restore the controller to the normal state”表示修复完成,如图21-65所示。
步骤 7 重启系统,以生效故障修复。
----结束
处理方法
登录BIOS界面,操作请参见0进入BIOS配置管理界面。
步骤 1 根据“Advanced > Some drivers are not healthy > Huawei RAID Adapter Driver”路径进入“Repair Controller Health”界面,如图21-66所示,参数说明如表21-18所示。
图21-66 “Repair Controller Health”
参数 |
说明 |
Error description |
故障描述,此类故障包括: l TSP error:TSP故障(当未配置超级电容时为此故障类型) l DDR mbit error:DDR Mbit故障 l RDE error:RDE故障 |
The controller is faulty. Repair the fault so that the controller can be configured and managed properly. |
故障提示及建议:此控制卡中存在数据丢失,请修复。 |
Drop Error |
修复策略:丢弃数据。 |
步骤 2 选择“Drop Data”并按“Enter”。
进入“Confirm Repair Controller”界面,如图21-67所示。
图21-67 “Confirm Repair Controller”
步骤 3 选择“Confirm”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
开始修复,如图21-68所示。修复过程中请勿关机。
步骤 5 当界面提示“The fault has been repaired, Restart the system to apply the repairs. Press ENTER to continue...”时,按“Enter”键继续,如图21-69所示。
步骤 6 界面提示“The fault has been repaired,Restart the system to restore the controller to the normal state”表示修复完成,如图21-70所示。
步骤 7 重启系统,以生效故障修复。
----结束
处理方法
登录BIOS界面,操作请参见0进入BIOS配置管理界面。
步骤 1 根据“Advanced > Some drivers are not healthy > Huawei RAID Adapter Driver”路径进入“Repair Controller Health”界面,如图21-71所示,参数说明如表21-19所示。
图21-71 “Repair Controller Health”
参数 |
说明 |
Write hole data exists in the controller.Fix this issue so that the controller can be configured and managed properly. |
故障提示及建议:控制卡存在Write Hole数据,修复此问题以正确配置和管理控制卡。 |
Clear Data |
修复策略:清除数据。 |
步骤 2 选择“Clear Data”并按“Enter”。
进入“Confirm Repair Controller”界面,如图21-72所示。
图21-72 “Confirm Repair Controller”
步骤 3 选择“Confirm”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
开始修复,如图21-73所示。修复过程中请勿关机。
步骤 5 当界面提示“The fault has been repaired, Restart the system to apply the repairs. Press ENTER to continue...”时,按“Enter”键继续,如图21-74所示。
步骤 6 界面提示“The fault has been repaired,Restart the system to restore the controller to the normal state”表示修复完成,如图21-75所示。
步骤 7 重启系统,以生效故障修复。
----结束
处理方法
登录BIOS界面,操作请参见0进入BIOS配置管理界面。
步骤 1 根据“Advanced > Some drivers are not healthy > Huawei RAID Adapter Driver”路径进入“Repair Controller Health”界面,如图21-76所示,参数说明如表21-20所示。
图21-76 “Repair Controller Health”
参数 |
说明 |
Pinned caches are present on the following virtual drives.You are advised to delete the pinned caches to configure the virtual drives correctly. |
故障提示及建议:以下VD存在pinned cache,建议删除Pinned cache以正确配置VD。 |
“Pinned Cache 0: VDID 0, Status: Fault” |
修复策略:错误数据位置。 点击进入修复界面。 |
步骤 2 选择需删除的pinned cache,例如“Pinned Cache 0: VDID 0, Status: Fault”,按“Enter”。
进入“Confirm Repair Controller”界面,如图21-77所示。
图21-77 “Confirm Repair Controller”
步骤 3 选择“Confirm”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
开始修复,如图21-78所示。修复过程中请勿关机。
步骤 5 当界面提示“The fault has been repaired, Restart the system to apply the repairs. Press ENTER to continue...”时,按“Enter”键继续,如图21-79所示。
步骤 6 界面提示“The fault has been repaired,Restart the system to restore the controller to the normal state”表示修复完成,如图21-80所示。
步骤 7 重启系统,以生效故障修复。
----结束
问题描述
控制卡运行大压力业务时,概率性出现IO错误,驱动messages日志显示:
Sep 5 09:49:10 localhost
kernel: [ 703.998417] hiraid 0000:81:00.0: swiotlb buffer is full
(sz: 65536 bytes)
Sep 5 09:49:10 localhost kernel: [ 703.998422] hiraid 0000:81:00.0:
io map data err
处理方法一
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器。
步骤 2 重启过程中,当出现如图21-81所示界面时,按“Delete”,进入输入密码界面。
步骤 3 输入密码并按“Enter”。
进入如图21-82所示界面。
步骤 4 可选: 进入“Advanced > MISC Config”页签,如图21-83所示。
步骤 5 将“Support Smmu”的选项改为“Enabled”。
“Support Smmu”默认是“Disabled”。
步骤 6 按“F10”保存并退出。
----结束
处理方法二
登陆服务器OS。
步骤 1 执行命令cat /proc/cmdline,查看文件cmdline。
[root@localhost ~]# cat
/proc/cmdline
BOOT_IMAGE=/vmlinuz-4.19.90-52.22.v2207.ky10.aarch64 root=/dev/mapper/klas-root
ro rd.lvm.lv=klas/root rd.lvm.lv=klas/swap video=VGA-1:640x480-32@60me rhgb
quiet console=tty0 crashkernel=1024M,high smmu.bypassdev=0x1000:0x17
smmu.bypassdev=0x1000:0x15 video=efifb:off audit=0
步骤 2 先执行vi /etc/default/grub,按“i”,再编辑grub,增加配置swiotlb=XXX,XXX建议不小于131072。
[root@localhost /]# vi
/etc/default/grub
GRUB_TIMEOUT=5
GRUB_DISTRIBUTOR="$(sed 's, release .*$,,g' /etc/system-release)"
GRUB_DEFAULT=saved
GRUB_DISABLE_SUBMENU=true
GRUB_TERMINAL_OUTPUT="console"
GRUB_CMDLINE_LINUX="crashkernel=auto rd.lvm.lv=centos/root
rd.lvm.lv=centos/swap swiotlb=131072"
GRUB_DISABLE_RECOVERY="true"
步骤 3 先按“ESC”,再按“shift+:”,输入“wq!”,按“Enter”退出。
步骤 4 运行grub2-mkconfig -o /boot/efi/EFI/centos/grub.cfg,重新生成config文件。
以CentOS举例,不同的操作系统grub.cfg路径不一样。
步骤 5 重启服务器,使配置文件生效。
步骤 6 执行命令cat /proc/cmdline,查看文件cmdline是否生效。
BOOT_IMAGE=/vmlinuz-4.14.0-115.el7a.0.1.aarch64 root=/dev/mapper/centos-root ro crashkernel=auto rd.lvm.lv=centos/root rd.lvm.lv=centos/swap swiotlb=131072
----结束
控制卡主菜单,提供管理控制卡的接口。
界面介绍
“Controller Management”界面如图21-84,参数说明如表21-21所示。
图21-84 “Controller Management”
参数 |
参数说明 |
Product Name |
产品名称。 |
Chip Name |
芯片名称。 |
Board SN |
控制卡序列号。 |
Firmware Version |
控制卡固件版本。 |
Chip Version |
控制卡芯片版本。 |
Board PCB Version |
控制卡的PCB板版本。 |
PCI ID |
控制卡的PCI ID。 |
PCI BDF Number |
控制卡的BDF(Bus,Device,Function)号。 |
Port Config Mode |
端口配置模式。 |
Drive Count |
控制卡挂载的物理硬盘数量。 |
Virtual Drive Count |
控制卡下已有的虚拟磁盘数量。 |
Select Boot Device |
选择启动盘。 |
Advanced Controller Properties |
查看控制卡高级属性。 |
Reset Default Configuration |
恢复默认设置。 |
用于查看控制卡的高级属性。
界面介绍
“Advanced Controller Properties”界面如图21-85和图21-86所示,界面中参数说明如表21-22所示。
图21-85 “Advanced Controller Properties”(1)
图21-86 “Advanced Controller Properties”(2)
参数 |
说明 |
Set Controller Properties |
设置控制卡属性。 |
Supported Drives Number Of RAID Group |
支持的RAID组数量。 |
Chip DDR Information |
芯片DDR(Double Data Rate)信息。 |
DDR Channel |
通道数量。 |
DDR Size |
DDR容量。 |
DDR Number |
DDR数量。 |
DDR Total Size |
DDR总容量。 |
Max Supported Drives Number |
最大支持硬盘数量。 |
HDDs |
最大支持硬盘数量(HDD)。 |
SSDs |
最大支持硬盘数量(SSD)。 |
Controller Supported Capabilities |
单板支持能力。 |
Max VD Number |
最大支持虚拟磁盘数量。 |
Max PD Number |
最大支持物理硬盘数量。 |
Supported RAID Levels |
支持的RAID级别。 |
Set Controller Properties
“Set Controller Properties”界面如图21-87所示,参数说明如表21-23所示。
图21-87 “Set Controller Properties”
参数 |
说明 |
Current Repair Policy |
控制卡当前修复策略。 l Confirm:FW根据策略,选择不上报盘,上报错误。 l Default:后台修复错误,修复系统后正常运行,提供日志记录和查询接口。 默认修复策略为Confirm。 |
Boot With Pinned Cache |
设置系统中有pinned cache时,是否启动。 l On:系统中有存在pinned cache时,系统会选择丢弃脏数据并正常启动。 l Off:系统中存在pinned cache时,系统会保留这部分脏数据并正常启动。但需要用户主动处理这部分脏数据,否则会阻塞一部分系统管理命令,例如创建LUN、修改读写策略等。 说明 1.3.10.1之后版本无此项。 |
EHSP Switch |
紧急热备开关。 l On:开启紧急热备功能。 l Off:关闭紧急热备功能。 |
Drives to Report |
设置报盘数量。 l 可设置范围1~255。 l 如果设置的报盘数量小于实际上报盘符数量,必须设置控制卡启动项(即系统盘设置为boot启动盘),否则可能导致启动失败。设置方法请参见0设置控制卡启动项。 |
Save Changes |
保存更改。 |
Supported Drives Number Of RAID Group
具体规格以实际为准。
“Supported Drives Number Of RAID Group”界面如图21-88和图21-89所示,参数说明如表21-24所示。
图21-88 “Supported Drives Number Of RAID Group”(1)
图21-89 “Supported Drives Number Of RAID Group”(2)
参数 |
参数说明 |
Number Of HDD Supported By RAID Groups |
RAID支持的HDD硬盘数量。 |
Number Of SSD Supported By RAID Groups |
RAID支持的SSD硬盘数量。 |
Min Raid0 Drives |
RAID0最小支持硬盘数量。 |
Max Raid0 Drives |
RAID0最大支持硬盘数量。 |
Min Raid1 Drives |
RAID1最小支持硬盘数量。 |
Max Raid1 Drives |
RAID1最大支持硬盘数量。 |
Min Raid5 Drives |
RAID5最小支持硬盘数量。 |
Max Raid5 Drives |
RAID5最大支持硬盘数量。 |
Min Raid6 Drives |
RAID6最小支持硬盘数量。 |
Max Raid6 Drives |
RAID6最大支持硬盘数量。 |
Min Raid10 Drives |
RAID10最小支持硬盘数量。 |
Max Raid10 Drives |
RAID10最大支持硬盘数量。 |
Max RAID10 Sub RAID Groups |
RAID10支持子组数量。 |
Raid50 Min Drives |
RAID50最小支持硬盘数量。 |
Raid50 Max Drives |
RAID50最大支持硬盘数量。 |
Number of RAID50 subgroups |
RAID50支持子组数量。 |
Raid60 Min Drives |
RAID60最小支持硬盘数量。 |
Raid60 Max Drives |
RAID60最大支持硬盘数量。 |
Number of RAID60 subgroups |
RAID60支持子组数量。 |
将控制卡恢复默认设置,所有配置将恢复到出厂默认配置。请谨慎执行该操作。
控制卡恢复默认设置。
该界面提供虚拟磁盘的查询和管理接口。
界面介绍
“Virtual Drive Management”界面如图21-90,参数说明如表21-25所示。
图21-90 “Virtual Drive Management”
参数 |
参数说明 |
Create Virtual Drive |
创建虚拟磁盘。 |
View Virtual Drives |
查看虚拟磁盘。 |
View RAID Group Properties |
查看RAID组属性。 |
Manage Foreign Configurations |
管理外部配置。 |
“Create Virtual Drive”界面如图21-91所示,参数说明如表21-26所示。
参数 |
参数说明 |
RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l RAID Group:RAID组。 l Free Drives:未加入过虚拟磁盘的空闲硬盘。 |
Select Drives |
选择成员盘。 |
Name |
虚拟磁盘名称。 |
Capacity Size |
虚拟磁盘的容量。 默认值为max_left(最大容量)。 |
Select Capacity Unit |
容量单位。包括: l MB l GB l TB |
Initialize Type |
初始化类型。包括: l Fast:快速初始化 l Front:前台初始化 l Background:后台初始化。 |
Strip Unit Size |
虚拟磁盘条带大小。支持32KB、64KB、128KB、256KB、512KB、1024KB。 l HDD默认条带大小为256KB。 l SSD默认条带大小为64KB。 |
Write Cache |
虚拟磁盘的Cache写策略。可配置的策略包括: l Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l Write Back Enforce:在控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Through。 说明 l “Write Back Enforce”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 l 一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。 |
Read Cache |
虚拟磁盘的Cache读策略。可配置的策略包括: l No Ahead:关闭预读取功能。 l Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为No Ahead。 说明 一般情况下,对于HDD(机械硬盘),读策略设置为“Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Ahead”性能更优。 |
PD Cache |
物理硬盘Cache写策略(仅对有Cache的硬盘有效): l On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 l Default:保持硬盘当前Cache配置。 |
Save Configuration |
保存当前配置。 |
在“View Virtual Drives”界面选择指定VD并按“Enter”。进入VD设置界面,如图21-92所示,参数说明如表21-27所示。
图21-92 “Virtual Drives Information”
参数 |
参数说明 |
Operation |
选择对VD的操作。包括: l Delete Virtual Drive:删除VD。 l Sanitize Virtual Drive:安全擦除VD数据。 l Expand Virtual Drive:扩展VD容量。 |
Progress |
当前任务进度。 l 仅当进行安全擦除VD数据等任务时显示此选项。 l 当前界面不会自动刷新,需退出后重新进入查看当前进度。 |
Stop |
停止当前任务。 仅当进行安全擦除VD数据等任务时显示此选项。 |
Name |
RAID组名称。 |
Virtual Drive ID |
虚拟磁盘的ID。 |
RAID Group ID |
RAID组的ID。 |
Type |
RAID组的类型。 |
Capacity |
RAID组的容量。 |
Map Type |
RAID组的映射类型。 |
Strip Unit Size |
条带大小。 |
Sector Size(B) |
逻辑分区大小。 |
Read Cache |
虚拟磁盘的Cache读策略。 |
Write Cache |
虚拟磁盘的Cache写策略。 |
Real Write Status |
真实的Cache写策略状态。 |
Access Policy Status |
访问策略状态。 |
Status |
RAID组状态。 |
“Advanced Controller Properties”选择想要查看的RAID组并按“Enter”。
进入“RAID Group Detail Information”界面,如图21-93和图21-94所示,参数说明如表21-28所示。
图21-93 “RAID Group Detail Information”(1)
图21-94 “RAID Group Detail Information”(2)
参数 |
参数说明 |
Name |
RAID组名称。 |
RAID Group ID |
RAID组的ID。 |
RAID Level |
RAID组级别。 |
Status |
RAID组状态。 |
Total Capacity |
RAID组的总容量。 |
Available Space |
RAID组的空闲容量。 |
Current Background Task |
当前后台任务。 |
CopyBack Switch |
回拷开关状态。 |
PD Cache |
硬盘Cache状态。 |
Sector Size(B) |
逻辑块大小。 |
Sector Type |
块类型。 |
SubGroups Number |
子组数量。 |
SubGroup Drive Number |
子组硬盘数量。 |
SubGroup Free Capacity |
子组空余容量。 |
Aligned Size(M) |
对齐尺寸。 |
Virtual Drives Number |
虚拟磁盘数量。 |
Member Drive Number |
成员盘数量。 |
Member Drive List |
成员盘列表。 |
Member Drive List
“Member Drive List”界面如图21-95所示。可查看当前RAID组所有成员盘信息。
该界面用于导入、清除外部配置。
界面介绍
“Manage Foreign Configurations”界面如图21-96所示。
图21-96 “Manage Foreign Configurations”
具体操作方法请参见21.4.11 导入和清除外部配置。
该界面显示硬盘基本属性,提供硬盘操作接口。
界面介绍
“Physical Drive Management”界面如图21-97所示,显示硬盘列表。
可在此界面设置裸盘模式,具体操作请参见21.4.6 设置裸盘模式。
图21-97 “Physical Drive Management”
Drive Management
选定要操作的硬盘并按“Enter”进入硬盘设置界面,如图21-98和图21-99所示,参数说明如表21-29所示。
参数 |
参数说明 |
Operations |
选择对硬盘进行的操作。 l Start Locate:定位硬盘。 l Stop Locate:取消定位。 l Assign Global Hot Spare Drive:设置为全局热备盘。 l Assign Hot Spare Slot:设置所在槽位为热备槽位。 l Assign Local Hot Spare Drive:设置为局部热备盘。 l Drive Cache On:开启硬盘Cache。 l Drive Cache Off:关闭硬盘Cache。 l Start Sanitize:Sanitize安全擦除硬盘。 l Start Erase:Erase擦除硬盘。 l Set Drive Free:设置硬盘为空闲盘(仅裸盘模式开启时可用) l Set Raw Drive On:设置硬盘为裸盘(仅裸盘模式开启时可用) |
Perform Operation |
执行操作。选择操作后显示。 |
Drive ID |
硬盘ID。 |
Enclosure ID |
硬盘所在的框位类型。 |
Slot ID |
硬盘所在的槽位编号。 |
Capacity |
硬盘容量。 |
Link Speed |
端口速度。 |
Type |
硬盘的逻辑类型。 |
Spare Slot |
是否为热备槽位。 |
Status |
硬盘的逻辑状态。 |
Media |
硬盘的媒介类型。 |
Interface |
硬盘的接口类型。 |
PD Cache |
硬盘的Cache写状态。 |
Slow Drive |
是否被标记为慢盘。 |
Model |
硬盘的型号。 |
Firmware Version |
硬盘的固件版本。 |
Sector Type |
扇区类型。 |
SED |
是否为自加密硬盘。 |
Spin Status |
硬盘转速状态。 |
该界面主要提供控制卡传感器信息。
界面介绍
“Hardware Components”界面如图21-100所示,参数说明如表21-30所示。
参数 |
参数说明 |
CPU Temperature |
当前CPU温度(℃)。 |
Supercapacitor |
超级电容管理。 |
该界面用于查看控制卡的超级电容状态。
界面介绍
“Supercapacitor”界面如图21-101和图21-102所示,参数说明如表21-31所示。
参数 |
参数说明 |
Device Name |
设备名称。 |
Present Status |
在位状态。 |
Status |
当前状态。 |
Flash Erase Status |
Flash擦除状态。 |
Replacement Required |
是否需要更换。 |
Space To Cache Offload |
是否有缓存卸载空间。 |
P-MOSFET Status |
P-MOSFET状态。 |
IIC Signal Status |
I2C通道状态。 |
Temperature |
当前温度。 |
Voltage |
当前电压。 |
MFG Date |
生产日期。 |
SN |
序列号。 |
Vendor Name |
厂商名称。 |
Design Capacity |
设计容量。 |
Supercapacitor Version |
超级电容版本。 |
Supercapacitor SN |
超级电容序列号。 |
Supercapacitor MFG Date |
超级电容生产日期。 |
PCB AssmNo |
PCB组件编号。 |
PCB Version |
PCB版本。 |
Pack AssmNo |
电容组件序列号。 |
Module Version |
模块版本。 |
Alarm Temperature |
告警温度(单位:℃)。 |
Learn Status |
自学习状态。 |
High Temperature Alarm |
高温告警。 |
Voltage Low Alarm |
欠压告警。 |
Low Capacity Alarm |
容量不足告警。 |
Pack Missing |
电容不在位告警。 |
按“F10”退出BIOS管理界面。
使用OS命令行工具可以在服务器正常运行过程中对控制卡进行操作,不需要重启服务器。
涉及的使用实例以hiraidadm版本1.2.0.2为例,不同版本的hiraidadm工具回显有差异,具体请以实际为准。
请联系技术支持获取hiraidadm工具。
命令功能
查询控制卡列表。
命令格式
hiraidadm show allctrl
使用指南
回显中主要字段的含义如表21-32所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm show allctrl |
Controllers Number |
控制卡的数量。 |
1 |
Controller Id |
控制卡的ID。 |
0 |
|
Device Name |
控制卡的设备名称。 |
/dev/bsg/hiraid0 |
|
Pcie Bus Domain |
控制卡的PCIe总线域。 |
0000 |
|
Bus Number |
控制卡总线号。 |
04 |
|
Device Number |
控制卡设备号。 |
00 |
|
Function Number |
控制卡的Function号。 |
00 |
|
PCI Address |
控制卡PCI地址。 |
0000:04:00.0 |
使用实例
# 查询所有控制卡列表。
[root@localhost ~]# hiraidadm show
allctrl
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Controllers Number = 1
-------------------------------------------------------
Controller Id | 0
Device
Name |
/dev/bsg/hiraid0
Pcie Bus Domain | 0000
Bus
Number
| 85
Device Number | 00
Function Number | 00
PCI
Address
| 0000:85:00.0
命令功能
查询控制卡的数量。
命令格式
hiraidadm show ctrlcount
使用指南
无。
使用实例
# 查询系统中控制卡数量。
[root@localhost ~]# hiraidadm show
ctrlcount
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
ctrlcount:1
==============================================================================================================
命令功能
将从控制卡上收集的日志文件转换为文本文件。
命令格式
hiraidadm show log path=log_path out_file=outputfile [timezone=timezone]
参数说明
参数 |
参数说明 |
取值 |
log_path |
从控制卡获取的日志文件所在路径。 |
- |
outputfile |
指定转换后输出的文件名。 |
- |
timezone |
可选参数,表示指定转换的时区。不输入时默认使用本地时区。 |
例如: l +0800:表示指定东八区。 l -0900:表示指定西九区。 |
使用指南
无。
使用实例
# 将从控制卡上收集的日志文件转换为文本文件。。
[root@localhost ~]# hiraidadm show
log path=./ outfile=log.txt timezone=+0200
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
-------------------------------------------------------
parse .//ap.bin start.
parse .//imu.bin start.
out file1:.//log-flash.txt
out file2:.//log-ram.txt
success log num | 12624
no parse log num | 7427
total log num | 20423
-------------------------------------------------------
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询控制卡的配置信息。
命令格式
hiraidadm ccontroller_id show config
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
回显中主要字段的含义如表21-33所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show config |
Precopy Switch |
预拷贝开关使能状态。 |
Off |
Emergency Hotspare Switch |
紧急热备开关使能状态。 |
On |
|
CopyBack Switch |
回拷开关使能状态。 |
On |
|
Bginit Rate |
后台初始化速率。 |
low |
|
Rebuild Rate |
重构速率。 |
high |
|
CopyBack Rate |
回拷速率。 |
high |
|
PreCopy Rate |
预拷贝速率。 |
high |
|
Sanitize Rate |
硬盘擦除速率。 |
low |
|
CCheck Switch |
一致性校验开关使能状态。 |
Off |
|
CCheck Period |
一致性校验周期。 |
30 day |
|
CCheck Rate |
一致性校验速率。 |
low |
|
CCheck Repair Switch |
一致性校验修复开关使能状态。 |
Off |
|
Patrolread Switch |
系统巡检开关使能状态。 |
On |
|
Patrolread Period |
系统巡检周期。 |
30 day |
|
Patrolread Rate |
系统巡检速率。 |
low |
|
Drive Parall Num |
同时进行巡检的硬盘数量。 |
4 |
使用实例
# 查询控制卡配置信息。
[root@localhost ~]# hiraidadm c0
show config
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
Raid Global Config Information
--------------------------------------------------------------------------------------------------------------
Precopy
Switch
| On
Emergency Hotspare Switch | On
CopyBack
Switch | On
Bginit
Rate
| high
Rebuild Rate |
high
CopyBack
Rate
| high
PreCopy
Rate
| high
Sanitize
Rate
| low
CCheck
Switch
| On
CCheck
Period
| 60 day
CCheck
Rate
| medium
CCheck Repair Switch | On
Patrolread Switch | Off
Patrolread Period | 30
day
Patrolread
Rate | low
Drive Parall Num |
4
DDMA
Switch
| On
--------------------------------------------------------------------------------------------------------------
命令功能
查询和设置系统巡检的相关参数。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id show patrolread |
查询系统巡检相关参数。 |
hiraidadm ccontroller_id set patrolread [period=period] [rate={low|medium|high}] [drivenum=drivenum] |
设置系统巡检参数,至少需设置一个参数。 |
hiraidadm ccontroller_id start patrolread [delay=delay] [period=period] [rate=rate] [drivenum=drivenum] |
设置系统巡检参数并执行。 |
hiraidadm ccontroller_id stop patrolread |
停止系统巡检。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
delay |
指定延时启动时间。 |
1~24(单位:h) |
period |
系统巡检间隔周期。 |
1~60(单位:day) |
rate |
系统巡检速率。 |
l low l medium l high 默认为low。 |
drivenum |
同时开启硬盘巡检的硬盘数量。 |
l 可设置2~8个硬盘。 l 默认为4。 |
使用指南
l 本命令相关参数由用户指定后,后续将一直保留使用,不指定时不再使用默认值。
l 回显中主要字段的含义如表21-34所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show patrolread |
Patrolread Switch |
系统巡检开关。 |
on |
Patrolread Delay |
硬盘巡检延时启动时间。 |
1 h |
|
Patrolread Period |
巡检周期。 |
30 day |
|
Patrolread Rate |
巡检速率。 |
low |
|
Drive Parall Num |
设置的同时进行巡检的硬盘数量。 |
4 |
|
Run Status |
巡检执行状态。 |
stop |
|
Finish Drive Sum |
完成巡检的硬盘数量。 |
0 |
|
Running Drive Sum |
当前巡检中的硬盘数量。 |
0 |
使用实例
# 查询系统巡检信息。
[root@localhost ~]# hiraidadm c0
show patrolread
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Patrolread Information
-------------------------------------------------------
Patrolread Switch | On
Patrolread Delay | 0 h
Patrolread Period | 20 day
Patrolread Rate | low
Drive Parall Num | 4
Run
Status
| stop
Finish Drive Sum | 0
Running Drive Sum | 0
-----------------------------------------------------
# 设置系统巡检参数。
[root@localhost ~]# hiraidadm c0
start patrolread period=20 rate=low drivenum=4
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 停止系统巡检。
[root@localhost ~]# hiraidadm c0
stop patrolread
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询和设置控制卡的全局裸盘模式。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set jbod=jbod_state |
设置控制卡的裸盘模式。 |
hiraidadm ccontroller_id show jbod |
查询控制卡的裸盘模式状态。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
jbod_state |
控制卡裸盘模式使能情况。 |
l rawdrive:开启裸盘模式 l off:关闭裸盘模式 |
使用指南
无。
使用实例
# 开启控制卡的裸盘模式。
[root@localhost ~]# hiraidadm c0
set jbod=rawdrive
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 查询控制卡的裸盘模式状态。
[root@localhost ~]# hiraidadm c0
show jbod
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Jbod = rawdrive
命令功能
查询、设置控制卡一致性校验参数。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id show ccheck |
查询控制卡一致性校验参数。 |
hiraidadm ccontroller_id set ccheck [period=period] [repair=repair_switch] [rate=rate] |
设置控制卡一致性校验,至少设置一个参数。 |
hiraidadm ccontroller_id start ccheck [delay=delay] [period=period] [repair=repair_switch] [rate=rate] |
设置控制卡一致性校验并开始。 |
hiraidadm ccontroller_id stop ccheck |
停止控制卡一致性校验。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
delay |
延时时间。 |
1~24,单位:h |
period |
一致性校验的周期。 |
单位:day |
repair_switch |
自动修复开关。 |
l on l off |
rate |
一致性校验速率。 |
l high l medium l low |
使用指南
l 本命令相关参数由用户指定后,后续将一直保留使用,不指定时不再使用默认值。
l 回显中主要字段的含义如表21-35所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show ccheck |
CCheck Switch |
自动一致性校验开关。 |
on |
Delay |
一致性校验延时启动时间。 |
0 h |
|
Period |
一致性校验周期(单位:天)。 |
60 day |
|
Rate |
一致性校验速率。 |
medium |
|
Repair |
自动修复开关。 |
On |
|
Run status |
一致性校验运行状态。 |
stop |
|
Total Number Of CCheck |
需要完成一致性校验的VD总数量。 |
0 |
|
Completed Number Of CCheck |
已完成一致性校验VD数量。 |
0 |
使用实例
# 查询一致性校验信息。
[root@localhost ~]# hiraidadm c0
show ccheck
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Consistency Check Information
-------------------------------------------------------
CCheck
Switch
| On
Delay
| 0 h
Period
| 60 day
Rate
| medium
Repair
| On
Run
status
| stop
Total Number Of CCheck | 0
Completed Number Of CCheck | 0
-------------------------------------------------------
# 设置一致性校验参数。
[root@localhost ~]# hiraidadm c0
set ccheck period=20 repair=on rate=low
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 设置一致性校验参数并启动。
[root@localhost ~]# hiraidadm c0
start ccheck delay=10 period=20 repair=on rate=low
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 停止一致性校验。
[root@localhost ~]# hiraidadm c0
stop ccheck
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询和设置控制卡重构、回拷、巡检、擦除、后台初始化、预拷贝和一致性校验后台任务。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id show bgtask |
查询控制卡后台任务进度。 |
hiraidadm ccontroller_id set bgrate func=func rate=rate |
设置RAID组重构/回拷/巡检/擦除/后台初始化/预拷贝/一致性校验后台速率。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
func |
要执行的操作。 |
l rebuild:RAID重构 l copyback:回拷 l patrolread:巡检 l sanitize:擦除 l bginit:后台初始化 l precopy:预拷贝 l ccheck:一致性校验 |
rate |
后台任务执行速率。 |
l high l medium l low |
使用指南
无。
使用实例
# 查询后台任务进度。
[root@localhost ~]# hiraidadm c0
show bgtask
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Background task num is 1
--------------------------------------------------------------------------------------------------------------
Background Task Information
--------------------------------------------------------------------------------------------------------------
Name
Type ID Rate Progress TimeLeft
bginit
VD 0 high
34% 32 min
--------------------------------------------------------------------------------------------------------------
# 设置RAID重构速率。
[root@localhost ~]# hiraidadm c0
set bgrate func=rebuild rate=low
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign func : rebuild
User assign rate : low
--------------------------------------------------------------------------------------------------------------
命令功能
查询和设置控制卡的预拷贝开关。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id show precopy |
查询控制卡的预拷贝开关状态。 |
hiraidadm ccontroller_id set precopy sw=switch |
设置控制卡的预拷贝功能开关。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
switch |
设置控制卡的预拷贝开关状态。 |
l on:开启预拷贝功能 l off:关闭预拷贝功能 |
使用指南
无。
使用实例
# 查询控制卡预拷贝开关使能状态。
[root@localhost ~]# hiraidadm c0
show precopy
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Precopy Switch = On
#开启控制卡预拷贝开关。
[root@localhost ~]# hiraidadm c0
set precopy sw=on
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : on
--------------------------------------------------------------------------------------------------------------
命令功能
设置成员盘强制上线和下线。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id set state
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
– |
slot_id |
物理硬盘槽位的ID。 |
– |
state |
设置成员盘状态。 |
l online:设置成员盘上线。 l offline:设置成员盘下线。 |
使用指南
l offline只能操作RAID组状态normal的成员盘。
l online操作成功也受限于RAID组本身是否可恢复降级或重构以及normal。
l Online本身是尽力而为的命令,如果Online的盘物理上为fault,则该盘状态将保存为fault,对应LUN的逻辑状态可以恢复,但是能否恢复数据依赖盘物理上读数据是否会出错。
设置硬盘offline之后查询硬盘状态,确认硬盘状态为offline后,才能进行设置online操作,避免设置online失败。
使用实例
# 设置slot1硬盘强制上线。
[root@localhost ~]# hiraidadm
c0:e0:s1 set online
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询、设置控制卡回拷开关。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id show copyback |
查询控制卡的回拷开关状态。 |
hiraidadm ccontroller_id set copyback sw=switch |
设置控制卡的回拷开关状态。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
switch |
设置控制卡的回拷开关状态。 |
l on:开启回拷 l off:关闭回拷 |
使用指南
无。
使用实例
# 查询控制卡的回拷开关状态。
[root@localhost ~]# hiraidadm c0
show copyback
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Copyback Switch = On
# 开启控制卡的回拷功能。
[root@localhost ~]# hiraidadm c0
set copyback sw=on
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : on
--------------------------------------------------------------------------------------------------------------
命令功能
查询、设置控制卡SMART扫描周期。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id show smart_polling |
查询SMART扫描周期。 |
hiraidadm ccontroller_id set smart_polling period=period |
设置SMART扫描周期。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
period |
SMART扫描周期。 |
单位:s。最小值为60s。 |
使用指南
无。
使用实例
# 查询SMART扫描周期。
[root@localhost ~]# hiraidadm c0
show smart_polling
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Drive smart polling period is 3600s.
# 设置Smart扫描周期为“600s”。
[root@localhost ~]# hiraidadm c0
set smart_polling period=600
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign period : 600
--------------------------------------------------------------------------------------------------------------
命令功能
查询指定控制卡下所有物理盘列表信息。
命令格式
hiraidadm ccontroller_id show pdlist
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
回显中主要字段的含义如表21-36所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show pdlist |
Index |
查询列表中物理硬盘序号。 |
0 |
Enc |
硬盘所在框位的ID。 |
0 |
|
Slot |
硬盘所在槽位的ID。 |
12 |
|
DID |
硬盘逻辑ID。 |
2 |
|
Intf |
硬盘接口类型。 |
SATA |
|
Media |
硬盘物理类型。 |
SSD |
|
Type |
硬盘逻辑类型。 |
free |
|
Status |
硬盘当前状态。 |
normal |
|
PreFail |
是否预失效。 |
No |
|
LinkSpd |
硬盘接口速率。 |
6.0Gb/s |
|
Capacity |
硬盘原始容量。 |
1.920TB |
|
SecType |
硬盘扇区类型。 |
512E |
|
FUA |
是否支持FUA。 |
Sup |
|
SED |
硬盘是否加密。 |
No |
|
Spin |
硬盘节电开关。 |
UP |
|
FW |
固件版本信息。 |
404Q |
|
Model |
硬盘型号。 |
SAMSUNG MZ7LH1T9HMLT-00005 |
使用实例
#查询指定控制卡下所有物理盘列表信息。
[root@localhost ~]# hiraidadm c0
show pdlist
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Total pd number is 12
--------------------------------------------------------------------------------------------------------------
Index Enc Slot DID Intf Media Type
Status PreFail SlowDrive
LinkSpd Capacity SecType FUA SED Spin
FW Model
--------------------------------------------------------------------------------------------------------------
0 0 0
5 SATA HDD free
ucfggood No
No 6.0Gb/s
3.639TB 512N Sup No UP
T010 HUS726T4TALA600
1 0 1
6 SATA HDD free
ucfggood No
No 6.0Gb/s 3.639TB 512N
Sup No UP T010 HUS726T4TALA600
2 0 2
7 SATA HDD free
ucfggood No
No 6.0Gb/s
3.639TB 512N Sup No UP
T010 HUS726T4TALA600
3 0 3
8 SATA HDD free
ucfggood No
No 6.0Gb/s
3.639TB 512N Sup No UP
T010 HUS726T4TALA600
4 0 8
10 SATA HDD free
ucfggood No
No 6.0Gb/s
3.639TB 512N Sup No UP
T010 HUS726T4TALA600
5 0 9
11 SATA HDD free ucfggood
No No
6.0Gb/s 5.458TB 512E Sup No
UP SN03 ST6000NM0115-1YZ110
6 0 10
9 SAS HDD
free ucfggood
No No
12Gb/s 558.912GB 512N Sup No UP
N005 ST600MM0009
7 0 11 4
SAS SSD free
ucfggood No
No 12Gb/s 372.611GB
4096B Sup No UP c280
HUSMM1640ASS204
8 0 12
3 SAS SSD
free ucfggood
No No
12Gb/s 894.253GB 4096B Sup No UP
3230 HSSD-D6323AL960N
9 0 13
1 SATA SSD free
ucfggood No
No 6.0Gb/s 447.132GB
512E Sup No UP HXM7A04Q SAMSUNG
MZ7KH480HAHQ-00005
10 0 14 2
SATA SSD free
ucfggood No
No 6.0Gb/s 894.253GB
512E Sup No UP 1074
HWE62ST3960L003N
11 0 15 0
SATA SSD free
ucfggood No
No 6.0Gb/s 894.253GB
512E Sup No UP 1074
HWE62ST3960L003N
--------------------------------------------------------------------------------------------------------------
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l SP686C RAID控制卡支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同介质类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 不支持使用SED盘创建RAID组。
l 各RAID级别所需的硬盘数请参见21.2.1 多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
l 仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见21.4.7 设置硬盘属性。
命令功能
创建虚拟磁盘。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id create vd raid{0|1|10|5|6|50|60} size={size|max_left} drives={enclosure_id:slot_id,enclosure_id:slot_id|drive_id,drive_id} name=VD_Name [pdpersg=pdpersg][susize={32|*64|128|256|512|1024}] [wcache={*WT|WB|WBE}] [rcache={Ahead|*No_Ahead}] [pdcache={on|off|*default}] [init={*fast|front|background}] |
利用空闲硬盘创建虚拟磁盘。 |
hiraidadm ccontroller_id create vd [raid{0|1|10|5|6|50|60}] rg=rg_id size={size|max_left} name=VD_Name [susize={32|*64|128|256|512|1024}] [wcache={*WT|WB|WBE}] [rcache={Ahead|*No_Ahead}] [pdcache={on|off|*default}] [init={*fast|front|background}] |
利用已有RAID组剩余空间创建虚拟磁盘。 |
*表示默认值。
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
raid |
要配置的RAID组级别。 |
0、1、5、6、10、50、60,数字分别代表对应的RAID组级别。 |
size |
要配置的RAID组容量。 |
逻辑盘容量大小,单位MB。当设置为max_left时,使用最大容量。 说明 支持创建大小为1MB~Max_left。 |
drives |
两种表示方法。 l 要加入RAID组的硬盘所在的框位ID加槽位ID表示:enclosure_id:slot_id,enclosure_id:slot_id l 要加入RAID组的硬盘逻辑ID表示:drive_id,drive_id |
例如: l 1:22,1:23 l 3,7 |
name |
要配置的RAID组名称。 |
最大20字符。 |
pdpersg |
每个子组中物理硬盘个数。创建RAID50/60时需此参数。 |
l 创建RAID50时:6~32(SSD)/6~40(HDD) l 创建RAID60时:8~32(SSD)/8~40(HDD) l 子组支持的具体数量请参见表21-3。 |
susize |
设置RAID组条带大小。 |
32, 64, 128, 256, 512, 1024。单位为KB。 l HDD默认条带大小为256KB。 l SSD默认条带大小为64KB。 |
wcache |
设置RAID组的写Cache属性。 |
l WT:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l WB:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l WBE:在控制卡无电容或电容损坏的情况下,强制使用“WB”模式。 默认为WT。 |
rcache |
设置RAID组的读Cache属性。 |
l Ahead:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。 l No_Ahead:控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。 默认为No_Ahead。 |
pdcache |
设置RAID的成员盘的Cache状态(仅对有Cache的硬盘有效)。 |
l on:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 l default:保持硬盘当前Cache配置。 默认为default。 |
init |
初始化方式。 |
l fast:快速初始化 l front:前台初始化 l background:后台初始化 默认为fast。 |
rg_id |
RAID组的ID。 |
例如:0、1。查询RAID的ID请参见21.7.2.27 查询控制卡RAID组列表。 |
使用指南
无。
使用实例
# 利用空闲硬盘创建RAID 1。
[root@localhost ~]# hiraidadm c0
create vd raid1 name=vd0 size=100000 drives=0:0,0:1
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 利用已有RAID组创建虚拟磁盘。
[root@localhost ~]# hiraidadm c0
create vd raid1 rg=0 size=100000 name=vd1
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询控制卡的虚拟磁盘列表信息。
命令格式
hiraidadm ccontroller_id show vdlist
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
回显中主要字段的含义如表21-37所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show vdlist |
VDID |
VD的ID索引。 |
0 |
RGID |
VD所属的RAID组ID索引。 |
0 |
|
Name |
VD名称。 |
- |
|
Type |
VD类型。 |
normal |
|
Status |
VD的状态。 |
normal |
|
Capacity |
容量,单位:MB|GB|TB。 |
1.454TB |
|
SUSz |
条带大小,单位:KB。 |
64KB |
|
SecSz |
扇区大小,单位:B。 |
512B |
|
RCache |
读cache策略。 |
No_Ahead |
|
WCache |
写cache策略。 |
WT |
|
RealWCache |
当前生效的Cache写策略。 |
WT |
|
Access |
VD的读写属性。 RW:取消只读。 RO:只读。 |
RW |
使用实例
#查询指定控制卡下虚拟磁盘列表信息。
[root@localhost ~]# hiraidadm c0
show vdlist
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Total vd number is 1
--------------------------------------------------------------------------------------------------------------
VDID RGID Name Type
Status Capacity
SUSz SecSz RCache WCache RealWCache Access
--------------------------------------------------------------------------------------------------------------
0 0 vd0 normal
initializing 97.656GB 256KB 512B
No_Ahead WT WT
RW
--------------------------------------------------------------------------------------------------------------
命令功能
查询指定控制卡下已创建的RAID组信息。
命令格式
hiraidadm ccontroller_id show rglist
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
回显中主要字段的含义如表21-38所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show rglist |
Id |
RAID的ID。 |
0 |
Name |
RAD组名称。 |
raid0 |
|
Level |
RAID组级别。 |
0 |
|
Status |
RAID的状态。 |
normal |
|
MemberNum |
成员盘数量。 |
3 |
|
Total |
总容量。 |
1.454TB |
|
Free |
空闲容量。 |
0.000MB |
使用实例
#查询指定控制卡下RAID组列表信息。
[root@localhost ~]# hiraidadm c0
show rglist
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Total raid group number is 1
--------------------------------------------------------------------------------------------------------------
Id Name
Level Status MemberNum Total Free
--------------------------------------------------------------------------------------------------------------
0 raid0
1 normal
2
3.638TB 3.542TB
--------------------------------------------------------------------------------------------------------------
命令功能
查询、设置控制卡紧急热备功能状态。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id show ehsp |
查询控制卡紧急热备功能状态。 |
hiraidadm ccontroller_id set ehsp sw=switch |
设置控制卡紧急热备功能。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
switch |
紧急热备功能的启用状态。 |
l on:开启紧急热备 l off:关闭紧急热备 |
使用指南
无。
使用实例
# 查询控制卡紧急热备功能使能状态。
[root@localhost ~]# hiraidadm c0
show ehsp
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Ehsp Switch = On
# 开启紧急热备功能。
[root@localhost ~]# hiraidadm c0
set ehsp sw=on
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : on
--------------------------------------------------------------------------------------------------------------
命令功能
查询、导入或者清除控制卡的外部配置。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id show fncfg |
查询控制卡的外部配置。 |
hiraidadm ccontroller_id clear fncfg [guid=guid] |
清除控制卡的外部配置。 |
hiraidadm ccontroller_id import fncfg [guid=guid] |
导入控制卡的外部配置。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
guid |
外来配置的唯一标识符。 如果不输入,则默认所有。 |
– |
使用指南
无。
使用实例
# 查询控制卡的外部配置。
[root@localhost ~]# hiraidadm c0
show fncfg
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Foreign Config number is 2
--------------------------------------------------------------------------------------------------------------
Foreign Config Lists
--------------------------------------------------------------------------------------------------------------
Index Enc Slot Type RGID RGLevel RGStatus
VDs PDs RGGUID
0 0 0 member
0 1 degrade
2 2 0x7e522f3600000000
1 0 1
member 0 1
degrade 2 2 0x7e522f3600000000
--------------------------------------------------------------------------------------------------------------
# 导入控制卡的外部配置。
[root@localhost ~]# hiraidadm c0
import fncfg guid=0x7e522f3600000000
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Import Foreign Config : 0x7e522f3600000000
# 清除控制卡的外部配置。
[root@localhost ~]# hiraidadm c0
clear fncfg guid=0x7e522f3600000000
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Clear Foreign Config : 0x7e522f3600000000
命令功能
将控制卡配置恢复到默认设置。
将控制卡恢复默认设置,所有配置将恢复到出厂默认配置。请谨慎执行该操作。
命令格式
hiraidadm ccontroller_id reset defaultconfig [noprompt]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
noprompt |
无需用户确认。 |
- |
使用指南
当输入命令不带“noprompt”参数时,将提示“Do you confirm the execution reset config?The user settings will be reset.Please input [y|Y] for yes, others for cancel”。
l 输入“y”或“Y”并按“Enter”确认恢复默认设置。
l 输入其他取消此操作。
使用实例
# 将指定控制卡恢复出厂设置。
[root@localhost ~]# hiraidadm c0
reset defaultconfig
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
Do you confirm the execution reset config?
The user settings will be reset.
Please input [y|Y] for yes, others for cancel
---------------------------------------------
y
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
收集控制卡的日志信息。
命令格式
hiraidadm ccontroller_id get log path=path
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
path |
日志保存的路径。 |
- |
使用指南
无。
使用实例
# 收集控制卡的日志信息。
[root@localhost ~]# hiraidadm c0
get log path=./
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
file:ap.bin get finish.
file:imu.bin get finish.
file:ap_index.gz get finish.
file:imu_index.gz get finish.
file:lastword.bin get finish.
-------------------------------------------------------
file(.//log-lastword.txt) will be overwritten!
parse .//lastword.bin start.
out file1:.//log-lastword.txt
-------------------------------------------------------
file(.//log-flash.txt) will be overwritten!
file(.//log-ram.txt) will be overwritten!
parse .//imu.bin start.
parse .//ap.bin start.
out file1:.//log-flash.txt
out file2:.//log-ram.txt
success log num | 9272
no parse log num | 12740
total log num | 22078
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
l 查询控制卡寄存器信息。
l 刷dump数据到flash。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id get dump path=file_path [type=type] |
查询控制卡寄存器信息。 |
hiraidadm ccontroller_id set dump |
刷dump数据到flash。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
file_path |
要保存的路径。 |
- |
type |
指定信息获取方式。 |
l flash:指定从norflash获取。 l ram:指定从ram获取,如果不支持ram,则从norflash获取。 默认为flash。 |
使用指南
查看控制卡寄存器信息时,包含以下内容。
l *-regdump.txt:公用dump信息。
l *-sdsdump.txt:serdes模块dump信息。
l *-datadump.txt:其他模块dump信息,具体见文件内容。
使用实例
# 查看控制卡寄存器信息。
[root@localhost ~]# hiraidadm c0
get dump path=./dump
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
file:dump.bin get finish.
[warning] file(./dump/dump.bin) is NULL
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 刷dump数据到flash。
[root@localhost ~]# hiraidadm c0 set
dump
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
获取系统复位或者下电的日志。
控制卡从未上下电或者复位时NAND日志不存在。
命令格式
hiraidadm ccontroller_id get nandlog path=file_path [id=log_id]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
file_path |
日志保存路径。 |
- |
log_id |
指定收集第几份,缺省则全收集。 |
值越小越新,0为最新。 |
使用指南
获取NAND日志。支持以下内容。
l *log-nand.txt:控制卡侧日志。
l *log-lastword.txt:芯片临终遗言日志。
l *{reg/ras}log-regdump.txt:公用dump信息。
l *{reg/ras}log-sdsdump.txt:serdes模块dump信息。
l *{reg/ras}log-datadump.txt:其他模块dump信息,具体见文件内容。
*为第几次的日志,如0log-nand.txt,1log-nand.txt。
使用实例
# 获取NAND日志。
[root@localhost ~]# hiraidadm c0
get nandlog path=./nand
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
file:ap_index.gz get finish.
file:imu_index.gz get finish.
file:nandlog.bin get finish.
-------------------------------------------------------
parse /var/tmp/lastword_C2nyam start.
out file1:./nand/0log-lastword.txt
out file1:./nand/0log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_cLOHA8 start.
out file1:./nand/1log-lastword.txt
out file1:./nand/1log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_Se43vT start.
out file1:./nand/2log-lastword.txt
out file1:./nand/2log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_AjgnFL start.
out file1:./nand/3log-lastword.txt
out file1:./nand/3log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_S4wu6C start.
out file1:./nand/4log-lastword.txt
out file1:./nand/4log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_OCegju start.
out file1:./nand/5log-lastword.txt
out file1:./nand/5log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_2thWUj start.
out file1:./nand/6log-lastword.txt
out file1:./nand/6log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_egm8Ng start.
out file1:./nand/7log-lastword.txt
out file1:./nand/7log-nand.txt
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询单板电子标签信息。
命令格式
hiraidadm ccontroller_id show elabel
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
回显中主要字段的含义如表21-39所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show elabel |
BoardType |
单板型号。 |
CRS0XAF026 |
BarCode |
单板序列号。 |
2102313XXGFSN4000047 |
|
Item |
BOM编码。 |
02313XXG |
|
Description |
描述信息。 |
Function Module,SP686C-M-16i 4G,CRS0XAF026,SAS/SATA RAID 16port PCIE Card,4GB Cache,Support SuperCap and Sideband Management,RAID0,1,5,6,10,50,60 |
|
Manufactured |
生产日期。 |
2022/04/23 |
|
VendorName |
厂商名称。 |
Huawei |
|
IssueNumber |
发行号。 |
- |
|
CLEICode |
CLEI码。 |
- |
|
BOM |
BOM编码。 |
- |
|
Model |
对外型号。 |
- |
|
PCB |
PCB版本。 |
- |
使用实例
# 查询单板电子标签信息。
[root@localhost ~]# hiraidadm c0
show elabel
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
BoardType=CRS0XAF026
BarCode=2102313XXGFSN4000047
Item=02313XXG
Description=Function Module,SP686C-M-16i 4G,CRS0XAF026,SAS/SATA RAID 16port
PCIE Card,4GB Cache,Support SuperCap and Sideband
Management,RAID0,1,5,6,10,50,60
Manufactured=2022/04/23
VendorName=Huawei
IssueNumber=00
CLEICode=
BOM=
Model=
PCB=A
命令功能
查看、设置系统中有pinned cache时,是否正常启动系统。
l LUN失效时,cache中无法下发的脏数据称为pinned cache。
l 仅FW 1.3.8.0之前版本支持此命令,FW 1.3.8.0及之后版本默认保留pinned cache并正常启动。需用户主动处理pinned cache,具体操作请参见21.7.3.70 清除当前存在的pinned cache。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set bootwithpinnedcache sw=switch |
设置系统中有pinned cache时,是否正常启动。 |
hiraidadm ccontroller_id show bootwithpinnedcache |
查看系统中有pinned cache时,是否正常启动。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
switch |
设置系统中有pinned cache时,是否启动。 |
On:系统中存在pinned cache时,系统会选择丢弃脏数据并正常启动。 Off:系统中存在pinned cache时,系统会保留这部分脏数据并正常启动。但需要用户主动处理这部分脏数据,否则会阻塞一部分系统管理命令,例如创建LUN、修改读写策略等。 |
使用指南
无。
使用实例
# 设置系统中有pinned cache时,丢弃脏数据并正常启动。
[root@localhost ~]# hiraidadm c0 set
bootwithpinnedcache sw=on
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 查看系统中有pinned cache时引导策略。
[root@localhost ~]# hiraidadm c0
show bootwithpinnedcache
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Boot With Pinned Cache Switch = On
命令功能
查询控制卡下的硬盘坏块列表信息。
命令格式
hiraidadm ccontroller_id show bst
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
回显中主要字段的含义如表21-40所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show bst |
Index |
坏盘序号。 |
0 |
Did |
硬盘的ID。 |
4 |
|
Start Lba |
起始LBA地址。 |
0 |
|
Lba_len |
LBA数量。 |
2048 |
|
Type |
逻辑类型或者物理类型。 |
Physical |
使用实例
#查询硬盘坏块列表信息。
[root@localhost ~]# hiraidadm c0
show bst
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Total diskbst number is 2
--------------------------------------------------------------------------------------------------------------
Index Did Start_lba lba_len
Type Index Did Start_lba
lba_len Type
--------------------------------------------------------------------------------------------------------------
0 4
0
2048 Physical | 1
4 4096 6144
Physical |
--------------------------------------------------------------------------------------------------------------
命令功能
查询控制卡已配置的启动项信息。
命令格式
hiraidadm ccontroller_id show boot
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
无。
使用实例
# 查询控制卡已配置的启动项信息。
[root@localhost ~]# hiraidadm c0
show boot
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
BootDrive Num Is 1
--------------------------------------------------------------------------------------------------------------
BootDrive Information
--------------------------------------------------------------------------------------------------------------
Index Type VID/DID Enc Slot
0 VD
0 NA NA
--------------------------------------------------------------------------------------------------------------
命令功能
查询控制卡主机侧驱动队列深度。
命令格式
hiraidadm ccontroller_id show queue
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
无。
使用实例
# 设置控制卡主机侧驱动队列深度。
[root@localhost ~]# hiraidadm c0
show queue
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Queue Depth = 1023
命令功能
查询、设置控制卡慢盘检测功能参数。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set slowdrive type=type [sw=switch] [ratio=ratio] [media=media] [susize=susize] [l1=l1] [l2=l2] [l3=l3] [default] |
设置慢盘检测参数。 |
hiraidadm ccontroller_id show slowdrive |
查询慢盘检测配置信息。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
type |
设置慢盘检测类型。 |
l raid:RAID成员盘 l rawdrive:裸盘 |
switch |
慢盘检查开关状态。 |
l on:开启慢盘检测 l off:关闭慢盘检测 |
ratio |
设置硬盘与RAID组其他成员盘的I/O时延差别倍率。 仅在判断在RAID L3级别有效,当I/O时延满足倍率要求时才会上报L3慢盘。 |
范围:4~64 |
susize |
设置条带大小。 |
l 128 l 256 l 512 l 1024 单位:KB 仅当“type=raid,media=hdd”时可配置,且输入该参数时,必须配置l1。 |
l1 |
设置L1级别的门限值,仅当“type=RAID”时有效。 |
l HDD: − 条带大小为128、256时,范围:660~L2。 − 条带大小为512、1024时,范围:760~L2。 l SSD:范围:110~L2。 单位:ms。 |
l2 |
设置L2级别的门限值。 |
l HDD: − RAID范围:L1~L3。 − 裸盘范围:810~20000。 l SSD: − RAID范围:L1-L3。 − 裸盘范围:210-20000。 单位:ms。 |
l3 |
设置L3级别的门限值,仅当“type=RAID”时有效。 |
范围:L2~20000。 单位:ms。 |
default |
输入该参数表示恢复默认配置。 |
- |
使用指南
l 该命令支持同时配置一个或多个属性。
l 除开关配置立即生效,其余配置下次重启后生效。
l 输入default表示恢复默认配置。
l 对识别的慢盘,在满足RAID冗余的条件下进行踢盘,裸盘不会踢盘。
l 对慢盘的识别包含L1/L2/L3三个级别,当慢盘达到L3级别并满足一定条件才会踢盘。
l 踢盘周期内报多个慢盘,超过设置踢盘数量上限后不会踢盘。
l 被踢掉的慢盘会被标记为Fault。
使用实例
# 设置控制卡慢盘检测参数。
[root@localhost ~]# hiraidadm c0
set slowdrive type=raid media=ssd l1=200 l2=300 l3=400
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 查询控制卡慢盘检测配置参数。
[root@localhost ~]# hiraidadm c0
show slowdrive
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Type Switch
-------------------------------------------------------
RAID On
RawDrive On
-------------------------------------------------------
Current Config
-------------------------------------------------------
RAID Ratio:8
RAID Threshold:
Media
SuSize L1
L2 L3
-------------------------------------------------------
HDD 32/64/128/256KB 1300ms 2200ms 5000ms
HDD 512/1024KB
1500ms 2200ms 5000ms
SSD
NA 250ms 600ms 1200ms
-------------------------------------------------------
RawDrive Threshold:
Media L2
-------------------------------------------------------
HDD 2500ms
SSD 600ms
-------------------------------------------------------
Next Config
-------------------------------------------------------
RAID Ratio:8
RAID Threshold:
Media SuSize
L1 L2 L3
-------------------------------------------------------
HDD 32/64/128/256KB 1300ms 2200ms 5000ms
HDD 512/1024KB
1500ms 2200ms 5000ms
SSD
NA 250ms 600ms 1200ms
-------------------------------------------------------
RawDrive Threshold:
Media L2
-------------------------------------------------------
HDD 2500ms
SSD 600ms
-------------------------------------------------------
命令功能
查询控制卡的状态信息。
命令格式
hiraidadm ccontroller_id show status
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
回显中主要字段的含义如表21-41所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show status |
SAS Address |
控制卡的SAS地址。 |
50c31dc5b71e8000 |
FW Version0 |
控制卡主区的固件版本。 |
1.0.17.1 |
|
FW Version1 |
控制卡备区的固件版本。 |
1.0.17.1 |
|
Current FW |
当前FW运行分区。 |
0 |
|
Vendor Id |
控制卡厂商ID。 |
19e5 |
|
Device Id |
控制卡的设备ID。 |
3758 |
|
SubVendor Id |
控制卡的子厂商ID。 |
19e5 |
|
SubDevice Id |
控制卡的子设备ID。 |
01a4 |
|
Pcie Bus Domain |
控制卡的PCIe总线域。 |
0000 |
|
Bus Number |
控制卡总线号。 |
04 |
|
Device Number |
控制卡的设备号。 |
00 |
|
Function Number |
控制卡的Function号。 |
00 |
|
Board SN |
控制卡的单板序列号。 |
2102313XXGFSN4000070 |
|
PF0 |
PF0是否使能。 |
Enable |
|
PF1 |
PF1是否使能。 |
Disable |
|
EP PCIe Width |
协商带宽。 |
x8 |
|
EP PCIe Speed |
当前协商速率。 |
16GT/s |
|
Chip Name |
控制卡的芯片名称。 |
B80121 |
|
Chip Version |
控制卡的芯片版本。 |
V100 |
|
Die ID |
控制卡的芯片ID。 |
599e5b94 0121275e 00000000 00000000 001fc003 |
|
Tempature |
控制卡的芯片核心温度。 |
67c |
|
PD Number |
在位的硬盘数量。 |
12 |
|
VD Number |
逻辑盘数量。 |
0 |
|
VD Degrade Number |
降级的VD数量。 |
0 |
|
VD Fault Number |
故障的VD数量。 |
0 |
|
Raid Number |
RAID组数量。 |
0 |
|
Prefail Number |
预失效硬盘数量。 |
0 |
|
Fail Number |
失效硬盘数量。 |
0 |
|
DDR Size |
DDR容量。 |
4096MB |
|
DDR ECC Count |
DDR统计值。 |
0 |
|
DDR ECC Bucket Size |
DDR可纠正错误门限。 |
16 |
|
DDR CE Count |
DDR可纠正错误统计。 |
0 |
|
DDR UCE Count |
DDR不可纠正错误统计。 |
0 |
|
SRAM ECC Count |
SRAM单bit ECC错误统计。 |
0 |
|
SRAM UCE Count |
SRAM不可纠正错误统计。 |
0 |
|
Cache Pinned |
Cache Pinned故障。 |
0 |
|
Board Error |
单板故障。 |
0 |
|
Board Clock Error |
单板时钟故障。 |
0 |
|
Board Power Error |
单板电源故障。 |
0 |
|
Board Capacity Error |
单板电容故障。 |
0 |
|
Board Flash Error |
单板Flash故障。 |
0 |
|
Board Name |
单板名称。 |
SP686C-M-16i 4G |
使用实例
# 查询控制卡状态信息。
[root@localhost ~]# hiraidadm c0
show status
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
SAS Address | 50c31dc5b70af000
FW Version0 | 1.3.3.0
FW Version1 | 1.3.3.0
Current FW | 0
Vendor Id | 19e5
Device Id | 3758
SubVendor Id | 19e5
SubDevice Id | 01a1
Pcie Bus Domain | 0000
Bus Number | 85
Device Number | 00
Function Number | 00
Board SN |
2102313XXGFSN4000047
PF0
| Enable
PF1 |
Disable
EP PCIe Width | x8
EP PCIe Speed | 16GT/s
Chip Name | B80121
Chip Version | V100
Die
ID
| 599e5b94 02614a5e 00000000 00000000 001f1a03
Tempature | 73c
PD Number | 12
VD Number | 0
VD Degrade Number | 0
VD Fault Number | 0
Raid Number | 0
PreFail Number | 0
Fail Number | 0
DDR Size |
2048MB
DDR ECC Count | 0
DDR ECC Bucket Size | 16
DDR CE Count | 0
DDR UCE Count | 0
SRAM ECC Count | 0
SRAM UCE Count | 0
Cache Pinned | 0
Board Error | 0
Board Clock Error | 0
Board Power Error | 0
Board Capacity Error| 0
Board Flash Error | 0
Board Name | SP686C-M-40i
2G
命令功能
查询控制卡的基本配置信息。
命令格式
hiraidadm ccontroller_id show info
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
回显中主要字段的含义如表21-42所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show info |
Ctrl Mod |
控制卡当前控制模式。 |
RAID |
Rg Task Support |
RAID组支持的后台任务。 |
rebuild,precopy,copyback,patrolread |
|
Mod Support |
控制卡支持的模式。 |
raid,rawdrive |
|
Raid Level Support |
控制卡支持的RAID级别。 |
raid0,raid1,raid10,raid5,raid50,raid6,raid60 |
|
Expander Support |
支持的扩展器数量。0表示当前不支持对接扩展器。 |
0 |
|
VD OP Support |
逻辑盘支持的操作。 |
repair,expand,create,delete,front init,background init,fast init,sanitize,ccheck |
|
PD OP Support |
物理硬盘支持的操作。 |
sanitize |
|
Max PD Number |
控制卡支持的最大物理硬盘数量。 |
40 |
|
Max HDD Number |
控制卡支持的最大HDD硬盘数量。 |
40 |
|
Max SSD Number |
控制卡支持的最大SSD硬盘数量。 |
40 |
|
Min HDD Number Raid0 |
RAID0最小硬盘数量(HDD)。 |
1 |
|
Max HDD Number Raid0 |
RAID0最大硬盘数量(HDD)。 |
30 |
|
Min SSD Number Raid0 |
RAID0最小硬盘数量(SSD)。 |
1 |
|
Max SSD Number Raid0 |
RAID0最大硬盘数量(SSD)。 |
30 |
|
Min HDD Number Raid1 |
RAID1最小硬盘数量(HDD)。 |
2 |
|
Max HDD Number Raid1 |
RAID1最大硬盘数量(HDD)。 |
2 |
|
Min SSD Number Raid1 |
RAID1最小硬盘数量(SSD)。 |
2 |
|
Max SSD Number Raid1 |
RAID1最大硬盘数量(SSD)。 |
2 |
|
Min HDD Number Raid10 |
RAID10最小硬盘数量(HDD)。 |
4 |
|
Max HDD Number Raid10 |
RAID10最大硬盘数量(HDD)。 |
30 |
|
Max HDD SubRg Number Raid10 |
RAID10最大子组数量(HDD)。 |
15 |
|
Min SSD Number Raid10 |
RAID10最小硬盘数量(SSD)。 |
4 |
|
Max SSD Number Raid10 |
RAID10最大硬盘数量(SSD)。 |
30 |
|
Max SSD SubRg Number Raid10 |
RAID10最大子组数量(SSD)。 |
15 |
|
Min HDD Number Raid5 |
RAID5最小硬盘数量(HDD)。 |
3 |
|
Max HDD Number Raid5 |
RAID5最大硬盘数量(HDD)。 |
30 |
|
Min SSD Number Raid5 |
RAID5最小硬盘数量(SSD)。 |
3 |
|
Max SSD Number Raid5 |
RAID5最大硬盘数量(SSD)。 |
30 |
|
Min HDD Number Raid50 |
RAID60最小硬盘数量(HDD)。 |
6 |
|
Max HDD Number Raid50 |
RAID60最大硬盘数量(HDD)。 |
40 |
|
Max HDD SubRg Number Raid50 |
RAID60最大子组数量(HDD)。 |
8 |
|
Min SSD Number Raid50 |
RAID60最小硬盘数量(SSD)。 |
6 |
|
Max SSD Number Raid50 |
RAID60最大硬盘数量(SSD)。 |
32 |
|
Max SSD SubRg Number Raid50 |
RAID60最大子组数量(SSD)。 |
8 |
|
Min HDD Number Raid6 |
RAID6最小硬盘数量(HDD)。 |
4 |
|
Max HDD Number Raid6 |
RAID6最大硬盘数量(HDD)。 |
30 |
|
Min SSD Number Raid6 |
RAID6最小硬盘数量(SSD)。 |
4 |
|
Max SSD Number Raid6 |
RAID6最大硬盘数量(SSD)。 |
30 |
|
Min HDD Number Raid60 |
RAID60最小硬盘数量(HDD)。 |
8 |
|
Max HDD Number Raid60 |
RAID60最大硬盘数量(HDD)。 |
40 |
|
Max HDD SubRg Number Raid60 |
RAID60最大子组数量(HDD)。 |
8 |
|
Min SSD Number Raid60 |
RAID60最小硬盘数量(SSD)。 |
8 |
|
Max SSD Number Raid60 |
RAID60最大硬盘数量(SSD)。 |
32 |
|
Max SSD SubRg Number Raid60 |
RAID60最大子组数量(SSD)。 |
8 |
|
Max VD Expand Times |
VD最大支持扩展次数 |
7 |
|
Max VD Number |
最大支持的VD数量。 |
127 |
|
Spares Support |
支持的热备方式。 |
global hotspare,local hotspare,emergency hotspare |
|
Hsp Per Raid |
每个RAID组支持的最大局部热备盘数量。 |
2 |
|
Foreign Import Support |
是否支持外部配置导入。 |
Yes |
|
Max Globhps |
最大支持的全局热备盘数量。 |
40 |
|
Phy Number |
控制卡使用的最大phy数量。 |
16 |
|
Drive Support |
支持的驱动器类型。 |
SCSI |
|
PF Number |
PF支持的数量(当前芯片最多支持2个)。 |
1 |
|
PF Type |
PF工作模式。 |
SCSI |
|
EP PCIe Width |
控制卡PCIe宽度。 |
x8 |
|
EP PCIe Speed |
控制卡PCIe速率。 |
16GT/s |
|
VD Number Per Rg |
每个RAID组最大创建的VD数量。 |
16 |
|
Rg Number |
RAID组最大数量。 |
40 |
|
BP Support |
备电模块是否支持。 |
Yes |
|
SAS Contrller Speed |
SAS控制卡支持的速率。 |
12Gb/s |
|
PCIe RP Speed |
PCIe下行设备支持的速率。 |
16GT/s |
|
Max HDD Stripe Size |
HDD最大条带大小。 |
16384KB |
|
Max SSD Stripe Size |
SSD最大条带大小。 |
16384KB |
|
Min HDD Stripe Size |
HDD最小条带大小。 |
32KB |
|
Min SSD Stripe Size |
SSD最小条带大小。 |
32KB |
|
Max Su Size |
虚拟磁盘的最大条带大小。 |
1024KB |
|
Min Su Size |
虚拟磁盘的最小条带大小。 |
32KB |
使用实例
# 查询控制卡配置信息。
[root@localhost ~]# hiraidadm c0
show info
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
-------------------------------------------------------
Ctrl
Mod
| RAID
Rg Task
Support
| rebuild,precopy,copyback,patrolread
Mod
Support
| raid,rawdrive
Raid Level Support
| raid0,raid1,raid10,raid5,raid50,raid6,raid60
Expander
Support
| 0
VD OP
Support
| repair,expand,create,delete,front init,background init,fast
init,sanitize,ccheck
PD OP
Support
| sanitize,erase,smart_polling
Max PD
Number
| 40
Max HDD
Number
| 40
Max SSD
Number
| 40
Min HDD Number Raid0 | 1
Max HDD Number Raid0 | 30
Min SSD Number Raid0 | 1
Max SSD Number Raid0 | 30
Min HDD Number Raid1 | 2
Max HDD Number Raid1 | 2
Min SSD Number Raid1 | 2
Max SSD Number Raid1 | 2
Min HDD Number Raid10 | 4
Max HDD Number Raid10 | 30
Max HDD SubRg Number Raid10 | 15
Min SSD Number Raid10 | 4
Max SSD Number Raid10 | 30
Max SSD SubRg Number Raid10 | 15
Min HDD Number Raid5 | 3
Max HDD Number Raid5 | 30
Min SSD Number Raid5 | 3
Max SSD Number Raid5 | 30
Min HDD Number Raid50 | 6
Max HDD Number Raid50 | 40
Max HDD SubRg Number Raid50 | 8
Min SSD Number Raid50 | 6
Max SSD Number Raid50 | 32
Max SSD SubRg Number Raid50 | 8
Min HDD Number Raid6 | 4
Max HDD Number Raid6 | 30
Min SSD Number Raid6 | 4
Max SSD Number Raid6 | 30
Min HDD Number Raid60 | 8
Max HDD Number Raid60 | 40
Max HDD SubRg Number Raid60 | 8
Min SSD Number Raid60 | 8
Max SSD Number Raid60 | 32
Max SSD SubRg Number Raid60 | 8
Max VD Expand Times | 7
Max VD
Number
| 127
Spares
Support
| global hotspare,local hotspare,emergency hotspare
Hsp Per
Raid
| 2
Foreign Import Support | Yes
Max
Globhps
| 16
Phy
Number
| 40
Drive
Support
| SCSI
PF
Number
| 1
PF
Type
| SCSI
EP PCIe Width
| x8
EP PCIe
Speed
| 16GT/s
VD Number Per
Rg | 16
Rg
Number
| 40
Bp
Support
| Yes
SAS Contrller Speed |
12Gb/s
PCIe RP
Speed
| 16GT/s
Max HDD Stripe Size |
16384KB
Max SSD Stripe Size |
16384KB
Min HDD Stripe Size |
32KB
Min SSD Stripe Size |
32KB
Max Su
Size
| 1024KB
Min Su
Size
| 32KB
-------------------------------------------------------
命令功能
升级和激活控制卡固件。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id update fw file=xx.img |
升级控制卡固件。 |
hiraidadm ccontroller_id active fw type=hot |
热激活控制卡固件,升级后进行。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
xx.img |
升级固件文件。 |
- |
使用指南
当采用热激活方式使固件生效时,存在如下限制:
l 版本号按照x.y.n.z形式定义,只有x.y.n字段相同的版本间升级支持热激活。例如从固件版本1.0.17.1升级到1.0.17.2支持热激活,从固件版本1.0.17.1升级到1.0.18.1不支持热激活。
l 在当前系统中不存在pinned cache(即LUN失效时,cache中存在的无法下发的脏数据)。如果存在,需要先删除pinned cache,或者恢复故障RAID组。
l 系统中没有重构、预拷贝、回拷、初始化、扩容等任务在执行。如果有,需要等待执行完成或者停止。可通过“hiraidadm ccontroller_id show bgtask”命令查看控制卡当前后台任务。
l 系统中没有sanitize擦除硬盘和erase擦除硬盘任务在执行。如果有,需要等待执行完成或者停止。可通过“hiraidadm ccontroller_id:eenclosure_id:sslot_id show sanitize”和“hiraidadm ccontroller_id:eenclosure_id:sslot_id show erase”命令查看硬盘擦除状态。
l 激活过程中,如果系统中cache数据和已下发的I/O数据在指定时间内无法完成,为了避免系统I/O异常,激活会终止并返回失败,需要稍后重试。
执行升级命令后,可通过以下两种激活方式使固件生效:
l 执行hiraidadm ccontroller_id active fw type=hot命令。表示采用热激活方式,无需重启服务器即可完成升级。
l 重启服务器,表示采用冷激活方式,使固件生效。
使用实例
# 升级控制卡固件。
[root@localhost ~]# hiraidadm c0
update fw file=packet_raid.img
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
update controller firmware done,duration: 2min42s
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
#激活控制卡固件。
[root@localhost ~]# hiraidadm c0
active fw type=hot
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询控制卡热备槽位信息。
命令格式
hiraidadm ccontroller_id show hspslot
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
回显中主要字段的含义如表21-43所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show hspslot |
Id |
热备槽位序号。 |
0 |
Enc |
热备槽位类型。 |
0 |
|
Slot |
热备槽位号。 |
0 |
使用实例
# 查询控制卡的热备槽位信息。
[root@localhost ~]# hiraidadm c0
show hspslot
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
hot spare slot num is 1
--------------------------------------------------------------------------------------------------------------
Hot Spare Slots Information
--------------------------------------------------------------------------------------------------------------
Id Enc Slot
0 0 2
命令功能
查询控制卡对phy口的配置情况。
命令格式
hiraidadm ccontroller_id show phy_cfg
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
无。
使用实例
# 查询控制卡对phy口的配置情况。
[root@localhost ~]# hiraidadm c0
show phy_cfg
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
Index Slot Switch Speed
--------------------------------------------------------------------------------------------------------------
0 0
On 6.0Gb/s
--------------------------------------------------------------------------------------------------------------
命令功能
查询和设置控制卡慢盘踢盘参数。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set kickdrive [period=period] [sum=sum] |
设置慢盘踢盘参数,至少设置一个参数。 |
hiraidadm ccontroller_id show kickdrive |
查询慢盘踢盘参数。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
period |
踢盘计数清零周期。 |
范围:1~90,单位:day。 默认值为30。 |
sum |
一个周期可踢盘的最大计数。 |
范围:1~8 默认值为1。 |
使用指南
l 由慢盘导致的踢盘发生后,会在一个周期(period)内记录踢掉的数量。
l 周期内慢盘导致踢盘总数不得超过最大限制(sum)。若超过将不允许剔除,等到周期到期、重置踢盘计数后才能继续剔除。
l 重启服务器时,踢盘总数(Total Kicked)和计数复位剩余时间(Count Reset Remaining Time)将会恢复至默认状态。
− 踢盘总数Total Kicked)会清零。
− 计数复位剩余时间(Count Reset Remaining Time)将会恢复到与计数复位周期(Count Reset Period)相同。
使用实例
# 设置慢盘踢盘参数。
[root@localhost ~]# hiraidadm c0
set kickdrive sum=1 period=10
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 查询慢盘踢盘参数。
[root@localhost ~]# hiraidadm c0
show kickdrive
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Count Reset Period | 43 day
Total Allowed Kicks | 7
Total
Kicked
| 1
Count Reset Remaining Time | 43 day
命令功能
查询、修复控制卡故障。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id show error |
查询控制卡的当前故障信息。 |
hiraidadm ccontroller_id start repair type=error_type |
修复控制卡的指定故障。 |
hiraidadm ccontroller_id show repair_process |
查询控制卡的故障修复进度。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
error_type |
故障类型。 |
包括: l writehole l restore l drop l pinnedcache vdid=vd_id 当故障类型为pinnedcache时,vd_id为需修复的vd的id。 |
使用指南
“hiraidadm ccontroller_id show error”命令可查询的故障详细信息如下所示:
l TSP error:TSP故障
l NAC error:NAC故障
l FirmWare error:固件异常
l IMU error:IMU故障
l Backup failed:备电失败
l Soc Fatal:SOC重故障
l DDR Mbit error:DDR Mbit故障
l SRAM error:SRAM故障
l DDRC error:DDRC故障
l PCIe EP reference clock error:PCIe EP侧参考时钟故障
l PCIe RP reference clock error:PCIe RP参考时钟故障
l SAS Port reference clock error:SAS端口参考时钟故障
l Power supply chip error:电源芯片工作异常
l Internal power supply chip output voltage is too high:内部电源芯片输出电压过高
l Internal power supply chip output voltage is too low:内部电源芯片输出电压过低
l The chip internal module detection error:芯片内部模块检测错误(导致I/O停止)
l The super capacitor voltage is too low:备电模块(超级电容)工作电压过低
l The super capacitor voltage is too high:备电模块(超级电容)工作电压过高
l The small capacitor value anomaly:小电容容值异常
l The super capacitor value anomaly:超级电容容值异常
l The small capacitor voltage is too low:小电容工作电压过低
l The small capacitor voltage is too high:小电容工作电压过高
l SPI Nor Flash error:SPI Nor Flash异常
l SPI Nand Flash error:SPI Nand Flash异常
l NFC Nand Flash error:NFC Nand Flash异常
使用实例
# 查询控制卡的故障信息。
[root@localhost ~]# hiraidadm c0
show error
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
the card is normal
#修复控制卡的writehole故障。
[root@localhost ~]# hiraidadm c0
start repair type=writehole
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 查询控制卡的故障修复进度。
[root@localhost ~]# hiraidadm c0
show repair_process
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
The card repair process is 100%.
命令功能
查询和设置控制卡故障修复策略。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set repair policy=repair_policy |
配置控制卡的修复策略。 |
hiraidadm ccontroller_id show repair_policy |
查询控制卡的修复策略。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
repair_policy |
控制卡的修复策略。 |
l Confirm:FW根据策略,选择不上报盘,上报错误。 l Default:后台修复错误,修复系统后正常运行,提供日志记录和查询接口。 |
使用指南
无。
使用实例
# 设置控制卡的修复策略。
[root@localhost ~]# hiraidadm c0
set repair policy=default
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
Do you confirm the execution [Warning] after setting "policy=default",
the system will repair according
to the default policy, and the problem of data loss may occur after
repairing
Please input [y|Y] for yes, others for cancel
---------------------------------------------
y
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 查询控制卡修复策略。
[root@localhost ~]# hiraidadm c0
show repair_policy
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
The current repair policy is default.
命令功能
查询和设置SAS链路请求分发的模式。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set dphstartmod [sas0=sas0_value] [sas1=sas1_value] [sas2=sas2_value] [sas3=sas3_value] [sas4=sas4_value] |
设置SAS链路请求分发的模式。 |
hiraidadm ccontroller_id show dphstartmod |
查询SAS链路请求分发的模式。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
sas0_value |
影响slot0-slot7。 |
l 0 l 1 |
sas1_value |
影响slot8-slot15。 |
l 0 l 1 |
sas2_value |
影响slot16-slot23。 |
l 0 l 1 |
sas3_value |
影响slot24-slot31。 |
l 0 l 1 |
sas4_value |
影响slot32-slot39。 |
l 0 l 1 |
使用指南
l 此命令用于在特定场景下进行性能调优。设置芯片在SAS链路上请求分发的模式,最多可以设置为5个。
l 支持一次配置1到5个SAS IP的参数。重启后生效。
l 默认配置为1,通常不需要改变。
硬盘直连场景下:
l 同一组phy下存在SSD和HDD盘混合读写时,建议配置为 1。
l 同一组槽位,连接HDD盘,并且主要为小I/O(8k即以下)访问,建议配置为0来改善性能。
使用实例
# 设置SAS链路请求分发的模式。
[root@localhost ~]# hiraidadm c0
set dphstartmod sas0=0 sas1=0 sas2=0 sas3=0 sas4=0
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
The configuration takes effect after the reboot.
# 查询SAS链路请求分发的模式。
[root@localhost ~]# hiraidadm c0
show dphstartmod
========================================== Hiraidadm Information ===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Total sas ip number is 5.
-------------------------------------------------------
Index CurrentConfig NextConfig
-------------------------------------------------------
sas0
1
0
sas1
1
0
sas2 1
0
sas3
1
0
sas4
1
0
-------------------------------------------------------
命令功能
查询、设置裸盘的流控门限。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set drivefc mode=mode [media=media] |
设置裸盘的流控门限。 |
hiraidadm ccontroller_id show drivefc |
查询裸盘的流控门限。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
mode |
裸盘流控门限。 |
l low:多盘性能优先(1025) l high:单盘性能优先(2049) |
media |
硬盘类型。 不填时默认为HDD。 |
l hdd l ssd |
使用指南
设置裸盘的流控门限需重启后生效。
使用实例
# 设置裸盘的流控门限。
[root@localhost ~]# hiraidadm c0
set drivefc mode=high
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 查询裸盘的流控门限。
[root@localhost ~]# hiraidadm c0
show drivefc
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Media CurrentMode NextMode
-------------------------------------------------------
HDD
low high
SSD
low low
-------------------------------------------------------
命令功能
查询控制卡各模块固件详细版本。
命令格式
hiraidadm ccontroller_id show fw_version
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
无。
使用实例
# 查询控制卡各模块固件详细版本。
[root@localhost ~]# hiraidadm c0
show fw_version
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
==============================================================================================================
fw_name region
version time
l0fw
m
1.3.3.0 22-11-15 22:22:58
l1fw
m
1.3.3.0 22-11-15 22:22:58
imudict
m
1.3.3.0 22-11-15 22:22:58
boot m
1.3.3.0 22-11-15 22:22:58
cfgfile
m
1.3.3.0 22-11-15 22:22:58
hilink
m
1.3.3.0 22-11-15 22:22:58
microcode
m
1.3.3.0 22-11-15 22:22:58
apfw m
1.3.3.0 22-11-15 22:22:58
apdict
m
1.3.3.0 22-11-15 22:22:58
optionrom
m
1.3.3.0 22-11-15 22:22:58
==============================================================================================================
fw_name
region
version time
l0fw
s
1.3.3.0 22-11-15 22:22:58
l1fw
s
1.3.3.0 22-11-15 22:22:58
imudict
s 1.3.3.0
22-11-15 22:22:58
boot
s
1.3.3.0 22-11-15 22:22:58
cfgfile
s
1.3.3.0 22-11-15 22:22:58
hilink
s
1.3.3.0 22-11-15 22:22:58
microcode s
1.3.3.0 22-11-15 22:22:58
apfw
s
1.3.3.0 22-11-15 22:22:58
apdict
s
1.3.3.0 22-11-15 22:22:58
optionrom
s
1.3.3.0 22-11-15 22:22:58
==============================================================================================================
命令功能
l 查询备电电容容量。
l 查询超级电容状态。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id show backupcap |
查询备电电容容量。 |
hiraidadm ccontroller_id show scaplearn |
查询超级电容状态。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
回显中主要字段的含义如表21-44所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show backupcap |
Backup Cap Cf |
备点电容容量。 |
1290uF |
hiraidadm ccontroller_id show scaplearn |
Learn Status |
超级电容自学习状态。 |
UNDO |
Super Cap Esr |
Esr值。 |
0.00 |
|
Super Cap Cf |
超级电容当前容量。 |
0.00 |
|
High Cap Vol |
高档位电压值。 |
0 mV |
使用实例
#查询备电电容容量。
[root@localhost ~]# hiraidadm c0
show backupcap
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Backup Cap Cf | 2328uF
#查询超级电容状态。
[root@localhost ~]# hiraidadm c0
show scaplearn
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Learn Status | OK
Super Cap Esr | 0.00
Super Cap Cf | 6.57
High Cap Vol | 0 mV
命令功能
查询、设置控制卡侧的日志级别。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set loglevel val=value |
设置控制卡侧的日志级别。 |
hiraidadm ccontroller_id show loglevel |
查询当前卡侧的日志级别。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
value |
要设置的级别。 |
l fatal l error l warn l print l info l debug |
使用指南
无。
使用实例
# 设置控制卡日志级别为info。
[root@localhost ~]# hiraidadm c0
set loglevel val=info
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 查询控制卡日志级别。
[root@localhost ~]# hiraidadm c0
show loglevel
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
The current raid card log level is info
命令功能
查看当前控制卡存在pinned cache的虚拟磁盘,并显示虚拟磁盘状态。
LUN失效时,cache中无法下发的脏数据称为pinned cache。
命令格式
hiraidadm ccontroller_id show pinnedcache
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
无。
使用实例
# 查看当前控制卡存在pinned cache的虚拟磁盘。
[root@localhost ~]# hiraidadm c0
show pinnedcache
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
controller has no pinnedcache
命令功能
查询控制卡整板功耗。
命令格式
hiraidadm ccontroller_id show adc
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
回显中主要字段的含义如表21-45所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show adc |
channel0 |
通道0电压值。 |
30492mV |
channel1 |
通道1电压值。 |
12100mV |
|
channel2 |
通道2电压值。 |
13409mV |
|
channel3 |
通道3功率值(未使用)。 |
NA |
|
channel4 |
通道4功率值。 |
24563mW |
使用实例
# 查询控制卡整板功耗。
[root@localhost ~]# hiraidadm c0
show adc
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
channel0 :31626mV
channel1 :12265mV
channel2 :12188mV
channel3 :NA
channel4 :28700mW
命令功能
查询和设置硬盘健康状态分析开关状态。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set dha sw=switch |
设置硬盘健康状态分析开关状态。 |
hiraidadm ccontroller_id show dhacfg |
查询硬盘健康状态分析开关状态。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
switch |
硬盘健康状态分析开关状态。 |
l on l off |
使用指南
无。
使用实例
#开启硬盘健康状态分析开关。
[root@localhost ~]# hiraidadm c0
set dha sw=on
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
#查询硬盘健康状态分析开关状态。
[root@localhost ~]# hiraidadm c0
show dhacfg
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
The DHA Switch | On
命令功能
查询和设置虚拟磁盘的流控门限。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set vdfc mode=mode |
设置虚拟磁盘的流控门限。 |
hiraidadm ccontroller_id show vdfc |
查询虚拟磁盘的流控门限。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
mode |
虚拟磁盘的流控门限。 |
l low: 顺序I/O优先。 l high: 随机I/O优先。 l medium: 均衡。 |
使用指南
查询虚拟磁盘的流控门限时:
l Current Mode为当前配置。
l Next Mode为重启后生效配置。
使用实例
# 设置虚拟磁盘的流控门限。
[root@localhost ~]# hiraidadm c0
set vdfc mode=high
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
The configuration takes effect after the system is restarted.
# 查询虚拟磁盘的流控门限。
[root@localhost ~]# hiraidadm c0
show vdfc
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Current Mode | low
Next Mode | high
命令功能
查询和设置控制卡的I/O合并超时时间和合并个数。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set merge [sw=switch] [timeout=timeout] [count=count] |
设置控制卡的I/O合并超时时间和合并个数,在控制卡没有I/O时配置。 |
hiraidadm ccontroller_id show merge |
查询控制卡I/O合并参数。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
switch |
开启或关闭控制卡I/O合并。 |
l on:开启I/O合并 l off:关闭I/O合并 缺省时默认为on。 |
timeout |
控制卡I/O合并超时时间。 |
l default:配置为默认值,默认值为64。 l 范围:5~1000000 单位:us |
count |
控制卡I/O合并最大个数。 |
l default:配置为默认值,默认值为32。 l 范围:2~32。 |
使用指南
无。
使用实例
# 设置控制卡的I/O合并超时时间和合并个数,在控制卡没有I/O时配置。
[root@localhost ~]# hiraidadm c0
set merge sw=on timeout=1000 count=2
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.2.0
Build Time: Dec 16 2022 18:56:35
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 查询控制卡I/O合并参数。
[root@localhost ~]# hiraidadm c0
show merge
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.2.0
Build Time: Dec 16 2022 18:56:35
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Switch | On
Timeout | 1000 us
Count | 2
命令功能
查询和设置虚拟磁盘的I/O合并参数,支持配置一个或多个参数。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set vdmerge vd=vd_id [stripelen=stripelen] [startlen=startlen] [mergelen=mergelen] |
设置虚拟磁盘的I/O合并参数,在对应虚拟磁盘没有I/O时配置。 |
hiraidadm ccontroller_id show vdmerge vd=vd |
查询虚拟磁盘的I/O合并参数。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表。 |
stripelen |
MIX内部配置的LUN合并条带大小。 |
l default:配置为默认值;如果LUN真实条带大小小于或者等于256KB,则默认值为真实条带大小的两倍;否则默认值为真实条带大小。 l 范围:8~4096*8,且必须为8的整数倍。 单位:sector/512B |
startlen |
MIX内部启动下发长度阈值。 |
l default:配置为默认值;如果LUN真实条带大小小于或者等于256KB,则默认值为真实条带大小的两倍;否则默认值为真实条带大小 l 范围:8~4096*8,且必须为8的整数倍。 单位:sector/512B |
mergelen |
MIX内部限制下发长度阈值。 |
l default:配置为默认值;如果LUN真实条带大小小于或者等于256KB,则默认值为1024KB;否则默认值为真实条带大小。 l 范围:8~4096*8,且必须为8的整数倍。 单位:sector/512B |
vd |
指定VD或全部。 |
l all:查询所有VD配置。 l 指定逻辑盘的ID。 |
使用指南
无。
使用实例
# 设置虚拟磁盘的I/O合并参数。
[root@localhost ~]# hiraidadm c0
set vdmerge vd=0 stripelen=4096 startlen=4096 mergelen=4096
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.2.0
Build Time: Dec 16 2022 18:56:35
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 查询所有虚拟磁盘的I/O合并参数。。
[root@localhost ~]# hiraidadm c0
show vdmerge vd=all
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.2.0
Build Time: Dec 16 2022 18:56:35
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Total vd number is 1
-------------------------------------------------------
VDID StripeLen(512B) StartLen(512B)
MergeLen(512B)
-------------------------------------------------------
0 4096 4096
4096
-------------------------------------------------------
命令功能
查询和设置硬盘并发参数。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set quedepth type=type [sashdd=sashdd] [sasssd=sasssd] [satahdd=satahdd] [satassd=satassd] |
设置硬盘并发参数。 |
hiraidadm ccontroller_id show quedepth |
查询硬盘并发参数。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
type |
配置裸盘或RAID成员盘。 |
l rawdrive:裸盘 l raid:RAID成员盘 |
sashdd |
配置SAS HDD。 |
范围: 1~128 |
sasssd |
配置SAS SDD。 |
范围: 1~128 |
satahdd |
配置SATA HDD。 |
范围: 1~32 |
satassd |
配置SATA SSD。 |
范围: 1~32 |
使用指南
无。
使用实例
# 设置硬盘并发参数。
[root@localhost ~]# hiraidadm c0
set quedepth type=raid sashdd=128 satassd=16
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
The configuration takes effect after the reboot.
# 查询硬盘并发参数。
[root@localhost ~]# hiraidadm c0
show quedepth
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Current Config
-------------------------------------------------------
Type SASHDD
SASSSD SATAHDD SATASSD
-------------------------------------------------------
RAID 32
64
32 32
RawDrive 64
64
32 32
Next Config
-------------------------------------------------------
Type SASHDD
SASSSD SATAHDD SATASSD
-------------------------------------------------------
RAID 128
64
32 16
RawDrive 64
64
32 32
-----------------------------------------------------
命令功能
查询控制卡中虚拟磁盘详细信息。
命令格式
hiraidadm ccontroller_id:vdvd_id show
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表。 |
使用指南
回显中主要字段的含义如表21-46所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:vdvd_id show |
ID |
逻辑盘ID。 |
0 |
Name |
VD名称。 |
vd0 |
|
RAID ID |
RAID组ID信息。 |
0 |
|
RAID Level |
RAID组级别。 |
0 |
|
Status |
VD状态。 |
normal |
|
VD Type |
逻辑盘类型。 |
normal |
|
Capacity |
容量。 |
1.454TB |
|
VD WWN |
虚拟盘唯一标识。 |
0x68c2a8e000000001000000000010b5c5 |
|
OS Drive Letter |
虚拟盘上报到主机的盘符。 |
/dev/sda |
|
Is Boot Device |
是否为启动设备。 |
false |
|
Strip Size |
条带大小。 |
128KB |
|
Strip Unit Size |
条带单元大小。 |
64KB |
|
Sector Size |
扇区大小。 |
512B |
|
Sector Tyoe |
扇区类型。 |
512E |
|
Write Cache |
cache写状态。 |
WT |
|
Real Write Cache |
实际有效的写cache状态。 |
WT |
|
Read Cache |
cache读状态。 |
No Ahead |
|
Whether Dirty Cache |
是否有未下刷的脏cache数据。 |
No |
|
Sub Group Number |
子组数量。 |
1 |
|
Sub Group Drive Number |
每个子组磁盘数量。 |
3 |
|
VD Initialize Rate |
逻辑盘初始化速率。 |
high |
|
VD Initialize Progress |
初始化进度。 |
NA |
|
Patrolread Rate |
巡检速率。 |
medium |
|
VD Sanitize Progress |
擦除进度。 |
NA |
|
Block Number |
组成VD的块数量。 |
0 |
|
Blocks |
l Index:块索引 l VD_ID:块所属VD l Next_ID:链接的下一块ID l Capacity:块容量 l Start_Lba_On_Drive:本块在物理盘上起始块位置 l Sec_Num_On_Drive:在单个物理盘上的扇区数量 |
- |
使用实例
#查询指定虚拟磁盘的详细信息。
[root@localhost ~]# hiraidadm
c0:vd0 show
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Virtual Drive Information
--------------------------------------------------------------------------------------------------------------
ID
| 0
Name
| vd0
RAID
ID
| 0
RAID
Level
| 1
Status
| normal
VD
Type
| normal
Map Type |
SCSI
Capacity
| 97.656GB [0xc350000 Sectors]
VD
WWN
| 0x6acdcca0000000010000000000228133
OS Drive
Letter
| /dev/sdb
Is Boot
Drive
| True
Stripe
Size
| 256KB
Stripe Unit
Size | 256KB
Sector
Size
| 512B
Sector
Type
| 512N
Write
Cache
| WT
Real Write
Cache | WT
Read
Cache
| No_Ahead
Access
Policy
| RW
Stream
Type
| Normal
Work
PF
| PF0
Whether Dirty Cache | No
Sub Group
Number | 1
Sub Group Drive Number | 2
VD Initialize Rate | high
VD Initialize Progress | NA
Patrolread Rate
| low
VD Sanitize Progress | NA
--------------------------------------------------------------------------------------------------------------
Virtual Drive Block Infomation :
--------------------------------------------------------------------------------------------------------------
Block Number is 1
Index VD_ID Next_ID Capacity Start_Lba_On_Drive
Sec_Num_On_Drive
--------------------------------------------------------------------------------------------------------------
0 0
NA 97.656GB
0x0
204800000
命令功能
查询控制卡中RAID组详细信息。
命令格式
hiraidadm ccontroller_id:rgrg_id show
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
rg_id |
RAID组的ID。 |
查询RAID组的ID请参见21.7.2.27 查询控制卡RAID组列表。 |
使用指南
回显中主要字段的含义如表21-47所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:rgrg_id show |
ID |
RAID组的ID。 |
0 |
Name |
RAID组的名称。 |
raid0 |
|
RAID Level |
RAID组级别。 |
0 |
|
Status |
RAID组状态。 l normal:正常 l fault:故障 l degrade:降级状态 |
normal |
|
Total Capacity |
RAID组总容量。 |
371.611GB [0x2e739000 Sectors] |
|
Free Capacity |
RAID组空闲的容量。 |
313.018GB [0x27209000 Sectors] |
|
Current Background Task |
当前正在进行的后台任务。 |
NA |
|
CopyBack Switch |
RAID组回拷开关状态。 |
on |
|
PD Cache |
硬盘Cache状态。 |
on |
|
Logical Block Size |
逻辑块大小。 |
512B |
|
Block Type |
块类型。 |
512E |
|
Sub Group Number |
子组数量。 |
1 |
|
Sub Group Drive Number |
RAID组子组硬盘数量。 |
1 |
|
Sub Group Free Capacity |
子组剩余容量大小。 |
313.018GB [0x27209000 Sectors] |
|
Sub Group Strip Size |
子组条带大小。 |
0KB |
|
Aligned Size |
校准大小。 |
512MB |
|
Virtual Drives Number |
VD数量。 |
3 |
|
Member VD List |
RAID组下VD列表。 |
1 2 3 |
|
Member Drive Number |
RAID组成员盘数量。 |
2 |
|
Member Drives |
RAID组成员盘信息。 l Index:序号 l Enc:Slot:成员盘框位、槽位ID l Did:成员盘逻辑ID l Sub Group:成员盘所属子组ID |
- |
|
Hotspare Drives Number |
热备盘数量。 |
0 |
|
Hotsapre Drives |
RAID组热备盘信息。 l Index:序号 l Enc:Slot:热备盘框位、槽位ID l Did:热备盘逻辑ID l Sub Group:热备盘所属子组ID |
- |
|
Total Block Number |
RAID组的Block数量(由于创建和删除VD,在RAID组上留下的非连续空间)。 |
5 |
|
Free Block Number |
RAID组的空闲区间容量。 |
2 |
|
RAID Group Block Number |
RAID组的的Block数量。 |
5 |
|
RAID Group Block |
组成该RAID组的详细块信息。 l Index:块序号 l Capacity:块容量 l Used:是否已使用 l VD_ID:使用该块的逻辑盘ID l Start_lba:起始的物理块寻址 l End_lba:结束的物理块寻址 |
- |
使用实例
#查询指定RAID组的详细信息。
[root@localhost ~]# hiraidadm
c0:rg0 show
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
RAID Group Major Information :
--------------------------------------------------------------------------------------------------------------
ID
| 0
Name
| raid0
RAID
Level
| 1
Status
| normal
Total Capacity | 3.638TB
[0x1d1a0b800 Sectors]
Free Capacity |
3.542TB [0x1c56bb800 Sectors]
Current Background Task | NA
--------------------------------------------------------------------------------------------------------------
RAID Group Details :
--------------------------------------------------------------------------------------------------------------
CopyBack Switch | On
PD
Cache
| Default
Logical Block Size | 512B
Block
Type
| 512N
Sub Group Number | 1
Sub Group Drive Number | 2
Sub Group Free Capacity | 3.542TB [0x1c56bb800 Sectors]
Aligned Size
| 512MB
Virtual Drive Number | 1
Member VD List | 0
--------------------------------------------------------------------------------------------------------------
RAID Group Member Drive Infomation :
--------------------------------------------------------------------------------------------------------------
Member Drive Number is 2
Index
1 2
--------------------------------------------------------------------------------------------------------------
Enc:Slot
0:0 0:1
--------------------------------------------------------------------------------------------------------------
Did
5 6
--------------------------------------------------------------------------------------------------------------
Sub_Group
0 0
--------------------------------------------------------------------------------------------------------------
RAID Group Hotspare Drive Infomation :
--------------------------------------------------------------------------------------------------------------
Hotspare Drive Number 0
--------------------------------------------------------------------------------------------------------------
RAID Group Block Infomation :
--------------------------------------------------------------------------------------------------------------
Total Block Number | 2
Free Block Number | 1
RAID Group Block Number 2
Index Capacity Used VD_ID
Start_lba End_lba
--------------------------------------------------------------------------------------------------------------
0 97.656GB Yes
0
0x0
0xc34ffff
1 3.542TB
No NA
0xc350000 0x1d1a0beb0
命令功能
查询虚拟磁盘的成员盘信息。
命令格式
hiraidadm ccontroller_id:vdvd_id show pdarray
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表。 |
使用指南
回显中主要字段的含义如表21-48所示。
命令格式 |
字段 |
含义 |
举例 |
l hiraidadm ccontroller_id:vdvd_id show pdarray l hiraidadm ccontroller_id:rgrg_id show pdarray |
Enc |
硬盘所在框号 |
0 |
Slot |
硬盘所在槽位号 |
5 |
|
DID |
硬盘逻辑ID。 |
0 |
|
AssoEnc |
关联盘所在框号(备份、迁移等)。 |
NA |
|
AssoSlot |
关联盘所在槽位号。 |
NA |
|
AssoDid |
关联盘逻辑ID。 |
NA |
|
Intf |
接口类型。 |
SAS |
|
Media |
介质类型。 |
SSD |
|
Status |
硬盘当前所处状态。 |
online |
|
AssoStatus |
关联盘当前状态。 |
NA |
|
Capacity |
可用容量大小。 |
799.629GB |
|
SecSz |
扇区大小。 |
512B |
|
Model |
硬盘型号。 |
HWE52SS3800M005N |
使用实例
#查询指定虚拟磁盘成员盘信息。
[root@localhost ~]# hiraidadm
c0:vd0 show pdarray
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Total Member Drive Number is 2
--------------------------------------------------------------------------------------------------------------
Enc Slot DID AssoEnc AssoSlot AssoDid Intf Media
Status
AssoStatus Capacity SecSz Model
--------------------------------------------------------------------------------------------------------------
0 0 5 NA
NA NA
SATA HDD
online
NA
3.638TB 512B HUS726T4TALA600
0 1 6
NA NA
NA SATA HDD
online
NA
3.638TB 512B HUS726T4TALA600
--------------------------------------------------------------------------------------------------------------
命令功能
查询RAID组的成员盘信息。
命令格式
hiraidadm ccontroller_id:rgrg_id show pdarray
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
rg_id |
RAID组的ID。 |
查询RAID组的ID请参见21.7.2.27 查询控制卡RAID组列表。 |
使用指南
回显中主要字段的含义如表21-49所示。
命令格式 |
字段 |
含义 |
举例 |
l hiraidadm ccontroller_id:vdvd_id show pdarray l hiraidadm ccontroller_id:rgrg_id show pdarray |
Enc |
硬盘所在框号 |
0 |
Slot |
硬盘所在槽位号 |
5 |
|
DID |
硬盘逻辑ID。 |
0 |
|
AssoEnc |
关联盘所在框号(备份、迁移等)。 |
NA |
|
AssoSlot |
关联盘所在槽位号。 |
NA |
|
AssoDid |
关联盘逻辑ID。 |
NA |
|
Intf |
接口类型。 |
SAS |
|
Media |
介质类型。 |
SSD |
|
Status |
硬盘当前所处状态。 |
online |
|
AssoStatus |
关联盘当前状态。 |
NA |
|
Capacity |
可用容量大小。 |
799.629GB |
|
SecSz |
扇区大小。 |
512B |
|
Model |
硬盘型号。 |
HWE52SS3800M005N |
使用实例
#查询指定RAID组成员盘信息。
[root@localhost ~]# hiraidadm
c0:rg0 show pdarray
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Total Member Drive Number is 2
--------------------------------------------------------------------------------------------------------------
Enc Slot DID AssoEnc AssoSlot AssoDid Intf Media
Status
AssoStatus Capacity SecSz Model
--------------------------------------------------------------------------------------------------------------
0 0 5
NA NA
NA SATA HDD
online
NA
3.638TB 512B HUS726T4TALA600
0 1 6
NA NA
NA SATA HDD
online
NA
3.638TB 512B HUS726T4TALA600
--------------------------------------------------------------------------------------------------------------
命令功能
查询、设置虚拟磁盘一致性校验参数。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id:vdvd_id show ccheck |
查询虚拟磁盘一致性校验参数。 |
hiraidadm ccontroller_id:vdvd_id start ccheck [delay=delay] |
设置虚拟磁盘一致性校验并开始。 |
hiraidadm ccontroller_id:vdvd_id stop ccheck |
停止虚拟磁盘一致性校验。 |
hiraidadm ccontroller_id:vdvd_id show inconsistent |
查询虚拟磁盘的条带一致性校验错误信息。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表。 |
delay |
延时时间。 |
1~24,单位:h |
使用指南
回显中主要字段的含义如表21-50所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:vdvd_id show ccheck |
ID |
当前正在进行一致性校验的虚拟磁盘的ID。 |
0 |
CCheck Switch |
自动一致性校验开关。 |
on |
|
Delay |
一致性校验延时启动时间。 |
1 h |
|
Period |
一致性校验周期。 |
30 day |
|
Rate |
一致性校验速率。 |
low |
|
Repair |
自动修复开关。 |
off |
|
Run status |
一致性校验运行状态。 |
stop |
|
Progress |
一致性校验进度。 |
100% |
|
Estimated Time |
剩余预估时间。 |
0 min |
使用实例
# 查询指定虚拟磁盘一致性校验信息。
[root@localhost ~]# hiraidadm
c0:vd0 show ccheck
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Consistency Check Information
-------------------------------------------------------
ID
| 0
CCheck Switch | On
Delay |
0 h
Period
| 20 day
Rate
| low
Repair
| On
Run
status
| stop
Progress
| NA
Estimated Time | NA
-------------------------------------------------------
# 启动指定虚拟磁盘一致性校验。
[root@localhost ~]# hiraidadm
c0:vd0 start ccheck delay=1
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 停止指定虚拟磁盘一致性校验。
[root@localhost ~]# hiraidadm
c0:vd0 stop ccheck
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 查询指定虚拟磁盘条带一致性校验错误信息。
[root@localhost ~]# hiraidadm
c0:vd0 show inconsistent
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Total stripe number is 0
命令功能
设置虚拟磁盘的Cache读写策略。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id:vdvd_id set wcache mode=wcache_mode |
设置虚拟磁盘Cache写策略。 |
hiraidadm ccontroller_id:vdvd_id set rcache mode=rcache_mode |
设置虚拟磁盘Cache读策略。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表。 |
wcache_mode |
设置虚拟磁盘Cache写策略。 |
l WB:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l WT:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l WBE:在控制卡无电容或电容损坏的情况下,强制使用“wb”策略。 |
rcache_mode |
设置虚拟磁盘Cache读策略。 |
l Ahead:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。 l No_ahead:控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。 |
使用指南
无。
使用实例
# 设置虚拟磁盘Cache写策略为“WT”。
[root@localhost ~]# hiraidadm
c0:vd0 set wcache mode=WT
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 设置虚拟磁盘Cache写策略为“No_Ahead”。
[root@localhost ~]# hiraidadm
c0:vd0 set rcache mode=No_Ahead
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
设置虚拟磁盘的名称。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id:vdvd_id set name val=name |
设置虚拟磁盘的名称。 |
hiraidadm ccontroller_id:vdvd_id clear name |
清空虚拟磁盘的名称,将名称设置为空。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表。 |
name |
设置的逻辑盘名称。 |
最大20字符。 |
使用指南
无。
使用实例
# 设置指定虚拟磁盘的名称为“vd_name”。
[root@localhost ~]# hiraidadm
c0:vd0 set name val=vd_name
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 清空指定虚拟磁盘的名称。
[root@localhost ~]# hiraidadm
c0:vd0 clear name
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
删除虚拟磁盘。
命令格式
hiraidadm ccontroller_id:vdvd_id delete [noprompt]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表。 |
noprompt |
无需用户确认。 |
- |
使用指南
l 当一个RAID组上所有虚拟磁盘都删除后,RAID组删除。
l 当删除虚拟磁盘时不带参数noprompt,输入命令后提示“Do you confirm the execution delete?[Warning] If the VD has an operating system, the operating system may be abnormal.Please input [y|Y] for yes, others for cancel”时。
− 输入“y”或“Y”并按“Enter”确认操作。
− 输入其他取消操作。
使用实例
# 删除虚拟磁盘。
[root@localhost ~]# hiraidadm
c0:vd0 delete
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
Do you confirm the execution delete?
[Warning] If the VD has an operating system, the operating system may be
abnormal.
Please input [y|Y] for yes, others for cancel
---------------------------------------------
y
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
给指定虚拟磁盘扩充容量。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id:vdvd_id expand size=size |
通过增加成员盘可用容量扩充虚拟磁盘容量。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表。 |
size |
要扩容的容量大小。 |
单位:MB max_left表示使用当前RAID组所有剩余容量。 |
使用指南
无。
使用实例
# 扩充指定虚拟磁盘的容量。
[root@localhost ~]# hiraidadm
c0:vd0 expand size=200000
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
命令功能
设置指定虚拟磁盘为控制卡默认启动项。
命令格式
hiraidadm ccontroller_id:vdvd_id set boot sw=switch
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表。 |
switch |
是否作为启动盘。 |
l on:开启作为启动盘 l off:关闭作为启动盘 |
使用指南
无。
使用实例
# 设置指定虚拟磁盘作为启动盘。
[root@localhost ~]# hiraidadm
c0:vd0 set boot sw=on
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : on
--------------------------------------------------------------------------------------------------------------
命令功能
l 启动、停止擦除虚拟磁盘。
l 查询擦除进度。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id:vdvd_id show sanitize |
查询虚拟磁盘擦除进度。 |
hiraidadm ccontroller_id:vdvd_id start sanitize mode=sanitize_mode |
设置并开始擦除虚拟磁盘。 |
hiraidadm ccontroller_id:vdvd_id stop sanitize |
停止擦除虚拟磁盘。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表。 |
sanitize_mode |
设置擦除模式。 |
l simple:仅对虚拟磁盘进行一轮擦除动作。 l normal:对虚拟磁盘进行三轮擦除动作。 l thorough:对虚拟磁盘进行九轮擦除动作。 |
使用指南
回显中主要字段的含义如表21-51所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:vdvd_id show sanitize |
ID |
序号。 |
lun_0_autocase |
Name |
逻辑盘名称。 |
0 |
|
Capacity |
容量大小。 |
10.000GB |
|
Task Status |
擦除状态。 |
Running |
|
VD Status |
逻辑盘当前状态。 |
sanitizing |
|
Rate |
擦除速度。 |
low |
|
Sanitize mode |
LUN的擦除模式。 |
simple |
|
Progress |
擦除进度。 |
94% |
|
Estimated Time |
预计剩余时间。 |
1(min) |
使用实例
# 查询指定虚拟磁盘的擦除进度。
[root@localhost ~]# hiraidadm
c0:vd1 show sanitize
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Virtual Drive Sanitize Information
--------------------------------------------------------------------------------------------------------------
ID |
0
Name
| vd_name
Capacity
| 292.969GB
Task
Status
| Running
VD
Status
| sanitizing
Rate
| low
Sanitize Mode
| simple
Progress |
0%
Estimated Time |
112 min
--------------------------------------------------------------------------------------------------------------
#启动擦除指定虚拟磁盘。
[root@localhost ~]# hiraidadm
c0:vd1 start sanitize mode=simple
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 停止擦除指定虚拟磁盘。
[root@localhost ~]# hiraidadm
c0:vd1 stop sanitize
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
清除虚拟磁盘中的pinned cache数据。
LUN失效时,cache中无法下发的脏数据称为pinned cache。
命令格式
hiraidadm ccontroller_id:vdvd_id delete pinnedcache
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表。 |
使用指南
无。
使用实例
# 清除vd1的pinnedcache数据。
[root@localhost ~]# hiraidadm
c0:vd1 delete pinnedcache
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
设置虚拟磁盘成员盘的Cache策略。
命令格式
hiraidadm ccontroller_id:vdvd_id set pdcache sw=switch
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表。 |
switch |
硬盘Cache开关。 |
l on:开启硬盘Cache。 l off:关闭成员盘Cache。 l default:保持当前成员盘Cache状态。 |
使用实例
# 打开指定虚拟磁盘的成员盘Cache。
[root@localhost ~]# hiraidadm
c0:vd2 set pdcache sw=on
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
设置RAID成员盘的Cache策略。
命令格式
hiraidadm ccontroller_id:rgrg_id set pdcache sw=switch
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
rg_id |
RAID组的ID。 |
查询RAID组的ID请参见21.7.2.27 查询控制卡RAID组列表。 |
switch |
硬盘Cache开关。 |
l on:开启硬盘Cache。 l off:关闭成员盘Cache。 l default:保持当前成员盘Cache状态。 |
使用指南
无。
使用实例
# 开启指定RAID成员盘Cache。
[root@localhost ~]# hiraidadm
c0:rg1 set pdcache sw=on
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
设置虚拟磁盘读写属性。
命令格式
hiraidadm ccontroller_id:vdvd_id set access policy=policy
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表。 |
policy |
虚拟磁盘的读写属性。 |
l RO:设置为只读。 l RW:设置为读写。 |
使用指南
l 仅允许设置RAID下非fault状态的虚拟磁盘。
l Bst超标导致失效的虚拟磁盘设置只读,需要重启才能生效。
l Bst超标导致fault场景:如果有重构,用户需要设置只读前,关闭紧急热备,再下线热备盘,然后配置只读,重启等待只读生效,把数据读走后再还原配置(上线、开启紧急热备)。
l 查询虚拟磁盘读写属性请参见0查询虚拟磁盘信息。
使用实例
# 设置虚拟磁盘为只读。
[root@localhost ~]# hiraidadm
c0:vd0 set accesss policy=ro
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询指定硬盘的详细信息。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id show
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
使用指南
回显中主要字段的含义如表21-52所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show |
Enc |
硬盘所在的框位ID。 |
0 |
Slot |
硬盘所在槽位的ID。 |
15 |
|
DID |
硬盘逻辑ID。 |
4 |
|
Intf |
硬盘接口类型。 |
SATA |
|
Media type |
硬盘物理类型。 |
SSD |
|
Link speed |
端口协商速度。 |
6.0Gb/s |
|
Capacity |
硬盘原始容量大小。 |
1.920TB [0xdf8fe2b0 Sectors] |
|
Hibernated Status |
硬盘休眠状态。 |
Spin Up |
|
Model |
硬盘型号。 |
SAMSUNG MZ7LH1T9HMLT-00005 |
|
Type |
硬盘类型。 |
member |
|
Status |
硬盘当前状态。 |
online |
|
Is Hotspare Drive |
是否为热备盘。 |
False |
|
Is Boot Drive |
是否为启动盘。 |
False |
|
Asso Enc |
关联硬盘框号。 |
NA |
|
Asso Slot |
关联硬盘槽位号。 |
NA |
|
Asso Device Id |
关联硬盘的ID。 |
NA |
|
RAID Group ID |
硬盘所属RAID组的ID。 |
NA |
|
RAID Group Level |
硬盘所在RAID组级别。 |
NA |
|
RAID Group Capacity |
硬盘所属RAID组容量。 |
NA |
|
PreFail |
硬盘是否预失效。 |
False |
|
Media Error count |
介质错误统计。 |
0 |
|
Other Error count |
除介质错误外,其余错误统计。 |
0 |
|
Locate Led Status |
硬盘位置灯的状态。 |
Off |
|
SAS Address |
硬盘的SAS地址。 |
0x5000000000000107 |
|
Drive WWN |
硬盘唯一标识。 |
5002538e106102d0 |
|
OS Drive Letter |
若硬盘开了直通功能,该盘上报到主机后分配的盘符。 |
NA |
|
Vendor |
硬盘厂商。 |
ATA |
|
Serial number |
硬盘序列号。 |
S455NA0N647543 |
|
Firmware Version |
硬盘固件版本号。 |
404Q |
|
Drive Max Speed |
硬盘最大速率。 |
6.0Gb/s |
|
Logical Sector Size |
硬盘逻辑扇区大小。 |
512B |
|
Physicak Sector Size |
硬盘物理扇区大小。 |
4096B |
|
Drive temperature |
硬盘当前温度。 |
31c |
|
Drive size |
硬盘尺寸。 |
2.5 inch |
|
Drive Cache Switch |
硬盘Cache状态。 |
OFF |
|
Ncq Support |
是否支持原生命令队列。 |
True |
|
Ncq Enable |
原生命令队列使能状态。 |
Enable |
|
SED Capable |
是否为加密盘。 |
False |
|
SED Enabled |
是否开启加密。 |
False |
|
Power On Time |
硬盘累计上电时间。 |
1443h |
|
Connected Port Id |
硬盘连接端口号。 |
0 |
|
Linked Port Speed |
端口最大速率。 |
6.0Gb/s |
|
Rotation Rate |
硬盘转速。 |
Non-rotating Medium |
|
Residual Wearout |
剩余磨损度,支持所有的SAS SSD和支持磨损度查询的SATA SSD。 |
NA |
|
Current Task |
硬盘当前任务。 |
NA |
|
Task Remaining Time |
任务预估时间。 |
0 |
|
Task Progress |
任务进度。 |
NA |
|
Fua Support |
是否支持FUA。 |
Yes |
|
Slow Drive |
是否为慢盘。 |
No |
使用实例
#查询指定硬盘的详细信息。
[root@localhost ~]# hiraidadm
c0:e0:s0 show
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Drive Major Information :
--------------------------------------------------------------------------------------------------------------
Enc
| 0
Slot
| 0
DID
| 5
Intf
| SATA
Media
Type
| HDD
Link Speed
| 6.0Gb/s
Capacity
| 3.639TB [0x1d1c0beb0 Sectors]
Hibernated Status | Spin Up
Model
| HUS726T4TALA600
Drive Logical Infomation :
--------------------------------------------------------------------------------------------------------------
Type
| member
Status
| online
Is Hotspare Drive | False
Is Boot Drive |
False
Asso
Enc
| NA
Asso
Slot
| NA
Asso Device Id | NA
RAID Group ID | 0
RAID Group Level | 1
RAID Group Capacity | 3.638TB
Drive Health Status :
--------------------------------------------------------------------------------------------------------------
Prefail
| No
Media Error Count | 0
Other Error Count | 0
Locate Led Status | Off
Drive Detail Information :
--------------------------------------------------------------------------------------------------------------
SAS
Address
| 0x5000000000000007
Drive
WWN
| 5000cca097f5e8a0
OS Drive Letter | NA
Vendor
| HITACHI
Serial Number |
V6KULAGS
Firmware Version | T010
Drive Max Speed | 6.0Gb/s
Logical Sector Size | 512B
Physical Sector Size | 512B
Drive Temperature | 32c
Drive
size
| 3.5 inch
Drive Cache Switch | Off
Ncq
Support
| True
Ncq
Enable
| Enable
SED Capable |
False
SED
Enabled
| False
Power On Time |
4321h
Connected Port Id | 3
Phy Max Speed |
12Gb/s
Rotation Rate |
7200rpm
Residual Wearout | NA
Current Task
| NA
Task Remaining Time | NA
Task Progress | NA
Fua
Support
| Yes
Slow
Drive
| No
命令功能
设置硬盘状态。
当全局裸盘模式开启时,才支持设置硬盘状态为JBOD。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id set status
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
status |
设置的硬盘状态。 |
l free:设置硬盘空闲 l jbod:设置硬盘为裸盘 |
使用指南
无。
使用实例
# 将指定硬盘设置为空闲状态。
[root@localhost ~]# hiraidadm
c0:e0:s9 set free
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
设置硬盘为全局热备盘或局部热备盘。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id set hotspare [rg=rg_id]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
rg_id |
RAID组的ID。 |
查询RAID组的ID请参见21.7.2.27 查询控制卡RAID组列表。 |
使用指南
若要取消热备盘状态,可使用以下命令,具体请参见21.7.4.74 设置硬盘状态。
hiraidadm ccontroller_id:eenclosure_id:sslot_id set free
使用实例
# 设置指定硬盘为全局热备盘。
[root@localhost ~]# hiraidadm
c0:e0:s2 set hotspare
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 设置指定硬盘为RAID的局部热备盘。
[root@localhost ~]# hiraidadm
c0:e0:s2 set hotspare rg=0
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
设置指定槽位为热备槽位。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id set hspslot sw=switch
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
switch |
设置热备槽位使能状态。 |
l on:开启热备槽位功能 l off:关闭热备槽位功能 |
使用指南
无。
使用实例
# 设置指定槽位为热备槽位。
[root@localhost ~]# hiraidadm
c0:e0:s2 set hspslot sw=on
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
设置当前硬盘对应端口phy的连接状态(仅直连硬盘)。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id set phy func=func [sp=speed]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
func |
指定功能函数。 |
l hardreset l linkreset l disable l enable l speed l enableloop l disableloop |
speed |
链接速率,当func=speed时有效。 |
l 1.5G l 3G l 6G l 12G |
使用指南
无。
使用实例
#设置指定硬盘phy口状态为disable。
[root@localhost ~]# hiraidadm
c0:e0:s5 set phy func=disable
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
l 查询当前硬盘phy口的链路状态。
l 清除指定硬盘phy口的误码计数。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show phyerror |
查询当前硬盘phy口的链路状态。 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id clear phyerror |
清除指定硬盘phy口的误码计数。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
使用指南
回显中主要字段的含义如表21-53所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show phyerror |
Phy id |
phy端口ID。 |
7 |
Phy enable |
Phy口使能状态。 |
enable |
|
Link speed |
端口下行速率。 |
6.0Gb/s |
|
Attach Device Type |
设备类型。 |
SATA |
|
Attach SAS Address |
连接的sas设备地址。 |
0x5000000000000007 |
|
Invalid Dword Count |
无效的双字计数。 |
0 |
|
Run Disparity Error Count |
运行差异错误计数。 |
0 |
|
Loss Of Dword Sync |
双字同步丢失数。 |
0 |
|
Phy Reset Problem Count |
Phy口重置问题计数。 |
0 |
使用实例
#查询硬盘phy的链路状态。
[root@localhost ~]# hiraidadm
c0:e0:s0 show phyerror
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
-------------------------------------------------------
Phy
id
| 7
Phy
enable
| enable
Link
speed
| 6.0Gb/s
Attach Device Type | SATA
Attach SAS Address | 0x5000000000000007
Invalid Dword Count | 0
Run Disparity Err Count | 0
Loss Of Dword Syn Count | 0
Phy Reset Problem Count | 0
-------------------------------------------------------
#清除硬盘phy口的误码计数。
[root@localhost ~]# hiraidadm
c0:e0:s0 clear phyerror
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询指定硬盘端误码。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id show driveerror
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
使用指南
无。
使用实例
#查询硬盘端误码。
[root@localhost ~]# hiraidadm
c0:e0:s0 show driveerror
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
Device
Present
| Yes
Drive
Type
| SATA
Link
Speed
| 6.0Gb/s
Command failed and ICRC error bit set to one in Error
register | 0
R_ERRP response for Data
FIS
| 0
R_ERRP response for Device-to-Host Data
FIS
| 0
R_ERRP response for Host-to-Device Data
FIS
| 0
R_ERRP response for non-Data
FIS
| 0
R_ERRP response for Device-to-Host non-Data
FIS
| 0
R_ERRP response for Host-to-Device non-Data
FIS
| 0
Device-to-Host non-Data FIS
retries
| 0
Transitions from drive PHYRDY to drive
PHYRDYn
| 7
Register Device to Host FISes sent due to a COMRESET
| 7
CRC errors within a host-to-device
FIS
| 0
Non-CRC errors within a host-to-device
FIS
| 0
R_ERRP response for Host-to-Device Data FIS due to CRC
errors | NA
R_ERRP response for Host-to-Device Data FIS due to non-CRC errors | NA
R_ERRP response for Host-to-Device non-Data FIS due to CRC errors | NA
R_ERRP response for Host-to-Device non-Data FIS due to
non-CRC | NA
--------------------------------------------------------------------------------------------------------------
命令功能
点亮和熄灭指定硬盘的定位指示灯或故障指示灯。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id set led type=led_type sw=switch
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
led_type |
要点亮和熄灭的灯类型。 |
l err:故障指示灯。 l locate:定位指示灯。 |
switch |
设置开关状态。 |
l on l off |
使用指南
l 定位指示灯状态优先级大于故障指示灯,当定位指示灯点亮时,无法点亮故障指示灯,需关闭定位指示灯后点亮。
l 故障指示灯(err):绿灯亮,黄灯亮。
l 定位指示灯(locate):绿灯亮,黄灯闪。
使用实例
# 点亮硬盘的故障指示灯。
[root@localhost ~]# hiraidadm
c0:e0:s0 set led type=err sw=on
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
l 启动硬盘sanitize擦除。
l 查询硬盘sanitize擦除进度。
l sanitize擦除硬盘不可中止。
l cryptoerase和blockerase模式,启动命令返回成功即擦除成功完成。
l 只能对裸盘(rawdrive)和空闲盘(free、ugood)执行sanitize命令。
l sanitize过程中的硬盘不允许执行创建RAID组、设置成裸盘(rawdrive)、设置成空闲盘(free)或热备盘等会切换硬盘状态的操作。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show sanitize |
查询sanitize擦除硬盘进度。 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id start sanitize mode=sanitize_mode |
启动sanitize擦除硬盘。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
sanitize_mode |
设置擦除模式。 |
l cryptoerase:执行加密擦除操作 l overwrite:执行覆盖写零操作 l blockerase: 执行块擦除操作 |
使用指南
回显中主要字段的含义如表21-54所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:vdvd_id show sanitize |
Sanitize Progress |
擦除进度。 |
45% |
Estimated Time |
预估剩余时间。 |
13(min) |
使用实例
# 查询硬盘sanitize擦除进度。
[root@localhost ~]# hiraidadm
c0:e0:s2 show sanitize
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Sanitize Progress | NA
Estimated
Time | NA
#启动硬盘sanitize擦除。
[root@localhost ~]# hiraidadm
c0:e0:s2 start sanitize mode=cryptoerase
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
l 启动、停止硬盘erase擦除。
l 查询硬盘erase擦除进度。
l 相较于sanitize,erase擦除模式支持的物理盘类型更多,但总体速度慢于sanitize模式。
l 支持Security feature set的SATA SSD无法停止erase。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show erase |
查询硬盘erase擦除进度。 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id start erase mode=erase_mode [pa=11100000 pb=11110000] |
启动硬盘erase擦除。 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id stop erase |
停止硬盘erase擦除。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
erase_mode |
设置擦除模式。 |
l simple:单次擦除 l normal:擦除3次 l thorough:擦除9次 |
pa |
擦除模式A覆盖数据。 |
默认值:11100000 |
pb |
擦除模式B覆盖数据。 |
默认值:11110000 |
使用指南
l 擦除不成功时,如果返回的status code为1942(Invalid sanitize type),表示硬盘本身不支持此擦除类型,请修改擦除类型并重试。
l 回显中主要字段的含义如表21-55所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show erase |
Sanitize Progress |
擦除进度。 |
45% |
Estimated Time |
预估剩余时间。 |
13(min) |
使用实例
# 查询硬盘erase擦除进度。
[root@localhost ~]# hiraidadm
c0:e0:s2 show erase
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Erase Progress | 0%
Estimated Time | 0 min
#启动硬盘erase擦除。
[root@localhost ~]# hiraidadm
c0:e0:s2 start erase mode=simple pa=11100000 pb=11110000
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
#停止硬盘erase擦除。
[root@localhost ~]# hiraidadm
c0:e0:s2 stop erase
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
升级和激活硬盘固件。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id update fw file=file |
升级硬盘的固件。 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id active fw |
激活硬盘的固件。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
file |
指定用于升级的硬盘firmware文件。 |
– |
使用实例
#升级硬盘固件。
[root@localhost ~]# hiraidadm
c0:e0:s23 update fw file=root/HXT7404Q_NF.bin
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
SCSI Disk Upgrade Success!
Update disk firmware done, duration: 10s
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
#激活硬盘固件。
[root@localhost ~]# hiraidadm
c0:e0:s23 active fw
========================================== hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询、设置指定硬盘的Cache策略。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id set pdcache sw=switch |
设置硬盘的Cache状态。 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show pdcache |
查询硬盘的Cache状态。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
switch |
硬盘Cache开关。 |
l on l off |
使用指南
无。
使用实例
# 设置指定硬盘Cache策略为on。
[root@localhost ~]# hiraidadm
c0:e0:s6 set pdcache sw=on
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : on
--------------------------------------------------------------------------------------------------------------
# 查询指定硬盘Cache策略。
[root@localhost ~]# hiraidadm
c0:e0:s6 show pdcache
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Drive Cache switch = On
命令功能
查询指定硬盘的SMART信息。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id show smart
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
使用指南
回显中主要字段的含义如表21-56所示。
命令格式 |
硬盘类型 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show |
SATA |
ID |
某一检测项目的ID。 |
1 |
ATTRIBUTE_NAME |
制造商定义的属性值。 |
Raw_Read_Error_Rate |
||
FLAG |
属性操作标志。 |
0x000b |
||
VALUE |
当前值,是各ID项在硬盘运行时根据实测原始数据通过公式计算的结果。253意味着最好情况,1意味着最坏情况。 |
100 |
||
WORST |
最差值,硬盘运行时各ID项曾出现过的最小的value。 |
086 |
||
THRESH |
临界值,厂商指定的表示某一项目可靠性的门限值。 |
016 |
||
TYPE |
属性的类型。prefail意味着硬盘即将发生失效;oldage表示磁盘不会发生故障; |
Pre fail |
||
UPDATED |
属性更新频率。 |
Always |
||
RAW_VALUE |
制造商定义的原始值,从VALUE派生 |
0 |
||
SAS |
请参见Smartctl工具。 |
使用实例
#查询硬盘SMART信息(SATA)。
[root@localhost ~]# hiraidadm
c0:e0:s0 show smart
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Man-made SMART Attributes with Thresholds
--------------------------------------------------------------------------------------------------------------
ID
ATTRIBUTE_NAME
FLAG VALUE WORST THRESH
TYPE UPDATED RAW_VALUE
1 Raw_Read_Error_Rate
0x000b 100 086
016 Pre fail Always 0
2 Throughput_Performance 0x0005
129 127 054 Pre
fail Offline 104
3
Spin_Up_Time
0x0007 143 100
024 Pre fail Always 295
(Average 295)
4
Start_Stop_Count
0x0012 100 100
000 Old age Always 681
5 Reallocated_Sector_Ct 0x0033
100 100 005 Pre
fail Always 25
7
Seek_Error_Rate
0x000b 100 100
067 Pre fail Always 0
8 Seek_Time_Performance
0x0005 128 128
020 Pre fail Offline 18
9
Power_On_Hours 0x0012
100 100 000 Old
age Always 4321
10
Spin_Retry_Count
0x0013 100 100
060 Pre fail Always 0
12
Power_Cycle_Count 0x0032
100 100 000 Old
age Always 681
192 Power-Off_Retract_Count 0x0032
097 097 000 Old
age Always 3702
193
Load_Cycle_Count
0x0012 097 097
000 Old age Always 3702
194 Temperature_Celsius
0x0002 181 127
000 Old age Always 33
(Min/Max 19/47)
196 Reallocated_Event_Count 0x0032
100 100 000 Old
age Always 25
197 Current_Pending_Sector 0x0022
100 100 000 Old
age Always 1306
198 Offline_Uncorrectable 0x0008
053 053 000 Old
age Offline 11321
199 UDMA_CRC_Error_Count 0x000a
200 200 000 Old
age Always 0
--------------------------------------------------------------------------------------------------------------
#查询硬盘SMART信息(SAS)。
[root@localhost ~]# hiraidadm
c0:e0:s6 show smart
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.2.0
Build Time: Dec 19 2022 21:45:23
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
=== START OF READ SMART DATA SECTION ===
SMART Health Status: OK
Current Drive Temperature: 27 C
Drive Trip Temperature: 65 C
Accumulated power on time, hours:minutes 4575:29
Manufactured in week 08 of year 2020
Specified cycle count over device lifetime: 50000
Accumulated start-stop cycles: 1691
Specified load-unload count over device lifetime: 600000
Accumulated load-unload cycles: 7098
Elements in grown defect list: 0
Error counter log:
Errors Corrected
by
Total Correction
Gigabytes Total
ECC
rereads/ errors
algorithm processed uncorrected
fast | delayed
rewrites corrected invocations [10^9 bytes]
errors
read:
50805
9
0
0 0
304806.171 0
write:
0
0
0
0
0
4452.857 0
verify: 0 0
0
0
0 167.168
0
Non-medium error count: 354
SMART Self Test log
Num
Test
Status
segment LifeTime LBA_first_err [SK ASC ASQ]
Description
number (hours)
# 1 Background long
Completed
-
22
- [- - -]
# 2 Background short
Completed
-
20
- [- - -]
# 3 Background long
Completed
-
9
- [- - -]
Long (extended) Self Test duration: 3917 seconds [65.3 minutes]
命令功能
查询和设置硬盘巡检的相关参数。
l 不支持非成员盘、非冗余的RAID组成员盘和SSD。
l 异常掉电后开机自动开启巡检。但对于异常掉电后,用户手动清除用户数据场景,则不会自动开启巡检,需要用户手动启动巡检。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show patrolread |
查询硬盘巡检状态。 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id start patrolread [delay=delay_time] |
设置硬盘巡检参数并执行。 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id stop patrolread |
停止硬盘巡检。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
delay_time |
指定延时启动时间。 |
1~24(单位:h) |
使用指南
回显中主要字段的含义如表21-57所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show patrolread |
Run Status |
巡检执行状态。 |
stop |
Patrolread Rate |
巡检速率。 |
high |
|
Patrolread Progress |
巡检进度。 |
NA |
|
Estimated time |
剩余预估时间。 |
NA |
使用实例
# 查询硬盘巡检信息。
[root@localhost ~]# hiraidadm
c0:e0:s6 show patrolread
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Disk Patrolread Information
-------------------------------------------------------
Run
Status
| stop
Patrolread Rate | low
Patrolread progress | NA
Estimated time | NA
-------------------------------------------------------
# 设置硬盘巡检参数。
[root@localhost ~]# hiraidadm c0:e0:s6
start patrolread delay=2
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 停止硬盘巡检。
[root@localhost ~]# hiraidadm
c0:e0:s6 stop patrolread
=========================================== Hiraidadm Information ============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询指定硬盘I/O统计信息。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id show iocnt
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
使用指南
回显中主要字段的含义如表21-58所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show iocnt |
Io Count |
正常完成的I/O数量。 |
2 |
Failed Io Count |
失败I/O数量。 |
0 |
使用实例
# 查询指定硬盘I/O统计信息。
[root@localhost ~]# hiraidadm
c0:e0:s0 show iocnt
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
Io
Count
| 347030
Failed Io Count | 0
--------------------------------------------------------------------------------------------------------------
命令功能
SCSI透传管理命令。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id passthru scsi type=type cdblen=cdb_length cdb=cdb_value [file=file_name] [data_len=data_length]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
type |
指定命令数据传输方向。 |
l read l write l set |
cdb_length |
cdb帧长度。 |
l 6 l 10 l 12 l 16 |
cdb_value |
cdb帧,按16进制的字节表示。 |
例如:0x1b, 0x01, 0x00, 0x00, 0x01 |
file_name |
写入或保存数据的文件。 l type=write时,文件内容即往盘写入的数据。 l type=read时,数据会写入该文件。 |
- |
data_length |
cdb帧内传递数据的长度。 |
当type=write时,长度不大于文件的大小,否则无法从文件中读取到指定长度的数据。 |
使用指南
无。
使用实例
#SCSI透传管理命令。
[root@localhost ~]# hiraidadm
c0:e0:s0 passthru scsi type=read cdblen=10
cdb=0x28,0x00,0x46,0x82,0x20,0xd8,0x00,0x00,0x08,0x00 file=save.txt
data_len=4096
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询指定硬盘坏块列表信息。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id show bst [slba=start_lba num=number]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
start_lba |
设置从指定硬盘块开始查询的位置。 |
- |
number |
需要查询的坏块数量。 |
- |
使用指南
回显中主要字段的含义如表21-59所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show bst [slba=start_lba num=number] |
Index |
坏盘序号。 |
0 |
Did |
硬盘的ID。 |
4 |
|
Start Lba |
起始LBA地址。 |
0 |
|
Lba_len |
LBA数量。 |
2048 |
|
Type |
逻辑类型或者物理类型。 |
Physical |
使用实例
#查询指定硬盘坏块列表信息。
[root@localhost ~]# hiraidadm
c0:e0:s4 show bst
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Total diskbst number is 2
--------------------------------------------------------------------------------------------------------------
Index Did Start_lba lba_len Type
Index Did Start_lba lba_len Type
--------------------------------------------------------------------------------------------------------------
0 4
0
2048 Physical | 1
4 4096 6144
Physical |
--------------------------------------------------------------------------------------------------------------
命令功能
设置指定硬盘为控制卡默认启动项。
仅在裸盘模式开启时,可设置硬盘为启动项。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id set boot sw=switch
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
switch |
是否作为启动盘。 |
l on:开启作为启动盘 l off:关闭作为启动盘 |
使用指南
无。
使用实例
# 设置硬盘作为启动盘。
[root@localhost ~]# hiraidadm
c0:e0:s6 set boot sw=on
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询指定硬盘背板的链路状态(当前仅支持直连背板)。
命令格式
hiraidadm ccontroller_id:eenclosure_id show phy
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
使用指南
回显中主要字段的含义如表21-60所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:eenclosure_id show phy |
ID |
序号 |
2 |
Status |
端口状态 |
enable |
|
LinkSpd |
端口下行速率 |
12Gb/s |
|
Dev_type |
设备类型 |
SAS |
|
Attach_Sas_addr |
所链接的sas地址 |
0x050000399886980c6 |
|
IDC |
无效的双字计数。 |
0 |
|
RDEC |
运行差异错误计数。 |
0 |
|
LDSC |
双字同步丢失数。 |
0 |
|
PRPC |
Phy口重置问题计数。 |
0 |
使用实例
#查询硬盘背板phy误码。
[root@localhost ~]# hiraidadm
c0:e0 show phy
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Total phy number is 40
--------------------------------------------------------------------------------------------------------------
ID Status linkSpd Dev_type Attach_Sas_addr
IDC RDEC LDSC PRPC
--------------------------------------------------------------------------------------------------------------
0 enable 6.0Gb/s SATA
0x5000000000000007 0
0 0 0
1 enable 6.0Gb/s SATA
0x5000000000000006 0
0 0 0
2 enable 6.0Gb/s SATA
0x5000000000000005 0
0 0 0
3 enable 6.0Gb/s SATA
0x5000000000000004 0
0 0 0
4 enable No_link NODEV
0x0
0 0
0 0
5 enable No_link NODEV
0x0
0 0
0 0
6 enable No_link NODEV
0x0
0 0
0 0
7 enable No_link NODEV
0x0
0 0
0 0
8 enable 6.0Gb/s SATA
0x5000000000000107 0
0 0 0
9 enable 6.0Gb/s SATA
0x5000000000000106 0
0 0 0
10 enable 12Gb/s SAS
0x5000c500cecb08d1 0
0 0 0
11 enable 12Gb/s SAS 0x5000cca04eb0aa05
0 0
0 0
12 enable 12Gb/s SAS
0x5c8a776b93321000 0
0 0 0
13 enable 6.0Gb/s SATA
0x5000000000000102 0
0 0 0
14 enable 6.0Gb/s SATA
0x5000000000000101 0 0 0
0
15 enable 6.0Gb/s SATA
0x5000000000000100 0
0 0 0
16 enable No_link NODEV
0x0
0 0
0 0
17 enable No_link NODEV
0x0
0 0
0 0
18 enable No_link NODEV
0x0
0 0
0 0
19 enable No_link NODEV
0x0
0 0
0 0
20 enable No_link NODEV
0x0
0 0
0 0
21 enable No_link NODEV
0x0 0
0 0 0
22 enable No_link NODEV
0x0
0 0
0 0
23 enable No_link NODEV
0x0
0 0
0 0
24 enable No_link NODEV
0x0
0 0
0 0
25 enable No_link NODEV
0x0
0 0
0 0
26 enable No_link NODEV
0x0
0 0
0 0
27 enable No_link NODEV
0x0
0 0
0 0
28 enable No_link NODEV
0x0
0 0
0 0
29 enable No_link NODEV
0x0
0 0
0 0
30 enable No_link NODEV
0x0
0 0
0 0
31 enable No_link NODEV
0x0
0 0
0 0
32 enable No_link NODEV
0x0
0 0
0 0
33 enable No_link NODEV
0x0
0 0
0 0
34 enable No_link NODEV
0x0
0 0
0 0
35 enable No_link NODEV
0x0
0 0
0 0
36 enable No_link NODEV
0x0
0 0
0 0
37 enable No_link NODEV
0x0
0 0
0 0
38 enable No_link NODEV 0x0
0 0
0 0
39 disable No_link NODEV
0x0
0 0
0 0
IDC=Invalid Dword Count, RDEC=Run Disparity
Error Count
LDSC=Loss Of Dword Sync Count, PRPC=Phy Reset Problem Count
--------------------------------------------------------------------------------------------------------------
命令功能
设置并保存phy口的配置,下次启动时该phy口将按此配置尝试连接(或关闭)。
仅支持直连phy(即e0)。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id set phy_cfg sw=switch [speed=speed]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表。 |
switch |
开关状态。 |
- |
speed |
phy最大速率。 |
l 1.5G l 3G l 6G l 12G 默认值为:12G。 |
使用指南
无。
使用实例
#设置并保存phy口的配置。
[root@localhost ~]# hiraidadm
c0:e0:s0 set phy_cfg sw=off
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : off
Default set speed : 12g
--------------------------------------------------------------------------------------------------------------
命令功能
查询超级电容的名称及TFM Flash卡缓存容量的大小等信息。
命令格式
hiraidadm ccontroller_id:sc show supercap
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
回显中主要字段的含义如表21-61所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:sc show supercap |
Present |
电容在位状态。 |
Yes |
Status |
电容状态。 |
OK |
|
Flash erase status |
Flash擦除状态。 |
No |
|
Replacement required |
是否需要更换(当电容故障或者容值不足时需要更换电容模块)。 |
No |
|
Space to cache offload |
是否有空间备份cache。 |
Yes |
|
Device Name |
设备名称。 |
DSCAP01 |
|
P-MOSFET status |
电容MOS的打开和关闭状态。 |
open |
|
Temperature |
超级电容模组温度。 |
29c |
|
Voltage |
超级电容电压。 |
12.9V |
|
Date of Manufacture |
电容模组生产日期。 |
2021/07/15 |
|
SN |
电容模组生产序列号。 |
MB730010001 |
|
Vendor ID |
电容模组厂商ID。 |
01 |
|
Vendor Name |
电容模组厂商名称。 |
JH |
|
Design Capacity |
电容模组设计容量。 |
8.00F |
|
Supercap Version |
超级电容版本号。 |
0001 |
|
Supercap SN |
电容序列号。 |
2B831191 |
|
Supercap Date of Manufacture |
电容出厂日期。 |
00 |
|
PCBAssmNO |
PCB装配号。 |
A000000001 |
|
PCB Vresion |
PCB版版本号。 |
B |
|
PackAssmNo |
打包序列号。 |
B70101 |
|
Module Version |
电容模组版本号。 |
0001 |
|
Alarm Temp |
告警温度门限。 |
60c |
|
Learn Status |
自学习状态。 |
UNDO |
|
High Temperature Alarm |
温度过高告警。 |
No |
|
Voltage Low Alarm |
电压过低告警。 |
No |
|
Pack Missing |
电容不在位告警状。 |
No |
|
Remaining Capacity Low Alarm |
电容剩余容量低告警。 |
No |
使用实例
#查询超级电容的相关信息。
[root@localhost ~]# hiraidadm
c0:sc show supercap
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Present
| Yes
Status
| OK
Flash erase
status | OK
Replacement required | No
Space to cache offload | Yes
Device
Name
| DSCAP01
P-MOSFET
status
| Open
IIC SIGNAL
status
| OK
Temperature
| 30c
Voltage
| 12.1V
Date of Manufacture
| 2021/07/15
SN
| MB730010001
Vendor
Id
| 01
Vendor
Name
| JH
Design
Capacity
| 8.00F
Supercap
Version
| 0001
Supercap
SN
| 2B831191
Supercap Date of Manufacture | 2021/06/30
PCBAssmNO
| A000000001
PCB
Version
| B
PackAssmNo
| B70101
Module Version |
0001
Alarm
Temp
| 60c
Learn
Status
| OK
High Temperature Alarm | No
Voltage Low
Alarm |
No
Pack
Missing
| No
Low Capacity
Alarm | No
命令功能
查询、设置控制卡的超级电容自学习功能。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id:sc show selflearn |
查询控制卡的超级电容自学习状态。 |
hiraidadm ccontroller_id:sc set learn cycle=learn_cycle [starttime=starttime] |
设置控制卡的超级电容自学习功能。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
learn_cycle |
超级电容的学习间隔。 |
最小为1,最大由启动时间限定,启动时间加cycle天数最大支持2100-01-01,12:00:00。 单位:day |
starttime |
启动时间。 不填时默认以当前时间进行设置。 |
yyyy-MM-dd,hh:mm:ss,最小为当前时间,最大设置时间为距当前24小时。 |
使用指南
l 达到自学习启动时间后,大约5min后开启充放电过程。
l 回显中主要字段的含义如表21-62所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show selflearn |
Present |
在位状态。 |
No |
Learn cycle |
自学习周期。 |
30day |
|
Last learn status |
上次自学习完成状态。 |
UNDO |
|
Last learn time |
最后一次自学习时间。 |
2022-01-25 11:48:23 |
|
Next Learn Time |
下次学习时间。 |
2022-01-26 12:24:44 |
使用实例
# 查询控制卡超级电容自学习状态。
[root@localhost ~]# hiraidadm
c0:sc show selflearn
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Present | Yes
Learn cycle | 30day
Last learn status | OK
Last learn time | 2022-11-16 02:24:56
Next learn time | 2022-11-17 02:34:20
#设置控制卡的超级电容自学习功能。
[root@localhost ~]# hiraidadm
c0:sc set learn cycle=5 starttime=2022-11-17,00:00:00
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
设置备电模块告警温度。
命令格式
hiraidadm ccontroller_id:sc set alarm temp=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
value |
告警温度的门限值。 |
60~70(整数) 单位:℃ |
使用指南
无。
使用实例
# 设置控制卡的备电模块告警温度。
[root@localhost ~]# hiraidadm
c0:sc set alarm temp=65
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
关于本章
主要介绍SP186 HBA控制卡的外观、特性、以及配置方法。
涉及的截图以1.3.7.2 Firmware版本为例,不同Firmware版本的控制卡界面有差异,具体请以实际为准。
SP186有如下3个规格:
l SP186-M-16i
l SP186-M-32i
l SP186-M-40i
对于SP186 HBA控制卡的通用描述,不做产品名称区分。对于不同规格间有差异的内容描述,做产品名称区分。
SP186 HBA控制卡是12Gbit/s SAS控制卡,并支持PCIe 4.0 ×16/×8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。
SP186 HBA控制卡用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。
SP186 HBA控制卡包含以下规格,如表22-1所示。
板卡名称 |
SP186-M-16i |
SP186-M-32i |
SP186-M-40i |
PCIe接口a |
PCIe 4.0 ×8 |
PCIe 4.0 ×16 |
PCIe 4.0 ×8 |
最大直连SAS/SATA盘数量 |
16 |
32 |
40 |
支持的RAID组最大数量 |
16 |
32 |
40 |
单RAID组支持的最大硬盘数量 |
16 |
30 |
30 |
单RAID组最大创建逻辑盘数量 |
16 |
16 |
16 |
a:所有控制卡的连接器均为PCIe ×16,SP186-M-16i和SP186-M-40i实际可支持的最大Lane数为×8,SP186-M-32i实际可支持的最大Lane数为×16。 |
SP186 HBA控制卡支持以裸盘模式和创建RAID组两种方式使用硬盘,关于裸盘模式的具体介绍请参考0裸盘。
SP186 HBA控制卡为全高半长PCIe标卡形态,结构如图22-1所示。
1 |
散热器 |
2 |
Slimline接口(共3个,从上到下分别为Port1、Port2、Port3) |
3 |
LP Slimline接口(共2个,从上到下分别为Port4、Port5) |
4 |
PCIe连接器 |
5 |
电源指示灯 |
6 |
写入/读出NAND Flash的状态指示灯 |
7 |
系统心跳指示灯 |
8 |
系统错误指示灯 |
不同规格间Slimline接口和LP Slimline接口数量有差异。
SP186 HBA控制卡单板指示灯说明如表22-2所示。
指示灯 |
颜色 |
说明 |
电源指示灯 |
绿色 |
l 亮:电源正常。 l 灭:电源关闭或异常。 |
写入/读出NAND Flash的状态指示灯 |
绿色 |
l 亮:控制卡当前处于写入/读出NAND Flash的状态。 l 灭:控制卡当前不处于写入/读出NAND Flash的状态。 |
系统心跳指示灯 |
绿色 |
l 灯以2s周期闪烁:控制卡正在工作。 l 灯灭:控制卡未开始运行或FW运行异常。 |
系统错误指示灯 |
红色 |
l 亮:系统运行异常。 l 灭:系统运行正常。 |
控制卡可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问硬盘。
控制卡支持同时以虚拟磁盘和裸盘模式使用硬盘。
设置裸盘模式请参见22.4.6 设置裸盘模式。
SP186 HBA控制卡支持硬盘以裸盘方式和加入RAID组两种方式混合使用,其中:
l 最多支持40个硬盘。
该数量为热备盘,空闲盘,裸盘与加入RAID组的硬盘数量之和。
l 最多支持127个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
l 最多支持40个硬盘组(即配置界面中看到的“RAID Group”),每个硬盘组最多支持30个硬盘。
l 每个硬盘组(即配置界面中看到的“RAID Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
SP186 HBA控制卡支持的RAID类型及对应的硬盘个数如表22-3所示。
RAID级别 |
支持硬盘数 |
支持子组数 |
子组支持硬盘数 |
允许坏盘数 |
RAID 0 |
1~30 |
不涉及 |
不涉及 |
0 |
RAID 1 |
2 |
1 |
||
RAID 10 |
4~30(偶数) |
2~15个RAID 1 |
2 |
子组数 |
l 子组数:子RAID的个数。例如RAID 10由两个RAID 1组成,则子组数为2。
l RAID 10每个子组中最多允许1个坏盘。
l RAID 10包含的总硬盘数由子组数和子组支持的硬盘数共同决定。
为了保证数据的一致性要求,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。
SP186 HBA控制卡提供了多种相应的初始化方式:
l 快速初始化:Firmware只要把VD的前后部分空间进行全写0操作,然后切换为后台初始化。
l 前台初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Formatting”。
l 后台初始化:初始化过程在后台进行,目的是使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。
对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。
l 一致性校验和后台初始化通常会对前台I/O性能造成一定损失,直至该操作完成。
l 一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。
l 前台初始化完成之前不会上报盘符给OS。
当RAID组中出现故障盘时,可以通过控制卡的数据重构功能,将故障盘中的数据在新盘上重构。
数据重构功能仅适用于具有冗余功能的RAID 1/10。
l 控制卡支持热备盘自动重构故障成员盘数据。
l 当RAID组配置了可用的热备盘时,在成员盘故障的情况下,热备盘自动替换故障盘,进行数据重构。
l 当RAID组没有可用的热备盘时,只有更换新盘后才可进行数据重构。
l 当热备盘开始数据重构后,故障的成员盘就被标注为可移除状态。
l 如果在数据重构过程中系统下电,那么在系统重新启动后,控制卡会继续执行数据重构的任务。
检测到硬盘预失效时,将数据提前拷贝到热备盘上,避免磁盘故障导致RAID组降级,提高系统可靠性。
具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。
l 不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:
l RAID组状态保持Optimal不变。
l 热备盘状态由Online变为Hot Spare。
l 新加入硬盘状态由Copybacking变为Online。
l 可使用命令行工具开启或关闭回拷,具体请参见22.7.2.20 查询和设置控制卡回拷开关。
l 若回拷时重启服务器,进度将保存。
针对有冗余功能的RAID 1、RAID10,控制卡可以对RAID组的硬盘数据进行一致性校验,如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。
由于RAID 0不具备冗余性,因此不支持一致性校验。
当RAID组降级时,不支持一致性校验。
SP186 HBA控制卡的热备功能分为三种:
l 热备盘
l 紧急热备盘
l 热备槽位
设置热备功能请参见0管理热备盘。
l 热备盘容量需大于等于成员盘最小容量。
l 机械盘与固态盘不能互相作为热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须是SATA硬盘或SAS硬盘,容量不小于RAID成员盘最小容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
l 用作热备盘的硬盘数据将会丢失。
l 热备盘优先级:局部热备>全局热备>热备槽位>紧急热备
热备盘
对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l global hotspare:即全局热备盘,为控制卡上所有已配置的RAID所共有,1块控制卡中可配置1个或多个全局热备盘。当任意RAID组硬盘故障时,全局热备盘均可自动替代。
l local hotspare:即局部热备盘,为控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或2个局部热备盘。当指定RAID内的硬盘故障时,局部热备盘可自动替换。
紧急热备
使能控制卡的紧急热备功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该控制卡下的与故障盘同类型的空闲盘会自动进行热备盘替换,避免数据丢失。
l 紧急热备要求用于备份的空闲盘容量大于等于成员盘容量。
l 在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。
l 固件版本1.3.11.8及之前紧急备份的硬盘生效次序:DID号最小的相同介质类型硬盘(包含相同接口和不同接口)。
l 固件版本1.3.11.13及之后紧急备份的硬盘生效次序:DID号最小的相同接口和相同介质类型硬盘 > 不同接口相同介质类型硬盘。
紧急热备有两种情况,对应了两种设置:
l 当成员盘fault时,空闲盘替代成员盘作为紧急备份。
l 当检测到成员盘prefail时,空闲盘作为紧急热备盘替代成员盘。
热备槽位
通过设置热备槽位,热备槽位的硬盘将作为全局热备盘。当任意RAID组硬盘故障时,热备槽位内硬盘均可自动替代。
在RAID未占用成员硬盘全部容量时,SP186 HBA控制卡可通过调整成员盘可用空间,扩大VD容量。详细操作方法可参考22.4.5 扩展VD可用空间。
控制卡支持安全擦除虚拟磁盘和硬盘数据,支持擦除硬盘数据。
安全擦除数据
安全擦除数据功能需硬盘支持。
安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。
安全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。
控制卡支持安全擦除硬盘和虚拟磁盘数据
l 控制卡提供了三种级别的虚拟磁盘安全擦除模式:
− Simple:仅对虚拟磁盘进行一轮擦除动作。
− Normal:对虚拟磁盘进行三轮擦除动作。
− Thorough:对虚拟磁盘进行九轮擦除动作。
l 控制卡提供了三种级别的硬盘安全擦除模式:
− cryptoerase:执行加密擦除操作。
− overwrite:执行覆盖写0操作。
− blockerase: 执行块擦除操作。
擦除硬盘数据
控制卡提供了三种硬盘Erase擦除模式:
l Simple:仅对硬盘进行一轮擦除动作。
l Normal:对硬盘进行三轮擦除动作。
l Thorough:对硬盘进行九轮擦除动作。
硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。
硬盘巡检可根据硬盘I/O调整用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。
硬盘巡检不能在参与以下任何操作的任何硬盘上运行:
l RAID热备修复
l 初始化
l 仅RAID成员盘(除RAID 0外)支持硬盘巡检。
l SSD不支持硬盘巡检。
一种将硬盘与物理槽位解耦的技术。通过该技术即使硬盘所在槽位发生改变,硬盘中的数据仍能被正确识别。
如果控制卡检测到物理硬盘包含RAID配置信息,即识别为外部配置。可执行导入操作将该外部配置在当前控制卡环境中生效,实现RAID配置迁移。
l 建议将RAID组所有硬盘都接入到控制卡下后,再执行导入外来配置。
l 如果RAID组所有硬盘都被拔出,并且不会在当前控制卡下继续使用,建议删除该RAID组。
l 如果RAID组在本控制卡上使用过,然后通过外来配置导入到其它控制卡下使用。当需要再次导入到本控制卡下,需要先删除本控制卡原来残留的对应RAID组,否则可能配置信息冲突。
系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况称之为写洞。
将写失败记录日志,根据日志进行修复,从而解决写洞问题。主要的保护场景:
l RAID 1、RAID 10支持写洞保护,写洞日志都保存在掉电保护区,不需要开关控制。
l RAID 10部分降级时可做写洞保护,按子组恢复数据。完全降级时不可做写洞保护。
l 不对RAID 0做写洞保护。
SMART即自动检测分析及报告技术,可以对硬盘内部电路以及盘片表面媒介材料等进行监测,当SMART监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据受到损失。
控制卡支持周期性对其管理的硬盘进行SMART扫描并判断硬盘状态是否正常,默认3600s。
热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。
l 请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘数据丢失。
l 插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。
l 人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为空闲盘后,参考22.4.11 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。
控制卡支持对硬盘进行响应时间统计,对于RAID组下响应时间超出范围的硬盘识别为慢盘。并支持对识别的慢盘,在满足RAID冗余的条件下进行踢盘,避免单个硬盘影响整个RAID组的性能。
l 对识别的慢盘,在满足RAID冗余的条件下进行踢盘,裸盘不会踢盘。
l 对慢盘的识别包含L1/L2/L3三个级别,当慢盘达到L3级别并满足一定条件才会踢盘。
l 踢盘周期内报多个慢盘,超过设置踢盘数量上限后不会踢盘。
l 被踢掉的慢盘会被标记为Fault。
设置方法请参见22.7.2.36 查询和设置慢盘检测和21.7.2.45 查询和设置慢盘踢盘参数。
关于SP186 HBA的所有配置,都需要重启服务器进入配置界面进行操作。
若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用hiraidadm命令行工具。
对系统的影响
进入BIOS配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器。
步骤 2 重启过程中,当出现如图22-2所示界面时,按“Delete”,进入输入密码界面。
步骤 3 输入密码并按“Enter”。
进入如图22-3所示界面。
步骤 4 按“→”切换到“Advanced”页签,如图22-4所示。
步骤 5 选择“HUAWEI <SP186-M-xxx> Configuration<HBA> - x:x:x”,按“Enter”。
参数 |
说明 |
Controller Management |
控制卡管理。 |
Virtual Drive Management |
虚拟磁盘管理。 |
Physical Drive Management |
物理硬盘管理。 |
Hardware Components |
硬件组件管理。 |
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l SP186 HBA支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 不支持使用SED盘创建RAID组。
l 各RAID级别所需的硬盘数请参见22.2.1 多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
l 仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见22.4.7 设置硬盘属性。
操作步骤
登录管理界面。具体操作方法请参见0登录BIOS管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在图22-5中选择“Virtual Drive Management”并按“Enter”。
进入图22-6界面。
图22-6 Virtual Drive Management
2. 选择“Create Virtual Drive”并按“Enter”。
进入RAID配置界面,如图22-7所示,参数说明如表22-5所示。
参数 |
参数说明 |
RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l RAID Group:RAID组。 l Free Drives:未加入过虚拟磁盘的空闲硬盘。 |
Select Drives |
选择成员盘。 |
Name |
虚拟磁盘名称。 |
Capacity Size |
虚拟磁盘的容量。 默认值为max_left(最大容量)。 |
Select Capacity Unit |
容量单位。包括: l MB l GB l TB |
Initialize Type |
初始化方式。包括: l Fast:快速初始化。 l Background:后台初始化。 l Front:前台初始化。 |
Strip Unit Size |
虚拟磁盘条带大小。支持32KB、64KB、128KB、256KB、512KB、1MB。 l HDD默认条带大小为256KB。 l SSD默认条带大小为64KB。 |
Write Cache |
虚拟磁盘的Cache写策略。 仅支持Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 |
Read Cache |
虚拟磁盘的Cache读策略。 仅支持No Ahead:关闭预读取功能。 |
PD Cache |
物理硬盘Cache写策略(仅对有Cache的硬盘有效): l On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 l Default:保持硬盘当前Cache配置。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID0”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
进入添加成员盘的界面,如图22-8所示。
2. 通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。
硬盘状态为“×”时表示该硬盘已选择。
3. 通过“↑”、“↓”选择“Apply Changes”,并按“Enter”返回上级界面。
步骤 4 按照表22-5所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Capacity Size”参数请按实际要求设置,创建第一个VD后,再参照22.4.2 创建多个VD章节增加其他VD。
步骤 5 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
4. 按“Enter”完成配置。
步骤 6 检查配置结果。
1. 返回至图22-6界面。
2. 选择“View Virtual Drives”并按“Enter”。
显示当前存在的VD信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l SP186 HBA支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 不支持使用SED盘创建RAID组。
l 各RAID级别所需的硬盘数请参见22.2.1 多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
l 仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见22.4.7 设置硬盘属性。
操作步骤
登录管理界面。具体操作方法请参见0登录BIOS管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在图22-5中选择“Virtual Drive Management”并按“Enter”。
进入图22-9界面。
图22-9 Virtual Drive Management
2. 选择“Create Virtual Drive”并按“Enter”。
进入RAID配置界面,如图22-10所示,参数说明如表22-6所示。
参数 |
参数说明 |
RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l RAID Group:RAID组。 l Free Drives:未加入过虚拟磁盘的空闲硬盘。 |
Select Drives |
选择成员盘。 |
Name |
虚拟磁盘名称。 |
Capacity Size |
虚拟磁盘的容量。 默认值为max_left(最大容量)。 |
Select Capacity Unit |
容量单位。包括: l MB l GB l TB |
Initialize Type |
初始化方式。包括: l Fast:快速初始化。 l Background:后台初始化。 l Front:前台初始化。 |
Strip Unit Size |
虚拟磁盘条带大小。支持32KB、64KB、128KB、256KB、512KB、1MB。 l HDD默认条带大小为256KB。 l SSD默认条带大小为64KB。 |
Write Cache |
虚拟磁盘的Cache写策略。 仅支持Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 |
Read Cache |
虚拟磁盘的Cache读策略。 仅支持No Ahead:关闭预读取功能。 |
PD Cache |
物理硬盘Cache写策略(仅对有Cache的硬盘有效): l On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 l Default:保持硬盘当前Cache配置。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID1”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
进入添加成员盘的界面,如图22-11所示。
2. 通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。
硬盘状态为“×”时表示该硬盘已选择。
3. 通过“↑”、“↓”选择“Apply Changes”,并按“Enter”返回上级界面。
步骤 4 按照表22-6所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Capacity Size”参数请按实际要求设置,创建第一个VD后,再参照22.4.2 创建多个VD章节增加其他VD。
步骤 5 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
4. 按“Enter”完成配置。
步骤 6 检查配置结果。
1. 返回至图22-6界面。
2. 选择“View Virtual Drives”并按“Enter”。
显示当前存在的VD信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l SP186 HBA支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 不支持使用SED盘创建RAID组。
l 各RAID级别所需的硬盘数请参见22.2.1 多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
l 仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见22.4.7 设置硬盘属性。
操作步骤
登录管理界面。具体操作方法请参见0登录BIOS管理界面。
步骤 1 进入“Create Virtual Drive”界面。
1. 在图22-5中选择“Virtual Drive Management”并按“Enter”。
进入图22-12界面。
图22-12 Virtual Drive Management
2. 选择“Create Virtual Drive”并按“Enter”。
进入RAID配置界面,如图22-13所示,参数说明如表22-7所示。
参数 |
参数说明 |
RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l RAID Group:RAID组。 l Free Drives:未加入过虚拟磁盘的空闲硬盘。 |
Select Drives |
选择成员盘。 |
Name |
虚拟磁盘名称。 |
Capacity Size |
虚拟磁盘的容量。 默认值为max_left(最大容量)。 |
Select Capacity Unit |
容量单位。包括: l MB l GB l TB |
Initialize Type |
初始化方式。包括: l Fast:快速初始化。 l Background:后台初始化。 l Front:前台初始化。 |
Strip Unit Size |
虚拟磁盘条带大小。支持32KB、64KB、128KB、256KB、512KB、1MB。 l HDD默认条带大小为256KB。 l SSD默认条带大小为64KB。 |
Write Cache |
虚拟磁盘的Cache写策略。 仅支持Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 |
Read Cache |
虚拟磁盘的Cache读策略。 仅支持No Ahead:关闭预读取功能。 |
PD Cache |
物理硬盘Cache写策略(仅对有Cache的硬盘有效): l On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 l Default:保持硬盘当前Cache配置。 |
Save Configuration |
保存当前配置。 |
步骤 2 选择RAID级别。
1. 通过“↑”、“↓”选择“RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID10”,并按“Enter”。
步骤 3 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
进入添加成员盘的界面,如图22-14所示。
2. 通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。
硬盘状态为“×”时表示该硬盘已选择。
3. 通过“↑”、“↓”选择“Apply Changes”,并按“Enter”返回上级界面。
步骤 4 按照表22-7所述配置虚拟磁盘的其他属性。
如果需要创建多个VD,“Capacity Size”参数请按实际要求设置,创建第一个VD后,再参照22.4.2 创建多个VD章节增加其他VD。
步骤 5 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
4. 按“Enter”完成配置。
步骤 6 检查配置结果。
1. 返回至图22-6界面。
2. 选择“View Virtual Drives”并按“Enter”。
显示当前存在的VD信息。
----结束
操作场景
您可以通过此操作设置HBA控制卡启动项。
在OS下用命令行工具设置启动项,请参见22.7.3.63 设置虚拟磁盘为默认启动项和22.7.4.84 设置硬盘为默认启动项。
操作步骤
登录管理界面。具体操作方法请参见0登录BIOS管理界面。
步骤 1 在主界面选择“Controller Management”并按“Enter”。
进入“Controller Management”界面。如图22-15所示。
图22-15 “Controller Management”
步骤 2 通过“↑”、“↓”选择“Select Boot Device”并按“Enter”。
显示可设置为启动项的硬盘或虚拟磁盘,如图22-16所示。
仅在裸盘模式开启时,可设置硬盘为启动项。
步骤 3 选择需配置为启动项的硬盘或虚拟磁盘,按“Enter”完成配置。
----结束
当一台服务器配置了单张控制卡时,控制卡下的启动项即为该服务器的启动项,具体设置方法请参见0设置HBA控制卡启动项。
同一台服务器配置了多张控制卡时,EFI/UEFI模式下的系统启动盘需要在BIOS中进行设置。
设置启动项的操作方法请参见BIOS参数参考的“设置启动设备”章节。
操作场景
您可以通过此操作设置硬盘为全局热备盘。
操作步骤
登录管理界面。具体操作方法请参见0登录BIOS管理界面。
步骤 1 进入硬盘设置界面。
1. 选择“Physical Drive Management”并按“Enter”。
显示物理硬盘列表。
2. 选择要操作的硬盘并按“Enter”。
进入硬盘设置界面。如图22-17所示。
步骤 2 将“Operation”设置为“Assign Global Hot Spare Drive”,按“Enter”确认。
步骤 3 确认操作。
1. 选择“Perform Operation”并按“Enter”。
进入操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
4. 按“Enter”完成配置。
----结束
操作场景
您可以通过此操作设置物理硬盘为局部热备盘。
需控制卡下存在RAID时才可配置局部热备盘,未配置RAID时无配置局部热备盘选项。
操作步骤
登录管理界面。具体操作方法请参见0登录BIOS管理界面。
步骤 1 进入硬盘设置界面。
1. 选择“Physical Drive Management”并按“Enter”。
显示物理硬盘列表。
2. 选择要操作的硬盘并按“Enter”。
进入硬盘设置界面。如图22-18所示。
步骤 2 将“Operation”设置为“Assign Local Hot Spare Drive”,按“Enter”确认。如图22-19所示。
步骤 3 将“Select RAID Group”选择为目标RAID组。
设置为局部热备盘的硬盘容量需大于目标RAID组最小成员盘容量。
步骤 4 确认操作。
1. 选择“Perform Operation”并按“Enter”。
进入操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
4. 按“Enter”完成配置。
----结束
操作场景
您可以通过此操作取消硬盘作为全局热备盘或局部热备盘,恢复硬盘为空闲状态。
操作步骤
登录管理界面。具体操作方法请参见0登录BIOS管理界面。
步骤 1 进入硬盘设置界面。
1. 选择“Physical Drive Management”并按“Enter”。
显示物理硬盘列表。
2. 选择要操作的硬盘并按“Enter”。
进入硬盘设置界面。如图22-20所示。
步骤 2 将“Operation”设置为“Set Drive Free”,按“Enter”确认。
步骤 3 确认操作。
1. 选择“Perform Operation”并按“Enter”。
进入操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
4. 按“Enter”完成配置。
----结束
操作场景
您可以通过此操作设置硬盘所在槽位为热备槽位或取消热备槽位。
操作步骤
登录管理界面。具体操作方法请参见0登录BIOS管理界面。
步骤 1 进入硬盘设置界面。
1. 选择“Physical Drive Management”并按“Enter”。
显示物理硬盘列表。
2. 选择要操作的硬盘并按“Enter”。
进入硬盘设置界面。如图22-21所示。
步骤 2 将“Operation”设置为热备槽位相关操作。
l Assign Hot Spare Slot:设置硬盘所在槽位为热备槽位。
l Unassign Hot Spare Slot:取消此热备槽位并恢复硬盘为空闲状态。
步骤 3 确认操作。
1. 选择“Perform Operation”并按“Enter”。
进入操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
4. 按“Enter”完成配置。
----结束
操作场景
您可以通过此操作设置控制卡紧急热备开关状态。
操作步骤
登录管理界面。具体操作方法请参见0登录BIOS管理界面。
步骤 1 按照顺序“Controller Management > Advanced Controller Properties > Set Controller Properties”进入“Set Controller Properties”界面,如图22-22所示。
图22-22 “Set Controller Properties”
步骤 2 选择“EHSP Switch”并按“Enter”,设置紧急热备开关状态。
l On:开启紧急热备。
l Off:关闭紧急热备。
步骤 3 确认操作。
1. 选择“Save Changes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”。
2. 按“Enter”完成配置。
----结束
操作场景
该场景为使用有空闲容量的RAID组创建多个VD。
以RAID1存在一个Virtual Drive为例,如图22-23所示。
操作步骤
按照“Main Management Page > Virtual Drive Management > Create Virtual Drive”的路径进入“Create Virtual Drive”界面,如图22-24所示。
步骤 2 将“Select Drives From”设置为“RAID Group”。
步骤 3 选择“Select RAID Group”并按“Enter”。
显示当前存在的RAID组,如图22-25所示。
步骤 4 选择要创建多个VD的RAID组,并按“Enter”确认。
步骤 5 选择“Apply Changes”并按“Enter”。
返回VD配置界面,如图22-26所示。参数说明如表22-8所示。
参数 |
参数说明 |
RAID Level |
选择RAID级别。 创建多个VD时根据选择的RAID组自动设置。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l RAID Group:RAID组。 l Select Drives:未加入过虚拟磁盘的空闲硬盘。 创建多个VD时选择RAID Group。 |
Select RAID Group |
选择RAID。 |
Name |
虚拟磁盘名称。 |
Capacity Size |
虚拟磁盘的容量。 默认值为max_left(最大容量)。 |
Select Capacity Unit |
容量单位。包括: l MB l GB l TB |
Initialize Type |
初始化方式。包括: l Fast:快速初始化 l Background:后台初始化。 l Front:前台初始化 |
Strip Unit Size |
虚拟磁盘的条带大小。不支持修改。 l HDD默认条带大小为256KB l SSD默认条带大小为64KB。 |
Write Cache |
虚拟磁盘的Cache写策略。 仅支持Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 |
Read Cache |
虚拟磁盘的Cache读策略。 仅支持No Ahead:关闭预读取功能。 |
PD Cache |
物理硬盘Cache写策略(仅对有Cache的硬盘有效): l On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 l Default:保持硬盘当前Cache配置。 |
Save Configuration |
保存当前配置。 |
步骤 6 按照表22-8所述配置VD的相关属性。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”即操作成功。
4. 按“Enter”完成配置。
步骤 8 检查配置结果。
1. 返回至“Virtual Drive Management“界面。
2. 选择“View Virtual Drives”并按“Enter”。
3. 查看当前存在的所有VD。如图22-27所示。
----结束
每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤7。
VD被删除后无法进行恢复,请谨慎执行删除VD操作。
操作步骤
登录管理界面。具体操作方法请参见0登录BIOS管理界面。
步骤 1 进入“Virtual Drive Information”界面。
1. 在SP186主界面中选择“Virtual Drive Management”并按“Enter”。
2. 选择“View Virtual Drives”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图22-28所示。
图22-28 Virtual Drive Information
步骤 2 删除虚拟磁盘。
1. 将“Operation”设置为“Delete Virtual Drive”。
2. 选择“Perform Operation”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”。
5. 按“Enter”完成配置。
----结束
操作场景
您可以通过该操作安全擦除VD数据。
操作步骤
登录管理界面。具体操作方法请参见0登录BIOS管理界面。
步骤 1 进入VD设置界面。
1. 选择“Virtual Drive Management”并按“Enter”。
2. 选择“View Virtual Drives”并按“Enter”。
3. 选定擦除的VD并按“Enter”。
进入VD操作界面,如图22-29所示。
图22-29 Virtual Drive Information
步骤 2 安全擦除VD数据。
选择“Sanitize Virtual Drive”并按“Enter”。如图22-30所示。
图22-30 “Virtual Drive Information”
步骤 3 选择擦除模式。
选择“Sanitize Mode”并按“Enter”。有以下三种擦除模式。
l Simple:仅对虚拟磁盘进行一轮擦除动作。
l Normal:对虚拟磁盘进行三轮擦除动作。
l Thorough:对虚拟磁盘进行九轮擦除动作。
选择完成后按“Enter”确认。
步骤 4 安全擦除数据。
1. 选择“Perform Operation”并按“Enter”。
进入操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
显示“Command executed successfully.Press ENTER to continue ...”。
4. 按“Enter”完成配置并返回上级界面。
步骤 5 查看擦除进度。
重新进入VD操作界面,可查看擦除进度,如图22-31所示。
l 刷新擦除进度需退出然后重新进入VD操作界面。
l 选择“Stop Sanitize”并按”Enter”可中止擦除。
----结束
操作场景
在VD未占用成员硬盘全部容量时,可通过调整成员盘可用空间,扩大VD容量。
操作步骤
登录管理界面。具体操作方法请参见0登录BIOS管理界面。
步骤 1 进入“Virtual Drive Information”界面。
1. 在SP186主界面中选择“Virtual Drive Management”并按“Enter”。
2. 选择“View Virtual Drives”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图22-32所示。
图22-32 Virtual Drive Information
步骤 2 扩容虚拟磁盘。
1. 将“Operation”设置为“Expand Virtual Drive”。
2. 选择“Perform Operation”并按“Enter”。
进入虚拟磁盘扩容界面,如图22-33所示。
3. 选择“Expand Capacity”并按“Enter”。
在“Please type in your data”输入需要扩容的容量大小,默认为max_left使用成员盘最大剩余容量。
图22-34 Please type in your data
4. 选择“Select capacity unit”并按“Enter”。
选择扩容的容量单位,按“Enter”确认。
5. 选择“Confirm”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”。
6. 按“Enter”完成配置。
----结束
l 开启裸盘模式后,已经配置为虚拟磁盘或热备盘的硬盘状态保持不变,其余未配置的硬盘变为裸盘。
l 若开启裸盘模式后需将裸盘配置为虚拟磁盘来使用,则需要先将裸盘状态的硬盘设置为空闲盘,具体操作请参见22.4.7 设置硬盘属性。
l 裸盘模式开启后,需设置单盘裸盘状态请参见22.4.7 设置硬盘属性。
登录管理界面。具体操作方法请参见0登录BIOS管理界面。
步骤 1 在主界面选择“Physical Drive Management”并按“Enter”,进入如图22-35所示界面。
图22-35 “Physical Drive Management”
步骤 2 选择“Set Card Raw Drive”并按“Enter”。
步骤 3 选择裸盘模式状态按“Enter”。
l Raw Drive On:开启裸盘模式
l Raw Drive Off:关闭裸盘模式
步骤 4 选择“Save Raw Drive Status”并按“Enter”。
步骤 5 保存配置。
1. 选择“Confirm”并按“Enter”。
2. 选择“Yes”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”。
3. 按“Enter”完成配置。
----结束
操作场景
您可以通过此操作设置物理硬盘点灯和物理硬盘Cache状态,裸盘模式开启时可设置硬盘状态。
操作步骤
登录管理界面。具体操作方法请参见0登录BIOS管理界面。
步骤 1 进入硬盘设置界面。
1. 选择“Physical Drive Management”并按“Enter”。
显示物理硬盘列表。
2. 选择要操作的硬盘并按“Enter”。
进入硬盘设置界面。如图22-36所示。
步骤 2 设置硬盘操作。
1. 选择“Operation”,设置需对硬盘进行的操作,按“Enter”确认。
− Start Locate:点亮硬盘定位指示灯
− Stop Locate:熄灭硬盘定位指示灯
− Drive Cache On:开启硬盘Cache
− Drive Cache Off:关闭硬盘Cache
− Set Drive Free:设置硬盘为空闲盘(仅裸盘模式开启时可用)
− Set Raw Drive On:设置硬盘为裸盘(仅裸盘模式开启时可用)
2. 选择“Perform Operation”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示“Command executed successfully.Press ENTER to continue ...”。
5. 按“Enter”完成配置。
----结束
操作场景
您可以通过此操作擦除硬盘数据。
Sanitize安全擦除硬盘数据过程中服务器不可下电,否则可能造成硬盘故障。
操作步骤
登录管理界面。具体操作方法请参见0登录BIOS管理界面。
步骤 1 进入硬盘设置界面。
1. 选择“Physical Drive Management”并按“Enter”。
显示物理硬盘列表。
2. 选择要操作的硬盘并按“Enter”。
进入硬盘设置界面。如图22-37所示。
步骤 2 设置擦除方式。
l Sanitize安全擦除硬盘数据,如图22-38所示。
a. “Operation”选择“Start Sanitize”。
b. 选择“Sanitize Mode”,设置擦除模式。
n Overwrite:执行覆盖写0操作。
n Blockerase: 执行块擦除操作。
n Cryptoerase:执行加密擦除操作。
l Erase擦除硬盘数据,如图22-39所示。
a. “Operation”选择“Start Erase”。
b. 选择“Erase Mode”,设置擦除模式。
n Simple:仅对硬盘进行一轮擦除动作。
n Normal:对硬盘进行三轮擦除动作。
n Thorough:对硬盘进行九轮擦除动作。
步骤 3 确认擦除操作。
1. 选择“Perform Operation”并按“Enter”。
进入操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
显示“Command executed successfully.Press ENTER to continue ...”。
4. 按“Enter”完成配置。
步骤 4 进入对应硬盘操作界面可查看擦除进度,如图22-40所示。
l Erase擦除硬盘数据时,“Operation”选择“Stop Erase”,然后选择“Perform Operation”并按“Enter”即可中断擦除。
l Sanitize擦除硬盘时不可中止。
----结束
操作场景
您可以通过查看控制卡属性的方式确定当前控制卡是否符合实际需求。
操作步骤
登录管理界面。具体操作方法请参见0登录BIOS管理界面。
步骤 1 在SP186主界面选择“Controller Management”并按“Enter”。
显示控制卡基本信息,如图22-41所示,参数说明如表22-9所示。
图22-41 “Controller Management”
参数 |
参数说明 |
Product Name |
产品名称。 |
Chip Name |
芯片名称。 |
Board SN |
控制卡序列号。 |
Firmware Version |
控制卡固件版本。 |
Chip Version |
控制卡芯片版本。 |
Board PCB Version |
控制卡的PCB板版本。 |
PCI ID |
控制卡的PCI ID。 |
PCI BDF Number |
控制卡的BDF(Bus,Device,Function)号。 |
Port Config Mode |
端口配置模式。 |
Drive Count |
控制卡挂载的物理硬盘数量。 |
Virtual Drive Count |
控制卡下已有的虚拟磁盘数量。 |
Select Boot Device |
选择启动盘。 |
Advanced Controller Properties |
查看控制卡高级属性。 |
Reset Default Configuration |
恢复默认设置。 |
步骤 2 查看控制卡高级属性。
选择“Advanced Controller Properties”并按“Enter”。
进入控制卡高级属性界面,如图22-42所示,参数说明如表22-10所示。
图22-42 “Advanced Controller Properties”
参数 |
说明 |
Set Controller Properties |
设置控制卡属性。 |
Supported Drives Number Of RAID Group |
支持的RAID组数量。 |
Chip DDR Information |
芯片DDR(Double Data Rate)信息。 |
DDR Channel |
通道数量。 |
DDR Size |
DDR容量。 |
DDR Number |
DDR数量。 |
DDR Total Size |
DDR总容量。 |
Max Supported Drives Number |
最大支持硬盘数量。 |
HDDs |
最大支持硬盘数量(HDD)。 |
SSDs |
最大支持硬盘数量(SSD)。 |
Controller Supported Capabilities |
单板支持能力。 |
Max VD Number |
最大支持虚拟磁盘数量。 |
Max PD Number |
最大支持物理硬盘数量。 |
Supported RAID Levels |
支持的RAID级别。 |
----结束
查询控制卡固件版本的方法有如下几种:
l 在iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。
l 服务器启动完成后,在OS下通过控制卡命令行工具进行查询,具体操作请参见22.7.2.47 查询固件详细版本。
执行hiraidadm ccontroller_id show status命令,回显信息中的“FW Version0”和“FW Version1”字段即分别为控制卡的主备分区固件版本。
l 在控制卡管理界面进行查询,具体方法为:
a. 登录控制卡的管理界面,具体操作请参见0登录BIOS管理界面。
进入图22-43界面。
b. 选择“Controller Management”并按“Enter”。
显示控制卡基本信息。界面中的“Firmware Version”即为控制卡的固件版本,如图22-44所示。
图22-44 “Controller Management”
操作场景
l 服务器更换控制卡或插拔RAID成员盘后,需要将原有配置导入新的控制卡中。
l 新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。
l 如服务器已配置RAID,在更换新控制卡或插拔RAID成员盘后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!
l 为避免导入外部配置失败,更换的控制卡的型号要与原来的控制卡保持一致。
l 当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。
l 同时导入多个外部配置时,部分成功也将提示外部配置导入成功。
导入外部配置
登录管理界面。具体操作方法请参见0登录BIOS管理界面。
步骤 1 在主界面选择“Virtual Drive Management > Manage Foreign Configurations”并按“Enter”。
进入外部配置设置界面,如图22-45所示。
图22-45 “Manage Foreign Configurations”
步骤 2 选择要导入的外部配置,并按“Enter”确认。
状态为“×”时表示该外部配置已选择。
步骤 3 选择“Import Foreign Configurations”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”表示操作成功。
步骤 4 按“Enter”完成配置。
外部配置导入成功后,RAID组的Cache写策略强制修改为Write Through,Cache读策略强制修改为No_Ahead。
----结束
清除外部配置
登录管理界面。具体操作方法请参见0登录BIOS管理界面。
步骤 1 在主界面选择“Virtual Drive Management > Manage Foreign Configurations”并按“Enter”。
进入外部配置设置界面,如图22-46所示。
图22-46 “Manage Foreign Configurations”
步骤 2 选择要清除的外部配置,并按“Enter”确认。
状态为“×”时表示该外部配置已选择。
步骤 3 选择“Clear Foreign Configurations”并按“Enter”。
提示“Command executed successfully.Press ENTER to continue ...”表示操作成功。
步骤 4 按“Enter”完成配置。
----结束
介绍了硬盘故障、控制卡故障、电容故障的常用处理方法。
更多故障案例请联系技术支持获取。
服务器下电后拔出RAID组所有成员盘,被拔出的硬盘Fault指示灯将点亮,RAID信息将保留。
删除RAID组无法恢复硬盘Fault指示灯,需通过以下操作恢复:
l 重新插入硬盘。
l 关闭Phy后再重新开启,具体操作请参见22.7.4.71 设置phy口状态。
问题描述
当服务器出现如下现象时,说明硬盘故障。
l 硬盘故障指示灯常亮。
l 服务器开机状态下,硬盘指示灯不亮。
l 服务器上报硬盘故障告警。
处理方法
l 通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。
l 通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。
l 通过控制卡GUI界面确认故障硬盘槽位信息,参考22.6.3 Physical Drive Management。
l 通过控制卡命令行工具确认故障硬盘槽位信息,参考22.7.2.22 查询控制卡硬盘列表。
步骤 1 更换新硬盘。
l 更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板导致,则可以将硬盘设置为Unconfigured Good后,参考22.4.11 导入和清除外部配置章节恢复RAID组,无需更换硬盘。
l 若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。
l 若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在表22-3查看RAID组支持的最大故障硬盘数量。
l 更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒再插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。
l 新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号控制卡删除RAID信息或硬盘低格章节。
拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:
l 若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。
l 若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。
l 若故障硬盘为直通盘,则直接更换即可。
l 若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。
− UEFI模式下创建RAID0的方法请参见22.3.2 创建RAID 0。
− 通过命令行方式创建RAID0的方法请参见22.7.2.23 创建虚拟磁盘。
----结束
问题描述
当服务器出现如下现象时,说明控制卡故障。
l 数据无法写入控制卡控制的硬盘。
l 服务器上报控制卡故障告警。
处理方法
登录iBMC Web界面查看告警信息。
步骤 1 根据告警信息,参考iBMC告警处理。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤3
步骤 3 查询兼容性查询助手或者联系技术支持处理。
----结束
问题描述
控制卡运行大压力业务时,概率性出现IO错误,驱动messages日志显示:
Sep 5 09:49:10 localhost
kernel: [ 703.998417] hiraid 0000:81:00.0: swiotlb buffer is full
(sz: 65536 bytes)
Sep 5 09:49:10 localhost kernel: [ 703.998422] hiraid 0000:81:00.0:
io map data err
处理方法一
通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 1 重启服务器。
步骤 2 重启过程中,当出现如图22-47所示界面时,按“Delete”,进入输入密码界面。
步骤 3 输入密码并按“Enter”。
进入如图22-48所示界面。
步骤 4 可选: 进入“Advanced > MISC Config”页签,如图22-49所示。
步骤 5 将“Support Smmu”的选项改为“Enabled”。
“Support Smmu”默认是“Disabled”。
步骤 6 按“F10”保存并退出。
----结束
处理方法二
登陆服务器OS。
步骤 1 执行命令cat /proc/cmdline,查看文件cmdline。
[root@localhost ~]# cat
/proc/cmdline
BOOT_IMAGE=/vmlinuz-4.19.90-52.22.v2207.ky10.aarch64 root=/dev/mapper/klas-root
ro rd.lvm.lv=klas/root rd.lvm.lv=klas/swap video=VGA-1:640x480-32@60me rhgb
quiet console=tty0 crashkernel=1024M,high smmu.bypassdev=0x1000:0x17
smmu.bypassdev=0x1000:0x15 video=efifb:off audit=0
步骤 2 先执行vi /etc/default/grub,按“i”,再编辑grub,增加配置swiotlb=XXX,XXX建议不小于131072。
[root@localhost /]# vi
/etc/default/grub
GRUB_TIMEOUT=5
GRUB_DISTRIBUTOR="$(sed 's, release .*$,,g' /etc/system-release)"
GRUB_DEFAULT=saved
GRUB_DISABLE_SUBMENU=true
GRUB_TERMINAL_OUTPUT="console"
GRUB_CMDLINE_LINUX="crashkernel=auto rd.lvm.lv=centos/root
rd.lvm.lv=centos/swap swiotlb=131072"
GRUB_DISABLE_RECOVERY="true"
步骤 3 先按“ESC”,再按“shift+:”,输入“wq!”,按“Enter”退出。
步骤 4 运行grub2-mkconfig -o /boot/efi/EFI/centos/grub.cfg,重新生成config文件。
以CentOS举例,不同的操作系统grub.cfg路径不一样。
步骤 5 重启服务器,使配置文件生效。
步骤 6 执行命令cat /proc/cmdline,查看文件cmdline是否生效。
BOOT_IMAGE=/vmlinuz-4.14.0-115.el7a.0.1.aarch64 root=/dev/mapper/centos-root ro crashkernel=auto rd.lvm.lv=centos/root rd.lvm.lv=centos/swap swiotlb=131072
----结束
SP186 HBA控制卡出现故障后,Option ROM提供Driver Health功能,用于在BIOS界面显示及修复相关故障,当前支持故障种类包括4大类:
l Bad Card:控制卡存在不可恢复故障。
l Restore Data:控制卡可能存在数据不一致,可选择恢复或丢弃数据。
l Drop Data:控制卡存在不可恢复数据,只能丢弃数据后重启。
l Write Hole:系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。
问题描述
l 如图22-50所示,系统加载Option ROM时将检测到控制卡异常,提示“RAID controller is in an unhealthy state, Repair it in BIOS Setup Utility”。
l 进入SP186主界面,将出现修复提示,如图22-51所示。
处理方法
登录管理界面。具体操作方法请参见0登录BIOS管理界面。
步骤 1 根据“Advanced > Some drivers are not healthy > Huawei RAID Adapter Driver”路径进入“Repair Controller Health”界面,如图22-52所示。
图22-52 “Repair Controller Health”
步骤 2 根据步骤2页面提示信息,按照故障修复策略进行处理。
如表22-11所示。故障提示信息包含以下内容:
l 故障描述
l 故障提示及建议
l 修复策略
故障类型 |
提示信息 |
说明 |
处理方法 |
Bad Card类故障(无修复策略,只能换卡) |
Error description |
故障描述,包括: l NFC error:NFC故障 l Small capacitor abnormal:小电容异常 l SRAM error:SRAM故障 |
请参见0Bad Card类故障 |
The controller is faulty.Replace the controller. |
故障提示及建议:控制卡故障,请更换。 |
||
Restore Data类故障 |
Error description |
故障描述,此类故障包括: l IMU error:IMU故障 l FirmWare error:固件故障 l SOC fatal:SOC重故障 l TSP error:TSP故障 |
请参见22.5.4.6 Restore Data类故障 |
The controller has restorable data. Recover the data so that the controller can be configured an managed properly. |
故障提示及建议:此控制卡中存在可恢复数据,请恢复数据以正确配置和管理控制卡。 |
||
Restore Data |
修复策略:恢复数据,可能存在恢复后数据不一致问题。 |
||
Drop Data |
修复策略:丢弃数据。 |
||
Drop Data类故障 |
Error description |
故障描述,此类故障包括: l TSP error:TSP故障 l DDR mbit error:DDR Mbit故障 l RDE error:RDE故障 |
请参见22.5.4.7 Drop Data类故障 |
The controller is faulty. Repair the fault so that the controller can be configured and managed properly. |
故障提示及建议:此控制卡中存在数据丢失,请修复。 |
||
Drop Error |
修复策略:丢弃数据。 |
||
Write Hole类故障 |
Write hole data exists in the controller.Fix this issue so that the controller can be configured and managed properly. |
故障提示及建议:控制卡存在Write Hole数据,修复此问题以正确配置和管理控制卡。 |
请参见22.5.4.8 Write Hole类故障 |
Clear Data |
修复策略:清除数据。 |
----结束
处理方法
登录BIOS界面,操作请参见0登录BIOS管理界面。
步骤 1 根据“Advanced > Some drivers are not healthy > Huawei RAID Adapter Driver”路径进入“Repair Controller Health”界面,如图22-53所示,参数说明如表22-12所示。
图22-53 “Repair Controller Health”
参数 |
说明 |
Error description |
故障描述,包括: l NFC error:NFC故障 l Small capacitor abnormal:小电容异常 l SRAM error:SRAM故障 |
The controller is faulty.Replace the controller. |
故障提示及建议:控制卡故障,请更换。 |
步骤 2 此类故障只能更换控制卡,无修复策略。
----结束
处理方法
登录BIOS界面,操作请参见0进入BIOS配置管理界面。
步骤 1 根据“Advanced > Some drivers are not healthy > Huawei RAID Adapter Driver”路径进入“Repair Controller Health”界面,如图22-54所示,参数说明如表22-13所示。
图22-54 “Repair Controller Health”
参数 |
说明 |
Error description |
故障描述,此类故障包括: l IMU error:IMU故障 l FirmWare error:固件故障 l SOC fatal:SOC重故障 |
The controller has restorable data. Recover the data so that the controller can be configured an managed properly. |
故障提示及建议:此控制卡中存在可恢复数据,请恢复数据以正确配置和管理控制卡。 |
Restore Data |
修复策略:恢复数据,可能存在恢复后数据不一致问题。 |
Drop Data |
修复策略:丢弃数据。 |
步骤 2 选择“Restore Data”并按“Enter”。
进入“Confirm Repair Controller”界面,如图22-55所示。
图22-55 “Confirm Repair Controller”
步骤 3 选择“Confirm”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
开始修复,如图22-56所示。修复过程中请勿关机。
步骤 5 当界面提示“The fault has been repaired, Restart the system to apply the repairs. Press ENTER to continue...”时,按“Enter”键继续,如图22-57所示。
步骤 6 界面提示“The fault has been repaired,Restart the system to restore the controller to the normal state”表示修复完成,如图22-58所示。
步骤 7 重启系统,以生效故障修复。
----结束
处理方法
登录BIOS界面,操作请参见0登录BIOS管理界面。
步骤 1 根据“Advanced > Some drivers are not healthy > Huawei RAID Adapter Driver”路径进入“Repair Controller Health”界面,如图22-59所示,参数说明如表22-14所示。
图22-59 “Repair Controller Health”
参数 |
说明 |
Error description |
故障描述,此类故障包括: l TSP error:TSP故障(当未配置超级电容时为此故障类型) l DDR mbit error:DDR Mbit故障 l RDE error:RDE故障 |
The controller is faulty. Repair the fault so that the controller can be configured and managed properly. |
故障提示及建议:此控制卡中存在数据丢失,请修复。 |
Drop Error |
修复策略:丢弃数据。 |
步骤 2 选择“Drop Data”并按“Enter”。
进入“Confirm Repair Controller”界面,如图22-60所示。
图22-60 “Confirm Repair Controller”
步骤 3 选择“Confirm”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
开始修复,如图22-61所示。修复过程中请勿关机。
步骤 5 当界面提示“The fault has been repaired, Restart the system to apply the repairs. Press ENTER to continue...”时,按“Enter”键继续,如图22-62所示。
步骤 6 界面提示“The fault has been repaired,Restart the system to restore the controller to the normal state”表示修复完成,如图22-63所示。
步骤 7 重启系统,以生效故障修复。
----结束
处理方法
登录BIOS界面,操作请参见0登录BIOS管理界面。
步骤 1 根据“Advanced > Some drivers are not healthy > Huawei RAID Adapter Driver”路径进入“Repair Controller Health”界面,如图22-64所示,参数说明如表22-15所示。
图22-64 “Repair Controller Health”
参数 |
说明 |
Write hole data exists in the controller.Fix this issue so that the controller can be configured and managed properly. |
故障提示及建议:控制卡存在Write Hole数据,修复此问题以正确配置和管理控制卡。 |
Clear Data |
修复策略:清除数据。 |
步骤 2 选择“Clear Data”并按“Enter”。
进入“Confirm Repair Controller”界面,如图22-65所示。
图22-65 “Confirm Repair Controller”
步骤 3 选择“Confirm”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
开始修复,如图22-66所示。修复过程中请勿关机。
步骤 5 当界面提示“The fault has been repaired, Restart the system to apply the repairs. Press ENTER to continue...”时,按“Enter”键继续,如图22-67所示。
步骤 6 界面提示“The fault has been repaired,Restart the system to restore the controller to the normal state”表示修复完成,如图22-68所示。
步骤 7 重启系统,以生效故障修复。
----结束
控制卡主菜单,提供管理控制卡的接口。
界面介绍
“Controller Management”界面如图22-69所示,参数说明如表22-16所示。
图22-69 “Controller Management”
参数 |
参数说明 |
Product Name |
产品名称。 |
Chip Name |
芯片名称。 |
Board SN |
控制卡序列号。 |
Firmware Version |
控制卡固件版本。 |
Chip Version |
控制卡芯片版本。 |
Board PCB Version |
控制卡的PCB板版本。 |
PCI ID |
控制卡的PCI ID。 |
PCI BDF Number |
控制卡的BDF(Bus,Device,Function)号。 |
Port Config Mode |
端口配置模式。 |
Drive Count |
控制卡挂载的物理硬盘数量。 |
Virtual Drive Count |
控制卡下已有的虚拟磁盘数量。 |
Select Boot Device |
选择启动盘。 |
Advanced Controller Properties |
查看控制卡高级属性。 |
Reset Default Configuration |
恢复默认设置。 |
查看并修改控制卡高级属性
“Advanced Controller Properties”界面如图22-70所示,参数说明如表22-17所示。
图22-70 “Advanced Controller Properties”
参数 |
说明 |
Set Controller Properties |
设置控制卡属性。 |
Supported Drives Number Of RAID Group |
支持的RAID组数量。 |
Chip DDR Information |
芯片DDR(Double Data Rate)信息。 |
DDR Channel |
通道数量。 |
DDR Size |
DDR容量。 |
DDR Number |
DDR数量。 |
DDR Total Size |
DDR总容量。 |
Max Supported Drives Number |
最大支持硬盘数量。 |
HDDs |
最大支持硬盘数量(HDD)。 |
SSDs |
最大支持硬盘数量(SSD)。 |
Controller Supported Capabilities |
单板支持能力。 |
Max VD Number |
最大支持虚拟磁盘数量。 |
Max PD Number |
最大支持物理硬盘数量。 |
Supported RAID Levels |
支持的RAID级别。 |
Set Controller Properties
“Set Controller Properties”界面如图22-71所示,参数说明如表22-18所示。
图22-71 “Set Controller Properties”
参数 |
说明 |
Current Repair Policy |
控制卡当前修复策略。 默认修复策略为Confirm。 |
EHSP Switch |
紧急热备开关。 l On:开启紧急热备功能。 l Off:关闭紧急热备功能。 |
Drives to Report |
设置报盘数量。 l 可设置范围1~255。 l 如果设置的报盘数量小于实际上报盘符数量,必须设置RAID控制卡启动项(即系统盘设置为boot启动盘),否则可能导致启动失败。设置方法请参见0设置控制卡启动项。 |
Save Changes |
保存更改。 |
查看支持的RAID组硬盘数量
具体规格以实际为准。
在图22-70中选择“Supported Drives number of Raid Group”并按“Enter”。
图22-72 “Supported Drives Number of RAID Group”
参数 |
参数说明 |
Number Of HDD Supported by RAID Groups |
RAID组支持的HDD硬盘数量。 |
Number Of SSD Supported by RAID Groups |
RAID组支持的SSD硬盘数量。 |
Min RAID0 Drives |
RAID0最小支持硬盘数量。 |
Max RAID0 Drives |
RAID0最大支持硬盘数量。 |
Min RAID1 Drives |
RAID1最小支持硬盘数量。 |
Max RAID1 Drives |
RAID1最大支持硬盘数量。 |
Min RAID10 Drives |
RAID10最小支持硬盘数量。 |
Max RAID10 Drives |
RAID10最大支持硬盘数量。 |
Max RAID10 Sub RAID Groups |
RAID10最大支持子组数量。 |
Reset Default Configuration
将控制卡恢复默认设置,所有配置将恢复到出厂默认配置。请谨慎执行该操作。
控制卡恢复默认设置。
该界面提供虚拟磁盘的查询和管理接口。
界面介绍
“Virtual Drive Management”界面如图22-73所示,参数说明如表22-20所示。
图22-73 “Virtual Drive Management”
参数 |
参数说明 |
Create Virtual Drive |
创建虚拟磁盘。 |
View Virtual Drives |
查看虚拟磁盘。 |
View RAID Group Properties |
查看RAID组属性。 |
Manage Foreign Configurations |
管理外部配置。 |
“Create Virtual Drive”界面如图22-74所示,参数说明如表22-21所示。
参数 |
参数说明 |
RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l RAID Group:RAID组。 l Free Drives:未加入过虚拟磁盘的空闲硬盘。 |
Select Drives |
选择成员盘。 |
Name |
虚拟磁盘名称。 |
Capacity Size |
虚拟磁盘的容量。 默认值为max_left(最大容量)。 |
Select Capacity Unit |
容量单位。包括: l MB l GB l TB |
Initialize Type |
初始化方式。包括: l Fast:快速初始化。 l Background:后台初始化。 l Front:前台初始化。 |
Strip Unit Size |
虚拟磁盘条带大小。支持32KB、64KB、128KB、256KB、512KB、1MB。 l HDD默认条带大小为256KB。 l SSD默认条带大小为64KB。 |
Write Cache |
虚拟磁盘的Cache写策略。 仅支持Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 |
Read Cache |
虚拟磁盘的Cache读策略。 仅支持No Ahead:关闭预读取功能。 |
PD Cache |
物理硬盘Cache写策略(仅对有Cache的硬盘有效): l On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 l Default:保持硬盘当前Cache配置。 |
Save Configuration |
保存当前配置。 |
在图22-73中选择“View Virtual Drives”并按“Enter”。
选择想要查看的VD并按“Enter”,界面如图22-75所示,参数说明如表22-22所示。
图22-75 Virtual Drives Information
参数 |
参数说明 |
Operation |
选择对虚拟磁盘的操作。 l Delete Virtual Drive:删除虚拟磁盘。 l Expand Virtual Drive:通过调整成员盘可用空间扩充VD容量。 l Sanitize Virtual Drive:安全擦除虚拟磁盘数据。 |
Progress |
当前任务进度。 l 仅当进行安全擦除VD数据等任务时显示此选项。 l 当前界面不会自动刷新,需退出后重新进入查看当前进度。 |
Stop |
停止当前任务。 仅当进行安全擦除VD数据等任务时显示此选项。 |
Name |
虚拟磁盘名称。 |
Virtual Drive ID |
虚拟磁盘ID。 |
RAID Group ID |
RAID组ID。 |
Type |
RAID组的类型。 |
Capacity |
虚拟磁盘容量。 |
Map Type |
RAID组的映射类型。 |
Su Size(KB) |
条带大小。 |
Sec Size(B) |
逻辑分区大小。 |
Cache Read Status |
虚拟磁盘的Cache读策略状态。 |
Cache Write Status |
虚拟磁盘的Cache写策略状态。 |
Status |
虚拟磁盘状态。 |
在“View RAID Group Properties”界面选择想要查看的RAID组并按“Enter”。
进入“RAID Group Detail Information”界面,如图22-76和图22-77所示,参数说明如表22-23所示。
图22-76 RAID Group Detail Information(1)
图22-77 RAID Group Detail Information(2)
参数 |
参数说明 |
Name |
RAID组名称。 |
RAID Group ID |
RAID组的ID。 |
RAID Level |
RAID组级别。 |
Status |
RAID组状态。 |
Total Capacity |
RAID组的总容量。 |
Available Space |
RAID组的空闲容量。 |
Current Background Task |
当前后台任务。 |
CopyBack Switch |
回拷开关状态。 |
PD Cache |
硬盘Cache状态。 |
Sector Size(B) |
逻辑块大小。 |
Sector Type |
块类型。 |
SubGroups Number |
子组数量。 |
SubGroup Drive Number |
子组硬盘数量。 |
SubGroup Free Capacity |
子组空余容量。 |
Aligned Size(M) |
对齐尺寸。 |
Virtual Drives Number |
虚拟磁盘数量。 |
Member Drive Number |
成员盘数量。 |
Member Drive List |
成员盘列表。 |
查看成员盘
在图22-77中选择“Member Drive List“并按“Enter“。
进入图22-78界面。可查看当前RAID组所有成员盘信息。
“Manage Foreign Configurations”界面如图22-79所示。
图22-79 “Manage Foreign Configurations”
导入/清除外部配置具体操作请参见22.4.11 导入和清除外部配置。
该界面显示硬盘基本属性,提供硬盘操作接口。
界面介绍
“Physical Drive Management”界面如图22-80所示。
可在此界面设置全局裸盘模式,具体操作请参见22.4.6 设置裸盘模式。
图22-80 “Physical Drive Management”
选定要操作的硬盘并按“Enter”进入详细操作界面,如图22-81所示,参数说明如表22-24所示。
参数 |
参数说明 |
Operations |
选择对硬盘进行的操作。 l Start Locate:定位硬盘。 l Stop Locate:取消定位。 l Assign Global Hot Spare Drive:设置为全局热备盘。 l Assign Hot Spare Slot:设置所在槽位为热备槽位。 l Assign Local Hot Spare Drive:设置为局部热备盘。 l Drive Cache On:开启硬盘Cache。 l Drive Cache Off:关闭硬盘Cache。 l Start Sanitize:Sanitize安全擦除硬盘。 l Start Erase:Erase擦除硬盘。 l Set Drive Free:设置硬盘为空闲盘(仅裸盘模式开启时可用) l Set Raw Drive On:设置硬盘为裸盘(仅裸盘模式开启时可用) |
Perform Operation |
执行操作。选择操作后显示。 |
Drive ID |
硬盘ID。 |
Enclosure ID |
硬盘所在的框位类型。 |
Slot ID |
硬盘所在的槽位编号。 |
Capacity |
硬盘容量。 |
Link Speed |
端口速度。 |
Type |
硬盘的逻辑类型。 |
Spare Slot |
是否为热备槽位。 |
Status |
硬盘的逻辑状态。 |
Media |
硬盘的媒介类型。 |
Interface |
硬盘的接口类型。 |
PD Cache |
硬盘的Cache写状态。 |
Slow Drive |
是否被标记为慢盘。 |
Model |
硬盘的型号。 |
Firmware Version |
硬盘的固件版本。 |
Sector Type |
扇区类型。 |
SED |
是否为自加密硬盘。 |
Spin Status |
硬盘转速状态。 |
该界面主要提供控制卡传感器信息。
界面介绍
“Hardware Components”界面如图22-82,参数说明如表22-25所示。
参数 |
参数说明 |
CPU Temperature |
当前CPU温度。 |
按“F10”退出BIOS管理界面。
使用OS命令行工具可以在服务器正常运行过程中对控制卡进行操作,不需要重启服务器。
涉及的使用实例以hiraidadm版本1.2.0.2为例,不同版本的hiraidadm工具回显有差异,具体请以实际为准。
联系技术支持获取hiraidadm工具。
命令功能
查询控制卡列表。
命令格式
hiraidadm show allctrl
使用指南
回显中主要字段的含义如表22-26所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm show allctrl |
Controllers Number |
控制卡的数量。 |
1 |
Controller Id |
控制卡的ID。 |
0 |
|
Device Name |
控制卡的设备名称。 |
/dev/bsg/hiraid0 |
|
Pcie Bus Domain |
控制卡的PCIe总线域。 |
0000 |
|
Bus Number |
控制卡总线号。 |
04 |
|
Device Number |
控制卡设备号。 |
00 |
|
Function Number |
控制卡的Function号。 |
00 |
|
PCI Address |
控制卡PCI地址。 |
0000:04:00.0 |
使用实例
# 查询所有控制卡列表。
[root@localhost ~]# hiraidadm show
allctrl
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Controllers Number = 1
-------------------------------------------------------
Controller Id | 0
Device
Name |
/dev/bsg/hiraid0
Pcie Bus Domain | 0000
Bus
Number
| 85
Device Number | 00
Function Number | 00
PCI
Address
| 0000:85:00.0
命令功能
查询控制卡的数量。
命令格式
hiraidadm show ctrlcount
使用指南
无。
使用实例
# 查询系统中控制卡数量。
[root@localhost ~]# hiraidadm show
ctrlcount
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
ctrlcount:1
==============================================================================================================
命令功能
将从控制卡上收集的日志文件转换为文本文件。
命令格式
hiraidadm show log path=log_path out_file=outputfile [timezone=timezone]
参数说明
参数 |
参数说明 |
取值 |
log_path |
从控制卡获取的日志文件所在路径。 |
- |
outputfile |
指定转换后输出的文件名。 |
- |
timezone |
可选参数,表示指定转换的时区。不输入时默认使用本地时区。 |
例如: l +0800:表示指定东八区。 l -0900:表示指定西九区。 |
使用指南
无。
使用实例
# 将从控制卡上收集的日志文件转换为文本文件。。
[root@localhost ~]# hiraidadm show
log path=./ outfile=log.txt timezone=+0200
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
-------------------------------------------------------
parse .//ap.bin start.
parse .//imu.bin start.
out file1:.//log-flash.txt
out file2:.//log-ram.txt
success log num | 12624
no parse log num | 7427
total log num | 20423
-------------------------------------------------------
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询控制卡的配置信息。
命令格式
hiraidadm ccontroller_id show config
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
回显中主要字段的含义如表22-27所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show config |
Precopy Switch |
预拷贝开关使能状态。 |
Off |
Emergency Hotspare Switch |
紧急热备开关使能状态。 |
On |
|
CopyBack Switch |
回拷开关使能状态。 |
On |
|
Bginit Rate |
后台初始化速率。 |
low |
|
Rebuild Rate |
重构速率。 |
high |
|
CopyBack Rate |
回拷速率。 |
high |
|
PreCopy Rate |
预拷贝速率。 |
high |
|
Sanitize Rate |
硬盘擦除速率。 |
low |
|
CCheck Switch |
一致性校验开关使能状态。 |
Off |
|
CCheck Period |
一致性校验周期。 |
30 day |
|
CCheck Rate |
一致性校验速率。 |
low |
|
CCheck Repair Switch |
一致性校验修复开关使能状态。 |
Off |
|
Patrolread Switch |
系统巡检开关使能状态。 |
On |
|
Patrolread Period |
系统巡检周期。 |
30 day |
|
Patrolread Rate |
系统巡检速率。 |
low |
|
Drive Parall Num |
同时进行巡检的硬盘数量。 |
4 |
使用实例
# 查询控制卡配置信息。
[root@localhost ~]# hiraidadm c0
show config
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
Raid Global Config Information
--------------------------------------------------------------------------------------------------------------
Precopy
Switch
| On
Emergency Hotspare Switch | On
CopyBack
Switch | On
Bginit
Rate
| high
Rebuild Rate |
high
CopyBack
Rate
| high
PreCopy
Rate
| high
Sanitize
Rate
| low
CCheck
Switch
| On
CCheck
Period
| 60 day
CCheck
Rate
| medium
CCheck Repair Switch | On
Patrolread Switch | Off
Patrolread Period | 30
day
Patrolread
Rate | low
Drive Parall Num |
4
DDMA
Switch
| On
--------------------------------------------------------------------------------------------------------------
命令功能
查询和设置系统巡检的相关参数。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id show patrolread |
查询系统巡检相关参数。 |
hiraidadm ccontroller_id set patrolread [period=period] [rate={low|medium|high}] [drivenum=drivenum] |
设置系统巡检参数,至少需设置一个参数。 |
hiraidadm ccontroller_id start patrolread [delay=delay] [period=period] [rate=rate] [drivenum=drivenum] |
设置系统巡检参数并执行。 |
hiraidadm ccontroller_id stop patrolread |
停止系统巡检。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
delay |
指定延时启动时间。 |
1~24(单位:h) |
period |
系统巡检间隔周期。 |
1~60(单位:day) |
rate |
系统巡检速率。 |
l low l medium l high 默认为low。 |
drivenum |
同时开启硬盘巡检的硬盘数量。 |
l 可设置2~8个硬盘。 l 默认为4。 |
使用指南
l 本命令相关参数由用户指定后,后续将一直保留使用,不指定时不再使用默认值。
l 回显中主要字段的含义如表22-28所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show patrolread |
Patrolread Switch |
系统巡检开关。 |
on |
Patrolread Delay |
硬盘巡检延时启动时间。 |
1 h |
|
Patrolread Period |
巡检周期。 |
30 day |
|
Patrolread Rate |
巡检速率。 |
low |
|
Drive Parall Num |
设置的同时进行巡检的硬盘数量。 |
4 |
|
Run Status |
巡检执行状态。 |
stop |
|
Finish Drive Sum |
完成巡检的硬盘数量。 |
0 |
|
Running Drive Sum |
当前巡检中的硬盘数量。 |
0 |
使用实例
# 查询系统巡检信息。
[root@localhost ~]# hiraidadm c0
show patrolread
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Patrolread Information
-------------------------------------------------------
Patrolread Switch | On
Patrolread Delay | 0 h
Patrolread Period | 20 day
Patrolread Rate | low
Drive Parall Num | 4
Run
Status
| stop
Finish Drive Sum | 0
Running Drive Sum | 0
-----------------------------------------------------
# 设置系统巡检参数。
[root@localhost ~]# hiraidadm c0
start patrolread period=20 rate=low drivenum=4
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 停止系统巡检。
[root@localhost ~]# hiraidadm c0
stop patrolread
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询和设置控制卡的全局裸盘模式。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set jbod=jbod_state |
设置控制卡的裸盘模式。 |
hiraidadm ccontroller_id show jbod |
查询控制卡的裸盘模式状态。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
jbod_state |
控制卡裸盘模式使能情况。 |
l rawdrive:开启裸盘模式 l off:关闭裸盘模式 |
使用指南
无。
使用实例
# 开启控制卡的裸盘模式。
[root@localhost ~]# hiraidadm c0
set jbod=rawdrive
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 查询控制卡的裸盘模式状态。
[root@localhost ~]# hiraidadm c0
show jbod
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Jbod = rawdrive
命令功能
查询、设置控制卡一致性校验参数。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id show ccheck |
查询控制卡一致性校验参数。 |
hiraidadm ccontroller_id set ccheck [period=period] [repair=repair_switch] [rate=rate] |
设置控制卡一致性校验,至少设置一个参数。 |
hiraidadm ccontroller_id start ccheck [delay=delay] [period=period] [repair=repair_switch] [rate=rate] |
设置控制卡一致性校验并开始。 |
hiraidadm ccontroller_id stop ccheck |
停止控制卡一致性校验。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
delay |
延时时间。 |
1~24,单位:h |
period |
一致性校验的周期。 |
单位:day |
repair_switch |
自动修复开关。 |
l on l off |
rate |
一致性校验速率。 |
l high l medium l low |
使用指南
l 本命令相关参数由用户指定后,后续将一直保留使用,不指定时不再使用默认值。
l 回显中主要字段的含义如表22-29所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show ccheck |
CCheck Switch |
自动一致性校验开关。 |
on |
Delay |
一致性校验延时启动时间。 |
0 h |
|
Period |
一致性校验周期(单位:天)。 |
60 day |
|
Rate |
一致性校验速率。 |
medium |
|
Repair |
自动修复开关。 |
On |
|
Run status |
一致性校验运行状态。 |
stop |
|
Total Number Of CCheck |
需要完成一致性校验的VD总数量。 |
0 |
|
Completed Number Of CCheck |
已完成一致性校验VD数量。 |
0 |
使用实例
# 查询一致性校验信息。
[root@localhost ~]# hiraidadm c0
show ccheck
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Consistency Check Information
-------------------------------------------------------
CCheck
Switch
| On
Delay
| 0 h
Period
| 60 day
Rate
| medium
Repair
| On
Run
status
| stop
Total Number Of CCheck | 0
Completed Number Of CCheck | 0
-------------------------------------------------------
# 设置一致性校验参数。
[root@localhost ~]# hiraidadm c0
set ccheck period=20 repair=on rate=low
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 设置一致性校验参数并启动。
[root@localhost ~]# hiraidadm c0
start ccheck delay=10 period=20 repair=on rate=low
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 停止一致性校验。
[root@localhost ~]# hiraidadm c0
stop ccheck
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询和设置控制卡重构、回拷、巡检、擦除、后台初始化、预拷贝和一致性校验后台任务。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id show bgtask |
查询控制卡后台任务进度。 |
hiraidadm ccontroller_id set bgrate func=func rate=rate |
设置RAID组重构/回拷/巡检/擦除/后台初始化/预拷贝/一致性校验后台速率。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
func |
要执行的操作。 |
l rebuild:RAID重构 l copyback:回拷 l patrolread:巡检 l sanitize:擦除 l bginit:后台初始化 l precopy:预拷贝 l ccheck:一致性校验 |
rate |
后台任务执行速率。 |
l high l medium l low |
使用指南
无。
使用实例
# 查询后台任务进度。
[root@localhost ~]# hiraidadm c0
show bgtask
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Background task num is 1
--------------------------------------------------------------------------------------------------------------
Background Task Information
--------------------------------------------------------------------------------------------------------------
Name
Type ID Rate Progress TimeLeft
bginit
VD 0 high
34% 32 min
--------------------------------------------------------------------------------------------------------------
# 设置RAID重构速率。
[root@localhost ~]# hiraidadm c0
set bgrate func=rebuild rate=low
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign func : rebuild
User assign rate : low
--------------------------------------------------------------------------------------------------------------
命令功能
查询和设置控制卡的预拷贝开关。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id show precopy |
查询控制卡的预拷贝开关状态。 |
hiraidadm ccontroller_id set precopy sw=switch |
设置控制卡的预拷贝功能开关。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
switch |
设置控制卡的预拷贝开关状态。 |
l on:开启预拷贝功能 l off:关闭预拷贝功能 |
使用指南
无。
使用实例
# 查询控制卡预拷贝开关使能状态。
[root@localhost ~]# hiraidadm c0
show precopy
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Precopy Switch = On
#开启控制卡预拷贝开关。
[root@localhost ~]# hiraidadm c0
set precopy sw=on
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : on
--------------------------------------------------------------------------------------------------------------
命令功能
设置成员盘强制上线和下线。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id set state
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
– |
slot_id |
物理硬盘槽位的ID。 |
– |
state |
设置成员盘状态。 |
l online:设置成员盘上线。 l offline:设置成员盘下线。 |
使用指南
l offline只能操作RAID组状态normal的成员盘。
l online操作成功也受限于RAID组本身是否可恢复降级或重构以及normal。
l Online本身是尽力而为的命令,如果Online的盘物理上为fault,则该盘状态将保存为fault,对应LUN的逻辑状态可以恢复,但是能否恢复数据依赖盘物理上读数据是否会出错。
设置硬盘offline之后查询硬盘状态,确认硬盘状态为offline后,才能进行设置online操作,避免设置online失败。
使用实例
# 设置slot1硬盘强制上线。
[root@localhost ~]# hiraidadm
c0:e0:s1 set online
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询、设置控制卡回拷开关。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id show copyback |
查询控制卡的回拷开关状态。 |
hiraidadm ccontroller_id set copyback sw=switch |
设置控制卡的回拷开关状态。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
switch |
设置控制卡的回拷开关状态。 |
l on:开启回拷 l off:关闭回拷 |
使用指南
无。
使用实例
# 查询控制卡的回拷开关状态。
[root@localhost ~]# hiraidadm c0
show copyback
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Copyback Switch = On
# 开启控制卡的回拷功能。
[root@localhost ~]# hiraidadm c0
set copyback sw=on
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : on
--------------------------------------------------------------------------------------------------------------
命令功能
查询、设置控制卡SMART扫描周期。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id show smart_polling |
查询SMART扫描周期。 |
hiraidadm ccontroller_id set smart_polling period=period |
设置SMART扫描周期。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
period |
SMART扫描周期。 |
单位:s。最小值为60s。 |
使用指南
无。
使用实例
# 查询SMART扫描周期。
[root@localhost ~]# hiraidadm c0
show smart_polling
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Drive smart polling period is 3600s.
# 设置Smart扫描周期为“600s”。
[root@localhost ~]# hiraidadm c0
set smart_polling period=600
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign period : 600
--------------------------------------------------------------------------------------------------------------
命令功能
查询指定控制卡下所有物理盘列表信息。
命令格式
hiraidadm ccontroller_id show pdlist
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
回显中主要字段的含义如表22-30所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show pdlist |
Index |
查询列表中物理硬盘序号。 |
0 |
Enc |
硬盘所在框位的ID。 |
0 |
|
Slot |
硬盘所在槽位的ID。 |
12 |
|
DID |
硬盘逻辑ID。 |
2 |
|
Intf |
硬盘接口类型。 |
SATA |
|
Media |
硬盘物理类型。 |
SSD |
|
Type |
硬盘逻辑类型。 |
free |
|
Status |
硬盘当前状态。 |
normal |
|
PreFail |
是否预失效。 |
No |
|
LinkSpd |
硬盘接口速率。 |
6.0Gb/s |
|
Capacity |
硬盘原始容量。 |
1.920TB |
|
SecType |
硬盘扇区类型。 |
512E |
|
FUA |
是否支持FUA。 |
Sup |
|
SED |
硬盘是否加密。 |
No |
|
Spin |
硬盘节电开关。 |
UP |
|
FW |
固件版本信息。 |
404Q |
|
Model |
硬盘型号。 |
SAMSUNG MZ7LH1T9HMLT-00005 |
使用实例
#查询指定控制卡下所有物理盘列表信息。
[root@localhost ~]# hiraidadm c0
show pdlist
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Total pd number is 12
--------------------------------------------------------------------------------------------------------------
Index Enc Slot DID Intf Media Type
Status PreFail SlowDrive
LinkSpd Capacity SecType FUA SED Spin
FW Model
--------------------------------------------------------------------------------------------------------------
0 0 0
5 SATA HDD free
ucfggood No
No 6.0Gb/s
3.639TB 512N Sup No UP
T010 HUS726T4TALA600
1 0 1
6 SATA HDD free
ucfggood No
No 6.0Gb/s
3.639TB 512N Sup No UP
T010 HUS726T4TALA600
2 0 2
7 SATA HDD free
ucfggood No
No 6.0Gb/s
3.639TB 512N Sup No UP
T010 HUS726T4TALA600
3 0 3
8 SATA HDD free
ucfggood No
No 6.0Gb/s
3.639TB 512N Sup No UP
T010 HUS726T4TALA600
4 0 8
10 SATA HDD free
ucfggood No
No 6.0Gb/s
3.639TB 512N Sup No UP
T010 HUS726T4TALA600
5 0 9
11 SATA HDD free ucfggood
No No
6.0Gb/s 5.458TB 512E Sup No
UP SN03 ST6000NM0115-1YZ110
6 0 10
9 SAS HDD
free ucfggood
No No
12Gb/s 558.912GB 512N Sup No UP
N005 ST600MM0009
7 0 11
4 SAS SSD
free ucfggood
No No
12Gb/s 372.611GB 4096B Sup No UP
c280 HUSMM1640ASS204
8 0 12
3 SAS SSD
free ucfggood
No No
12Gb/s 894.253GB 4096B Sup No UP
3230 HSSD-D6323AL960N
9 0 13
1 SATA SSD free
ucfggood No
No 6.0Gb/s 447.132GB
512E Sup No UP HXM7A04Q SAMSUNG
MZ7KH480HAHQ-00005
10 0 14 2
SATA SSD free
ucfggood No
No 6.0Gb/s 894.253GB 512E
Sup No UP 1074 HWE62ST3960L003N
11 0 15 0
SATA SSD free
ucfggood No
No 6.0Gb/s 894.253GB
512E Sup No UP 1074
HWE62ST3960L003N
--------------------------------------------------------------------------------------------------------------
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l SP186 HBA支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 不支持使用SED盘创建RAID组。
l 各RAID级别所需的硬盘数请参见22.2.1 多种RAID类型。
l 硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。
l 仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见22.4.7 设置硬盘属性。
命令功能
创建虚拟磁盘。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id create vd raid{0|1|10} size={size|max_left} drives={enclosure_id:slot_id,enclosure_id:slot_id|drive_id,drive_id} name=VD_Name [susize={32|*64|128|256|512|1024}] [wcache={*WT|WB|WBE}] [rcache={Ahead|*No_Ahead}] [pdcache={on|off|*default}] [init={*fast|front|background}] |
利用空闲硬盘创建虚拟磁盘。 |
hiraidadm ccontroller_id create vd [raid{0|1|10|5|6|50|60}] rg=rg_id size={size|max_left} name=VD_Name [susize={32|*64|128|256|512|1024}] [wcache={*WT|WB|WBE}] [rcache={Ahead|*No_Ahead}] [pdcache={on|off|*default}] [init={*fast|front|background}] |
利用已有RAID组剩余空间创建虚拟磁盘。 |
*表示默认值。
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
raid |
要配置的RAID组级别。 |
0、1、10,数字分别代表对应的RAID组级别。 |
size |
要配置的RAID组容量。 |
逻辑盘容量大小,单位MB。当设置为max_left时,使用最大容量。 说明 支持创建大小为1MB~Max_left。 |
drives |
两种表示方法。 l 要加入RAID组的硬盘所在的框位ID加槽位ID表示:enclosure_id:slot_id,enclosure_id:slot_id l 要加入RAID组的硬盘逻辑ID表示:drive_id,drive_id |
例如: l 1:22,1:23 l 3,7 |
name |
要配置的RAID组名称。 |
最大20字符。 |
susize |
设置RAID组条带大小。 |
32, 64, 128, 256, 512, 1024。单位为KB。 l HDD默认条带大小为256KB。 l SSD默认条带大小为64KB。 |
wcache |
设置RAID组的写Cache属性。 |
l WT:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。 l WB:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l WBE:在RAID控制卡无电容或电容损坏的情况下,强制使用“WB”模式。 默认为WT。 |
rcache |
设置RAID组的读Cache属性。 |
l Ahead:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。 l No_Ahead:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。 默认为No_Ahead。 |
pdcache |
设置RAID的成员盘的Cache状态(仅对有Cache的硬盘有效)。 |
l on:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。 l off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。 l default:保持硬盘当前Cache配置。 默认为default。 |
init |
初始化方式。 |
l fast:快速初始化 l front:前台初始化 l background:后台初始化 默认为fast。 |
rg_id |
RAID组的ID。 |
例如:0、1。查询RAID的ID请参见22.7.2.25 查询控制卡RAID组列表。 |
使用指南
无。
使用实例
# 利用空闲硬盘创建RAID 1。
[root@localhost ~]# hiraidadm c0
create vd raid1 name=vd0 size=100000 drives=0:0,0:1
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 利用已有RAID组创建虚拟磁盘。
[root@localhost ~]# hiraidadm c0
create vd raid1 rg=0 size=100000 name=vd1
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询控制卡的虚拟磁盘列表信息。
命令格式
hiraidadm ccontroller_id show vdlist
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
回显中主要字段的含义如表22-31所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show vdlist |
VDID |
VD的ID索引。 |
0 |
RGID |
VD所属的RAID组ID索引。 |
0 |
|
Name |
VD名称。 |
- |
|
Type |
VD类型。 |
normal |
|
Status |
VD的状态。 |
normal |
|
Capacity |
容量,单位:MB|GB|TB。 |
1.454TB |
|
SUSz |
条带大小,单位:KB。 |
64KB |
|
SecSz |
扇区大小,单位:B。 |
512B |
|
RCache |
读cache策略。 |
No_Ahead |
|
WCache |
写cache策略。 |
WT |
|
RealWCache |
当前生效的Cache写策略。 |
WT |
|
Access |
VD的读写属性。 RW:取消只读。 RO:只读。 |
RW |
使用实例
#查询指定控制卡下虚拟磁盘列表信息。
[root@localhost ~]# hiraidadm c0
show vdlist
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Total vd number is 1
--------------------------------------------------------------------------------------------------------------
VDID RGID Name Type
Status Capacity
SUSz SecSz RCache WCache RealWCache Access
--------------------------------------------------------------------------------------------------------------
0 0 vd0 normal
initializing 97.656GB 256KB 512B
No_Ahead WT WT
RW
--------------------------------------------------------------------------------------------------------------
命令功能
查询指定控制卡下已创建的RAID组信息。
命令格式
hiraidadm ccontroller_id show rglist
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
回显中主要字段的含义如表22-32所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show rglist |
Id |
RAID的ID。 |
0 |
Name |
RAD组名称。 |
raid0 |
|
Level |
RAID组级别。 |
0 |
|
Status |
RAID的状态。 |
normal |
|
MemberNum |
成员盘数量。 |
3 |
|
Total |
总容量。 |
1.454TB |
|
Free |
空闲容量。 |
0.000MB |
使用实例
#查询指定控制卡下RAID组列表信息。
[root@localhost ~]# hiraidadm c0
show rglist
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Total raid group number is 1
--------------------------------------------------------------------------------------------------------------
Id Name
Level Status MemberNum Total Free
--------------------------------------------------------------------------------------------------------------
0 raid0
1 normal
2
3.638TB 3.542TB
--------------------------------------------------------------------------------------------------------------
命令功能
查询、设置控制卡紧急热备功能状态。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id show ehsp |
查询控制卡紧急热备功能状态。 |
hiraidadm ccontroller_id set ehsp sw=switch |
设置控制卡紧急热备功能。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
switch |
紧急热备功能的启用状态。 |
l on:开启紧急热备 l off:关闭紧急热备 |
使用指南
无。
使用实例
# 查询控制卡紧急热备功能使能状态。
[root@localhost ~]# hiraidadm c0
show ehsp
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Ehsp Switch = On
# 开启紧急热备功能。
[root@localhost ~]# hiraidadm c0
set ehsp sw=on
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : on
--------------------------------------------------------------------------------------------------------------
命令功能
查询、导入或者清除控制卡的外部配置。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id show fncfg |
查询控制卡的外部配置。 |
hiraidadm ccontroller_id clear fncfg [guid=guid] |
清除控制卡的外部配置。 |
hiraidadm ccontroller_id import fncfg [guid=guid] |
导入控制卡的外部配置。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
guid |
外来配置的唯一标识符。 如果不输入,则默认所有。 |
– |
使用指南
无。
使用实例
# 查询控制卡的外部配置。
[root@localhost ~]# hiraidadm c0
show fncfg
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Foreign Config number is 2
--------------------------------------------------------------------------------------------------------------
Foreign Config Lists
--------------------------------------------------------------------------------------------------------------
Index Enc Slot Type RGID RGLevel RGStatus
VDs PDs RGGUID
0 0 0 member
0 1 degrade
2 2 0x7e522f3600000000
1 0 1
member 0 1
degrade 2 2 0x7e522f3600000000
--------------------------------------------------------------------------------------------------------------
# 导入控制卡的外部配置。
[root@localhost ~]# hiraidadm c0
import fncfg guid=0x7e522f3600000000
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Import Foreign Config : 0x7e522f3600000000
# 清除控制卡的外部配置。
[root@localhost ~]# hiraidadm c0
clear fncfg guid=0x7e522f3600000000
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Clear Foreign Config : 0x7e522f3600000000
命令功能
将控制卡配置恢复到默认设置。
将控制卡恢复默认设置,所有配置将恢复到出厂默认配置。请谨慎执行该操作。
命令格式
hiraidadm ccontroller_id reset defaultconfig [noprompt]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
noprompt |
无需用户确认。 |
- |
使用指南
当输入命令不带“noprompt”参数时,将提示“Do you confirm the execution reset config?The user settings will be reset.Please input [y|Y] for yes, others for cancel”。
l 输入“y”或“Y”并按“Enter”确认恢复默认设置。
l 输入其他取消此操作。
使用实例
# 将指定控制卡恢复出厂设置。
[root@localhost ~]# hiraidadm c0
reset defaultconfig
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
Do you confirm the execution reset config?
The user settings will be reset.
Please input [y|Y] for yes, others for cancel
---------------------------------------------
y
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
收集控制卡的日志信息。
命令格式
hiraidadm ccontroller_id get log path=path
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
path |
日志保存的路径。 |
- |
使用指南
无。
使用实例
# 收集控制卡的日志信息。
[root@localhost ~]# hiraidadm c0
get log path=./
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
file:ap.bin get finish.
file:imu.bin get finish.
file:ap_index.gz get finish.
file:imu_index.gz get finish.
file:lastword.bin get finish.
-------------------------------------------------------
file(.//log-lastword.txt) will be overwritten!
parse .//lastword.bin start.
out file1:.//log-lastword.txt
-------------------------------------------------------
file(.//log-flash.txt) will be overwritten!
file(.//log-ram.txt) will be overwritten!
parse .//imu.bin start.
parse .//ap.bin start.
out file1:.//log-flash.txt
out file2:.//log-ram.txt
success log num | 9272
no parse log num | 12740
total log num | 22078
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
l 查询控制卡寄存器信息。
l 刷dump数据到flash。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id get dump path=file_path [type=type] |
查询控制卡寄存器信息。 |
hiraidadm ccontroller_id set dump |
刷dump数据到flash。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
file_path |
要保存的路径。 |
- |
type |
指定信息获取方式。 |
l flash:指定从norflash获取。 l ram:指定从ram获取,如果不支持ram,则从norflash获取。 默认为flash。 |
使用指南
查看控制卡寄存器信息时,包含以下内容。
l *-regdump.txt:公用dump信息。
l *-sdsdump.txt:serdes模块dump信息。
l *-datadump.txt:其他模块dump信息,具体见文件内容。
使用实例
# 查看控制卡寄存器信息。
[root@localhost ~]# hiraidadm c0
get dump path=./dump
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
file:dump.bin get finish.
[warning] file(./dump/dump.bin) is NULL
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 刷dump数据到flash。
[root@localhost ~]# hiraidadm c0 set
dump
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
获取系统复位或者下电的日志。
控制卡从未上下电或者复位时NAND日志不存在。
命令格式
hiraidadm ccontroller_id get nandlog path=file_path [id=log_id]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
file_path |
日志保存路径。 |
- |
log_id |
指定收集第几份,缺省则全收集。 |
值越小越新,0为最新。 |
使用指南
获取NAND日志。支持以下内容。
l *log-nand.txt:控制卡侧日志。
l *log-lastword.txt:芯片临终遗言日志。
l *{reg/ras}log-regdump.txt:公用dump信息。
l *{reg/ras}log-sdsdump.txt:serdes模块dump信息。
l *{reg/ras}log-datadump.txt:其他模块dump信息,具体见文件内容。
*为第几次的日志,如0log-nand.txt,1log-nand.txt。
使用实例
# 获取NAND日志。
[root@localhost ~]# hiraidadm c0
get nandlog path=./nand
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
file:ap_index.gz get finish.
file:imu_index.gz get finish.
file:nandlog.bin get finish.
-------------------------------------------------------
parse /var/tmp/lastword_C2nyam start.
out file1:./nand/0log-lastword.txt
out file1:./nand/0log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_cLOHA8 start.
out file1:./nand/1log-lastword.txt
out file1:./nand/1log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_Se43vT start.
out file1:./nand/2log-lastword.txt
out file1:./nand/2log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_AjgnFL start.
out file1:./nand/3log-lastword.txt
out file1:./nand/3log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_S4wu6C start.
out file1:./nand/4log-lastword.txt
out file1:./nand/4log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_OCegju start.
out file1:./nand/5log-lastword.txt
out file1:./nand/5log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_2thWUj start.
out file1:./nand/6log-lastword.txt
out file1:./nand/6log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_egm8Ng start.
out file1:./nand/7log-lastword.txt
out file1:./nand/7log-nand.txt
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询单板电子标签信息。
命令格式
hiraidadm ccontroller_id show elabel
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
回显中主要字段的含义如表22-33所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show elabel |
BoardType |
单板型号。 |
SV590 |
BarCode |
单板序列号。 |
2102312LBH10L3000001 |
|
Item |
BOM编码。 |
02312LBH |
|
Description |
描述信息。 |
Function Module,2288H V5,SV590,Pubic cloud SV 590 Configuration (2*4114 CPU,8*16GB DIMM,2*1200GB SAS HDD+12*4000GB SATA HDD+2*800GB SAS SSD,SR150-M,2*GE+2+10GE+4*25GE,2*900W AC POWER,Rail) |
|
Manufactured |
生产日期。 |
2020-05-07 |
|
VendorName |
厂商名称。 |
Huawei |
|
IssueNumber |
发行号。 |
00 |
|
CLEICode |
CLEI码。 |
789456 |
|
BOM |
BOM编码。 |
456789 |
|
Model |
对外型号。 |
123456 |
|
PCB |
PCB版本。 |
1.0.0.1 |
使用实例
# 查询单板电子标签信息。
[root@localhost ~]# hiraidadm c0
show elabel
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version :1.2.0.2
Build Time:Aug 26 2022 21:03:13
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
BoardType=SV590
BoardCode=2102312LBH10L3000001
Item=02312LBH
Description=Function Module,2288H V5,SV590,Pubic cloud SV 590 Configuration
(2*4114 CPU,8*16GB DIMM,2*1200GB SAS HDD+12*4000GB SATA HDD+2*800GB SAS
SSD,SR150-M,2*GE+2+10GE+4*25GE,2*900W AC POWER,Rail)
Manufactured=2020-05-07
VendorName=Huawei
IssueNumber=00
CLEICCode=789456
BOM=456789
Model=123456
PCB=1.0.0.1
命令功能
查询控制卡下的硬盘坏块列表信息。
命令格式
hiraidadm ccontroller_id show bst
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
回显中主要字段的含义如表22-34所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show bst |
Index |
坏盘序号。 |
0 |
Did |
硬盘的ID。 |
4 |
|
Start Lba |
起始LBA地址。 |
0 |
|
Lba_len |
LBA数量。 |
2048 |
|
Type |
逻辑类型或者物理类型。 |
Physical |
使用实例
#查询硬盘坏块列表信息。
[root@localhost ~]# hiraidadm c0
show bst
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Total diskbst number is 2
--------------------------------------------------------------------------------------------------------------
Index Did Start_lba lba_len
Type Index Did Start_lba
lba_len Type
--------------------------------------------------------------------------------------------------------------
0 4
0
2048 Physical | 1 4
4096
6144 Physical |
--------------------------------------------------------------------------------------------------------------
命令功能
查询控制卡已配置的启动项信息。
命令格式
hiraidadm ccontroller_id show boot
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
无。
使用实例
# 查询控制卡已配置的启动项信息。
[root@localhost ~]# hiraidadm c0
show boot
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
BootDrive Num Is 1
--------------------------------------------------------------------------------------------------------------
BootDrive Information
--------------------------------------------------------------------------------------------------------------
Index Type VID/DID Enc Slot
0 VD
0 NA NA
--------------------------------------------------------------------------------------------------------------
命令功能
查询控制卡主机侧驱动队列深度。
命令格式
hiraidadm ccontroller_id show queue
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
无。
使用实例
# 设置控制卡主机侧驱动队列深度。
[root@localhost ~]# hiraidadm c0
show queue
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Queue Depth = 1023
命令功能
查询、设置控制卡慢盘检测功能参数。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set slowdrive type=type [sw=switch] [ratio=ratio] [media=media] [susize=susize] [l1=l1] [l2=l2] [l3=l3] [default] |
设置慢盘检测参数。 |
hiraidadm ccontroller_id show slowdrive |
查询慢盘检测配置信息。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
type |
设置慢盘检测类型。 |
l raid:RAID成员盘 l rawdrive:裸盘 |
switch |
慢盘检查开关状态。 |
l on:开启慢盘检测 l off:关闭慢盘检测 |
ratio |
设置硬盘与RAID组其他成员盘的I/O时延差别倍率。 仅在判断在RAID L3级别有效,当I/O时延满足倍率要求时才会上报L3慢盘。 |
范围:4~64 |
susize |
设置条带大小。 |
l 128 l 256 l 512 l 1024 单位:KB 仅当“type=raid,media=hdd”时可配置,且输入该参数时,必须配置l1。 |
l1 |
设置L1级别的门限值,仅当“type=RAID”时有效。 |
l HDD: − 条带大小为128、256时,范围:660~L2。 − 条带大小为512、1024时,范围:760~L2。 l SSD:范围:110~L2。 单位:ms。 |
l2 |
设置L2级别的门限值。 |
l HDD: − RAID范围:L1~L3。 − 裸盘范围:810~20000。 l SSD: − RAID范围:L1-L3。 − 裸盘范围:210-20000。 单位:ms。 |
l3 |
设置L3级别的门限值,仅当“type=RAID”时有效。 |
范围:L2~20000。 单位:ms。 |
default |
输入该参数表示恢复默认配置。 |
- |
使用指南
l 该命令支持同时配置一个或多个属性。
l 除开关配置立即生效,其余配置下次重启后生效。
l 输入default表示恢复默认配置。
l 对识别的慢盘,在满足RAID冗余的条件下进行踢盘,裸盘不会踢盘。
l 对慢盘的识别包含L1/L2/L3三个级别,当慢盘达到L3级别并满足一定条件才会踢盘。
l 踢盘周期内报多个慢盘,超过设置踢盘数量上限后不会踢盘。
l 被踢掉的慢盘会被标记为Fault。
使用实例
# 设置控制卡慢盘检测参数。
[root@localhost ~]# hiraidadm c0
set slowdrive type=raid media=ssd l1=200 l2=300 l3=400
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 查询控制卡慢盘检测配置参数。
[root@localhost ~]# hiraidadm c0
show slowdrive
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Type Switch
-------------------------------------------------------
RAID On
RawDrive On
-------------------------------------------------------
Current
Config
-------------------------------------------------------
RAID Ratio:8
RAID Threshold:
Media
SuSize L1
L2 L3
-------------------------------------------------------
HDD 32/64/128/256KB 1300ms 2200ms 5000ms
HDD 512/1024KB
1500ms 2200ms 5000ms
SSD
NA 250ms 600ms 1200ms
-------------------------------------------------------
RawDrive Threshold:
Media L2
-------------------------------------------------------
HDD 2500ms
SSD 600ms
-------------------------------------------------------
Next Config
-------------------------------------------------------
RAID Ratio:8
RAID Threshold:
Media
SuSize L1
L2 L3
-------------------------------------------------------
HDD 32/64/128/256KB 1300ms 2200ms 5000ms
HDD 512/1024KB
1500ms 2200ms 5000ms
SSD
NA 250ms 600ms 1200ms
-------------------------------------------------------
RawDrive Threshold:
Media L2
-------------------------------------------------------
HDD 2500ms
SSD 600ms
-------------------------------------------------------
命令功能
查询控制卡的状态信息。
命令格式
hiraidadm ccontroller_id show status
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
回显中主要字段的含义如表22-35所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show status |
SAS Address |
控制卡的SAS地址。 |
122 |
FW Version0 |
控制卡主区的固件版本。 |
1.2.1.2 |
|
FW Version1 |
控制卡备区的固件版本。 |
1.2.1.2 |
|
Current FW |
当前FW运行分区。 |
0 |
|
Vendor Id |
控制卡厂商ID。 |
19e5 |
|
Device Id |
控制卡的设备ID。 |
3858 |
|
SubVendor Id |
控制卡的子厂商ID。 |
19e5 |
|
SubDevice Id |
控制卡的子设备ID。 |
0125 |
|
Pcie Bus Domain |
控制卡的PCIe总线域。 |
0000 |
|
Bus Number |
控制卡总线号。 |
81 |
|
Device Number |
控制卡的设备号。 |
00 |
|
Function Number |
控制卡的Function号。 |
00 |
|
Board SN |
控制卡的单板序列号。 |
2102313XXGFSN4000070 |
|
PF0 |
PF0是否使能。 |
Enable |
|
PF1 |
PF1是否使能。 |
Disable |
|
EP PCIe Width |
协商带宽。 |
x8 |
|
EP PCIe Speed |
当前协商速率。 |
16GT/s |
|
Chip Name |
控制卡的芯片名称。 |
B80121 |
|
Chip Version |
控制卡的芯片版本。 |
V100 |
|
Die ID |
控制卡的芯片ID。 |
69355794 00e1a491 00000000 00000000 001f5803 |
|
Tempature |
控制卡的芯片核心温度。 |
43c |
|
PD Number |
在位的硬盘数量。 |
12 |
|
VD Number |
逻辑盘数量。 |
3 |
|
VD Degrade Number |
降级的VD数量。 |
0 |
|
VD Fault Number |
故障的VD数量。 |
0 |
|
Raid Number |
RAID组数量。 |
0 |
|
Prefail Number |
预失效硬盘数量。 |
0 |
|
Fail Number |
失效硬盘数量。 |
0 |
|
DDR Size |
DDR容量。 |
1024MB |
|
DDR ECC Count |
DDR统计值。 |
0 |
|
DDR ECC Bucket Size |
DDR可纠正错误门限。 |
16 |
|
DDR CE Count |
DDR可纠正错误统计。 |
0 |
|
DDR UCE Count |
DDR不可纠正错误统计。 |
0 |
|
SRAM ECC Count |
SRAM单bit ECC错误统计。 |
0 |
|
SRAM UCE Count |
SRAM不可纠正错误统计。 |
0 |
|
Cache Pinned |
Cache Pinned故障。 |
0 |
|
Board Error |
单板故障。 |
0 |
|
Board Clock Error |
单板时钟故障。 |
0 |
|
Board Power Error |
单板电源故障。 |
0 |
|
Board Capacity Error |
单板电容故障。 |
0 |
|
Board Flash Error |
单板Flash故障。 |
0 |
|
Board Name |
单板名称。 |
SP186-M-40i |
使用实例
# 查询控制卡状态信息。
[root@localhost ~]# hiraidadm c0
show status
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version :1.2.0.2
Build Time:Aug 26 2022 21:03:13
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
SAS Address | 122
FW Version0 | 1.2.1.2
FW Version1 | 1.2.1.2
Current FW | 0
Vendor Id | 19e5
Device Id | 3858
SubVendor Id | 19e5
SubDevice Id | 0125
Pcie Bus Domain | 0000
Bus Number | 81
Device Number | 00
Function Number | 00
Board SN |
PF0
| Enable
PF1
| Disable
EP PCIe Width | x8
EP PCIe Speed | 16GT/s
Chip Name | B80121
Chip Version | V100
Die
ID
| 69355794 00e1a491 00000000 00000000 001f5803
Tempature | 43c
PD Number | 12
VD Number | 3
VD Degrade Number | 0
VD Fault Number | 0
Raid Number | 3
PreFail Number | 0
Fail Number | 0
DDR Size |
1024MB
DDR ECC Count | 0
DDR ECC Bucket Size | 16
DDR CE Count | 0
DDR UCE Count | 0
SRAM ECC Count | 0
SRAM UCE Count | 0
Cache Pinned | 0
Board Error | 0
Board Clock Error | 0
Board Power Error | 0
Board Capacity Error| 0
Board Flash Error | 0
Board Name | SP186-M-40i
命令功能
查询控制卡的基本配置信息。
命令格式
hiraidadm ccontroller_id show info
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
回显中主要字段的含义如表22-36所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show info |
Ctrl Mod |
控制卡当前模式。 |
HBA |
Rg Task Support |
RAID组支持的后台任务。 |
rebuild,precopy,copyback,patrolread |
|
Mod Support |
控制卡支持的模式。 |
rawdrive |
|
Raid Level Support |
控制卡支持的RAID级别。 |
raid0,raid1,raid10 |
|
Expander Support |
支持的扩展器数量。0表示当前不支持对接扩展器。 |
0 |
|
VD OP Support |
逻辑盘支持的操作。 |
repair,create,delete,front init,background init,fast init,sanitize,ccheck |
|
PD OP Support |
物理硬盘支持的操作。 |
sanitize,erase,smart_polling |
|
Max PD Number |
控制卡支持的最大物理硬盘数量。 |
40 |
|
Max HDD Number |
控制卡支持的最大HDD硬盘数量。 |
40 |
|
Max SSD Number |
控制卡支持的最大SSD硬盘数量。 |
40 |
|
Min HDD Number Raid0 |
RAID0最小硬盘数量(HDD)。 |
1 |
|
Max HDD Number Raid0 |
RAID0最大硬盘数量(HDD)。 |
30 |
|
Min HDD Number Raid1 |
RAID1最小硬盘数量(HDD)。 |
2 |
|
Max HDD Number Raid1 |
RAID1最大硬盘数量(HDD)。 |
2 |
|
Min HDD Number Raid5 |
RAID5最小硬盘数量(HDD)。 |
0 |
|
Max HDD Number Raid5 |
RAID5最大硬盘数量(HDD)。 |
0 |
|
Min HDD Number Raid10 |
RAID10最小硬盘数量(HDD)。 |
4 |
|
Max HDD Number Raid10 |
RAID10最大硬盘数量(HDD)。 |
30 |
|
Max HDD SubRg Number Raid10 |
RAID10最大子组数量(HDD)。 |
15 |
|
Min SSD Number Raid0 |
RAID0最小硬盘数量(SSD)。 |
1 |
|
Max SSD Number Raid0 |
RAID0最大硬盘数量(SSD)。 |
30 |
|
Min SSD Number Raid1 |
RAID1最小硬盘数量(SSD)。 |
2 |
|
Max SSD Number Raid1 |
RAID1最大硬盘数量(SSD)。 |
2 |
|
Min SSD Number Raid5 |
RAID5最小硬盘数量(SSD)。 |
0 |
|
Max SSD Number Raid5 |
RAID5最大硬盘数量(SSD)。 |
0 |
|
Min SSD Number Raid10 |
RAID10最小硬盘数量(SSD)。 |
4 |
|
Max SSD Number Raid10 |
RAID10最大硬盘数量(SSD)。 |
30 |
|
Max SSD SubRg Number Raid10 |
RAID10最大子组数量(SSD)。 |
15 |
|
Max VD Number |
最大支持的VD数量。 |
4 |
|
Max VD Expand Times |
VD最大扩展次数。 |
7 |
|
Spares Support |
支持的热备方式。 |
global hotspare,local hotspare,emergency hotspare |
|
Hsp Per Raid |
每个RAID组支持的最大局部热备盘数量。 |
2 |
|
Foreign Import Support |
是否支持外部配置导入。 |
Yes |
|
Max Globhps |
最大支持的全局热备盘数量。 |
16 |
|
Phy Number |
控制卡使用的最大phy数量。 |
40 |
|
Drive Support |
支持的驱动器类型。 |
SCSI |
|
PF Number |
PF支持的数量(当前芯片最多支持2个)。 |
1 |
|
PF Type |
PF工作模式。 |
SCSI |
|
EP PCIe Width |
控制卡PCIe宽度。 |
x8 |
|
EP PCIe Speed |
控制卡PCIe速率。 |
16GT/s |
|
VD Number Per Rg |
每个RAID组最大创建的VD数量。 |
4 |
|
Rg Number |
RAID组最大数量。 |
4 |
|
BP Support |
备电模块是否支持。 |
No |
|
SAS Contrller Speed |
SAS控制卡支持的速率。 |
12Gb/s |
|
PCIe RP Speed |
PCIe下行设备支持的速率。 |
16GT/s |
|
Max HDD Stripe Size |
HDD最大条带大小。 |
81920KB |
|
Max SSD Stripe Size |
SSD最大条带大小。 |
16384KB |
|
Min HDD Stripe Size |
HDD最小条带大小。 |
32KB |
|
Min SSD Stripe Size |
SSD最小条带大小。 |
32KB |
|
Max Su Size |
虚拟磁盘的最大条带大小。 |
1024KB |
|
Min Su Size |
虚拟磁盘的最小条带大小。 |
32KB |
使用实例
# 查询控制卡信息。
[root@localhost ~]# hiraidadm c0
show info
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version :1.2.0.2
Build Time:Sep 11 2022 09:52:30
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
-------------------------------------------------------
Ctrl
Mod
| HBA
Rg Task
Support
| rebuild,precopy,copyback,patrolread
Mod
Support
| rawdrive
Raid Level Support
| raid0,raid1,raid10
Expander
Support
| 0
VD OP
Support
| repair,expand,create,delete,front init,background init,fast
init,sanitize,ccheck
PD OP Support |
sanitize,erase,smart_polling
Max PD
Number
| 40
Max HDD
Number
| 40
Max SSD
Number
| 40
Min HDD Number Raid0 | 1
Max HDD Number Raid0 | 30
Min HDD Number Raid1 | 2
Max HDD Number Raid1 | 2
Min HDD Number Raid5 | 0
Max HDD Number Raid5 | 0
Min HDD Number Raid10 | 4
Max HDD Number Raid10 | 30
Max HDD SubRg Number Raid10 | 15
Min SSD Number Raid0 | 1
Max SSD Number Raid0 | 30
Min SSD Number Raid1 | 2
Max SSD Number Raid1 | 2
Min SSD Number Raid5 | 0
Max SSD Number Raid5 | 0
Min SSD Number Raid10 | 4
Max SSD Number Raid10 | 30
Max SSD SubRg Number Raid10 | 15
Max VD Expand Times | 7
Max VD
Number
| 127
Spares
Support
| global hotspare,local hotspare,emergency hotspare
Hsp Per
Raid
| 2
Foreign Import Support | Yes
Max
Globhps
| 16
Phy
Number
| 40
Drive
Support
| SCSI
PF
Number
| 1
PF
Type
| SCSI
EP PCIe
Width
| x8
EP PCIe
Speed
| 16GT/s
VD Number Per
Rg | 16
Rg
Number
| 40
Bp
Support
| Yes
SAS Contrller Speed |
12Gb/s
PCIe RP
Speed
| 16GT/s
Max HDD Stripe Size |
16384KB
Max SSD Stripe Size |
16384KB
Min HDD Stripe Size |
32KB
Min SSD Stripe Size |
32KB
Max Su
Size
| 1024KB
Min Su
Size
| 32KB
-------------------------------------------------------
命令功能
升级和激活控制卡固件。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id update fw file=xx.img |
升级控制卡固件。 |
hiraidadm ccontroller_id active fw type=hot |
热激活控制卡固件,升级后进行。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
xx.img |
升级固件文件。 |
- |
使用指南
当采用热激活方式使固件生效时,存在如下限制:
l 版本号按照x.y.n.z形式定义,只有x.y.n字段相同的版本间升级支持热激活。例如从固件版本1.0.17.1升级到1.0.17.2支持热激活,从固件版本1.0.17.1升级到1.0.18.1不支持热激活。
l 在当前系统中不存在pinned cache(即LUN失效时,cache中存在的无法下发的脏数据)。如果存在,需要先删除pinned cache,或者恢复故障RAID组。
l 系统中没有sanitize擦除硬盘和erase擦除硬盘任务在执行。如果有,需要等待执行完成或者停止。可通过“hiraidadm ccontroller_id:eenclosure_id:sslot_id show sanitize”和“hiraidadm ccontroller_id:eenclosure_id:sslot_id show erase”命令查看硬盘擦除状态。
执行升级命令后,可通过以下两种激活方式使固件生效:
l 执行hiraidadm ccontroller_id active fw type=hot命令。表示采用热激活方式,无需重启服务器即可完成升级。
l 重启服务器,表示采用冷激活方式,使固件生效。
使用实例
# 升级控制卡固件。
[root@localhost ~]# hiraidadm c0
update fw file=packet_hba.img
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version :1.2.0.2
Build Time:Aug 26 2022 21:03:13
==============================================================================================================
update controller firmware done,duration: 2min42s
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
#激活控制卡固件。
[root@localhost ~]# hiraidadm c0
active fw type=hot
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询控制卡热备槽位信息。
命令格式
hiraidadm ccontroller_id show hspslot
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
回显中主要字段的含义如表22-37所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show hspslot |
Id |
热备槽位序号。 |
0 |
Enc |
热备槽位类型。 |
0 |
|
Slot |
热备槽位号。 |
0 |
使用实例
# 查询控制卡的热备槽位信息。
[root@localhost ~]# hiraidadm c0
show hspslot
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
hot spare slot num is 1
--------------------------------------------------------------------------------------------------------------
Hot Spare Slots Information
--------------------------------------------------------------------------------------------------------------
Id Enc Slot
0 0 2
命令功能
查询控制卡对phy口的配置情况。
命令格式
hiraidadm ccontroller_id show phy_cfg
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
无。
使用实例
# 查询控制卡对phy口的配置情况。
[root@localhost ~]# hiraidadm c0
show phy_cfg
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
Index Slot Switch Speed
--------------------------------------------------------------------------------------------------------------
0 0
On 6.0Gb/s
--------------------------------------------------------------------------------------------------------------
命令功能
查询和设置控制卡慢盘踢盘参数。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set kickdrive [period=period] [sum=sum] |
设置慢盘踢盘参数,至少设置一个参数。 |
hiraidadm ccontroller_id show kickdrive |
查询慢盘踢盘参数。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
period |
踢盘计数清零周期。 |
范围:1~90,单位:day。 默认值为30。 |
sum |
一个周期可踢盘的最大计数。 |
范围:1~8 默认值为1。 |
使用指南
l 由慢盘导致的踢盘发生后,会在一个周期(period)内记录踢掉的数量。
l 周期内慢盘导致踢盘总数不得超过最大限制(sum)。若超过将不允许剔除,等到周期到期、重置踢盘计数后才能继续剔除。
l 重启服务器时,踢盘总数(Total Kicked)和计数复位剩余时间(Count Reset Remaining Time)将会恢复至默认状态。
− 踢盘总数Total Kicked)会清零。
− 计数复位剩余时间(Count Reset Remaining Time)将会恢复到与计数复位周期(Count Reset Period)相同。
使用实例
# 设置慢盘踢盘参数。
[root@localhost ~]# hiraidadm c0
set kickdrive sum=1 period=10
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 查询慢盘踢盘参数。
[root@localhost ~]# hiraidadm c0
show kickdrive
========================================== Hiraidadm Information ===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Count Reset Period | 43 day
Total Allowed Kicks | 7
Total
Kicked
| 1
Count Reset Remaining Time | 43 day
命令功能
查询、修复控制卡故障。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id show error |
查询控制卡的当前故障信息。 |
hiraidadm ccontroller_id start repair type=error_type |
修复控制卡的指定故障。 |
hiraidadm ccontroller_id show repair_process |
查询控制卡的故障修复进度。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
error_type |
故障类型。 |
包括: l writehole l restore l drop l pinnedcache vdid=vd_id 当故障类型为pinnedcache时,vd_id为需修复的vd的id。 |
使用指南
“hiraidadm ccontroller_id show error”命令可查询的故障详细信息如下所示:
l TSP error:TSP故障
l NAC error:NAC故障
l FirmWare error:固件异常
l IMU error:IMU故障
l Backup failed:备电失败
l Soc Fatal:SOC重故障
l DDR Mbit error:DDR Mbit故障
l SRAM error:SRAM故障
l DDRC error:DDRC故障
l PCIe EP reference clock error:PCIe EP侧参考时钟故障
l PCIe RP reference clock error:PCIe RP参考时钟故障
l SAS Port reference clock error:SAS端口参考时钟故障
l Power supply chip error:电源芯片工作异常
l Internal power supply chip output voltage is too high:内部电源芯片输出电压过高
l Internal power supply chip output voltage is too low:内部电源芯片输出电压过低
l The chip internal module detection error:芯片内部模块检测错误(导致I/O停止)
l The super capacitor voltage is too low:备电模块(超级电容)工作电压过低
l The super capacitor voltage is too high:备电模块(超级电容)工作电压过高
l The small capacitor value anomaly:小电容容值异常
l The super capacitor value anomaly:超级电容容值异常
l The small capacitor voltage is too low:小电容工作电压过低
l The small capacitor voltage is too high:小电容工作电压过高
l SPI Nor Flash error:SPI Nor Flash异常
l SPI Nand Flash error:SPI Nand Flash异常
l NFC Nand Flash error:NFC Nand Flash异常
使用实例
# 查询控制卡的故障信息。
[root@localhost ~]# hiraidadm c0
show error
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
the card is normal
#修复控制卡的writehole故障。
[root@localhost ~]# hiraidadm c0
start repair type=writehole
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 查询控制卡的故障修复进度。
[root@localhost ~]# hiraidadm c0
show repair_process
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
The card repair process is 100%.
命令功能
查询和设置控制卡故障修复策略。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set repair policy=repair_policy |
配置控制卡的修复策略。 |
hiraidadm ccontroller_id show repair_policy |
查询控制卡的修复策略。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
repair_policy |
控制卡的修复策略。 |
l Confirm:FW根据策略,选择不上报盘,上报错误。 l Default:后台修复错误,修复系统后正常运行,提供日志记录和查询接口。 |
使用指南
无。
使用实例
# 设置控制卡的修复策略。
[root@localhost ~]# hiraidadm c0
set repair policy=default
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
Do you confirm the execution [Warning] after setting
"policy=default", the system will repair according
to the default policy, and the problem of data loss may occur after
repairing
Please input [y|Y] for yes, others for cancel
---------------------------------------------
y
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 查询控制卡修复策略。
[root@localhost ~]# hiraidadm c0
show repair_policy
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
The current repair policy is default.
命令功能
查询和设置SAS链路请求分发的模式。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set dphstartmod [sas0=sas0_value] [sas1=sas1_value] [sas2=sas2_value] [sas3=sas3_value] [sas4=sas4_value] |
设置SAS链路请求分发的模式。 |
hiraidadm ccontroller_id show dphstartmod |
查询SAS链路请求分发的模式。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
sas0_value |
影响slot0-slot7。 |
l 0 l 1 |
sas1_value |
影响slot8-slot15。 |
l 0 l 1 |
sas2_value |
影响slot16-slot23。 |
l 0 l 1 |
sas3_value |
影响slot24-slot31。 |
l 0 l 1 |
sas4_value |
影响slot32-slot39。 |
l 0 l 1 |
使用指南
l 此命令用于在特定场景下进行性能调优。设置芯片在SAS链路上请求分发的模式,最多可以设置为5个。
l 支持一次配置1到5个SAS IP的参数。重启后生效。
l 默认配置为1,通常不需要改变。
硬盘直连场景下:
l 同一组phy下存在SSD和HDD盘混合读写时,建议配置为 1。
l 同一组槽位,连接HDD盘,并且主要为小I/O(8k即以下)访问,建议配置为0来改善性能。
使用实例
# 设置SAS链路请求分发的模式。
[root@localhost ~]# hiraidadm c0
set dphstartmod sas0=0 sas1=0 sas2=0 sas3=0 sas4=0
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
The configuration takes effect after the reboot.
# 查询SAS链路请求分发的模式。
[root@localhost ~]# hiraidadm c0
show dphstartmod
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Total sas ip number is 5.
-------------------------------------------------------
Index CurrentConfig NextConfig
-------------------------------------------------------
sas0
1
0
sas1
1
0
sas2
1
0
sas3
1
0
sas4
1
0
-------------------------------------------------------
命令功能
查询、设置裸盘的流控门限。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set drivefc mode=mode [media=media] |
设置裸盘的流控门限。 |
hiraidadm ccontroller_id show drivefc |
查询裸盘的流控门限。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
mode |
裸盘流控门限。 |
l low:多盘性能优先(1025) l high:单盘性能优先(2049) |
media |
硬盘类型。 不填时默认为HDD。 |
l hdd l ssd |
使用指南
设置裸盘的流控门限需重启后生效。
使用实例
# 设置裸盘的流控门限。
[root@localhost ~]# hiraidadm c0
set drivefc mode=high
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 查询裸盘的流控门限。
[root@localhost ~]# hiraidadm c0
show drivefc
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Media CurrentMode NextMode
-------------------------------------------------------
HDD
low high
SSD
low low
-------------------------------------------------------
命令功能
查询控制卡各模块固件详细版本。
命令格式
hiraidadm ccontroller_id show fw_version
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
无。
使用实例
# 查询控制卡各模块固件详细版本。
[root@localhost ~]# hiraidadm c0
show fw_version
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
==============================================================================================================
fw_name
region
version time
l0fw m
1.3.3.0 22-11-15 22:22:58
l1fw
m
1.3.3.0 22-11-15 22:22:58
imudict
m
1.3.3.0 22-11-15 22:22:58
boot
m
1.3.3.0 22-11-15 22:22:58
cfgfile
m
1.3.3.0 22-11-15 22:22:58
hilink
m
1.3.3.0 22-11-15 22:22:58
microcode
m
1.3.3.0 22-11-15 22:22:58
apfw
m
1.3.3.0 22-11-15 22:22:58
apdict
m
1.3.3.0 22-11-15 22:22:58
optionrom
m
1.3.3.0 22-11-15 22:22:58
==============================================================================================================
fw_name
region
version time
l0fw
s
1.3.3.0 22-11-15 22:22:58
l1fw
s
1.3.3.0 22-11-15 22:22:58
imudict
s
1.3.3.0 22-11-15 22:22:58
boot s
1.3.3.0 22-11-15 22:22:58
cfgfile
s
1.3.3.0 22-11-15 22:22:58
hilink
s
1.3.3.0 22-11-15 22:22:58
microcode
s
1.3.3.0 22-11-15 22:22:58
apfw
s
1.3.3.0 22-11-15 22:22:58
apdict
s
1.3.3.0 22-11-15 22:22:58
optionrom
s
1.3.3.0 22-11-15 22:22:58
==============================================================================================================
命令功能
查询、设置控制卡侧的日志级别。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set loglevel val=value |
设置控制卡侧的日志级别。 |
hiraidadm ccontroller_id show loglevel |
查询当前卡侧的日志级别。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
value |
要设置的级别。 |
l fatal l error l warn l print l info l debug |
使用指南
无。
使用实例
# 设置控制卡日志级别为info。
[root@localhost ~]# hiraidadm c0
set loglevel val=info
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 查询控制卡日志级别。
[root@localhost ~]# hiraidadm c0
show loglevel
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
The current raid card log level is info
命令功能
查询控制卡整板功耗。
命令格式
hiraidadm ccontroller_id show adc
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
回显中主要字段的含义如表22-38所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id show adc |
channel0 |
通道0电压值。 |
30492mV |
channel1 |
通道1电压值。 |
12100mV |
|
channel2 |
通道2电压值。 |
13409mV |
|
channel3 |
通道3功率值(未使用)。 |
NA |
|
channel4 |
通道4功率值。 |
24563mW |
使用实例
# 查询控制卡整板功耗。
[root@localhost ~]# hiraidadm c0
show adc
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
channel0 :31626mV
channel1 :12265mV
channel2 :12188mV
channel3 :NA
channel4 :28700mW
命令功能
查询和设置硬盘健康状态分析开关状态。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set dha sw=switch |
设置硬盘健康状态分析开关状态。 |
hiraidadm ccontroller_id show dhacfg |
查询硬盘健康状态分析开关状态。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
switch |
硬盘健康状态分析开关状态。 |
l on l off |
使用指南
无。
使用实例
#开启硬盘健康状态分析开关。
[root@localhost ~]# hiraidadm c0
set dha sw=on
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
#查询硬盘健康状态分析开关状态。
[root@localhost ~]# hiraidadm c0 show
dhacfg
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
The DHA Switch | On
命令功能
查询和设置虚拟磁盘的流控门限。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set vdfc mode=mode |
设置虚拟磁盘的流控门限。 |
hiraidadm ccontroller_id show vdfc |
查询虚拟磁盘的流控门限。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
mode |
虚拟磁盘的流控门限。 |
l low: 顺序I/O优先。 l high: 随机I/O优先。 l medium: 均衡。 |
使用指南
查询虚拟磁盘的流控门限时:
l Current Mode为当前配置。
l Next Mode为重启后生效配置。
使用实例
# 设置虚拟磁盘的流控门限。
[root@localhost ~]# hiraidadm c0
set vdfc mode=high
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
The configuration takes effect after the system is restarted.
# 查询虚拟磁盘的流控门限。
[root@localhost ~]# hiraidadm c0
show vdfc
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Current Mode | low
Next Mode | high
命令功能
查询和设置控制卡的I/O合并超时时间和合并个数。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set merge [sw=switch] [timeout=timeout] [count=count] |
设置控制卡的I/O合并超时时间和合并个数,在控制卡没有I/O时配置。 |
hiraidadm ccontroller_id show merge |
查询控制卡I/O合并参数。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
switch |
开启或关闭控制卡I/O合并。 |
l on:开启I/O合并 l off:关闭I/O合并 缺省时默认为on。 |
timeout |
控制卡I/O合并超时时间。 |
l default:配置为默认值,默认值为64。 l 范围:5~1000000 单位:us |
count |
控制卡I/O合并最大个数。 |
l default:配置为默认值,默认值为32。 l 范围:2~32。 |
使用指南
无。
使用实例
# 设置控制卡的I/O合并超时时间和合并个数,在控制卡没有I/O时配置。
[root@localhost ~]# hiraidadm c0
set merge sw=on timeout=1000 count=2
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.2.0
Build Time: Dec 16 2022 18:56:35
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 查询控制卡I/O合并参数。
[root@localhost ~]# hiraidadm c0
show merge
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.2.0
Build Time: Dec 16 2022 18:56:35
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Switch | On
Timeout | 1000 us
Count | 2
命令功能
查询和设置虚拟磁盘的I/O合并参数,支持配置一个或多个参数。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set vdmerge vd=vd_id [stripelen=stripelen] [startlen=startlen] [mergelen=mergelen] |
设置虚拟磁盘的I/O合并参数,在对应虚拟磁盘没有I/O时配置。 |
hiraidadm ccontroller_id show vdmerge vd=vd |
查询虚拟磁盘的I/O合并参数。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表。 |
stripelen |
MIX内部配置的LUN合并条带大小。 |
l default:配置为默认值;如果LUN真实条带大小小于或者等于256KB,则默认值为真实条带大小的两倍;否则默认值为真实条带大小。 l 范围:8~4096*8,且必须为8的整数倍。 单位:sector/512B |
startlen |
MIX内部启动下发长度阈值。 |
l default:配置为默认值;如果LUN真实条带大小小于或者等于256KB,则默认值为真实条带大小的两倍;否则默认值为真实条带大小 l 范围:8~4096*8,且必须为8的整数倍。 单位:sector/512B |
mergelen |
MIX内部限制下发长度阈值。 |
l default:配置为默认值;如果LUN真实条带大小小于或者等于256KB,则默认值为1024KB;否则默认值为真实条带大小。 l 范围:8~4096*8,且必须为8的整数倍。 单位:sector/512B |
vd |
指定VD或全部。 |
l all:查询所有VD配置。 l 指定逻辑盘的ID。 |
使用指南
无。
使用实例
# 设置虚拟磁盘的I/O合并参数。
[root@localhost ~]# hiraidadm c0
set vdmerge vd=0 stripelen=4096 startlen=4096 mergelen=4096
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.2.0
Build Time: Dec 16 2022 18:56:35
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 查询所有虚拟磁盘的I/O合并参数。。
[root@localhost ~]# hiraidadm c0
show vdmerge vd=all
========================================== Hiraidadm Information ===========================================
Name: hiraidadm
Version: 1.2.2.0
Build Time: Dec 16 2022 18:56:35
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Total vd number is 1
-------------------------------------------------------
VDID StripeLen(512B) StartLen(512B)
MergeLen(512B)
-------------------------------------------------------
0
4096
4096
4096
-------------------------------------------------------
命令功能
查询和设置硬盘并发参数。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id set quedepth type=type [sashdd=sashdd] [sasssd=sasssd] [satahdd=satahdd] [satassd=satassd] |
设置硬盘并发参数。 |
hiraidadm ccontroller_id show quedepth |
查询硬盘并发参数。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
type |
配置裸盘或RAID成员盘。 |
l rawdrive:裸盘 l raid:RAID成员盘 |
sashdd |
配置SAS HDD。 |
范围: 1~128 |
sasssd |
配置SAS SDD。 |
范围: 1~128 |
satahdd |
配置SATA HDD。 |
范围: 1~32 |
satassd |
配置SATA SSD。 |
范围: 1~32 |
使用指南
无。
使用实例
# 设置硬盘并发参数。
[root@localhost ~]# hiraidadm c0
set quedepth type=raid sashdd=128 satassd=16
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
The configuration takes effect after the reboot.
# 查询硬盘并发参数。
[root@localhost ~]# hiraidadm c0
show quedepth
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Current Config
-------------------------------------------------------
Type SASHDD
SASSSD SATAHDD SATASSD
-------------------------------------------------------
RAID 32
64
32 32
RawDrive 64
64
32 32
Next Config
-------------------------------------------------------
Type SASHDD
SASSSD SATAHDD SATASSD
-------------------------------------------------------
RAID 128
64
32 16
RawDrive 64
64
32 32
-----------------------------------------------------
命令功能
查询HBA控制卡小电容电压值。
命令格式
hiraidadm ccontroller_id show smcapv
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
使用指南
无。
使用实例
# 查询HBA控制卡小电容电压。
[root@localhost ~]# hiraidadm c0
show smcapv
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Feb 18 2023 22:08:33
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Small Cap Volta | 30.93V
命令功能
查询控制卡中虚拟磁盘详细信息。
命令格式
hiraidadm ccontroller_id:vdvd_id show
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表。 |
使用指南
回显中主要字段的含义如表22-39所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:vdvd_id show |
ID |
逻辑盘ID。 |
0 |
Name |
VD名称。 |
vd0 |
|
RAID ID |
RAID组ID信息。 |
0 |
|
RAID Level |
RAID组级别。 |
0 |
|
Status |
VD状态。 |
normal |
|
VD Type |
逻辑盘类型。 |
normal |
|
Capacity |
容量。 |
1.454TB |
|
VD WWN |
虚拟盘唯一标识。 |
0x68c2a8e000000001000000000010b5c5 |
|
OS Drive Letter |
虚拟盘上报到主机的盘符。 |
/dev/sda |
|
Is Boot Device |
是否为启动设备。 |
false |
|
Strip Size |
条带大小。 |
128KB |
|
Strip Unit Size |
条带单元大小。 |
64KB |
|
Sector Size |
扇区大小。 |
512B |
|
Sector Tyoe |
扇区类型。 |
512E |
|
Write Cache |
cache写状态。 |
WT |
|
Real Write Cache |
实际有效的写cache状态。 |
WT |
|
Read Cache |
cache读状态。 |
No Ahead |
|
Whether Dirty Cache |
是否有未下刷的脏cache数据。 |
No |
|
Sub Group Number |
子组数量。 |
1 |
|
Sub Group Drive Number |
每个子组磁盘数量。 |
3 |
|
VD Initialize Rate |
逻辑盘初始化速率。 |
high |
|
VD Initialize Progress |
初始化进度。 |
NA |
|
Patrolread Rate |
巡检速率。 |
medium |
|
VD Sanitize Progress |
擦除进度。 |
NA |
|
Block Number |
组成VD的块数量。 |
0 |
|
Blocks |
l Index:块索引 l VD_ID:块所属VD l Next_ID:链接的下一块ID l Capacity:块容量 l Start_Lba_On_Drive:本块在物理盘上起始块位置 l Sec_Num_On_Drive:在单个物理盘上的扇区数量 |
- |
使用实例
#查询指定虚拟磁盘的详细信息。
[root@localhost ~]# hiraidadm
c0:vd0 show
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Virtual Drive Information
--------------------------------------------------------------------------------------------------------------
ID
| 0
Name
| vd0
RAID
ID
| 0
RAID
Level
| 1
Status
| normal
VD
Type
| normal
Map
Type
| SCSI
Capacity
| 97.656GB [0xc350000 Sectors]
VD
WWN
| 0x6acdcca0000000010000000000228133
OS Drive
Letter
| /dev/sdb
Is Boot
Drive
| True
Stripe
Size
| 256KB
Stripe Unit
Size | 256KB
Sector
Size
| 512B
Sector
Type
| 512N
Write Cache |
WT
Real Write
Cache | WT
Read
Cache
| No_Ahead
Access
Policy
| RW
Stream
Type
| Normal
Work
PF
| PF0
Whether Dirty Cache | No
Sub Group Number |
1
Sub Group Drive Number | 2
VD Initialize Rate | high
VD Initialize Progress | NA
Patrolread
Rate |
low
VD Sanitize Progress | NA
--------------------------------------------------------------------------------------------------------------
Virtual Drive Block Infomation :
--------------------------------------------------------------------------------------------------------------
Block Number is 1
Index VD_ID Next_ID Capacity Start_Lba_On_Drive Sec_Num_On_Drive
--------------------------------------------------------------------------------------------------------------
0 0
NA 97.656GB
0x0
204800000
命令功能
查询控制卡中RAID组详细信息。
命令格式
hiraidadm ccontroller_id:rgrg_id show
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
rg_id |
RAID组的ID。 |
查询RAID组的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表。 |
使用指南
回显中主要字段的含义如表22-40所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:rgrg_id show |
ID |
RAID组的ID。 |
0 |
Name |
RAID组的名称。 |
raid0 |
|
RAID Level |
RAID组级别。 |
0 |
|
Status |
RAID组状态。 l normal:正常 l fault:故障 l degrade:降级状态 |
normal |
|
Total Capacity |
RAID组总容量。 |
371.611GB [0x2e739000 Sectors] |
|
Free Capacity |
RAID组空闲的容量。 |
313.018GB [0x27209000 Sectors] |
|
Current Background Task |
当前正在进行的后台任务。 |
NA |
|
CopyBack Switch |
RAID组回拷开关状态。 |
on |
|
PD Cache |
硬盘Cache状态。 |
on |
|
Logical Block Size |
逻辑块大小。 |
512B |
|
Block Type |
块类型。 |
512E |
|
Sub Group Number |
子组数量。 |
1 |
|
Sub Group Drive Number |
RAID组子组硬盘数量。 |
1 |
|
Sub Group Free Capacity |
子组剩余容量大小。 |
313.018GB [0x27209000 Sectors] |
|
Sub Group Strip Size |
子组条带大小。 |
0KB |
|
Aligned Size |
校准大小。 |
512MB |
|
Virtual Drives Number |
VD数量。 |
3 |
|
Member VD List |
RAID组下VD列表。 |
1 2 3 |
|
Member Drive Number |
RAID组成员盘数量。 |
2 |
|
Member Drives |
RAID组成员盘信息。 l Index:序号 l Enc:Slot:成员盘框位、槽位ID l Did:成员盘逻辑ID l Sub Group:成员盘所属子组ID |
- |
|
Hotspare Drives Number |
热备盘数量。 |
0 |
|
Hotsapre Drives |
RAID组热备盘信息。 l Index:序号 l Enc:Slot:热备盘框位、槽位ID l Did:热备盘逻辑ID l Sub Group:热备盘所属子组ID |
- |
|
Total Block Number |
RAID组的Block数量(由于创建和删除VD,在RAID组上留下的非连续空间)。 |
5 |
|
Free Block Number |
RAID组的空闲区间容量。 |
2 |
|
RAID Group Block Number |
RAID组的的Block数量。 |
5 |
|
RAID Group Block |
组成该RAID组的详细块信息。 l Index:块序号 l Capacity:块容量 l Used:是否已使用 l VD_ID:使用该块的逻辑盘ID l Start_lba:起始的物理块寻址 l End_lba:结束的物理块寻址 |
- |
使用实例
#查询指定RAID组的详细信息。
[root@localhost ~]# hiraidadm
c0:rg0 show
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
RAID Group Major Information :
--------------------------------------------------------------------------------------------------------------
ID
| 0
Name
| raid0
RAID
Level
| 1
Status
| normal
Total Capacity | 3.638TB
[0x1d1a0b800 Sectors]
Free Capacity |
3.542TB [0x1c56bb800 Sectors]
Current Background Task | NA
--------------------------------------------------------------------------------------------------------------
RAID Group Details :
--------------------------------------------------------------------------------------------------------------
CopyBack Switch | On
PD
Cache
| Default
Logical Block Size | 512B
Block
Type
| 512N
Sub Group Number | 1
Sub Group Drive Number | 2
Sub Group Free Capacity | 3.542TB [0x1c56bb800 Sectors]
Aligned Size
| 512MB
Virtual Drive Number | 1
Member VD List | 0
--------------------------------------------------------------------------------------------------------------
RAID Group Member Drive Infomation :
--------------------------------------------------------------------------------------------------------------
Member Drive Number is 2
Index
1 2
--------------------------------------------------------------------------------------------------------------
Enc:Slot 0:0
0:1
--------------------------------------------------------------------------------------------------------------
Did
5 6
--------------------------------------------------------------------------------------------------------------
Sub_Group
0 0
--------------------------------------------------------------------------------------------------------------
RAID Group Hotspare Drive Infomation :
--------------------------------------------------------------------------------------------------------------
Hotspare Drive Number 0
--------------------------------------------------------------------------------------------------------------
RAID Group Block Infomation :
--------------------------------------------------------------------------------------------------------------
Total Block Number | 2
Free Block Number | 1
RAID Group Block Number 2
Index Capacity Used VD_ID
Start_lba End_lba
--------------------------------------------------------------------------------------------------------------
0 97.656GB Yes
0
0x0
0xc34ffff
1 3.542TB
No NA
0xc350000 0x1d1a0beb0
命令功能
查询虚拟磁盘的成员盘信息。
命令格式
hiraidadm ccontroller_id:vdvd_id show pdarray
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表。 |
使用指南
回显中主要字段的含义如表22-41所示。
命令格式 |
字段 |
含义 |
举例 |
l hiraidadm ccontroller_id:vdvd_id show pdarray l hiraidadm ccontroller_id:rgrg_id show pdarray |
Enc |
硬盘所在框号 |
0 |
Slot |
硬盘所在槽位号 |
5 |
|
DID |
硬盘逻辑ID。 |
0 |
|
AssoEnc |
关联盘所在框号(备份、迁移等)。 |
NA |
|
AssoSlot |
关联盘所在槽位号。 |
NA |
|
AssoDid |
关联盘逻辑ID。 |
NA |
|
Intf |
接口类型。 |
SAS |
|
Media |
介质类型。 |
SSD |
|
Status |
硬盘当前所处状态。 |
online |
|
AssoStatus |
关联盘当前状态。 |
NA |
|
Capacity |
可用容量大小。 |
799.629GB |
|
SecSz |
扇区大小。 |
512B |
|
Model |
硬盘型号。 |
HWE52SS3800M005N |
使用实例
#查询指定虚拟磁盘成员盘信息。
[root@localhost ~]# hiraidadm
c0:vd0 show pdarray
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Total Member Drive Number is 2
--------------------------------------------------------------------------------------------------------------
Enc Slot DID AssoEnc AssoSlot AssoDid Intf Media
Status
AssoStatus Capacity SecSz Model
--------------------------------------------------------------------------------------------------------------
0 0 5
NA NA
NA SATA HDD
online
NA
3.638TB 512B HUS726T4TALA600
0 1 6
NA NA
NA SATA HDD
online
NA
3.638TB 512B HUS726T4TALA600
--------------------------------------------------------------------------------------------------------------
命令功能
查询RAID组的成员盘信息。
命令格式
hiraidadm ccontroller_id:rgrg_id show pdarray
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
rg_id |
RAID组的ID。 |
查询RAID组的ID请参见22.7.2.25 查询控制卡RAID组列表。 |
使用指南
回显中主要字段的含义如表22-42所示。
命令格式 |
字段 |
含义 |
举例 |
l hiraidadm ccontroller_id:vdvd_id show pdarray l hiraidadm ccontroller_id:rgrg_id show pdarray |
Enc |
硬盘所在框号 |
0 |
Slot |
硬盘所在槽位号 |
5 |
|
DID |
硬盘逻辑ID。 |
0 |
|
AssoEnc |
关联盘所在框号(备份、迁移等)。 |
NA |
|
AssoSlot |
关联盘所在槽位号。 |
NA |
|
AssoDid |
关联盘逻辑ID。 |
NA |
|
Intf |
接口类型。 |
SAS |
|
Media |
介质类型。 |
SSD |
|
Status |
硬盘当前所处状态。 |
online |
|
AssoStatus |
关联盘当前状态。 |
NA |
|
Capacity |
可用容量大小。 |
799.629GB |
|
SecSz |
扇区大小。 |
512B |
|
Model |
硬盘型号。 |
HWE52SS3800M005N |
使用实例
#查询指定RAID组成员盘信息。
[root@localhost ~]# hiraidadm
c0:rg0 show pdarray
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Total Member Drive Number is 2
--------------------------------------------------------------------------------------------------------------
Enc Slot DID AssoEnc AssoSlot AssoDid Intf Media
Status
AssoStatus Capacity SecSz Model
--------------------------------------------------------------------------------------------------------------
0 0 5
NA NA
NA SATA HDD
online NA
3.638TB 512B HUS726T4TALA600
0 1 6
NA NA
NA SATA HDD
online
NA
3.638TB 512B HUS726T4TALA600
--------------------------------------------------------------------------------------------------------------
命令功能
查询、设置虚拟磁盘一致性校验参数。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id:vdvd_id show ccheck |
查询虚拟磁盘一致性校验参数。 |
hiraidadm ccontroller_id:vdvd_id start ccheck [delay=delay] |
设置虚拟磁盘一致性校验并开始。 |
hiraidadm ccontroller_id:vdvd_id stop ccheck |
停止虚拟磁盘一致性校验。 |
hiraidadm ccontroller_id:vdvd_id show inconsistent |
查询虚拟磁盘的条带一致性校验错误信息。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表。 |
delay |
延时时间。 |
1~24,单位:h |
使用指南
回显中主要字段的含义如表22-43所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:vdvd_id show ccheck |
ID |
当前正在进行一致性校验的虚拟磁盘的ID。 |
0 |
CCheck Switch |
自动一致性校验开关。 |
on |
|
Delay |
一致性校验延时启动时间。 |
1 h |
|
Period |
一致性校验周期。 |
30 day |
|
Rate |
一致性校验速率。 |
low |
|
Repair |
自动修复开关。 |
off |
|
Run status |
一致性校验运行状态。 |
stop |
|
Progress |
一致性校验进度。 |
100% |
|
Estimated Time |
剩余预估时间。 |
0 min |
使用实例
# 查询指定虚拟磁盘一致性校验信息。
[root@localhost ~]# hiraidadm
c0:vd0 show ccheck
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Consistency Check Information
-------------------------------------------------------
ID
| 0
CCheck Switch | On
Delay |
0 h
Period
| 20 day
Rate
| low
Repair
| On
Run
status
| stop
Progress
| NA
Estimated Time | NA
-------------------------------------------------------
# 启动指定虚拟磁盘一致性校验。
[root@localhost ~]# hiraidadm
c0:vd0 start ccheck delay=1
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 停止指定虚拟磁盘一致性校验。
[root@localhost ~]# hiraidadm
c0:vd0 stop ccheck
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 查询指定虚拟磁盘条带一致性校验错误信息。
[root@localhost ~]# hiraidadm
c0:vd0 show inconsistent
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Total stripe number is 0
命令功能
设置虚拟磁盘的名称。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id:vdvd_id set name val=name |
设置虚拟磁盘的名称。 |
hiraidadm ccontroller_id:vdvd_id clear name |
清空虚拟磁盘的名称,将名称设置为空。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表。 |
name |
设置的逻辑盘名称。 |
最大20字符。 |
使用指南
无。
使用实例
# 设置指定虚拟磁盘的名称为“vd_name”。
[root@localhost ~]# hiraidadm
c0:vd0 set name val=vd_name
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 清空指定虚拟磁盘的名称。
[root@localhost ~]# hiraidadm
c0:vd0 clear name
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
删除虚拟磁盘。
命令格式
hiraidadm ccontroller_id:vdvd_id delete [noprompt]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表。 |
noprompt |
无需用户确认。 |
- |
使用指南
l 当一个RAID组上所有虚拟磁盘都删除后,RAID组删除。
l 当删除虚拟磁盘时不带参数noprompt,输入命令后提示“Do you confirm the execution delete?[Warning] If the VD has an operating system, the operating system may be abnormal.Please input [y|Y] for yes, others for cancel”时。
− 输入“y”或“Y”并按“Enter”确认操作。
− 输入其他取消操作。
使用实例
# 删除虚拟磁盘。
[root@localhost ~]# hiraidadm
c0:vd0 delete
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
Do you confirm the execution delete?
[Warning] If the VD has an operating system, the operating system may be
abnormal.
Please input [y|Y] for yes, others for cancel
---------------------------------------------
y
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
给指定虚拟磁盘扩充容量。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id:vdvd_id expand size=size |
通过增加成员盘可用容量扩充虚拟磁盘容量。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表。 |
size |
要扩容的容量大小。 |
单位:MB max_left表示使用当前RAID组所有剩余容量。 |
使用指南
无。
使用实例
# 扩充指定虚拟磁盘的容量。
[root@localhost ~]# hiraidadm
c0:vd0 expand size=200000
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
命令功能
设置指定虚拟磁盘为控制卡默认启动项。
命令格式
hiraidadm ccontroller_id:vdvd_id set boot sw=switch
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表。 |
switch |
是否作为启动盘。 |
l on:开启作为启动盘 l off:关闭作为启动盘 |
使用指南
无。
使用实例
# 设置指定虚拟磁盘作为启动盘。
[root@localhost ~]# hiraidadm
c0:vd0 set boot sw=on
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : on
--------------------------------------------------------------------------------------------------------------
命令功能
l 启动、停止擦除虚拟磁盘。
l 查询擦除进度。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id:vdvd_id show sanitize |
查询虚拟磁盘擦除进度。 |
hiraidadm ccontroller_id:vdvd_id start sanitize mode=sanitize_mode |
设置并开始擦除虚拟磁盘。 |
hiraidadm ccontroller_id:vdvd_id stop sanitize |
停止擦除虚拟磁盘。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表。 |
sanitize_mode |
设置擦除模式。 |
l simple:仅对虚拟磁盘进行一轮擦除动作。 l normal:对虚拟磁盘进行三轮擦除动作。 l thorough:对虚拟磁盘进行九轮擦除动作。 |
使用指南
回显中主要字段的含义如表22-44所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:vdvd_id show sanitize |
ID |
序号。 |
lun_0_autocase |
Name |
逻辑盘名称。 |
0 |
|
Capacity |
容量大小。 |
10.000GB |
|
Task Status |
擦除状态。 |
Running |
|
VD Status |
逻辑盘当前状态。 |
sanitizing |
|
Rate |
擦除速度。 |
low |
|
Sanitize mode |
LUN的擦除模式。 |
simple |
|
Progress |
擦除进度。 |
94% |
|
Estimated Time |
预计剩余时间。 |
1(min) |
使用实例
# 查询指定虚拟磁盘的擦除进度。
[root@localhost ~]# hiraidadm
c0:vd1 show sanitize
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Virtual Drive Sanitize Information
--------------------------------------------------------------------------------------------------------------
ID |
0
Name
| vd_name
Capacity
| 292.969GB
Task
Status
| Running
VD
Status
| sanitizing
Rate
| low
Sanitize Mode
| simple
Progress |
0%
Estimated Time |
112 min
--------------------------------------------------------------------------------------------------------------
#启动擦除指定虚拟磁盘。
[root@localhost ~]# hiraidadm
c0:vd1 start sanitize mode=simple
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 停止擦除指定虚拟磁盘。
[root@localhost ~]# hiraidadm
c0:vd1 stop sanitize
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
设置虚拟磁盘成员盘的Cache策略。
命令格式
hiraidadm ccontroller_id:vdvd_id set pdcache sw=switch
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表。 |
switch |
硬盘Cache开关。 |
l on:开启硬盘Cache。 l off:关闭成员盘Cache。 l default:保持当前成员盘Cache状态。 |
使用实例
# 打开指定虚拟磁盘的成员盘Cache。
[root@localhost ~]# hiraidadm
c0:vd2 set pdcache sw=on
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
设置RAID成员盘的Cache策略。
命令格式
hiraidadm ccontroller_id:rgrg_id set pdcache sw=switch
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
rg_id |
RAID组的ID。 |
查询RAID组的ID请参见22.7.2.25 查询控制卡RAID组列表。 |
switch |
硬盘Cache开关。 |
l on:开启硬盘Cache。 l off:关闭成员盘Cache。 l default:保持当前成员盘Cache状态。 |
使用指南
无。
使用实例
# 开启指定RAID成员盘Cache。
[root@localhost ~]# hiraidadm
c0:rg1 set pdcache sw=on
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
设置虚拟磁盘读写属性。
命令格式
hiraidadm ccontroller_id:vdvd_id set access policy=policy
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
vd_id |
虚拟磁盘的ID。 |
查询虚拟磁盘的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表。 |
policy |
虚拟磁盘的读写属性。 |
l RO:设置为只读。 l RW:设置为读写。 |
使用指南
l 仅允许设置RAID下非fault状态的虚拟磁盘。
l Bst超标导致失效的虚拟磁盘设置只读,需要重启才能生效。
l Bst超标导致fault场景:如果有重构,用户需要设置只读前,关闭紧急热备,再下线热备盘,然后配置只读,重启等待只读生效,把数据读走后再还原配置(上线、开启紧急热备)。
l 查询虚拟磁盘读写属性请参见0查询虚拟磁盘信息。
使用实例
# 设置虚拟磁盘为只读。
[root@localhost ~]# hiraidadm
c0:vd0 set accesss policy=ro
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询指定硬盘的详细信息。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id show
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
使用指南
回显中主要字段的含义如表22-45所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show |
Enc |
硬盘所在的框位ID。 |
0 |
Slot |
硬盘所在槽位的ID。 |
15 |
|
DID |
硬盘逻辑ID。 |
4 |
|
Intf |
硬盘接口类型。 |
SATA |
|
Media type |
硬盘物理类型。 |
SSD |
|
Link speed |
端口协商速度。 |
6.0Gb/s |
|
Capacity |
硬盘原始容量大小。 |
1.920TB [0xdf8fe2b0 Sectors] |
|
Hibernated Status |
硬盘休眠状态。 |
Spin Up |
|
Model |
硬盘型号。 |
SAMSUNG MZ7LH1T9HMLT-00005 |
|
Type |
硬盘类型。 |
member |
|
Status |
硬盘当前状态。 |
online |
|
Is Hotspare Drive |
是否为热备盘。 |
False |
|
Is Boot Drive |
是否为启动盘。 |
False |
|
Asso Enc |
关联硬盘框号。 |
NA |
|
Asso Slot |
关联硬盘槽位号。 |
NA |
|
Asso Device Id |
关联硬盘的ID。 |
NA |
|
RAID Group ID |
硬盘所属RAID组的ID。 |
NA |
|
RAID Group Level |
硬盘所在RAID组级别。 |
NA |
|
RAID Group Capacity |
硬盘所属RAID组容量。 |
NA |
|
PreFail |
硬盘是否预失效。 |
False |
|
Media Error count |
介质错误统计。 |
0 |
|
Other Error count |
除介质错误外,其余错误统计。 |
0 |
|
Locate Led Status |
硬盘位置灯的状态。 |
Off |
|
SAS Address |
硬盘的SAS地址。 |
0x5000000000000107 |
|
Drive WWN |
硬盘唯一标识。 |
5002538e106102d0 |
|
OS Drive Letter |
若硬盘开了直通功能,该盘上报到主机后分配的盘符。 |
NA |
|
Vendor |
硬盘厂商。 |
ATA |
|
Serial number |
硬盘序列号。 |
S455NA0N647543 |
|
Firmware Version |
硬盘固件版本号。 |
404Q |
|
Drive Max Speed |
硬盘最大速率。 |
6.0Gb/s |
|
Logical Sector Size |
硬盘逻辑扇区大小。 |
512B |
|
Physicak Sector Size |
硬盘物理扇区大小。 |
4096B |
|
Drive temperature |
硬盘当前温度。 |
31c |
|
Drive size |
硬盘尺寸。 |
2.5 inch |
|
Drive Cache Switch |
硬盘Cache状态。 |
OFF |
|
Ncq Support |
是否支持原生命令队列。 |
True |
|
Ncq Enable |
原生命令队列使能状态。 |
Enable |
|
SED Capable |
是否为加密盘。 |
False |
|
SED Enabled |
是否开启加密。 |
False |
|
Power On Time |
硬盘累计上电时间。 |
1443h |
|
Connected Port Id |
硬盘连接端口号。 |
0 |
|
Linked Port Speed |
端口最大速率。 |
6.0Gb/s |
|
Rotation Rate |
硬盘转速。 |
Non-rotating Medium |
|
Residual Wearout |
剩余磨损度,支持所有的SAS SSD和支持磨损度查询的SATA SSD。 |
NA |
|
Current Task |
硬盘当前任务。 |
NA |
|
Task Remaining Time |
任务预估时间。 |
0 |
|
Task Progress |
任务进度。 |
NA |
|
Fua Support |
是否支持FUA。 |
Yes |
|
Slow Drive |
是否为慢盘。 |
No |
使用实例
#查询指定硬盘的详细信息。
[root@localhost ~]# hiraidadm
c0:e0:s0 show
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Drive Major Information :
--------------------------------------------------------------------------------------------------------------
Enc
| 0
Slot
| 0
DID
| 5
Intf
| SATA
Media
Type
| HDD
Link Speed |
6.0Gb/s
Capacity
| 3.639TB [0x1d1c0beb0 Sectors]
Hibernated Status | Spin Up
Model
| HUS726T4TALA600
Drive Logical Infomation :
--------------------------------------------------------------------------------------------------------------
Type
| member
Status
| online
Is Hotspare Drive | False
Is Boot Drive |
False
Asso
Enc
| NA
Asso
Slot
| NA
Asso Device Id | NA
RAID Group ID | 0
RAID Group Level | 1
RAID Group Capacity | 3.638TB
Drive Health Status :
--------------------------------------------------------------------------------------------------------------
Prefail |
No
Media Error Count | 0
Other Error Count | 0
Locate Led Status | Off
Drive Detail Information :
--------------------------------------------------------------------------------------------------------------
SAS Address
| 0x5000000000000007
Drive
WWN
| 5000cca097f5e8a0
OS Drive Letter | NA
Vendor
| HITACHI
Serial Number |
V6KULAGS
Firmware Version | T010
Drive Max Speed | 6.0Gb/s
Logical Sector Size | 512B
Physical Sector Size | 512B
Drive Temperature | 32c
Drive
size
| 3.5 inch
Drive Cache Switch | Off
Ncq
Support
| True
Ncq
Enable
| Enable
SED
Capable
| False
SED
Enabled
| False
Power On Time |
4321h
Connected Port Id | 3
Phy Max Speed |
12Gb/s
Rotation Rate |
7200rpm
Residual Wearout | NA
Current Task
| NA
Task Remaining Time | NA
Task Progress | NA
Fua
Support
| Yes
Slow
Drive
| No
命令功能
设置硬盘状态。
当全局裸盘模式开启时,才支持设置硬盘状态为JBOD。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id set status
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
status |
设置的硬盘状态。 |
l free:设置硬盘空闲 l jbod:设置硬盘为裸盘 |
使用指南
无。
使用实例
# 将指定硬盘设置为空闲状态。
[root@localhost ~]# hiraidadm
c0:e0:s9 set free
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
设置硬盘为全局热备盘或局部热备盘。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id set hotspare [rg=rg_id]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
rg_id |
RAID组的ID。 |
查询RAID组的ID请参见22.7.2.25 查询控制卡RAID组列表。 |
使用指南
若要取消热备盘状态,可使用以下命令,具体请参见22.7.4.68 设置硬盘状态。
hiraidadm ccontroller_id:eenclosure_id:sslot_id set free
使用实例
# 设置指定硬盘为全局热备盘。
[root@localhost ~]# hiraidadm
c0:e0:s2 set hotspare
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 设置指定硬盘为RAID的局部热备盘。
[root@localhost ~]# hiraidadm
c0:e0:s2 set hotspare rg=0
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
设置指定槽位为热备槽位。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id set hspslot sw=switch
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
switch |
设置热备槽位使能状态。 |
l on:开启热备槽位功能 l off:关闭热备槽位功能 |
使用指南
无。
使用实例
# 设置指定槽位为热备槽位。
[root@localhost ~]# hiraidadm
c0:e0:s2 set hspslot sw=on
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
设置当前硬盘对应端口phy的连接状态(仅直连硬盘)。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id set phy func=func [sp=speed]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
func |
指定功能函数。 |
l hardreset l linkreset l disable l enable l speed l enableloop l disableloop |
speed |
链接速率,当func=speed时有效。 |
l 1.5G l 3G l 6G l 12G |
使用指南
无。
使用实例
#设置指定硬盘phy口状态为disable。
[root@localhost ~]# hiraidadm
c0:e0:s5 set phy func=disable
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
l 查询当前硬盘phy口的链路状态。
l 清除指定硬盘phy口的误码计数。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show phyerror |
查询当前硬盘phy口的链路状态。 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id clear phyerror |
清除指定硬盘phy口的误码计数。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
使用指南
回显中主要字段的含义如表22-46所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show phyerror |
Phy id |
phy端口ID。 |
7 |
Phy enable |
Phy口使能状态。 |
enable |
|
Link speed |
端口下行速率。 |
6.0Gb/s |
|
Attach Device Type |
设备类型。 |
SATA |
|
Attach SAS Address |
连接的sas设备地址。 |
0x5000000000000007 |
|
Invalid Dword Count |
无效的双字计数。 |
0 |
|
Run Disparity Error Count |
运行差异错误计数。 |
0 |
|
Loss Of Dword Sync |
双字同步丢失数。 |
0 |
|
Phy Reset Problem Count |
Phy口重置问题计数。 |
0 |
使用实例
#查询硬盘phy的链路状态。
[root@localhost ~]# hiraidadm
c0:e0:s0 show phyerror
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
-------------------------------------------------------
Phy id |
7
Phy
enable
| enable
Link
speed
| 6.0Gb/s
Attach Device Type | SATA
Attach SAS Address | 0x5000000000000007
Invalid Dword Count | 0
Run Disparity Err Count | 0
Loss Of Dword Syn Count | 0
Phy Reset Problem Count | 0
-------------------------------------------------------
#清除硬盘phy口的误码计数。
[root@localhost ~]# hiraidadm
c0:e0:s0 clear phyerror
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询指定硬盘端误码。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id show driveerror
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
使用指南
无。
使用实例
#查询硬盘端误码。
[root@localhost ~]# hiraidadm
c0:e0:s0 show driveerror
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
Device
Present
| Yes
Drive
Type
| SATA
Link
Speed
| 6.0Gb/s
Command failed and ICRC error bit set to one in Error
register | 0
R_ERRP response for Data
FIS
| 0
R_ERRP response for Device-to-Host Data
FIS
| 0
R_ERRP response for Host-to-Device Data
FIS
| 0
R_ERRP response for non-Data
FIS
| 0
R_ERRP response for Device-to-Host non-Data
FIS
| 0
R_ERRP response for Host-to-Device non-Data
FIS
| 0
Device-to-Host non-Data FIS
retries
| 0
Transitions from drive PHYRDY to drive
PHYRDYn
| 7
Register Device to Host FISes sent due to a
COMRESET
| 7
CRC errors within a host-to-device
FIS |
0
Non-CRC errors within a host-to-device
FIS
| 0
R_ERRP response for Host-to-Device Data FIS due to CRC
errors | NA
R_ERRP response for Host-to-Device Data FIS due to non-CRC errors | NA
R_ERRP response for Host-to-Device non-Data FIS due to CRC errors | NA
R_ERRP response for Host-to-Device non-Data FIS due to
non-CRC | NA
--------------------------------------------------------------------------------------------------------------
命令功能
点亮和熄灭指定硬盘的定位指示灯或故障指示灯。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id set led type=led_type sw=switch
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
led_type |
要点亮和熄灭的灯类型。 |
l err:故障指示灯。 l locate:定位指示灯。 |
switch |
设置开关状态。 |
l on l off |
使用指南
l 定位指示灯状态优先级大于故障指示灯,当定位指示灯点亮时,无法点亮故障指示灯,需关闭定位指示灯后点亮。
l 故障指示灯(err):绿灯亮,黄灯亮。
l 定位指示灯(locate):绿灯亮,黄灯闪。
使用实例
# 点亮硬盘的故障指示灯。
[root@localhost ~]# hiraidadm
c0:e0:s0 set led type=err sw=on
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
l 启动硬盘sanitize擦除。
l 查询硬盘sanitize擦除进度。
l sanitize擦除硬盘不可中止。
l cryptoerase和blockerase模式,启动命令返回成功即擦除成功完成。
l 只能对裸盘(rawdrive)和空闲盘(free、ugood)执行sanitize命令。
l sanitize过程中的硬盘不允许执行创建RAID组、设置成裸盘(rawdrive)、设置成空闲盘(free)或热备盘等会切换硬盘状态的操作。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show sanitize |
查询sanitize擦除硬盘进度。 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id start sanitize mode=sanitize_mode |
启动sanitize擦除硬盘。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
sanitize_mode |
设置擦除模式。 |
l cryptoerase:执行加密擦除操作 l overwrite:执行覆盖写零操作 l blockerase: 执行块擦除操作 |
使用指南
回显中主要字段的含义如表22-47所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:vdvd_id show sanitize |
Sanitize Progress |
擦除进度。 |
45% |
Estimated Time |
预估剩余时间。 |
13(min) |
使用实例
# 查询硬盘sanitize擦除进度。
[root@localhost ~]# hiraidadm
c0:e0:s2 show sanitize
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Sanitize Progress | NA
Estimated
Time | NA
#启动硬盘sanitize擦除。
[root@localhost ~]# hiraidadm
c0:e0:s2 start sanitize mode=cryptoerase
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
l 启动、停止硬盘erase擦除。
l 查询硬盘erase擦除进度。
l 相较于sanitize,erase擦除模式支持的物理盘类型更多,但总体速度慢于sanitize模式。
l 支持Security feature set的SATA SSD无法停止erase。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show erase |
查询硬盘erase擦除进度。 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id start erase mode=erase_mode [pa=11100000 pb=11110000] |
启动硬盘erase擦除。 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id stop erase |
停止硬盘erase擦除。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
erase_mode |
设置擦除模式。 |
l simple:单次擦除 l normal:擦除3次 l thorough:擦除9次 |
pa |
擦除模式A覆盖数据。 |
默认值:11100000 |
pb |
擦除模式B覆盖数据。 |
默认值:11110000 |
使用指南
l 擦除不成功时,如果返回的status code为1942(Invalid sanitize type),表示硬盘本身不支持此擦除类型,请修改擦除类型并重试。
l 回显中主要字段的含义如表22-48所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show erase |
Sanitize Progress |
擦除进度。 |
45% |
Estimated Time |
预估剩余时间。 |
13(min) |
使用实例
# 查询硬盘erase擦除进度。
[root@localhost ~]# hiraidadm
c0:e0:s2 show erase
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Erase Progress | 0%
Estimated Time | 0 min
#启动硬盘erase擦除。
[root@localhost ~]# hiraidadm
c0:e0:s2 start erase mode=simple pa=11100000 pb=11110000
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
#停止硬盘erase擦除。
[root@localhost ~]# hiraidadm
c0:e0:s2 stop erase
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
升级和激活硬盘固件。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id update fw file=file |
升级硬盘的固件。 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id active fw |
激活硬盘的固件。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
file |
指定用于升级的硬盘firmware文件。 |
– |
使用实例
#升级硬盘固件。
[root@localhost ~]# hiraidadm
c0:e0:s23 update fw file=root/HXT7404Q_NF.bin
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
SCSI Disk Upgrade Success!
Update disk firmware done, duration: 10s
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
#激活硬盘固件。
[root@localhost ~]# hiraidadm
c0:e0:s23 active fw
========================================== hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询、设置指定硬盘的Cache策略。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id set pdcache sw=switch |
设置硬盘的Cache状态。 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show pdcache |
查询硬盘的Cache状态。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
switch |
硬盘Cache开关。 |
l on l off |
使用指南
无。
使用实例
# 设置指定硬盘Cache策略为on。
[root@localhost ~]# hiraidadm
c0:e0:s6 set pdcache sw=on
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : on
--------------------------------------------------------------------------------------------------------------
# 查询指定硬盘Cache策略。
[root@localhost ~]# hiraidadm
c0:e0:s6 show pdcache
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Drive Cache switch = On
命令功能
查询指定硬盘的SMART信息。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id show smart
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
使用指南
回显中主要字段的含义如表22-49所示。
命令格式 |
硬盘类型 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show |
SATA |
ID |
某一检测项目的ID。 |
1 |
ATTRIBUTE_NAME |
制造商定义的属性值。 |
Raw_Read_Error_Rate |
||
FLAG |
属性操作标志。 |
0x000b |
||
VALUE |
当前值,是各ID项在硬盘运行时根据实测原始数据通过公式计算的结果。253意味着最好情况,1意味着最坏情况。 |
100 |
||
WORST |
最差值,硬盘运行时各ID项曾出现过的最小的value。 |
086 |
||
THRESH |
临界值,厂商指定的表示某一项目可靠性的门限值。 |
016 |
||
TYPE |
属性的类型。prefail意味着硬盘即将发生失效;oldage表示磁盘不会发生故障; |
Pre fail |
||
UPDATED |
属性更新频率。 |
Always |
||
RAW_VALUE |
制造商定义的原始值,从VALUE派生 |
0 |
||
SAS |
请参见Smartctl工具。 |
使用实例
#查询硬盘SMART信息(SATA)。
[root@localhost ~]# hiraidadm
c0:e0:s0 show smart
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Man-made SMART Attributes with Thresholds
--------------------------------------------------------------------------------------------------------------
ID
ATTRIBUTE_NAME
FLAG VALUE WORST THRESH
TYPE UPDATED RAW_VALUE
1 Raw_Read_Error_Rate
0x000b 100 086
016 Pre fail Always 0
2 Throughput_Performance 0x0005
129 127 054 Pre
fail Offline 104
3
Spin_Up_Time
0x0007 143 100
024 Pre fail Always 295
(Average 295)
4
Start_Stop_Count
0x0012 100 100
000 Old age Always 681
5 Reallocated_Sector_Ct
0x0033 100 100
005 Pre fail Always 25
7
Seek_Error_Rate
0x000b 100 100
067 Pre fail Always 0
8 Seek_Time_Performance
0x0005 128 128
020 Pre fail Offline 18
9
Power_On_Hours
0x0012 100 100
000 Old age Always 4321
10
Spin_Retry_Count
0x0013 100 100
060 Pre fail Always 0
12
Power_Cycle_Count 0x0032
100 100 000 Old
age Always 681
192 Power-Off_Retract_Count 0x0032
097 097 000 Old
age Always 3702
193
Load_Cycle_Count
0x0012 097 097
000 Old age Always 3702
194 Temperature_Celsius 0x0002
181 127 000 Old
age Always 33 (Min/Max 19/47)
196 Reallocated_Event_Count 0x0032
100 100 000 Old
age Always 25
197 Current_Pending_Sector 0x0022
100 100 000 Old
age Always 1306
198 Offline_Uncorrectable 0x0008
053 053 000 Old
age Offline 11321
199 UDMA_CRC_Error_Count 0x000a
200 200 000 Old
age Always 0
--------------------------------------------------------------------------------------------------------------
#查询硬盘SMART信息(SAS)。
[root@localhost ~]# hiraidadm
c0:e0:s6 show smart
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.2.0
Build Time: Dec 19 2022 21:45:23
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
=== START OF READ SMART DATA SECTION ===
SMART Health Status: OK
Current Drive Temperature: 27 C
Drive Trip Temperature: 65 C
Accumulated power on time, hours:minutes 4575:29
Manufactured in week 08 of year 2020
Specified cycle count over device lifetime: 50000
Accumulated start-stop cycles: 1691
Specified load-unload count over device lifetime: 600000
Accumulated load-unload cycles: 7098
Elements in grown defect list: 0
Error counter log:
Errors Corrected
by
Total Correction
Gigabytes Total
ECC
rereads/ errors
algorithm processed uncorrected
fast |
delayed rewrites corrected invocations
[10^9 bytes] errors
read:
50805
9
0
0 0
304806.171 0
write:
0
0 0 0
0
4452.857 0
verify:
0
0
0
0 0
167.168 0
Non-medium error count: 354
SMART Self Test log
Num
Test
Status
segment LifeTime LBA_first_err [SK ASC ASQ]
Description
number (hours)
# 1 Background long
Completed
-
22
- [- - -]
# 2 Background short
Completed
-
20 -
[- - -]
# 3 Background long
Completed
-
9
- [- - -]
Long (extended) Self Test duration: 3917 seconds [65.3 minutes]
命令功能
查询和设置硬盘巡检的相关参数。
l 不支持非成员盘、非冗余的RAID组成员盘和SSD。
l 异常掉电后开机自动开启巡检。但对于异常掉电后,用户手动清除用户数据场景,则不会自动开启巡检,需要用户手动启动巡检。
命令格式
命令 |
说明 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show patrolread |
查询硬盘巡检状态。 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id start patrolread [delay=delay_time] |
设置硬盘巡检参数并执行。 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id stop patrolread |
停止硬盘巡检。 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
delay_time |
指定延时启动时间。 |
1~24(单位:h) |
使用指南
回显中主要字段的含义如表22-50所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show patrolread |
Run Status |
巡检执行状态。 |
stop |
Patrolread Rate |
巡检速率。 |
high |
|
Patrolread Progress |
巡检进度。 |
NA |
|
Estimated time |
剩余预估时间。 |
NA |
使用实例
# 查询硬盘巡检信息。
[root@localhost ~]# hiraidadm
c0:e0:s6 show patrolread
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Disk Patrolread Information
-------------------------------------------------------
Run
Status
| stop
Patrolread Rate | low
Patrolread progress | NA
Estimated time | NA
-------------------------------------------------------
# 设置硬盘巡检参数。
[root@localhost ~]# hiraidadm c0:e0:s6
start patrolread delay=2
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
# 停止硬盘巡检。
[root@localhost ~]# hiraidadm
c0:e0:s6 stop patrolread
=========================================== Hiraidadm Information ============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询指定硬盘I/O统计信息。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id show iocnt
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
使用指南
回显中主要字段的含义如表22-51所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show iocnt |
Io Count |
正常完成的I/O数量。 |
2 |
Failed Io Count |
失败I/O数量。 |
0 |
使用实例
# 查询指定硬盘I/O统计信息。
[root@localhost ~]# hiraidadm
c0:e0:s0 show iocnt
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
Io
Count
| 347030
Failed Io Count | 0
--------------------------------------------------------------------------------------------------------------
命令功能
SCSI透传管理命令。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id passthru scsi type=type cdblen=cdb_length cdb=cdb_value [file=file_name] [data_len=data_length]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
type |
指定命令数据传输方向。 |
l read l write l set |
cdb_length |
cdb帧长度。 |
l 6 l 10 l 12 l 16 |
cdb_value |
cdb帧,按16进制的字节表示。 |
例如:0x1b, 0x01, 0x00, 0x00, 0x01 |
file_name |
写入或保存数据的文件。 l type=write时,文件内容即往盘写入的数据。 l type=read时,数据会写入该文件。 |
- |
data_length |
cdb帧内传递数据的长度。 |
当type=write时,长度不大于文件的大小,否则无法从文件中读取到指定长度的数据。 |
使用指南
无。
使用实例
#SCSI透传管理命令。
[root@localhost ~]# hiraidadm
c0:e0:s0 passthru scsi type=read cdblen=10
cdb=0x28,0x00,0x46,0x82,0x20,0xd8,0x00,0x00,0x08,0x00 file=save.txt
data_len=4096
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询指定硬盘坏块列表信息。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id show bst [slba=start_lba num=number]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
start_lba |
设置从指定硬盘块开始查询的位置。 |
- |
number |
需要查询的坏块数量。 |
- |
使用指南
回显中主要字段的含义如表22-52所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:eenclosure_id:sslot_id show bst [slba=start_lba num=number] |
Index |
坏盘序号。 |
0 |
Did |
硬盘的ID。 |
4 |
|
Start Lba |
起始LBA地址。 |
0 |
|
Lba_len |
LBA数量。 |
2048 |
|
Type |
逻辑类型或者物理类型。 |
Physical |
使用实例
#查询指定硬盘坏块列表信息。
[root@localhost ~]# hiraidadm
c0:e0:s4 show bst
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Total diskbst number is 2
--------------------------------------------------------------------------------------------------------------
Index Did Start_lba lba_len
Type Index Did Start_lba
lba_len Type
--------------------------------------------------------------------------------------------------------------
0 4
0
2048 Physical | 1
4 4096 6144
Physical |
--------------------------------------------------------------------------------------------------------------
命令功能
设置指定硬盘为控制卡默认启动项。
仅在裸盘模式开启时,可设置硬盘为启动项。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id set boot sw=switch
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
switch |
是否作为启动盘。 |
l on:开启作为启动盘 l off:关闭作为启动盘 |
使用指南
无。
使用实例
# 设置硬盘作为启动盘。
[root@localhost ~]# hiraidadm
c0:e0:s6 set boot sw=on
=========================================== Hiraidadm Information
============================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
命令功能
查询指定硬盘背板的链路状态(当前仅支持直连背板)。
命令格式
hiraidadm ccontroller_id:eenclosure_id show phy
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
使用指南
回显中主要字段的含义如表22-53所示。
命令格式 |
字段 |
含义 |
举例 |
hiraidadm ccontroller_id:eenclosure_id show phy |
ID |
序号 |
2 |
Status |
端口状态 |
enable |
|
LinkSpd |
端口下行速率 |
12Gb/s |
|
Dev_type |
设备类型 |
SAS |
|
Attach_Sas_addr |
所链接的sas地址 |
0x050000399886980c6 |
|
IDC |
无效的双字计数。 |
0 |
|
RDEC |
运行差异错误计数。 |
0 |
|
LDSC |
双字同步丢失数。 |
0 |
|
PRPC |
Phy口重置问题计数。 |
0 |
使用实例
#查询硬盘背板phy误码。
[root@localhost ~]# hiraidadm
c0:e0 show phy
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
Total phy number is 40
--------------------------------------------------------------------------------------------------------------
ID Status linkSpd Dev_type Attach_Sas_addr
IDC RDEC LDSC PRPC
--------------------------------------------------------------------------------------------------------------
0 enable 6.0Gb/s SATA
0x5000000000000007 0
0 0 0
1 enable 6.0Gb/s SATA
0x5000000000000006 0
0 0 0
2 enable 6.0Gb/s SATA
0x5000000000000005 0
0 0 0
3 enable 6.0Gb/s SATA
0x5000000000000004 0
0 0 0
4 enable No_link NODEV
0x0
0 0
0 0
5 enable No_link NODEV
0x0
0 0
0 0
6 enable No_link NODEV
0x0
0 0
0 0
7 enable No_link NODEV
0x0
0 0
0 0
8 enable 6.0Gb/s SATA
0x5000000000000107 0
0 0 0
9 enable 6.0Gb/s SATA
0x5000000000000106 0
0 0 0
10 enable 12Gb/s SAS
0x5000c500cecb08d1 0
0 0 0
11 enable 12Gb/s SAS 0x5000cca04eb0aa05
0 0
0 0
12 enable 12Gb/s SAS
0x5c8a776b93321000 0
0 0 0
13 enable 6.0Gb/s SATA
0x5000000000000102 0
0 0 0
14 enable 6.0Gb/s SATA
0x5000000000000101 0 0 0
0
15 enable 6.0Gb/s SATA
0x5000000000000100 0
0 0 0
16 enable No_link NODEV
0x0
0 0
0 0
17 enable No_link NODEV
0x0
0 0
0 0
18 enable No_link NODEV
0x0
0 0
0 0
19 enable No_link NODEV
0x0
0 0
0 0
20 enable No_link NODEV
0x0
0 0
0 0
21 enable No_link NODEV
0x0 0
0 0 0
22 enable No_link NODEV
0x0
0 0
0 0
23 enable No_link NODEV
0x0
0 0
0 0
24 enable No_link NODEV
0x0
0 0
0 0
25 enable No_link NODEV
0x0
0 0
0 0
26 enable No_link NODEV
0x0
0 0
0 0
27 enable No_link NODEV
0x0
0 0
0 0
28 enable No_link NODEV
0x0
0 0
0 0
29 enable No_link NODEV
0x0
0 0
0 0
30 enable No_link NODEV
0x0
0 0
0 0
31 enable No_link NODEV
0x0
0 0
0 0
32 enable No_link NODEV
0x0
0 0
0 0
33 enable No_link NODEV
0x0
0 0
0 0
34 enable No_link NODEV
0x0
0 0
0 0
35 enable No_link NODEV
0x0
0 0
0 0
36 enable No_link NODEV
0x0
0 0
0 0
37 enable No_link NODEV
0x0
0 0
0 0
38 enable No_link NODEV 0x0
0 0
0 0
39 disable No_link NODEV
0x0
0 0
0 0
IDC=Invalid Dword Count, RDEC=Run Disparity
Error Count
LDSC=Loss Of Dword Sync Count, PRPC=Phy Reset Problem Count
--------------------------------------------------------------------------------------------------------------
命令功能
设置并保存phy口的配置,下次启动时该phy口将按此配置尝试连接(或关闭)。
仅支持直连phy(即e0)。
命令格式
hiraidadm ccontroller_id:eenclosure_id:sslot_id set phy_cfg sw=switch [speed=speed]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制卡的ID。 |
查询控制卡ID请参见0查询控制卡列表。 |
enclosure_id |
硬盘所在框位的ID。 |
查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
slot_id |
硬盘所在槽位的ID。 |
查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表。 |
switch |
开关状态。 |
- |
speed |
phy最大速率。 |
l 1.5G l 3G l 6G l 12G 默认值为:12G。 |
使用指南
无。
使用实例
#设置并保存phy口的配置。
[root@localhost ~]# hiraidadm
c0:e0:s0 set phy_cfg sw=off
========================================== Hiraidadm Information
===========================================
Name: hiraidadm
Version: 1.2.0.2
Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
Status Code = 0
Status = Success
Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : off
Default set speed : 12g
--------------------------------------------------------------------------------------------------------------
表A-1描述了MegaRAID固件中出现的启动错误消息。
序号 |
显示的启动消息 |
原因及处理方法/建议 |
1 |
Memory or battery problems were detected. The adapter has recovered, but cached data was lost. Press any key to continue, or press C to load the configuration utility. |
原因:缓存数据丢失,无法检索。 处理方法:进行内存和电池测试。如果需要,更换电池或RAID控制卡。 |
2 |
This is a test message. You can press a key to ignore it, or you can wait five seconds. No further action is required. Press any key to continue, or press C to load the configuration utility. |
这是一条测试消息,可以按任意键忽略,或者等待五秒,无需进一步处理。 |
3 |
Firmware version inconsistency was detected. The adapter has recovered, but cached data was lost. Press any key to continue, or press C to load the configuration utility. |
原因:检测到固件版本不一致。适配器已恢复,但是缓存的数据已经丢失。 处理方法:确保另一个控制卡也具有相同的固件版本。 |
4 |
Foreign configuration(s) found on adapter. Press any key to continue or press C to load the configuration utility or press F to import foreign configuration(s) and continue. |
原因:插入了一个存储设备,其中的元数据不属于控制卡识别的任何RAID组。 处理方法:导入已插入的存储设备的配置或删除RAID组。 |
5 |
Previous configuration cleared or missing. Importing configuration created on %02d/%02d%2d:%02d. Press any key to continue, or press C to load the configuration utility. |
原因:控制卡无法识别当前RAID组配置。 处理方法:导入配置或删除存储设备上的外部配置。 |
6 |
Firmware package: %s |
无 |
7 |
Firmware version: %s |
无 |
8 |
This firmware is a TEST version. It has not completed any validation. |
原因:控制卡无法识别当前RAID组配置。 处理方法:将固件升级到正确的版本。 |
9 |
This firmware is an ALPHA version – It has not completed all validation. The validation stamp is: %s""" |
原因:控制卡无法识别当前RAID组配置。 处理方法:将固件升级到正确的版本。 |
10 |
This firmware is BETA version – It has not completed all validation. The validation stamp is: %s""" |
原因:控制卡无法识别当前RAID组配置。 处理方法:将固件升级到正确的版本。 |
11 |
An enclosure was found that contains both SAS and SATA drives, but this controller does not allow mixed drive types in a single enclosure. Correct the problem then restart your system. Press any key to continue, or press C to load the configuration utility. |
原因:不能使用同时包含SAS和SATA盘的Enclosure,因为控制卡不支持包含混合硬盘类型的Enclosure。 处理方法: l 只使用一种类型的硬盘(SAS或SATA)。 l 更换控制卡为支持单个Enclosure包含混合硬盘类型的控制卡。 l 联系技术支持启用该特性。 |
12 |
SAS drives were detected, but this controller does not support SAS drives. Remove the SAS drives then restart your system. Press any key to continue, or press C to load the configuration utility. |
原因:该控制卡不支持SAS盘。 处理方法:更换SAS盘为SATA盘并重启系统。 |
13 |
SATA drives were detected, but this controller does not support SATA drives. Remove the SATA drives then restart your system. Press any key to continue, or press C to load the configuration utility. |
原因:该控制卡不支持SATA盘。 处理方法:将SATA盘替换为SAS盘并重启系统。 |
14 |
There are %d enclosures connected to connector %s, but only maximum of %d enclosures can be connected to a single SAS connector. Remove the extra enclosures then restart your system. |
原因:该控制卡只支持特定数量的Enclosure。 处理方法:移除多余的Enclosure或插入满足需求的控制卡。 |
15 |
Invalid SAS topology detected. Check your cable configurations, repair the problem, and restart your system. |
原因:控制卡检测到无效的SAS拓扑。 处理方法:检查线缆或重新配置连接的设备以创建有效的SAS拓扑。 |
16 |
The battery is currently discharged or disconnected. Verify the connection and allow 30 minutes for charging. If the battery is properly connected and it has not returned to operational state after 30 minutes of charging then contact technical support for additional assistance. |
原因:电池当前处于放电或断开状态。 处理方法: l 检查电池线缆,确保电池线缆连接正常。 l 确保电池充电正常。 l 如果电池电量耗尽,请联系技术支持更换电池。 |
17 |
The battery hardware is missing or malfunctioning, or the battery is unconnected, or the battery could be fully discharged. If you continue to boot the system, the battery-backed cache will not function. If battery is connected and has been allowed to charge for 30 minutes and this message continues to appear, contact technical support for assistance. Press D to disable this warning (if your controller does not have a battery) |
原因:电池硬件缺失或故障,或电池未连接,或电池完全放电。 处理方法: l 检查电池线缆,确保电池线缆连接正常。 l 确保电池充电正常。 l 如果电池电量耗尽,请联系技术支持更换电池。 |
18 |
Invalid SAS Address present in MFC data. Program a valid SAS Address and restart your system. |
原因:可能存在无效的SAS地址。 处理方法: 1. 将系统下电,移除控制卡。 2. 联系技术支持,对SAS地址重新编程。 |
19 |
Some configured disks have been removed from your system, or are no longer accessible. Check your cables and also make sure all disks are present. Press any key to continue, or press C to load the configuration utility. |
原因:控制卡无法找到已配置的硬盘。 处理方法: l 检查已配置的硬盘是否在位、连接是否正常。 l 进入BIOS,查看这些设备是否有显示。 l 确保硬盘已启动并有电源供应。 l 如果有背板,检查连接器,确保硬盘有电源供应。 |
20 |
The following VDs have missing disks: %s. If you proceed (or load the configuration utility), these VDs will be marked OFFLINE and will be inaccessible. Check your cables and make sure all disks are present. Press any key to continue, or press C to load the configuration utility. |
原因:控制卡无法找到已配置的硬盘。 处理方法: l 检查已配置的硬盘是否在位、连接是否正常。 l 进入BIOS,查看这些设备是否有显示。 l 确保硬盘已启动并有电源供应。 l 如果有背板,检查连接器,确保硬盘有电源供应。 |
21 |
The following VDs are missing: %s. If you proceed (or load the configuration utility), these VDs will be removed from your configuration. If you wish to use them at a later time, they will have to be imported. If you believe these VDs should be present, power off your system and check your cables to make sure all disks are present. Press any key to continue, or press C to load the configuration utility. |
原因:控制卡无法找到已配置的硬盘。 处理方法: l 检查已配置的硬盘是否在位、连接是否正常。 l 进入BIOS,查看这些设备是否有显示。 l 确保硬盘已启动并有电源供应。 l 如果有背板,检查连接器,确保硬盘有电源供应。 |
22 |
The following VDs are missing complete spans: %s. If you proceed (or load the configuration utility), these VDs will be removed from your configuration and the remaining drives marked as foreign. If you wish to use them at a later time, restore the missing span(s) and use a foreign import to recover the VDs. If you believe these VDs should be present, please power off your system and check your cables to make sure all disks are present. Press any key to continue, or press C to load the configuration utility. |
原因:控制卡无法找到已配置的硬盘。 处理方法: l 检查已配置的硬盘是否在位、连接是否正常。 l 进入BIOS,查看这些设备是否有显示。 l 确保硬盘已启动并有电源供应。 l 如果有背板,检查连接器,确保硬盘有电源供应。 |
23 |
All of the disks from your previous configuration are gone. If this is an unexpected message, power off your system and check your cables to make sure all disks are present. Press any key to continue, or press C to load the configuration utility. |
原因:控制卡无法找到已配置的硬盘。 处理方法: l 检查已配置的硬盘是否在位、连接是否正常。 l 进入BIOS,查看这些设备是否有显示。 l 确保硬盘已启动并有电源供应。 l 如果有背板,检查连接器,确保硬盘有电源供应。 |
24 |
The cache contains dirty data, but some VDs are missing or will go offline, so the cached data can not be written to disk. If this is an unexpected error, power off your system and check your cables to make sure all disks are present. If you continue, the data in cache will be permanently discarded. Press X to acknowledge and permanently destroy the cached data. |
原因:控制卡无法找到已配置的硬盘。 处理方法: l 检查已配置的硬盘是否在位、连接是否正常。 l 进入BIOS,查看这些设备是否有显示。 l 确保硬盘已启动并有电源供应。 l 如果有背板,检查连接器,确保硬盘有电源供应。 |
25 |
Your VDs that are configured for Write-Back are temporarily running in Write-Through mode. This is caused by the battery being charged, missing, or bad. Allow the battery to charge for 24 hours before evaluating the battery for replacement. The following VDs are affected: %s Press any key to continue. |
原因:配置为Write Back策略的虚拟磁盘暂时以Write Through方式运行。因为电池正在充电,或者电池已经丢失、损坏。 处理方法: l 检查电池线缆,确保电池线缆连接正常。 l 确保电池充电正常。 l 如果电池电量耗尽,联系技术支持更换电池。 |
26 |
Invalid memory configuration detected. Contact your system support. System has halted. |
原因:检测到无效内存配置。 处理方法:更换RAID控制卡。 |
27 |
Cache data was lost due to an unexpected power-off or reboot during a write operation, but the adapter has recovered. This could be because of memory problems, bad battery, or you might not have a battery installed. Press any key to continue or C to load the configuration utility. |
原因:在写操作过程中,可能因为内存问题、电池损坏、或者未安装电池等原因,造成意外断电或重启,导致缓存数据丢失,但适配器已恢复。 处理方法: l 检查电池线缆,确保电池线缆连接正常。 l 确保电池充电正常。 l 如果电池电量耗尽,联系技术支持更换电池。 |
28 |
Entering the configuration utility in this state will result in drive configuration changes. Press Y to continue loading the configuration utility or power off your system and check your cables to make sure all disks are present and reboot the system. |
原因:控制卡无法找到已配置的硬盘。 处理方法: l 检查已配置的硬盘是否在位、连接是否正常。 l 进入BIOS,查看这些设备是否有显示。 l 确保硬盘已启动并有电源供应。 l 如果有背板,检查连接器,确保硬盘有电源供应。 l 如果使用控制卡通过重用硬盘来创建新的配置,则清除现有数据,然后继续。 |
29 |
Multibit ECC errors were detected on the RAID controller. If you continue, data corruption can occur. Contact technical support to resolve this issue. Press X to continue, otherwise power off the system, replace the controller, and reboot. |
原因:在RAID控制卡上检测到Multibit(多比特)ECC错误。如果继续,可能会导致数据损坏。 处理方法: 1. 更换RAID控制卡。 2. 如果问题仍然存在,联系技术支持。 |
30 |
Single-bit ECC errors were detected on the RAID controller. Contact technical support to resolve this issue. Press X to continue or else power off the system, replace the controller, and reboot. |
原因:在RAID控制卡上检测到单比特(Single-bit)ECC错误。 处理方法: 1. 更换RAID控制卡。 2. 重启系统。 3. 如果问题仍然存在,联系技术支持。 |
31 |
Single-bit overflow ECC errors were detected on the RAID controller. If you continue, data corruption can occur. Contact technical support to resolve this issue. Press X to continue or else power off the system, replace the controller, and reboot. |
原因:RAID控制卡上检测到单比特(Single-bit)溢出ECC错误。如果继续,可能会导致数据损坏。 处理方法: 1. 更换RAID控制卡。 2. 重启系统。 3. 如果问题仍然存在,联系技术支持。 |
32 |
Multibit ECC errors were detected on the RAID controller. The DIMM on the controller needs replacement. Contact technical support to resolve this issue. If you continue, data corruption can occur. Press X to continue, otherwise power off the system and replace the DIMM module and reboot. If you have replaced the DIMM press X to continue. |
原因:在RAID控制卡上检测到Multibit(多比特)ECC错误。 处理方法: 1. 更换RAID控制卡。 2. 重启系统。 3. 如果问题仍然存在,联系技术支持。 |
33 |
Single-bit ECC errors were detected during the previous boot of the RAID controller. The DIMM on the controller needs replacement. Contact technical support to resolve this issue. Press X to continue, otherwise power off the system and replace the DIMM module and reboot. If you have replaced the DIMM press X to continue. |
原因:RAID控制卡在上一次启动过程中检测到单比特(Single-bit)ECC错误。 处理方法: 1. 更换RAID控制卡。 2. 重启系统。 3. 如果问题仍然存在,联系技术支持。 |
34 |
Single-bit overflow ECC errors were detected during the previous boot of the RAID controller. The DIMM on the controller needs replacement. Contact technical support to resolve this issue. If you continue, data corruption can occur. Press X to continue, otherwise power off the system and replace the DIMM module and reboot. If you have replaced the DIMM press X to continue. |
原因:RAID控制卡在上一次启动过程中检测到单比特(Single-bit)溢出ECC错误。 处理方法: 1. 更换RAID控制卡。 2. 重启系统。 3. 如果问题仍然存在,联系技术支持。 |
35 |
The attached enclosure does not support in controller's Direct mapping mode. Contact your system support. The system has halted because of an unsupported configuration. |
原因:可能存在过多串联的Enclosure,也可能与硬盘中的安全特性有关。 处理方法: l 移除不支持的硬盘。 l 减少硬盘数量。 l 更换为另一个Enclosure。 l 确保固件版本已经更新。 l 如果问题仍然存在,联系技术支持。 |
36 |
Expander detected in controller with direct mapping mode. Reconfiguring automatically to persistent mapping mode. Automatic reboot would happen in 10 seconds. |
原因:在直接映射模式下,控制卡检测到了Expander。 处理方法:无需处理。控制卡将自身配置为持久映射模式然后重新启动。 如果问题仍然存在,联系技术支持。 |
37 |
Your controller's I/O processor has a fault that can potentially cause data corruption. Your controller needs replacement. Contact your system support. To continue, press Y to acknowledge. |
原因:控制卡的I/O处理器有一个可能导致数据损坏的故障。 处理方法:联系技术支持更换控制卡。 |
38 |
The number of disks exceeded the maximum supported count of %d disks. Remove the extra drives and reboot system to avoid losing data. Press Y to continue with extra drives. |
原因:硬盘数量超过上限。 处理方法: l 将系统下电,移除控制卡。 l 移除超出的硬盘以缩小拓扑。 l 将当前控制卡更换为支持更大拓扑的控制卡。 |
39 |
The number of devices exceeded the maximum limit of devices per quad. Remove the extra drives and reboot the system to avoid losing data. System has halted due to unsupported configuration. |
原因:硬盘数量超过上限。 处理方法: l 将系统下电,移除控制卡。 l 移除超出的硬盘以缩小拓扑。 l 将当前控制卡更换为支持更大拓扑的控制卡。 |
40 |
A discovery error has occurred, power cycle the system and all the enclosures attached to this system. |
原因:发生了Discovery错误,对系统及所有与系统连接的Enclosure进行上下电。 处理方法: l 关闭并重启系统以及所有与系统连接的Enclosure。 l 确保所有线缆正确连接。如存在坏盘,缩小拓扑。 l 如果问题仍然存在,请收集系统日志、驱动日志和固件日志,并联系技术支持。 |
41 |
Drive security is enabled on this controller and a pass phrase is required. Enter the pass phrase. |
原因:控制卡上启用了硬盘安全特性,需要输入密码。 处理方法:输入密码。 |
42 |
Invalid pass phrase. Enter the pass phrase. |
原因:无效的密码。 处理方法:输入有效的密码。 |
43 |
There was a drive security key error. All secure drives will be marked as foreign. Press any key to continue, or C to load the configuration utility. |
原因:硬盘安全key错误,所有安全硬盘将被标记为Foreign。 处理方法:检查控制卡是否支持自加密硬盘。 |
44 |
Invalid pass phrase. If you continue, a drive security key error will occur and all secure configurations will be marked as foreign. Reboot the machine to retry the pass phrase or press any key to continue. |
原因:无效的密码。 处理方法:重启系统重试密码或按任意键继续。 |
45 |
Unable to communicate to EKMS. If you continue, there will be a drive security key error and all secure configurations will be marked as foreign. Check the connection with the EKMS, reboot the machine to retry the EKMS or press any key to continue. |
原因:无法与EKMS通信。 处理方法:检查与EKMS的连接,重启系统,重新建立与EKMS的连接。 |
46 |
Unable to change security to EKMS as not able to communicate to EKMS. If you continue, the drive security will remain to existing security mode. Check the connection with the EKMS, reboot the machine to retry the EKMS or press any key to continue. |
原因:无法与EKMS通信,无法将安全模式修改为EKMS。 处理方法:检查与EKMS的连接,重启系统,重新建立与EKMS的连接。 |
47 |
DKM existing key request failed; existing secure configurations will be labeled foreign and will not be accessible. Reboot the server to retry. |
原因:DKM现有key请求失败;现有的安全配置将被标记为“Foreign”且不能访问。 处理方法:检查与EKMS的连接,重启系统,重新建立与EKMS的连接。 |
48 |
DKM new key request failed; controller security mode transition was not successful. Reboot the server to retry request, or press any key to continue. |
原因:DKM新key请求失败;控制卡安全模式转换不成功。 处理方法:检查与EKMS的连接,重启系统,重新建立与EKMS的连接。 |
49 |
Firmware did not find valid NVDATA image. Program a valid NVDATA image and restart your system. Press any key to continue. |
原因:固件没有找到有效的NVDATA镜像。 处理方法: l 刷新一个有合适NVDATA镜像的固件包。 l 检查当前固件版本,如有必要,更新到最新固件版本。更新到最新固件版本可能需要导入外部Volume。 |
50 |
IR to MR Migration failed. Press any key to continue with MR defined NVDATA values |
原因:IR到MR迁移失败,按任意键继续使用MR定义的NVDATA值。 处理方法:无 |
51 |
Two BBUs are connected to the adapter. This is not a supported configuration. Battery and caching operations are disabled. Remove one BBU and reboot to restore battery and caching operations. If dirty cache is lost in this boot, that could have been because of dual battery presence. |
原因:适配器连接着两个BBU,由于不支持这种配置,电池和缓存操作已被禁用。 处理方法:移除一个BBU,重启系统,恢复电池和缓存操作。 由于存在双电池,在系统重启过程中,可能会丢失脏缓存中的数据。 |
52 |
Offline or missing virtual drives with preserved cache exist. Check the cables and make sure that all drives are present. Press any key to continue, or C to load the configuration utility. |
原因:控制卡无法找到已配置的硬盘。 处理方法: l 检查已配置的硬盘是否在位、连接是否正常。 l 进入BIOS,查看这些设备是否有显示。 l 确保硬盘已启动并有电源供应。 l 如果有背板,检查连接器,确保硬盘有电源供应。 l 如果恢复了丢失的硬盘,则会发生缓存卸载。 |
53 |
Offline or missing virtual drives with preserved cache exist. Check the cables and make sure that all drives are present. Press any key to enter the configuration utility. |
原因:控制卡无法找到已配置的硬盘。 处理方法: l 检查已配置的硬盘是否在位、连接是否正常。 l 进入BIOS,查看这些设备是否有显示。 l 确保硬盘已启动并有电源供应。 l 如果有背板,检查连接器,确保硬盘有电源供应。 l 如果恢复了丢失的硬盘,则会发生缓存卸载。 |
54 |
Invalid SAS Address present in SBR. Contact your system support. Press any key to continue with Default SAS Address. |
原因:SBR中存在无效的SAS地址。 处理方法:联系技术支持恢复出厂配置默认值。 |
55 |
Incompatible secondary iButton present! Insert the correct iButton and restart the system. Press any key to continue but OEM specific features will not be upgraded! |
原因:存在不兼容的RAID key。 处理方法:插入正确RAID key,重启系统。如果问题仍然存在,联系技术支持更换RAID key。 |
56 |
Upgrade Key Missing! An upgrade key was present on a previous power cycle, but it is not connected. This can result in inaccessible data unless it is addressed. Re-attach the upgrade key and reboot. |
原因:前一个上下电周期中存在的升级key可能无法连接。 处理方法:重新连接key并重启系统。如果问题仍然存在,联系技术支持更换升级key。 |
57 |
The native configuration is not supported by the controller. Check the controller, iButton or key-vault. If you continue the configuration will be marked foreign. Press any key to continue. |
原因:控制卡不支持本地配置。 处理方法:插入正确的RAID key,并重启系统。如果问题仍然存在,联系技术支持更换RAID key。 |
58 |
The battery is currently discharged or disconnected. Verify the connection and allow 30 minutes for charging. If the battery is properly connected and it has not returned to operational state after 30 minutes of charging, contact technical support for additional assistance. Press D to disable this warning (if your controller does not have a battery). |
原因:电池当前处于放电或断开状态。 处理方法: l 检查电池线缆,确保电池线缆连接正常。 l 确保电池充电正常。 l 如果电池电量耗尽,联系技术支持更换电池。 |
59 |
The battery is currently discharged or disconnected. VDs configured in Write-Back mode will run in Write-Through mode to protect your data and will return to the Write-Back policy when the battery is operational. If VDs have not returned to Write-Back mode after 30 minutes of charging then contact technical support for additional assistance. The following VDs are affected: %s. Press any key to continue. |
原因:电池当前处于放电或断开状态。在Write Back模式下配置的虚拟磁盘将以Write Through模式运行以保护数据,当电池运行时将返回Write Back模式。 处理方法: l 检查电池线缆,确保电池线缆连接正常。 l 确保电池充电正常。 l 如果电池电量耗尽,请联系技术支持更换电池。 |
60 |
Cache data was lost, but the controller has recovered. This could be because your controller had protected cache after an unexpected power loss and your system was without power longer than the battery backup time. Press any key to continue or C to load the configuration utility. |
原因:缓存数据丢失,但控制卡已恢复。这可能是因为控制卡在意外断电后保护了缓存,而系统的断电时间超过了电池的备份时间。 处理方法: l 检查内存和电池。 l 掉电时,检查电压水平和缓存卸载时间。 l 必要时更换内存或电池。 |
61 |
A snapshot rollback is in progress on VDs %s, the controller cannot boot until the rollback operation completes. Press any key to enter the configuration utility. |
原因:虚拟磁盘上正在进行快照回滚,在完成之前控制卡无法启动。 处理方法:等待一段时间,直到回滚完成。 |
62 |
The following VDs: %s have Rollback active and the corresponding Repository is missing. If you continue to boot the system or enter the configuration utility, these VDs will become unusable. Press any key to Continue. |
原因:这可能与快照特性有关,MegaRAID 12Gb/s SAS RAID控制卡不支持快照特性。 处理方法:等待一段时间,直到回滚完成。 |
63 |
Snapshot Repository VDs %s have been removed from your system, or are no longer accessible. Check the cables and make sure all disks are present. If you continue to boot the system, the snapshot related data will be lost. Press any key to continue, or C to load the configuration utility. |
原因:控制卡无法找到已配置的硬盘。 处理方法: l 检查已配置的硬盘是否在位、连接是否正常。 l 进入BIOS,查看这些设备是否有显示。 l 确保硬盘已启动并有电源供应。 l 如果有背板,检查连接器,确保硬盘有电源供应。 |
64 |
The most recent configuration command could not be committed and must be retried. Press any key to continue, or C to load the configuration utility. |
原因:无法提交最近的配置命令,必须重试。 处理方法:无 |
65 |
Firmware could not synchronize the configuration or property changes for some of the VD's/PD's. Press any key to continue, or C to load the configuration utility. |
原因:固件无法同步某些虚拟磁盘或物理硬盘的配置或属性更改。 处理方法:按任意键继续,或按“C”键加载Configuration Utility。如果问题仍然存在,联系技术支持。 |
66 |
On-board expander firmware or manufacturing image is corrupted. The flash expander firmware and manufacturing image use the recovery tools. |
原因:Expander存在软件失效问题。 处理方法: 联系技术支持。 |
67 |
The native configuration is not supported by the current firmware. Make sure that the correct controller firmware is being used. If you continue, the configuration will be marked as foreign. Press any key to continue. |
原因:当前固件不支持本地配置。 处理方法: l 收集系统日志、驱动日志和固件日志。 l 确保固件版本正确,并更新到最新版本。 l 如果问题仍然存在,联系技术支持。 |
68 |
Foreign configuration import did not import any drives. Press any key to continue. |
原因:外部配置导入没有导入任何硬盘。 处理方法: l 检查控制卡的固件版本。 l 更换控制卡后重试。 l 如果问题仍然存在,联系技术支持。 |
69 |
Valid memory detected. Firmware is upgraded from iMR to MR. Reboot the system for the MR firmware to run. |
原因:检测到有效内存。固件从iMR升级到MR。 处理方法:重启系统,使MR固件运行。 |
70 |
Advanced software options keys were detected, features activated – %s. |
原因:检测到Advanced Software Options选项,特性正在被激活。 处理方法:无 |
71 |
Advanced software options keys were missing, features deactivated – %s. |
原因:Advanced Software Options选项丢失,特性正在被停用。 处理方法: l 检查线缆连接。 l 检查是否有Advanced Software Options选项。 l 如果问题仍然存在,联系技术支持。 |
72 |
Cannot communicate with iButton to retrieve premium features. This is probably because of extreme temperatures. The system has halted! |
原因:无法与RAID key通信进行高级特性检索。这可能是由极端温度引起的。 处理方法: l 检查线缆连接。 l 确保RAID key在位。 l 检查RAID key周边的环境温度。 l 如果问题仍然存在,联系技术支持。 |
73 |
Consecutive power loss detected during I/O transactions on non-optimal write-back volumes. This might have resulted in data integrity issues. Press 'X' to proceed. |
原因:在非最优的write-back写策略的volume上,I/O活动期间发生连续多次掉电。这可能导致数据完整性问题。 处理方法: l 检查控制卡是否牢牢固定在PCI插槽中。 l 检查电源、电池和超级电容。 l 如发现硬件缺陷,联系技术支持。 |
74 |
USB cache device is not responding. Power down the system for 2 minutes to attempt recovery and avoid cache data loss, and then power-on. |
原因:USB缓存设备无响应。 处理方法: l LSI SAS2208控制卡支持USB缓存卸载。确保USB缓存在位且安全。 l 插拔并更换USB缓存。 l 将系统断电2分钟,以尝试恢复和避免缓存数据丢失,然后上电。 |
75 |
Bad or missing RAID controller memory module detected. Press D to downgrade the RAID controller to iMR mode. Warning! Downgrading to iMR mode, might result in incompatible Logical drives. Press any other key to continue, controller shall boot to safe mode. |
原因:检测到RAID控制卡内存模块损坏或丢失。 处理方法:更换RAID控制卡。 |
B |
||
BGI |
background initialization |
后台初始化 |
BIOS |
basic input output system |
基本输入输出系统 |
E |
||
EFI |
Extensible Firmware Interface |
可扩展固件接口 |
F |
||
FGI |
foreground initialization |
前台初始化 |
G |
||
GB |
gigabyte |
千兆字节 |
H |
||
HBA |
host bus adapter |
主机总线适配器 |
HDD |
hard disk drive |
机械硬盘 |
I |
||
iBMC |
Intelligent Baseboard Management Controller |
智能管理系统 |
IOPS |
input/output operations per second |
每秒进行读写操作的次数 |
I/O |
input/output |
输入输出 |
O |
||
OS |
operating system |
操作系统 |
J |
||
JBOD |
Just a Bundle Of Disks |
磁盘簇 |
K |
||
KB |
kilobyte |
千字节 |
M |
||
MB |
megabyte |
百万字节 |
L |
||
LD |
Logical Drive |
逻辑盘 |
LUN |
logical unit number |
逻辑单元号 |
P |
||
PCIe |
Peripheral Component Interconnect Express |
快捷外围部件互连标准 |
R |
||
RAID |
redundant array of independent disks |
独立磁盘冗余数组 |
S |
||
SAS |
serial attached SCSI |
串行连接的SCSI |
SATA |
Serial Advanced Technology Attachment |
串行高级技术附件 |
SED |
self-encrypting drive |
自加密硬盘 |
SMART |
Self Monitoring Analysis and Reporting Technology |
自我监控分析和报告技术 |
SMP |
Serial Management Protocol |
串行管理协议 |
SSD |
solid-state drive |
固态硬盘 |
SSP |
Serial SCSI Protocol |
串行SCSI协议 |
STP |
Serial ATA Tunneling Protocol |
串行ATA隧道协议 |
T |
||
TB |
terabyte |
百万兆字节 |
TM |
Task Management |
任务管理 |
U |
||
UEFI |
Unified Extensible Firmware Interface |
统一可扩展固件接口 |
V |
||
VD |
Virtual Drive |
虚拟磁盘 |