01-正文
本章节下载: 01-正文 (36.54 MB)
目 录
3.5.4 BIOS下的Advanced界面无法找到RAID卡或Advanced中RAID卡状态显示Not Healthy
3.5.4.1 The following VDs have missing disks
3.5.4.2 There are offline or missing virtual drives with preserved cache
3.5.4.4 Number of disks exceeded the maximum supported count of 32 disks
3.5.4.5 Memory/battery problems were detected / Unexpected power-loss occurred
3.5.5 将Controller Mode恢复为“RAID”
3.6.2.1 Configuration Management
3.6.2.3 Virtual Drive Management
3.6.4 View Foreign Configuration
3.6.7 Manage MegaRAID Advanced Software Options
3.7.2.7 设置BIOS Stop on Error功能
3.7.2.16 查询和设置RAID重构/回拷/系统巡检功能
3.7.2.20 查询和清除PreservedCache数据
4.5.3 BIOS下的Advanced界面无法找到RAID卡或Advanced中RAID卡状态显示Not Healthy
4.5.3.1 The following VDs have missing disks
4.6.2.1 Configuration Management
4.6.2.3 Virtual Drive Management
4.6.4 View Foreign Configuration
4.6.7 Manage MegaRAID Advanced Software Options
4.7.2.7 设置BIOS Stop on Error功能
4.7.2.14 查询和设置RAID重构/回拷/系统巡检功能
4.7.2.18 查询和清除PreservedCache数据
5.5.3 BIOS下的Advanced界面无法找到RAID卡或Advanced中RAID卡状态显示Not Healthy
5.5.3.1 The following VDs have missing disks
5.6.2.1 Configuration Management
5.6.2.3 Virtual Drive Management
5.6.4 View Foreign Configuration
5.6.7 Manage MegaRAID Advanced Software Options
5.7.2.7 设置BIOS Stop on Error功能
5.7.2.14 查询和设置RAID重构/回拷/系统巡检功能
6.5.4 BIOS下的Advanced界面无法找到RAID卡或Advanced中RAID卡状态显示Not Healthy
6.5.4.1 The following VDs have missing disks
6.5.4.2 There are offline or missing virtual drives with preserved cache
6.5.4.4 Memory/battery problems were detected / Unexpected power-loss occurred
6.5.5 将Controller Mode恢复为“RAID”
6.6.2.1 Configuration Management
6.6.2.3 Virtual Drive Management
6.6.4 View Foreign Configuration
6.6.7 Manage MegaRAID Advanced Software Options
6.7.2.7 设置BIOS Stop on Error功能
6.7.2.16 查询和设置RAID重构/回拷/系统巡检功能
6.7.2.20 查询和清除PreservedCache数据
7.7.3 Configure Controller Settings
7.7.3.1 Modify Controller Settings
7.7.3.2 Advanced Controller Settings
7.7.3.7 Configure Controller Port Mode
7.7.6 Set Bootable Device(s) for Legacy Boot Mode
7.8.2.2 查询物理硬盘、Array、LD、maxCache等相关信息
8.7.3 Configure Controller Settings
8.7.3.1 Modify Controller Settings
8.7.3.2 Advanced Controller Settings
8.7.3.6 Configure Controller Port Mode
概述
本文档为维护服务器的人员编写。介绍H3C UniServer R4960 G3 V2服务器RAID控制卡的外观及特性、如何配置RAID、如何安装驱动软件等信息。
RAID控制卡仅在EFI或UEFI模式下支持安全启动,并使用BIOS提供的安全认证机制。
读者对象
本文档主要适用于以下工程师:
l 企业管理员
l 企业终端用户
本文档认定读者对服务器产品有足够的了解,拥有足够的培训知识,在维护过程中不会造成人身伤害或产品损坏。
符号约定
在本文中可能出现下列标志,它们所代表的含义如下。
符号 |
说明 |
表示如不避免则将会导致死亡或严重伤害的具有高等级风险的危害。 |
|
表示如不避免则可能导致死亡或严重伤害的具有中等级风险的危害。 |
|
表示如不避免则可能导致轻微或中度伤害的具有低等级风险的危害。 |
|
用于传递设备或环境安全警示信息。如不避免则可能会导致设备损坏、数据丢失、设备性能降低或其它不可预知的结果。 “须知”不涉及人身伤害。 |
|
对正文中重点信息的补充说明。 “说明”不是安全警示信息,不涉及人身、设备及环境伤害信息。 |
由于现代数据中心业务量的与日俱增,单台服务器上需要运行的数据也日益增多。当单个物理磁盘在容量和安全性上不足以支持系统业务时,就需要将多个磁盘以某种特定方式组合起来,对外作为一个可见的磁盘来使用,才可满足实际需要。磁盘组,就是将一组物理磁盘组合起来,作为一个整体对外体现,是虚拟磁盘的基础。
虚拟磁盘,即使用磁盘组划分出来的连续的数据存储单元,相当于一个个独立的磁盘,通过一定的配置,使其具有比单个物理磁盘更大的容量,及更高的安全性和数据冗余性。
一个虚拟磁盘可以是:
l 一个完整的磁盘组。
l 多个完整的磁盘组。
l 一个磁盘组的一部分。
l 多个磁盘组的一部分(每个磁盘组划分一部分,共同组成虚拟磁盘)。
在下文的描述中:
l 磁盘组一般会表述为“Drive Group”(简称“DG”)、“Array”。
l 虚拟磁盘一般会表述为“Virtual Drive”、“Virtual Disk”(简称“VD”)、“Volume”、“Logical Device”(简称“LD”)等。
RAID(Redundant Arrays of Independent Disks)是将多块物理磁盘通过RAID控制器组合成虚拟的单块大容量磁盘使用,从而提供比单个磁盘更高的存储性能、更高的I/O性能及可靠性。
RAID 0又称为条带化(Stripe)或分条(Striping),代表了所有RAID级别中最高的存储性能。RAID 0提高存储性能的原理是把连续的数据分散到多个硬盘上存取。这样,当系统有数据请求时就可以在多个硬盘上并行执行,每个硬盘执行属于它自己的那部分数据请求。这种数据上的并行操作可以充分利用总线的带宽,显著提高硬盘整体读写性能。但由于其没有数据冗余,无法保护数据的安全性,只能适用于I/O要求高,但数据安全性要求低的场合。
处理流程
如图1-1所示,系统向三块硬盘组成的逻辑硬盘(RAID 0硬盘组)发出的I/O数据请求被转化为三项操作,其中的每一项操作都对应于一块物理硬盘。
通过建立RAID 0,原先顺序的数据请求被分散到所有的三块硬盘中同时执行。
三块硬盘的并行操作在理论上使同一时间内硬盘读写速度提升了3倍。虽然由于总线带宽等多种因素的影响,实际的提升速率会低于理论值,但是大量数据并行传输与串行传输比较,提速效果显著。
RAID 1又称镜像(Mirror或Mirroring),即每个工作盘都有一个镜像盘,每次写数据时必须同时写入镜像盘,读数据时同时从工作盘和镜像盘读出。当更换故障盘后,数据可以重构,恢复工作盘正确数据。RAID 1可靠性高,但其有效容量减小到总容量一半,因此常用于对容错要求较高的应用场合,如财政、金融等领域。
处理流程
如图1-2所示,系统向两块硬盘组成的逻辑硬盘(RAID 1硬盘组)发出I/O数据请求。
l 向硬盘Drive 0写入数据时,系统会同时把用户写入Drive 0的数据自动复制到Drive 1上。
l 读取数据时,系统同时从Drive 0和Drive 1读取。
RAID 1ADM的每个工作盘都有两个镜像盘,每次写数据时必须同时写入镜像盘,读数据时同时从工作盘和镜像盘读出。当更换故障盘后,数据可以重构,恢复工作盘正确数据。RAID 1ADM可靠性比RAID 1高,但其有效容量减小到总容量的三分之一,因此常用于对容错要求较高的应用场合,如财政、金融等领域。
处理流程
如图1-3所示,系统向三块硬盘组成的逻辑硬盘(RAID 1ADM硬盘组)发出I/O数据请求。
l 向硬盘Drive 0写入数据时,系统会同时把用户写入Drive 0的数据自动复制到Drive 1和Drive 2上。
l 读取数据时,系统同时从Drive 0、Drive 1和Drive 2读取。
RAID 5是一种存储性能、数据安全和存储成本兼顾的存储解决方案。为保障存储数据的可靠性,采用循环冗余校验方式,并将校验数据分散存储在RAID的各成员盘上。当RAID的某个成员盘出现故障时,通过其他成员盘上的数据可以重新构建故障硬盘上的数据。RAID 5既适用于大数据量的操作,也适用于各种小数据的事务处理,是一种快速、大容量和容错分布合理的磁盘阵列。
处理流程
如图1-4所示,PA为A0、A1和A2的奇偶校验信息,PB为B0、B1和B2 的奇偶校验信息,以此类推。
RAID 5不对存储的数据进行备份,而是把数据和相对应的奇偶校验信息存储到成员盘上,并且奇偶校验信息和相对应的数据分别存储于不同的硬盘上。当RAID 5的一个硬盘数据发生损坏后,利用剩下的数据和相应的奇偶校验信息可以恢复被损坏的数据。
RAID 5可以理解为是RAID 0和RAID 1的折衷方案:
l RAID 5可以为系统提供数据安全保障,但保障程度要比RAID 1低而硬盘空间利用率要比RAID 1高,存储成本相对较低。
l RAID 5具有较RAID 0略低的数据读写速度,但写性能比写入单个硬盘时要高。
在RAID 5的基础上,RAID 6增加了第二个独立的奇偶校验信息块。两个独立的奇偶系统使用不同的算法,数据的可靠性非常高,即使两块磁盘同时失效也不会影响数据的使用。但RAID 6需要分配给奇偶校验信息更大的磁盘空间,相对于RAID 5有更大的“写损失”,因此“写性能”较差。
处理流程
如图1-5所示,PA为数据块A0、A1、A2的第一个校验信息块,QA为第二个校验信息块;PB为数据块B0、B1、B2 的第一个校验信息框,QB为第二个校验信息块,以此类推。
数据块和校验块一起分散存储到RAID 6的各个成员盘上。当任意一个或两个成员硬盘出现故障时,控制器可以从其他处于正常状态的硬盘上重新恢复或生成丢失的数据而不影响数据的可用性。
RAID 10是将镜像和条带进行两级组合的RAID级别,即RAID 1+RAID 0的组合形式,第一级是RAID 1,第二级是RAID 0。RAID 10是存储性能和数据安全兼顾的方案。它在提供与RAID 1一样的数据安全保障的同时,也提供了与RAID 0近似的存储性能。
处理流程
如图1-6所示,Drive 0和Drive 1组成一个子组0,Drive 2和Drive 3组成一个子组1,子组内的两个硬盘互为镜像。
系统向硬盘发出I/O数据请求时,原先顺序的数据请求按照RAID 0的方式,被分散到两个子组中并行执行,同时通过RAID 1的方式,系统在向硬盘Drive 0写入数据的同时把数据自动复制到硬盘Drive 1上,向硬盘Drive 2写入数据的同时把数据自动复制到硬盘Drive 3上。
RAID 10ADM是将镜像和条带进行两级组合的RAID级别,即RAID 1ADM+RAID 0的组合形式,第一级是RAID 1ADM,第二级是RAID 0。RAID 10ADM是存储性能和数据安全兼顾的方案。它在提供与RAID 1ADM一样的数据安全保障的同时,也提供了与RAID 0近似的存储性能。
处理流程
如图1-7所示,Drive 0、Drive 1和Drive 2组成一个子组0,Drive 3、Drive 4和Drive 5组成一个子组1,子组内的硬盘互为镜像。
系统向硬盘发出I/O数据请求时,原先顺序的数据请求按照RAID 0的方式,被分散到两个子组中并行执行,同时通过RAID 1ADM的方式,系统在向硬盘Drive 0写入数据的同时把数据自动复制到硬盘Drive 1和Drive 2上,向硬盘Drive 3写入数据的同时把数据自动复制到硬盘Drive 4和Drive 5上。
RAID 1E为RAID 1的增强版,工作原理与RAID 1类似。RAID 1E的数据条带及数据备份贯穿在逻辑盘中所有的硬盘当中。跟RAID 1类似,数据是镜像的,逻辑盘的容量是硬盘总容量的一半,可提供数据冗余功能及较高的性能。然而,RAID 1E允许使用更多的物理硬盘,至少由三个硬盘组成。
处理流程
如图1-8所示,系统向三块硬盘组成的逻辑硬盘(RAID 1E硬盘组)发出I/O数据请求。条带数据均匀分布在3个硬盘中,任意一个条带数据都在其他硬盘中有自己的备份。此时,如果有单个硬盘故障,不会造成数据丢失。
RAID 50被称为镜像阵列条带,即RAID 5+RAID 0的组合形式。像RAID 0一样,数据被分区成条带,在同一时间内向多块磁盘写入;像RAID 5一样,也是以数据的校验位来保证数据的安全,且校验条带均匀分布在各个磁盘上。
处理流程
如图1-9所示,PA为A0、A1和A2的奇偶校验信息,PB为B0、B1和B2的奇偶校验信息,以此类推。
RAID 50是RAID 5与RAID 0两种技术的结合,一个RAID 50由多个RAID 5子组组成,数据的存储访问以RAID 0的形式分布在各个RAID 5子组上。依靠RAID 5提供的冗余功能,在子组内部任意一个硬盘故障,阵列均可正常工作并恢复出故障硬盘的信息。同样,故障硬盘的更换不会影响业务的正常进行。因此,RAID 50可以容忍多个子组同时单盘故障,这是单纯RAID 5技术无法做到的。同时,由于数据分布在多个子组上,阵列可以提供更加优秀的读写性能。
RAID 60同RAID 50类似,数据采用镜像阵列条带分布方式,即RAID 6 + RAID 0的组合形式。像RAID 0一样,数据被分区成条带,在同一时间内向多块磁盘写入;像RAID 6一样,以两个数据校验模块来保证数据的安全,且校验条带均匀分布在各个磁盘上。
处理流程
如图1-10所示,PA为A0、A1和A2的校验信息1,QA为A0、A1和A2的校验信息2,PB为B0、B1和B2的校验信息1,QB为B0、B1和B2的校验信息2,以此类推。
RAID 60是RAID 6与RAID 0两种技术的结合,一个RAID 60由多个RAID 6子组组成,数据的存储访问以 RAID 0的形式分布在各个RAID 6子组上。依靠RAID 6提供的冗余功能,在子组内部任意两个硬盘故障,阵列均可正常工作并恢复出故障硬盘的信息。同样,故障硬盘的更换不会影响业务的正常进行。
l RAID 0:不提供容错功能。任意一个成员盘出现故障,都会导致数据丢失。通过条带化方式同时在多个成员盘中写入数据。RAID 0对于需要高性能但不需要容错的应用场景非常理想。
l RAID 1:提供100%的数据冗余能力。当一个成员盘故障时,可以使用RAID组中对应的其他磁盘的数据来运行系统,并重构故障盘。因为一个成员盘的内容会完全备份写入另一个磁盘, 所以如果其中一个成员盘出现故障, 则不会丢失任何数据。成对的成员盘在任何时候都包含相同的数据。RAID 1组是需要最大容错能力和最小容量要求的应用场景的理想选择。
l RAID 5:结合了分布式奇偶校验和磁盘条带化。奇偶校验在不需要备份全部磁盘内容的情况下,为1个磁盘提供了冗余特性。当一个成员盘故障时,RAID控制卡使用奇偶校验数据来重构所有丢失的信息。RAID 5使用较小的系统开销为系统提供了足够的容错能力。
l RAID 6:结合了分布式奇偶校验和磁盘条带化。奇偶校验在不需要备份全部磁盘内容的情况下,为2个磁盘提供了冗余特性。当一个成员盘故障时,RAID控制卡使用奇偶校验数据来重构所有丢失的信息。RAID 6使用较小的系统开销为系统提供了足够的容错能力。
l RAID 10:使用多个RAID 1提供完整的数据冗余能力。RAID 10对所有需要通过镜像磁盘组提供100% 冗余能力的场景都适用。
l RAID 50:使用多个RAID 5的分布式奇偶校验提供数据冗余能力。在保证数据完整性的情况下,每个RAID 5分组允许1个成员盘故障。
l RAID 60:使用多个RAID 6的分布式奇偶校验提供数据冗余能力。在保证数据完整性的情况下,每个RAID 6分组允许2个成员盘故障。
RAID组可作为一个单独的存储单元或多个虚拟单元被系统使用。由于可以同时访问多个磁盘,使得针对RAID组的I/O读写速率较普通磁盘更高。
l RAID 0:提供优异的性能。RAID 0将数据分割为较小的数据块并写入到不同的磁盘中,由于可以同时对多个磁盘进行读写,RAID 0提升了IO性能。
l RAID 1:由于RAID组中的硬盘都是成对出现,写数据时也必须同时写入2份,从而占用更多的时间和资源,导致性能降低。
l RAID 5:提供了较高的数据吞吐能力。由于成员盘上同时保留常规数据和校验数据,每个成员盘都可以独立读写,再加上完善的Cache算法,使得RAID 5在很多应用场景中都有出色的性能表现。
l RAID 6:在需要高可靠性、高响应率、高传输率的场景下,RAID 6是较为适合的RAID级别,其提供了高数据吞吐量、数据冗余性和较高的IO性能。由于RAID 6需要为每个成员盘写入2套校验数据,导致其在写操作期间性能降低。
l RAID 10:由RAID 0子组提供高数据传输率的同时,RAID 10在数据存储方面表现优异。IO性能随着子组数量的增加而提升。
l RAID 50:在需要高可靠性、高响应率、高传输率的场景下,RAID 50表现最好。IO性能随着子组数量的增加而提升。
l RAID 60:使用场景与RAID 50类似,但是由于每个成员盘必须写入2组奇偶校验数据,使得在写操作中性能降低,因此RAID 60不适用于大量写入任务。
在选择RAID级别时,其存储容量也是一个重要参数。
l RAID 0:在指定一组磁盘后,同等情况下,RAID 0可以提供个最大的存储容量,可用容量=成员盘容量之和。
l RAID 1:由于对一个磁盘进行写入时,必须同时写入另一个磁盘,导致存储空间损耗。可用容量=成员盘最小容量。
l RAID 5:校验数据块与常规数据块隔离,因此整体上来说,校验数据会占用1个成员盘的容量。可用空间=成员盘最小容量x(成员盘个数-1)。
l RAID 6:由于2个独立的校验数据块与常规数据块隔离,整体上来说,校验数据会占用2个成员盘的容量。可用空间=成员盘最小容量x(成员盘个数-2)。
l RAID 10:可用容量=子组容量之和。
l RAID 50:可用容量=子组容量之和。
l RAID 60:可用容量=子组容量之和。
本章节介绍RAID卡常见的功能。
不同型号的RAID卡支持的功能有所不同,具体请参见各个RAID卡对应的功能介绍章节。
容错是指在子系统出现磁盘错误或磁盘故障时,可以保证数据完整性和数据处理能力。RAID控制卡通过冗余的磁盘组在RAID 1、5、6、10、50、60上实现此功能。
在RAID 1中,由于数据镜像存储于成对的磁盘上,因此在成对的磁盘中的一个产生错误或故障时,不会造成数据丢失。同理,在RAID 5中,允许1个磁盘故障;在RAID 6中,允许2个磁盘故障。
而对于包含多个子组的RAID,RAID 10、50允许故障盘的个数与子组数相同,但是要求每个子组只能包含1个故障盘。RAID 60允许故障盘的个数为子组数的2倍,要求每个子组最多包含2个故障盘。
RAID 0不支持容错特性,当RAID 0中的磁盘故障时,该RAID失效,数据丢失。
容错性能提高了系统的可用性,即磁盘故障时,系统仍可正常运行。因此,在故障修复流程中,容错是非常重要的特性。
针对有冗余功能的RAID 1、5、6、10、50、60,RAID控制卡可以对RAID组的硬盘数据进行一致性检查,对磁盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。
由于RAID 0不具备冗余性,因此不支持一致性检查。
建议每月至少进行一次一致性检查。
RAID控制卡的热备份特性由热备盘和紧急备份功能实现。
热备盘
热备盘是磁盘系统中的一个独立的磁盘,当RAID组中的磁盘故障时,热备盘自动补充到RAID组中,替代故障盘的功能,提供系统的容错性能。
在RAID控制卡的管理界面或命令行工具中,可以指定容量大于或等于RAID组成员盘,且介质类型及接口与成员盘相同的空闲盘作为RAID组的热备盘。
RAID控制卡支持的热备盘包括下面两种:
l 全局热备盘,为RAID控制卡上所有已配置的RAID组所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID组内的成员盘故障时,全局热备盘均可自动替代。
l 局部热备盘,为RAID控制卡上某个指定的RAID组所专有,每个RAID组都可以配置1个或多个局部热备盘。当指定RAID组内的成员盘故障时,局部热备盘可自动替换。
热备盘有如下特性:
l 热备盘仅用于具有冗余功能的RAID组,包括RAID 1、5、6、10、50、60。
l 热备盘仅用于替代同一RAID控制卡上的故障盘。
紧急备份
紧急备份功能,是指任意一个具备冗余功能的RAID组中出现成员盘故障且没有指定热备盘时,RAID控制卡下属的空闲盘会自动替代故障成员盘并进行重构,避免数据丢失。
紧急备份要求用于备份的空闲盘容量大于等于成员盘容量,且介质类型与成员盘相同。
当RAID组中出现故障盘时,可以通过RAID控制卡的数据重构功能,将故障盘中的数据在新盘上重构。数据重构功能仅适用于具有冗余功能的RAID 1、5、6、10、50、60。
RAID控制卡支持热备盘自动重构故障成员盘数据。当RAID组配置了可用的热备盘时,在成员盘故障的情况下,热备盘自动替换故障盘,进行数据重构;当RAID组没有可用的热备盘时,只有更换新盘后才可进行数据重构。当热备盘开始数据重构后,故障的成员盘就被标注为可移除状态。如果在数据重构过程中系统下电,那么在系统重新启动后,RAID控制卡会继续执行数据重构的任务。
重构率,即数据重构任务在系统运行的所占用CPU资源的比率,可设置为0%~100%。0%表示数据重构任务只有系统当前没有任何其他任务运行时,才会启动数据重构任务。100%表示数据重构任务占用所有CPU资源。重构率可由用户自行设置,建议根据系统的实际情况设置一个合适的取值。
RAID控制卡下属的物理磁盘有如表1-1所示的状态。
状态 |
说明 |
Online |
为某个虚拟磁盘的成员盘,可正常使用,处于在线状态。 |
Unconfigured Good |
磁盘状态正常,但不是虚拟磁盘的成员盘或热备盘。 |
Hot Spare |
被设置为热备盘。 |
Failed |
当“Online”状态或“Hot Spare”状态的磁盘出现不可恢复的错误时,会体现为此状态。 |
Rebuild/Rebuilding |
硬盘正在进行数据重构,以保证虚拟磁盘的数据冗余性和完整性,此时虚拟磁盘的性能会受一定程度的影响。 |
Unconfigured Bad |
“Unconfigured Good”状态磁盘或未初始化的磁盘,出现无法恢复的错误时,会体现为此状态。 |
Missing |
“Online”状态的磁盘被拔出后,体现为此状态。 |
Offline |
为某个虚拟磁盘的成员盘,不可正常使用,处于离线状态。 |
Shield State |
物理磁盘在做诊断操作时的临时状态。 |
Copyback |
新盘正在替换热备盘。 |
Unsupport |
硬盘规格超过RAID控制卡当前规格。 |
Raw(Pass Through) |
HBA模式下直通盘 |
Ready |
适用于RAID控制卡的RAID/Mixed模式,硬盘可用于配置RAID组,RAID模式下Ready状态的硬盘不上报操作系统(以下简称“OS”),Mixed模式下Ready状态的硬盘会上报OS。 |
Predictive Failure |
硬盘即将变为Failed状态,应备份硬盘上的数据,并更换硬盘。 |
RAID控制卡下创建的虚拟磁盘有如表1-2所示的状态。
状态 |
说明 |
Optimal |
虚拟磁盘状态良好,所有成员盘均在线。 |
Degraded |
虚拟磁盘可用但状态异常,存在成员盘故障或离线的情况。 |
Failed |
虚拟磁盘故障。 |
Partial Degraded |
当RAID组中的物理硬盘故障或离线的数量未超过该RAID组级别支持的最大故障硬盘的数量时,RAID组会体现为部分降级状态。 |
Offline |
当RAID组中的物理硬盘故障或离线的数量超过该RAID组级别支持的最大故障硬盘的数量时,RAID组会体现为该状态。 |
在创建虚拟磁盘时,会需要对其数据读写策略进行定义,以规范后续虚拟磁盘运行过程中数据的读写方式。
数据读策略
在配置界面中一般体现为“Read Policy”。RAID卡支持如下两种数据读策略:
l 预读取方式:在配置界面中一般有“Always Read Ahead”、“Read Ahead”、“Ahead”等配置选项。使用此策略后,从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少磁盘寻道操作,节省响应时间,提高了数据读取速度。
要使用该策略,要求RAID控制卡支持数据掉电保护功能,但如果此时超级电容异常,可能导致数据丢失。
l 非预读取方式:使用此策略后,RAID卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。
数据写策略
在配置界面中一般体现为“Write Policy”。RAID卡支持如下三种数据写策略:
l 回写:在配置界面中一般体现为“Write Back”等字样。使用此策略后,需要向虚拟磁盘写数据时,会直接写入Cache中,当写入的数据积累到一定程度,RAID卡才将数据刷新到虚拟磁盘,这样不但实现了批量写入,而且提升了数据写入的速度。当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。
要使用该策略,要求RAID卡支持数据掉电保护功能,但如果此时超级电容异常,可能导致数据丢失。
l 直写:在配置界面中一般有“Write Through”等选项。使用此策略后,RAID卡向虚拟磁盘直接写入数据,不经过Cache。当磁盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。
此种方式不要求RAID卡支持数据掉电保护功能,即使超级电容故障,也无影响。该写策略的缺点是写入速度较低。。
l 与BBU相关的回写:在配置界面中一般有“Write Back with BBU”等选项。使用此策略后,当RAID卡BBU在位且状态正常时,RAID卡到虚拟磁盘的写操作会经过Cache中转(即回写方式);当RAID卡BBU不在位或BBU故障时,RAID卡到虚拟磁盘的写操作会自动切换为不经过Cache的直接写入(即写通方式)。
掉电保护的原理
数据写入RAID控制卡高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用RAID控制卡高速缓存来提升系统性能。
l 开启RAID控制卡高速缓存可提升整机写性能,当服务器写压力减小或RAID控制卡高速缓存将写满时,数据再由RAID控制卡高速缓存写入硬盘。
l 开启RAID控制卡高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,RAID控制卡高速缓存中的数据将会丢失。
为了提升整机的高读写性能和RAID控制卡高速缓存中数据的安全,可为RAID控制卡配置超级电容。超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将RAID控制卡高速缓存中的数据写入超级电容模块中的NAND Flash中永久保存。
超级电容电量校准
由于数据保护需要超级电容的配合,为了记录超级电容的放电曲线,以便RAID控制卡了解超级电容的状态,例如最大和最小电压等,同时为了延长超级电容的寿命,RAID控制卡默认启动超级电容自动校准模式。
RAID控制卡通过如下所述的三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。
1. RAID控制卡将超级电容的电量充到最大值。
2. 自动启动校准进程,将超级电容完全放电。
3. 重新开始充电,直至达到最大电量。
超级电容电量校准过程中,RAID控制卡写策略自动调整为“Write Through”模式以保证数据完整性,此时RAID控制卡性能会降低。电量校准的周期取决于超级电容充放电速度。
当多个进程同时访问一个磁盘时,可能会出现磁盘冲突。大多数磁盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问磁盘的进程就需要等待。
条带化是一种自动的将I/O的负载均衡到多个物理磁盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同磁盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成磁盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。
磁盘的条带化,是将磁盘空间按照设定的大小分为多个条带,数据写入时也按照条带的大小来划分数据模块。
例如,在一个由四个成员盘组成的磁盘系统中(例如RAID 0),第一个数据块写入第一块成员盘,第二个数据块写入第二个成员盘,以此类推,如图1-11所示。由于是同时对多个磁盘进行写入,因此极大地提升了系统性能,但是,此特性并不能保证数据的冗余性。
磁盘分条包含下面的概念:
l 条带宽度:一个磁盘组在进行分条时所使用的磁盘的个数,例如一个由四个成员盘组成的磁盘组,其条带宽度为“4”。
l 磁盘组的条带大小:RAID控制卡同时在一个磁盘组中所有磁盘上的写入的数据块的合集。
l 磁盘的条带大小:单个磁盘上划分的条带的大小。
例如,针对一个磁盘组,在写入数据时,一个1MB的数据条带,在每个成员盘上分配的数据块为64KB,那么此磁盘组的条带大小为1MB,磁盘的条带大小为64KB。
磁盘镜像,适用于RAID 1和RAID 10,是指执行写数据的任务时,会将同样的数据同时写入两块磁盘,以实现100%的数据冗余度。由于两块磁盘上的数据完全相同,当一块磁盘故障时,数据不会丢失。另外,同一时间,两块盘上的数据是完全相同的,当一块磁盘故障时,由于数据是同时读写,因此数据流不会中断。
磁盘镜像带来的是100%的完全冗余,但是其代价是比较昂贵的,因为在镜像过程中,每个磁盘都需要一个备份盘,如图1-12所示。
外部配置,是区别于当前RAID控制卡的配置来说的,在配置界面中一般体现为“Foreign Configuration”之类的字样。
一般在下述情况下,会有外部配置出现:
l 一个新安装到服务器上的物理磁盘中存在RAID配置信息,RAID控制卡会将此类信息识别为外部配置。
l 服务器更换了RAID控制卡后,新RAID控制卡会将当前存在的RAID信息识别为外部配置。
l 热插拔RAID组的成员盘后,该成员盘会被标记为携带外部配置。
对检测出来的外部配置,可以根据服务器实际情况进行处理。例如,当新插入的硬盘携带的RAID信息不符合当前使用场景时,可以删除此配置。更换RAID控制卡后,如果仍然想使用之前的配置,就可以导入该配置,使其在新RAID控制卡上生效。
RAID控制卡具备硬盘节能功能。此功能根据磁盘配置和I/O活动允许磁盘停转。所有旋转式SAS和SATA硬盘均支持此功能。
当硬盘节能功能开启时,RAID控制卡下挂载的空闲状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID组,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。
硬盘直通,即“JBOD”功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。
打开硬盘直通功能后,RAID控制器可对所连接的硬盘进行指令透传,在不配置RAID组的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。
例如,服务器操作系统安装过程中,可以直接找到挂载在RAID控制卡下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。
MSCC SmartRAID 3152-8i、MSCC SmartHBA 2100-8i的基本特性如表2-1所示,其他的RAID卡的基本特性如表2-2所示。
特性 |
MSCC SmartRAID 3152-8i |
MSCC SmartHBA 2100-8i |
接口速率 (Gbit/s) |
12 |
12 |
支持的RAID组数量 |
64 |
64 |
单个RAID组支持的最大硬盘数 |
128 |
128 |
所有RAID组包含的最大硬盘数量 |
238 |
238 |
是否支持硬盘直通 |
是 |
是 |
硬盘直通模式支持的硬盘数量 |
238 |
238 |
支持的最大硬盘数 |
238 |
238 |
是否支持MaxCache(备注1) |
是 |
否 |
Cache读写比例是否可调 |
是 |
NA |
MaxCache支持的SSD最大个数 |
128 |
NA |
MaxCache最大容量 |
6.8TB |
NA |
MaxCache支持的RAID级别 |
0/1/10/5 |
NA |
MaxCache是否支持热备 |
否 |
NA |
是否支持SSD IO Bypass |
是 |
是 |
是否支持4K盘 |
是 |
是 |
支持的RAID级别 |
RAID 0/1/1ADM/10/10ADM/5/50/6/60 |
RAID 0/1/10 |
是否支持设置条带单元 |
是(可设为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB) |
是(可设为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB) |
是否支持电池掉电保护 |
否 |
否 |
是否支持超级电容掉电保护 |
是 |
否 |
是否支持全局热备份功能 |
是 |
是 |
是否支持局部热备份功能 |
是 |
是 |
是否支持紧急热备份功能 |
NA |
NA |
支持的热备盘个数 |
32(每个Array最多支持4个热备盘) |
32(每个Array最多支持4个热备盘) |
是否支持RAID级别在线迁移 |
是(备注2) |
否 |
是否支持在线扩容 |
是(备注2) |
否 |
是否支持自动SMART扫描 |
是 |
是 |
是否支持Patrol Read |
是 |
是 |
是否支持一致性检查 |
是 |
是 |
是否支持Crypto加密 |
否 |
否 |
是否支持带外管理 |
否 |
否 |
备注1:MaxCache即CacheCade,Microsemi将该功能定义为“MaxCache”。 备注2:只支持在操作系统下进行,不支持在Legacy模式或EFI/UEFI模式下进行。 |
特性 |
Avago SAS3508 |
Avago SAS3408iMR |
Avago MegaRAID SAS 9460-8i |
Avago MegaRAID SAS 9440-8i |
接口速率(Gbit/s) |
12 |
12 |
12 |
12 |
支持的RAID组数量 |
64 |
32 |
64 |
32 |
单个RAID组支持的最大硬盘数 |
32/240(备注2) |
32 |
32 |
32 |
所有RAID组包含的最大硬盘数量(备注3) |
32/240(备注2) |
32 |
240 |
32 |
是否支持硬盘直通 |
是 |
是 |
是 |
是 |
硬盘直通模式支持的硬盘数量 |
32/240(备注2) |
63 |
240 |
63 |
支持的最大硬盘数 |
32/240(备注2) |
63 |
240 |
63 |
是否支持CacheCade |
否 |
否 |
否 |
否 |
Cache读写比例是否可调 |
NA |
NA |
NA |
NA |
CacheCade支持的SSD最大个数 |
NA |
NA |
NA |
NA |
CacheCade最大容量 |
NA |
NA |
NA |
NA |
CacheCade支持的RAID级别 |
NA |
NA |
NA |
NA |
CacheCade是否支持热备 |
NA |
NA |
NA |
NA |
是否支持FastPath |
是 |
是 |
是 |
是 |
是否支持4K盘 |
是 |
是 |
是 |
是 |
支持的RAID级别 |
0/1/10/5/50/6/60 |
0/1/10 |
0/1/10/5/50/6/60 |
0/1/5/10/50 |
是否支持设置条带单元 |
是(可设为64KB/128KB/256KB/512KB/1024KB) |
否(默认为64KB) |
是(可设为64KB/128KB/256KB/512KB/1024KB) |
否(默认为64KB) |
是否支持电池掉电保护 |
否 |
否 |
否 |
否 |
是否支持超级电容掉电保护 |
是 |
否 |
是 |
否 |
是否支持全局热备 |
是(备注1) |
是(备注1) |
是(备注1) |
是(备注1) |
是否支持局部热备 |
是(备注1) |
是(备注1) |
是(备注1) |
是(备注1) |
是否支持紧急热备 |
是 |
是 |
是 |
是 |
支持的热备盘个数 |
32/240(备注2) |
63 |
240 |
63 |
是否支持RAID级别在线迁移 |
是 |
是 |
是 |
是 |
是否支持在线扩容 |
是 |
是 |
是 |
是 |
是否支持自动SMART扫描 |
是 |
是 |
是 |
是 |
是否支持Patrol Read |
是 |
是 |
是 |
是 |
是否支持一致性检查 |
是(备注1) |
是(备注1) |
是(备注1) |
是(备注1) |
是否支持Crypto加密 |
否 |
否 |
否 |
否 |
是否支持带外管理 |
是 |
是 |
是 |
是 |
是否支持Cache |
是(2G/4G) |
否 |
是(2G/4G) |
否 |
备注1:RAID0除外。 备注2:Avago SAS3508支持2种规格的RAID Key,分别支持32盘和240盘。具体规格请参见3.2.1 支持RAID 0/1/5/6/10/50/60中的表3-2。 备注3:该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。 |
表中的“NA”表示不涉及。
RAID卡支持的各级别RAID的性能及硬盘利用率如表2-3。
RAID级别 |
可靠性 |
读性能 |
写性能 |
硬盘利用率 |
RAID 0 |
低 |
高 |
高 |
100% |
RAID 1 |
高 |
高 |
中 |
50% |
RAID 1ADM |
高 |
高 |
中 |
33% |
RAID 5 |
较高 |
高 |
中 |
(N-1)/N |
RAID 6 |
较高 |
高 |
中 |
(N-2)/N |
RAID 10 |
高 |
高 |
中 |
50% |
RAID 1E |
高 |
中 |
中 |
50% |
RAID 1ADM |
高 |
高 |
中 |
33% |
RAID 50 |
高 |
高 |
较高 |
(N-M)/N |
RAID 60 |
高 |
高 |
较高 |
(N-M*2)/N |
注:N为RAID成员盘的个数,M为RAID的子组数。 |
各RAID卡支持的硬盘接口类型如表2-4所示。
硬盘接口类型 |
SAS HDD |
SATA HDD |
SAS SSD |
SATA SSD |
NVMe PCIe SSD |
M.2 SATA SSD |
Avago SAS3508 |
支持 |
支持 |
支持 |
支持 |
不支持 |
不支持 |
Avago SAS3408iMR |
支持 |
支持 |
支持 |
支持 |
不支持 |
不支持 |
9440-8i |
支持 |
支持 |
支持 |
支持 |
不支持 |
不支持 |
9460-8i |
支持 |
支持 |
支持 |
支持 |
不支持 |
不支持 |
MSCC SmartRAID 3152-8i |
支持 |
支持 |
支持 |
支持 |
不支持 |
不支持 |
MSCC SmartHBA 2100-8i |
支持 |
支持 |
支持 |
支持 |
不支持 |
不支持 |
各个RAID控制卡支持配置的硬盘型号的详细信息可联系技术支持获得。
关于本章
本章节主要介绍Avago SAS3508 RAID控制卡的外观、特性、以及配置方法。
Avago SAS3508 RAID控制卡支持的服务器可联系技术支持获取。
Avago SAS3508 RAID 控制卡(以下简称Avago SAS3508)是基于MegaRAID架构的8端口12Gbit/s SAS控制器,并采用PCIe3.0x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。
Avago SAS3508用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。
Avago SAS3508支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考3.2.16 硬盘直通。
Avago SAS3508自带的Cache对RAID卡性能的提升有非常重要的作用,主要体现在:
l 在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。
l 在读数据时,如果可以直接在Cache中命中的话,将减少磁盘寻道操作,降低响应时间,提升了数据读速度。
l Cache数据的掉电保护依赖于与RAID控制卡相连的超级电容。超级电容的外形、连接方式、安装方式可参考各服务器的用户指南。
l Avago SAS3508分为支持配置超级电容与不支持配置超级电容两种形态,只有支持配置超级电容的RAID卡具有Cache数据的掉电保护功能。
Avago SAS3508包含PCIe标卡与扣卡两种形态:
l Avago SAS3508扣卡与主板通过1个Xcede连接器互连,与硬盘背板通过2个MINISAS线缆互联,结构如图3-1所示。
l Avago SAS3508的PCIe标卡安装在服务器的PCIe槽位上,结构如图3-2与图3-3所示。
1 |
超级电容 |
2 |
MiniSAS接口 |
3 |
超级电容接口 |
4 |
RAID卡 |
5 |
超级电容错误状态指示灯 |
6 |
Avago SAS3508 RAID卡写入/读出NAND Flash的状态指示灯 |
7 |
单板电源指示灯 |
8 |
系统心跳灯 |
9 |
Xcede连接器 |
– |
– |
Avago SAS3508单板指示灯说明如表3-1所示。
指示灯 |
颜色 |
说明 |
单板电源指示灯 |
绿色 |
l 亮:电源正常 l 灭:电源关闭或异常。 |
超级电容错误状态指示灯 |
红色 |
l 亮:超级电容状态异常。 l 灭:超级电容正常或不在位。 |
Avago SAS3508写入/读出NAND Flash的状态指示灯 |
绿色 |
l 亮:Avago SAS3508 RAID卡当前处于写入/读出NAND Flash的状态。 l 灭:Avago SAS3508 RAID卡当前不处于写入/读出NAND Flash的状态。 |
系统心跳灯 |
绿色 |
l 灯以2s周期闪烁:Avago SAS3508 RAID卡正在工作。 l 灯灭:Avago SAS3508 RAID卡未开始运行或FW运行异常。 |
Avago SAS3508在服务器主板上支持的硬盘、虚拟磁盘、硬盘组数量分别为:
l 最多支持32或240个硬盘(Avago SAS3508支持2种规格的RAID Key,分别支持32盘和240盘)。
该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。
l 最多支持64个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
l 最多支持64个硬盘组(即配置界面中看到的“Drive Group”),每个硬盘组最多支持32或240个硬盘。
l 每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
Avago SAS3508支持的RAID类型及对应的硬盘个数如表3-2所示。
RAID级别 |
支持硬盘数 |
支持子组数 |
子组支持硬盘数 |
允许坏盘数 |
RAID 0 |
1~32 |
不涉及 |
不涉及 |
0 |
RAID 1 |
2~32(偶数) |
硬盘数÷2 |
||
RAID 5 |
3~32 |
1 |
||
RAID 6 |
3~32 |
2 |
||
RAID 10 |
4~32/240(偶数) |
2~8个RAID 1 |
2~16/32(偶数) |
子组数 |
RAID 50 |
6~32/240 |
2~8个RAID 5 |
3~16/32 |
子组数 |
RAID 60 |
6~32/240 |
2~8个RAID 6 |
3~16/32 |
子组数x2 |
l 不支持RAID 00级别。
l 损坏的硬盘不能是连续的。具体说明请参见1.2 RAID级别介绍。
l 子组数:子RAID的个数,例如RAID 50由两个RAID 5组成,则子组数为2。
l RAID 10、RAID 50每个子组中最多允许1个坏盘。
l RAID 60每个子组中最多允许2个坏盘。
l 根据配置的key类型不同,RAID 10、50、60支持的硬盘数有所不同。
l RAID10、50、60包含的总硬盘数由子组数和子组支持的硬盘数共同决定。
Avago SAS3508的热备功能分为两种:热备盘和紧急备份。
热备盘
对服务器的硬盘进行RAID分组后,一般会配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l Global HSP:即全局热备盘,为RAID卡上所有已配置的RAID所共有,1块RAID卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
配置方法请参见3.4.1.1 配置全局热备盘。
l Dedicated HSP:即局部热备盘,为RAID卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。
配置方法请参见3.4.1.2 配置局部热备盘。
热备盘容量需大于等于成员盘容量。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须是SATA硬盘或SAS硬盘,容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
紧急备份
使能RAID卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
紧急备份同样要求用于备份的空闲盘容量大于等于成员盘容量。
紧急备份有两种情况,对应了两种设置:
l 当成员盘fail时,空闲盘替代成员盘作为紧急备份。
l 当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。
具体配置方法请参见3.4.2 设置紧急热备功能。
热插拔即带电插拔,用户不需要进行任何配置,就可以在不关闭系统、不切断电源的情况下取出和更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。
l 人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考3.4.9 导入/清空外部配置章节恢复RAID组,无需更换硬盘。
l 请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。
具备冗余功能的RAID的一块成员盘故障之后,热备盘自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。
条带化
当多个进程同时访问一个磁盘时,可能会出现磁盘冲突。大多数磁盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问磁盘的进程就需要等待。
条带化技术是一种自动的将I/O的负载均衡到多个物理磁盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同磁盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成磁盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。
影响条带化效果的因素有:
l 条带宽度:指同时可以并发读或写的条带数量。
这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。
l 条带单元:指写在每块磁盘上的条带数据块的大小。
分条
硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带单元大小进行分条,数据在写入时也会按照条带单元大小划分数据块。
Avago SAS3508支持多种条带单元,包括64KB、128KB、256KB、512KB及1MB。
配置RAID时一般采用默认值。
RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见3.4.5 迁移RAID级别。
当前支持以下级别类型的迁移:
l RAID 0迁移到RAID 1、RAID 5、RAID 6
l RAID 1迁移到RAID 0、RAID 5、RAID 6
l RAID 5迁移到RAID 0、RAID 6
l RAID 6迁移到RAID 0、RAID 5
RAID迁移对硬盘数量的最低要求如表3-3所示。
迁移RAID级别 |
原始磁盘组硬盘数量 |
需要增加硬盘数量 |
RAID 0迁移 RAID 1 |
1 |
1 |
RAID 0迁移到RAID 5 |
1 |
2 |
RAID 0迁移到RAID 6 |
1 |
2 |
RAID 1迁移到RAID 0 |
2 |
- |
RAID 1迁移到RAID 5 |
2 |
1 |
RAID 1迁移到RAID 6 |
2 |
1 |
RAID 5迁移到RAID 0 |
3 |
- |
RAID 5迁移到RAID 6 |
3 |
1 |
RAID 6迁移到RAID 0 |
3 |
- |
RAID 6迁移到RAID 5 |
3 |
- |
l 当RAID中包含了2个或2个以上的VD时,不支持RAID级别迁移。
l 迁移只支持增加与RAID组成员盘同类型同规格的硬盘。
VD初始化
创建VD(Virtual Drive)后,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。Avago SAS3508提供了多种相应的初始化方式:
l 快速初始化:属于前台初始化,Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。
l 慢速初始化:属于前台初始化,Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。
l 后台初始化:目的是使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。
− 对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。
− 对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。
一致性检查(CC)和后台初始化通常会对性能造成一定损失,直至该操作完成。
一致性检查和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性检查会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性检查,但不能手动启动后台初始化。
硬盘初始化
硬盘可执行的初始化包括:
l Initialize Drive:对前100MByte空间进行全写0操作。
l Drive Erase:对全部空间进行写0操作。
Avago SAS3508不支持停止SATA SSD的擦除和初始化过程。
Avago SAS3508支持的容量扩展方式有两种:
l 通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。
详细操作方法可参考3.4.3 添加新硬盘到RAID。
l 通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。
详细操作方法可参考3.4.4 扩展Virtual Drives可用空间。
l 只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。
l RAID10、RAID 50、RAID 60不支持增加硬盘扩容。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。RAID卡提供了三种级别的虚拟磁盘和硬盘的安全擦除功能:
l Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。
l Normal:对虚拟磁盘或硬盘进行三轮擦除动作。
l Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。
安全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。
Avago SAS3508支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。
系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况,称之为写洞。
将写失败的数据备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:
l 对于RAID 5、RAID 6、RAID 50,Write hole数据都保存在掉电保护区,不需要开关控制。
− 掉电保护装置可用时,Write hole数据异常掉电重启后会进入恢复流程。
− 掉电保护装置不可用时,记录在掉电保护区的Write hole数据异常掉电后丢失,不做Write hole恢复。
l RAID 6掉线一块盘时可做写洞保护。
l RAID 50部分降级时可做写洞保护,按子组恢复数据。RAID 50完全降级时不可做写洞保护。
l 不对RAID 0、RAID 1和RAID 10做写洞保护。
Avago SAS3508支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:
l Read:读策略选择“Read Ahead”模式,Avago SAS3508在读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少磁盘寻道操作,提升了数据读速度。
为达到更优的硬盘性能,对于HDD(机械硬盘),建议将读策略设置为“Read Ahead”,对于SSD(固态硬盘),建议将读策略设置为“No Read Ahead”。
l Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,Avago SAS3508就向HOST发出数据传输完成的信号。
在写数据时,直接写入Cache,当写入的数据积累到一定程度,Avago SAS3508才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。
数据写入高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用高速缓存来提升系统性能。
l 开启高速缓存可提升整机写性能,当服务器写压力减小或高速缓存将写满时,数据再由高速缓存写入硬盘。
l 开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。
为了提升整机的高读写性能和高速缓存中数据的安全,可为Avago SAS3508配置超级电容。
超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将高速缓存中的数据写入超级电容模块中的NAND Flash中。
Avago SAS3508分为支持配置超级电容与不支持配置超级电容两种形态,只有支持配置超级电容的RAID卡可以启用数据掉电保护功能。
超级电容电量校准
由于数据保护需要超级电容的配合,为了记录超级电容的放电曲线,以便RAID卡了解超级电容的状态,例如最大和最小电压等,同时为了延长超级电容的寿命,RAID卡默认启动超级电容自动校准模式。
RAID卡通过如下所述的三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。
1. RAID卡将超级电容的电量充到最大值。
2. 自动启动校准进程,将超级电容完全放电。
3. 重新开始充电,直至达到最大电量。
超级电容电量校准过程中,RAID卡写策略自动调整为“WT”模式以保证数据完整性,此时RAID卡性能会降低。电量校准的周期取决于超级电容充放电速度。
磁盘巡检功能设计为预防性措施,用于确保物理磁盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理磁盘上的潜在问题。
磁盘巡检根据未完成的磁盘I/O调整专用于磁盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则磁盘巡检将使用较少的资源,以使I/O获得更高的优先级。
磁盘巡检不能在参与以下任何操作的任何磁盘上运行:
l RAID热备修复
l 动态扩盘
l 完全初始化或后台初始化
l 一致性检查(CC)
S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据受到损失。
RAID卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,RAID卡便会记录日志。
RAID卡具备磁盘省电功能。此功能根据磁盘配置和I/O活动允许磁盘停转。所有旋转式SAS和SATA磁盘均支持此功能。
默认情况下,硬盘节能功能处于开启状态。
当硬盘节能功能开启且在指定时间内没有IO访问时,RAID卡下挂载的“Unconfig Good”状态的磁盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的磁盘。
硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。
Avago SAS3508可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在Avago SAS3508下的硬盘作为安装盘;而不支持硬盘直通的RAID卡,在操作系统安装过程中,只能找到该RAID卡下已经配置好的虚拟磁盘作为安装盘。
Avago SAS3508支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
如果需要使能硬盘直通功能,请在图3-92所示界面的“JBOD Mode”参数进行设置。
l 开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。
l JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时BMC会对其进行告警。
硬盘包含2个指示灯,其状态说明如表3-4所示。
指示灯 |
颜色 |
说明 |
硬盘Fault指示灯 |
黄色 |
l 灭:表示硬盘运行正常。 l 黄色闪烁:表示硬盘处于被定位状态或RAID重构状态。 l 黄色常亮:表示硬盘故障或RAID组中的成员盘状态异常。 说明 l 在线情况下,当Fault指示灯常亮时,可首先通过Show命令查询RAID状态,确定是RAID组成员盘状态异常,还是硬盘故障。 l 支持带外管理的RAID卡,硬盘处于“Unconfigured Good(Foreign)”状态下,BMC会对其进行告警,但是硬盘Fault指示灯不会被点亮。 l JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时BMC会对其进行告警。 |
硬盘Active指示灯 |
绿色 |
l 灭:表示硬盘不在位或硬盘故障。 l 绿色闪烁:表示硬盘处于读写状态或同步状态。 l 绿色常亮:表示硬盘处于非活动状态。 |
磁盘漫游是指在同一控制器下移动物理磁盘。控制器将自动识别重新定位的物理磁盘,并从逻辑上将其置于属于磁盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行磁盘漫游。
要使用磁盘漫游,按以下步骤操作:
1. 关闭操作系统。
2. 将服务器下电。
3. 将物理磁盘移动到背板所需位置。
4. 执行安全检查。确保正确插入物理磁盘。
5. 将服务器上电。
6. 控制器从物理磁盘上的配置数据中检测到RAID配置。
如果RAID卡检测到物理磁盘包含RAID配置信息,则会将该物理磁盘标记为“Foreign”,表明检测到外部磁盘。
此时,可执行导入操作将该外部配置在当前RAID卡环境中生效,实现配置迁移。
Avago SAS3508提供硬盘故障记录功能:
l 使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,用户可以自行决定清除或导入外部数据。
l 禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,Avago SAS3508会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。
维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。
l 使能该功能后,当硬盘故障时,会点亮Fault指示灯。
l 禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。
默认情况下,Avago SAS3508使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。
针对有冗余功能的RAID 1、5、6、10、50、60,RAID卡可以对RAID组的硬盘数据进行一致性检查,对磁盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。
由于RAID 0不具备冗余性,因此不支持一致性校验。
建议您每月至少进行一次一致性校验。
文档中描述的关于Avago SAS3508的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
步骤 1 通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 2 重启服务器。
步骤 3 重启过程中,当出现如图3-4所示界面时,按“Delete”,进入输入密码界面。
步骤 4 输入密码并按“Enter”。
进入Setup Utility界面。
BIOS的默认密码为“Password@_”。
步骤 5 通过“←”或“→ ”进入“Advanced”页签,如图3-5所示。
如果Advanced界面无法找到RAID卡或显示“Some drivers are not healthy”,请参见3.5.4 BIOS下的Advanced界面无法找到RAID卡或Advanced中RAID卡状态显示Not Healthy进行修复。
步骤 6 选择“Avago MegaRAID <SAS3508> Configuration Utility”,按“Enter”。
进入Avago SAS3508主界面,如图3-6所示,界面参数如表3-5所示。
参数 |
说明 |
Main Menu |
RAID卡主菜单,包含了RAID卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID卡当前工作状态。 |
Backplane |
背板个数。 |
BBU |
超级电容在位情况。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的磁盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 |
Configure |
提供删除配置的接口。 |
Set Factory Default |
恢复出厂设置。 |
Update Firmware |
升级固件。 说明 Avago SAS3508不支持在此界面升级FW。 |
Silence Alarm |
板载蜂鸣器的使能状态。 说明 Avago SAS3508未配置蜂鸣器,此项设置不起作用。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3508支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见3.2.1 支持RAID 0/1/5/6/10/50/60。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见3.3.1 进入管理界面。
步骤 2 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图3-7和图3-8所示,参数说明如表3-6所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 为达到更优的硬盘性能,对于HDD(机械硬盘),建议将读策略设置为“Read Ahead”,对于SSD(固态硬盘),建议将读策略设置为“No Read Ahead”。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当磁盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。 l Always Write Back:在RAID卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 “Always Write Back”模式下,当电容不在位或在充电状态下,RAID卡中DDR的写数据将会丢失。不推荐使用该模式。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID卡的Cache处理。) − 在写场景中,写数据经过RAID卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。
步骤 4 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图3-9所示,界面参数如表3-7所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 0支持的硬盘个数为1~32。
l 当RAID卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
5. 按表3-7所述配置过滤条件。
6. 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”返回上级界面。
步骤 5 按照表3-6所述配置虚拟磁盘的其他属性。
步骤 6 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 7 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3508支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见3.2.1 支持RAID 0/1/5/6/10/50/60。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见3.3.1 进入管理界面。
步骤 2 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图3-10和图3-11所示,参数说明如表3-8所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 为达到更优的硬盘性能,对于HDD(机械硬盘),建议将读策略设置为“Read Ahead”,对于SSD(固态硬盘),建议将读策略设置为“No Read Ahead”。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当磁盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。 l Always Write Back:在RAID卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 “Always Write Back”模式下,当电容不在位或在充电状态下,RAID卡中DDR的写数据将会丢失。不推荐使用该模式。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID卡的Cache处理。) − 在写场景中,写数据经过RAID卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。
步骤 4 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图3-12所示,界面参数如表3-9所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 1支持的硬盘个数为2~32(偶数)。
l 当RAID卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
5. 按表3-9所述配置过滤条件。
6. 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 按照表3-8所述配置虚拟磁盘的其他属性。
步骤 6 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 7 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3508支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见3.2.1 支持RAID 0/1/5/6/10/50/60。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见3.3.1 进入管理界面。
步骤 2 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图3-13和图3-14所示,参数说明如表3-10所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 为达到更优的硬盘性能,对于HDD(机械硬盘),建议将读策略设置为“Read Ahead”,对于SSD(固态硬盘),建议将读策略设置为“No Read Ahead”。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当磁盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。 l Always Write Back:在RAID卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 “Always Write Back”模式下,当电容不在位或在充电状态下,RAID卡中DDR的写数据将会丢失。不推荐使用该模式。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID卡的Cache处理。) − 在写场景中,写数据经过RAID卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 5”,并按“Enter”。
步骤 4 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图3-15所示,界面参数如表3-11所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 5支持的硬盘个数为3~32。
l 当RAID卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
5. 按表3-11所述配置过滤条件。
6. 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 按照表3-10所述配置虚拟磁盘的其他属性。
步骤 6 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 7 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3508支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见3.2.1 支持RAID 0/1/5/6/10/50/60。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见3.3.1 进入管理界面。
步骤 2 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图3-16和图3-17所示,参数说明如表3-12所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 为达到更优的硬盘性能,对于HDD(机械硬盘),建议将读策略设置为“Read Ahead”,对于SSD(固态硬盘),建议将读策略设置为“No Read Ahead”。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当磁盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。 l Always Write Back:在RAID卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 “Always Write Back”模式下,当电容不在位或在充电状态下,RAID卡中DDR的写数据将会丢失。不推荐使用该模式。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID卡的Cache处理。) − 在写场景中,写数据经过RAID卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 6”,并按“Enter”。
步骤 4 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图3-18所示,界面参数如表3-13所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 6支持的硬盘个数为3~32。
l 当RAID卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
5. 按表3-13所述配置过滤条件。
6. 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 按照表3-12所述配置虚拟磁盘的其他属性。
步骤 6 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 7 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3508支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见3.2.1 支持RAID 0/1/5/6/10/50/60。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见3.3.1 进入管理界面。
步骤 2 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图3-19和图3-20所示,参数说明如表3-14所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 为达到更优的硬盘性能,对于HDD(机械硬盘),建议将读策略设置为“Read Ahead”,对于SSD(固态硬盘),建议将读策略设置为“No Read Ahead”。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当磁盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。 l Always Write Back:在RAID卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 “Always Write Back”模式下,当电容不在位或在充电状态下,RAID卡中DDR的写数据将会丢失。不推荐使用该模式。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID卡的Cache处理。) − 在写场景中,写数据经过RAID卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。
步骤 4 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图3-21所示,界面参数如表3-15所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 按表3-15所述配置过滤条件。
5. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 10支持2~8个Span,每个Span支持的硬盘数为2~16/32(偶数),且各个Span的硬盘数量必须保持一致。
l RAID 10支持的硬盘总数为4~32/240(偶数)。
l 当RAID卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
6. 选择“Apply Changes”按“Enter”保存配置。
7. 单击“OK”完成成员盘配置。
当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如图3-22所示。
1. 选择“Add More Spans”并按“Enter”。
2. 选择“Select Drives”并按“Enter”。
3. 在打开的列表中选择第2个Span的成员盘。
各个Span的硬盘数量必须保持一致。
4. 选择完成后,选择“Apply Changes”并“Enter”。
提示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成成员盘配置。
步骤 6 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID10至少需要创建2个Span,最多可以创建8个Span。
步骤 7 按照表3-14所述配置虚拟磁盘的其他属性。
步骤 8 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 9 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3508支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见3.2.1 支持RAID 0/1/5/6/10/50/60。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见3.3.1 进入管理界面。
步骤 2 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图3-23和图3-24所示,参数说明如表3-16所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 为达到更优的硬盘性能,对于HDD(机械硬盘),建议将读策略设置为“Read Ahead”,对于SSD(固态硬盘),建议将读策略设置为“No Read Ahead”。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当磁盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。 l Always Write Back:在RAID卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 “Always Write Back”模式下,当电容不在位或在充电状态下,RAID卡中DDR的写数据将会丢失。不推荐使用该模式。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID卡的Cache处理。) − 在写场景中,写数据经过RAID卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 50”,并按“Enter”。
步骤 4 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图3-25所示,界面参数如表3-17所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 按表3-17所述配置过滤条件。
5. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 50支持2~8个Span,每个Span支持的硬盘数为3~16/32(取决于RAID Key的规格),各个Span的硬盘数量必须保持一致。
l RAID 50支持的硬盘总数为6~32/240(取决于RAID Key的规格)。
l 当RAID卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
6. 选择“Apply Changes”按“Enter”保存配置。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”完成成员盘配置。
当配置的级别为RAID 50时,需要配置多个Span,此时配置界面如图3-26所示。
1. 选择“Add More Spans”并按“Enter”。
2. 选择“Select Drives”并按“Enter”。
3. 在打开的列表中选择第2个Span的成员盘。
各个Span的硬盘数量必须保持一致。
4. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
提示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成成员盘配置。
步骤 6 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID50至少需要创建2个Span,最多可以创建8个Span。
步骤 7 按照表3-16所述配置虚拟磁盘的其他属性。
步骤 8 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 9 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3508支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见3.2.1 支持RAID 0/1/5/6/10/50/60。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见3.3.1 进入管理界面。
步骤 2 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图3-27和图3-28所示,参数说明如表3-18所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 为达到更优的硬盘性能,对于HDD(机械硬盘),建议将读策略设置为“Read Ahead”,对于SSD(固态硬盘),建议将读策略设置为“No Read Ahead”。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当磁盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。 l Always Write Back:在RAID卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 “Always Write Back”模式下,当电容不在位或在充电状态下,RAID卡中DDR的写数据将会丢失。不推荐使用该模式。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID卡的Cache处理。) − 在写场景中,写数据经过RAID卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 60”,并按“Enter”。
步骤 4 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图3-29所示,界面参数如表3-19所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 按表3-19所述配置过滤条件。
5. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 60支持2~8个Span,每个Span支持的硬盘数为3~16/32(取决于RAID Key的规格),且各个Span的硬盘数量必须保持一致。
l RAID 60支持的硬盘总数为6~32/240(取决于RAID Key的规格)。
l 当RAID卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。
6. 选择“Apply Changes”按“Enter”保存配置。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”完成成员盘配置。
当配置的级别为RAID 60时,需要配置多个Span,此时配置界面如图3-30所示。
1. 选择“Add More Spans”并按“Enter”。
2. 选择“Select Drives”并按“Enter”。
3. 在打开的列表中选择第2个Span的成员盘。
各个Span的硬盘数量必须保持一致。
4. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
提示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成成员盘配置。
步骤 6 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID60至少需要创建2个Span,最多可以创建8个Span。
步骤 7 按照表3-18所述配置虚拟磁盘的其他属性。
步骤 8 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 9 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
同一台服务器配置了单个Avago SAS3508卡或者多种芯片硬盘控制器的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。
对服务器的硬盘进行RAID分组后,一般会配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
Avago SAS3508支持2种类型的热备盘:
l Global Hotspare:即全局热备盘,为RAID卡上所有已配置的RAID所共有,1块RAID卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
l Dedicated Hotspare:即局部热备盘,为RAID卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须是SATA硬盘或SAS硬盘,容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
操作步骤
步骤 1 登录管理界面,具体操作方法请参见3.3.1 进入管理界面。
步骤 2 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图3-31所示。
步骤 3 配置全局热备盘。
1. 将“Operation”设置为“Assign Global Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
显示The operation has been performed successfully。
3. 按“ESC”完成配置并返回上级界面。
----结束
操作步骤
当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
步骤 1 登录管理界面,具体操作方法请参见3.3.1 进入管理界面。
步骤 2 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图3-32所示。
步骤 3 配置局部热备盘。
1. 将“Operation”设置为“Assign Dedicated Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
打开当前存在的虚拟磁盘列表,如图3-33所示。
3. 选择要关联的虚拟磁盘并按“Enter”。
4. 选择“OK”按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作场景
当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。
操作步骤
步骤 1 登录管理界面,具体操作方法请参见3.3.1 进入管理界面。
步骤 2 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图3-34所示。
步骤 3 删除热备盘。
1. 将“Operation”设置为“Unassign Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 按“ESC”完成配置并返回上级界面。
----结束
操作步骤
步骤 1 登录管理界面,具体操作方法请参见3.3.1 进入管理界面。
步骤 2 进入“Advanced Controller Properties”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
3. 选择“Advanced Controller Properties”并按“Enter”。
进入“Advanced Controller Properties”界面,如图3-35所示。
图3-35 Advanced Controller Properties(1)
步骤 3 设置紧急热备。
1. 选择“Spare”并按“Enter”。
2. 将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如图3-36所示。
图3-36 Advanced Controller Properties(2)
3. 选择“Apply Changes”并按“Enter”。
显示The operation has been performed successfully。
4. 选择“OK”并按“Enter”,完成配置。
----结束
操作场景
l 只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。
l RAID10、RAID 50、RAID 60不支持增加硬盘扩容。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l RAID卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
对系统的影响
增加硬盘扩容过程中,如果出现硬盘故障,会导致:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行增加硬盘扩容操作。
必备事项
前提条件
添加硬盘扩容之前,需具备如下条件:
l 服务器存在未加入RAID的硬盘。
l 已通过远程虚拟控制台登录到服务器的实时操作桌面。
l 已登录管理界面,具体操作请参见3.3.1 进入管理界面。
数据
操作之前建议先备份数据。
操作步骤
步骤 1 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”。
进入虚拟磁盘选项界面,如图3-37所示。
步骤 2 添加新硬盘。
1. 选择要进行扩容的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图3-38所示。
3. 选择“Reconfigure Virtual Drives”并按“Enter”
4. 选择“Go”并按“Enter”。
5. 选择要扩容的RAID级别。
增加硬盘扩容时,请保证该处的RAID级别与原级别一致。
6. 选择“Choose the Operation”,并按“Enter”。
进入硬盘选择界面,如图3-39所示。
7. 选择要增加的硬盘,并按“Apply Changes”。
进入确认操作界面。
l 增加的硬盘要与RAID组的成员盘同类型同规格。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。
l RAID卡不支持同时对两个及以上的RAID组进行扩容操作。
8. 选择“Confirm”并按“Enter”。
9. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
10. 选择“OK”并按“Enter”。
返回到如图3-40所示界面。
11. 选择“Start Operation”并按“Enter”。
显示操作成功。返回虚拟磁盘选项界面,验证扩容结果,如图3-41所示,表示RAID正在进行扩容。
----结束
操作场景
在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见3.3.1 进入管理界面。
步骤 2 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图3-42所示。
图3-42 Virtual Drive Management
步骤 3 扩容虚拟磁盘。
1. 将“Operation”设置为“Expand Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入虚拟磁盘扩容界面,如图3-43界面所示,界面参数如表3-20所示。
参数 |
参数说明 |
Current Capacity |
虚拟磁盘当前容量。 |
Available Capacity |
可用于扩展的容量。 |
Enter a Percentage of Available Capacity |
输入扩容比例。 |
Capacity of Virtual Drive after Expansion |
扩容后虚拟磁盘容量。 |
3. 设置扩容百分比。
4. 选择“OK”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
返回虚拟磁盘选项界面,验证扩容结果,如图3-44所示。
----结束
操作场景
随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。
在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。
对系统的影响
RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行RAID级别迁移操作。
必备事项
前提条件
迁移RAID级别之前,需具备如下条件:
l 已通过远程虚拟控制台登录到服务器的实时操作桌面。
l 当前存在的硬盘个数满足目标RAID级别要求。
l 已登录管理界面,具体操作请参见3.3.1 进入管理界面。
Avago SAS3508RAID控制卡支持以下级别类型的迁移:
l RAID 0迁移到RAID 1、RAID 5、RAID 6
l RAID 1迁移到RAID 0、RAID 5、RAID 6
l RAID 5迁移到RAID 0、RAID 6
l RAID 6迁移到RAID 0、RAID 5
l 当一个DG下包含2个或2个以上的RAID组时,不支持RAID级别迁移。
RAID迁移对硬盘数量的最低要求如表3-21所示。
迁移RAID级别 |
原始磁盘组硬盘数量 |
需要增加硬盘数量 |
RAID 0迁移 RAID 1 |
1 |
1 |
RAID 0迁移到RAID 5 |
1 |
2 |
RAID 0迁移到RAID 6 |
1 |
2 |
RAID 1迁移到RAID 0 |
2 |
- |
RAID 1迁移到RAID 5 |
2 |
1 |
RAID 1迁移到RAID 6 |
2 |
1 |
RAID 5迁移到RAID 0 |
3 |
- |
RAID 5迁移到RAID 6 |
3 |
1 |
RAID 6迁移到RAID 0 |
3 |
- |
RAID 6迁移到RAID 5 |
3 |
- |
l 为防止数据丢失,请在该操作之前备份当前RAID的数据。
l RAID卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
数据
为防止数据丢失,请在该操作之前备份当前RAID的数据。
操作步骤
步骤 1 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”并按“Enter”。
进入虚拟磁盘选项界面,如图3-45所示。
步骤 2 选择RAID迁移的目标级别。
下面以将RAID 1迁移到RAID 5为例进行说明。
1. 选择要进行迁移的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图3-46所示。
3. 选择“Reconfigure Virtual Drives”,并按“Enter”。
4. 选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如图3-47所示。不设置时默认与原RAID组配置一致。
5. 选择“Go”,并按“Enter”。
进入RAID配置界面,如图3-48所示。
图3-48 Reconfigure Virtual Drives
6. 选择“New RAID Level”并按“Enter”。
打开RAID迁移的目标级别选择窗口,如图3-49所示。
7. 选择“RAID 5”并按“Enter”。
步骤 3 添加硬盘。
1. 选择“Choose the operation”并按“Enter”。
打开硬盘选择窗口。
2. 选择要增加的硬盘并按“Enter”。
l RAID迁移对硬盘数量的最低要求请参见表3-21。
l 增加的硬盘要与RAID组的成员盘同类型同规格。
3. 选择“Apply Changes”并按“Enter”。
弹出操作确认会话框。
4. 选择“Confirm”并按“Enter”。
5. 选择“Yes”并按“Enter”。
提示操作成功。
6. 选择“OK”并按“Enter”返回图3-48界面。
步骤 4 RAID级别迁移。
1. 选择“Start Operation”并按“Enter”。
提示操作成功。
步骤 5 查看迁移结果。
1. 进入Virtual Drive Management界面,检查迁移结果,如图3-50所示,表示RAID正在进行迁移。
迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。
2. 选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 1”变成“RAID 5”,RAID组容量增大,且“Status”状态显示为“Optimal”,表示RAID迁移成功。
----结束
操作场景
RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见3.3.1 进入管理界面。
步骤 2 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图3-51所示。
图3-51 Virtual Drive Management
步骤 3 删除虚拟磁盘。
1. 将“Operation”设置为“Delete Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“OK”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
RAID中成员硬盘故障时,无论是更换新硬盘还是使用热备盘替代故障硬盘,都需要进行RAID重构。
默认情况下,当RAID有重构需求,并且有满足同步条件的硬盘存在时,系统自动启动重构操作。但当控制器的“Auto Rebuild”属性为“Disable”时,则需要手动重构。
该任务指导安装调测工程师进行RAID重构操作。
界面介绍
在“Main Menu”界面中选择“Drive Management”节点下具体的硬盘,并按“Enter”可打开该硬盘的操作菜单,如图3-52,可执行的操作如表3-22所示。
操作 |
说明 |
Select operation |
选择以下操作。 |
Star Locate |
点亮硬盘定位指示灯。 |
Stop Locate |
熄灭硬盘定位指示灯。 |
Rebuild |
重构RAID。 l Suspend l Resume l Stop |
Place drive Online |
将硬盘上线。 |
Mark drive as Missing |
将离线的硬盘脱离RAID组。 |
重构RAID
步骤 1 在菜单中选择“Rebuild”并按“Enter”。
打开Rebuild菜单。
步骤 2 选择操作类型,并按“Enter”。
弹出操作确认对话框。
步骤 3 选择“YES”并按“Enter”。
----结束
当出现硬盘离线情况时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。
操作场景
用户可以通过查看RAID卡属性的方式确定当前RAID卡是否符合实际需求。
操作步骤
步骤 1 登录管理界面,具体操作方法请参见3.3.1 进入管理界面。
步骤 2 进入“Controller Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
显示RAID卡基本信息,如图3-53所示,参数说明如表3-23所示。
参数 |
参数说明 |
Product Name |
RAID卡名称。 |
Serial Number |
RAID卡序列号。 |
Controller Status |
RAID卡的工作状态。 |
Select Boot Device |
当前启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见3.3.9 配置启动项。 |
PCI ID |
RAID卡的PCI ID。 |
PCI Slot Number |
RAID卡的PCI槽位号。 |
Package Version |
RAID卡的套件版本。 |
Firmware Version |
RAID卡的固件版本号。 |
NVDATA Version |
RAID卡配置信息的版本号。 |
Connector Count |
RAID卡与主板的接口个数。 |
Drive Count |
RAID卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID卡可以管理的虚拟磁盘个数。 |
Advanced Controller Management |
更多的控制器操作。 |
Advanced Controller Properties |
查看和修改控制器的高级属性。 |
步骤 3 查看控制器高级属性。
选择“Advanced Controller Properties”并按“Enter”。
进入控制器高级属性界面,如图3-54和图3-55所示,参数说明如表3-24所示。
在该界面下,可查看并修改RAID卡的高级属性。
图3-54 Advanced Controller Properties (1)
图3-55 Advanced Controller Properties (2)
参数 |
说明 |
Cache and Memory |
查看控制器Cache和Memory信息。 |
Patrol Read |
系统巡检。 |
Power Save Setting |
设置磁盘休眠。 |
Spare |
设置控制器热备状态。 |
Task Rates |
设置各种任务的处理速率。 |
Alarm Controller |
Avago SAS3508 RAID卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errrors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。 默认为“Stop On Errors”。 |
Controller BIOS |
控制器BIOS的使能情况。 |
ROC Temperature |
控制器温度。 |
Shield State Supported |
是否支持暂停IO,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
磁盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Maintain Drive Fail History |
是否维护磁盘故障历史信息。 |
SMART Polling |
SMART轮巡检测周期。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性检查 |
JBOD Mode |
是否使能硬盘直通功能。 |
Write Verify |
- |
----结束
操作场景
l 服务器更换RAID卡后,需要将原有配置导入新的RAID卡中。
l 新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入。
l 如服务器已配置RAID,在更换新RAID卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!
l 为避免导入外部配置失败,更换的RAID卡的型号要与原来的RAID卡保持一致。
l 当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。
操作步骤
步骤 1 登录管理界面,具体操作方法请参见3.3.1 进入管理界面。
步骤 2 进入“Manage Foreign Configuration”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Manage Foreign Configuration”并按“Enter”。
进入外部配置管理界面,如图3-56所示。
图3-56 Manage Foreign Configuration
步骤 3 导入外部配置。
1. 选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图3-57所示。
2. 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
5. 按“ESC”完成配置返回上级界面。
步骤 4 清空外部配置。
1. 选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 按“ESC”完成配置返回上级界面。
----结束
Avago SAS3508支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
l 开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。
l JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时BMC会对其进行告警。
步骤 1 登录管理界面,具体操作方法请参见3.3.1 进入管理界面。
步骤 2 依次进入Main Menu>Controller Management>Advanced Controller Properties界面,如图3-58所示。
图3-58 Advanced Controller Properties
步骤 3 选择“JBOD Mode”并按Enter。
步骤 4 选择“Enabled”并按“Enter”。
步骤 5 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 6 选择“OK”并按“Enter”完成配置。
----结束
该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID0存在一个VD为例,详细操作方法如下:
步骤 1 按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如图3-59所示。
步骤 2 将“Select Drives From”设置为“Free Capacity”,如图3-60所示。
步骤 3 选择“Select Drive Groups”并按“Enter”。
显示当前存在的RAID组(Drive Group),如图3-61所示。
步骤 4 选择要创建多个VD的RAID组并按“Enter”,如图3-62所示。
步骤 5 选择“Apply Changes”并按“Enter”。
提示操作成功。
步骤 6 选择“OK”并按“Enter”返回VD配置界面,如图3-63所示,参数说明如表3-25所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 说明 为达到更优的硬盘性能,对于HDD(机械硬盘),建议将读策略设置为“Read Ahead”,对于SSD(固态硬盘),建议将读策略设置为“No Read Ahead”。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当磁盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。 l Always Write Back:在RAID卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 说明 “Always Write Back”模式下,当电容不在位或在充电状态下,RAID卡中DDR的写数据将会丢失。不推荐使用该模式。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID卡的Cache处理。) − 在写场景中,写数据经过RAID卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 7 按照表3-25所述配置VD的相关属性。
步骤 8 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
步骤 9 选择“Confirm”并按“Enter”。
步骤 10 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
可进入Virtual Drive Management界面,查看当前存在的所有VD,如图3-64所示。
图3-64 Virtual Drive Management
----结束
每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤11。
介绍了硬盘故障、RAID卡故障、电池/电容故障的常用处理方法。更多故障案例请联系技术支持获取。
问题描述
当服务器出现如下现象时,说明硬盘故障。
l 硬盘故障指示灯常亮。
l 服务器开机状态下,硬盘指示灯不亮。
l 服务器上报硬盘故障告警。
处理方法
JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时BMC会对其进行告警。
l 通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。
l 通过管理软件BMC硬盘告警信息确认故障硬盘槽位,请参考BMC告警参考。
l 通过RAID卡GUI界面确认故障硬盘槽位信息,参考3.6.2.4 Drive Management。
l 通过RAID卡命令行工具确认故障硬盘槽位信息,参考3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
步骤 2 更换新硬盘。
l 更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘导致,则可以将硬盘设置为Unconfig Good后,参考3.4.9 导入/清空外部配置章节恢复RAID组,无需更换硬盘。
l 若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。
l 若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在表3-2查看RAID组支持的最大故障硬盘数量。
l 更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。
l 新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制器下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID卡删除RAID信息或硬盘低格章节。
拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:
l 若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。
l 若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。
l 若故障硬盘为直通盘,则直接更换即可。
l 若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。
− UEFI模式下创建RAID0的方法请参见3.3.2 创建RAID 0。
− 通过命令行方式创建RAID0的方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
----结束
问题描述
当服务器出现如下现象时,说明RAID控制卡故障。
l 数据无法写入RAID控制卡控制的硬盘。
l 服务器上报RAID控制卡故障告警。
处理方法
步骤 1 登录BMC Web界面查看告警信息。
步骤 2 根据告警信息,参考BMC告警处理手册处理。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤3
步骤 4 联系技术支持处理。
----结束
问题描述
当RAID卡电容故障时,可能导致服务器出现如下情况:
l 服务器读写速度显著降低。
l RAID卡的CU界面中显示电容状态异常。
处理方法
步骤 1 进入RAID卡的CU界面,查看电容状态是否为“Optimal”。
电容状态可查询3.6.2.5 Hardware Components界面的“Battery Status”参数。
l 是 => 处理完毕
l 否 => 步骤2
步骤 2 将服务器下电,打开机箱,并查看RAID卡电容是否在位。
l 是 => 步骤4
l 否 => 步骤3
步骤 3 检查整机配置,为服务器安装电容,查看电容状态是否为“Optimal”。
l 是 => 处理完毕
l 否 => 步骤6
步骤 4 重新安装RAID卡电容,查看电容状态是否为“Optimal”。
l 是 => 处理完毕
l 否 => 步骤5
步骤 5 更换RAID卡电容,查看电容状态是否为“Optimal”,且“问题描述”所述的异常状态是否消失。
l 是 => 处理完毕
l 否 => 步骤6
----结束
问题描述
正常情况下,当服务器配置了RAID卡且RAID卡状态正常时,进入BIOS的Advanced页签后,会显示RAID卡的信息,如图3-65所示。
如果Advanced页签不显示RAID卡的信息,如图3-66所示,则:
l 如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:
− 如果不显示驱动打印信息,可尝试下电后重新拔插RAID卡再上电、下电后更换RAID卡再上电或者联系技术支持。
− 如果显示“AVAGO EFI SAS Driver SAS3508”,如图3-67所示,则可以通过本章节的指导修复RAID卡。
l 如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,如图3-68所示,则可以通过本章节的指导修复RAID卡;如果不显示,可尝试下电后重新拔插RAID卡再上电、下电更换RAID卡再上电或者联系技术支持。
处理方法
l 当BIOS的版本为0.98之前版本(不包含0.98版本)时:
a. 在Advanced页签选择“Driver Health Manager”并按Enter。
进入“Driver Health Manager”界面。
b. 选择要进行修复的RAID卡驱动,如“AVAGO EFI SAS Driver SAS3508”,并按“Enter”。
进入“Critical Message”界面。
c. 查看“Critical Message”界面的打印信息:
n 显示“The following VDs have missing disks. ”=> 请参见3.5.4.1 The following VDs have missing disks。
n 显示“There are offline or missing virtual drives with preserved cache.” => 请参见3.5.4.2 There are offline or missing virtual drives with preserved cache
n 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见3.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
n 显示“Number of disks exceeded the maximum supported count of 32 disks”=> 请参见3.5.4.4 Number of disks exceeded the maximum supported count of 32 disks。
n 显示“Memory/battery problems were detected / Unexpected power-loss occurred”=> 请参见3.5.4.5 Memory/battery problems were detected / Unexpected power-loss occurred。
l 当BIOS的版本为0.98及以上版本时:
a. 在“Advanced”页签选择“Some drivers are not healthy”。
进入健康状态查询界面。
b. 选择“Repair the whole platform”,并按“Enter”。
进入“Critical Message”界面。
c. 查看“Critical Message”界面的打印信息。
n 显示“The following VDs have missing disks. ”=> 请参见3.5.4.1 The following VDs have missing disks。
n 显示“There are offline or missing virtual drives with preserved cache.” => 请参见3.5.4.2 There are offline or missing virtual drives with preserved cache
n 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见3.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
n 显示“Number of disks exceeded the maximum supported count of 32 disks”=> 请参见3.5.4.4 Number of disks exceeded the maximum supported count of 32 disks。
n 显示“Memory/battery problems were detected / Unexpected power-loss occurred”=> 请参见3.5.4.5 Memory/battery problems were detected / Unexpected power-loss occurred。
RAID卡启动过程中或RAID卡管理界面显示的更多启动消息的介绍及处理建议请参见A.2 常见RAID卡启动消息。
问题描述
如图3-69所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。
处理方法
步骤 1 修复RAID卡。
1. 在图3-69中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
2. 输入“C”并按“Enter”。
3. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
4. 输入“y”并按“Enter”。
提示“Critical Message handling completed. Please exit”。修复完成。
步骤 2 重启服务器,进入“Advanced”界面,检查是否显示RAID卡信息。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图3-70所示,进入“Driver Healthy Protocol Utility”界面后,显示“There are offline or missing virtual drives with preserved cache”。
处理方法
步骤 1 选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
步骤 2 输入任意内容,并按“Enter”。
提示Critical Message handling completed. Please exit。修复完成。
步骤 3 按Esc。
进入RAID卡界面,如图3-71所示。
步骤 4 选择“Discard Preserved Cache”并按Enter。
弹出操作确认界面,如图3-72所示。
步骤 5 选择“Confirm”并按“Enter”。
步骤 6 选择“Yes”并按“Enter”。
提示操作成功。
步骤 7 重启服务器,进入“Advanced”界面,检查是否显示RAID卡信息。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图3-73所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”
处理方法
步骤 1 根据图3-73的打印信息选择不同的操作。
l 显示All of the disks from your previous configuration are gone => 请依次执行步骤2~步骤6。
l 显示Some configured disks have been removed from your system => 请依次执行步骤2和步骤6。
1. 在图3-73中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
2. 输入“C”并按“Enter”。
3. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
4. 输入“Y”并按“Enter”。
提示Critical Message handling completed. Please exit。修复完成。
步骤 3 按Esc。
进入RAID卡配置界面。
步骤 4 在RAID卡配置界面选择“Configure”并按Enter。
进入“Configure”界面。
步骤 5 在“Configure”界面清除RAID卡配置。
具体操作请参见3.6.5 Configure。
步骤 6 重启服务器,进入“Advanced”界面,检查是否显示RAID卡信息。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图3-74所示,进入“Driver Healthy Protocol Utility”界面后,显示“Number of disks exceeded the maximum supported count of 32 disks”。
处理方法
出现该打印信息表示当前Avago SAS3508RAID卡配置的RAID Key仅支持32个硬盘,请将服务器下电,拔出多余的硬盘,再上电,即会在“Advanced”页签正常显示RAID卡信息。如业务场景需要使用超过32个硬盘,请联系技术工程师处理。
问题描述
如图3-75所示,进入“Driver Healthy Protocol Utility”界面后,显示“Memory/battery problems were detected / Unexpected power-loss occurred”。
处理方法
步骤 1 选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
步骤 2 输入任意内容,并按“Enter”。
提示Critical Message handling completed. Please exit。修复完成。
步骤 3 重启服务器,进入“Advanced”界面,检查是否显示RAID卡信息。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
RAID卡的“Advanced Controller Management”界面中,通过Switch to JBOD mode将RAID卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如图3-76所示,RAID卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID卡的工作模式切换成“RAID”,使RAID卡功能恢复正常。
当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。
处理方法
步骤 1 (可选)登录RAID卡管理界面,具体操作请参见3.3.1 进入管理界面。
步骤 2 依次进入Main Menu>Controller Management>Advanced Controller Management界面,如图3-77所示。
图3-77 Advanced Controller Management界面
步骤 3 选择“Switch to RAID mode”并按“Enter”。
提示操作成功,如图3-78所示。
步骤 4 选择“OK”并按“Enter”。
返回到“Advanced Controller Management”界面,显示正在切换模式,如图3-79所示。
图3-79 Advanced Controller Management界面
步骤 5 按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID卡管理界面,具体操作请参见3.3.1 进入管理界面。
步骤 6 依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如图3-80所示。
图3-80 Advanced Controller Management界面
l 是 => 处理完毕
l 否 => 请联系技术支持
----结束
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
步骤 1 通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 2 重启服务器。
步骤 3 重启过程中,当出现如图3-81所示界面时,按“Delete”,进入输入密码界面。
步骤 4 输入密码并按“Enter”。
进入Setup Utility界面。
服务器BIOS的默认密码为“Password@_”。
步骤 5 通过“←”或“→ ”进入“Advanced”页签,如图3-82所示。
如果Advanced界面无法找到RAID卡或显示“Some drivers are not healthy”,请参见3.5.4 BIOS下的Advanced界面无法找到RAID卡或Advanced中RAID卡状态显示Not Healthy进行修复。
步骤 6 选择“Avago MegaRAID <SAS3508> Configuration Utility”,按“Enter”。
进入Avago SAS3508主界面,如图3-83所示,界面参数如表3-26所示。
参数 |
说明 |
Main Menu |
RAID卡主菜单,包含了RAID卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID卡当前工作状态。 |
Backplane |
背板个数。 |
BBU |
超级电容在位情况。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的磁盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 |
Configure |
提供删除配置的接口。 |
Set Factory Default |
恢复出厂设置。 |
Update Firmware |
升级固件。 说明 Avago SAS3508不支持在此界面升级FW。 |
Silence Alarm |
板载蜂鸣器的使能状态。 说明 Avago SAS3508未配置蜂鸣器,此项设置不起作用。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
RAID卡主菜单,提供配置、管理RAID卡的接口。
界面介绍
“Main Menu”界面如图3-84,参数说明如表3-27所示。
参数 |
参数说明 |
Configuration Management |
配置管理RAID。 |
Controller Management |
管理RAID控制器。 |
Virtual Drive Management |
管理虚拟磁盘。 |
Drive Management |
管理硬盘。 |
Hardware Components |
查询部件信息。 |
可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。
界面介绍
“Configuration Management”界面如图3-85,参数说明如表3-28所示。
图3-85 Configuration Management
参数 |
参数说明 |
Auto Configure RAID 0 |
自动创建RAID0。 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
快速创建RAID,RAID的参数由系统自动适配。 |
View Drive Group Properties |
查看磁盘组属性。 |
Clear Configuration |
清除当前所有RAID配置。 |
Manage Foreign Configuration |
管理外部配置。 |
清除RAID配置
步骤 1 选择“Clear Configuration”并按“Enter”。
进入操作确认界面。
步骤 2 选中“Confirm”并按“Enter”。
步骤 3 在打开的列表中选择“Enabled”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 按“Enter”。
配置完成。
----结束
查看虚拟磁盘属性
在图3-85中选择“View Drive Group Properties”并按“Enter”。
图3-86 View Drive Group Properties
参数 |
参数说明 |
Drive Group |
磁盘组名称。 |
Capacity Allocation |
磁盘组容量,显示磁盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。 |
查看并导入外部配置
步骤 1 在图3-85中选择“Manage Foreign Configuration”并按“Enter”。
界面如图3-87所示。
图3-87 Manage Foreign Configuration
步骤 2 选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图3-88所示。
步骤 3 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 4 选择“Confirm”并按“Enter”。
步骤 5 在列表中选择“Enable”并按“Enter”。
步骤 6 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 7 选择“OK”并按“Enter”完成配置。
----结束
清除外部配置
步骤 1 选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 在列表中选择“Enable”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 选择“OK”并按“Enter”完成配置。
----结束
该界面提供控制器管理接口,可查看并修改控制器的详细参数。
界面介绍
“Controller Management”界面如图3-89,参数说明如表3-30所示。
参数 |
参数说明 |
Product Name |
RAID卡名称。 |
Serial Number |
RAID卡序列号。 |
Controller Status |
RAID卡的工作状态。 |
Select Boot Device |
当前启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见3.3.9 配置启动项。 |
PCI ID |
RAID卡的PCI ID。 |
PCI Slot Number |
RAID卡的PCI槽位号。 |
Package Version |
RAID卡的套件版本。 |
Firmware Version |
RAID卡的固件版本号。 |
NVDATA Version |
RAID卡配置信息的版本号。 |
Connector Count |
RAID卡与主板的接口个数。 |
Drive Count |
RAID卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID卡可以管理的虚拟磁盘个数。 |
Advanced Controller Management |
更多的控制器操作。 |
Advanced Controller Properties |
查看和修改控制器的高级属性。 |
更多控制器操作
在图3-89中选择“Advanced Controller Management”并按“Enter”。
图3-90 Advanced Controller Management
参数 |
说明 |
Clear Controller Events |
清除控制器的事件日志。 |
Save Controller Events |
保存控制器的事件日志。 |
Save TTY Log |
保存终端操作日志。 |
Manage SAS Storage Link Speed |
管理接口速率。 |
Manage MegaRAID Advanced Software Options |
管理高级软件功能。 |
Schedule Consistency Check |
设置一致性检查参数。 |
Set Factory Defaults |
恢复为出厂配置。 |
Switch to JBOD mode |
切换RAID卡的工作模式,默认为RAID模式。当RAID卡当前的工作模式为RAID时,显示为“Switch to JBOD mode”;当RAID卡当前的工作模式为JBOD时,显示为“Switch to RAID mode”。 RAID卡的工作模式仅支持设置为“RAID”,请勿修改为“JBOD”。 如已设置为JBOD,请参见3.5.5 将Controller Mode恢复为“RAID”进行恢复;如需要开启JBOD功能,请参见3.4.10 设置JBOD模式进行设置。 |
Controller Mode |
RAID卡当前的工作模式。 |
查看并修改控制器高级属性
步骤 1 在图3-89中选择“Advanced Controller Properties”并按“Enter”。
界面如图3-91和图3-92所示,界面中参数说明如表3-32所示。
图3-91 Advanced Controller Properties(1)
图3-92 Advanced Controller Properties(2)
参数 |
说明 |
Cache and Memory |
查看控制器Cache和Memory信息。 |
Patrol Read |
系统巡检。 |
Power Save Setting |
设置磁盘休眠。 |
Spare |
设置控制器热备状态。 |
Task Rates |
设置各种任务的处理速率。 |
Alarm Controller |
Avago SAS3508 RAID卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errrors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。 默认为“Stop On Errors”。 |
Controller BIOS |
控制器BIOS的使能情况。 |
ROC Temperature |
控制器温度。 |
Shield State Supported |
是否支持暂停IO,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
磁盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Expanded Virtual Drive Support |
是否支持扩容虚拟磁盘的功能。 |
Maintain Drive Fail History |
是否维护磁盘故障历史信息。 |
SMART Polling |
SMART轮巡检测周期。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性检查。 |
JBOD Mode |
硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。 |
步骤 2 按照表3-32所述修改控制器的高级属性参数。
步骤 3 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 单击“OK”完成配置。
----结束
该界面提供虚拟磁盘的查询和管理接口。
界面介绍
“Virtual Drive Management”界面如图3-93,显示虚拟磁盘列表。
选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如图3-94所示,参数说明如表3-33所示。
图3-94 Virtual Drive Management
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:定位虚拟磁盘的所有硬盘。 l Stop Locate:取消定位。 l Delete Virtual Drive:删除虚拟磁盘。 l Expand Virtual Drive:扩展虚拟磁盘容量。 l Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID卡不支持同时对两个及以上的虚拟磁盘进行重新配置。 l Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。 l Hide/Unhide Drive Group:隐藏/取消隐藏磁盘组。 l Fast Initialization:快速初始化虚拟磁盘。 l Slow Initialization:安全初始化虚拟磁盘。 l Check Consistency:一致性检查。 l Virtual Drive Erase:格式化虚拟磁盘。 |
Name |
虚拟磁盘名称。 |
Raid Level |
虚拟磁盘RAID级别。 |
Status |
虚拟磁盘当前运行状态。 |
Size |
虚拟磁盘容量。 |
View Associated Drives |
查看成员盘属性。 |
Advanced... |
查看虚拟磁盘高级属性。 |
扩展虚拟磁盘容量
步骤 1 将“Operation”设置为“Expand Virtual Drive”。
步骤 2 选择“Go”并按“Enter”。
进入虚拟磁盘扩容界面,如图3-95界面所示,界面参数如表3-34所示。
参数 |
参数说明 |
Current Capacity |
虚拟磁盘当前容量。 |
Available Capacity |
可用于扩展的容量。 |
Enter a Percentage of Available Capacity |
输入扩容比例。 |
Capacity of Virtual Drive after Expansion |
扩容后虚拟磁盘容量。 |
步骤 3 设置扩容百分比。
步骤 4 选择“OK”并按“Enter”。
显示The operation has been performed successfully。
步骤 5 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
查看成员盘属性
步骤 1 在图3-94中选择“View Associated Drives”并按“Enter”。
界面如图3-96,显示成员盘列表。
步骤 2 选择要查看的成员盘,并按“Enter”。
步骤 3 选择“View Drive Properties”并按“Enter”。
进入磁盘属性界面,如图3-97界面所示,界面参数如表3-35所示。
参数 |
参数说明 |
Operation |
该成员盘可执行的操作,包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Place Drive Online/Offline:将硬盘上线/离线。 |
Drive ID |
成员盘的ID。 |
Status |
成员盘的当前工作状态。 |
Size |
成员盘的容量。 |
Type |
成员盘类型。 |
Model |
成员盘的模块类型。 |
Hardware Vendor |
成员盘的生产厂商。 |
Associated Virtual Drive |
成员盘所在的虚拟磁盘。 |
Advanced... |
查询成员盘更多属性。 |
----结束
查看和修改虚拟磁盘高级属性
步骤 1 在图3-94中选择“Advanced”并按“Enter”。
界面如图3-98和图3-99所示,界面参数如表3-36所示。
参数 |
参数说明 |
Logical Sector Size |
逻辑扇区大小。 |
Strip Size |
条带大小。 |
Starting Logical Block Addressing |
逻辑单元起始地址。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Protected |
是否支持磁盘保护。 |
Bad Blocks |
是否支持坏块处理。 |
SSD Caching |
是否支持SSD Caching。 |
Access |
是否支持Access。 |
Current Write Cache Policy |
当前写Cache策略,包括: l Write Through:当硬盘子系统接收到所有传输数据后,RAID卡将给主机返回数据传输完成信号。 l Write Back:当RAID卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Force Write Back:当未配置超级电容或超级电容故障时,RAID卡将自动切换到Write Through模式。 |
Default Write Cache Policy |
默认的Cache写策略。 |
Disable Background Initialization |
是否禁用后台初始化。 |
Read Cache Policy |
当前读Cache策略,包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。RAID卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 |
Drive Cache |
是否支持cache。 |
Input/Output |
I/O读取策略,包括: l Direct:直接从硬盘读取数据,不经过Cache缓存。 l Cached:从Cache缓存中读取数据。 |
Apply Changes |
保存配置。 |
步骤 2 按照表3-36所述配置“Advanced”的参数。
步骤 3 选择“Apply Changes”并按“Enter”。
显示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面显示硬盘基本属性,提供硬盘操作接口。
界面介绍
“Drive Management”界面如图3-100所示,显示硬盘列表。
选定要操作的硬盘并按“Enter”进入详细操作界面,如图3-101所示,参数说明如表3-37所示。
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Initialize Drive:硬盘初始化。 l Drive Erase:格式化硬盘。 − Simple:仅对硬盘进行一轮擦除动作。 − Normal:对硬盘进行三轮擦除动作。 − Thorough:对硬盘进行九轮擦除动作。 − Stop Erase:停止数据擦除操作。 l Make Unconfigured Good/Bad:修改硬盘状态。 l Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。 l Assign Global Hot Spare Drive:设置全局热备盘。 l Assign Dedicated Hot Spare Drive:设置局部热备盘。 l Unassign Hot Spare Drive:删除热备盘。 l Cryptographic Erase:对加密硬盘进行数据擦除。 说明 如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。 |
Drive ID |
硬盘的ID。 |
Status |
硬盘的当前工作状态。 |
Size |
硬盘的容量。 |
Type |
硬盘的类型。 |
Model |
硬盘型号。 |
Hardware Vendor |
硬盘的生产厂商。 |
Associated Virtual Drive |
表示硬盘已加入虚拟磁盘,此处显示虚拟磁盘信息。 |
Advanced... |
查询更多硬盘属性。 |
设置全局热备盘
步骤 1 将“Operation”设置为“Assign Global Hot Spare Drive”。
步骤 2 选择“Go”并按“Enter”。
进入操作确认界面。
步骤 3 将“Confirm”设置为“Enable”。
步骤 4 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
步骤 5 按“Enter”完成配置并返回上级界面。
----结束
设置局部热备盘
步骤 1 将“Operation”设置为“Assign Dedicated Hot Spare Drive”。
步骤 2 选择“Go”并按“Enter”。
打开当前存在的虚拟磁盘列表。
步骤 3 选择要关联的虚拟磁盘并按“Enter”。
步骤 4 选择“Enabled”按“Enter”。
步骤 5 选择“OK”按“Enter”。
进入操作确认界面。
步骤 6 将“Confirm”设置为“Enable”。
步骤 7 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
步骤 8 按“Enter”完成配置并返回上级界面。
----结束
安全擦除硬盘数据
步骤 1 将“Operation”设置为“Drive Erase”。
步骤 2 选择“Erase Mode”并按“Enter”。
步骤 3 在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。
步骤 4 选择“OK”并按“Enter”。
进入操作确认界面。
步骤 5 选择“Confirm”并按“Enter”。
步骤 6 选择“Yes”并按“Enter”。
提示操作成功。
----结束
查看硬盘属性
选择“Advanced...”并按“Enter”。
打开硬盘属性界面,如图3-102和图3-103所示,参数说明如表3-38所示。
参数 |
参数说明 |
Logical Sector Size |
逻辑扇区大小。 |
Physical Sector Size |
物理扇区大小。 |
SMART Status |
SMART功能是否使能。 |
Revision |
硬盘Firmware版本。 |
Media Error |
Media error个数。 |
Predicted Fail Count |
Pred fail个数。 |
SAS Address |
硬盘SAS地址。 |
Drive Power State |
硬盘上电状态。 |
Emergency Spare |
是否支持紧急备份功能,即是否可以选空闲盘或者热备做备份盘。 |
Commissioned Hot Spare |
是否指定了备份盘,即把一个热备盘指定给一个RAID组使用。 |
Cache Setting |
是否可设置Cache。 |
Available Size |
硬盘可用空间。 |
Used Space |
已使用的硬盘空间。 |
Disk Protocol |
硬盘支持的协议。 |
Negotiated Drive Transfer Speed |
硬盘数据传输速率。 |
Number of Connections |
连接器个数。 |
FDE Capable |
硬盘是否支持FDE(Full Disk eEncryption)技术。 |
Protection Capable |
硬盘是否支持数据保护。 |
Temperature |
硬盘温度。 |
该界面主要提供RAID卡传感器信息。
界面介绍
“Hardware Components”界面如图3-104,参数说明如表3-39所示。
参数 |
参数说明 |
Battery Status |
电容状态。 |
Temperature Sensors |
当前温度传感器状态。 |
Fans |
当前风扇模块工作状态。 |
Power Supplies |
当前供电模块工作状态。 |
Battery Management |
电容管理。 |
Enclosure Management |
查看更多传感器信息。 |
查看更多传感器信息
步骤 1 选择“Enclosure Management”并按“Enter”。
进入部件选择界面,如图3-105所示。
步骤 2 选择“Select Enclosure”并按“Enter”。
步骤 3 选择要操作的部件并按“Enter”。
步骤 4 选择“View Enclosure Status”并按“Enter”。
显示传感器的详细信息。
步骤 5 在TEMPERATUR SENSOR下通过“Select Temperature Sensor”选择要查询的温度传感器。
“Temperature Sensor Status”显示所查询的传感器的状态。
步骤 6 在FAN下通过“Select Fan”选择要查询的风扇传感器。
“Fan Status”显示所查询的传感器的状态。
步骤 7 在POWER SUPPLY下通过“Select Power Supply”选择要查询的供电模块传感器。
“Power Supply Status”显示所查询的传感器的状态。
----结束
提供RAID卡操作管理接口。
界面介绍
“View Server Profile”界面如图3-106所示,参数说明如表3-40所示。
参数 |
参数说明 |
UEFI Spec Version |
服务器支持的UEFI Spec版本。 |
Controller Management |
提供控制器管理接口,详细情况请参见3.6.2.2 Controller Management。 |
Hardware Components |
提供控制器部件查询接口,详细情况请参见3.6.2.5 Hardware Components。 |
Drive Management |
提供硬盘管理接口,详细情况请参见3.6.2.4 Drive Management。 |
Virtual Drive Management |
提供虚拟磁盘管理接口,详细情况请参见3.6.2.3 Virtual Drive Management。 |
该界面可查看、导入、清空外部配置。
界面介绍
“View Foreign Configuration”界面如图3-107所示。
图3-107 View Foreign Configuration
查看并导入外部配置
步骤 1 选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图3-108所示。
步骤 2 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 3 选择“Confirm”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 单击“OK”完成配置。
----结束
清除外部配置
步骤 1 选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 单击“OK”完成配置。
----结束
可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。
界面介绍
“Configure”界面如图3-109所示,参数说明如表3-41所示。
参数 |
参数说明 |
Auto Configure RAID 0 |
自动创建RAID0。 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
快速创建RAID,RAID的参数由系统自动适配。 |
View Drive Group Properties |
查看磁盘组属性。 |
Clear Configuration |
清除当前所有RAID配置。 |
Manage Foreign Configuration |
管理外部配置。 |
清除当前配置
步骤 1 选择“Clear Configuration”并按“Enter”。
打开操作确认界面。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 单击“OK”完成配置。
----结束
恢复出厂配置
步骤 1 在主界面选择“Set Factory Default”并按“Enter”。
打开操作确认界面。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 单击“OK”完成配置。
----结束
该界面提供RAID卡高级软件特性查看和导入接口。
界面介绍
“Manage MegaRAID Advanced Software Options”界面如图3-110所示,界面中参数说明如表3-42所示。
图3-110 Manage MegaRAID Advanced Software Options
参数 |
说明 |
SAFE ID |
RAID卡的安全编码。 |
Serial Number |
RAID卡序列号。 |
Activation Key |
待激活的高级特性的Key。 |
Active |
激活高级特性。 Avago SAS3508不支持高级特性的激活操作,该功能无效。 |
Deactive All Trail Software |
注销当前所有高级特性。 |
退出配置界面。
退出配置界面
步骤 1 在Avago SAS3508主界面按“ESC”,显示如图3-111所示界面。
步骤 2 按F10退出BIOS。
弹出操作确认窗口。
步骤 3 选择“OK”并按Enter。
退出BIOS,显示“ Press Control+Alt+Delete to reboot”。
----结束
使用OS命令行工具可以在服务器正常运行过程中对RAID卡进行操作,不需要重启服务器。
请联系技术支持获取StorCLI工具的下载和安装方法。
命令功能
查询Avago SAS3508的基本配置信息。
命令格式
storcli64 /ccontroller_id show
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制器ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID |
使用指南
建议保持默认配置。
使用实例
# 查询RAID卡配置信息。
domino:~# ./storcli64 /c0 show
Controller = 0
Status = Success
Description = None
Product Name = SAS3508
Serial Number = FW-00000000
SAS Address = 3202017050235207
PCI Address = 00:1b:00:00
System Time = 02/12/2016 18:53:00
Mfg. Date = 00/00/00
Controller Time = 02/12/2016 23:53:00
FW Package Build = 50.1.0-0426
BIOS Version = 07.01.04.0_4.17.08.00_0x0701060
FW Version = 5.010.00-0426
Driver Name = megaraid_sas
Driver Version = 07.701.17.00
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x16
SubVendor Id = 0x19E5
SubDevice Id = 0xD215
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 27
Device Number = 0
Function Number = 0
Drive Groups = 4
TOPOLOGY :
========
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size PDC PI SED DS3 FSpace TR
-----------------------------------------------------------------------------
0 - - - - RAID0 Optl N 278.464 GB dflt N N none N N
0 0 - - - RAID0 Optl N 278.464 GB dflt N N none N N
0 0 0 66:18 12 DRIVE Onln N 278.464 GB dflt N N none - N
1 - - - - RAID1 Dgrd N 893.137 GB dflt N N dflt N N
1 0 - - - RAID1 Dgrd N 893.137 GB dflt N N dflt N N
1 0 0 66:3 19 DRIVE Onln N 893.137 GB dflt N N dflt - N
1 0 1 - - DRIVE Msng - 893.137 GB - - - - - N
2 - - - - RAID0 Optl N 1.744 TB dflt N N none N N
2 0 - - - RAID0 Optl N 1.744 TB dflt N N none N N
2 0 0 66:4 20 DRIVE Onln N 893.137 GB dflt N N none - N
2 0 1 66:5 21 DRIVE Onln N 893.137 GB dflt N N none - N
3 - - - - RAID5 Optl N 1.087 TB dflt N N dflt N N
3 0 - - - RAID5 Optl N 1.087 TB dflt N N dflt N N
3 0 0 66:19 13 DRIVE Onln N 371.597 GB dflt N N dflt - N
3 0 1 66:20 14 DRIVE Onln N 371.597 GB dflt N N dflt - N
3 0 2 66:21 16 DRIVE Onln N 371.597 GB dflt N N dflt - N
3 0 3 66:22 15 DRIVE Onln N 371.597 GB dflt N N dflt - N
-----------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Missing Drives Count = 1
Missing Drives :
==============
---------------------
Array Row Size
---------------------
1 1 893.137 GB
---------------------
Virtual Drives = 4
VD LIST :
=======
---------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC Size Name
---------------------------------------------------------------
0/1 RAID0 Optl RW Yes RWBD - ON 278.464 GB
1/2 RAID1 Dgrd RW No RWBD - ON 893.137 GB
2/3 RAID0 Optl RW No RWBD - ON 1.744 TB
3/0 RAID5 Optl RW No RWBD - ON 1.087 TB
---------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 21
PD LIST :
=======
-----------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp
-----------------------------------------------------------------------------------
66:2 10 JBOD - 837.256 GB SAS HDD N N 4 KB HUC101890CS4200 U
66:3 19 Onln 1 893.137 GB SATA SSD N N 512B SAMSUNG MZ7KM960HAHP-00005 U
66:4 20 Onln 2 893.137 GB SATA SSD N N 512B SAMSUNG MZ7KM960HAHP-00005 U
66:5 21 Onln 2 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U
66:6 23 JBOD - 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U
66:7 25 JBOD - 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U
66:8 24 JBOD - 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U
66:9 26 JBOD - 744.125 GB SATA SSD N N 512B SAMSUNG MZ7LM800HCHP-00005 U
66:10 27 JBOD - 744.125 GB SATA SSD N N 512B SAMSUNG MZ7LM800HCHP-00005 U
66:11 22 UGood - 384.0 MB SATA SSD N N 512B SAMSUNG MZ7GE480HMHP-00003 U
66:12 28 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7WD480HAGM-00003 U
66:13 30 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7LM480HCHP-00003 U
66:14 29 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7WD480HAGM-00003 U
66:15 31 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7LM480HCHP-00005 U
66:16 32 JBOD - 222.585 GB SATA SSD N N 512B SAMSUNG MZ7KM240HAGR-00005 U
66:17 11 JBOD - 1.089 TB SAS HDD N N 512B HUC101812CSS200 U
66:18 12 Onln 0 278.464 GB SAS HDD N N 512B ST300MM0006 U
66:19 13 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U
66:20 14 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U
66:21 16 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U
66:22 15 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U
-----------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Cachevault_Info :
===============
------------------------------------
Model State Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 28C - 2016/12/06
------------------------------------
命令功能
查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。
命令格式
storcli64 /ccontroller_id show spinupdelay
storcli64 /ccontroller_id show spinupdrivecount
storcli64 /ccontroller_id set spinupdelay=time
storcli64 /ccontroller_id set spinupdrivecount=count
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
time |
每组起转硬盘间的时间间隔 |
默认为2,单位为s。 |
count |
上电时允许同时起转的硬盘数量 |
默认为4。 |
查看RAID卡ID的方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
建议保持默认配置。
使用实例
# 查询RAID卡Spinup参数。
domino:~# ./storcli64 /c0 show spinupdelay
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
domino:~# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 4
--------------------------
# 设置RAID卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。
domino:~# ./storcli64 /c0 set spinupdelay=20
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 20 second(s)
--------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 5
--------------------------
命令功能
设置空闲硬盘和热备盘的省电模式。
命令格式
storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID。 |
– |
state |
省电模式的启用状态。 |
l on:启用 l off:禁用 |
disktype |
硬盘类型。 |
l 1:空闲硬盘 l 2:热备盘 |
time |
等待时间,硬盘经过等待时间没有IO,则停转进入休眠状态。 |
单位为minutes。 |
查看RAID卡ID的方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置空闲硬盘的省电模式。
domino:~# ./storcli64 /c0 set ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
SpnDwnUncDrv Enable
SpnDwnTm 30 minutes
--------------------------
命令功能
设置物理硬盘初始化功能,查询初始化进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
action |
要执行的操作 |
l show:查看初始化进度 l start:开始初始化 l stop:结束初始化 |
以上涉及的各个ID的查询方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 初始化slot3硬盘,并查询初始化进度。
domino:~# ./storcli64 /c0/e252/s3 start initialization
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show initialization
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
命令功能
设置物理硬盘数据擦除模式,查询擦除进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
硬盘槽位号 |
– |
mode |
数据擦除模式 |
l simple:对硬盘进行一轮擦除动作。 l normal:对硬盘进行三轮擦除动作。 l thorough:对硬盘进行九轮擦除动作。 |
以上涉及的各个ID的查询方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。
domino:~# ./storcli64 /c0/e252/s3 start erase simple
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.
命令功能
设置后台初始化速率、一致性检查速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。
命令格式
storcli64 /ccontroller_id set action=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
action |
要设置的项目 |
l bgirate:后台初始化速率 l ccrate:一致性检查速率 l prrate:硬盘巡检速率 l rebuildrate:RAID重构速率 l reconrate:RAID扩容和迁移速率 |
value |
后台任务资源占用率 |
1~100 |
查看RAID卡ID的方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置硬盘巡检速率为“30%”。
domino:~# ./storcli64 /c0 set prrate=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
Patrol Read Rate 30%
-----------------------
命令功能
设置控制器BIOS在检测到异常时停止继续启动的功能。
命令格式
storcli64 /ccontroller_id set bios mode=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
action |
要执行的操作 |
l soe:控制器BIOS在检测到异常时停止启动 l ie:忽略检测到的异常 |
查看RAID卡ID的方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启Stop on error功能。
domino:~# ./storcli64 /c0 set bios mode=soe
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------
命令功能
创建、删除RAID。
命令格式
storcli64 /ccontroller_id add vd rlevel size=capacity drives=enclosure_id:slot_id | enclosure_id:startid-endid,enclosure_id:slot_id | enclosure_id:startid-endid [pdperarray=pdperarray]
storcli64 /ccontroller_id/vraid_id del
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
level |
要配置的RAID级别 |
可为0、1、5、6、10、50、60,数字分别代表对应的RAID级别。 |
capacity |
要配置的RAID容量 |
– |
startid-endid |
要加入RAID的硬盘的起始和结束ID |
– |
slot_id |
要加入RAID的硬盘ID |
– |
pdperarray |
子组中的硬盘数。 创建RAID10、RAID50、RAID60时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。 |
– |
raid_id |
要删除的RAID的ID |
– |
l 以上涉及的各个ID的查询方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
l 当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid。
使用指南
无
使用实例
# 创建RAID 0。
domino:~# ./storcli64 /c0 add vd r0 size=100GB drives=252:0-3
Controller = 0
Status = Success
Description = Add VD Succeeded
#删除RAID组。
domino:~# ./storcli64 /c0/v0 del
Controller = 0
Status = Success
Description = Delete VD Succeeded
命令功能
设置RAID组的Cache读写属性。
命令格式
storcli64 /ccontroller_id/vraid_id set wrcache=mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
Cache读写模式 |
l wt:当磁盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。 l wb:控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l awb:在RAID卡无电容或电容损坏的情况下,强制使用“wb”模式。 |
以上涉及的各个ID的方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Cache读写模式为“wt”。
domino:~# ./storcli64 /c0/v0 set wrcache=wt
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 wrCache WT Success 0 -
---------------------------------------
命令功能
设置RAID的读写策略。
命令格式
storcli64 /ccontroller_id/vraid_id set accesspolicy=mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
RAID读写策略 |
l rw:可读可写 l blocked:禁止访问 l ro:只读访问 |
以上涉及的各个ID的查询方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置RAID读写策略为“rw”。
domino:~# ./storcli64 /c0/v0 set accesspolicy=rw
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 AccPolicy RW Success 0 -
---------------------------------------
命令功能
设置RAID前台初始化模式。
命令格式
storcli64 /ccontroller_id/vraid_id start mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
前台初始化模式 |
l init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。 l init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。 |
以上涉及的各个ID的查询方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 快速初始化RAID。
domino:~# ./storcli64 /c0/v0 start init
Controller = 0
Status = Success
Description = Start INIT Operation Success
命令功能
暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。
命令格式
storcli64 /ccontroller_id/vraid_id action bgi
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
action |
后台初始化的操作 |
l show:查看后台初始化进度 l pause:暂停后台初始化 l resume:继续后台初始化 l stop:停止后台初始化 |
以上涉及的各个ID的查询方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查看后台初始化进度。
domino:~# ./storcli64 /c0/v0 show bgi
Controller = 0
Status = Success
Description = Noe
VD Operation Status :
===================
------------------------------------------------------
VD Operation Progress% Staus Estimated Time Left
------------------------------------------------------
0 BGI 3 In progress 53 Minutes
------------------------------------------------------
命令功能
设置虚拟磁盘或物理硬盘为启动项。
命令格式
storcli64 /ccontroller_id/vvd_id set bootdrive=on
storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
vd_id |
待设置的虚拟磁盘的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
以上涉及的各个ID的查询方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置VD0为启动项。
domino:~# ./storcli64 /c0/v0 set bootdrive=on
Controller = 0
Status = Success
Description = Noe
Detailed Status :
===============
----------------------------------------
VD Property Value Staus ErrCd ErrMsg
----------------------------------------
0 Boot Drive On Success 0 -
----------------------------------------
# 设置slot 7硬盘为启动项。
domino:~# ./storcli64 /c0/e252/s7 set bootdrive=on
Controller = 0
Status = Success
Description = Noe
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
BootDrive PD:252_7
-------------------
命令功能
设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。
命令格式
storcli64 /ccontroller_id set eghs eug=state
storcli64 /ccontroller_id set eghs smarter=state
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
state |
紧急热备功能的启用状态 |
l on:启用 l off:禁用 |
查看RAID卡ID的方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。
domino:~# ./storcli64 /c0 set eghs eug=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------
Ctrl_Prop Value
------------------
EmergencyUG ON
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
EmergencySmarter ON
-----------------------
命令功能
设置全局热备盘和局部热备盘。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=vd_id]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
vd_id |
局部热备盘所属虚拟磁盘的ID |
– |
以上涉及的各个ID的查询方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置slot 3硬盘为全局热备盘。
domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
# 设置slot 3硬盘为vd0的局部热备盘。
domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive dgs=0
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
命令功能
暂停、继续、停止RAID重构/回拷/系统巡检,并查询进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action function
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
action |
要执行的操作 |
l show:查看进度 l pause:暂停进程 l resume:继续执行 l stop:停止进程 |
function |
要处理的进程 |
l rebuild:RAID重构 l copyback:回拷 l patrolread:系统巡检 |
以上涉及的各个ID的查询方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查看RAID重构进度。
domino:~# ./storcli64 /c0/e252/s4 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Staus Estimated Time Left
------------------------------------------------------
/c0/e252/s4 9 In progress 12 Minutes
------------------------------------------------------
# 暂停RAID重构。
domino:~# ./storcli64 /c0/e252/s4 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Status Succeeded.
命令功能
设置Smart扫描周期。
命令格式
storcli64 /ccontroller_id set smartpollinterval=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
value |
Smart扫描周期 |
单位为s。 |
查看RAID卡ID的方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Smart扫描周期为“60s”。
domino:~# ./storcli64 /c0 set smartpollinterval=60
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
命令格式
storcli64 /ccontroller_id/vvd_id expand size=capacity
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
vd_id |
要扩容的RAID的ID |
– |
capacity |
扩容后的容量 |
– |
以上涉及的各个ID的查询方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 将VD0的容量扩大至“200GB”。
domino:~# ./storcli64 /c0/v0 expand size=200GB
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
0 100.0 GB 457.861 GB 200.0 GB 201.458 GB 44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
当增加新盘后,可进行RAID级别迁移。
命令格式
storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
vd_id |
要操作的RAID的ID |
– |
slot_id |
要加入RAID的新硬盘的槽位号 |
– |
level |
增加硬盘后RAID的级别 |
l 与原RAID级别相同时,该命令为扩大RAID容量。 l 与原RAID级别不同时,该命令为RAID级别迁移。 |
以上涉及的各个ID的查询方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 在RAID 0中增加slot 2硬盘扩容。
domino:~# ./storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 13 Minutes
-------------------------------------------------------
# 单盘RAID 0加盘迁移至RAID 1。
domino:~# ./storcli64 /c0/v0 start migrate type=r1 option=add drives=252:3
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 14 Minutes
-------------------------------------------------------
命令功能
查询和清除PreservedCache数据。
命令格式
storcli64 /ccontroller_id show preservedcache
storcli64 /ccontroller_id/vvd_id delete preservedcache force
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
vd_id |
要操作的RAID的ID |
– |
以上涉及的各个ID的查询方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查询PreservedCache。
domino:~# ./storcli64 /c0 show preservedcache
Controller = 0
Status = Success
Description = No Virtual Drive has Preserved Cache Data.
命令功能
设置一致性检查参数。
命令格式
storcli64 /ccontroller_id[/vvd_id]show cc
storcli64 /ccontroller_id/vvd_id start cc force
storcli64 /ccontroller_id/vvd_id action cc
storcli64 /ccontroller_id set cc=conc delay=value starttime=time excludevd=evd_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
vd_id |
要操作的RAID的ID |
– |
action |
要执行的操作 |
l pause:暂停 l resume:继续执行 l stop:停止 |
value |
一致性检查周期 |
– |
time |
一致性检查起始时间 |
例如:2016/07/14 22:00:00 |
evd_id |
不进行一致性检查的虚拟磁盘ID |
– |
以上涉及的各个ID的查询方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
show命令中不带/vvd_id时,表示查询自动CC参数。
show命令中带/vvd_id时,表示查询CC进度。
使用实例
# 设置一致性自动检查参数。
domino:~# ./storcli64 /c0 set cc=conc delay=1 starttime=2016/07/14 22:00:00 excludevd=0
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------
Ctrl_Prop Value
------------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2016/07/14 22:00:00
CC ExcludeVD(0) Success
------------------------------------
# 查询CC进度。
domino:~# ./storcli64 /c0/v1 show cc
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimited Time Left
-----------------------------------------------------------
0 CC - Not in progress -
-----------------------------------------------------------
命令功能
查询和设置系统巡检的相关参数。
命令格式
storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number
storcli64 /ccontroller_id set patrolread delay=delaytime
storcli64 /ccontroller_id show patrolread
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
time |
系统巡检起始时间 |
例如:2016/07/15 23:00:00 |
number |
可同时巡检的硬盘数量 |
– |
delaytime |
系统巡检周期 |
单位为hour。 |
查看RAID卡ID的方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置patrolread的起始时间为“2016/07/15 23:00:00”,同时巡检的硬盘数为“2”。
domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23:00:00 maxconcurrentpd=2
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
PR Starttime 2016/07/15 23:00:00
PR MaxConcurrentPd 2
---------------------------------------
# 查询patrolread信息。
domino:~# ./storcli64 /c0 show patrolread
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------------------------
Ctrl_Prop Value
--------------------------------------------
PR Mode 2016/07/15 23:00:00
PR Execution Delay
PR iterations completed 0
PR Next Start time 07/16/2016,00:00:00
PR on SSD Disabled
PR Current State Stopped
--------------------------------------------
命令功能
查询和设置Cache的刷新周期。
命令格式
storcli64 /ccontroller_id show cacheflushint
storcli64 /ccontroller_id set cacheflushint time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
time |
Cache的刷新周期 |
单位为s |
查看RAID卡ID的方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Cache的刷新周期为“10”。
domino:~# ./storcli64 /c0 set cacheflushint=10
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10 sec
---------------------------
# 查询Cache的刷新周期。
domino:~# ./storcli64 /c0 show cacheflushint
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10
---------------------------
命令功能
强制设置硬盘状态。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id set state
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
state |
要设置的硬盘状态 |
l online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。 l offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。 l jbod:通过该参数可以将硬盘设置为直通硬盘。 l good: − ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置; − JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。 l good:将硬盘设为空闲盘 |
以上涉及的各个ID的查询方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。
domino:~# ./storcli64 /c0/e0/s1 set good force
Controller = 0
Status = Success
Description = Set Drive Good Succeeded.
命令功能
点亮和熄灭指定硬盘的定位指示灯。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。 |
slot_id |
物理硬盘槽位编号 |
可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。 |
action |
要执行的操作 |
l start:点亮硬盘的定位指示灯。 l stop:熄灭硬盘的定位指示灯。 |
以上涉及的各个ID的查询方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 点亮slot 7硬盘的定位指示灯。
domino:~# ./storcli64 /c0/e252/s7 start locate
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.
命令功能
查询RAID卡、虚拟磁盘、物理硬盘的详细信息。
命令格式
storcli64 /ccontroller_id show
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all
storcli64 /ccontroller_id/vvd_id show all
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID |
enclosure_id |
硬盘所在Enclosure的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制器连接的硬盘背板的ID |
slot_id |
物理硬盘槽位编号 |
可以将该参数设置为all,表示查询所有硬盘的ID |
vd_id |
虚拟磁盘ID |
可以为all,表示查询所有虚拟磁盘信息。 |
使用指南
回显中主要字段的含义如表3-43所示。
命令格式 |
字段 |
含义 |
举例 |
storcli64 /ccontroller_id show |
Product Name |
RAID卡的型号 |
sas3108 |
FW Version |
RAID卡的FW版本 |
4.660.00-8140 |
|
Driver Name |
RAID卡的驱动名称 |
megaraid_sas |
|
Driver Version |
RAID卡的驱动版本 |
06.811.02.00-rh1 |
|
Current Personality |
RAID卡的工作模式 |
RAID-Mode |
|
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all |
SN |
物理硬盘的序列号 |
PHWL517601YR800RGN |
Manufacturer Id |
物理硬盘的供应商ID |
ATA |
|
Model Number |
物理硬盘的模块序号 |
INTEL SSDSC2BB800G4 |
|
Firmware Revision |
物理硬盘的FW版本 |
D2010370 |
|
Raw size |
物理硬盘的容量 |
745.211 GB [0x5d26ceb0 Sectors] |
|
Logical Sector Size |
物理硬盘逻辑分区大小 |
512B |
|
Physical Sector Size |
物理扇区大小 |
4 KB |
|
storcli64 /ccontroller_id/vvd_id show all |
TYPE |
RAID组的级别 |
RAID1 |
State |
RAID组的状态 |
Optl |
|
Access |
RAID组数据的访问策略 |
RW |
|
Cache |
RAID组当前的读写策略与IO Policy |
RWTD |
|
Size |
RAID组的大小 |
100.0 GB |
|
PDs for VD0 |
RAID组下的物理硬盘 |
- |
|
Strip Size |
RAID组的条带大小 |
256KB |
|
Write Cache(initial setting) |
RAID组Cache的写策略 |
Write Through |
|
Disk Cache Policy |
RAID组成员盘的Cache策略 |
Disk's Default |
使用实例
#查询RAID卡的详细信息。
[root@localhost ~]# ./storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
Product Name = SAS3508
Serial Number =
SAS Address = 50030130f0900000
PCI Address = 00:01:00:00
System Time = 07/07/2018 22:06:42
Mfg. Date = 00/00/00
Controller Time = 07/07/2018 14:06:41
FW Package Build = 24.16.0-0093
BIOS Version = 6.32.02.0_4.17.08.00_0x06150500
FW Version = 4.660.00-8140
Driver Name = megaraid_sas
Driver Version = 06.811.02.00-rh1
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x5D
SubVendor Id = 0x19E5
SubDevice Id = 0xD207
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Drive Groups = 1
TOPOLOGY :
========
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size PDC PI SED DS3 FSpace TR
-----------------------------------------------------------------------------
0 - - - - RAID1 Optl N 744.125 GB dflt N N none N N
0 0 - - - RAID1 Optl N 744.125 GB dflt N N none N N
0 0 0 252:1 18 DRIVE Onln N 744.125 GB dflt N N none - N
0 0 1 252:0 48 DRIVE Onln N 744.125 GB dflt N N none - N
-----------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 1
VD LIST :
=======
---------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC Size Name
---------------------------------------------------------------
0/0 RAID1 Optl RW Yes RWBD - ON 744.125 GB
---------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 6
PD LIST :
=======
---------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp Type
---------------------------------------------------------------------------------
252:0 48 Onln 0 744.125 GB SATA SSD N N 512B INTEL SSDSC2BB800G4 U -
252:1 18 Onln 0 744.125 GB SATA SSD N N 512B INTEL SSDSC2BB800G4 U -
252:2 19 UGood - 744.125 GB SATA SSD N N 512B INTEL SSDSC2BA800G4 U -
252:3 20 UGood - 744.125 GB SATA SSD N N 512B INTEL SSDSC2BA800G4 U -
252:4 49 UGood - 744.125 GB SATA SSD N N 512B INTEL SSDSC2BB800G4 U -
252:5 47 UGood - 744.125 GB SATA SSD N N 512B INTEL SSDSC2BB800G4 U -
---------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Cachevault_Info :
===============
------------------------------------
Model State Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 28C - 2016/11/04
------------------------------------
#查询slot0的物理硬盘的信息。
[root@localhost ~]# ./storcli64
/c0/e252/s0 show all
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
Drive /c0/e252/s0 :
=================
---------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp Type
---------------------------------------------------------------------------------
252:0 48 Onln 0 744.125 GB SATA SSD N N 512B INTEL SSDSC2BB800G4 U -
---------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Drive /c0/e252/s0 - Detailed Information :
========================================
Drive /c0/e252/s0 State :
=======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature = 20C (68.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
Drive /c0/e252/s0 Device attributes :
===================================
SN = PHWL517601YR800RGN
Manufacturer Id = ATA
Model Number = INTEL SSDSC2BB800G4
NAND Vendor = NA
WWN = 55cd2e404c533246
Firmware Revision = D2010370
Raw size = 745.211 GB [0x5d26ceb0 Sectors]
Coerced size = 744.125 GB [0x5d040800 Sectors]
Non Coerced size = 744.711 GB [0x5d16ceb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 6.0Gb/s
NCQ setting = Enabled
Write cache = N/A
Logical Sector Size = 512B
Physical Sector Size = 4 KB
Connector Name = Port A x1
Drive /c0/e252/s0 Policies/Settings :
===================================
Drive position = DriveGroup:0, Span:0, Row:1
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = No
Wide Port Capable = No
Port Information :
================
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
0 Active 6.0Gb/s 0x4433221100000000
-----------------------------------------
Inquiry Data =
40 00 ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 48 50 4c 57 31 35 36 37 31 30 52 59
30 38 52 30 4e 47 20 20 00 00 00 00 00 00 32 44
31 30 33 30 30 37 4e 49 45 54 20 4c 53 53 53 44
32 43 42 42 30 38 47 30 20 34 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 01 80
00 40 00 2f 00 40 00 00 00 00 07 00 ff 3f 10 00
3f 00 10 fc fb 00 01 bf ff ff ff 0f 00 00 07 00
# 查询VD 0的信息。
[root@rhel6u5 ~]#
/opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
/c0/v0 :
======
---------------------------------------------------------
DG/VD TYPE State Access Consist Cache sCC Size Name
---------------------------------------------------------
1/0 RAID1 Optl RW Yes RWTD - 1.089 TB
---------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|B=Blocked|Consist=Consistent|
R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
PDs for VD 0 :
============
-----------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp
-----------------------------------------------------------------------
25:22 14 Onln 1 1.089 TB SAS HDD N N 512B ST1200MM0007 U
25:23 26 Onln 1 1.089 TB SAS HDD N N 512B ST1200MM0007 U
-----------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded
VD0 Properties :
==============
Strip Size = 256 KB
Number of Blocks = 2341795840
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 2
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = Disabled
Active Operations = None
Exposed to OS = Yes
Creation Date = 04-01-2018
Creation Time = 12:38:35 PM
Emulation type = None
命令功能
查询超级电容的名称及TFM Flash卡缓存容量的大小等信息。
命令格式
storcli64 /ccontroller_id/cv show all
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
可以为all,表示所有控制器。 |
查看RAID卡ID的方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用实例
#查询超级电容的相关信息。
[root@localhost ~]# ./storcli64
/c0/cv show all
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
Cachevault_Info :
===============
--------------------
Property Value
--------------------
Type CVPM02
Temperature 28 C
State Optimal
--------------------
Firmware_Status :
===============
---------------------------------------
Property Value
---------------------------------------
Replacement required No
No space to cache offload No
Module microcode update required No
---------------------------------------
GasGaugeStatus :
==============
------------------------------
Property Value
------------------------------
Pack Energy 294 J
Capacitance 108 %
Remaining Reserve Space 0
------------------------------
Design_Info :
===========
------------------------------------
Property Value
------------------------------------
Date of Manufacture 04/11/2016
Serial Number 22417
Manufacture Name LSI
Design Capacity 288 J
Device Name CVPM02
tmmFru N/A
CacheVault Flash Size 8.0 GB
tmmBatversionNo 0x05
tmmSerialNo 0xee7d
tmm Date of Manufacture 09/12/2016
tmmPcbAssmNo 022544412A
tmmPCBversionNo 0x03
tmmBatPackAssmNo 49571-13A
scapBatversionNo 0x00
scapSerialNo 0x5791
scap Date of Manufacture 04/11/2016
scapPcbAssmNo 1700134483
scapPCBversionNo A
scapBatPackAssmNo 49571-13A
Module Version 6635-02A
------------------------------------
Properties :
==========
--------------------------------------------------------------
Property Value
--------------------------------------------------------------
Auto Learn Period 27d (2412000 seconds)
Next Learn time 2018/08/03 17:48:38 (586633718 seconds)
Learn Delay Interval 0 hour(s)
Auto-Learn Mode Transparent
--------------------------------------------------------------
l 上述回显信息中,“Device Name CVPM02”表示超级电容的名称为 “CVPM02”,“CacheVault Flash Size 8.0GB”表示TFM Flash卡缓存容量为“8.0GB”。
l 当回显信息的“State”显示为“FAILED”时,需要更换超级电容。
命令功能
升级硬盘的FW。
命令格式
./storcli64 /ccontroller_id /eenclosure_id/sslot_id download src=FW_name.bin
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
FW_name |
硬盘FW的名称 |
– |
以上涉及的各个ID的查询方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用实例
#升级硬盘FW。
[root@localhost ~]# ./storcli64
/c0/e64/s5 download src=5200_D1MU004_Releasefullconcatenatedbinary.bin
Starting microcode update .....please wait...
Flashing PD image ..... please wait...
CLI Version = 007.0504.0000.0000 Nov 22,2017
Operation system = Linux 3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = Firmware Download succeeded.
Drive Firmware Download :
========================
--------------------------------------------------------------------------------
Drive Status ErrCd ErrMsg
--------------------------------------------------------------------------------
/c0/e64/s5 Success 0 -
--------------------------------------------------------------------------------
命令功能
手动重构RAID组。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row
storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
要加入Array的物理硬盘槽位编号 |
– |
DG |
硬盘发生故障的DG的ID |
– |
Arr |
硬盘发生故障的Array的ID |
– |
Row |
硬盘发生故障的Array的row number |
– |
以上涉及的各个ID的查询方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
重构RAID分3个步骤进行:
1.通过./storcli64 /c0 show 命令,查询故障硬盘的DG、Arr和Row所对应的数字。
2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。
3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID。
使用实例
# 将硬盘加入RAID组。
[root@localhost ~]# storcli64
/c0/e252/s1 insert dg=0 array=0 row=0
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = Insert Drive Succeeded.
# 手动重构RAID。
[root@localhost ~]# storcli64
/c0/e252/s1 start rebuild
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
命令功能
设置RAID卡的硬盘直通功能的使能情况,并指定直通硬盘。
命令格式
storcli64 /ccontroller_id set jbod=state
storcli64 /ccontroller_id/eenclosure_id/sslot_id set JBOD
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
state |
RAID卡JBOD功能的使能情况 |
l on l off |
以上涉及的各个ID的查询方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 使能RAID卡的硬盘直通功能,并设置slot 7硬盘为直通盘。
domino:~# ./storcli64 /c0 set jbod=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
JBOD ON
----------------
domino:~# ./storcli64 /c0/e252/s7 set JBOD
Controller = 0
Status = Success
Description = Set Drive JBOD Succeeded.
命令功能
收集和清除RAID卡的日志。
命令格式
storcli64 /ccontroller_id show termlog
storcli64 /ccontroller_id delete termlog
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
查询RAID卡ID的查询方法请参见3.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 收集RAID卡的日志。
[root@localhost idriver]# ./storcli64
/c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19 6:48:11: C0:TTY History buffer cleared
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
# 删除RAID卡的日志。
[root@localhost idriver]# ./storcli64
/c0 delete termlog
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------------------
Ctrl Method Result
----------------------------
0 Delete Termlog deleted
----------------------------
关于本章
本章节主要介绍Avago SAS3408iMR RAID卡的外观、特性、以及配置方法。
Avago SAS3408iMR RAID卡支持的服务器可联系技术支持获取。
Avago SAS3408iMR RAID 控制卡(以下简称Avago SAS3408iMR)是基于MegaRAID架构的8端口12Gbit/s SAS控制器,并采用PCIex8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。
Avago SAS3408iMR用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。
Avago SAS3408iMR RAID卡不支持虚拟化场景,在安装操作系统前,需要在BIOS中将“Advanced > MISC Config”界面中的参数“Support Smmu”设置为“Disabled”。
Avago SAS3408iMR支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考4.2.13 硬盘直通。
Avago SAS3408iMR包含PCIe标卡与扣卡两种形态:
l Avago SAS3408iMR扣卡与主板通过1个Xcede连接器互连,与硬盘背板通过2个MINISAS线缆互连,结构如图4-1所示。
l Avago SAS3408iMR的PCIe标卡安装在服务器的PCIe槽位上,结构如图4-2所示。
1 |
系统错误灯 |
2 |
单板电源指示灯 |
3 |
系统心跳灯 |
4 |
Xcede连接器 |
5 |
MINISAS接口 |
- |
- |
Avago SAS3408iMR单板指示灯说明如表4-1所示。
指示灯 |
颜色 |
说明 |
单板电源指示灯 |
绿色 |
l 亮:电源正常。 l 灭:电源关闭或异常。 |
系统错误灯 |
红色 |
l 亮:系统运行异常。 l 灭:系统运行正常。 |
系统心跳灯 |
绿色 |
l 灯以2s周期闪烁:Avago SAS3408iMR RAID卡正在工作。 l 灯灭:Avago SAS3408iMR RAID卡未开始运行或FW运行异常。 |
Avago SAS3408iMR支持硬盘以直通方式和加入RAID组两种方式混合使用,其中:
l 硬盘直通模式支持的最大硬盘数量为63。
l 直通模式的硬盘和加入RAID组中的硬盘数量最多为63。
l 所有RAID组包含的最大硬盘数量为32。
该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。
l 每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
l 最多支持32个虚拟磁盘(即配置界面中看到的“Virtual Drive”),每个虚拟磁盘最多包含32个硬盘。
Avago SAS3408iMR支持的RAID类型及对应的硬盘个数如表4-2所示。
RAID级别 |
支持硬盘数 |
支持子组数 |
子组支持硬盘数 |
允许坏盘数 |
RAID 0 |
1~32 |
不涉及 |
不涉及 |
0 |
RAID 1 |
2~32(偶数) |
硬盘数÷2 |
||
RAID 10 |
4~32(偶数) |
2~8个RAID 1 |
2~16(偶数) |
子组数 |
l 不支持RAID 00级别。
l RAID10损坏的硬盘不能是连续的,具体说明请参见1.2 RAID级别介绍。
l 子组数:子RAID的个数。
l RAID 10每个子组中最多允许1个坏盘。
l RAID 10包含的总硬盘数由子组数和子组支持的硬盘数共同决定。
Avago SAS3408iMR的热备功能分为两种:热备盘和紧急备份。
热备盘
对服务器的硬盘进行RAID分组后,一般会配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l Global HSP:即全局热备盘,为RAID卡上所有已配置的RAID所共有,1块RAID卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
配置方法请参见4.4.1.1 配置全局热备盘。
l Dedicated HSP:即局部热备盘,为RAID卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。
配置方法请参见4.4.1.2 配置局部热备盘。
热备盘容量需大于等于成员盘容量。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须是SATA硬盘或SAS硬盘,容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
紧急备份
使能RAID卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
紧急备份同样要求用于备份的空闲盘容量大于等于成员盘容量。
紧急备份有两种情况,对应了两种设置:
l 当成员盘fail时,空闲盘替代成员盘作为紧急备份。
l 当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。
配置方法请参见4.4.2 设置紧急热备功能。
热插拔即带电插拔,用户不需要进行任何配置,就可以在不关闭系统、不切断电源的情况下取出和更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。
l 人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考4.4.9 导入/清空外部配置章节恢复RAID组,无需更换硬盘。
l 请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。
具备冗余功能的RAID的成员盘故障之后,热备盘自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。
条带化
当多个进程同时访问一个磁盘时,可能会出现磁盘冲突。大多数磁盘系统都对访问次数和数据传输率有限制。当达到这些限制时,后面需要访问磁盘的进程就需要等待,这时就是所谓的磁盘冲突。
条带化技术是一种自动将I/O负载均衡到多个物理磁盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同磁盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成磁盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。
影响条带化效果的因素有:
l 条带宽度:指同时可以并发读或写的条带数量。
这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。
在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。
l 条带大小:指写在每块磁盘上的条带数据块的大小。
分条
硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带单元大小进行分条,数据在写入时也会按照条带单元大小划分数据块。
Avago SAS3408iMR不支持设置条带大小,默认为64KB。
VD初始化
创建虚拟磁盘后,需要将其初始化,使其可以被操作系统使用,且使具有冗余功能的虚拟磁盘中各成员盘的数据关系满足相应的RAID级别要求。
Avago SAS3408iMR提供了多种相应的初始化方式:
l 快速初始化:属于前台初始化,Firmware只要把虚拟磁盘的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。
l 慢速初始化:属于前台初始化,Firmware需要把整个虚拟磁盘都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。
l 后台初始化:目的是使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。对于RAID 1/RAID 10,如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。
l 一致性检查(CC)和后台初始化通常会对性能造成一定损失,直至该操作完成。
l 一致性检查和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性检查会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性检查,但不能手动启动后台初始化。
硬盘初始化
硬盘可执行的初始化包括:
l Initialize Drive:对前100MByte空间进行全写0操作。
l Drive Erase:对全部空间进行写0操作。
Avago SAS3408iMR不支持停止SATA SSD的擦除和初始化过程。
RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见4.4.5 迁移RAID级别。
当前支持以下级别类型的迁移:
l RAID 0迁移到RAID 1
l RAID 1迁移到RAID 0
RAID迁移对硬盘数量的最低要求如表4-3所示。
迁移RAID级别 |
原始磁盘组硬盘数量 |
需要增加硬盘数量 |
RAID 0迁移 RAID 1 |
1 |
1 |
RAID 1迁移到RAID 0 |
2 |
- |
Avago SAS3408iMR支持的容量扩展方式有两种:
l 通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。
详细操作方法可参考4.4.3 添加新硬盘到RAID。
l 通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。
详细操作方法可参考4.4.4 扩展Virtual Drives可用空间。
l 只有RAID 0、RAID1支持增加硬盘扩容。
l RAID 10不支持增加硬盘扩容。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
安全擦除即将硬盘上的数据彻底删除,使其无法恢复。RAID卡提供了三种级别的虚拟磁盘安全擦除功能:
l Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。
l Normal:对虚拟磁盘或硬盘进行三轮擦除动作。
l Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。
安全数据擦除过程中,主机无法访问该虚拟磁盘。
Avago SAS3408iMR支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。
磁盘巡检功能设计为预防性措施,用于确保物理磁盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理磁盘上的潜在问题。
磁盘巡检根据未完成的磁盘I/O调整专用于磁盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则磁盘巡检将使用较少的资源,以使I/O获得更高的优先级。
磁盘巡检不能在参与以下任何操作的任何磁盘上运行:
l RAID热备修复
l 动态扩盘
l 完全初始化或后台初始化
l 一致性检查(CC)
S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T 监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据丢失。
RAID卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描。扫描周期可通过S.M.A.R.T Polling设置,默认300s。当扫描到硬盘有SMART error时,RAID卡便会记录日志。
RAID卡具备磁盘省电功能。此功能根据磁盘配置和I/O活动允许磁盘停转。所有旋转式SAS和SATA磁盘均支持此功能。
默认情况下,硬盘节能功能处于开启状态。
当硬盘节能功能开启时,RAID卡下挂载的“Unconfig Good”状态的磁盘和空闲热备盘均处于节能状态。当有操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)需要唤醒正处于节能状态的磁盘,该操作会有一定程度的延迟。
硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。
Avago SAS3408iMR可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在Avago SAS3408iMR下的硬盘作为安装盘;而不支持硬盘直通的RAID卡,在操作系统安装过程中,只能找到该RAID卡下已经配置好的虚拟磁盘作为安装盘。
Avago SAS3408iMR支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
如果需要使能硬盘直通功能,请在图4-61所示界面的“JBOD Mode”参数进行设置。
JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时BMC会对其进行告警。
硬盘包含2个指示灯,其状态说明如表4-4所示。
指示灯 |
颜色 |
说明 |
Fault指示灯 |
黄色 |
l 灭:表示硬盘运行正常。 l 黄色闪烁:表示硬盘处于被定位状态或RAID重构状态。 l 黄色常亮:表示硬盘故障或RAID组中的成员盘状态异常。 说明 JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时BMC会对其进行告警。 |
Active指示灯 |
绿色 |
l 灭:表示硬盘不在位或硬盘故障。 l 绿色闪烁:表示硬盘处于读写状态或同步状态。 l 绿色常亮:表示硬盘处于非活动状态。 |
磁盘漫游是指在同一控制器下移动物理磁盘。控制器将自动识别重新定位的物理磁盘,并从逻辑上将其置于属于磁盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行磁盘漫游。
要使用磁盘漫游,按以下步骤操作:
1. 关闭操作系统。
2. 将服务器下电。
3. 将物理磁盘移动到背板所需位置。
4. 执行安全检查。确保正确插入物理磁盘。
5. 将服务器上电。
6. 控制器从物理磁盘上的配置数据中检测到RAID配置。
如果RAID卡检测到物理磁盘包含RAID配置信息,则会将该物理磁盘标记为“Foreign”,表明检测到外部磁盘。
此时,可执行导入操作将该外部配置在当前RAID卡环境中生效,实现配置迁移。
Avago SAS3408iMR提供硬盘故障记录功能:
l 使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,用户可以自行决定清除或导入外部数据。
l 禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,Avago SAS3408iMR会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。
维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。
l 使能该功能后,当硬盘故障时,会点亮Fault指示灯。
l 禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。
默认情况下,Avago SAS3408iMR使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。
针对有冗余功能的RAID 1、RAID10,RAID卡可以对RAID组的硬盘数据进行一致性检查,对磁盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。
由于RAID 0不具备冗余性,因此不支持一致性校验。
建议您每月至少进行一次一致性校验。
文档中描述的关于Avago SAS3408iMR的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
步骤 1 通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 2 重启服务器。
步骤 3 重启过程中,当出现如图4-3所示界面时,按“Delete”。
步骤 4 输入密码并按“Enter”。
进入Setup Utility界面。
BIOS的默认密码为“Password@_”。
步骤 5 按“→”切换到“Advanced”页签,如图4-4所示。
如果Advanced界面无法找到RAID卡或显示“Some drivers are not healthy”,请参见4.5.3 BIOS下的Advanced界面无法找到RAID卡或Advanced中RAID卡状态显示Not Healthy进行修复。
步骤 6 选择要操作的Avago SAS3408iMR控制器,按“Enter”。
进入如图4-5和图4-6所示主界面,界面参数如表4-5所示。
参数 |
说明 |
Main Menu |
RAID卡主菜单,包含了RAID卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID卡当前工作状态。 |
Backplane |
背板个数。 |
BBU |
超级电容在位情况。 说明 Avago SAS3408iMR不支持超级电容,该选项显示为“No”。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的磁盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 说明 仅当Avago SAS3408iMR存在外部配置时,会显示该选项。 |
Configure |
提供删除配置的接口。 |
Set Factory Default |
恢复出厂设置。 |
Update Firmware |
升级固件。 |
Silence Alarm |
板载蜂鸣器的使能状态。 说明 Avago SAS3408iMR未配置蜂鸣器,此项设置不起作用。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3408iMR支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见4.2.1 支持RAID 0/1/10。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见4.3.1 登录管理界面。
步骤 2 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图4-7和图4-8所示,参数说明如表4-6所示。
图4-7 “Create Virtual Drive”界面(1)
图4-8 “Create Virtual Drive”界面(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,Avago SAS3408iMR当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 Avago SAS3408iMR当前不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 Avago SAS3408iMR当前不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 Avago SAS3408iMR当前不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。
步骤 4 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图4-9所示,界面参数如表4-7所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 按表4-7所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“Enabled”时表示该硬盘已选择。
l RAID 0支持的硬盘个数为1~32。
l 当RAID卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。
5. 选择“Apply Changes”并按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 配置虚拟磁盘属性。
按照表4-6所述配置虚拟磁盘的其他属性。
步骤 6 保存配置。
1. 选择“Save Configuration”并按“Enter”。
弹出操作确认界面。
2. 通过“Enter”键把“Confirm”状态切换成“Enabled”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 7 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3408iMR支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见4.2.1 支持RAID 0/1/10。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见4.3.1 登录管理界面。
步骤 2 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图4-10和图4-11所示,参数说明如表4-8所示。
图4-10 “Create Virtual Drive”界面(1)
图4-11 “Create Virtual Drive”界面(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,Avago SAS3408iMR当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 Avago SAS3408iMR当前不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 Avago SAS3408iMR当前不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 Avago SAS3408iMR当前不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。
步骤 4 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图4-12所示,界面参数如表4-9所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 按表4-9所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“Enabled”时表示该硬盘已选择。
l RAID 1支持的硬盘个数为2~32(偶数)。
l 当RAID卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。
5. 选择“Apply Changes”并按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 配置虚拟磁盘属性。
按照表4-8所述配置虚拟磁盘的其他属性。
步骤 6 保存配置。
1. 选择“Save Configuration”并按“Enter”。
弹出操作确认界面。
2. 通过“Enter”键把“Confirm”状态切换成“Enabled”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 7 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l Avago SAS3408iMR支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见4.2.1 支持RAID 0/1/10。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见4.3.1 登录管理界面。
步骤 2 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图4-13和图4-14所示,参数说明如表4-10所示。
图4-13 Create Virtual Drive (1)
图4-14 “Create Virtual Drive” (2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,Avago SAS3408iMR当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 Avago SAS3408iMR当前不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 Avago SAS3408iMR当前不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 Avago SAS3408iMR当前不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。
步骤 4 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图4-15所示,界面参数如表4-11所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 按表4-11所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“Enabled”时表示该硬盘已选择。
l RAID 10支持2~8个Span,每个Span支持的硬盘数为2~16(偶数),且各个Span的硬盘数量必须保持一致。
l RAID 10支持的硬盘总数为4~32。
l 当RAID卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。
5. 选择“Apply Changes”按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如图4-16所示。
1. 选择“Add More Spans”并按“Enter”。
2. 选择“Select Drives”并按“Enter”。
3. 在打开的列表中选择第2个Span的成员盘。
各个Span的硬盘数量必须保持一致。
4. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
5. 选择“OK”并按“Enter”完成成员盘配置。
步骤 6 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID10至少需要创建2个Span,最多可以创建8个Span。
步骤 7 配置虚拟磁盘属性。
按照表4-10所述配置虚拟磁盘的其他属性。
步骤 8 保存配置。
1. 选择“Save Configuration”并按“Enter”。
弹出操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 9 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”界面并按“Enter”。
显示当前存在的RAID信息。
----结束
同一台服务器配置了单个Avago SAS3408iMR卡或者多种芯片硬盘控制器的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。
对服务器的硬盘进行RAID分组后,一般会配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
Avago SAS3408RAID卡支持2种类型的热备盘:
l Global Hotspare:即全局热备盘,为RAID卡上所有已配置的RAID所共有,1块RAID卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
l Dedicated Hotspare:即局部热备盘,为RAID卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须是SATA硬盘或SAS硬盘,容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
操作步骤
步骤 1 登录管理界面,具体操作方法请参见4.3.1 登录管理界面。
步骤 2 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图4-17所示。
步骤 3 配置全局热备盘。
1. 将“Operation”设置为“Assign Global Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
显示The operation has been performed successfully。
3. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作步骤
当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
步骤 1 登录管理界面,具体操作方法请参见4.3.1 登录管理界面。
步骤 2 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图4-18所示。
步骤 3 配置局部热备盘。
1. 将“Operation”设置为“Assign Dedicated Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
打开当前存在的虚拟磁盘列表。
3. 选择要关联的虚拟磁盘并按“Enter”。
4. 选择“OK”按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”,完成配置并返回上级界面。
----结束
操作场景
当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。
操作步骤
步骤 1 登录管理界面,具体操作方法请参见4.3.1 登录管理界面。
步骤 2 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图4-19所示。
步骤 3 删除热备盘。
1. 将“Operation”设置为“Unassign Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作步骤
步骤 1 登录管理界面,具体操作方法请参见4.3.1 登录管理界面。
步骤 2 进入“Advanced Controller Properties”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
3. 选择“Advanced Controller Properties”并按“Enter”。
步骤 3 设置紧急热备。
1. 选择“Spare”并按“Enter”。
2. 将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如图4-20所示。
3. 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
----结束
操作场景
l 只有RAID 0、RAID 1支持增加硬盘扩容。
l RAID 10不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l RAID卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
对系统的影响
增加硬盘扩容过程中,如果出现硬盘故障,会导致:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行增加硬盘扩容操作。
必备事项
前提条件
添加硬盘扩容之前,需具备如下条件:
l 服务器存在未加入RAID的硬盘。
l 已通过远程虚拟控制台登录到服务器的实时操作桌面。
l 已登录管理界面,具体操作请参见4.3.1 登录管理界面。
数据
操作之前建议先备份数据。
操作步骤
步骤 1 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”。
进入虚拟磁盘选项界面,如图4-21所示。
步骤 2 添加新硬盘。
1. 选择要进行扩容的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图4-22所示。
3. 选择“Reconfigure Virtual Drives”,并按“Enter”
4. 选择“Go”并按“Enter”。
5. 选择要扩容的RAID级别。
增加硬盘扩容时,请保证该处的RAID级别与原级别一致。
6. 选择“Choose the Operation”,并按“Enter”。
进入硬盘选择界面,如图4-23所示。
7. 选择要增加的硬盘,并按“Enter”。
l 硬盘状态为“【×】”时表示该硬盘已选择。
l 增加的硬盘要与RAID组的成员盘同类型同规格。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。
l RAID卡不支持同时对两个及以上的RAID组进行扩容操作。
8. 选择“Apply Changes”并按“Enter”。
进入操作确认界面。
9. 选择“Confirm”并按“Enter”。
10. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
11. 选择“OK”并按“Enter”。
返回到如图4-24所示界面。
12. 选择“Start Operation”并按“Enter”。
显示操作成功。
13. 选择“OK”并按“Enter”。
重新进入虚拟磁盘选项界面,验证扩容结果,如图4-25所示,表示RAID正在进行扩容。
图4-25 Reconfigure Virtual Drives
扩容属于后台动作,在HII界面只能触发而不能正式开始扩容,所以扩容的进度条一直显示为0%。当进入OS后,扩容才会开始进行。
----结束
操作场景
在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见4.3.1 登录管理界面。
步骤 2 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图4-26所示。
图4-26 Virtual Drive Management
步骤 3 扩容虚拟磁盘。
1. 将“Operation”设置为“Expand Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入虚拟磁盘扩容界面,如图4-27界面所示,界面参数如表4-12所示。
参数 |
参数说明 |
Current Capacity |
虚拟磁盘当前容量。 |
Available Capacity |
可用于扩展的容量。 |
Enter a Percentage of Available Capacity |
输入扩容比例。 |
Capacity of Virtual Drive after Expansion |
扩容后虚拟磁盘容量。 |
3. 设置扩容百分比。
4. 选择“OK”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作场景
随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。
在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。
对系统的影响
RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行RAID级别迁移操作。
必备事项
前提条件
迁移RAID级别之前,需具备如下条件:
l 已通过远程虚拟控制台登录到服务器的实时操作桌面。
l 当前存在的硬盘个数满足目标RAID级别要求。
l 已登录管理界面,具体操作请参见4.3.1 登录管理界面。
Avago SAS3408iMR RAID控制卡支持以下级别类型的迁移:
l RAID 0迁移到RAID 1
l RAID 1迁移到RAID 0
l 当一个DG下包含2个或2个以上的RAID组时,不支持RAID级别迁移。
RAID迁移对硬盘数量的最低要求如表4-13所示。
迁移RAID级别 |
原始硬盘组硬盘数量 |
需要增加硬盘数量 |
RAID 0迁移到RAID 1 |
1 |
1 |
RAID 1迁移到RAID 0 |
2 |
- |
l 为防止数据丢失,请在该操作之前备份当前RAID的数据。
l RAID卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
操作步骤
步骤 1 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”并按“Enter”。
进入虚拟磁盘选项界面,如图4-28所示。
步骤 2 选择RAID迁移的目标级别。
下面以将RAID 1迁移到RAID 0为例进行说明。
1. 选择要进行迁移的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图4-29所示。
3. 选择“Reconfigure Virtual Drives”,并按“Enter”。
4. 选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如图4-30所示。不设置时默认与原RAID组配置一致。
5. 选择“Go”,并按“Enter”。
进入RAID配置界面,如图4-31所示。
图4-31 Reconfigure Virtual Drives
6. 选择“New RAID Level”并按“Enter”。
打开RAID迁移的目标级别选择窗口,如图4-32所示。
7. 选择“RAID 0”并按“Enter”。
步骤 3 添加硬盘。
1. 选择“Choose the operation”并按“Enter”。
打开硬盘选择窗口。
2. 选择要增加的硬盘并按“Enter”。
RAID迁移对硬盘数量的最低要求请参见表4-13。
3. 选择“Apply Changes”并按“Enter”。
弹出操作确认会话框。
4. 选择“Confirm”并按“Enter”。
5. 选择“Yes”并按“Enter”。
提示操作成功。
6. 按“Esc”返回图4-31界面。
步骤 4 RAID级别迁移。
1. 选择“Start Operation”并按“Enter”。
提示操作成功。
2. 选择“OK”并按“Enter”。
步骤 5 查看迁移结果。
1. 进入Virtual Drive Management界面,检查迁移结果,如图4-33所示,表示RAID正在进行迁移。
2. 选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 1”变成“RAID 0”,且“Status”状态显示为“Optimal”时,表示RAID迁移成功。
----结束
操作场景
RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见4.3.1 登录管理界面。
步骤 2 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图4-34所示。
图4-34 Virtual Drive Management
步骤 3 删除虚拟磁盘。
1. 将“Operation”设置为“Delete Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
RAID中成员硬盘故障时,无论是更换新硬盘还是使用热备盘替代故障硬盘,都需要进行RAID重构。
默认情况下,当RAID有重构需求,并且有满足同步条件的硬盘存在时,系统自动启动重构操作。但当控制器的“Auto Rebuild”属性为“Disable”时,则需要手动重构。
该任务指导安装调测工程师进行RAID重构操作。
界面介绍
在“Main Menu”界面中选择“Drive Management”节点下具体的硬盘,并按“Enter”可打开该硬盘的操作菜单,如图4-35,可执行的操作如表4-14所示。
操作 |
说明 |
Select operation |
选择以下操作。 |
Star Locate |
点亮硬盘定位指示灯。 |
Stop Locate |
熄灭硬盘定位指示灯。 |
Rebuild |
重构RAID。 l Suspend l Resume l Stop |
Place drive Online |
将硬盘上线。 |
Mark drive as Missing |
将离线的硬盘脱离RAID组。 |
重构RAID
步骤 1 在菜单中选择“Rebuild”并按“Enter”。
打开Rebuild菜单。
步骤 2 选择操作类型,并按“Enter”。
弹出操作确认对话框。
步骤 3 选择“YES”并按“Enter”。
----结束
l 当出现硬盘离线情况时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。
l rebuild属于后台动作,在HII界面只能触发而不能正式开始rebuild,所以rebuild的进度条一直显示为0%。当进入OS后,rebuild才会开始进行。
操作场景
用户可以通过查看RAID卡属性的方式确定当前RAID卡是否符合实际需求。
操作步骤
步骤 1 登录管理界面,具体操作方法请参见4.3.1 登录管理界面。
步骤 2 进入“Controller Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
显示RAID卡基本信息,如图4-36所示,参数说明如表4-15所示。
参数 |
参数说明 |
Product Name |
RAID卡名称。 |
Serial Number |
RAID卡序列号。 |
Controller Status |
RAID卡的工作状态。 |
Select Boot Device |
当前启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见4.3.5 配置启动项。 |
PCI ID |
RAID卡的PCI ID。 |
PCI Slot Number |
RAID卡的PCI槽位号。 |
Package Version |
RAID卡的套件版本。 |
Firmware Version |
RAID卡的固件版本号。 |
NVDATA Version |
RAID卡配置信息的版本号。 |
Connector Count |
RAID卡与主板的接口个数。 |
Drive Count |
RAID卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID卡可以管理的虚拟磁盘个数。 |
Advanced Controller Management |
更多的控制器操作。 |
Advanced Controller Properties |
查看和修改控制器的高级属性。 |
步骤 3 查看控制器高级属性。
选择“Advanced Controller Properties”并按“Enter”。
进入控制器高级属性界面,如图4-37所示,参数说明如表4-16所示。
在该界面下,可查看并修改RAID卡的高级属性。
图4-37 Advanced Controller Properties界面(1)
图4-38 Advanced Controller Properties界面(2)
参数 |
说明 |
Profile Management |
管理快速RAID。 |
Patrol Read |
系统巡检。 |
Power Save Setting |
设置磁盘休眠。 |
Spare |
设置控制器热备状态。 |
Task Rates |
设置各种任务的处理速率。 |
Alarm Controller |
Avago SAS3408iMR控制器卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errrors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。 默认为“Stop On Errors”。 |
Controller BIOS |
控制器BIOS的使能情况。 |
ROC Temperature |
控制器温度。 |
Shield State Supported |
是否支持暂停IO,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
磁盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Expanded Virtual Drive Support |
是否支持扩容虚拟磁盘的功能。 |
Maintain Drive Fail History |
是否维护磁盘故障历史信息。 |
SMART Polling |
SMART轮巡检测周期。默认值为“300”。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性检查。 |
JBOD Mode |
硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。 |
Apply Changes |
保存配置。 |
----结束
操作场景
l 服务器更换RAID卡后,需要将原有配置导入新的RAID卡中。
l 新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或不需要的存储配置,可将该配置导入或者清空。
l 如服务器已配置RAID,在更换新RAID卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!
l 为避免导入外部配置失败,更换的RAID卡的型号要与原来的RAID卡保持一致。
l 当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。
操作步骤
步骤 1 登录管理界面,具体操作方法请参见4.3.1 登录管理界面。
步骤 2 进入“Preview Foreign Configuration”界面。
1. 在主界面中选择“View Foreign Configuration”并按“Enter”。
2. 选择“Preview Foreign Configuration”并按“Enter”。
进入外部配置管理界面,如图4-39所示。
图4-39 Preview Foreign Configuration
步骤 3 (可选)导入外部配置。
1. 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”,并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置返回上级界面。
步骤 4 (可选)清空外部配置。
1. 选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置返回上级界面。
----结束
该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID1存在一个VD为例(如图4-40所示),详细操作方法如下:
图4-40 Virtual Drive Management
步骤 1 按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如图4-41所示。
步骤 2 将“Select RAID Level”设置为“RAID1”。
步骤 3 将“Select Drives From”设置为“Free Capacity”,如图4-42所示。
步骤 4 选择“Select Drive Groups”并按“Enter”。
显示当前存在的RAID组(Drive Group),如图4-43所示。
步骤 5 选择要创建多个VD的RAID组,并按“Enter”,如图4-44所示。
步骤 6 选择“Apply Changes”并按“Enter”。
提示操作成功。
步骤 7 选择“OK”并按“Enter”返回VD配置界面,如图4-45所示,参数说明如表4-17所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,Avago SAS3408iMR当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 Avago SAS3408iMR当前不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 Avago SAS3408iMR当前不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 Avago SAS3408iMR当前不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 8 按照表4-17所述配置VD的相关属性。
步骤 9 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
步骤 10 选择“Confirm”并按“Enter”。
步骤 11 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
可进入Virtual Drive Management界面,查看当前存在的所有VD,如图4-46所示。
图4-46 Virtual Drive Management
----结束
每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤12。
介绍了硬盘故障、RAID卡故障、电池/电容故障的常用处理方法。更多故障案例请联系技术支持获取。
问题描述
当服务器出现如下现象时,说明硬盘故障。
l 硬盘故障指示灯常亮。
l 服务器开机状态下,硬盘指示灯不亮。
l 服务器上报硬盘故障告警。
处理方法
JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时BMC会对其进行告警。
l 通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。
l 通过管理软件BMC硬盘告警信息确认故障硬盘槽位,请参考BMC告警参考。
l 通过RAID卡GUI界面确认故障硬盘槽位信息,参考4.6.2.4 Drive Management。
l 通过RAID卡命令行工具确认故障硬盘槽位信息,参考4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
步骤 2 更换新硬盘。
l 更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘导致,则可以将硬盘设置为Unconfig Good后,参考4.4.9 导入/清空外部配置章节恢复RAID组,无需更换硬盘。
l 若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。
l 若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在表4-2查看RAID组支持的最大故障硬盘数量。
l 更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。
l 新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制器下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID卡删除RAID信息或硬盘低格章节。
拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:
l 若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。
l 若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。
l 若故障硬盘为直通盘,则直接更换即可。
l 若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。
− UEFI模式下创建RAID0的方法请参见4.3.2 创建RAID 0。
− 通过命令行方式创建RAID0的方法请参见4.7.2.8 创建和删除RAID。
----结束
问题描述
当服务器出现如下现象时,说明RAID控制卡故障。
l 数据无法写入RAID控制卡控制的硬盘。
l 服务器上报RAID控制卡故障告警。
处理方法
步骤 1 登录BMC Web界面查看告警信息。
步骤 2 根据告警信息,参考BMC告警处理手册处理。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤3
步骤 4 联系技术支持处理。
----结束
问题描述
正常情况下,当服务器配置了RAID卡且RAID卡状态正常时,进入BIOS的Advanced页签后,会显示RAID卡的信息,如图4-47所示。
如果Advanced页签不显示RAID卡的信息,如图4-48所示,则:
l 如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:
− 如果不显示驱动打印信息,可尝试下电后重新拔插RAID卡再上电、下电后更换RAID卡再上电或者联系技术支持。
− 如果显示“AVAGO EFI SAS Driver SAS3408”,则可以通过本章节的指导修复RAID卡。
l 如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,则可以通过本章节的指导修复RAID卡;如果不显示,可尝试下电后重新拔插RAID卡再上电、下电更换RAID卡再上电或者联系技术支持。
处理方法
l 当BIOS的版本为0.98之前版本(不包含0.98版本)时:
a. 在Advanced页签选择“Driver Health Manager”并按Enter。
进入“Driver Health Manager”界面。
b. 选择要进行修复的RAID卡驱动,如“AVAGO EFI SAS Driver SAS3408”,并按“Enter”。
进入“Critical Message”界面。
c. 查看“Critical Message”界面的打印信息:
n 显示“The following VDs have missing disks. ”=> 请参见4.5.3.1 The following VDs have missing disks。
n 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见4.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
l 当BIOS的版本为0.98及以上版本时:
a. 在“Advanced”页签选择“Some drivers are not healthy”。
进入健康状态查询界面。
b. 选择“Repair the whole platform”,并按“Enter”。
进入“Critical Message”界面。
c. 查看“Critical Message”界面的打印信息。
n 显示“The following VDs have missing disks. ”=> 请参见4.5.3.1 The following VDs have missing disks。
n 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见4.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
RAID卡启动过程中或RAID卡管理界面显示的更多启动消息的介绍及处理建议请参见A.2 常见RAID卡启动消息。
问题描述
如图4-49所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。
处理方法
步骤 1 修复RAID卡。
1. 在图4-49中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
2. 输入“C”并按“Enter”。
3. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
4. 输入“y”并按“Enter”。
提示“Critical Message handling completed. Please exit”。修复完成。
步骤 2 重启服务器,进入“Advanced”界面,检查是否显示RAID卡信息。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图4-50所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”
处理方法
步骤 1 根据图4-50的打印信息选择不同的操作。
l 显示All of the disks from your previous configuration are gone => 请依次执行步骤2~步骤6。
l 显示Some configured disks have been removed from your system => 请依次执行步骤2和步骤6。
1. 在图4-50中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
2. 输入“C”并按“Enter”。
3. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
4. 输入“Y”并按“Enter”。
提示Critical Message handling completed. Please exit。修复完成。
步骤 3 按Esc。
进入RAID卡配置界面。
步骤 4 在RAID卡配置界面选择“Configure”并按Enter。
进入“Configure”界面。
步骤 5 在“Configure”界面清除RAID卡配置。
具体操作请参见4.6.5 Configure。
步骤 6 重启服务器,进入“Advanced”界面,检查是否显示RAID卡信息。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
步骤 1 通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 2 重启服务器。
步骤 3 重启过程中,当出现如图4-51所示界面时,按“Delete”。
步骤 4 输入密码并按“Enter”。
进入Setup Utility界面。
BIOS的默认密码为“Password@_”。
步骤 5 按“→”切换到“Advanced”页签,如图4-52所示。
如果Advanced界面无法找到RAID卡或显示“Some drivers are not healthy”,请参见4.5.3 BIOS下的Advanced界面无法找到RAID卡或Advanced中RAID卡状态显示Not Healthy进行修复。
步骤 6 选择要操作的Avago SAS3408iMR控制器,按“Enter”。
进入如图4-53和图4-54所示主界面,界面参数如表4-18所示。
参数 |
说明 |
Main Menu |
RAID卡主菜单,包含了RAID卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID卡当前工作状态。 |
Backplane |
背板个数。 |
BBU |
超级电容在位情况。 说明 Avago SAS3408iMR不支持超级电容,该选项显示为“No”。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的磁盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 说明 仅当Avago SAS3408iMR存在外部配置时,会显示该选项。 |
Configure |
提供删除配置的接口。 |
Set Factory Default |
恢复出厂设置。 |
Update Firmware |
升级固件。 |
Silence Alarm |
板载蜂鸣器的使能状态。 说明 Avago SAS3408iMR未配置蜂鸣器,此项设置不起作用。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
RAID卡主菜单,提供配置、管理RAID卡的接口。
界面介绍
“Main Menu”界面如图4-55,参数说明如表4-19所示。
参数 |
参数说明 |
Configuration Management |
配置管理RAID。 |
Controller Management |
管理RAID控制器。 |
Virtual Drive Management |
管理虚拟磁盘。 |
Drive Management |
管理硬盘。 |
Hardware Components |
查询部件信息。 |
可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。
界面介绍
“Configuration Management”界面如图4-56,参数说明如表4-20所示。
图4-56 Configuration Management
参数 |
参数说明 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
快速创建RAID,RAID的参数由系统自动适配。 |
View Drive Group Properties |
查看磁盘组属性。 |
Clear Configuration |
清除配置。 |
快速创建RAID
步骤 1 在图4-56中选择“Create Profile Based Virtual Drive”并按“Enter”。
步骤 2 通过“↑”、“↓”选择要创建的RAID(以“Generic RAID 1”为例)并按“Enter”。
打开RAID配置界面,如图4-57,参数说明如表4-21所示。
参数 |
参数说明 |
Drive Selection Criteria |
系统自动选择的成员盘。 |
Virtual Drive Name |
系统自定义的RAID组名称。 |
RAID Level |
当前配置的RAID组的级别。 |
Virtual Drive Size |
RAID组的容量。 |
Power Save Mode |
数据掉电保护模式。 |
Strip Size |
RAID组扇区大小。 |
Read Policy |
RAID组的数据读策略。 |
Write Policy |
RAID组的数据写策略。 |
IO Policy |
RAID组IO策略。 |
Access Policy |
数据读写的策略。 |
Drive Cache |
硬盘Cache策略。 |
Create Dedicated Hot Spare |
是否为RAID组创建局部热备盘。 |
Save Configuration |
保存当前配置。 |
步骤 3 按表4-21所示查看或配置相关参数。
步骤 4 选择“Save Configuration”并按“Enter”。
弹出操作确认界面。
步骤 5 选择“Confirm”并按“Enter”。
步骤 6 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 7 选择“OK”并按“Enter”完成配置。
----结束
查看虚拟磁盘属性
在图4-56中选择“View Drive Group Properties”并按“Enter”。
图4-58 View Drive Group Properties
参数 |
参数说明 |
Drive Group |
磁盘组名称。 |
Capacity Allocation |
磁盘组容量,显示磁盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。 |
该界面提供控制器管理接口,可查看并修改控制器的详细参数。
界面介绍
“Controller Management”界面如图4-59,参数说明如表4-23所示。
参数 |
参数说明 |
Product Name |
RAID卡名称。 |
Serial Number |
RAID卡序列号。 |
Controller Status |
RAID卡的工作状态。 |
Select Boot Device |
当前启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见4.3.5 配置启动项。 |
PCI ID |
RAID卡的PCI ID。 |
PCI Slot Number |
RAID卡的PCI槽位号。 |
Package Version |
RAID卡的套件版本。 |
Firmware Version |
RAID卡的固件版本号。 |
NVDATA Version |
RAID卡配置信息的版本号。 |
Connector Count |
RAID卡与主板的接口个数。 |
Drive Count |
RAID卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID卡可以管理的虚拟磁盘个数。 |
Advanced Controller Management |
更多的控制器操作。 |
Advanced Controller Properties |
查看和修改控制器的高级属性。 |
查看并修改控制器高级属性
步骤 1 在图4-59中选择“Advanced Controller Properties”并按“Enter”。
界面如图4-60和图4-61所示,界面中参数说明如表4-24所示。
图4-60 Advanced Controller Properties界面(1)
图4-61 Advanced Controller Properties界面(2)
参数 |
参数说明 |
Profile Management |
管理快速RAID。 |
Patrol Read |
系统巡检。 |
Power Save Setting |
设置磁盘休眠。 |
Spare |
设置控制器热备状态。 |
Task Rates |
设置各种任务的处理速率。 |
Alarm Controller |
Avago SAS3408iMR RAID卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errrors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。 默认为“Stop On Errors”。 |
Controller BIOS |
控制器BIOS的使能情况。 |
ROC Temperature |
控制器温度。 |
Shield State Supported |
是否支持暂停IO,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
磁盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Maintain Drive Fail History |
是否维护磁盘故障历史信息。 |
SMART Polling |
SMART轮巡检测周期。默认值为“300”。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性检查。 |
JBOD Mode |
硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。 |
Drive Detection Type |
随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制器属性。 可用选项为: l Disabled l High Latency l Aggressive l Default |
Drive Corrective Action |
随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致IO延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。 l Disabled:禁用该功能 l Enabled:开启该功能 |
Drive Error Threshold |
通过该选项设置适当的控制器属性。 l Every 8 hours l Every1 hours l Every 15 mins l Every 5 mins |
Large IO Support |
启用或禁用大型IO支持功能。 |
Apply Changes |
保存配置。 |
步骤 2 按照表4-24所述修改控制器的高级属性参数。
步骤 3 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面提供虚拟磁盘的查询和管理接口。
界面介绍
“Virtual Drive Management”界面如图4-62,显示虚拟磁盘列表。
选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如图4-63所示,参数说明如表4-25所示。
图4-63 Virtual Drive Management
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:定位虚拟磁盘的所有硬盘。 l Stop Locate:取消定位。 l Delete Virtual Drive:删除虚拟磁盘。 l Expand Virtual Drive:扩展虚拟磁盘容量。 l Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID卡不支持同时对两个及以上的虚拟磁盘进行重新配置。 l Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。 l Hide/Unhide Drive Group:隐藏/取消隐藏磁盘组。 l Fast Initialization:快速初始化虚拟磁盘。 l Slow Initialization:安全初始化虚拟磁盘。 l Check Consistency:一致性检查。 l Virtual Drive Erase:格式化虚拟磁盘。 |
Name |
虚拟磁盘名称。 |
Raid Level |
虚拟磁盘RAID级别。 |
Status |
虚拟磁盘当前运行状态。 |
Size |
虚拟磁盘容量。 |
View Associated Drives |
查看成员盘属性。 |
Advanced... |
查看虚拟磁盘高级属性。 |
查看成员盘属性
步骤 1 在图4-63中选择“View Associated Drives”并按“Enter”。
界面如图4-64,显示成员盘列表。
步骤 2 选择要查看的成员盘,并按“Enter”。
步骤 3 选择“View Drive Properties”并按“Enter”。
进入磁盘属性界面,如图4-65界面所示,界面参数如表4-26所示。
参数 |
参数说明 |
Operation |
该成员盘可执行的操作,包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Place Drive Online/Offline:将硬盘上线/离线。 |
Drive ID |
成员盘的ID。 |
Status |
成员盘的当前工作状态。 |
Size |
成员盘的容量。 |
Type |
成员盘类型。 |
Model |
成员盘的模块类型。 |
Hardware Vendor |
成员盘的生产厂商。 |
Associated Virtual Drive |
成员盘所在的虚拟磁盘。 |
Advanced... |
查询成员盘更多属性。 |
----结束
查看和修改虚拟磁盘高级属性
步骤 1 在图4-63中选择“Advanced”并按“Enter”。
界面如图4-66和图4-67所示,界面参数如表4-27所示。
参数 |
参数说明 |
Mirror Data Size |
镜像数据大小。 |
Logical Sector Size |
逻辑扇区大小。 |
Segment Size |
条带大小。 |
Starting Logical Block Addressing |
逻辑单元起始地址。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 当成员盘为512B/512B时: l Default:逻辑盘扇区为512B/512B。 l None:逻辑盘扇区为512B/512B。 l Force:逻辑盘扇区为512B/4KB。 当成员盘为512B/4KB时: l Default:逻辑盘扇区为512B/4KB。 l None:逻辑盘扇区为512B/512B。 l Force:逻辑盘扇区为512B/4KB。 |
Protected |
是否支持磁盘保护。 |
Bad Blocks |
是否支持坏块处理。 |
SSD Caching |
是否支持SSD Caching。 |
Access |
数据读取的策略,分以下三种: l Read Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Current Write Cache Policy |
当前写Cache策略。默认为“Write Through”。 说明 “Write Through”表示当硬盘子系统接收到所有传输数据后,RAID卡将给主机返回数据传输完成信号。 |
Default Write Cache Policy |
默认的Cache写策略。 |
Disable Background Initialization |
是否禁用后台初始化。 |
Read Cache Policy |
当前读Cache策略,默认为“No Read Ahead”,即关闭预读取功能。 说明 Avago SAS3408iMR不支持在该界面设置读Cache策略。 |
Drive Cache |
是否支持cache。 |
Input/Output |
I/O读取策略,默认为“Direct”,即直接从硬盘读取数据,不经过Cache缓存。 说明 Avago SAS3408iMR不支持在该界面设置I/O读取策略。 |
Apply Changes |
保存配置。 |
步骤 2 按照表4-27所述配置“Advanced”的参数。
步骤 3 选择“Apply Changes”并按“Enter”。
显示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面显示硬盘基本属性,提供硬盘操作接口。
界面介绍
“Drive Management”界面如图4-68所示,显示硬盘列表。
选定要操作的硬盘并按“Enter”进入详细操作界面,如图4-69所示,参数说明如表4-28所示。
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Initialize Drive:硬盘初始化。 l Drive Erase:安全擦除硬盘数据。 − Simple:仅对硬盘进行一轮擦除动作。 − Normal:对硬盘进行三轮擦除动作。 − Thorough:对硬盘进行九轮擦除动作。 − Stop Erase:停止数据擦除操作。 l Make Unconfigured Good/Bad:修改硬盘状态。 l Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。 l Assign Global Hot Spare Drive:设置全局热备盘。 l Assign Dedicated Hot Spare Drive:设置局部热备盘。 l Unassign Hot Spare Drive:删除热备盘。 l Prepare for Removal:硬盘拔出前的准备工作。 说明 如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。 |
Drive ID |
硬盘的ID。 |
Status |
硬盘的当前工作状态。 |
Size |
硬盘的容量。 |
Type |
硬盘的类型。 |
Model |
硬盘型号。 |
Hardware Vendor |
硬盘的生产厂商。 |
Advanced... |
查询更多硬盘属性。 |
设置全局热备盘
步骤 1 将“Operation”设置为“Assign Global Hot Spare Drive”。
步骤 2 选择“Go”并按“Enter”。
进入操作确认界面。
步骤 3 将“Confirm”设置为“Enable”。
步骤 4 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
步骤 5 选择“OK”并按“Enter”,完成配置。
----结束
设置局部热备盘
步骤 1 将“Operation”设置为“Assign Dedicated Hot Spare Drive”。
步骤 2 选择“Go”并按“Enter”。
步骤 3 选择要关联的虚拟磁盘并按“Enter”。
步骤 4 选择“OK”并按“Enter”。
步骤 5 选择“OK”并按“Enter”,完成配置。
----结束
安全擦除硬盘数据
步骤 1 将“Operation”设置为“Drive Erase”。
步骤 2 选择“Erase Mode”并按“Enter”。
步骤 3 在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。
步骤 4 选择“Go”并按“Enter”。
步骤 5 选择“Confirm”并按“Enter”。
步骤 6 选择“Yes”并按“Enter”。
提示操作成功。
----结束
查看硬盘属性
选择“Advanced...”并按“Enter”。
打开硬盘属性界面,如图4-70和图4-71所示,参数说明如表4-29所示。
参数 |
参数说明 |
Logical Sector Size |
逻辑扇区大小。 |
Physical Sector Size |
物理扇区大小。 |
SMART Status |
SMART功能是否使能。 |
Revision |
硬盘Firmware版本。 |
Media Error |
Media error个数。 |
Predicted Fail Count |
Pred fail个数。 |
SAS Address |
硬盘SAS地址。 |
Drive Power State |
硬盘上电状态。 |
Cache Setting |
是否可设置Cache。 |
Available Size |
硬盘可用空间。 |
Used Space |
已使用的硬盘空间。 |
Disk Protocol |
硬盘支持的协议。 |
Negotiated Drive Transfer Speed |
硬盘数据传输速率。 |
Number of Connections |
连接器个数。 |
FDE Capable |
硬盘是否支持FDE(Full Disk eEncryption)技术。 |
Protection Capable |
硬盘是否支持数据保护。 |
Cryptographic Erase Capable |
硬盘是否支持加密擦除功能。 |
Temperature |
硬盘温度。 |
该界面主要提供RAID卡传感器信息。
界面介绍
“Hardware Components”界面如图4-72,参数说明如表4-30所示。
参数 |
参数说明 |
Temperature Sensors |
当前温度传感器状态。 |
Fans |
当前风扇模块工作状态。 |
Power Supplies |
当前供电模块工作状态。 |
Enclosure Management |
部件管理。 |
提供RAID卡操作管理接口。
界面介绍
“View Server Profile”界面如图4-73所示,参数说明如表4-31所示。
参数 |
参数说明 |
UEFI Spec Version |
服务器支持的UEFI Spec版本。 |
Controller Management |
提供控制器管理接口,详细情况请参见4.6.2.2 Controller Management。 |
Hardware Components |
提供控制器部件查询接口,详细情况请参见4.6.2.5 Hardware Components。 |
Drive Management |
提供硬盘管理接口,详细情况请参见4.6.2.4 Drive Management。 |
Virtual Drive Management |
提供虚拟磁盘管理接口,详细情况请参见4.6.2.3 Virtual Drive Management。 |
该界面可查看、导入、清空外部配置。
界面介绍
“View Foreign Configuration”界面如图4-74所示。
图4-74 View Foreign Configuration
查看并导入外部配置
步骤 1 选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图4-75所示。
图4-75 View Foreign Configuration
步骤 2 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 3 选择“Confirm”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 选择“OK”并按“Enter”完成配置。
----结束
清除外部配置
步骤 1 选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面可清除当前所有配置。
界面介绍
“Configure”界面如图4-76所示,参数说明如表4-32所示。
Parameter |
Description |
View Drive Group Properties |
查看磁盘组属性。 |
View Global HotSpare Drives |
查看全局热备盘。 |
Clear Configuration |
清除当前配置。 |
清除当前配置
步骤 1 选择“Clear Configuration”并按“Enter”。
打开操作确认界面。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
恢复出厂配置
步骤 1 在主界面选择“Set Factory Default”并按“Enter”。
打开操作确认界面。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面提供RAID卡高级软件特性查看和导入接口。
界面介绍
“Manage MegaRAID Advanced Software Options”界面如图4-77所示,界面中参数说明如表4-33所示。
图4-77 Manage MegaRAID Advanced Software Options
参数 |
说明 |
SAFE ID |
RAID卡的安全编码。 |
Serial Number |
RAID卡序列号。 |
Activation Key |
待激活的高级特性的Key。 |
Active |
激活高级特性。 说明 Avago SAS3408iMR不支持高级特性的激活操作,该功能无效。 |
Deactive All Trail Software |
注销当前所有高级特性。 |
退出配置界面
步骤 1 在Avago SAS3408iMR主界面按“ESC”,显示如图4-78所示界面。
步骤 2 按F10退出BIOS。
弹出操作确认窗口。
步骤 3 选择“OK”并按Enter。
退出BIOS,显示“ Press Control+Alt+Delete to reboot”。
----结束
使用OS命令行工具可以在服务器正常运行过程中对RAID卡进行操作,不需要重启服务器。
请联系技术支持获取StorCLI工具的下载和安装方法。
命令功能
查询Avago SAS3408iMR的基本配置信息。
命令格式
storcli64 /ccontroller_id show
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制器ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID |
使用指南
建议保持默认配置。
使用实例
# 查询RAID卡配置信息。
[root@localhost ~]# storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
CLI Version = 007.0916.0000.0000 Apr 05, 2019
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = None
Product Name = SAS3408
Serial Number = 024JNF10J2000256
SAS Address = 53ce8246afb3f000
PCI Address = 00:1c:00:00
System Time = 08/06/2019 09:24:12
Mfg. Date = 00/00/00
Controller Time = 08/06/2019 13:24:12
FW Package Build = 50.6.3-0109
BIOS Version = 7.06.02.2_0x07060502
FW Version = 5.060.01-2262
Driver Name = megaraid_sas
Driver Version = 07.709.08.00
Vendor Id = 0x1000
Device Id = 0x17
SubVendor Id = 0x19E5
SubDevice Id = 0xD213
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 28
Device Number = 0
Function Number = 0
Drive Groups = 1
TOPOLOGY :
========
---------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size PDC PI SED DS3 FSpace TR
---------------------------------------------------------------------------
0 - - - - RAID0 Optl N 1.089 TB dflt N N dflt N N
0 0 - - - RAID0 Optl N 1.089 TB dflt N N dflt N N
0 0 0 69:0 0 DRIVE Onln N 1.089 TB dflt N N dflt - N
---------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 1
VD LIST :
=======
-------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC Size Name
-------------------------------------------------------------
0/0 RAID0 Optl RW Yes NRWTD - ON 1.089 TB
-------------------------------------------------------------
EID=Enclosure Device ID| VD=Virtual Drive| DG=Drive Group|Rec=Recovery
Cac=CacheCade|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 1
PD LIST :
=======
--------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp Type
--------------------------------------------------------------------------
69:0 0 Onln 0 1.089 TB SATA SSD N N 512B SSDSC2BB012T7H U -
--------------------------------------------------------------------------
EID=Enclosure Device ID|Slt=Slot No.|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=Unsupported|UGShld=UnConfigured shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported
命令功能
查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。
命令格式
storcli64 /ccontroller_id show spinupdelay
storcli64 /ccontroller_id show spinupdrivecount
storcli64 /ccontroller_id set spinupdelay=time
storcli64 /ccontroller_id set spinupdrivecount=count
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
time |
每组起转硬盘间的时间间隔 |
默认为2,单位为s。 |
count |
上电时允许同时起转的硬盘数量 |
默认为4。 |
查看RAID卡ID的方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
使用指南
建议保持默认配置。
使用实例
# 查询RAID卡Spinup参数。
domino:~# ./storcli64 /c0 show spinupdelay
[root@localhost ~]# ./storcli64_arm /c0 show spinupdelay
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
domino:~# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 2
--------------------------
# 设置RAID卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。
domino:~# ./storcli64 /c0 set spinupdelay=20
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Spin Up Delay 20 second(s)
---------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 5
--------------------------
命令功能
设置空闲硬盘和热备盘的省电模式。
命令格式
storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID。 |
– |
state |
省电模式的启用状态。 |
l on:启用 l off:禁用 |
disktype |
硬盘类型。 |
l 1:空闲硬盘 l 2:热备盘 |
time |
等待时间,硬盘经过等待时间没有IO,则停转进入休眠状态。 |
单位为minutes。 |
查看RAID卡ID的方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置空闲硬盘的省电模式。
domino:~# ./storcli64 /c0 set ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------
Ctrl_Prop Value
------------------------
SpnDwnUncDrv Enabled
SpnDwnTm 30 minutes
------------------------
命令功能
设置物理硬盘初始化功能,查询初始化进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
action |
要执行的操作 |
l show:查看初始化进度 l start:开始初始化 l stop:结束初始化 |
以上涉及的各个ID的查询方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 初始化slot3硬盘,并查询初始化进度。
domino:~# ./storcli64 /c0/e252/s3 start initialization
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show initialization
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
命令功能
设置物理硬盘数据擦除模式,查询擦除进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
mode |
数据擦除模式 |
l simple:对硬盘进行一轮擦除动作。 l normal:对硬盘进行三轮擦除动作。 l thorough:对硬盘进行九轮擦除动作。 |
以上涉及的各个ID的查询方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。
domino:~# ./storcli64 /c0/e252/s3 start erase simple
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.
命令功能
设置后台初始化速率、一致性检查速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。
命令格式
storcli64 /ccontroller_id set action=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
action |
要设置的项目 |
l bgirate:后台初始化速率 l ccrate:一致性检查速率 l prrate:硬盘巡检速率 l rebuildrate:RAID重构速率 l reconrate:RAID扩容和迁移速率 |
value |
后台任务资源占用率 |
1~100 |
查看RAID卡ID的方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置硬盘巡检速率为“30%”。
domino:~# ./storcli64 /c0 set prrate=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
Patrol Read Rate 30%
-----------------------
命令功能
设置控制器BIOS在检测到异常时停止继续启动的功能。
命令格式
storcli64 /ccontroller_id set bios mode=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
action |
要执行的操作 |
l soe:控制器BIOS在检测到异常时停止启动 l ie:忽略检测到的异常 |
查看RAID卡ID的方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启Stop on error功能。
domino:~# ./storcli64 /c0 set bios mode=soe
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------
命令功能
创建、删除RAID。
命令格式
storcli64 /ccontroller_id add vd rlevel size=capacity drives=enclosure_id:slot_id | enclosure_id:startid-endid,enclosure_id:slot_id | enclosure_id:startid-endid [pdperarray=pdperarray]
storcli64 /ccontroller_id/vraid_id del
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
level |
要配置的RAID级别 |
– |
capacity |
要配置的RAID容量 |
– |
startid-endid |
要加入RAID的硬盘的起始和结束ID |
– |
pdperarray |
子组中的硬盘数。 只有创建RAID10时,需要设置此参数,创建RAID0或RAID1时不需设置此参数。 |
– |
raid_id |
要删除的RAID的ID |
– |
l 以上涉及的各个ID的查询方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
l 当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid。
使用指南
无
使用实例
# 创建RAID 0。
domino:~# ./storcli64 /c0 add vd r0 size=100GB drives=252:0-3
Controller = 0
Status = Success
Description = Add VD Succeeded
#删除RAID组。
domino:~# ./storcli64 /c0/v0 del
Controller = 0
Status = Success
Description = Delete VD Succeeded
命令功能
设置RAID前台初始化模式。
命令格式
storcli64 /ccontroller_id/vraid_id start mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
前台初始化模式 |
l init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。 l init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。 |
以上涉及的各个ID的查询方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 快速初始化RAID。
domino:~# ./storcli64 /c0/v0 start init
Controller = 0
Status = Success
Description = Start INIT Operation Success
命令功能
暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。
命令格式
storcli64 /ccontroller_id/vraid_id action bgi
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
action |
后台初始化的操作 |
l show:查看后台初始化进度 l pause:暂停后台初始化 l resume:继续后台初始化 l stop:停止后台初始化 |
以上涉及的各个ID的查询方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查看后台初始化进度。
domino:~# ./storcli64 /c0/v0 show bgi
Controller = 0
Status = Success
Description = Noe
VD Operation Status :
===================
------------------------------------------------------
VD Operation Progress% Staus Estimated Time Left
------------------------------------------------------
0 BGI 3 In progress 53 Minutes
------------------------------------------------------
命令功能
设置虚拟磁盘或物理硬盘为启动项。
命令格式
storcli64 /ccontroller_id/vvd_id set bootdrive=on
storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
vd_id |
待设置的虚拟磁盘的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
以上涉及的各个ID的查询方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置VD0为启动项。
domino:~# ./storcli64 /c0/v0 set bootdrive=on
Controller = 0
Status = Success
Description = Noe
Detailed Status :
===============
----------------------------------------
VD Property Value Staus ErrCd ErrMsg
----------------------------------------
0 Boot Drive On Success 0 -
----------------------------------------
# 设置slot 7硬盘为启动项。
domino:~# ./storcli64 /c0/e252/s7 set bootdrive=on
Controller = 0
Status = Success
Description = Noe
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
BootDrive PD:252_7
-------------------
命令功能
设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。
命令格式
storcli64 /ccontroller_id set eghs eug=state
storcli64 /ccontroller_id set eghs smarter=state
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
state |
紧急热备功能的启用状态 |
l on:启用 l off:禁用 |
查看RAID卡ID的方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。
domino:~# ./storcli64 /c0 set eghs eug=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------
Ctrl_Prop Value
------------------
EmergencyUG ON
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
EmergencySmarter ON
-----------------------
命令功能
设置全局热备盘和局部热备盘。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=vd_id]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
vd_id |
局部热备盘所属虚拟磁盘的ID |
– |
以上涉及的各个ID的查询方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置slot 3硬盘为全局热备盘。
domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
# 设置slot 3硬盘为vd0的局部热备盘。
domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive dgs=0
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
命令功能
暂停、继续、停止RAID重构/回拷/系统巡检,并查询进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action function
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
action |
要执行的操作 |
l show:查看进度 l pause:暂停进程 l resume:继续执行 l stop:停止进程 |
function |
要处理的进程 |
l rebuild:RAID重构 l copyback:回拷 l patrolread:系统巡检 |
以上涉及的各个ID的查询方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查看RAID重构进度。
domino:~# ./storcli64 /c0/e252/s4 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Staus Estimated Time Left
------------------------------------------------------
/c0/e252/s4 9 In progress 12 Minutes
------------------------------------------------------
# 暂停RAID重构。
domino:~# ./storcli64 /c0/e252/s4 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Status Succeeded.
命令功能
设置Smart扫描周期。
命令格式
storcli64 /ccontroller_id set smartpollinterval=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
value |
Smart扫描周期 |
单位为s。 |
查看RAID卡ID的方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Smart扫描周期为“60s”。
domino:~# ./storcli64 /c0 set smartpollinterval=60
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
命令格式
storcli64 /ccontroller_id/vvd_id expand size=capacity
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
vd_id |
要扩容的RAID的ID |
– |
capacity |
扩容后的容量 |
– |
以上涉及的各个ID的查询方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 将VD0的容量扩大至“200GB”。
domino:~# ./storcli64 /c0/v0 expand size=200GB
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
0 100.0 GB 457.861 GB 200.0 GB 201.458 GB 44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
当增加新盘后,可进行RAID级别迁移。
命令格式
storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
vd_id |
要操作的RAID的ID |
– |
slot_id |
要加入RAID的新硬盘的槽位号 |
– |
level |
增加硬盘后RAID的级别 |
l 与原RAID级别相同时,该命令为扩大RAID容量。 l 与原RAID级别不同时,该命令为RAID级别迁移。 |
以上涉及的各个ID的查询方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 在RAID 0中增加slot 2硬盘扩容。
domino:~# ./storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 13 Minutes
-------------------------------------------------------
# 单盘RAID 0加盘迁移至RAID 1。
domino:~# ./storcli64 /c0/v0 start migrate type=r1 option=add drives=252:3
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 14 Minutes
-------------------------------------------------------
命令功能
查询和清除PreservedCache数据。
命令格式
storcli64 /ccontroller_id show preservedcache
storcli64 /ccontroller_id/vvd_id delete preservedcache force
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
vd_id |
要操作的RAID的ID |
– |
以上涉及的各个ID的查询方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查询PreservedCache。
domino:~# ./storcli64 /c0 show preservedcache
Controller = 0
Status = Success
Description = No Virtual Drive has Preserved Cache Data.
命令功能
设置一致性检查参数。
命令格式
storcli64 /ccontroller_id[/vvd_id]show cc
storcli64 /ccontroller_id/vvd_id start cc force
storcli64 /ccontroller_id/vvd_id action cc
storcli64 /ccontroller_id set cc=conc delay=value starttime=time excludevd=evd_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
vd_id |
要操作的RAID的ID |
– |
action |
要执行的操作 |
l pause:暂停 l resume:继续执行 l stop:停止 |
value |
一致性检查周期 |
– |
time |
一致性检查起始时间 |
例如:2016/07/14 22:00:00 |
evd_id |
不进行一致性检查的虚拟磁盘ID |
– |
以上涉及的各个ID的查询方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
使用指南
show命令中不带/vvd_id时,表示查询自动CC参数。
show命令中带/vvd_id时,表示查询CC进度。
使用实例
# 设置一致性自动检查参数。
domino:~# ./storcli64 /c0 set cc=conc delay=1 starttime=2016/07/14 22:00:00 excludevd=0
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------
Ctrl_Prop Value
------------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2016/07/14 22:00:00
CC ExcludeVD(0) Success
------------------------------------
# 查询CC进度。
domino:~# ./storcli64 /c0/v1 show cc
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimited Time Left
-----------------------------------------------------------
0 CC - Not in progress -
-----------------------------------------------------------
命令功能
查询和设置系统巡检的相关参数。
命令格式
storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number
storcli64 /ccontroller_id set patrolread delay=delaytime
storcli64 /ccontroller_id show patrolread
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
time |
系统巡检起始时间 |
例如:2016/07/15 23:00:00 |
number |
可同时巡检的硬盘数量 |
– |
delaytime |
系统巡检周期 |
单位为hour。 |
查看RAID卡ID的方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置patrolread的起始时间为“2016/07/15 23:00:00”,同时巡检的硬盘数为“2”。
domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23:00:00 maxconcurrentpd=2
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
PR Starttime 2016/07/15 23:00:00
PR MaxConcurrentPd 2
---------------------------------------
# 查询patrolread信息。
domino:~# ./storcli64 /c0 show patrolread
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------------------------
Ctrl_Prop Value
--------------------------------------------
PR Mode 2016/07/15 23:00:00
PR Execution Delay
PR iterations completed 0
PR Next Start time 07/16/2016,00:00:00
PR on SSD Disabled
PR Current State Stopped
--------------------------------------------
命令功能
查询和设置Cache的刷新周期。
命令格式
storcli64 /ccontroller_id show cacheflushint
storcli64 /ccontroller_id set cacheflushint time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
time |
Cache的刷新周期 |
单位为s |
查看RAID卡ID的方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Cache的刷新周期为“10”。
domino:~# ./storcli64 /c0 set cacheflushint=10
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10 sec
---------------------------
# 查询Cache的刷新周期。
domino:~# ./storcli64 /c0 show cacheflushint
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10
---------------------------
命令功能
强制设置硬盘状态。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id set state
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
state |
要设置的硬盘状态 |
l online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。 l offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。 l jbod:通过该参数可以将硬盘设置为直通硬盘。 l good: − ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置; − JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。 l good:将硬盘设为空闲盘 |
以上涉及的各个ID的查询方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。
domino:~# ./storcli64 /c0/e0/s1 set good force
Controller = 0
Status = Success
Description = Set Drive Good Succeeded.
# 设置slot 7硬盘为直通盘。
domino:~# ./storcli64 /c0/e252/s7 set JBOD
Controller = 0
Status = Success
Description = Set Drive JBOD Succeeded.
命令功能
点亮和熄灭指定硬盘的定位指示灯。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。 |
slot_id |
物理硬盘槽位编号 |
可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。 |
action |
要执行的操作 |
l start:点亮硬盘的定位指示灯。 l stop:熄灭硬盘的定位指示灯。 |
以上涉及的各个ID的查询方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 点亮slot 7硬盘的定位指示灯。
domino:~# ./storcli64 /c0/e252/s7 start locate
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.
命令功能
查询RAID卡、虚拟磁盘、物理硬盘的详细信息。
命令格式
storcli64 /ccontroller_id show
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all
storcli64 /ccontroller_id/vvd_id show all
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID |
enclosure_id |
硬盘所在Enclosure的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制器连接的硬盘背板的ID |
slot_id |
物理硬盘槽位编号 |
可以将该参数设置为all,表示查询所有硬盘的ID |
vd_id |
虚拟磁盘ID |
可以将该参数设置为all,表示查询所有虚拟磁盘的ID |
使用指南
回显中主要字段的含义如表4-34所示。
命令格式 |
字段 |
含义 |
举例 |
storcli64 /ccontroller_id show |
Product Name |
RAID卡的型号 |
sas3108 |
FW Version |
RAID卡的FW版本 |
4.660.00-8140 |
|
Driver Name |
RAID卡的驱动名称 |
megaraid_sas |
|
Driver Version |
RAID卡的驱动版本 |
06.811.02.00-rh1 |
|
Current Personality |
RAID卡的工作模式 |
RAID-Mode |
|
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all |
SN |
物理硬盘的序列号 |
PHWL517601YR800RGN |
Manufacturer Id |
物理硬盘的供应商ID |
ATA |
|
Model Number |
物理硬盘的模块序号 |
INTEL SSDSC2BB800G4 |
|
Firmware Revision |
物理硬盘的FW版本 |
D2010370 |
|
Raw size |
物理硬盘的容量 |
745.211 GB [0x5d26ceb0 Sectors] |
|
Logical Sector Size |
物理硬盘逻辑分区大小 |
512B |
|
Physical Sector Size |
物理扇区大小 |
4 KB |
|
storcli64 /ccontroller_id/vvd_id show all |
TYPE |
RAID组的级别 |
RAID1 |
State |
RAID组的状态 |
Optl |
|
Access |
RAID组数据的访问策略 |
RW |
|
Cache |
RAID组当前的读写策略与IO Policy |
RWTD |
|
Size |
RAID组的大小 |
100.0 GB |
|
PDs for VD0 |
RAID组下的物理硬盘 |
- |
|
Strip Size |
RAID组的条带大小 |
256KB |
|
Write Cache(initial setting) |
RAID组Cache的写策略 |
Write Through |
|
Disk Cache Policy |
RAID组成员盘的Cache策略 |
Disk's Default |
使用实例
#查询RAID卡的详细信息。
domino:~# ./storcli64 /c0 show
Controller = 0
Status = Success
Description = None
Product Name = SAS3408
Serial Number = 024JNFCNK2000314
SAS Address = 58cfd18f55442000
PCI Address = 00:03:00:00
System Time = 07/18/2019 14:55:54
Mfg. Date = 00/00/00
Controller Time = 07/18/2019 06:55:53
FW Package Build = 50.6.3-0109
BIOS Version = 7.06.02.2_0x07060502
FW Version = 5.060.01-2262
Driver Name = megaraid_sas
Driver Version = 07.709.08.00
Vendor Id = 0x1000
Device Id = 0x17
SubVendor Id = 0x19E5
SubDevice Id = 0xD213
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 3
Device Number = 0
Function Number = 0
Drive Groups = 1
TOPOLOGY :
========
---------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size PDC PI SED DS3 FSpace TR
---------------------------------------------------------------------------
0 - - - - RAID0 Optl N 3.637 TB dflt N N dflt N N
0 0 - - - RAID0 Optl N 3.637 TB dflt N N dflt N N
0 0 0 65:0 41 DRIVE Onln N 3.637 TB dflt N N dflt - N
---------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 1
VD LIST :
=======
-------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC Size Name
-------------------------------------------------------------
0/0 RAID0 Optl RW Yes NRWTD - ON 3.637 TB
-------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 39
PD LIST :
=======
------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp
------------------------------------------------------------------------------
65:0 41 Onln 0 3.637 TB SATA HDD N N 512B ST4000NM0035-1V4107 U
65:1 45 UGood - 10.912 TB SATA HDD N N 512B ST12000NM0007-2A1101 D
65:2 33 UGood - 10.912 TB SATA HDD N N 512B ST12000NM0007-2A1101 D
65:3 40 UGood - 3.637 TB SATA HDD N N 512B ST4000NM115-1YZ107 D
65:4 39 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:5 38 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:6 46 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:7 53 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:8 61 UGUnsp - 3.637 TB SATA HDD N N 512B ST4000NM0035-1V4107 U
65:9 0 UGood - 3.637 TB SATA HDD N N 512B ST4000NM115-1YZ107 D
65:10 1 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:11 62 UGUnsp - 3.637 TB SATA HDD N N 512B ST4000NM0035-1V4107 U
65:12 51 UGood - 9.094 TB SATA HDD N N 512B ST10000NM0478-2H7100 D
65:13 52 UGood - 10.912 TB SATA HDD N N 512B ST12000NM0007-2A1101 D
65:14 50 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:16 57 UGUnsp - 10.912 TB SATA HDD N N 512B ST12000NM0007-2A1101 U
65:17 58 UGUnsp - 10.912 TB SATA HDD N N 512B ST12000NM0007-2A1101 U
65:18 42 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:19 44 UGood - 10.912 TB SATA HDD N N 512B ST12000NM0007-2A1101 D
65:20 49 UGood - 10.912 TB SATA HDD N N 512B ST12000NM0007-2A1101 D
65:21 43 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:22 48 UGood - 10.912 TB SATA HDD N N 512B ST12000NM0007-2A1101 D
65:23 47 UGood - 3.637 TB SATA HDD N N 512B ST4000NM0035-1V4107 D
65:24 3 UGood - 3.637 TB SATA HDD N N 512B ST4000NM0035-1V4107 D
65:25 5 UGood - 10.912 TB SATA HDD N N 512B ST12000NM0007-2A1101 D
65:26 4 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:27 2 UGood - 3.637 TB SATA HDD N N 512B ST4000NM0035-1V4107 D
65:28 59 UGUnsp - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 U
65:29 6 UGood - 837.258 GB SAS HDD N N 512B ST900MM0168 D
65:30 55 UGood - 3.637 TB SATA HDD N N 512B ST4000NM0035-1V4107 D
65:31 60 UGUnsp - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 U
65:32 56 UGUnsp - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 U
65:33 35 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:34 34 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:35 37 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:36 36 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:37 30 UGood - 278.464 GB SAS HDD N N 512B AL15SEB030N D
65:38 32 UGood - 1.745 TB SATA SSD N N 512B INTEL SSDSC2KG019T8 U
65:39 31 UGood - 222.585 GB SATA SSD N N 512B INTEL SSDSC2KG240G8 U
------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
#查询slot0的物理硬盘的信息。
[root@localhost ~]# ./storcli64
/c0/e65/s0 show all
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
Drive /c0/e65/s0 :
================
--------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp
--------------------------------------------------------------------------
65:0 41 Onln 0 3.637 TB SATA HDD N N 512B ST4000NM0035-1V4107 U
--------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Drive /c0/e65/s0 - Detailed Information :
=======================================
Drive /c0/e65/s0 State :
======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature = 30C (86.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
Drive /c0/e65/s0 Device attributes :
==================================
SN = ZC18JNP4
Manufacturer Id = ATA
Model Number = ST4000NM0035-1V4107
NAND Vendor = NA
WWN = 5000c500b3297aee
Firmware Revision = TNA5
Raw size = 3.638 TB [0x1d1c0beb0 Sectors]
Coerced size = 3.637 TB [0x1d1a94800 Sectors]
Non Coerced size = 3.637 TB [0x1d1b0beb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 12.0Gb/s
NCQ setting = Enabled
Write Cache = Disabled
Logical Sector Size = 512B
Physical Sector Size = 512B
Connector Name = C0 & C1
Drive /c0/e65/s0 Policies/Settings :
==================================
Drive position = DriveGroup:0, Span:0, Row:0
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = Yes
Wide Port Capable = No
Port Information :
================
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
0 Active 12.0Gb/s 0x500605b000027380
-----------------------------------------
Inquiry Data =
5a 0c ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 20 20 20 20 20 20 20 20 20 20 20 20
43 5a 38 31 4e 4a 34 50 00 00 00 00 00 00 4e 54
35 41 20 20 20 20 54 53 30 34 30 30 4d 4e 30 30
35 33 31 2d 34 56 30 31 20 37 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 10 80
00 40 00 2f 00 40 00 02 00 02 07 00 ff 3f 10 00
3f 00 10 fc fb 00 10 5c ff ff ff 0f 00 00 07 00
# 查询VD 0的信息。
[root@rhel6u5 ~]#
/opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
/c0/v0 :
======
-------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC Size Name
-------------------------------------------------------------
0/0 RAID0 Optl RW Yes NRWTD - ON 3.637 TB
-------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
PDs for VD 0 :
============
--------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp
--------------------------------------------------------------------------
65:0 41 Onln 0 3.637 TB SATA HDD N N 512B ST4000NM0035-1V4107 U
--------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
VD0 Properties :
==============
Strip Size = 64 KB
Number of Blocks = 7812499456
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 1
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = None
Active Operations = None
Exposed to OS = Yes
Creation Date = 06-07-2025
Creation Time = 08:44:04 AM
Emulation type = default
Cachebypass size = Cachebypass-64k
Cachebypass Mode = Cachebypass Intelligent
Is LD Ready for OS Requests = Yes
SCSI NAA Id = 68cfd18f554420002ffcf3d4ce5e8046
命令功能
手动重构RAID组。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row
storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
要加入Array的物理硬盘槽位编号 |
– |
DG |
硬盘发生故障的DG的ID |
– |
Arr |
硬盘发生故障的Array的ID |
– |
Row |
硬盘发生故障的Array的row number |
– |
以上涉及的各个ID的查询方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
使用指南
重构RAID分3个步骤进行:
1.通过./storcli64 /c0 show 命令,查询故障硬盘的DG、Arr和Row所对应的数字。
2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。
3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID。
使用实例
# 将硬盘加入RAID组。
[root@localhost ~]# storcli64
/c0/e252/s1 insert dg=0 array=0 row=0
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = Insert Drive Succeeded.
# 手动重构RAID。
[root@localhost ~]# storcli64
/c0/e252/s1 start rebuild
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
命令功能
设置RAID组成员盘的Cache状态。
命令格式
storcli64 /ccontroller_id/vvd_id set pdcache=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
vd_id |
RAID组的ID |
– |
action |
要执行的操作 |
l on:打开硬盘Cache l off:关闭硬盘Cache l default:将硬盘Cache设置为默认状态 |
以上涉及的各个ID的查询方法请参见4.7.2.24 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 打开ID为0的RAID组的硬盘Cache。
./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 PdCac On Success 0 -
---------------------------------------
关于本章
本章节主要介绍Avago MegaRAID SAS 9440-8i RAID卡的外观、特性、以及配置方法。
Avago MegaRAID SAS 9440-8i RAID卡支持的服务器可联系技术支持获取。
Avago MegaRAID SAS 9440-8i RAID 控制卡(以下简称9440-8i)是基于MegaRAID架构的8端口12Gbit/s SAS控制器,并采用PCIex8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。
9440-8i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。
9440-8i不支持虚拟化场景,在安装操作系统前,需要在BIOS中将“Advanced > MISC Config”界面中的参数“Support Smmu”设置为“Disabled”。
9440-8i支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考5.2.13 硬盘直通。
9440-8i单板指示灯说明如表5-1所示。
指示灯 |
颜色 |
说明 |
单板电源指示灯 |
绿色 |
l 亮:电源正常。 l 灭:电源关闭或异常。 |
系统错误灯 |
红色 |
l 亮:系统运行异常。 l 灭:系统运行正常。 |
系统心跳灯 |
绿色 |
l 灯以2s周期闪烁:9440-8i RAID卡正在工作。 l 灯灭:9440-8i未开始运行或FW运行异常。 |
9440-8i支持硬盘以直通方式和加入RAID组两种方式混合使用,其中:
l 硬盘直通模式支持的最大硬盘数量为63。
l 直通模式的硬盘和加入RAID组中的硬盘数量最多为63。
l 所有RAID组包含的最大硬盘数量为32。
该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。
l 每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
l 最多支持32个虚拟磁盘(即配置界面中看到的“Virtual Drive”),每个虚拟磁盘最多包含32个硬盘。
9440-8i支持的RAID类型及对应的硬盘个数如表5-2所示。
RAID级别 |
支持硬盘数 |
支持子组数 |
子组支持硬盘数 |
允许坏盘数 |
RAID 0 |
1~32 |
不涉及 |
不涉及 |
0 |
RAID 1 |
2~32(偶数) |
硬盘数÷2 |
||
RAID 10 |
4~32(偶数) |
2~8个RAID 1 |
2~16(偶数) |
子组数 |
l 不支持RAID 00、RAID 5和RAID 50级别。
l RAID10损坏的硬盘不能是连续的,具体说明请参见1.2 RAID级别介绍。
l 子组数:子RAID的个数。
l RAID 10每个子组中最多允许1个坏盘。
l RAID 10包含的总硬盘数由子组数和子组支持的硬盘数共同决定。
9440-8i的热备功能分为两种:热备盘和紧急备份。
热备盘
对服务器的硬盘进行RAID分组后,一般会配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l Global HSP:即全局热备盘,为RAID卡上所有已配置的RAID所共有,1块RAID卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
配置方法请参见5.4.1.1 配置全局热备盘。
l Dedicated HSP:即局部热备盘,为RAID卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。
配置方法请参见5.4.1.2 配置局部热备盘。
热备盘容量需大于等于成员盘容量。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
紧急备份
使能RAID卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。
紧急备份有两种情况,对应了两种设置:
l 当成员盘fail时,空闲盘替代成员盘作为紧急备份。
l 当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。
配置方法请参见5.4.2 设置紧急热备功能。
热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。
l 请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。
l 插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。
l 人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考5.4.9 导入/清空外部配置章节恢复RAID组,无需更换硬盘。
l 在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。
具备冗余功能的RAID的成员盘故障之后,热备盘自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。
条带化
当多个进程同时访问一个磁盘时,可能会出现磁盘冲突。大多数磁盘系统都对访问次数和数据传输率有限制。当达到这些限制时,后面需要访问磁盘的进程就需要等待,这时就是所谓的磁盘冲突。
条带化技术是一种自动将I/O负载均衡到多个物理磁盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同磁盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成磁盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。
影响条带化效果的因素有:
l 条带宽度:指同时可以并发读或写的条带数量。
这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。
在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。
l 条带大小:指写在每块磁盘上的条带数据块的大小。
分条
硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带单元大小进行分条,数据在写入时也会按照条带单元大小划分数据块。
9440-8i不支持设置条带大小,默认为64KB。
VD初始化
创建虚拟磁盘后,需要将其初始化,使其可以被操作系统使用,且使具有冗余功能的虚拟磁盘中各成员盘的数据关系满足相应的RAID级别要求。
9440-8i提供了多种相应的初始化方式:
l 快速初始化:属于前台初始化,Firmware只要把虚拟磁盘的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。
l 慢速初始化:属于前台初始化,Firmware需要把整个虚拟磁盘都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。
l 后台初始化:目的是使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。对于RAID 1/RAID 10,如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。
l 一致性检查(CC)和后台初始化通常会对性能造成一定损失,直至该操作完成。
l 一致性检查和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性检查会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性检查,但不能手动启动后台初始化。
硬盘初始化
硬盘可执行的初始化包括:
l Initialize Drive:对前100MByte空间进行全写0操作。
l Drive Erase:对全部空间进行写0操作。
不支持停止SATA SSD的擦除和初始化过程。
RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见5.4.5 迁移RAID级别。
当前支持以下级别类型的迁移:
l RAID 0迁移到RAID 1
l RAID 1迁移到RAID 0
RAID迁移对硬盘数量的最低要求如表5-3所示。
迁移RAID级别 |
原始磁盘组硬盘数量 |
迁移后的磁盘组硬盘数量 |
RAID 0迁移 RAID 1 |
1~32 |
2~32(偶数) |
RAID 1迁移到RAID 0 |
2~32(偶数) |
2~32 |
9440-8i支持的容量扩展方式有两种:
l 通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。
详细操作方法可参考5.4.3 添加新硬盘到RAID。
l 通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。
详细操作方法可参考5.4.4 扩展Virtual Drives可用空间。
l 只有RAID 0、RAID1支持增加硬盘扩容。
l RAID 10不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。
安全擦除即将硬盘上的数据彻底删除,使其无法恢复。RAID卡提供了三种级别的虚拟磁盘安全擦除功能:
l Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。
l Normal:对虚拟磁盘或硬盘进行三轮擦除动作。
l Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。
安全数据擦除过程中,主机无法访问该虚拟磁盘。
9440-8i支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。
磁盘巡检功能设计为预防性措施,用于确保物理磁盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理磁盘上的潜在问题。
磁盘巡检根据未完成的磁盘I/O调整专用于磁盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则磁盘巡检将使用较少的资源,以使I/O获得更高的优先级。
磁盘巡检不能在参与以下任何操作的任何磁盘上运行:
l RAID热备修复
l 动态扩盘
l 完全初始化或后台初始化
l 一致性检查(CC)
S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T 监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据丢失。
RAID卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描。扫描周期可通过S.M.A.R.T Polling设置,默认300s。当扫描到硬盘有SMART error时,RAID卡便会记录日志。
RAID卡具备磁盘省电功能。此功能根据磁盘配置和I/O活动允许磁盘停转。所有旋转式SAS和SATA磁盘均支持此功能。
默认情况下,硬盘节能功能处于开启状态。
当硬盘节能功能开启时,RAID卡下挂载的“Unconfig Good”状态的磁盘和空闲热备盘均处于节能状态。当有操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)需要唤醒正处于节能状态的磁盘,该操作会有一定程度的延迟。
硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。
9440-8i可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在9440-8i下的硬盘作为安装盘;而不支持硬盘直通的RAID卡,在操作系统安装过程中,只能找到该RAID卡下已经配置好的虚拟磁盘作为安装盘。
9440-8i支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
如果需要使能硬盘直通功能,请在图5-62所示界面的“JBOD Mode”参数进行设置。
JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时BMC会对其进行告警。
硬盘包含2个指示灯,其状态说明如表5-4所示。
指示灯 |
颜色 |
说明 |
Fault指示灯 |
黄色 |
l 灭:表示硬盘运行正常。 l 黄色闪烁:表示硬盘处于被定位状态或RAID重构状态。 l 黄色常亮:表示硬盘故障或RAID组中的成员盘状态异常。 说明 JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时BMC会对其进行告警。 |
Active指示灯 |
绿色 |
l 灭:表示硬盘不在位或硬盘故障。 l 绿色闪烁:表示硬盘处于读写状态或同步状态。 l 绿色常亮:表示硬盘处于非活动状态。 |
磁盘漫游是指在同一控制器下移动物理磁盘。控制器将自动识别重新定位的物理磁盘,并从逻辑上将其置于属于磁盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行磁盘漫游。
要使用磁盘漫游,按以下步骤操作:
1. 关闭操作系统。
2. 将服务器下电。
3. 将物理磁盘移动到背板所需位置。
4. 执行安全检查。确保正确插入物理磁盘。
5. 将服务器上电。
6. 控制器从物理磁盘上的配置数据中检测到RAID配置。
如果RAID卡检测到物理磁盘包含RAID配置信息,则会将该物理磁盘标记为“Foreign”,表明检测到外部磁盘。
此时,可执行导入操作将该外部配置在当前RAID卡环境中生效,实现配置迁移。
9440-8i提供硬盘故障记录功能:
l 使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。
l 禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,9440-8i会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。
维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。
l 使能该功能后,当硬盘故障时,会点亮Fault指示灯。
l 禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。
默认情况下,9440-8i使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。
针对有冗余功能的RAID 1、RAID10,RAID卡可以对RAID组的硬盘数据进行一致性检查,对磁盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。
由于RAID 0不具备冗余性,因此不支持一致性校验。
建议每月至少进行一次一致性校验。
文档中描述的关于9440-8i的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
步骤 1 通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 2 重启服务器。
步骤 3 重启过程中,当出现如图5-1所示界面时,按“Delete”。
步骤 4 输入密码并按“Enter”。
进入如图5-2所示界面。
服务器的BIOS默认密码为“Password@_”。
步骤 5 按“→”切换到“Advanced”页签,如图5-3所示。
如果Advanced界面无法找到RAID卡或显示“Some drivers are not healthy”,请参见5.5.3 BIOS下的Advanced界面无法找到RAID卡或Advanced中RAID卡状态显示Not Healthy进行修复。
步骤 6 选择要操作的9440-8i控制器,按“Enter”。
进入如图5-4和图5-5所示主界面,界面参数如表5-5所示。
参数 |
说明 |
Main Menu |
RAID卡主菜单,包含了RAID卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID卡当前工作状态。 |
Backplane |
背板个数。 |
BBU |
超级电容在位情况。 说明 9440-8i不支持超级电容,该选项显示为“No”。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的磁盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 说明 仅当9440-8i存在外部配置时,会显示该选项。 |
Configure |
提供删除配置的接口。 |
Set Factory Default |
恢复出厂设置。 |
Update Firmware |
升级固件。 |
Silence Alarm |
板载蜂鸣器的使能状态。 说明 9440-8i未配置蜂鸣器,此项设置不起作用。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。
l 9440-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见5.2.1 支持RAID 0/1/10。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见5.3.1 登录管理界面。
步骤 2 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图5-6和图5-7所示,参数说明如表5-6所示。
图5-6 “Create Virtual Drive”界面(1)
图5-7 “Create Virtual Drive”界面(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照5.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,9440-8i当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 9440-8i当前不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 9440-8i当前不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 9440-8i当前不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。
步骤 4 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图5-8所示,界面参数如表5-7所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 按表5-7所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 0支持的硬盘个数为1~32。
l 当RAID卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。
5. 选择“Apply Changes”并按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 配置虚拟磁盘属性。
按照表5-6所述配置虚拟磁盘的其他属性。
步骤 6 保存配置。
1. 选择“Save Configuration”并按“Enter”。
弹出操作确认界面。
2. 通过“Enter”键把“Confirm”状态切换成“Enabled”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 7 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。
l 9440-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见5.2.1 支持RAID 0/1/10。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见5.3.1 登录管理界面。
步骤 2 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图5-9和图5-10所示,参数说明如表5-8所示。
图5-9 “Create Virtual Drive”界面(1)
图5-10 “Create Virtual Drive”界面(2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照5.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,9440-8i当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 9440-8i当前不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 9440-8i当前不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 9440-8i当前不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。
步骤 4 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图5-11所示,界面参数如表5-9所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 按表5-9所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 1支持的硬盘个数为2~32(偶数)。
l 当RAID卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。
5. 选择“Apply Changes”并按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 配置虚拟磁盘属性。
按照表5-8所述配置虚拟磁盘的其他属性。
步骤 6 保存配置。
1. 选择“Save Configuration”并按“Enter”。
弹出操作确认界面。
2. 通过“Enter”键把“Confirm”状态切换成“Enabled”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 7 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。
l 9440-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见5.2.1 支持RAID 0/1/10。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见5.3.1 登录管理界面。
步骤 2 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图5-12和图5-13所示,参数说明如表5-10所示。
图5-12 Create Virtual Drive (1)
图5-13 “Create Virtual Drive” (2)
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照5.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,9440-8i当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 9440-8i当前不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 9440-8i当前不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 9440-8i当前不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。
步骤 4 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
打开添加成员盘的界面,如图5-14所示,界面参数如表5-11所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
3. 按表5-11所述配置过滤条件。
4. 在下方的硬盘列表中选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 10支持2~8个Span,每个Span支持的硬盘数为2~16(偶数),且各个Span的硬盘数量必须保持一致。
l RAID 10支持的硬盘总数为4~32。
l 当RAID卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。
5. 选择“Apply Changes”按“Enter”保存配置。
6. 选择“OK”并按“Enter”完成成员盘配置。
当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如图5-15所示。
1. 选择“Add More Spans”并按“Enter”。
2. 选择“Select Drives”并按“Enter”。
3. 在打开的列表中选择第2个Span的成员盘。
各个Span的硬盘数量必须保持一致。
4. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
5. 选择“OK”并按“Enter”完成成员盘配置。
步骤 6 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID10至少需要创建2个Span,最多可以创建8个Span。
步骤 7 配置虚拟磁盘属性。
按照表5-10所述配置虚拟磁盘的其他属性。
步骤 8 保存配置。
1. 选择“Save Configuration”并按“Enter”。
弹出操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 9 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”界面并按“Enter”。
显示当前存在的RAID信息。
----结束
同一台服务器配置了单个9440-8i卡或者多种芯片硬盘控制器的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。
对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
9440-8i支持2种类型的热备盘:
l Global Hotspare:即全局热备盘,为RAID卡上所有已配置的RAID所共有,1块RAID卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
l Dedicated Hotspare:即局部热备盘,为RAID卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
操作步骤
步骤 1 登录管理界面,具体操作方法请参见5.3.1 登录管理界面。
步骤 2 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图5-16所示。
步骤 3 配置全局热备盘。
1. 将“Operation”设置为“Assign Global Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
显示The operation has been performed successfully。
3. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作步骤
当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
步骤 1 登录管理界面,具体操作方法请参见5.3.1 登录管理界面。
步骤 2 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图5-17所示。
步骤 3 配置局部热备盘。
1. 将“Operation”设置为“Assign Dedicated Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
打开当前存在的虚拟磁盘列表。
3. 选择要关联的虚拟磁盘并按“Enter”。
4. 选择“OK”按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”,完成配置并返回上级界面。
----结束
操作场景
当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。
操作步骤
步骤 1 登录管理界面,具体操作方法请参见5.3.1 登录管理界面。
步骤 2 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图5-18所示。
步骤 3 删除热备盘。
1. 将“Operation”设置为“Unassign Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作步骤
步骤 1 登录管理界面,具体操作方法请参见5.3.1 登录管理界面。
步骤 2 进入“Advanced Controller Properties”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
3. 选择“Advanced Controller Properties”并按“Enter”。
步骤 3 设置紧急热备。
1. 选择“Spare”并按“Enter”。
2. 将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如图5-19所示。
3. 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
----结束
操作场景
l 只有RAID 0、RAID 1支持增加硬盘扩容。
l RAID 10不支持增加硬盘扩容。
l 当单个RAID组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
l 服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。
l 执行添加新硬盘到RAID操作之前,建议先备份数据。
增加硬盘扩容过程中,如果出现硬盘故障,会导致:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行增加硬盘扩容操作。
操作步骤
步骤 1 登录管理界面。具体操作方法请参见5.3.1 登录管理界面。
步骤 2 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”。
进入虚拟磁盘选项界面,如图5-20所示。
步骤 3 添加新硬盘。
1. 选择要进行扩容的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图5-21所示。
3. 选择“Reconfigure Virtual Drives”,并按“Enter”
4. 选择“Go”并按“Enter”。
5. 选择要扩容的RAID级别。
增加硬盘扩容时,请保证该处的RAID级别与原级别一致。
6. 选择“Choose the Operation”,并按“Enter”。
进入硬盘选择界面,如图5-22所示。
7. 选择要增加的硬盘,并按“Enter”。
l 硬盘状态为“【×】”时表示该硬盘已选择。
l 增加的硬盘要与RAID组的成员盘同类型同规格。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。
l RAID卡不支持同时对两个及以上的RAID组进行扩容操作。
8. 选择“Apply Changes”并按“Enter”。
进入操作确认界面。
9. 选择“Confirm”并按“Enter”。
10. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
11. 选择“OK”并按“Enter”。
返回到如图5-23所示界面。
12. 选择“Start Operation”并按“Enter”。
显示操作成功。
13. 选择“OK”并按“Enter”。
重新进入虚拟磁盘选项界面,验证扩容结果,如图5-24所示,表示RAID正在进行扩容。
图5-24 Reconfigure Virtual Drives
扩容属于后台动作,在HII界面只能触发而不能正式开始扩容,所以扩容的进度条一直显示为0%。当进入OS后,扩容才会开始进行。
----结束
操作场景
在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见5.3.1 登录管理界面。
步骤 2 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图5-25所示。
图5-25 Virtual Drive Management
步骤 3 扩容虚拟磁盘。
1. 将“Operation”设置为“Expand Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入虚拟磁盘扩容界面,如图5-26界面所示,界面参数如表5-12所示。
参数 |
参数说明 |
Current Capacity |
虚拟磁盘当前容量。 |
Available Capacity |
可用于扩展的容量。 |
Enter a Percentage of Available Capacity |
输入扩容比例。 |
Capacity of Virtual Drive after Expansion |
扩容后虚拟磁盘容量。 |
3. 设置扩容百分比。
4. 选择“OK”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作场景
随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。
在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。
9440-8i支持以下级别类型的迁移:
l RAID 0迁移到RAID 1
l RAID 1迁移到RAID 0
RAID迁移对硬盘数量的最低要求如表5-3所示。
l 当单个RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
l 迁移只支持增加与RAID组成员盘同类型同规格的硬盘。
l 为防止数据丢失,请在该操作之前备份当前RAID组的数据。
l 只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。
RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行RAID级别迁移操作。
操作步骤
步骤 1 登录管理界面。具体操作方法请参见5.3.1 登录管理界面。
步骤 2 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”并按“Enter”。
进入虚拟磁盘选项界面,如图5-27所示。
步骤 3 选择RAID迁移的目标级别。
下面以将RAID 0迁移到RAID 1为例进行说明。
1. 选择要进行迁移的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图5-28所示。
3. 选择“Reconfigure Virtual Drives”,并按“Enter”。
4. 选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如图5-29所示。不设置时默认与原RAID组配置一致。
5. 选择“Go”,并按“Enter”。
进入RAID配置界面,如图5-30所示。
图5-30 Reconfigure Virtual Drives
6. 选择“New RAID Level”并按“Enter”。
打开RAID迁移的目标级别选择窗口,如图5-31所示。
7. 选择“RAID 1”并按“Enter”。
步骤 4 添加硬盘。
1. 选择“Choose the operation”并按“Enter”。
打开硬盘选择窗口。
2. 选择要增加的硬盘并按“Enter”。
RAID迁移对硬盘数量的最低要求请参见表5-3。
3. 选择“Apply Changes”并按“Enter”。
弹出操作确认会话框。
4. 选择“Confirm”并按“Enter”。
5. 选择“Yes”并按“Enter”。
提示操作成功。
6. 按“Esc”返回图5-30界面。
步骤 5 RAID级别迁移。
1. 选择“Start Operation”并按“Enter”。
提示操作成功。
2. 选择“OK”并按“Enter”。
步骤 6 查看迁移结果。
1. 进入Virtual Drive Management界面,检查迁移结果,如图5-32所示,表示RAID正在进行迁移。
l 迁移过程中若重启服务器,该任务将在重启后继续进行。
l 迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。
2. 选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 0”变成“RAID 1”,且“Status”状态显示为“Optimal”时,表示RAID迁移成功。
----结束
迁移属于后台动作,在HII界面只能触发而不能正式开始,所以迁移的进度条一直显示为0%。当进入OS后,迁移才会开始进行。
操作场景
RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见5.3.1 登录管理界面。
步骤 2 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图5-33所示。
图5-33 Virtual Drive Management
步骤 3 删除虚拟磁盘。
1. 将“Operation”设置为“Delete Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作场景
RAID组中成员硬盘故障时,无论是更换新硬盘还是使用热备盘替代故障硬盘,都需要进行RAID组重构。
默认情况下,当RAID组有重构需求,并且有满足同步条件的硬盘存在时,系统自动启动重构操作。但当控制器的“Auto Rebuild”属性为“Disable”时,则需要手动重构。
该任务指导安装调测工程师进行RAID组重构操作。
操作步骤
步骤 1 在“Main Menu”界面中选择“Drive Management”节点下具体的硬盘,并按“Enter”。
打开该硬盘的操作菜单。
步骤 2 在菜单中选择“Rebuild”,并按“Enter”。
打开Rebuild菜单。
步骤 3 选择操作类型,并按“Enter”。
弹出操作确认对话框。
步骤 4 选择“YES”,并按“Enter”。
----结束
l 当出现硬盘离线情况时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。
l rebuild属于后台动作,在HII界面只能触发而不能正式开始rebuild,所以rebuild的进度条一直显示为0%。当进入OS后,rebuild才会开始进行。
操作场景
用户可以通过查看RAID卡属性的方式确定当前RAID卡是否符合实际需求。
操作步骤
步骤 1 登录管理界面,具体操作方法请参见5.3.1 登录管理界面。
步骤 2 进入“Controller Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
显示RAID卡基本信息,如图5-34所示,参数说明如表5-13所示。
参数 |
参数说明 |
Product Name |
RAID卡名称。 |
Serial Number |
RAID卡序列号。 |
Controller Status |
RAID卡的工作状态。 |
Select Boot Device |
当前启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见5.3.5 配置启动项。 |
PCI ID |
RAID卡的PCI ID。 |
PCI Slot Number |
RAID卡的PCI槽位号。 |
Package Version |
RAID卡的套件版本。 |
Firmware Version |
RAID卡的固件版本号。 |
NVDATA Version |
RAID卡配置信息的版本号。 |
Connector Count |
RAID卡与主板的接口个数。 |
Drive Count |
RAID卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID卡可以管理的虚拟磁盘个数。 |
Advanced Controller Management |
更多的控制器操作。 |
Advanced Controller Properties |
查看和修改控制器的高级属性。 |
步骤 3 查看控制器高级属性。
选择“Advanced Controller Properties”并按“Enter”。
进入控制器高级属性界面,如图5-35所示,参数说明如表5-14所示。
在该界面下,可查看并修改RAID卡的高级属性。
图5-35 Advanced Controller Properties界面(1)
图5-36 Advanced Controller Properties界面(2)
参数 |
说明 |
Profile Management |
管理快速RAID。 |
Patrol Read |
系统巡检。 |
Power Save Setting |
设置磁盘休眠。 |
Spare |
设置控制器热备状态。 |
Task Rates |
设置各种任务的处理速率。 |
Alarm Control |
9440-8i控制器卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。 默认为“Stop On Errors”。 |
Controller BIOS |
控制器BIOS的使能情况。 |
ROC Temperature |
控制器温度。 |
Shield State Supported |
是否支持暂停IO,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
磁盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Expanded Virtual Drive Support |
是否支持扩容虚拟磁盘的功能。 |
Maintain Drive Fail History |
是否维护磁盘故障历史信息。 |
SMART Polling |
SMART轮巡检测周期。默认值为“300”。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性检查。 |
JBOD Mode |
硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。 |
Drive Detection Type |
随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制器属性。 可用选项为: l Disabled l High Latency l Aggressive l Default |
Drive Corrective Action |
随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致IO延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。 l Disabled:禁用该功能 l Enabled:开启该功能 |
Drive Error Threshold |
通过该选项设置适当的控制器属性。 l Every 8 hours l Every1 hours l Every 15 mins l Every 5 mins |
Large IO Support |
启用或禁用大型IO支持功能。 |
Unmap Capability |
解除映射能力。 |
Apply Changes |
保存配置。 |
----结束
操作场景
l 服务器更换RAID卡后,需要将原有配置导入新的RAID卡中。
l 新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或不需要的存储配置,可将该配置导入或者清空。
l 如服务器已配置RAID,在更换新RAID卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!
l 为避免导入外部配置失败,更换的RAID卡的型号要与原来的RAID卡保持一致。
l 当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。
操作步骤
步骤 1 登录管理界面,具体操作方法请参见5.3.1 登录管理界面。
步骤 2 进入“Preview Foreign Configuration”界面。
1. 在主界面中选择“View Foreign Configuration”并按“Enter”。
2. 选择“Preview Foreign Configuration”并按“Enter”。
进入外部配置管理界面,如图5-37所示。
图5-37 Preview Foreign Configuration
步骤 3 (可选)导入外部配置。
1. 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”,并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置返回上级界面。
步骤 4 (可选)清空外部配置。
1. 选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置返回上级界面。
----结束
该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID0存在一个VD为例(如图5-38所示),详细操作方法如下:
图5-38 Virtual Drive Management
步骤 1 按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如图5-39所示。
步骤 2 将“Select RAID Level”设置为“RAID0”。
步骤 3 将“Select Drives From”设置为“Free Capacity”,如图5-40所示。
步骤 4 选择“Select Drive Groups”并按“Enter”。
显示当前存在的RAID组(Drive Group),如图5-41所示。
步骤 5 选择要创建多个VD的RAID组,并按“Enter”,如图5-42所示。
步骤 6 选择“Apply Changes”并按“Enter”。
提示操作成功。
步骤 7 选择“OK”并按“Enter”返回VD配置界面,如图5-43所示,参数说明如表5-15所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照5.4.10 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,9440-8i当前仅支持64KB的条带规格。 |
Read Policy |
虚拟磁盘的读策略。 9440-8i当前不支持设置此参数。 |
Write Policy |
虚拟磁盘的写策略。 9440-8i当前不支持设置此参数。 |
I/O Policy |
虚拟磁盘的I/O策略。 9440-8i当前不支持设置此参数。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 8 按照表5-15所述配置VD的相关属性。
步骤 9 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
步骤 10 选择“Confirm”并按“Enter”。
步骤 11 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
可进入Virtual Drive Management界面,查看当前存在的所有VD,如图5-44所示。
图5-44 Virtual Drive Management
----结束
每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤12。
查询RAID卡固件版本的方法有如下几种:
l 在BMC Web界面查询,具体操作请参见BMC用户指南的“系统信息”章节。
l 服务器启动完成后,在OS下通过RAID卡命令行工具进行查询,具体操作请参见5.7.2.1 查询RAID卡配置信息。
回显信息中的“FW Version”字段即为RAID卡的固件版本。
l 在RAID卡管理界面进行查询,具体方法为:
a. 登录RAID卡的管理界面,具体操作请参见5.3.1 登录管理界面。
b. 在主界面中选择“Main Menu”并按“Enter”。
进入“Main Menu”页面,如图5-45所示。
c. 选择“Controller Management”并按“Enter”。
显示RAID卡基本信息。界面中的“Firmware Version”即为RAID卡的固件版本,如图5-46所示。
介绍了硬盘故障、RAID卡故障、电池/电容故障的常用处理方法。更多故障案例请联系技术支持获取。
问题描述
当服务器出现如下现象时,说明硬盘故障。
l 硬盘故障指示灯常亮。
l 服务器开机状态下,硬盘指示灯不亮。
l 服务器上报硬盘故障告警。
处理方法
JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时BMC会对其进行告警。
l 通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。
l 通过管理软件BMC硬盘告警信息确认故障硬盘槽位,请参考BMC告警处理手册。
l 通过RAID卡GUI界面确认故障硬盘槽位信息,参考5.6.2.4 Drive Management。
l 通过RAID卡命令行工具确认故障硬盘槽位信息,参考5.7.2.22 查询RAID卡/RAID组/物理硬盘信息。
步骤 2 更换新硬盘。
l 更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘导致,则可以将硬盘设置为Unconfig Good后,参考5.4.9 导入/清空外部配置章节恢复RAID组,无需更换硬盘。
l 若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。
l 若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在表5-2查看RAID组支持的最大故障硬盘数量。
l 更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。
l 新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制器下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID卡删除RAID信息或硬盘低格章节。
拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:
l 若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。
l 若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。
l 若故障硬盘为直通盘,则直接更换即可。
l 若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。
− UEFI模式下创建RAID0的方法请参见5.3.2 创建RAID 0。
− 通过命令行方式创建RAID0的方法请参见5.7.2.8 创建和删除RAID。
----结束
问题描述
当服务器出现如下现象时,说明RAID控制卡故障。
l 数据无法写入RAID控制卡控制的硬盘。
l 服务器上报RAID控制卡故障告警。
处理方法
步骤 1 登录BMC Web界面查看告警信息。
步骤 2 根据告警信息,参考BMC 告警处理手册处理。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤3
步骤 4 联系技术支持处理。
----结束
问题描述
正常情况下,当服务器配置了RAID卡且RAID卡状态正常时,进入BIOS的Advanced页签后,会显示RAID卡的信息,如图5-47所示。
如果Advanced页签不显示RAID卡的信息,如图5-48所示,则:
l 如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:
− 如果不显示驱动打印信息,可尝试下电后重新拔插RAID卡再上电、下电后更换RAID卡再上电或者联系技术支持。
− 如果显示“AVAGO EFI SAS Driver”,则可以通过本章节的指导修复RAID卡。
l 如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,则可以通过本章节的指导修复RAID卡;如果不显示,可尝试下电后重新拔插RAID卡再上电、下电更换RAID卡再上电或者联系技术支持。
处理方法
l 当BIOS的版本为0.98之前版本(不包含0.98版本)时:
a. 在Advanced页签选择“Driver Health Manager”并按Enter。
进入“Driver Health Manager”界面。
b. 选择要进行修复的RAID卡驱动,如“AVAGO EFI SAS Driver”,并按“Enter”。
进入“Critical Message”界面。
c. 查看“Critical Message”界面的打印信息:
n 显示“The following VDs have missing disks. ”=> 请参见5.5.3.1 The following VDs have missing disks。
n 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见5.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
l 当BIOS的版本为0.98及以上版本时:
a. 在“Advanced”页签选择“Some drivers are not healthy”。
进入健康状态查询界面。
b. 选择“Repair the whole platform”,并按“Enter”。
进入“Critical Message”界面。
c. 查看“Critical Message”界面的打印信息。
n 显示“The following VDs have missing disks. ”=> 请参见5.5.3.1 The following VDs have missing disks。
n 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见5.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
RAID卡启动过程中或RAID卡管理界面显示的更多启动消息的介绍及处理建议请参见A.2 常见RAID卡启动消息。
问题描述
如图5-49所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。
处理方法
步骤 1 修复RAID卡。
1. 在图5-49中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
2. 输入“C”并按“Enter”。
3. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
4. 输入“y”并按“Enter”。
提示“Critical Message handling completed. Please exit”。修复完成。
步骤 2 重启服务器,进入“Advanced”界面,检查是否显示RAID卡信息。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图5-50所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”
处理方法
步骤 1 根据图5-50的打印信息选择不同的操作。
l 显示All of the disks from your previous configuration are gone => 请依次执行步骤2~步骤6。
l 显示Some configured disks have been removed from your system => 请依次执行步骤2和步骤6。
1. 在图5-50中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
2. 输入“C”并按“Enter”。
3. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
4. 输入“Y”并按“Enter”。
提示Critical Message handling completed. Please exit。修复完成。
步骤 3 按Esc。
进入RAID卡配置界面。
步骤 4 在RAID卡配置界面选择“Configure”并按Enter。
进入“Configure”界面。
步骤 5 在“Configure”界面清除RAID卡配置。
具体操作请参见5.6.5 Configure。
步骤 6 重启服务器,进入“Advanced”界面,检查是否显示RAID卡信息。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
步骤 1 通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 2 重启服务器。
步骤 3 重启过程中,当出现如图5-51所示界面时,按“Delete”。
步骤 4 输入密码并按“Enter”。
进入如图5-52所示界面。
服务器的BIOS默认密码为“Password@_”。
步骤 5 按“→”切换到“Advanced”页签,如图5-53所示。
如果Advanced界面无法找到RAID卡或显示“Some drivers are not healthy”,请参见5.5.3 BIOS下的Advanced界面无法找到RAID卡或Advanced中RAID卡状态显示Not Healthy进行修复。
步骤 6 选择要操作的9440-8i控制器,按“Enter”。
进入如图5-54和图5-55所示主界面,界面参数如表5-16所示。
参数 |
说明 |
Main Menu |
RAID卡主菜单,包含了RAID卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID卡当前工作状态。 |
Backplane |
背板个数。 |
BBU |
超级电容在位情况。 说明 9440-8i不支持超级电容,该选项显示为“No”。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的磁盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 说明 仅当9440-8i存在外部配置时,会显示该选项。 |
Configure |
提供删除配置的接口。 |
Set Factory Default |
恢复出厂设置。 |
Update Firmware |
升级固件。 |
Silence Alarm |
板载蜂鸣器的使能状态。 说明 9440-8i未配置蜂鸣器,此项设置不起作用。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
RAID卡主菜单,提供配置、管理RAID卡的接口。
界面介绍
“Main Menu”界面如图5-56,参数说明如表5-17所示。
参数 |
参数说明 |
Configuration Management |
配置管理RAID。 |
Controller Management |
管理RAID控制器。 |
Virtual Drive Management |
管理虚拟磁盘。 |
Drive Management |
管理硬盘。 |
Hardware Components |
查询部件信息。 |
可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。
界面介绍
“Configuration Management”界面如图5-57,参数说明如表5-18所示。
图5-57 Configuration Management
参数 |
参数说明 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
快速创建RAID,RAID的参数由系统自动适配。 |
View Drive Group Properties |
查看磁盘组属性。 |
Make JBOD |
硬盘直通功能,硬盘不加入RAID,直接使用。 |
Clear Configuration |
清除配置。 |
快速创建RAID
步骤 1 在图5-57中选择“Create Profile Based Virtual Drive”并按“Enter”。
步骤 2 通过“↑”、“↓”选择要创建的RAID(以“Generic RAID 1”为例)并按“Enter”。
打开RAID配置界面,如图5-58,参数说明如表5-19所示。
参数 |
参数说明 |
Drive Selection Criteria |
系统自动选择的成员盘。 |
Virtual Drive Name |
系统自定义的RAID组名称。 |
RAID Level |
当前配置的RAID组的级别。 |
Virtual Drive Size |
RAID组的容量。 |
Power Save Mode |
数据掉电保护模式。 |
Strip Size |
RAID组扇区大小。 |
Read Policy |
RAID组的数据读策略。 |
Write Policy |
RAID组的数据写策略。 |
IO Policy |
RAID组IO策略。 |
Access Policy |
数据读写的策略。 |
Drive Cache |
硬盘Cache策略。 |
Create Dedicated Hot Spare |
是否为RAID组创建局部热备盘。 |
Save Configuration |
保存当前配置。 |
步骤 3 按表5-19所示查看或配置相关参数。
步骤 4 选择“Save Configuration”并按“Enter”。
弹出操作确认界面。
步骤 5 选择“Confirm”并按“Enter”。
步骤 6 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 7 选择“OK”并按“Enter”完成配置。
----结束
查看虚拟磁盘属性
在图5-57中选择“View Drive Group Properties”并按“Enter”。
图5-59 View Drive Group Properties
参数 |
参数说明 |
Drive Group |
磁盘组名称。 |
Capacity Allocation |
磁盘组容量,显示磁盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。 |
该界面提供控制器管理接口,可查看并修改控制器的详细参数。
界面介绍
“Controller Management”界面如图5-60,参数说明如表5-21所示。
参数 |
参数说明 |
Product Name |
RAID卡名称。 |
Serial Number |
RAID卡序列号。 |
Controller Status |
RAID卡的工作状态。 |
Select Boot Device |
当前启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见5.3.5 配置启动项。 |
PCI ID |
RAID卡的PCI ID。 |
PCI Slot Number |
RAID卡的PCI槽位号。 |
Package Version |
RAID卡的套件版本。 |
Firmware Version |
RAID卡的固件版本号。 |
NVDATA Version |
RAID卡配置信息的版本号。 |
Connector Count |
RAID卡与主板的接口个数。 |
Drive Count |
RAID卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID卡可以管理的虚拟磁盘个数。 |
Advanced Controller Management |
更多的控制器操作。 |
Advanced Controller Properties |
查看和修改控制器的高级属性。 |
查看并修改控制器高级属性
步骤 1 在图5-60中选择“Advanced Controller Properties”并按“Enter”。
界面如图5-61和图5-62所示,界面中参数说明如表5-22所示。
图5-61 Advanced Controller Properties界面(1)
图5-62 Advanced Controller Properties界面(2)
参数 |
参数说明 |
Profile Management |
管理快速RAID。 |
Patrol Read |
系统巡检。 |
Power Save Setting |
设置磁盘休眠。 |
Spare |
设置控制器热备状态。 |
Task Rates |
设置各种任务的处理速率。 |
Alarm Control |
9440-8i RAID卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。 默认为“Stop On Errors”。 |
Controller BIOS |
控制器BIOS的使能情况。 |
ROC Temperature |
控制器温度。 |
Shield State Supported |
是否支持暂停IO,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
磁盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Maintain Drive Fail History |
是否维护磁盘故障历史信息。 |
SMART Polling |
SMART轮巡检测周期。默认值为“300”。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性检查。 |
JBOD Mode |
硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。 |
Drive Detection Type |
随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制器属性。 可用选项为: l Disabled l High Latency l Aggressive l Default |
Drive Corrective Action |
随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致IO延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。 l Disabled:禁用该功能 l Enabled:开启该功能 |
Drive Error Threshold |
通过该选项设置适当的控制器属性。 l Every 8 hours l Every1 hours l Every 15 mins l Every 5 mins |
Large IO Support |
启用或禁用大型IO支持功能。 |
Apply Changes |
保存配置。 |
步骤 2 按照表5-22所述修改控制器的高级属性参数。
步骤 3 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面提供虚拟磁盘的查询和管理接口。
界面介绍
“Virtual Drive Management”界面如图5-63,显示虚拟磁盘列表。
选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如图5-64所示,参数说明如表5-23所示。
图5-64 Virtual Drive Management
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:定位虚拟磁盘的所有硬盘。 l Stop Locate:取消定位。 l Delete Virtual Drive:删除虚拟磁盘。 l Expand Virtual Drive:扩展虚拟磁盘容量。 l Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID卡不支持同时对两个及以上的虚拟磁盘进行重新配置。 l Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。 l Hide/Unhide Drive Group:隐藏/取消隐藏磁盘组。 l Fast Initialization:快速初始化虚拟磁盘。 l Slow Initialization:安全初始化虚拟磁盘。 l Check Consistency:一致性检查。 l Virtual Drive Erase:格式化虚拟磁盘。 |
Name |
虚拟磁盘名称。 |
Raid Level |
虚拟磁盘RAID级别。 |
Status |
虚拟磁盘当前运行状态。 |
Size |
虚拟磁盘容量。 |
View Associated Drives |
查看成员盘属性。 |
Advanced... |
查看虚拟磁盘高级属性。 |
查看成员盘属性
步骤 1 在图5-64中选择“View Associated Drives”并按“Enter”。
界面如图5-65,显示成员盘列表。
步骤 2 选择要查看的成员盘,并按“Enter”。
步骤 3 选择“View Drive Properties”并按“Enter”。
进入磁盘属性界面,如图5-66界面所示,界面参数如表5-24所示。
参数 |
参数说明 |
Operation |
该成员盘可执行的操作,包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Place Drive Online/Offline:将硬盘上线/离线。 |
Drive ID |
成员盘的ID。 |
Status |
成员盘的当前工作状态。 |
Size |
成员盘的容量。 |
Type |
成员盘类型。 |
Model |
成员盘的模块类型。 |
Hardware Vendor |
成员盘的生产厂商。 |
Associated Virtual Drive |
成员盘所在的虚拟磁盘。 |
Advanced... |
查询成员盘更多属性。 |
----结束
查看和修改虚拟磁盘高级属性
步骤 1 在图5-64中选择“Advanced”并按“Enter”。
界面如图5-67和图5-68所示,界面参数如表5-25所示。
参数 |
参数说明 |
Mirror Data Size |
镜像数据大小。 |
Logical Sector Size |
逻辑扇区大小。 |
Segment Size |
条带大小。 |
Starting Logical Block Addressing |
逻辑单元起始地址。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 当成员盘为512B/512B时: l Default:逻辑盘扇区为512B/512B。 l None:逻辑盘扇区为512B/512B。 l Force:逻辑盘扇区为512B/4KB。 当成员盘为512B/4KB时: l Default:逻辑盘扇区为512B/4KB。 l None:逻辑盘扇区为512B/512B。 l Force:逻辑盘扇区为512B/4KB。 |
Protected |
是否支持磁盘保护。 |
Bad Blocks |
是否支持坏块处理。 |
SSD Caching |
是否支持SSD Caching。 |
Access |
数据读取的策略,分以下三种: l Read Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Current Write Cache Policy |
当前写Cache策略。默认为“Write Through”。 说明 “Write Through”表示当硬盘子系统接收到所有传输数据后,RAID卡将给主机返回数据传输完成信号。 |
Default Write Cache Policy |
默认的Cache写策略。 |
Disable Background Initialization |
是否禁用后台初始化。 |
Read Cache Policy |
当前读Cache策略,默认为“No Read Ahead”,即关闭预读取功能。 说明 9440-8i不支持在该界面设置读Cache策略。 |
Drive Cache |
是否支持cache。 |
Input/Output |
I/O读取策略,默认为“Direct”,即直接从硬盘读取数据,不经过Cache缓存。 说明 9440-8i不支持在该界面设置I/O读取策略。 |
Apply Changes |
保存配置。 |
步骤 2 按照表5-25所述配置“Advanced”的参数。
步骤 3 选择“Apply Changes”并按“Enter”。
显示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面显示硬盘基本属性,提供硬盘操作接口。
界面介绍
“Drive Management”界面如图5-69所示,显示硬盘列表。
选定要操作的硬盘并按“Enter”进入详细操作界面,如图5-70所示,参数说明如表5-26所示。
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Initialize Drive:硬盘初始化。 l Drive Erase:安全擦除硬盘数据。 − Simple:仅对硬盘进行一轮擦除动作。 − Normal:对硬盘进行三轮擦除动作。 − Thorough:对硬盘进行九轮擦除动作。 − Stop Erase:停止数据擦除操作。 l Make Unconfigured Good/Bad:修改硬盘状态。 l Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。 l Assign Global Hot Spare Drive:设置全局热备盘。 l Assign Dedicated Hot Spare Drive:设置局部热备盘。 l Unassign Hot Spare Drive:删除热备盘。 l Prepare for Removal:硬盘拔出前的准备工作。 l Place Drive Online:将Offline状态的硬盘设置为Online。 说明 l Place Drive Online操作仅仅只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。 l 如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。 l 对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。 |
Drive ID |
硬盘的ID。 |
Status |
硬盘的当前工作状态。 |
Size |
硬盘的容量。 |
Type |
硬盘的类型。 |
Model |
硬盘型号。 |
Hardware Vendor |
硬盘的生产厂商。 |
Advanced... |
查询更多硬盘属性。 |
安全擦除硬盘数据
该操作会删除硬盘上的数据,请谨慎执行。
步骤 1 将“Operation”设置为“Drive Erase”。
步骤 2 选择“Erase Mode”并按“Enter”。
步骤 3 在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。
步骤 4 选择“Go”并按“Enter”。
步骤 5 选择“Confirm”并按“Enter”。
步骤 6 选择“Yes”并按“Enter”。
提示操作成功。
----结束
查看硬盘属性
选择“Advanced...”并按“Enter”。
打开硬盘属性界面,如图5-71和图5-72所示,参数说明如表5-27所示。
参数 |
参数说明 |
Logical Sector Size |
逻辑扇区大小。 |
Physical Sector Size |
物理扇区大小。 |
SMART Status |
SMART功能是否使能。 |
Revision |
硬盘Firmware版本。 |
Media Error |
Media error个数。 |
Predicted Fail Count |
Pred fail个数。 |
SAS Address |
硬盘SAS地址。 |
Drive Power State |
硬盘上电状态。 |
Cache Setting |
是否可设置Cache。 |
Available Size |
硬盘可用空间。 |
Used Space |
已使用的硬盘空间。 |
Disk Protocol |
硬盘支持的协议。 |
Negotiated Drive Transfer Speed |
硬盘数据传输速率。 |
Number of Connections |
连接器个数。 |
FDE Capable |
硬盘是否支持FDE(Full Disk Encryption)技术。 |
Protection Capable |
硬盘是否支持数据保护。 |
Cryptographic Erase Capable |
硬盘是否支持加密擦除功能。 |
Temperature |
硬盘温度。 |
该界面主要提供RAID卡传感器信息。
界面介绍
“Hardware Components”界面如图5-73,参数说明如表5-28所示。
参数 |
参数说明 |
Temperature Sensors |
当前温度传感器状态。 |
Fans |
当前风扇模块工作状态。 |
Power Supplies |
当前供电模块工作状态。 |
Enclosure Management |
部件管理。 |
提供RAID卡操作管理接口。
界面介绍
“View Server Profile”界面如图5-74所示,参数说明如表5-29所示。
参数 |
参数说明 |
UEFI Spec Version |
服务器支持的UEFI Spec版本。 |
Controller Management |
提供控制器管理接口,详细情况请参见5.6.2.2 Controller Management。 |
Hardware Components |
提供控制器部件查询接口,详细情况请参见5.6.2.5 Hardware Components。 |
Drive Management |
提供硬盘管理接口,详细情况请参见5.6.2.4 Drive Management。 |
Virtual Drive Management |
提供虚拟磁盘管理接口,详细情况请参见5.6.2.3 Virtual Drive Management。 |
该界面可查看、导入、清空外部配置。
界面介绍
“View Foreign Configuration”界面如图5-75所示。
图5-75 View Foreign Configuration
查看并导入外部配置
步骤 1 选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图5-76所示。
图5-76 View Foreign Configuration
步骤 2 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 3 选择“Confirm”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 选择“OK”并按“Enter”完成配置。
----结束
清除外部配置
步骤 1 选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面可清除当前所有配置。
界面介绍
“Configure”界面如图5-77所示,参数说明如表5-30所示。
参数 |
参数说明 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
快速创建RAID,RAID的参数由系统自动适配。 |
View Drive Group Properties |
查看磁盘组属性。 |
Make JBOD |
查看全局热备盘。 |
Clear Configuration |
清除当前配置。 |
清除当前配置
步骤 1 选择“Clear Configuration”并按“Enter”。
打开操作确认界面。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
恢复出厂配置
步骤 1 在主界面选择“Set Factory Default”并按“Enter”。
打开操作确认界面。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面提供RAID卡高级软件特性查看和导入接口。
界面介绍
“Manage MegaRAID Advanced Software Options”界面如图5-78所示,界面中参数说明如表5-31所示。
图5-78 Manage MegaRAID Advanced Software Options
参数 |
说明 |
SAFE ID |
RAID卡的安全编码。 |
Serial Number |
RAID卡序列号。 |
Activation Key |
待激活的高级特性的Key。 |
Active |
激活高级特性。 说明 9440-8i不支持高级特性的激活操作,该功能无效。 |
Deactive All Trail Software |
注销当前所有高级特性。 |
退出配置界面
步骤 1 在9440-8i主界面按“ESC”,显示如图5-79所示界面。
步骤 2 按F10退出BIOS。
弹出操作确认窗口。
步骤 3 选择“OK”并按Enter。
退出BIOS,显示“ Press Control+Alt+Delete to reboot”。
----结束
使用OS命令行工具可以在服务器正常运行过程中对RAID卡进行操作,不需要重启服务器。
请联系技术支持获取StorCLI工具的下载和安装方法。
命令功能
查询9440-8i的基本配置信息。
命令格式
storcli64 /ccontroller_id show
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制器ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID |
使用指南
建议保持默认配置。
使用实例
# 查询RAID卡配置信息。
[root@localhost ~]# storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
CLI Version = 007.0913.0000.0000 Jan 11, 2019
Operating system = Linux 4.19.36-vhulk1907.1.0.h608.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Product Name = AVAGO MegaRAID SAS 9440-8i
Serial Number = SP93000051
SAS Address = 500605b00f3999e0
PCI Address = 00:03:00:00
System Time = 03/03/2020 16:35:38
Mfg. Date = 07/29/19
Controller Time = 03/03/2020 08:35:37
FW Package Build = 51.12.0-3097
BIOS Version = 7.12.03.0_0x070C0300
FW Version = 5.120.01-2995
Driver Name = megaraid_sas
Driver Version = 07.712.02.00
Vendor Id = 0x1000
Device Id = 0x17
SubVendor Id = 0x1000
SubDevice Id = 0x9440
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 3
Device Number = 0
Function Number = 0
Drive Groups = 1
TOPOLOGY :
========
---------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size PDC PI SED DS3 FSpace TR
---------------------------------------------------------------------------
0 - - - - RAID0 Optl N 1.089 TB dflt N N dflt N N
0 0 - - - RAID0 Optl N 1.089 TB dflt N N dflt N N
0 0 0 69:0 0 DRIVE Onln N 1.089 TB dflt N N dflt - N
---------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 1
VD LIST :
=======
-------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC Size Name
-------------------------------------------------------------
0/0 RAID0 Optl RW Yes NRWTD - ON 1.089 TB
-------------------------------------------------------------
EID=Enclosure Device ID| VD=Virtual Drive| DG=Drive Group|Rec=Recovery
Cac=CacheCade|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 1
PD LIST :
=======
--------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp Type
--------------------------------------------------------------------------
69:0 0 Onln 0 1.089 TB SATA SSD N N 512B SSDSC2BB012T7H U -
--------------------------------------------------------------------------
EID=Enclosure Device ID|Slt=Slot No.|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=Unsupported|UGShld=UnConfigured shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported
命令功能
查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。
命令格式
storcli64 /ccontroller_id show spinupdelay
storcli64 /ccontroller_id show spinupdrivecount
storcli64 /ccontroller_id set spinupdelay=time
storcli64 /ccontroller_id set spinupdrivecount=count
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
time |
每组起转硬盘间的时间间隔 |
默认为2,单位为s。 |
count |
上电时允许同时起转的硬盘数量 |
默认为4。 |
查看RAID卡ID的方法请参见5.7.2.1 查询RAID卡配置信息。
使用指南
建议保持默认配置。
使用实例
# 查询RAID卡Spinup参数。
domino:~# ./storcli64 /c0 show spinupdelay
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
domino:~# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 2
--------------------------
# 设置RAID卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。
domino:~# ./storcli64 /c0 set spinupdelay=20
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Spin Up Delay 20 second(s)
---------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 5
--------------------------
命令功能
设置空闲硬盘和热备盘的省电模式。
命令格式
storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID。 |
– |
state |
省电模式的启用状态。 |
l on:启用 l off:禁用 |
disktype |
硬盘类型。 |
l 1:空闲硬盘 l 2:热备盘 |
time |
等待时间,硬盘经过等待时间没有IO,则停转进入休眠状态。 |
单位为minutes。 |
查看RAID卡ID的方法请参见。
使用指南
无
使用实例
# 设置空闲硬盘的省电模式。
domino:~# ./storcli64 /c0 set ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------
Ctrl_Prop Value
------------------------
SpnDwnUncDrv Enabled
SpnDwnTm 30 minutes
------------------------
命令功能
设置物理硬盘初始化功能,查询初始化进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
action |
要执行的操作 |
l show:查看初始化进度 l start:开始初始化 l stop:结束初始化 |
以上涉及的各个ID的查询方法请参见5.7.2.22 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 初始化slot3硬盘,并查询初始化进度。
domino:~# ./storcli64 /c0/e252/s3 start initialization
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show initialization
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
命令功能
设置物理硬盘数据擦除模式,查询擦除进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
mode |
数据擦除模式 |
l simple:对硬盘进行一轮擦除动作。 l normal:对硬盘进行三轮擦除动作。 l thorough:对硬盘进行九轮擦除动作。 |
以上涉及的各个ID的查询方法请参见5.7.2.22 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。
domino:~# ./storcli64 /c0/e252/s3 start erase simple
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.
命令功能
设置后台初始化速率、一致性检查速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。
命令格式
storcli64 /ccontroller_id set action=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
action |
要设置的项目 |
l bgirate:后台初始化速率 l ccrate:一致性检查速率 l prrate:硬盘巡检速率 l rebuildrate:RAID重构速率 l reconrate:RAID扩容和迁移速率 |
value |
后台任务资源占用率 |
1~100 |
查看RAID卡ID的方法请参见5.7.2.22 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置硬盘巡检速率为“30%”。
domino:~# ./storcli64 /c0 set prrate=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
Patrol Read Rate 30%
-----------------------
命令功能
设置控制器BIOS在检测到异常时停止继续启动的功能。
命令格式
storcli64 /ccontroller_id set bios mode=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
action |
要执行的操作 |
l soe:控制器BIOS在检测到异常时停止启动 l ie:忽略检测到的异常 |
查看RAID卡ID的方法请参见5.7.2.22 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启Stop on error功能。
domino:~# ./storcli64 /c0 set bios mode=soe
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------
命令功能
创建、删除RAID。
命令格式
storcli64 /ccontroller_id add vd rlevel size=capacity drives=enclosure_id:slot_id | enclosure_id:startid-endid,enclosure_id:slot_id | enclosure_id:startid-endid [pdperarray=pdperarray]
storcli64 /ccontroller_id/vraid_id del
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
level |
要配置的RAID级别 |
– |
capacity |
要配置的RAID容量 |
– |
startid-endid |
要加入RAID的硬盘的起始和结束ID |
– |
pdperarray |
子组中的硬盘数。 只有创建RAID10时,需要设置此参数,创建RAID0或RAID1时不需设置此参数。 |
– |
raid_id |
要删除的RAID的ID |
– |
l 以上涉及的各个ID的查询方法请参见5.7.2.22 查询RAID卡/RAID组/物理硬盘信息。
l 当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid。
使用指南
无
使用实例
# 创建RAID 0。
domino:~# ./storcli64 /c0 add vd r0 size=100GB drives=252:0-3
Controller = 0
Status = Success
Description = Add VD Succeeded
#删除RAID组。
domino:~# ./storcli64 /c0/v0 del
Controller = 0
Status = Success
Description = Delete VD Succeeded
命令功能
设置RAID前台初始化模式。
命令格式
storcli64 /ccontroller_id/vraid_id start mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
前台初始化模式 |
l init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。 l init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。 |
以上涉及的各个ID的查询方法请参见5.7.2.22 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 快速初始化RAID。
domino:~# ./storcli64 /c0/v0 start init
Controller = 0
Status = Success
Description = Start INIT Operation Success
命令功能
暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。
命令格式
storcli64 /ccontroller_id/vraid_id action bgi
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
action |
后台初始化的操作 |
l show:查看后台初始化进度 l pause:暂停后台初始化 l resume:继续后台初始化 l stop:停止后台初始化 |
以上涉及的各个ID的查询方法请参见5.7.2.22 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查看后台初始化进度。
domino:~# ./storcli64 /c0/v0 show bgi
Controller = 0
Status = Success
Description = Noe
VD Operation Status :
===================
------------------------------------------------------
VD Operation Progress% Staus Estimated Time Left
------------------------------------------------------
0 BGI 3 In progress 53 Minutes
------------------------------------------------------
命令功能
设置虚拟磁盘或物理硬盘为启动项。
命令格式
storcli64 /ccontroller_id/vvd_id set bootdrive=on
storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
vd_id |
待设置的虚拟磁盘的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
以上涉及的各个ID的查询方法请参见5.7.2.22 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置VD0为启动项。
domino:~# ./storcli64 /c0/v0 set bootdrive=on
Controller = 0
Status = Success
Description = Noe
Detailed Status :
===============
----------------------------------------
VD Property Value Staus ErrCd ErrMsg
----------------------------------------
0 Boot Drive On Success 0 -
----------------------------------------
# 设置slot 7硬盘为启动项。
domino:~# ./storcli64 /c0/e252/s7 set bootdrive=on
Controller = 0
Status = Success
Description = Noe
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
BootDrive PD:252_7
-------------------
命令功能
设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。
命令格式
storcli64 /ccontroller_id set eghs eug=state
storcli64 /ccontroller_id set eghs smarter=state
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
state |
紧急热备功能的启用状态 |
l on:启用 l off:禁用 |
查看RAID卡ID的方法请参见5.7.2.22 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。
domino:~# ./storcli64 /c0 set eghs eug=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------
Ctrl_Prop Value
------------------
EmergencyUG ON
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
EmergencySmarter ON
-----------------------
命令功能
设置全局热备盘和局部热备盘。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=vd_id]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
vd_id |
局部热备盘所属虚拟磁盘的ID |
– |
以上涉及的各个ID的查询方法请参见5.7.2.22 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置slot 3硬盘为全局热备盘。
domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
# 设置slot 3硬盘为vd0的局部热备盘。
domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive dgs=0
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
命令功能
暂停、继续、停止RAID重构/回拷/系统巡检,并查询进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action function
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
action |
要执行的操作 |
l show:查看进度 l pause:暂停进程 l resume:继续执行 l stop:停止进程 |
function |
要处理的进程 |
l rebuild:RAID重构 l copyback:回拷 l patrolread:系统巡检 |
以上涉及的各个ID的查询方法请参见5.7.2.22 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查看RAID重构进度。
domino:~# ./storcli64 /c0/e252/s4 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Staus Estimated Time Left
------------------------------------------------------
/c0/e252/s4 9 In progress 12 Minutes
------------------------------------------------------
# 暂停RAID重构。
domino:~# ./storcli64 /c0/e252/s4 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Status Succeeded.
命令功能
设置Smart扫描周期。
命令格式
storcli64 /ccontroller_id set smartpollinterval=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
value |
Smart扫描周期 |
单位为s。 |
查看RAID卡ID的方法请参见5.7.2.22 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Smart扫描周期为“60s”。
domino:~# ./storcli64 /c0 set smartpollinterval=60
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
命令格式
storcli64 /ccontroller_id/vvd_id expand size=capacity
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
vd_id |
要扩容的RAID的ID |
– |
capacity |
扩容后的容量 |
– |
以上涉及的各个ID的查询方法请参见5.7.2.22 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 将VD0的容量扩大至“200GB”。
domino:~# ./storcli64 /c0/v0 expand size=200GB
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
0 100.0 GB 457.861 GB 200.0 GB 201.458 GB 44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
当增加新盘后,可进行RAID级别迁移。
命令格式
storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
vd_id |
要操作的RAID的ID |
– |
slot_id |
要加入RAID的新硬盘的槽位号 |
– |
level |
增加硬盘后RAID的级别 |
l 与原RAID级别相同时,该命令为扩大RAID容量。 l 与原RAID级别不同时,该命令为RAID级别迁移。 |
以上涉及的各个ID的查询方法请参见5.7.2.22 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 在RAID 0中增加slot 2硬盘扩容。
domino:~# ./storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 13 Minutes
-------------------------------------------------------
# 单盘RAID 0加盘迁移至RAID 1。
domino:~# ./storcli64 /c0/v0 start migrate type=r1 option=add drives=252:3
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 14 Minutes
-------------------------------------------------------
命令功能
设置一致性检查参数。
命令格式
storcli64 /ccontroller_id[/vvd_id]show cc
storcli64 /ccontroller_id/vvd_id start cc force
storcli64 /ccontroller_id/vvd_id action cc
storcli64 /ccontroller_id set cc=conc delay=value starttime=time excludevd=evd_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
vd_id |
要操作的RAID的ID |
– |
action |
要执行的操作 |
l pause:暂停 l resume:继续执行 l stop:停止 |
value |
一致性检查周期 |
– |
time |
一致性检查起始时间 |
例如:2016/07/14 22:00:00 |
evd_id |
不进行一致性检查的虚拟磁盘ID |
– |
以上涉及的各个ID的查询方法请参见5.7.2.22 查询RAID卡/RAID组/物理硬盘信息。
使用指南
show命令中不带/vvd_id时,表示查询自动CC参数。
show命令中带/vvd_id时,表示查询CC进度。
使用实例
# 设置一致性自动检查参数。
domino:~# ./storcli64 /c0 set cc=conc delay=1 starttime=2016/07/14 22:00:00 excludevd=0
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------
Ctrl_Prop Value
------------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2016/07/14 22:00:00
CC ExcludeVD(0) Success
------------------------------------
# 查询CC进度。
domino:~# ./storcli64 /c0/v1 show cc
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimited Time Left
-----------------------------------------------------------
0 CC - Not in progress -
-----------------------------------------------------------
命令功能
查询和设置系统巡检的相关参数。
命令格式
storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number
storcli64 /ccontroller_id set patrolread delay=delaytime
storcli64 /ccontroller_id show patrolread
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
time |
系统巡检起始时间 |
例如:2016/07/15 23 说明 起始时间单位为“时”。 |
number |
可同时巡检的硬盘数量 |
– |
delaytime |
系统巡检周期 |
单位为hour。 |
查看RAID卡ID的方法请参见5.7.2.22 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。
domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
PR Starttime 2016/07/15 23:00:00
PR MaxConcurrentPd 2
---------------------------------------
# 查询patrolread信息。
domino:~# ./storcli64 /c0 show patrolread
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------------------------
Ctrl_Prop Value
--------------------------------------------
PR Mode 2016/07/15 23:00:00
PR Execution Delay
PR iterations completed 0
PR Next Start time 07/16/2016,00:00:00
PR on SSD Disabled
PR Current State Stopped
--------------------------------------------
命令功能
设置硬盘状态。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
state |
要设置的硬盘状态 |
l online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。 l offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。 l jbod:通过该参数可以将硬盘设置为直通硬盘。 l good: − ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置; − JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。 l good:将硬盘设为空闲盘 |
force |
强制设置硬盘状态,为可选参数。 如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force。 |
- |
以上涉及的各个ID的查询方法请参见5.7.2.22 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。
domino:~# ./storcli64 /c0/e0/s1 set good
Controller = 0
Status = Success
Description = Set Drive Good Succeeded.
# 设置slot 7硬盘为直通盘。
domino:~# ./storcli64 /c0/e252/s7 set JBOD
Controller = 0
Status = Success
Description = Set Drive JBOD Succeeded.
命令功能
点亮和熄灭指定硬盘的定位指示灯。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。 |
slot_id |
物理硬盘槽位编号 |
可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。 |
action |
要执行的操作 |
l start:点亮硬盘的定位指示灯。 l stop:熄灭硬盘的定位指示灯。 |
以上涉及的各个ID的查询方法请参见5.7.2.22 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 点亮slot 7硬盘的定位指示灯。
domino:~# ./storcli64 /c0/e252/s7 start locate
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.
命令功能
查询RAID卡、虚拟磁盘、物理硬盘的详细信息。
命令格式
storcli64 /ccontroller_id show
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all
storcli64 /ccontroller_id/vvd_id show all
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID |
enclosure_id |
硬盘所在Enclosure的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制器连接的硬盘背板的ID |
slot_id |
物理硬盘槽位编号 |
可以将该参数设置为all,表示查询所有硬盘的ID |
vd_id |
虚拟磁盘ID |
可以将该参数设置为all,表示查询所有虚拟磁盘的ID |
使用指南
回显中主要字段的含义如表5-32所示。
命令格式 |
字段 |
含义 |
举例 |
storcli64 /ccontroller_id show |
Product Name |
RAID卡的型号 |
sas3108 |
FW Version |
RAID卡的FW版本 |
4.660.00-8140 |
|
Driver Name |
RAID卡的驱动名称 |
megaraid_sas |
|
Driver Version |
RAID卡的驱动版本 |
06.811.02.00-rh1 |
|
Current Personality |
RAID卡的工作模式 |
RAID-Mode |
|
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all |
SN |
物理硬盘的序列号 |
PHWL517601YR800RGN |
Manufacturer Id |
物理硬盘的供应商ID |
ATA |
|
Model Number |
物理硬盘的模块序号 |
INTEL SSDSC2BB800G4 |
|
Firmware Revision |
物理硬盘的FW版本 |
D2010370 |
|
Raw size |
物理硬盘的容量 |
745.211 GB [0x5d26ceb0 Sectors] |
|
Logical Sector Size |
物理硬盘逻辑分区大小 |
512B |
|
Physical Sector Size |
物理扇区大小 |
4 KB |
|
storcli64 /ccontroller_id/vvd_id show all |
TYPE |
RAID组的级别 |
RAID1 |
State |
RAID组的状态 |
Optl |
|
Access |
RAID组数据的访问策略 |
RW |
|
Cache |
RAID组当前的读写策略与IO Policy |
RWTD |
|
Size |
RAID组的大小 |
100.0 GB |
|
PDs for VD0 |
RAID组下的物理硬盘 |
- |
|
Strip Size |
RAID组的条带大小 |
256KB |
|
Write Cache(initial setting) |
RAID组Cache的写策略 |
Write Through |
|
Disk Cache Policy |
RAID组成员盘的Cache策略 |
Disk's Default |
使用实例
#查询RAID卡的详细信息。
domino:~# ./storcli64 /c0 show
Controller = 0
Status = Success
Description = None
Product Name = SAS3408
Serial Number = 024JNFCNK2000314
SAS Address = 58cfd18f55442000
PCI Address = 00:03:00:00
System Time = 07/18/2019 14:55:54
Mfg. Date = 00/00/00
Controller Time = 07/18/2019 06:55:53
FW Package Build = 50.6.3-0109
BIOS Version = 7.06.02.2_0x07060502
FW Version = 5.060.01-2262
Driver Name = megaraid_sas
Driver Version = 07.709.08.00
Vendor Id = 0x1000
Device Id = 0x17
SubVendor Id = 0x19E5
SubDevice Id = 0xD213
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 3
Device Number = 0
Function Number = 0
Drive Groups = 1
TOPOLOGY :
========
---------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size PDC PI SED DS3 FSpace TR
---------------------------------------------------------------------------
0 - - - - RAID0 Optl N 3.637 TB dflt N N dflt N N
0 0 - - - RAID0 Optl N 3.637 TB dflt N N dflt N N
0 0 0 65:0 41 DRIVE Onln N 3.637 TB dflt N N dflt - N
---------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 1
VD LIST :
=======
-------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC Size Name
-------------------------------------------------------------
0/0 RAID0 Optl RW Yes NRWTD - ON 3.637 TB
-------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 39
PD LIST :
=======
------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp
------------------------------------------------------------------------------
65:0 41 Onln 0 3.637 TB SATA HDD N N 512B ST4000NM0035-1V4107 U
65:1 45 UGood - 10.912 TB SATA HDD N N 512B ST12000NM0007-2A1101 D
65:2 33 UGood - 10.912 TB SATA HDD N N 512B ST12000NM0007-2A1101 D
65:3 40 UGood - 3.637 TB SATA HDD N N 512B ST4000NM115-1YZ107 D
65:4 39 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:5 38 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:6 46 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:7 53 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:8 61 UGUnsp - 3.637 TB SATA HDD N N 512B ST4000NM0035-1V4107 U
65:9 0 UGood - 3.637 TB SATA HDD N N 512B ST4000NM115-1YZ107 D
65:10 1 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:11 62 UGUnsp - 3.637 TB SATA HDD N N 512B ST4000NM0035-1V4107 U
65:12 51 UGood - 9.094 TB SATA HDD N N 512B ST10000NM0478-2H7100 D
65:13 52 UGood - 10.912 TB SATA HDD N N 512B ST12000NM0007-2A1101 D
65:14 50 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:16 57 UGUnsp - 10.912 TB SATA HDD N N 512B ST12000NM0007-2A1101 U
65:17 58 UGUnsp - 10.912 TB SATA HDD N N 512B ST12000NM0007-2A1101 U
65:18 42 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:19 44 UGood - 10.912 TB SATA HDD N N 512B ST12000NM0007-2A1101 D
65:20 49 UGood - 10.912 TB SATA HDD N N 512B ST12000NM0007-2A1101 D
65:21 43 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:22 48 UGood - 10.912 TB SATA HDD N N 512B ST12000NM0007-2A1101 D
65:23 47 UGood - 3.637 TB SATA HDD N N 512B ST4000NM0035-1V4107 D
65:24 3 UGood - 3.637 TB SATA HDD N N 512B ST4000NM0035-1V4107 D
65:25 5 UGood - 10.912 TB SATA HDD N N 512B ST12000NM0007-2A1101 D
65:26 4 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:27 2 UGood - 3.637 TB SATA HDD N N 512B ST4000NM0035-1V4107 D
65:28 59 UGUnsp - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 U
65:29 6 UGood - 837.258 GB SAS HDD N N 512B ST900MM0168 D
65:30 55 UGood - 3.637 TB SATA HDD N N 512B ST4000NM0035-1V4107 D
65:31 60 UGUnsp - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 U
65:32 56 UGUnsp - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 U
65:33 35 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:34 34 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:35 37 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:36 36 UGood - 5.456 TB SATA HDD N N 512B ST6000NM0115-1YZ110 D
65:37 30 UGood - 278.464 GB SAS HDD N N 512B AL15SEB030N D
65:38 32 UGood - 1.745 TB SATA SSD N N 512B INTEL SSDSC2KG019T8 U
65:39 31 UGood - 222.585 GB SATA SSD N N 512B INTEL SSDSC2KG240G8 U
------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
#查询slot0的物理硬盘的信息。
[root@localhost ~]# ./storcli64
/c0/e65/s0 show all
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
Drive /c0/e65/s0 :
================
--------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp
--------------------------------------------------------------------------
65:0 41 Onln 0 3.637 TB SATA HDD N N 512B ST4000NM0035-1V4107 U
--------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Drive /c0/e65/s0 - Detailed Information :
=======================================
Drive /c0/e65/s0 State :
======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature = 30C (86.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
Drive /c0/e65/s0 Device attributes :
==================================
SN = ZC18JNP4
Manufacturer Id = ATA
Model Number = ST4000NM0035-1V4107
NAND Vendor = NA
WWN = 5000c500b3297aee
Firmware Revision = TNA5
Raw size = 3.638 TB [0x1d1c0beb0 Sectors]
Coerced size = 3.637 TB [0x1d1a94800 Sectors]
Non Coerced size = 3.637 TB [0x1d1b0beb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 12.0Gb/s
NCQ setting = Enabled
Write Cache = Disabled
Logical Sector Size = 512B
Physical Sector Size = 512B
Connector Name = C0 & C1
Drive /c0/e65/s0 Policies/Settings :
==================================
Drive position = DriveGroup:0, Span:0, Row:0
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = Yes
Wide Port Capable = No
Port Information :
================
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
0 Active 12.0Gb/s 0x500605b000027380
-----------------------------------------
Inquiry Data =
5a 0c ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 20 20 20 20 20 20 20 20 20 20 20 20
43 5a 38 31 4e 4a 34 50 00 00 00 00 00 00 4e 54
35 41 20 20 20 20 54 53 30 34 30 30 4d 4e 30 30
35 33 31 2d 34 56 30 31 20 37 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 10 80
00 40 00 2f 00 40 00 02 00 02 07 00 ff 3f 10 00
3f 00 10 fc fb 00 10 5c ff ff ff 0f 00 00 07 00
# 查询VD 0的信息。
[root@rhel6u5 ~]#
/opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
/c0/v0 :
======
-------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC Size Name
-------------------------------------------------------------
0/0 RAID0 Optl RW Yes NRWTD - ON 3.637 TB
-------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
PDs for VD 0 :
============
--------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp
--------------------------------------------------------------------------
65:0 41 Onln 0 3.637 TB SATA HDD N N 512B ST4000NM0035-1V4107 U
--------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
VD0 Properties :
==============
Strip Size = 64 KB
Number of Blocks = 7812499456
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 1
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = None
Active Operations = None
Exposed to OS = Yes
Creation Date = 06-07-2025
Creation Time = 08:44:04 AM
Emulation type = default
Cachebypass size = Cachebypass-64k
Cachebypass Mode = Cachebypass Intelligent
Is LD Ready for OS Requests = Yes
SCSI NAA Id = 68cfd18f554420002ffcf3d4ce5e8046
命令功能
手动重构RAID组。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row
storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
要加入Array的物理硬盘槽位编号 |
– |
DG |
硬盘发生故障的DG的ID |
– |
Arr |
硬盘发生故障的Array的ID |
– |
Row |
硬盘发生故障的Array的row number |
– |
以上涉及的各个ID的查询方法请参见5.7.2.22 查询RAID卡/RAID组/物理硬盘信息。
使用指南
重构RAID分3个步骤进行:
1.通过./storcli64 /c0 show 命令,查询故障硬盘的DG、Arr和Row所对应的数字。
2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。
3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID。
使用实例
# 将硬盘加入RAID组。
[root@localhost ~]# storcli64
/c0/e252/s1 insert dg=0 array=0 row=0
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = Insert Drive Succeeded.
# 手动重构RAID。
[root@localhost ~]# storcli64
/c0/e252/s1 start rebuild
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
命令功能
设置RAID组成员盘的Cache状态。
命令格式
storcli64 /ccontroller_id/vvd_id set pdcache=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID控制卡的ID |
– |
vd_id |
RAID组的ID |
– |
action |
要执行的操作 |
l on:打开硬盘Cache l off:关闭硬盘Cache l default:将硬盘Cache设置为默认状态 |
以上涉及的各个ID的查询方法请参见5.7.2.22 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 打开ID为0的RAID组的硬盘Cache。
./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 PdCac On Success 0 -
---------------------------------------
关于本章
本章节主要介绍Avago MegaRAID SAS 9460-8i RAID卡的外观、特性、以及配置方法。
Avago MegaRAID SAS 9460-8i RAID卡支持的服务器可联系技术支持获取。
Avago MegaRAID SAS 9460-8i RAID卡(以下简称9460-8i)是基于MegaRAID架构的8端口12Gbit/s SAS控制器,并采用PCIe3.0x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。
9460-8i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。
9460-8i支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考6.2.16 硬盘直通。
9460-8i自带的Cache对RAID卡性能的提升有非常重要的作用,主要体现在:
l 在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。
l 在读数据时,如果可以直接在Cache中命中的话,将减少磁盘寻道操作,降低响应时间,提升了数据读速度。
l Cache数据的掉电保护依赖于与RAID卡相连的超级电容。超级电容的外形、连接方式、安装方式可参考各服务器的用户指南。
l 9460-8i分为支持配置超级电容与不支持配置超级电容两种形态,只有支持配置超级电容的RAID卡具有Cache数据的掉电保护功能。
9460-8i单板指示灯说明如表6-1所示。
指示灯 |
颜色 |
说明 |
单板电源指示灯 |
绿色 |
l 亮:电源正常 l 灭:电源关闭或异常。 |
超级电容错误状态指示灯 |
红色 |
l 亮:超级电容状态异常。 l 灭:超级电容正常或不在位。 |
9460-8i写入/读出NAND Flash的状态指示灯 |
绿色 |
l 亮:9460-8i RAID卡当前处于写入/读出NAND Flash的状态。 l 灭:9460-8i RAID卡当前不处于写入/读出NAND Flash的状态。 |
系统心跳灯 |
绿色 |
l 灯以2s周期闪烁:9460-8i RAID卡正在工作。 l 灯灭:9460-8i RAID卡未开始运行或FW运行异常。 |
9460-8i支持的硬盘、虚拟磁盘、硬盘组数量分别为:
l 最多支持240个硬盘。
该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。
l 最多支持64个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
l 最多支持64个硬盘组(即配置界面中看到的“Drive Group”),每个硬盘组最多支持240个硬盘。
l 每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。
9460-8i支持的RAID类型及对应的硬盘个数如表6-2所示。
RAID级别 |
支持硬盘数 |
支持子组数 |
子组支持硬盘数 |
允许坏盘数 |
RAID 0 |
1~32 |
不涉及 |
不涉及 |
0 |
RAID 1 |
2~32(偶数) |
硬盘数÷2 |
||
RAID 5 |
3~32 |
1 |
||
RAID 6 |
3~32 |
2 |
||
RAID 10 |
4~240(偶数) |
2~8个RAID 1 |
2~32(偶数) |
子组数 |
RAID 50 |
6~240 |
2~8个RAID 5 |
3~32 |
子组数 |
RAID 60 |
6~240 |
2~8个RAID 6 |
3~32 |
子组数x2 |
l 不支持RAID 00级别。
l 损坏的硬盘不能是连续的。具体说明请参见1.2 RAID级别介绍。
l 子组数:子RAID的个数,例如RAID 50由两个RAID 5组成,则子组数为2。
l RAID 10、RAID 50每个子组中最多允许1个坏盘。
l RAID 60每个子组中最多允许2个坏盘。
l RAID10、50、60包含的总硬盘数由子组数和子组支持的硬盘数共同决定。
9460-8i的热备功能分为两种:热备盘和紧急备份。
热备盘
对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l Global HSP:即全局热备盘,为RAID卡上所有已配置的RAID所共有,1块RAID卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
配置方法请参见6.4.1.1 配置全局热备盘。
l Dedicated HSP:即局部热备盘,为RAID卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。
配置方法请参见6.4.1.2 配置局部热备盘。
热备盘容量需大于等于成员盘容量。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
紧急备份
使能RAID卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。
紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。
紧急备份有两种情况,对应了两种设置:
l 当成员盘fail时,空闲盘替代成员盘作为紧急备份。
l 当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。
具体配置方法请参见6.4.2 设置紧急热备功能。
热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。
l 请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。
l 插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。
l 人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考6.4.9 导入/清空外部配置章节恢复RAID组,无需更换硬盘。
l 在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。
具备冗余功能的RAID的一块成员盘故障之后,热备盘自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。
条带化
当多个进程同时访问一个磁盘时,可能会出现磁盘冲突。大多数磁盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问磁盘的进程就需要等待。
条带化技术是一种自动的将I/O的负载均衡到多个物理磁盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同磁盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成磁盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。
影响条带化效果的因素有:
l 条带宽度:指同时可以并发读或写的条带数量。
这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。
l 条带单元:指写在每块磁盘上的条带数据块的大小。
分条
硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带单元大小进行分条,数据在写入时也会按照条带单元大小划分数据块。
9460-8i支持多种条带单元,包括64KB、128KB、256KB、512KB及1MB。
配置RAID时一般采用默认值。
RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见6.4.5 迁移RAID级别。
当前支持以下级别类型的迁移:
l RAID 0迁移到RAID 1、RAID 5、RAID 6
l RAID 1迁移到RAID 0、RAID 5、RAID 6
l RAID 5迁移到RAID 0、RAID 6
l RAID 6迁移到RAID 0、RAID 5
RAID迁移对硬盘数量的最低要求如表6-3所示。
迁移RAID级别 |
原始磁盘组硬盘数量 |
迁移后的磁盘组硬盘数量 |
RAID 0迁移 RAID 1 |
1~32 |
2~32(偶数) |
RAID 0迁移到RAID 5 |
1~32 |
3~32 |
RAID 0迁移到RAID 6 |
1~32 |
3~32 |
RAID 1迁移到RAID 0 |
2~32(偶数) |
2~32 |
RAID 1迁移到RAID 5 |
2~32(偶数) |
3~32 |
RAID 1迁移到RAID 6 |
2~32(偶数) |
3~32 |
RAID 5迁移到RAID 0 |
3~32 |
3~32 |
RAID 5迁移到RAID 6 |
3~32 |
3~32 |
RAID 6迁移到RAID 0 |
3~32 |
3~32 |
RAID 6迁移到RAID 5 |
3~32 |
3~32 |
VD初始化
创建VD(Virtual Drive)后,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。9460-8i提供了多种相应的初始化方式:
l 快速初始化:属于前台初始化,Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。
l 慢速初始化:属于前台初始化,Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。
l 后台初始化:目的是使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。
− 对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。
− 对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。
一致性检查(CC)和后台初始化通常会对性能造成一定损失,直至该操作完成。
一致性检查和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性检查会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性检查,但不能手动启动后台初始化。
硬盘初始化
硬盘可执行的初始化包括:
l Initialize Drive:对前100MByte空间进行全写0操作。
l Drive Erase:对全部空间进行写0操作。
不支持停止SATA SSD的擦除和初始化过程。
9460-8i支持的容量扩展方式有两种:
l 通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。
详细操作方法可参考6.4.3 添加新硬盘到RAID。
l 通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。
详细操作方法可参考6.4.4 扩展Virtual Drives可用空间。
l 只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。
l RAID10、RAID 50、RAID 60不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。
安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。RAID卡提供了三种级别的虚拟磁盘和硬盘的安全擦除功能:
l Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。
l Normal:对虚拟磁盘或硬盘进行三轮擦除动作。
l Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。
安全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。
9460-8i支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。
系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况,称之为写洞。
将写失败的数据备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:
l 对于RAID 5、RAID 6、RAID 50,Write hole数据都保存在掉电保护区,不需要开关控制。
− 掉电保护装置可用时,Write hole数据异常掉电重启后会进入恢复流程。
− 掉电保护装置不可用时,记录在掉电保护区的Write hole数据异常掉电后丢失,不做Write hole恢复。
l RAID 6掉线一块盘时可做写洞保护。
l RAID 50部分降级时可做写洞保护,按子组恢复数据。RAID 50完全降级时不可做写洞保护。
l 不对RAID 0、RAID 1和RAID 10做写洞保护。
9460-8i支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:
l Read:读策略选择“Read Ahead”模式,9460-8i在读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少磁盘寻道操作,提升了数据读速度。
l Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,9460-8i就向HOST发出数据传输完成的信号。
在写数据时,直接写入Cache,当写入的数据积累到一定程度,9460-8i才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。
数据写入高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用高速缓存来提升系统性能。
l 开启高速缓存可提升整机写性能,当服务器写压力减小或高速缓存将写满时,数据再由高速缓存写入硬盘。
l 开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。
为了提升整机的高读写性能和高速缓存中数据的安全,可为9460-8i配置超级电容。
超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将高速缓存中的数据写入超级电容模块中的NAND Flash中。
9460-8i分为支持配置超级电容与不支持配置超级电容两种形态,只有支持配置超级电容的RAID卡可以启用数据掉电保护功能。
超级电容电量校准
由于数据保护需要超级电容的配合,为了记录超级电容的放电曲线,以便RAID卡了解超级电容的状态,例如最大和最小电压等,同时为了延长超级电容的寿命,RAID卡默认启动超级电容自动校准模式。
RAID卡通过如下所述的三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。
1. RAID卡将超级电容的电量充到最大值。
2. 自动启动校准进程,将超级电容完全放电。
3. 重新开始充电,直至达到最大电量。
超级电容电量校准过程中,RAID卡写策略自动调整为“WT”模式以保证数据完整性,此时RAID卡性能会降低。电量校准的周期取决于超级电容充放电速度。
磁盘巡检功能设计为预防性措施,用于确保物理磁盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理磁盘上的潜在问题。
磁盘巡检根据未完成的磁盘I/O调整专用于磁盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则磁盘巡检将使用较少的资源,以使I/O获得更高的优先级。
磁盘巡检不能在参与以下任何操作的任何磁盘上运行:
l RAID热备修复
l 动态扩盘
l 完全初始化或后台初始化
l 一致性检查(CC)
S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据受到损失。
RAID卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,RAID卡便会记录日志。
RAID卡具备磁盘省电功能。此功能根据磁盘配置和I/O活动允许磁盘停转。所有旋转式SAS和SATA磁盘均支持此功能。
默认情况下,硬盘节能功能处于开启状态。
当硬盘节能功能开启且在指定时间内没有IO访问时,RAID卡下挂载的“Unconfig Good”状态的磁盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的磁盘。
硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。
9460-8i可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在9460-8i下的硬盘作为安装盘;而不支持硬盘直通的RAID卡,在操作系统安装过程中,只能找到该RAID卡下已经配置好的虚拟磁盘作为安装盘。
9460-8i支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
如果需要使能硬盘直通功能,请在图6-92所示界面的“JBOD Mode”参数进行设置。
l 开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。
l JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时BMC会对其进行告警。
硬盘包含2个指示灯,其状态说明如表6-4所示。
指示灯 |
颜色 |
说明 |
硬盘Fault指示灯 |
黄色 |
l 灭:表示硬盘运行正常。 l 黄色闪烁:表示硬盘处于被定位状态或RAID重构状态。 l 黄色常亮:表示硬盘故障或RAID组中的成员盘状态异常。 说明 l 在线情况下,当Fault指示灯常亮时,可首先通过Show命令查询RAID状态,确定是RAID组成员盘状态异常,还是硬盘故障。 l 支持带外管理的RAID卡,硬盘处于“Unconfigured Good(Foreign)”状态下,BMC会对其进行告警,但是硬盘Fault指示灯不会被点亮。 l JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时BMC会对其进行告警。 |
硬盘Active指示灯 |
绿色 |
l 灭:表示硬盘不在位或硬盘故障。 l 绿色闪烁:表示硬盘处于读写状态或同步状态。 l 绿色常亮:表示硬盘处于非活动状态。 |
磁盘漫游是指在同一控制器下移动物理磁盘。控制器将自动识别重新定位的物理磁盘,并从逻辑上将其置于属于磁盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行磁盘漫游。
要使用磁盘漫游,按以下步骤操作:
1. 关闭操作系统。
2. 将服务器下电。
3. 将物理磁盘移动到背板所需位置。
4. 执行安全检查。确保正确插入物理磁盘。
5. 将服务器上电。
6. 控制器从物理磁盘上的配置数据中检测到RAID配置。
如果RAID卡检测到物理磁盘包含RAID配置信息,则会将该物理磁盘标记为“Foreign”,表明检测到外部磁盘。
此时,可执行导入操作将该外部配置在当前RAID卡环境中生效,实现配置迁移。
9460-8i提供硬盘故障记录功能:
l 使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。
l 禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,9460-8i会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。
维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。
l 使能该功能后,当硬盘故障时,会点亮Fault指示灯。
l 禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。
默认情况下,9460-8i使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。
针对有冗余功能的RAID 1、5、6、10、50、60,RAID卡可以对RAID组的硬盘数据进行一致性检查,对磁盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。
由于RAID 0不具备冗余性,因此不支持一致性校验。
建议每月至少进行一次一致性校验。
文档中描述的关于9460-8i的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
步骤 1 通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 2 重启服务器。
步骤 3 重启过程中,当出现如图6-1所示界面时,按“Delete”,进入输入密码界面。
步骤 4 输入密码并按“Enter”。
进入如图6-2所示界面。
BIOS的默认密码为“Password@_”。
步骤 5 通过“←”或“→ ”进入“Advanced”页签,如图6-3所示。
如果Advanced界面无法找到RAID卡或显示“Some drivers are not healthy”,请参见6.5.4 BIOS下的Advanced界面无法找到RAID卡或Advanced中RAID卡状态显示Not Healthy进行修复。
步骤 6 选择“Avago MegaRAID <SAS 9460-8i> Configuration Utility”,按“Enter”。
进入9460-8i主界面,如图6-4和图6-5所示,界面参数如表6-5所示。
参数 |
说明 |
Main Menu |
RAID卡主菜单,包含了RAID卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID卡当前工作状态。 |
Backplane |
背板个数。 |
BBU |
超级电容在位情况。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的磁盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 |
Configure |
提供删除配置的接口。 |
Set Factory Default |
恢复出厂设置。 |
Update Firmware |
升级固件。 说明 9460-8i不支持在此界面升级FW。 |
Silence Alarm |
板载蜂鸣器的使能状态。 说明 9460-8i未配置蜂鸣器,此项设置不起作用。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9460-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见6.2.1 支持RAID 0/1/5/6/10/50/60。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见6.3.1 进入管理界面。
步骤 2 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图6-6和图6-7所示,参数说明如表6-6所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照6.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 为达到更优的硬盘性能,对于HDD(机械硬盘),建议将读策略设置为“Read Ahead”,对于SSD(固态硬盘),建议将读策略设置为“No Read Ahead”。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当磁盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。 l Always Write Back:在RAID卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 “Always Write Back”模式下,当电容不在位或在充电状态下,RAID卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID卡的Cache处理。) − 在写场景中,写数据经过RAID卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认值为Direct。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。
步骤 4 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图6-8所示,界面参数如表6-7所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 0支持的硬盘个数为1~32。
l 当RAID卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。
5. 按表6-7所述配置过滤条件。
6. 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”返回上级界面。
步骤 5 按照表6-6所述配置虚拟磁盘的其他属性。
步骤 6 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 7 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9460-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见6.2.1 支持RAID 0/1/5/6/10/50/60。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见6.3.1 进入管理界面。
步骤 2 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图6-9和图6-10所示,参数说明如表6-8所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照6.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 为达到更优的硬盘性能,对于HDD(机械硬盘),建议将读策略设置为“Read Ahead”,对于SSD(固态硬盘),建议将读策略设置为“No Read Ahead”。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当磁盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。 l Always Write Back:在RAID卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 “Always Write Back”模式下,当电容不在位或在充电状态下,RAID卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID卡的Cache处理。) − 在写场景中,写数据经过RAID卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认值为Direct。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。
步骤 4 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图6-11所示,界面参数如表6-9所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 1支持的硬盘个数为2~32(偶数)。
l 当RAID卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。
5. 按表6-9所述配置过滤条件。
6. 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 按照表6-8所述配置虚拟磁盘的其他属性。
步骤 6 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 7 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9460-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见6.2.1 支持RAID 0/1/5/6/10/50/60。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见6.3.1 进入管理界面。
步骤 2 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图6-12和图6-13所示,参数说明如表6-10所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照6.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 为达到更优的硬盘性能,对于HDD(机械硬盘),建议将读策略设置为“Read Ahead”,对于SSD(固态硬盘),建议将读策略设置为“No Read Ahead”。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当磁盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。 l Always Write Back:在RAID卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 “Always Write Back”模式下,当电容不在位或在充电状态下,RAID卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID卡的Cache处理。) − 在写场景中,写数据经过RAID卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认值为Direct。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 5”,并按“Enter”。
步骤 4 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图6-14所示,界面参数如表6-11所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 5支持的硬盘个数为3~32。
l 当RAID卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。
5. 按表6-11所述配置过滤条件。
6. 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 按照表6-10所述配置虚拟磁盘的其他属性。
步骤 6 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 7 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9460-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见6.2.1 支持RAID 0/1/5/6/10/50/60。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见6.3.1 进入管理界面。
步骤 2 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图6-15和图6-16所示,参数说明如表6-12所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照6.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 为达到更优的硬盘性能,对于HDD(机械硬盘),建议将读策略设置为“Read Ahead”,对于SSD(固态硬盘),建议将读策略设置为“No Read Ahead”。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当磁盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。 l Always Write Back:在RAID卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 “Always Write Back”模式下,当电容不在位或在充电状态下,RAID卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID卡的Cache处理。) − 在写场景中,写数据经过RAID卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认值为Direct。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 6”,并按“Enter”。
步骤 4 添加成员盘。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图6-17所示,界面参数如表6-13所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 6支持的硬盘个数为3~32。
l 当RAID卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。
5. 按表6-13所述配置过滤条件。
6. 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”完成成员盘配置。
步骤 5 按照表6-12所述配置虚拟磁盘的其他属性。
步骤 6 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 7 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9460-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见6.2.1 支持RAID 0/1/5/6/10/50/60。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见6.3.1 进入管理界面。
步骤 2 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图6-18和图6-19所示,参数说明如表6-14所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照6.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 为达到更优的硬盘性能,对于HDD(机械硬盘),建议将读策略设置为“Read Ahead”,对于SSD(固态硬盘),建议将读策略设置为“No Read Ahead”。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当磁盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。 l Always Write Back:在RAID卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 “Always Write Back”模式下,当电容不在位或在充电状态下,RAID卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID卡的Cache处理。) − 在写场景中,写数据经过RAID卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认值为Direct。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。
步骤 4 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图6-20所示,界面参数如表6-15所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 按表6-15所述配置过滤条件。
5. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 10支持2~8个Span,每个Span支持的硬盘数为2~32(偶数),且各个Span的硬盘数量必须保持一致。
l RAID 10支持的硬盘总数为4~240(偶数)。
l 当RAID卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。
6. 选择“Apply Changes”按“Enter”保存配置。
7. 单击“OK”完成成员盘配置。
当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如图6-21所示。
1. 选择“Add More Spans”并按“Enter”。
2. 选择“Select Drives”并按“Enter”。
3. 在打开的列表中选择第2个Span的成员盘。
各个Span的硬盘数量必须保持一致。
4. 选择完成后,选择“Apply Changes”并“Enter”。
提示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成成员盘配置。
步骤 6 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID10至少需要创建2个Span,最多可以创建8个Span。
步骤 7 按照表6-14所述配置虚拟磁盘的其他属性。
步骤 8 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 9 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9460-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见6.2.1 支持RAID 0/1/5/6/10/50/60。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见6.3.1 进入管理界面。
步骤 2 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图6-22和图6-23所示,参数说明如表6-16所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照6.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 为达到更优的硬盘性能,对于HDD(机械硬盘),建议将读策略设置为“Read Ahead”,对于SSD(固态硬盘),建议将读策略设置为“No Read Ahead”。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当磁盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。 l Always Write Back:在RAID卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 “Always Write Back”模式下,当电容不在位或在充电状态下,RAID卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID卡的Cache处理。) − 在写场景中,写数据经过RAID卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认值为Direct。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 50”,并按“Enter”。
步骤 4 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图6-24所示,界面参数如表6-17所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 按表6-17所述配置过滤条件。
5. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 50支持2~8个Span,每个Span支持的硬盘数为3~32,各个Span的硬盘数量必须保持一致。
l RAID 50支持的硬盘总数为6~240。
l 当RAID卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。
6. 选择“Apply Changes”按“Enter”保存配置。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”完成成员盘配置。
当配置的级别为RAID 50时,需要配置多个Span,此时配置界面如图6-25所示。
1. 选择“Add More Spans”并按“Enter”。
2. 选择“Select Drives”并按“Enter”。
3. 在打开的列表中选择第2个Span的成员盘。
各个Span的硬盘数量必须保持一致。
4. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
提示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成成员盘配置。
步骤 6 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID50至少需要创建2个Span,最多可以创建8个Span。
步骤 7 按照表6-16所述配置虚拟磁盘的其他属性。
步骤 8 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 9 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
操作场景
l 加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。
l 9460-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。
l 各RAID级别所需的硬盘数请参见6.2.1 支持RAID 0/1/5/6/10/50/60。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见6.3.1 进入管理界面。
步骤 2 进入“Create Virtual Drive”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Create Virtual Drive”并按“Enter”。
打开RAID配置界面,如图6-26和图6-27所示,参数说明如表6-18所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照6.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 为达到更优的硬盘性能,对于HDD(机械硬盘),建议将读策略设置为“Read Ahead”,对于SSD(固态硬盘),建议将读策略设置为“No Read Ahead”。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当磁盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。 l Always Write Back:在RAID卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 “Always Write Back”模式下,当电容不在位或在充电状态下,RAID卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID卡的Cache处理。) − 在写场景中,写数据经过RAID卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认值为Direct。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 3 选择RAID级别。
1. 通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。
2. 在打开的列表中选择要配置的RAID级别“RAID 60”,并按“Enter”。
步骤 4 创建第1个Span。
1. 通过“↑”、“↓”选择“Select Drives From”并按“Enter”。
2. 在打开的列表中选择成员盘来源,并按“Enter”。
下面以“Unconfigured Capacity”为例说明配置过程。
3. 通过“↑”、“↓”选择“Select Drives”并按“Enter”。
打开添加成员盘的界面,如图6-28所示,界面参数如表6-19所示。
参数 |
说明 |
Select Media Type |
硬盘介质类型。 |
Select Interface Type |
硬盘接口类型。 |
Logical Sector Size |
分区大小。 |
Check All |
选中所有硬盘。 |
Uncheck All |
取消所有选中的硬盘。 |
Apply Changes |
保存配置。 |
4. 按表6-19所述配置过滤条件。
5. 在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。
l 硬盘状态为“×”时表示该硬盘已选择。
l RAID 60支持2~8个Span,每个Span支持的硬盘数为3~32,且各个Span的硬盘数量必须保持一致。
l RAID 60支持的硬盘总数为6~24。
l 当RAID卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。
6. 选择“Apply Changes”按“Enter”保存配置。
提示The operation has been performed successfully。
7. 选择“OK”并按“Enter”完成成员盘配置。
当配置的级别为RAID 60时,需要配置多个Span,此时配置界面如图6-29所示。
1. 选择“Add More Spans”并按“Enter”。
2. 选择“Select Drives”并按“Enter”。
3. 在打开的列表中选择第2个Span的成员盘。
各个Span的硬盘数量必须保持一致。
4. 选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。
提示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成成员盘配置。
步骤 6 根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。
RAID60至少需要创建2个Span,最多可以创建8个Span。
步骤 7 按照表6-18所述配置虚拟磁盘的其他属性。
步骤 8 保存配置。
1. 通过“↑”、“↓”选择“Save Configuration”并按“Enter”。
显示操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 选择“OK”并按“Enter”完成配置。
步骤 9 检查配置结果。
1. 按“ESC”返回上级界面。
2. 选择“Virtual Drive Management”并按“Enter”。
显示当前存在的RAID信息。
----结束
同一台服务器配置了单个9460-8i卡或者多种芯片硬盘控制器的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。
对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
9460-8i支持2种类型的热备盘:
l Global Hotspare:即全局热备盘,为RAID卡上所有已配置的RAID所共有,1块RAID卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。
l Dedicated Hotspare:即局部热备盘,为RAID卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。
l 机械盘与固态盘不能互相作为热备盘。
l 机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
l 空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。
l 热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。
l 除RAID 0外,其他类型的RAID均支持热备盘。
l 全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。
操作步骤
步骤 1 登录管理界面,具体操作方法请参见6.3.1 进入管理界面。
步骤 2 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图6-30所示。
步骤 3 配置全局热备盘。
1. 将“Operation”设置为“Assign Global Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
显示The operation has been performed successfully。
3. 按“ESC”完成配置并返回上级界面。
----结束
操作步骤
当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。
步骤 1 登录管理界面,具体操作方法请参见6.3.1 进入管理界面。
步骤 2 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图6-31所示。
步骤 3 配置局部热备盘。
1. 将“Operation”设置为“Assign Dedicated Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
打开当前存在的虚拟磁盘列表,如图6-32所示。
3. 选择要关联的虚拟磁盘并按“Enter”。
4. 选择“OK”按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作场景
当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。
操作步骤
步骤 1 登录管理界面,具体操作方法请参见6.3.1 进入管理界面。
步骤 2 进入“Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Drive Management”并按“Enter”。
3. 选定要操作的硬盘并按“Enter”进入详细操作界面,如图6-33所示。
步骤 3 删除热备盘。
1. 将“Operation”设置为“Unassign Hot Spare Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
5. 按“ESC”完成配置并返回上级界面。
----结束
操作步骤
步骤 1 登录管理界面,具体操作方法请参见6.3.1 进入管理界面。
步骤 2 进入“Advanced Controller Properties”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
3. 选择“Advanced Controller Properties”并按“Enter”。
进入“Advanced Controller Properties”界面,如图6-34所示。
图6-34 Advanced Controller Properties(1)
步骤 3 设置紧急热备。
1. 选择“Spare”并按“Enter”。
2. 将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如图6-35所示。
图6-35 Advanced Controller Properties(2)
3. 选择“Apply Changes”并按“Enter”。
显示The operation has been performed successfully。
4. 选择“OK”并按“Enter”,完成配置。
----结束
操作场景
l 只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。
l RAID10、RAID 50、RAID 60不支持增加硬盘扩容。
l 当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
l 添加硬盘扩容之前,请确认服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。
增加硬盘扩容过程中,如果出现硬盘故障,会导致:
l 若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。
l 若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行增加硬盘扩容操作。
操作步骤
步骤 1 登录管理界面。具体操作方法请参见6.3.1 进入管理界面。
步骤 2 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”。
进入虚拟磁盘选项界面,如图6-36所示。
步骤 3 添加新硬盘。
1. 选择要进行扩容的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图6-37所示。
3. 选择“Reconfigure Virtual Drives”并按“Enter”
4. 选择“Go”并按“Enter”。
5. 选择要扩容的RAID级别。
增加硬盘扩容时,请保证该处的RAID级别与原级别一致。
6. 选择“Choose the Operation”,并按“Enter”。
进入硬盘选择界面,如图6-38所示。
7. 选择要增加的硬盘,并按“Apply Changes”。
进入确认操作界面。
l 增加的硬盘要与RAID组的成员盘同类型同规格。
l 添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。
l RAID卡不支持同时对两个及以上的RAID组进行扩容操作。
8. 选择“Confirm”并按“Enter”。
9. 选择“Yes”并按“Enter”。
显示The operation has been performed successfully。
10. 选择“OK”并按“Enter”。
返回到如图6-39所示界面。
11. 选择“Start Operation”并按“Enter”。
显示操作成功。返回虚拟磁盘选项界面,验证扩容结果,如图6-40所示,表示RAID正在进行扩容。
----结束
操作场景
在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见6.3.1 进入管理界面。
步骤 2 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图6-41所示。
图6-41 Virtual Drive Management
步骤 3 扩容虚拟磁盘。
1. 将“Operation”设置为“Expand Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入虚拟磁盘扩容界面,如图6-42界面所示,界面参数如表6-20所示。
参数 |
参数说明 |
Current Capacity |
虚拟磁盘当前容量。 |
Available Capacity |
可用于扩展的容量。 |
Enter a Percentage of Available Capacity |
输入扩容比例。 |
Capacity of Virtual Drive after Expansion |
扩容后虚拟磁盘容量。 |
3. 设置扩容百分比。
4. 选择“OK”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
返回虚拟磁盘选项界面,验证扩容结果,如图6-43所示。
----结束
操作场景
随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。
在虚拟磁盘迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。
9460-8i支持以下级别类型的迁移:
l RAID 0迁移到RAID 1、RAID 5、RAID 6
l RAID 1迁移到RAID 0、RAID 5、RAID 6
l RAID 5迁移到RAID 0、RAID 6
l RAID 6迁移到RAID 0、RAID 5
RAID迁移对硬盘数量的最低要求如表6-3所示。
l 当RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。
l RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
l 迁移只支持增加与RAID组成员盘同类型同规格的硬盘。
l 为防止数据丢失,请在该操作之前备份当前RAID组的数据。
l 只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。
RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:
l 若出现故障盘后,RAID组中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID组失效。
l 若出现故障盘后,RAID组中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID。
请谨慎执行RAID级别迁移操作。
操作步骤
步骤 1 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 在管理界面中选择“Virtual Drive Management”并按“Enter”。
进入虚拟磁盘选项界面,如图6-44所示。
步骤 2 选择RAID迁移的目标级别。
下面以将RAID 1迁移到RAID 5为例进行说明。
1. 选择要进行迁移的RAID并按“Enter”。
2. 选中“Operation”并按“Enter”。
打开操作选项页面,如图6-45所示。
3. 选择“Reconfigure Virtual Drives”,并按“Enter”。
4. 选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如图6-46所示。不设置时默认与原RAID组配置一致。
5. 选择“Go”,并按“Enter”。
进入RAID配置界面,如图6-47所示。
图6-47 Reconfigure Virtual Drives
6. 选择“New RAID Level”并按“Enter”。
打开RAID迁移的目标级别选择窗口,如图6-48所示。
7. 选择“RAID 5”并按“Enter”。
步骤 3 添加硬盘。
1. 选择“Choose the operation”并按“Enter”。
打开硬盘选择窗口。
2. 选择要增加的硬盘并按“Enter”。
l RAID迁移对硬盘数量的最低要求请参见表6-3。
l 增加的硬盘要与RAID组的成员盘同类型同规格。
3. 选择“Apply Changes”并按“Enter”。
弹出操作确认会话框。
4. 选择“Confirm”并按“Enter”。
5. 选择“Yes”并按“Enter”。
提示操作成功。
6. 选择“OK”并按“Enter”返回图6-47界面。
步骤 4 RAID级别迁移。
1. 选择“Start Operation”并按“Enter”。
提示操作成功。
步骤 5 查看迁移结果。
1. 进入Virtual Drive Management界面,检查迁移结果,如图6-49所示,表示RAID正在进行迁移。
l 迁移过程中若重启服务器,该任务将在重启后继续进行。
l 迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。
2. 选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 1”变成“RAID 5”,RAID组容量增大,且“Status”状态显示为“Optimal”,表示RAID迁移成功。
----结束
操作场景
RAID组被删除后无法进行恢复,请谨慎执行删除RAID组操作。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见6.3.1 进入管理界面。
步骤 2 进入“Virtual Drive Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Virtual Drive Management”并按“Enter”。
3. 选择要操作的虚拟磁盘并按“Enter”。
显示虚拟磁盘基本信息,如图6-50所示。
图6-50 Virtual Drive Management
步骤 3 删除虚拟磁盘。
1. 将“Operation”设置为“Delete Virtual Drive”。
2. 选择“Go”并按“Enter”。
进入操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“OK”并按“Enter”。
显示The operation has been performed successfully。
5. 选择“OK”并按“Enter”完成配置并返回上级界面。
----结束
操作场景
RAID组中成员硬盘故障时,无论是更换新硬盘还是使用热备盘替代故障硬盘,都需要进行RAID组重构。
默认情况下,当RAID组有重构需求,并且有满足同步条件的硬盘存在时,系统自动启动重构操作。但当控制器的“Auto Rebuild”属性为“Disable”时,则需要手动重构。
该任务指导安装调测工程师进行RAID组重构操作。
操作步骤
步骤 1 在“Main Menu”界面中选择“Drive Management”节点下具体的硬盘,并按“Enter”。
打开该硬盘的操作菜单。
步骤 2 在菜单中选择“Rebuild”,并按“Enter”。
打开Rebuild菜单。
步骤 3 选择操作类型,并按“Enter”。
弹出操作确认对话框。
步骤 4 选择“YES”,并按“Enter”。
----结束
当出现硬盘离线情况时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。
操作场景
用户可以通过查看RAID卡属性的方式确定当前RAID卡是否符合实际需求。
操作步骤
步骤 1 登录管理界面,具体操作方法请参见6.3.1 进入管理界面。
步骤 2 进入“Controller Management”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Controller Management”并按“Enter”。
显示RAID卡基本信息,如图6-51所示,参数说明如表6-21所示。
参数 |
参数说明 |
Product Name |
RAID卡名称。 |
Serial Number |
RAID卡序列号。 |
Controller Status |
RAID卡的工作状态。 |
Select Boot Device |
当前启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见6.3.9 配置启动项。 |
PCI ID |
RAID卡的PCI ID。 |
PCI Slot Number |
RAID卡的PCI槽位号。 |
Package Version |
RAID卡的套件版本。 |
Firmware Version |
RAID卡的固件版本号。 |
NVDATA Version |
RAID卡配置信息的版本号。 |
Connector Count |
RAID卡与主板的接口个数。 |
Drive Count |
RAID卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID卡可以管理的虚拟磁盘个数。 |
Advanced Controller Management |
更多的控制器操作。 |
Advanced Controller Properties |
查看和修改控制器的高级属性。 |
步骤 3 查看控制器高级属性。
选择“Advanced Controller Properties”并按“Enter”。
进入控制器高级属性界面,如图6-52和图6-53所示,参数说明如表6-22所示。
在该界面下,可查看并修改RAID卡的高级属性。
图6-52 Advanced Controller Properties (1)
图6-53 Advanced Controller Properties (2)
参数 |
说明 |
Cache and Memory |
查看控制器Cache和Memory信息。 |
Patrol Read |
系统巡检。 |
Power Save Setting |
设置磁盘休眠。 |
Spare |
设置控制器热备状态。 |
Task Rates |
设置各种任务的处理速率。 |
Alarm Control |
9460-8i RAID卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。 默认为“pause on error”。 |
Controller BIOS |
控制器BIOS的使能情况。 |
ROC Temperature |
控制器温度。 |
Shield State Supported |
是否支持暂停IO,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
磁盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Maintain Drive Fail History |
是否维护磁盘故障历史信息。 |
SMART Polling |
SMART轮巡检测周期。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性检查 |
JBOD Mode |
是否使能硬盘直通功能。 |
Write Verify |
- |
----结束
操作场景
l 服务器更换RAID卡后,需要将原有配置导入新的RAID卡中。
l 新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入。
l 如服务器已配置RAID,在更换新RAID卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!
l 为避免导入外部配置失败,更换的RAID卡的型号要与原来的RAID卡保持一致。
l 当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。
操作步骤
步骤 1 登录管理界面,具体操作方法请参见6.3.1 进入管理界面。
步骤 2 进入“Manage Foreign Configuration”界面。
1. 在主界面中选择“Main Menu”并按“Enter”。
2. 选择“Configuration Management”并按“Enter”。
3. 选择“Manage Foreign Configuration”并按“Enter”。
进入外部配置管理界面,如图6-54所示。
图6-54 Manage Foreign Configuration
步骤 3 导入外部配置。
1. 选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图6-55所示。
2. 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
3. 选择“Confirm”并按“Enter”。
4. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
5. 按“ESC”完成配置返回上级界面。
步骤 4 清空外部配置。
1. 选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
2. 选择“Confirm”并按“Enter”。
3. 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
4. 按“ESC”完成配置返回上级界面。
----结束
9460-8i支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。
l 开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。
l JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时BMC会对其进行告警。
步骤 1 登录管理界面,具体操作方法请参见6.3.1 进入管理界面。
步骤 2 依次进入Main Menu>Controller Management>Advanced Controller Properties界面,如图6-56所示。
图6-56 Advanced Controller Properties
步骤 3 选择“JBOD Mode”并按Enter。
步骤 4 选择“Enabled”并按“Enter”。
步骤 5 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 6 选择“OK”并按“Enter”完成配置。
----结束
该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID0存在一个VD为例,详细操作方法如下:
步骤 1 按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如图6-57所示。
步骤 2 将“Select Drives From”设置为“Free Capacity”,如图6-58所示。
步骤 3 选择“Select Drive Groups”并按“Enter”。
显示当前存在的RAID组(Drive Group),如图6-59所示。
步骤 4 选择要创建多个VD的RAID组并按“Enter”,如图6-60所示。
步骤 5 选择“Apply Changes”并按“Enter”。
提示操作成功。
步骤 6 选择“OK”并按“Enter”返回VD配置界面,如图6-61所示,参数说明如表6-23所示。
参数 |
参数说明 |
Select RAID Level |
选择RAID级别。 |
Protect Virtual Drive |
虚拟磁盘数据保护功能使能状态。 |
Select Drives From |
虚拟磁盘成员盘来源。 成员盘来源分为: l Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。 l Free Capacity:已存在的虚拟磁盘的剩余空间。 |
Select Drives |
选择成员盘。 |
Virtual Drive Name |
虚拟磁盘名称。 |
Virtual Drive Size |
虚拟磁盘的容量,默认为当前状况下支持的最大容量。 说明 如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照6.4.11 创建多个VD(Virtual Drive)章节增加其他VD。 |
Virtual Drive Size Unit |
容量单位。 |
Strip Size |
虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。 |
Read Policy |
虚拟磁盘的读策略。可配置的策略包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 默认值为Read Ahead。 说明 为达到更优的硬盘性能,对于HDD(机械硬盘),建议将读策略设置为“Read Ahead”,对于SSD(固态硬盘),建议将读策略设置为“No Read Ahead”。 |
Write Policy |
虚拟磁盘的写策略。可配置的策略包括: l Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Write Through:当磁盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。 l Always Write Back:在RAID卡无电容或电容损坏的情况下,强制使用“Write Back”模式。 默认值为Write Back。 说明 “Always Write Back”模式下,当电容不在位或在充电状态下,RAID卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。 |
I/O Policy |
虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括: l Direct:在读、写场景中的定义不同: − 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID卡的Cache处理。) − 在写场景中,写数据经过RAID卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID卡的Cache处理,直接写入硬盘。) l Cached:所有读和写均经过RAID卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。 默认值为Direct。 |
Access Policy |
数据读取的策略,分以下三种: l Read/Write:可读可写。 l Read Only:只读访问。 l Blocked:禁止访问。 |
Drive Cache |
物理硬盘Cache策略。可配置的状态有: l Unchanged:保持当前硬盘Cache策略。 l Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。 l Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。 |
Disable Background Initialization |
使能或禁用后台初始化功能。 |
Default Initialization |
默认的初始化方式,包括: l No:不进行初始化。 l Fast:快速初始化。 l Full:完全初始化。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Save Configuration |
保存当前配置。 |
步骤 7 按照表6-23所述配置VD的相关属性。
步骤 8 选择“Save Configuration”并按“Enter”。
显示操作确认界面。
步骤 9 选择“Confirm”并按“Enter”。
步骤 10 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
可进入Virtual Drive Management界面,查看当前存在的所有VD,如图6-62所示。
图6-62 Virtual Drive Management
----结束
每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤11。
查询RAID卡固件版本的方法有如下几种:
l 在BMC Web界面查询,具体操作请参见BMC用户指南的“系统信息”章节。
l 服务器启动完成后,在OS下通过RAID卡命令行工具进行查询,具体操作请参见6.7.2.1 查询RAID卡配置信息。
回显信息中的“FW Version”字段即为RAID卡的固件版本。
l 在RAID卡管理界面进行查询,具体方法为:
a. 登录RAID卡的管理界面,具体操作请参见6.3.1 进入管理界面。
b. 在主界面中选择“Main Menu”并按“Enter”。
进入“Main Menu”页面,如图6-63所示。
c. 选择“Controller Management”并按“Enter”。
显示RAID卡基本信息。界面中的“Firmware Version”即为RAID卡的固件版本,如图6-64所示。
介绍了硬盘故障、RAID卡故障、电池/电容故障的常用处理方法。更多故障案例请联系技术支持获取。
问题描述
当服务器出现如下现象时,说明硬盘故障。
l 硬盘故障指示灯常亮。
l 服务器开机状态下,硬盘指示灯不亮。
l 服务器上报硬盘故障告警。
处理方法
JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时BMC会对其进行告警。
l 通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。
l 通过管理软件BMC硬盘告警信息确认故障硬盘槽位,请参考BMC告警处理手册。
l 通过RAID卡GUI界面确认故障硬盘槽位信息,参考6.6.2.4 Drive Management。
l 通过RAID卡命令行工具确认故障硬盘槽位信息,参考6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
步骤 2 更换新硬盘。
l 更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘导致,则可以将硬盘设置为Unconfig Good后,参考6.4.9 导入/清空外部配置章节恢复RAID组,无需更换硬盘。
l 若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。
l 若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在表6-2查看RAID组支持的最大故障硬盘数量。
l 更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。
l 新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制器下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID卡删除RAID信息或硬盘低格章节。
拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:
l 若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。
l 若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。
l 若故障硬盘为直通盘,则直接更换即可。
l 若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。
− UEFI模式下创建RAID0的方法请参见6.3.2 创建RAID 0。
− 通过命令行方式创建RAID0的方法请参见6.7.2.8 创建和删除RAID。
----结束
问题描述
当服务器出现如下现象时,说明RAID控制卡故障。
l 数据无法写入RAID控制卡控制的硬盘。
l 服务器上报RAID控制卡故障告警。
处理方法
步骤 1 登录BMC Web界面查看告警信息。
步骤 2 根据告警信息,参考BMC告警处理手册处理。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤3
步骤 4 联系技术支持处理。
----结束
问题描述
当RAID卡电容故障时,可能导致服务器出现如下情况:
l 服务器读写速度显著降低。
l RAID卡的CU界面中显示电容状态异常。
处理方法
步骤 1 确认当前使用的RAID控制卡是否支持配置电容。
l 是 => 步骤2
l 否 => 步骤7
步骤 2 进入RAID卡的CU界面,查看电容状态是否为“Optimal”。
电容状态可查询6.6.2.5 Hardware Components界面的“Battery Status”参数。
l 是 => 处理完毕
l 否 => 步骤3
步骤 3 将服务器下电,打开机箱,并查看RAID卡电容是否在位。
l 是 => 步骤5
l 否 => 步骤4
步骤 4 检查整机配置,为服务器安装电容,查看电容状态是否为“Optimal”。
l 是 => 处理完毕
l 否 => 步骤7
步骤 5 重新安装RAID卡电容,查看电容状态是否为“Optimal”。
l 是 => 处理完毕
l 否 => 步骤6
步骤 6 更换RAID卡电容,查看电容状态是否为“Optimal”,且“问题描述”所述的异常状态是否消失。
l 是 => 处理完毕
l 否 => 步骤7
----结束
问题描述
正常情况下,当服务器配置了RAID卡且RAID卡状态正常时,进入BIOS的Advanced页签后,会显示RAID卡的信息,如图6-65所示。
如果Advanced页签不显示RAID卡的信息,如图6-66所示,则:
l 如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:
− 如果不显示驱动打印信息,可尝试下电后重新拔插RAID卡再上电、下电后更换RAID卡再上电或者联系技术支持。
− 如果显示“AVAGO EFI SAS Driver”,则可以通过本章节的指导修复RAID卡。
l 如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,则可以通过本章节的指导修复RAID卡;如果不显示,可尝试下电后重新拔插RAID卡再上电、下电更换RAID卡再上电或者联系技术支持。
图6-67 Advanced页签(3)
处理方法
l 当BIOS的版本为0.98之前版本(不包含0.98版本)时:
a. 在Advanced页签选择“Driver Health Manager”并按Enter。
进入“Driver Health Manager”界面。
b. 选择要进行修复的RAID卡驱动,如“AVAGO EFI SAS Driver SAS3508”,并按“Enter”。
进入“Critical Message”界面。
c. 查看“Critical Message”界面的打印信息:
n 显示“The following VDs have missing disks. ”=> 请参见6.5.4.1 The following VDs have missing disks。
n 显示“There are offline or missing virtual drives with preserved cache.” => 请参见6.5.4.2 There are offline or missing virtual drives with preserved cache
n 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见6.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
n 显示“Memory/battery problems were detected / Unexpected power-loss occurred”=> 请参见6.5.4.4 Memory/battery problems were detected / Unexpected power-loss occurred。
l 当BIOS的版本为0.98及以上版本时:
a. 在“Advanced”页签选择“Some drivers are not healthy”。
进入健康状态查询界面。
b. 选择“Repair the whole platform”,并按“Enter”。
进入“Critical Message”界面。
c. 查看“Critical Message”界面的打印信息。
n 显示“The following VDs have missing disks. ”=> 请参见6.5.4.1 The following VDs have missing disks。
n 显示“There are offline or missing virtual drives with preserved cache.” => 请参见6.5.4.2 There are offline or missing virtual drives with preserved cache
n 显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见6.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。
n 显示“Memory/battery problems were detected / Unexpected power-loss occurred”=> 请参见6.5.4.4 Memory/battery problems were detected / Unexpected power-loss occurred。
RAID卡启动过程中或RAID卡管理界面显示的更多启动消息的介绍及处理建议请参见A.2 常见RAID卡启动消息。
问题描述
如图6-68所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。
处理方法
步骤 1 修复RAID卡。
1. 在图6-68中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
2. 输入“C”并按“Enter”。
3. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
4. 输入“y”并按“Enter”。
提示“Critical Message handling completed. Please exit”。修复完成。
步骤 2 重启服务器,进入“Advanced”界面,检查是否显示RAID卡信息。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图6-69所示,进入“Driver Healthy Protocol Utility”界面后,显示“There are offline or missing virtual drives with preserved cache”。
处理方法
步骤 1 选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
步骤 2 输入任意内容,并按“Enter”。
提示Critical Message handling completed. Please exit。修复完成。
步骤 3 按Esc。
进入RAID卡界面,如图6-70所示。
步骤 4 选择“Discard Preserved Cache”并按Enter。
弹出操作确认界面,如图6-71所示。
步骤 5 选择“Confirm”并按“Enter”。
步骤 6 选择“Yes”并按“Enter”。
提示操作成功。
步骤 7 重启服务器,进入“Advanced”界面,检查是否显示RAID卡信息。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图6-72所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”
处理方法
步骤 1 根据图6-72的打印信息选择不同的操作。
l 显示All of the disks from your previous configuration are gone => 请依次执行步骤2~步骤6。
l 显示Some configured disks have been removed from your system => 请依次执行步骤2和步骤6。
1. 在图6-72中选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
2. 输入“C”并按“Enter”。
3. 再次选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
4. 输入“Y”并按“Enter”。
提示Critical Message handling completed. Please exit。修复完成。
步骤 3 按Esc。
进入RAID卡配置界面。
步骤 4 在RAID卡配置界面选择“Configure”并按Enter。
进入“Configure”界面。
步骤 5 在“Configure”界面清除RAID卡配置。
具体操作请参见6.6.5 Configure。
步骤 6 重启服务器,进入“Advanced”界面,检查是否显示RAID卡信息。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
如图6-73所示,进入“Driver Healthy Protocol Utility”界面后,显示“Memory/battery problems were detected / Unexpected power-loss occurred”。
处理方法
步骤 1 选择“Enter Your Input Here”并按“Enter”。
弹出输入框。
步骤 2 输入任意内容,并按“Enter”。
提示Critical Message handling completed. Please exit。修复完成。
步骤 3 重启服务器,进入“Advanced”界面,检查是否显示RAID卡信息。
l 是 => 处理完毕。
l 否 => 请联系技术支持处理。
----结束
问题描述
RAID卡的“Advanced Controller Management”界面中,通过Switch to JBOD mode将RAID卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如图6-74所示,RAID卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID卡的工作模式切换成“RAID”,使RAID卡功能恢复正常。
当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。
处理方法
步骤 1 (可选)登录RAID卡管理界面,具体操作请参见6.3.1 进入管理界面。
步骤 2 依次进入Main Menu>Controller Management>Advanced Controller Management界面,如图6-75所示。
图6-75 Advanced Controller Management界面
步骤 3 选择“Switch to RAID mode”并按“Enter”。
提示操作成功,如图6-76所示。
步骤 4 选择“OK”并按“Enter”。
返回到“Advanced Controller Management”界面,显示正在切换模式,如图6-77所示。
图6-77 Advanced Controller Management界面
步骤 5 按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID卡管理界面,具体操作请参见6.3.1 进入管理界面。
步骤 6 依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如图6-78所示。
图6-78 Advanced Controller Management界面
l 是 => 处理完毕
l 否 => 请联系技术支持
----结束
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
步骤 1 通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 2 重启服务器。
步骤 3 重启过程中,当出现如图6-79所示界面时,按“Delete”,进入输入密码界面。
步骤 4 输入密码并按“Enter”。
进入如图6-80所示界面。
BIOS的默认密码为“Password@_”。
步骤 5 通过“←”或“→ ”进入“Advanced”页签,如图6-81所示。
如果Advanced界面无法找到RAID卡或显示“Some drivers are not healthy”,请参见6.5.4 BIOS下的Advanced界面无法找到RAID卡或Advanced中RAID卡状态显示Not Healthy进行修复。
步骤 6 选择“Avago MegaRAID <SAS 9460-8i> Configuration Utility”,按“Enter”。
进入9460-8i主界面,如图6-82和图6-83所示,界面参数如表6-24所示。
参数 |
说明 |
Main Menu |
RAID卡主菜单,包含了RAID卡的所有操作。 |
Help |
获取帮助信息。 |
Status |
RAID卡当前工作状态。 |
Backplane |
背板个数。 |
BBU |
超级电容在位情况。 |
Enclosure |
部件个数。 |
Drives |
挂载的硬盘数。 |
Drive Groups |
存在的磁盘组个数。 |
Virtual Drives |
存在的虚拟磁盘个数。 |
View Server Profile |
查看/管理RAID卡特性。 |
View Foreign Configuration |
查看/管理外部配置。 |
Configure |
提供删除配置的接口。 |
Set Factory Default |
恢复出厂设置。 |
Update Firmware |
升级固件。 说明 9460-8i不支持在此界面升级FW。 |
Silence Alarm |
板载蜂鸣器的使能状态。 说明 9460-8i未配置蜂鸣器,此项设置不起作用。 |
Virtual Drive Operations in Progress |
是否存在正在后台处理的虚拟磁盘操作。 |
Drive Operations in Progress |
是否存在正在后台处理的硬盘操作。 |
MegaRAID xxx |
高级特性的使能状态。 |
Manage MegaRAID Advanced Software Options |
管理高级特性。 |
----结束
RAID卡主菜单,提供配置、管理RAID卡的接口。
界面介绍
“Main Menu”界面如图6-84,参数说明如表6-25所示。
参数 |
参数说明 |
Configuration Management |
配置管理RAID。 |
Controller Management |
管理RAID控制器。 |
Virtual Drive Management |
管理虚拟磁盘。 |
Drive Management |
管理硬盘。 |
Hardware Components |
查询部件信息。 |
可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。
界面介绍
“Configuration Management”界面如图6-85,参数说明如表6-26所示。
图6-85 Configuration Management
参数 |
参数说明 |
Auto Configure RAID 0 |
自动创建RAID0。 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
快速创建RAID,RAID的参数由系统自动适配。 |
View Drive Group Properties |
查看磁盘组属性。 |
Clear Configuration |
清除当前所有RAID配置。 |
Manage Foreign Configuration |
管理外部配置。 |
查看虚拟磁盘属性
在图6-85中选择“View Drive Group Properties”并按“Enter”。
图6-86 View Drive Group Properties
参数 |
参数说明 |
Drive Group |
磁盘组名称。 |
Capacity Allocation |
磁盘组容量,显示磁盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。 |
清除RAID配置
步骤 1 选择“Clear Configuration”并按“Enter”。
进入操作确认界面。
步骤 2 选中“Confirm”并按“Enter”。
步骤 3 在打开的列表中选择“Enabled”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 按“Enter”。
配置完成。
----结束
查看并导入外部配置
步骤 1 在图6-85中选择“Manage Foreign Configuration”并按“Enter”。
界面如图6-87所示。
图6-87 Manage Foreign Configuration
步骤 2 选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图6-88所示。
步骤 3 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 4 选择“Confirm”并按“Enter”。
步骤 5 在列表中选择“Enable”并按“Enter”。
步骤 6 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 7 选择“OK”并按“Enter”完成配置。
----结束
清除外部配置
步骤 1 选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 在列表中选择“Enable”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 选择“OK”并按“Enter”完成配置。
----结束
该界面提供控制器管理接口,可查看并修改控制器的详细参数。
界面介绍
“Controller Management”界面如图6-89,参数说明如表6-28所示。
参数 |
参数说明 |
Product Name |
RAID卡名称。 |
Serial Number |
RAID卡序列号。 |
Controller Status |
RAID卡的工作状态。 |
Select Boot Device |
当前启动项。 说明 此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。 |
PCI ID |
RAID卡的PCI ID。 |
PCI Slot Number |
RAID卡的PCI槽位号。 |
Package Version |
RAID卡的套件版本。 |
Firmware Version |
RAID卡的固件版本号。 |
NVDATA Version |
RAID卡配置信息的版本号。 |
Connector Count |
RAID卡与主板的接口个数。 |
Drive Count |
RAID卡下挂载的硬盘个数。 |
Virtual Drive Count |
RAID卡可以管理的虚拟磁盘个数。 |
Advanced Controller Management |
更多的控制器操作。 |
Advanced Controller Properties |
查看和修改控制器的高级属性。 |
更多控制器操作
在图6-89中选择“Advanced Controller Management”并按“Enter”。
界面如图6-90所示,界面中参数说明如表6-29所示。
图6-90 Advanced Controller Management
参数 |
说明 |
Clear Controller Events |
清除控制器的事件日志。 |
Save Controller Events |
保存控制器的事件日志。 |
Save TTY Log |
保存终端操作日志。 |
Manage SAS Storage Link Speed |
管理接口速率。 |
Manage MegaRAID Advanced Software Options |
管理高级软件功能。 |
Schedule Consistency Check |
设置一致性检查参数。 |
Set Factory Defaults |
恢复为出厂配置。 |
Switch to JBOD mode |
切换RAID卡的工作模式,默认为RAID模式。当RAID卡当前的工作模式为RAID时,显示为“Switch to JBOD mode”;当RAID卡当前的工作模式为JBOD时,显示为“Switch to RAID mode”。 RAID卡的工作模式仅支持设置为“RAID”,请勿修改为“JBOD”。 如已设置为JBOD,请参见6.5.5 将Controller Mode恢复为“RAID”进行恢复;如需要开启JBOD功能,请参见6.4.10 设置JBOD模式进行设置。 |
Controller Mode |
RAID卡当前的工作模式。 |
查看并修改控制器高级属性
步骤 1 在图6-89中选择“Advanced Controller Properties”并按“Enter”。
界面如图6-91和图6-92所示,界面中参数说明如表6-30所示。
图6-91 Advanced Controller Properties(1)
图6-92 Advanced Controller Properties(2)
参数 |
说明 |
Cache and Memory |
查看控制器Cache和Memory信息。 |
Patrol Read |
系统巡检。 |
Power Save Setting |
设置磁盘休眠。 |
Spare |
设置控制器热备状态。 |
Task Rates |
设置各种任务的处理速率。 |
Alarm Control |
9460-8iRAID卡未配置蜂鸣器,此项设置不起作用。 |
Auto Import Foreign Configuration |
是否自动导入外部配置。 |
Boot Mode |
表示BIOS在检测到异常时的处理方式,包括: l Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。 l Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。 l Ignore Errors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。 l Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。 默认为“pause on error”。 |
Controller BIOS |
控制器BIOS的使能情况。 |
ROC Temperature |
控制器温度。 |
Shield State Supported |
是否支持暂停IO,对硬盘进行诊断。 默认为“Yes”。 |
Drive Security |
磁盘加密功能的启用状态。 |
T10-PI |
信息保护技术的使能状态。 |
Expanded Virtual Drive Support |
是否支持扩容虚拟磁盘的功能。 |
Maintain Drive Fail History |
是否维护磁盘故障历史信息。 |
SMART Polling |
SMART轮巡检测周期。 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性检查。 |
JBOD Mode |
硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。 |
步骤 2 按照表6-30所述修改控制器的高级属性参数。
步骤 3 选择“Apply Changes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 单击“OK”完成配置。
----结束
该界面提供虚拟磁盘的查询和管理接口。
界面介绍
“Virtual Drive Management”界面如图6-93,显示虚拟磁盘列表。
选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如图6-94所示,参数说明如表6-31所示。
图6-94 Virtual Drive Management
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:定位虚拟磁盘的所有硬盘。 l Stop Locate:取消定位。 l Delete Virtual Drive:删除虚拟磁盘。 l Expand Virtual Drive:扩展虚拟磁盘容量。 l Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID卡不支持同时对两个及以上的虚拟磁盘进行重新配置。 l Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。 l Hide/Unhide Drive Group:隐藏/取消隐藏磁盘组。 l Fast Initialization:快速初始化虚拟磁盘。 l Slow Initialization:安全初始化虚拟磁盘。 l Check Consistency:一致性检查。 l Virtual Drive Erase:格式化虚拟磁盘。 |
Name |
虚拟磁盘名称。 |
Raid Level |
虚拟磁盘RAID级别。 |
Status |
虚拟磁盘当前运行状态。 |
Size |
虚拟磁盘容量。 |
View Associated Drives |
查看成员盘属性。 |
Advanced... |
查看虚拟磁盘高级属性。 |
查看成员盘属性
步骤 1 在图6-94中选择“View Associated Drives”并按“Enter”。
界面如图6-95,显示成员盘列表。
步骤 2 选择要查看的成员盘,并按“Enter”。
步骤 3 选择“View Drive Properties”并按“Enter”。
进入磁盘属性界面,如图6-96界面所示,界面参数如表6-32所示。
参数 |
参数说明 |
Operation |
该成员盘可执行的操作,包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Place Drive Online/Offline:将硬盘上线/离线。 |
Drive ID |
成员盘的ID。 |
Status |
成员盘的当前工作状态。 |
Size |
成员盘的容量。 |
Type |
成员盘类型。 |
Model |
成员盘的模块类型。 |
Hardware Vendor |
成员盘的生产厂商。 |
Associated Virtual Drive |
成员盘所在的虚拟磁盘。 |
Advanced... |
查询成员盘更多属性。 |
----结束
查看和修改虚拟磁盘高级属性
步骤 1 在图6-94中选择“Advanced”并按“Enter”。
界面如图6-97和图6-98所示,界面参数如表6-33所示。
参数 |
参数说明 |
Logical Sector Size |
逻辑扇区大小。 |
Strip Size |
条带大小。 |
Starting Logical Block Addressing |
逻辑单元起始地址。 |
Emulation Type |
控制逻辑盘在OS中上报的扇区。 l Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。 l Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。 l Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。 |
Protected |
是否支持磁盘保护。 |
Bad Blocks |
是否支持坏块处理。 |
SSD Caching |
是否支持SSD Caching。 |
Access |
是否支持Access。 |
Current Write Cache Policy |
当前写Cache策略,包括: l Write Through:当硬盘子系统接收到所有传输数据后,RAID卡将给主机返回数据传输完成信号。 l Write Back:当RAID卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l Force Write Back:当未配置超级电容或超级电容故障时,RAID卡将自动切换到Write Through模式。 |
Default Write Cache Policy |
默认的Cache写策略。 |
Disable Background Initialization |
是否禁用后台初始化。 |
Read Cache Policy |
当前读Cache策略,包括: l No Read Ahead:关闭预读取功能。 l Read Ahead:使能预读取功能。RAID卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。 |
Drive Cache |
是否支持cache。 |
Input/Output |
I/O读取策略,包括: l Direct:直接从硬盘读取数据,不经过Cache缓存。 l Cached:从Cache缓存中读取数据。 |
Apply Changes |
保存配置。 |
步骤 2 按照表6-33所述配置“Advanced”的参数。
步骤 3 选择“Apply Changes”并按“Enter”。
显示The operation has been performed successfully。
步骤 4 选择“OK”并按“Enter”完成配置。
----结束
该界面显示硬盘基本属性,提供硬盘操作接口。
界面介绍
“Drive Management”界面如图6-99所示,显示硬盘列表。
选定要操作的硬盘并按“Enter”进入详细操作界面,如图6-100所示,参数说明如表6-34所示。
参数 |
参数说明 |
Operation |
可执行的操作。包括: l Start Locate:打开硬盘定位状态。 l Stop Locate:关闭硬盘定位状态。 l Initialize Drive:硬盘初始化。 l Drive Erase:格式化硬盘。 − Simple:仅对硬盘进行一轮擦除动作。 − Normal:对硬盘进行三轮擦除动作。 − Thorough:对硬盘进行九轮擦除动作。 − Stop Erase:停止数据擦除操作。 l Make Unconfigured Good/Bad:修改硬盘状态。 l Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。 l Assign Global Hot Spare Drive:设置全局热备盘。 l Assign Dedicated Hot Spare Drive:设置局部热备盘。 l Unassign Hot Spare Drive:删除热备盘。 l Cryptographic Erase:对加密硬盘进行数据擦除。 l Place Drive Online:将Offline状态的硬盘设置为Online。 说明 l Place Drive Online操作仅仅只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。 l 如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。 l 对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。 |
Drive ID |
硬盘的ID。 |
Status |
硬盘的当前工作状态。 |
Size |
硬盘的容量。 |
Type |
硬盘的类型。 |
Model |
硬盘型号。 |
Hardware Vendor |
硬盘的生产厂商。 |
Associated Virtual Drive |
表示硬盘已加入虚拟磁盘,此处显示虚拟磁盘信息。 |
Advanced... |
查询更多硬盘属性。 |
安全擦除硬盘数据
该操作会删除硬盘上的数据,请谨慎执行。
步骤 1 将“Operation”设置为“Drive Erase”。
步骤 2 选择“Erase Mode”并按“Enter”。
步骤 3 在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。
步骤 4 选择“OK”并按“Enter”。
进入操作确认界面。
步骤 5 选择“Confirm”并按“Enter”。
步骤 6 选择“Yes”并按“Enter”。
提示操作成功。
----结束
查看硬盘属性
选择“Advanced...”并按“Enter”。
打开硬盘属性界面,如图6-101和图6-102所示,参数说明如表6-35所示。
参数 |
参数说明 |
Logical Sector Size |
逻辑扇区大小。 |
Physical Sector Size |
物理扇区大小。 |
SMART Status |
SMART功能是否使能。 |
Revision |
硬盘Firmware版本。 |
Media Error |
Media error个数。 |
Predicted Fail Count |
Pred fail个数。 |
SAS Address |
硬盘SAS地址。 |
Drive Power State |
硬盘上电状态。 |
Emergency Spare |
是否支持紧急备份功能,即是否可以选空闲盘或者热备做备份盘。 |
Commissioned Hot Spare |
是否指定了备份盘,即把一个热备盘指定给一个RAID组使用。 |
Cache Setting |
是否可设置Cache。 |
Available Size |
硬盘可用空间。 |
Used Space |
已使用的硬盘空间。 |
Disk Protocol |
硬盘支持的协议。 |
Negotiated Drive Transfer Speed |
硬盘数据传输速率。 |
Number of Connections |
连接器个数。 |
FDE Capable |
硬盘是否支持FDE(Full Disk Encryption)技术。 |
Protection Capable |
硬盘是否支持数据保护。 |
Temperature |
硬盘温度。 |
该界面主要提供RAID卡传感器信息。
界面介绍
“Hardware Components”界面如图6-103,参数说明如表6-36所示。
参数 |
参数说明 |
Temperature Sensors |
当前温度传感器状态。 |
Fans |
当前风扇模块工作状态。 |
Power Supplies |
当前供电模块工作状态。 |
Battery Management |
电容管理。 |
Enclosure Management |
查看更多传感器信息。 |
查看更多传感器信息
步骤 1 选择“Enclosure Management”并按“Enter”。
进入部件选择界面,如图6-104所示。
步骤 2 选择“Select Enclosure”并按“Enter”。
步骤 3 选择要操作的部件并按“Enter”。
步骤 4 选择“View Enclosure Status”并按“Enter”。
显示传感器的详细信息。
步骤 5 在TEMPERATUR SENSOR下通过“Select Temperature Sensor”选择要查询的温度传感器。
“Temperature Sensor Status”显示所查询的传感器的状态。
步骤 6 在FAN下通过“Select Fan”选择要查询的风扇传感器。
“Fan Status”显示所查询的传感器的状态。
步骤 7 在POWER SUPPLY下通过“Select Power Supply”选择要查询的供电模块传感器。
“Power Supply Status”显示所查询的传感器的状态。
----结束
提供RAID卡操作管理接口。
界面介绍
“View Server Profile”界面如图6-105所示,参数说明如表6-37所示。
参数 |
参数说明 |
UEFI Spec Version |
服务器支持的UEFI Spec版本。 |
Controller Management |
提供控制器管理接口,详细情况请参见6.6.2.2 Controller Management。 |
Hardware Components |
提供控制器部件查询接口,详细情况请参见6.6.2.5 Hardware Components。 |
Drive Management |
提供硬盘管理接口,详细情况请参见6.6.2.4 Drive Management。 |
Virtual Drive Management |
提供虚拟磁盘管理接口,详细情况请参见6.6.2.3 Virtual Drive Management。 |
该界面可查看、导入、清空外部配置。
界面介绍
“View Foreign Configuration”界面如图6-106所示。
图6-106 View Foreign Configuration
查看并导入外部配置
步骤 1 选择“Preview Foreign Configuration”并按“Enter”。
显示当前存在的外部配置的详细信息,如图6-107所示。
步骤 2 选择“Import Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 3 选择“Confirm”并按“Enter”。
步骤 4 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 5 单击“OK”完成配置。
----结束
清除外部配置
步骤 1 选择“Clear Foreign Configuration”并按“Enter”。
打开操作确认界面。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 单击“OK”完成配置。
----结束
可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。
界面介绍
“Configure”界面如图6-108所示,参数说明如表6-38所示。
参数 |
参数说明 |
Auto Configure RAID 0 |
自动创建RAID0。 |
Create Virtual Drive |
创建RAID。 |
Create Profile Based Virtual Drive |
快速创建RAID,RAID的参数由系统自动适配。 |
View Drive Group Properties |
查看磁盘组属性。 |
Clear Configuration |
清除当前所有RAID配置。 |
Manage Foreign Configuration |
管理外部配置。 |
清除当前配置
步骤 1 选择“Clear Configuration”并按“Enter”。
打开操作确认界面。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 单击“OK”完成配置。
----结束
恢复出厂配置
步骤 1 在主界面选择“Set Factory Default”并按“Enter”。
打开操作确认界面。
步骤 2 选择“Confirm”并按“Enter”。
步骤 3 选择“Yes”并按“Enter”。
提示The operation has been performed successfully。
步骤 4 单击“OK”完成配置。
----结束
该界面提供RAID卡高级软件特性查看和导入接口。
界面介绍
“Manage MegaRAID Advanced Software Options”界面如图6-109所示,界面中参数说明如表6-39所示。
图6-109 Manage MegaRAID Advanced Software Options
参数 |
说明 |
SAFE ID |
RAID卡的安全编码。 |
Serial Number |
RAID卡序列号。 |
Activation Key |
待激活的高级特性的Key。 |
Active |
激活高级特性。 9460-8i不支持高级特性的激活操作,该功能无效。 |
Deactive All Trail Software |
注销当前所有高级特性。 |
退出配置界面。
退出配置界面
步骤 1 在9460-8i主界面按“ESC”,显示如图6-110所示界面。
步骤 2 按F10退出BIOS。
弹出操作确认窗口。
步骤 3 选择“OK”并按Enter。
退出BIOS,显示“ Press Control+Alt+Delete to reboot”。
----结束
使用OS命令行工具可以在服务器正常运行过程中对RAID卡进行操作,不需要重启服务器。
请联系技术支持获取StorCLI工具的下载和安装方法。
命令功能
查询9460-8i的基本配置信息。
命令格式
storcli64 /ccontroller_id show
参数说明
参数 |
参数说明 |
取值 |
controller_id |
控制器ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID |
使用指南
建议保持默认配置。
使用实例
# 查询RAID卡配置信息。
[root@localhost]# ./storcli64_arm /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 4.19.36-vhulk1907.1.0.h453.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Product Name = AVAGO MegaRAID SAS 9460-8i
Serial Number = SP01022668
SAS Address = 500062b206129f00
PCI Address = 00:01:00:00
System Time = 11/13/2019 04:33:58
Mfg. Date = 03/12/20
Controller Time = 11/13/2019 09:33:56
FW Package Build = 51.13.0-3223
BIOS Version = 7.13.00.0_070D0300
FW Version = 5.130.00-3059
Driver Name = megaraid_sas
Driver Version = 07.713.02.00
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x16
SubVendor Id = 0x1000
SubDevice Id = 0x9461
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Drive Groups = 2
TOPOLOGY :
========
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size PDC PI SED DS3 FSpace TR
-----------------------------------------------------------------------------
0 - - - - RAID0 Optl N 372.093 GB dflt N N none Y N
0 0 - - - RAID0 Optl N 372.093 GB dflt N N none Y N
0 0 0 133:0 35 DRIVE Onln N 372.093 GB dflt N N none - N
1 - - - - RAID0 Optl N 3.273 TB dflt N N none Y N
1 0 - - - RAID0 Optl N 3.273 TB dflt N N none Y N
1 0 0 133:1 4 DRIVE Onln N 3.273 TB dflt N N none - N
-----------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 2
VD LIST :
=======
-------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC Size Name
-------------------------------------------------------------
0/0 RAID0 Optl RW Yes RWTD - ON 200.0 GB
1/3 RAID0 Optl RW Yes NRWTD - ON 50.0 GB
-------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 3
PD LIST :
=======
------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp Type
------------------------------------------------------------------------------
133:0 35 Onln 0 372.093 GB SAS SSD N N 512B HWE32SS3004H001N U -
133:1 4 Onln 1 3.273 TB SAS SSD N N 512B HSSD-D5220AS0200 U -
133:2 2 UGood - 3.273 TB SAS SSD N N 512B HSSD-D5220AS0200 U -
------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Cachevault_Info :
===============
------------------------------------
Model State Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 26C - 2019/05/16
------------------------------------
命令功能
查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。
命令格式
storcli64 /ccontroller_id show spinupdelay
storcli64 /ccontroller_id show spinupdrivecount
storcli64 /ccontroller_id set spinupdelay=time
storcli64 /ccontroller_id set spinupdrivecount=count
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
time |
每组起转硬盘间的时间间隔 |
默认为2,单位为s。 |
count |
上电时允许同时起转的硬盘数量 |
默认为4。 |
查看RAID卡ID的方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
建议保持默认配置。
使用实例
# 查询RAID卡Spinup参数。
domino:~# ./storcli64 /c0 show spinupdelay
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
domino:~# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 4
--------------------------
# 设置RAID卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。
domino:~# ./storcli64 /c0 set spinupdelay=20
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 20 second(s)
--------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 5
--------------------------
命令功能
设置空闲硬盘和热备盘的省电模式。
命令格式
storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID。 |
– |
state |
省电模式的启用状态。 |
l on:启用 l off:禁用 |
disktype |
硬盘类型。 |
l 1:空闲硬盘 l 2:热备盘 |
time |
等待时间,硬盘经过等待时间没有IO,则停转进入休眠状态。 |
单位为minutes。 |
查看RAID卡ID的方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置空闲硬盘的省电模式。
domino:~# ./storcli64 /c0 set ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
SpnDwnUncDrv Enable
SpnDwnTm 30 minutes
--------------------------
命令功能
设置物理硬盘初始化功能,查询初始化进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
action |
要执行的操作 |
l show:查看初始化进度 l start:开始初始化 l stop:结束初始化 |
以上涉及的各个ID的查询方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 初始化slot3硬盘,并查询初始化进度。
domino:~# ./storcli64 /c0/e252/s3 start initialization
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show initialization
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
命令功能
设置物理硬盘数据擦除模式,查询擦除进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
硬盘槽位号 |
– |
mode |
数据擦除模式 |
l simple:对硬盘进行一轮擦除动作。 l normal:对硬盘进行三轮擦除动作。 l thorough:对硬盘进行九轮擦除动作。 |
以上涉及的各个ID的查询方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。
domino:~# ./storcli64 /c0/e252/s3 start erase simple
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.
命令功能
设置后台初始化速率、一致性检查速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。
命令格式
storcli64 /ccontroller_id set action=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
action |
要设置的项目 |
l bgirate:后台初始化速率 l ccrate:一致性检查速率 l prrate:硬盘巡检速率 l rebuildrate:RAID重构速率 l reconrate:RAID扩容和迁移速率 |
value |
后台任务资源占用率 |
1~100 |
查看RAID卡ID的方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置硬盘巡检速率为“30%”。
domino:~# ./storcli64 /c0 set prrate=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
Patrol Read Rate 30%
-----------------------
命令功能
设置控制器BIOS在检测到异常时停止继续启动的功能。
命令格式
storcli64 /ccontroller_id set bios mode=action
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
action |
要执行的操作 |
l soe:控制器BIOS在检测到异常时停止启动 l ie:忽略检测到的异常 |
查看RAID卡ID的方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启Stop on error功能。
domino:~# ./storcli64 /c0 set bios mode=soe
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------
命令功能
创建、删除RAID。
命令格式
storcli64 /ccontroller_id add vd rlevel size=capacity drives=enclosure_id:slot_id | enclosure_id:startid-endid,enclosure_id:slot_id | enclosure_id:startid-endid [pdperarray=pdperarray]
storcli64 /ccontroller_id/vraid_id del
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID控制卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
level |
要配置的RAID组级别 |
可为0、1、5、6、10、50、60,数字分别代表对应的RAID组级别。 |
capacity |
要配置的RAID组容量 |
– |
startid-endid |
要加入RAID组的硬盘的起始和结束ID |
– |
slot_id |
要加入RAID组的硬盘ID |
– |
pdperarray |
子组中的硬盘数。 创建RAID10、RAID50、RAID60时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。 |
– |
raid_id |
要删除的RAID组的ID |
– |
l 以上涉及的各个ID的查询方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
l 当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid。
使用指南
无
使用实例
# 创建RAID 0。
domino:~# ./storcli64 /c0 add vd r0 size=100GB drives=252:0-3
Controller = 0
Status = Success
Description = Add VD Succeeded
#删除RAID组。
domino:~# ./storcli64 /c0/v0 del
Controller = 0
Status = Success
Description = Delete VD Succeeded
命令功能
设置RAID组的Cache读写属性。
命令格式
storcli64 /ccontroller_id/vraid_id set wrcache=mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
Cache读写模式 |
l wt:当磁盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。 l wb:控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。 l awb:在RAID卡无电容或电容损坏的情况下,强制使用“wb”模式。 |
以上涉及的各个ID的方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Cache读写模式为“wt”。
domino:~# ./storcli64 /c0/v0 set wrcache=wt
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 wrCache WT Success 0 -
---------------------------------------
命令功能
设置RAID的读写策略。
命令格式
storcli64 /ccontroller_id/vraid_id set accesspolicy=mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
RAID读写策略 |
l rw:可读可写 l blocked:禁止访问 l ro:只读访问 |
以上涉及的各个ID的查询方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置RAID读写策略为“rw”。
domino:~# ./storcli64 /c0/v0 set accesspolicy=rw
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 AccPolicy RW Success 0 -
---------------------------------------
命令功能
设置RAID前台初始化模式。
命令格式
storcli64 /ccontroller_id/vraid_id start mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
mode |
前台初始化模式 |
l init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。 l init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。 |
以上涉及的各个ID的查询方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 快速初始化RAID。
domino:~# ./storcli64 /c0/v0 start init
Controller = 0
Status = Success
Description = Start INIT Operation Success
命令功能
暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。
命令格式
storcli64 /ccontroller_id/vraid_id action bgi
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
raid_id |
待设置的RAID的ID |
– |
action |
后台初始化的操作 |
l show:查看后台初始化进度 l pause:暂停后台初始化 l resume:继续后台初始化 l stop:停止后台初始化 |
以上涉及的各个ID的查询方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查看后台初始化进度。
domino:~# ./storcli64 /c0/v0 show bgi
Controller = 0
Status = Success
Description = Noe
VD Operation Status :
===================
------------------------------------------------------
VD Operation Progress% Staus Estimated Time Left
------------------------------------------------------
0 BGI 3 In progress 53 Minutes
------------------------------------------------------
命令功能
设置虚拟磁盘或物理硬盘为启动项。
命令格式
storcli64 /ccontroller_id/vvd_id set bootdrive=on
storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
vd_id |
待设置的虚拟磁盘的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
以上涉及的各个ID的查询方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置VD0为启动项。
domino:~# ./storcli64 /c0/v0 set bootdrive=on
Controller = 0
Status = Success
Description = Noe
Detailed Status :
===============
----------------------------------------
VD Property Value Staus ErrCd ErrMsg
----------------------------------------
0 Boot Drive On Success 0 -
----------------------------------------
# 设置slot 7硬盘为启动项。
domino:~# ./storcli64 /c0/e252/s7 set bootdrive=on
Controller = 0
Status = Success
Description = Noe
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
BootDrive PD:252_7
-------------------
命令功能
设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。
命令格式
storcli64 /ccontroller_id set eghs eug=state
storcli64 /ccontroller_id set eghs smarter=state
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
state |
紧急热备功能的启用状态 |
l on:启用 l off:禁用 |
查看RAID卡ID的方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。
domino:~# ./storcli64 /c0 set eghs eug=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------
Ctrl_Prop Value
------------------
EmergencyUG ON
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
EmergencySmarter ON
-----------------------
命令功能
设置全局热备盘和局部热备盘。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=vd_id]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
vd_id |
局部热备盘所属虚拟磁盘的ID |
– |
以上涉及的各个ID的查询方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置slot 3硬盘为全局热备盘。
domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
# 设置slot 3硬盘为vd0的局部热备盘。
domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive dgs=0
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
命令功能
暂停、继续、停止RAID重构/回拷/系统巡检,并查询进度。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action function
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
action |
要执行的操作 |
l show:查看进度 l pause:暂停进程 l resume:继续执行 l stop:停止进程 |
function |
要处理的进程 |
l rebuild:RAID重构 l copyback:回拷 l patrolread:系统巡检 |
以上涉及的各个ID的查询方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查看RAID重构进度。
domino:~# ./storcli64 /c0/e252/s4 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Staus Estimated Time Left
------------------------------------------------------
/c0/e252/s4 9 In progress 12 Minutes
------------------------------------------------------
# 暂停RAID重构。
domino:~# ./storcli64 /c0/e252/s4 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Status Succeeded.
命令功能
设置Smart扫描周期。
命令格式
storcli64 /ccontroller_id set smartpollinterval=value
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
value |
Smart扫描周期 |
单位为s。 |
查看RAID卡ID的方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Smart扫描周期为“60s”。
domino:~# ./storcli64 /c0 set smartpollinterval=60
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
命令格式
storcli64 /ccontroller_id/vvd_id expand size=capacity
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
vd_id |
要扩容的RAID的ID |
– |
capacity |
扩容后的容量 |
– |
以上涉及的各个ID的查询方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 将VD0的容量扩大至“200GB”。
domino:~# ./storcli64 /c0/v0 expand size=200GB
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
0 100.0 GB 457.861 GB 200.0 GB 201.458 GB 44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %
命令功能
RAID有2种扩容方式:
l 通过增加成员盘可用容量来扩大RAID容量。
l 通过增加新硬盘来扩大RAID容量。
当增加新盘后,可进行RAID级别迁移。
命令格式
storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
vd_id |
要操作的RAID的ID |
– |
slot_id |
要加入RAID的新硬盘的槽位号 |
– |
level |
增加硬盘后RAID的级别 |
l 与原RAID级别相同时,该命令为扩大RAID容量。 l 与原RAID级别不同时,该命令为RAID级别迁移。 |
以上涉及的各个ID的查询方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 在RAID 0中增加slot 2硬盘扩容。
domino:~# ./storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 13 Minutes
-------------------------------------------------------
# 单盘RAID 0加盘迁移至RAID 1。
domino:~# ./storcli64 /c0/v0 start migrate type=r1 option=add drives=252:3
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 14 Minutes
-------------------------------------------------------
命令功能
查询和清除PreservedCache数据。
命令格式
storcli64 /ccontroller_id show preservedcache
storcli64 /ccontroller_id/vvd_id delete preservedcache force
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
vd_id |
要操作的RAID的ID |
– |
以上涉及的各个ID的查询方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 查询PreservedCache。
domino:~# ./storcli64 /c0 show preservedcache
Controller = 0
Status = Success
Description = No Virtual Drive has Preserved Cache Data.
命令功能
设置一致性检查参数。
命令格式
storcli64 /ccontroller_id[/vvd_id]show cc
storcli64 /ccontroller_id/vvd_id start cc force
storcli64 /ccontroller_id/vvd_id action cc
storcli64 /ccontroller_id set cc=conc delay=value starttime=time excludevd=evd_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
vd_id |
要操作的RAID的ID |
– |
action |
要执行的操作 |
l pause:暂停 l resume:继续执行 l stop:停止 |
value |
一致性检查周期 |
– |
time |
一致性检查起始时间 |
例如:2016/07/14 22:00:00 |
evd_id |
不进行一致性检查的虚拟磁盘ID |
– |
以上涉及的各个ID的查询方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
show命令中不带/vvd_id时,表示查询自动CC参数。
show命令中带/vvd_id时,表示查询CC进度。
使用实例
# 设置一致性自动检查参数。
domino:~# ./storcli64 /c0 set cc=conc delay=1 starttime=2016/07/14 22:00:00 excludevd=0
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------
Ctrl_Prop Value
------------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2016/07/14 22:00:00
CC ExcludeVD(0) Success
------------------------------------
# 查询CC进度。
domino:~# ./storcli64 /c0/v1 show cc
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimited Time Left
-----------------------------------------------------------
0 CC - Not in progress -
-----------------------------------------------------------
命令功能
查询和设置系统巡检的相关参数。
命令格式
storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number
storcli64 /ccontroller_id set patrolread delay=delaytime
storcli64 /ccontroller_id show patrolread
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
time |
系统巡检起始时间 |
例如:2016/07/15 23 说明 起始时间单位为“时”。 |
number |
可同时巡检的硬盘数量 |
– |
delaytime |
系统巡检周期 |
单位为hour。 |
查看RAID卡ID的方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。
domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
PR Starttime 2016/07/15 23:00:00
PR MaxConcurrentPd 2
---------------------------------------
# 查询patrolread信息。
domino:~# ./storcli64 /c0 show patrolread
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
--------------------------------------------
Ctrl_Prop Value
--------------------------------------------
PR Mode 2016/07/15 23:00:00
PR Execution Delay
PR iterations completed 0
PR Next Start time 07/16/2016,00:00:00
PR on SSD Disabled
PR Current State Stopped
--------------------------------------------
命令功能
查询和设置Cache的刷新周期。
命令格式
storcli64 /ccontroller_id show cacheflushint
storcli64 /ccontroller_id set cacheflushint time
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
time |
Cache的刷新周期 |
单位为s |
查看RAID卡ID的方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 设置Cache的刷新周期为“10”。
domino:~# ./storcli64 /c0 set cacheflushint=10
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10 sec
---------------------------
# 查询Cache的刷新周期。
domino:~# ./storcli64 /c0 show cacheflushint
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10
---------------------------
命令功能
设置硬盘状态。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
state |
要设置的硬盘状态 |
l online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。 l offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。 l jbod:通过该参数可以将硬盘设置为直通硬盘。 l good: − ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置; − JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。 l good:将硬盘设为空闲盘 |
force |
强制设置硬盘状态,为可选参数。 如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force。 |
- |
以上涉及的各个ID的查询方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。
domino:~# ./storcli64 /c0/e0/s1 set good
Controller = 0
Status = Success
Description = Set Drive Good Succeeded.
命令功能
点亮和熄灭指定硬盘的定位指示灯。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。 |
slot_id |
物理硬盘槽位编号 |
可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。 |
action |
要执行的操作 |
l start:点亮硬盘的定位指示灯。 l stop:熄灭硬盘的定位指示灯。 |
以上涉及的各个ID的查询方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 点亮slot 7硬盘的定位指示灯。
domino:~# ./storcli64 /c0/e252/s7 start locate
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.
命令功能
查询RAID卡、虚拟磁盘、物理硬盘的详细信息。
命令格式
storcli64 /ccontroller_id show
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all
storcli64 /ccontroller_id/vvd_id show all
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID |
enclosure_id |
硬盘所在Enclosure的ID |
可以将该参数设置为all,表示查询该工具可管理的所有控制器连接的硬盘背板的ID |
slot_id |
物理硬盘槽位编号 |
可以将该参数设置为all,表示查询所有硬盘的ID |
vd_id |
虚拟磁盘ID |
可以为all,表示查询所有虚拟磁盘信息。 |
使用指南
回显中主要字段的含义如表6-40所示。
命令格式 |
字段 |
含义 |
举例 |
storcli64 /ccontroller_id show |
Product Name |
RAID卡的型号 |
sas3108 |
FW Version |
RAID卡的FW版本 |
4.660.00-8140 |
|
Driver Name |
RAID卡的驱动名称 |
megaraid_sas |
|
Driver Version |
RAID卡的驱动版本 |
06.811.02.00-rh1 |
|
Current Personality |
RAID卡的工作模式 |
RAID-Mode |
|
storcli64 /ccontroller_id/eenclosure_id/sslot_id show all |
SN |
物理硬盘的序列号 |
PHWL517601YR800RGN |
Manufacturer Id |
物理硬盘的供应商ID |
ATA |
|
Model Number |
物理硬盘的模块序号 |
INTEL SSDSC2BB800G4 |
|
Firmware Revision |
物理硬盘的FW版本 |
D2010370 |
|
Raw size |
物理硬盘的容量 |
745.211 GB [0x5d26ceb0 Sectors] |
|
Logical Sector Size |
物理硬盘逻辑分区大小 |
512B |
|
Physical Sector Size |
物理扇区大小 |
4 KB |
|
storcli64 /ccontroller_id/vvd_id show all |
TYPE |
RAID组的级别 |
RAID1 |
State |
RAID组的状态 |
Optl |
|
Access |
RAID组数据的访问策略 |
RW |
|
Cache |
RAID组当前的读写策略与IO Policy |
RWTD |
|
Size |
RAID组的大小 |
100.0 GB |
|
PDs for VD0 |
RAID组下的物理硬盘 |
- |
|
Strip Size |
RAID组的条带大小 |
256KB |
|
Write Cache(initial setting) |
RAID组Cache的写策略 |
Write Through |
|
Disk Cache Policy |
RAID组成员盘的Cache策略 |
Disk's Default |
使用实例
#查询RAID卡的详细信息。
[root@localhost ~]# ./storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
Product Name = SAS3508
Serial Number =
SAS Address = 50030130f0900000
PCI Address = 00:01:00:00
System Time = 07/07/2018 22:06:42
Mfg. Date = 00/00/00
Controller Time = 07/07/2018 14:06:41
FW Package Build = 24.16.0-0093
BIOS Version = 6.32.02.0_4.17.08.00_0x06150500
FW Version = 4.660.00-8140
Driver Name = megaraid_sas
Driver Version = 06.811.02.00-rh1
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x5D
SubVendor Id = 0x19E5
SubDevice Id = 0xD207
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Drive Groups = 1
TOPOLOGY :
========
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size PDC PI SED DS3 FSpace TR
-----------------------------------------------------------------------------
0 - - - - RAID1 Optl N 744.125 GB dflt N N none N N
0 0 - - - RAID1 Optl N 744.125 GB dflt N N none N N
0 0 0 252:1 18 DRIVE Onln N 744.125 GB dflt N N none - N
0 0 1 252:0 48 DRIVE Onln N 744.125 GB dflt N N none - N
-----------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 1
VD LIST :
=======
---------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC Size Name
---------------------------------------------------------------
0/0 RAID1 Optl RW Yes RWBD - ON 744.125 GB
---------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 6
PD LIST :
=======
---------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp Type
---------------------------------------------------------------------------------
252:0 48 Onln 0 744.125 GB SATA SSD N N 512B INTEL SSDSC2BB800G4 U -
252:1 18 Onln 0 744.125 GB SATA SSD N N 512B INTEL SSDSC2BB800G4 U -
252:2 19 UGood - 744.125 GB SATA SSD N N 512B INTEL SSDSC2BA800G4 U -
252:3 20 UGood - 744.125 GB SATA SSD N N 512B INTEL SSDSC2BA800G4 U -
252:4 49 UGood - 744.125 GB SATA SSD N N 512B INTEL SSDSC2BB800G4 U -
252:5 47 UGood - 744.125 GB SATA SSD N N 512B INTEL SSDSC2BB800G4 U -
---------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Cachevault_Info :
===============
------------------------------------
Model State Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 28C - 2016/11/04
------------------------------------
#查询slot0的物理硬盘的信息。
[root@localhost ~]# ./storcli64
/c0/e252/s0 show all
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
Drive /c0/e252/s0 :
=================
---------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp Type
---------------------------------------------------------------------------------
252:0 48 Onln 0 744.125 GB SATA SSD N N 512B INTEL SSDSC2BB800G4 U -
---------------------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Drive /c0/e252/s0 - Detailed Information :
========================================
Drive /c0/e252/s0 State :
=======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature = 20C (68.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
Drive /c0/e252/s0 Device attributes :
===================================
SN = PHWL517601YR800RGN
Manufacturer Id = ATA
Model Number = INTEL SSDSC2BB800G4
NAND Vendor = NA
WWN = 55cd2e404c533246
Firmware Revision = D2010370
Raw size = 745.211 GB [0x5d26ceb0 Sectors]
Coerced size = 744.125 GB [0x5d040800 Sectors]
Non Coerced size = 744.711 GB [0x5d16ceb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 6.0Gb/s
NCQ setting = Enabled
Write cache = N/A
Logical Sector Size = 512B
Physical Sector Size = 4 KB
Connector Name = Port A x1
Drive /c0/e252/s0 Policies/Settings :
===================================
Drive position = DriveGroup:0, Span:0, Row:1
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = No
Wide Port Capable = No
Port Information :
================
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
0 Active 6.0Gb/s 0x4433221100000000
-----------------------------------------
Inquiry Data =
40 00 ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 48 50 4c 57 31 35 36 37 31 30 52 59
30 38 52 30 4e 47 20 20 00 00 00 00 00 00 32 44
31 30 33 30 30 37 4e 49 45 54 20 4c 53 53 53 44
32 43 42 42 30 38 47 30 20 34 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 01 80
00 40 00 2f 00 40 00 00 00 00 07 00 ff 3f 10 00
3f 00 10 fc fb 00 01 bf ff ff ff 0f 00 00 07 00
# 查询VD 0的信息。
[root@rhel6u5 ~]#
/opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
/c0/v0 :
======
---------------------------------------------------------
DG/VD TYPE State Access Consist Cache sCC Size Name
---------------------------------------------------------
1/0 RAID1 Optl RW Yes RWTD - 1.089 TB
---------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|B=Blocked|Consist=Consistent|
R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
PDs for VD 0 :
============
-----------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp
-----------------------------------------------------------------------
25:22 14 Onln 1 1.089 TB SAS HDD N N 512B ST1200MM0007 U
25:23 26 Onln 1 1.089 TB SAS HDD N N 512B ST1200MM0007 U
-----------------------------------------------------------------------
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded
VD0 Properties :
==============
Strip Size = 256 KB
Number of Blocks = 2341795840
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 2
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = Disabled
Active Operations = None
Exposed to OS = Yes
Creation Date = 04-01-2018
Creation Time = 12:38:35 PM
Emulation type = None
命令功能
查询超级电容的名称及TFM Flash卡缓存容量的大小等信息。
命令格式
storcli64 /ccontroller_id/cv show all
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
可以为all,表示所有控制器。 |
查看RAID卡ID的方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用实例
#查询超级电容的相关信息。
[root@localhost ~]# ./storcli64
/c0/cv show all
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
Cachevault_Info :
===============
--------------------
Property Value
--------------------
Type CVPM02
Temperature 28 C
State Optimal
--------------------
Firmware_Status :
===============
---------------------------------------
Property Value
---------------------------------------
Replacement required No
No space to cache offload No
Module microcode update required No
---------------------------------------
GasGaugeStatus :
==============
------------------------------
Property Value
------------------------------
Pack Energy 294 J
Capacitance 108 %
Remaining Reserve Space 0
------------------------------
Design_Info :
===========
------------------------------------
Property Value
------------------------------------
Date of Manufacture 04/11/2016
Serial Number 22417
Manufacture Name LSI
Design Capacity 288 J
Device Name CVPM02
tmmFru N/A
CacheVault Flash Size 8.0 GB
tmmBatversionNo 0x05
tmmSerialNo 0xee7d
tmm Date of Manufacture 09/12/2016
tmmPcbAssmNo 022544412A
tmmPCBversionNo 0x03
tmmBatPackAssmNo 49571-13A
scapBatversionNo 0x00
scapSerialNo 0x5791
scap Date of Manufacture 04/11/2016
scapPcbAssmNo 1700134483
scapPCBversionNo A
scapBatPackAssmNo 49571-13A
Module Version 6635-02A
------------------------------------
Properties :
==========
--------------------------------------------------------------
Property Value
--------------------------------------------------------------
Auto Learn Period 27d (2412000 seconds)
Next Learn time 2018/08/03 17:48:38 (586633718 seconds)
Learn Delay Interval 0 hour(s)
Auto-Learn Mode Transparent
--------------------------------------------------------------
l 上述回显信息中,“Device Name CVPM02”表示超级电容的名称为 “CVPM02”,“CacheVault Flash Size 8.0GB”表示TFM Flash卡缓存容量为“8.0GB”。
l 当回显信息的“State”显示为“FAILED”时,需要更换超级电容。
命令功能
升级硬盘的FW。
命令格式
./storcli64 /ccontroller_id /eenclosure_id/sslot_id download src=FW_name.bin
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
FW_name |
硬盘FW的名称 |
– |
以上涉及的各个ID的查询方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用实例
#升级硬盘FW。
[root@localhost ~]# ./storcli64
/c0/e64/s5 download src=5200_D1MU004_Releasefullconcatenatedbinary.bin
Starting microcode update .....please wait...
Flashing PD image ..... please wait...
CLI Version = 007.0504.0000.0000 Nov 22,2017
Operation system = Linux 3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = Firmware Download succeeded.
Drive Firmware Download :
========================
--------------------------------------------------------------------------------
Drive Status ErrCd ErrMsg
--------------------------------------------------------------------------------
/c0/e64/s5 Success 0 -
--------------------------------------------------------------------------------
命令功能
手动重构RAID组。
命令格式
storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row
storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
要加入Array的物理硬盘槽位编号 |
– |
DG |
硬盘发生故障的DG的ID |
– |
Arr |
硬盘发生故障的Array的ID |
– |
Row |
硬盘发生故障的Array的row number |
– |
以上涉及的各个ID的查询方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
重构RAID分3个步骤进行:
1.通过./storcli64 /c0 show 命令,查询故障硬盘的DG、Arr和Row所对应的数字。
2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。
3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID。
使用实例
# 将硬盘加入RAID组。
[root@localhost ~]# storcli64
/c0/e252/s1 insert dg=0 array=0 row=0
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = Insert Drive Succeeded.
# 手动重构RAID。
[root@localhost ~]# storcli64
/c0/e252/s1 start rebuild
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.
命令功能
设置RAID卡的硬盘直通功能的使能情况,并指定直通硬盘。
命令格式
storcli64 /ccontroller_id set jbod=state
storcli64 /ccontroller_id/eenclosure_id/sslot_id set JBOD
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
enclosure_id |
硬盘所在Enclosure的ID |
– |
slot_id |
物理硬盘槽位编号 |
– |
state |
RAID卡JBOD功能的使能情况 |
l on l off |
以上涉及的各个ID的查询方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 使能RAID卡的硬盘直通功能,并设置slot 7硬盘为直通盘。
domino:~# ./storcli64 /c0 set jbod=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
JBOD ON
----------------
domino:~# ./storcli64 /c0/e252/s7 set JBOD
Controller = 0
Status = Success
Description = Set Drive JBOD Succeeded.
命令功能
收集和清除RAID卡的日志。
命令格式
storcli64 /ccontroller_id show termlog
storcli64 /ccontroller_id delete termlog
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
查询RAID卡ID的查询方法请参见6.7.2.26 查询RAID卡/RAID组/物理硬盘信息。
使用指南
无
使用实例
# 收集RAID卡的日志。
[root@localhost idriver]# ./storcli64
/c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19 6:48:11: C0:TTY History buffer cleared
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
# 删除RAID卡的日志。
[root@localhost idriver]# ./storcli64
/c0 delete termlog
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------------------
Ctrl Method Result
----------------------------
0 Delete Termlog deleted
----------------------------
MSCC SmartRAID 3152-8i控制卡(以下简称3152-8i)提供2个12Gbit/s的mini SAS HD接口,支持PCIe 3.0接口,并支持最多8个phy。
3152-8i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。
3152-8i自带的Cache对标卡性能的提升有非常重要的作用,主要体现在:
l 在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用 Cache后,整个设备的写数据速度得到提高。
l 在读数据时,如果可以直接在Cache中命中的话,将减少磁盘寻道操作,降低响应时间,提升了数据读速度。
3152-8i安装在服务器的PCIe槽位上,结构如图7-1所示。
3152-8i的基本参数如表7-1所示。
特性 |
MSCC SmartRAID 3152-8i |
接口速率 (Gbit/s) |
12 |
支持的RAID组数量 |
64 |
单个RAID组支持的最大硬盘数 |
128 |
所有RAID组包含的最大硬盘数量 |
238 |
是否支持硬盘直通 |
是 |
硬盘直通模式支持的硬盘数量 |
238 |
支持的最大硬盘数 |
238 |
是否支持MaxCache(备注1) |
是 |
Cache读写比例是否可调 |
是 |
MaxCache支持的SSD最大个数 |
128 |
MaxCache最大容量 |
6.8TB |
MaxCache支持的RAID级别 |
0/1/10/5 |
MaxCache是否支持热备 |
否 |
是否支持SSD IO Bypass |
是 |
是否支持4K盘 |
是 |
支持的RAID级别 |
RAID 0/1/1ADM/10/10ADM/5/50/6/60 |
是否支持设置条带单元 |
是(可设为16KB/32KB/64KB/128KB/256KB/512KB/1024KB) |
是否支持电池掉电保护 |
否 |
是否支持超级电容掉电保护 |
是 |
是否支持全局热备份功能 |
是 |
是否支持局部热备份功能 |
是 |
是否支持紧急热备份功能 |
NA |
支持的热备盘个数 |
32(每个Array最多支持4个热备盘) |
是否支持RAID级别在线迁移 |
是 |
是否支持在线扩容 |
是 |
是否支持自动SMART扫描 |
是 |
是否支持Patrol Read |
是 |
是否支持一致性检查 |
是 |
是否支持Crypto加密 |
否 |
是否支持带外管理 |
否 |
备注1:MaxCache即SSD Cache,Microsemi将该功能定义为“MaxCache”。 |
RAID卡支持的各级别RAID的性能及硬盘利用率如表7-2。
RAID级别 |
可靠性 |
读性能 |
写性能 |
硬盘利用率 |
RAID 0 |
低 |
高 |
高 |
100% |
RAID 1 |
高 |
高 |
低 |
50% |
RAID 1ADM |
高 |
高 |
低 |
33.33% |
RAID 5 |
中 |
高 |
中 |
(N-1)/N |
RAID 6 |
中 |
高 |
中 |
(N-2)/N |
RAID 10 |
高 |
高 |
中 |
50% |
RAID 10ADM |
高 |
高 |
中 |
33.33% |
RAID 50 |
高 |
高 |
较高 |
(N-M)/N |
RAID 60 |
高 |
高 |
较高 |
(N-M*2)/N |
注:N为RAID成员盘的个数,M为RAID的子组数。 |
3152-8i最多支持238个硬盘,最多支持64个Array,每个Array最多支持64个LD(Logical Drive),整张RAID卡所有Array最多支持64个LD。
Array即通常所说的硬盘组,每个Array可以包括1个或多个LD。
3152-8i支持的RAID级别及对应的硬盘个数如表7-3所示。
RAID级别 |
支持硬盘数 |
允许坏盘数 |
RAID 0 |
1 ~ 128 |
0 |
RAID 1 |
2 |
1 |
RAID 1ADM |
3 |
2 |
RAID 5 |
3 ~ 128 |
1 |
RAID 6 |
4 ~ 128 |
2 |
RAID 10 |
4 ~ 128 (偶数) |
NPG数(每个NPG里最多只允许坏1个盘) |
RAID 10ADM |
6 ~ 128(3的倍数) |
NPG数 x 2(每个NPG里最多只允许坏2个盘) |
RAID 50 |
6 ~ 128 |
NPG数(每个NPG里最多只允许坏1个盘) |
RAID 60 |
8 ~ 128 |
NPG数 x 2(每个NPG里最多只允许坏2个盘) |
NPG数:NPG数的个数,例如RAID 50由两个RAID 5组成,则NPG数为2。
3152-8iRAID卡支持三种工作模式,具体如下:
l RAID模式:控制器下的逻辑盘会上报OS,但直通盘不会报送给OS。
l HBA模式:控制器的所有RAID功能都被禁用,控制器下所有硬盘都被视为直通盘。
l Mixed模式:RAID逻辑盘和直通盘都会报送给OS。
热备盘用于替代Array故障成员盘的硬盘,在成员盘故障时承载故障盘中的数据。
3152-8i支持创建最多32个热备盘,一个Array下最多支持创建4个热备盘,使Array在有一个或多个与热备盘同类型的成员盘故障的情况下,可以由热备盘替代,防止Array的数据丢失和状态进一步恶化。
3152-8i支持dedicated spare和auto replace spare两种类型的热备盘:
l dedicated spare:dedicated模式的热备盘会作为Array的固定热备盘。当Array中某个硬盘发生故障,dedicated模式的热备盘会替代损坏盘并利用其他成员盘和冗余数据重构,生成损坏盘的数据。更换新的硬盘之后,新加入的硬盘会利用其它成员盘和数据继续重构,恢复Array的状态。Array的状态恢复完成后,热备盘恢复原始状态。该模式下的热备盘可以手动与所有的Array进行关联,即作为全局热备盘。
l auto replace spare:Array中某个硬盘发生故障时,auto replace模式的热备盘会替代故障盘并利用其他成员盘和冗余数据重构,生成故障盘的数据。当更换新的硬盘之后,原始热备盘中的数据继续作为Array的成员盘被使用,而新更换的硬盘将作为新的“热备盘”。该模式下的热备盘只能作为某一个Array的热备盘,即局部热备盘,不能作全局热备盘。
机械盘与固态盘不能互相作为热备盘。
热插拔即带电插拔,用户不需要进行任何配置,就可以在不关闭系统、不切断电源的情况下取出和更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。
请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。
具备冗余功能的Array的成员盘故障之后,热备盘自动替换故障数据盘并开始同步。
当多个进程同时访问一个磁盘时,可能会出现磁盘冲突。大多数磁盘系统都对访问次数和数据传输率有限制。当达到这些限制时,后面需要访问磁盘的进程就需要等待,这时就是所谓的磁盘冲突。
条带化技术是一种自动将I/O负载均衡到多个物理磁盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同磁盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成磁盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。
影响条带化效果的因素有:
l 条带宽度:指同时可以并发读或写的条带数量。
这个数量等于Array中的物理硬盘数量。增加条带宽度,可以增加Array的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。
在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。
l 条带大小:指写在每块磁盘上的条带数据块的大小。
硬盘分条即把Array中每个成员盘的存储空间按照设置的条带单元大小进行分条,数据在写入时也会按照条带单元大小划分数据块。
3152-8i支持多种条带单元,包括16KB、32KB、64KB、128KB、256KB、512KB、1024KB,默认条带大小为256KB。
硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。
3152-8i可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在3152-8i下的硬盘作为安装盘;而不支持硬盘直通的RAID卡,在操作系统安装过程中,只能找到该RAID卡下已经配置好的虚拟磁盘作为安装盘。
直通模式下的硬盘发生故障时(通常指硬盘本身健康状态不佳),硬盘Fault指示灯会被点亮,同时BMC会对其进行告警。
3152-8i下挂载的硬盘支持“Erase Disk”,即安全擦除指定硬盘。Erase Disk格式化彻底、耗时长。
数据擦除过程中,不能执行关机,重启,插拔硬盘等操作,否则会导致硬盘被损坏。
擦除数据完成后,所有的硬盘数据会被清除。请谨慎执行该操作。
3152-8i支持的容量扩展方式有两种:
l 通过增加硬盘方式扩容:在已存在的Array中添加新硬盘,扩大Array容量。
l 通过增加可用空间方式扩容:在Array未占用成员硬盘全部容量时,可通过调整Array的可用空间,扩大Array容量。
该功能需要下载PMC官方发布的arcconf工具才可进行配置。arcconf工具的下载和安装方法请参见7.8.1 下载和安装ARCCONF工具。
3152-8i支持三种加速方法,分别为:
l maxCache:利用SSD盘组成的RAID组作为高速缓存,为由HDD盘组成的RAID组加速。
l Controller cache:利用控制器的DDR作为高速缓存,为RAID组进行加速。
l SSD I/O Bypass:该特性只适用于由SSD组成的RAID组,数据IO直通到RAID组,不经过RAID卡的Cache。
当LD的加速方法设置为“Controller Cache”,且读写比例未设置成0:100或100:0时,读Cache和写Cache同时被使用。
3152-8i支持数据Cache读写,极大提高了数据读写性能。
设置控制器LD的读写比例的方法请参见7.7.3.1 Modify Controller Settings。
当服务器进行大量写操作时,由于将数据写入高速缓存的速度大于数据写入硬盘的速度:
l 开启高速缓存可提升整机写性能,当服务器写压力减小或高速缓存将写满时,数据再由高速缓存写入硬盘。
l 开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。
为了提升整机的高读写性能和高速缓存中数据的安全,可为RAID卡配置超级电容。
服务器电源正常时,由服务器电源对高速缓存供电;服务器电源切断时,切换为超级电容对高速缓存供电。这样就可以保证在服务器意外掉电时,超级电容对高速缓存供电,确保数据安全;在服务器正常上电时,RAID卡对高速缓存供电,确保缓存正常使用。
硬盘包含2个指示灯,其状态说明如表7-4所示。
指示灯 |
颜色 |
说明 |
硬盘Fault指示灯 |
黄色 |
l 灭:表示硬盘运行正常。 l 黄色闪烁:表示硬盘处于被定位状态或RAID重构状态。 l 黄色常亮:表示硬盘故障或RAID组中的成员盘状态异常。 说明 l 在线情况下,当Fault指示灯常亮时,可首先通过getconfig命令查询RAID状态,确定是RAID组成员盘状态异常,还是硬盘故障。 l 直通模式下的硬盘发生故障时(通常指硬盘本身健康状态不佳),硬盘Fault指示灯会被点亮,同时BMC会对其进行告警。 |
硬盘Active指示灯 |
绿色 |
l 灭:表示硬盘不在位或硬盘故障。 l 绿色闪烁:表示硬盘处于读写状态或同步状态。 l 绿色常亮:表示硬盘处于非活动状态。 |
当包含RAID配置信息的硬盘插入服务器后,服务器在启动过程中识别到当前硬盘配置符合该外部配置要求时,自动导入外部配置。
BIOS中“Boot Type”设置为“UEFI Boot”模式时,打开的管理界面如下所述。
文档中描述的关于3152-8i的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“ARCCONF”命令行工具。
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
步骤 1 通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 2 重启服务器。
步骤 3 重启过程中,当出现如图7-2所示界面时,按“Delete”。
步骤 4 输入密码并按“Enter”。
进入Setup Utility界面。
BIOS的默认密码为“Password@_”。
步骤 5 按“→”切换到“Advanced”页签,如图7-3所示。
步骤 6 选择“MSCC SmartRAID 3152-8i”,按“Enter”。
图7-4 MSCC SmartRAID 3152-8i控制器主界面
参数 |
说明 |
Controller Information |
查看控制器相关的基本信息。 |
Configure Controller Settings |
设置控制器的相关属性。 |
Array Configuration |
创建与管理Array。 |
Disk Utilities |
查看与管理控制器的硬盘。 |
Set Bootable Device(s) for Legacy Boot Mode |
设置控制器在Legacy模式下的第一启动盘与第二启动盘。 |
Administration |
控制器的其他相关操作,包括更新Firmware,收集RAID卡日志,恢复RAID卡参数为出厂配置等。 |
----结束
操作场景
l 创建RAID组之前请先确认已将RAID卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见7.5.5 设置RAID卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 3152-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 各RAID级别所需的硬盘数请参见7.3.1 支持多种RAID级别。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见7.4.1 登录管理界面。
步骤 2 在图7-4界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 3 选择Create Array。
进入成员盘选择界面,如图7-5所示。
步骤 4 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l RAID 0支持的硬盘个数为1~128。
步骤 5 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图7-6所示。
步骤 6 选择要配置的Array级别“RAID0”,并选择“Proceed to next Form”。
进入Array属性配置界面,如图7-7所示,参数说明如表7-6所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit size |
LD的容量计算单位。 |
Parity Initialization Method |
设置校验初始化的方法。 l Default:在线进行后台校验初始化,选择该模式的LD会立即上报给OS,在后台进行校验初始化,对性能有一定程度的影响。 l Rapid:离线进行快速初始化,初始化完成后才会上报给OS。 说明 该选项只在创建RAID5/50/6/60的时候出现。 |
SSD Over Provisioning optimization |
设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。 l Disabled l Enabled 说明 只有当RAID组由SSD组成时,才能设置该属性。 |
Acceleration method |
设置LD所采用的加速方法。 l SSD I/O Bypass(只有当LD由SSD组成时,该选项有效) l Controller cache(同时使用读Cache和写Cache) l None(禁用加速,表示既不使用SSD I/O Bypass,也不使用Controller Cache,即无任何加速。) |
Submit Changes |
确认修改。 |
步骤 7 按照表7-6所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 8 (可选)创建多个LD。
当Array的容量小于最大值时,才可进行此操作。
1. 在图7-4界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图7-8所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。
步骤 9 检查配置结果。具体操作请参见7.5.1 查看Array属性。
步骤 10 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见7.5.7 设置物理硬盘Cache。
----结束
操作场景
l 创建RAID组之前请先确认已将RAID卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见7.5.5 设置RAID卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 3152-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 各RAID级别所需的硬盘数请参见7.3.1 支持多种RAID级别。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见7.4.1 登录管理界面。
步骤 2 在图7-4界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 3 选择Create Array。
进入成员盘选择界面,如图7-9所示。
步骤 4 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l RAID 1支持的硬盘个数为2。
步骤 5 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图7-10所示。
步骤 6 选择要配置的Array级别“RAID1”,并选择“Proceed to next Form”。
进入Array属性配置界面,如图7-11所示,参数说明如表7-7所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit size |
LD的容量计算单位。 |
Parity Initialization Method |
设置校验初始化的方法。 l Default:在线进行后台校验初始化,选择该模式的LD会立即上报给OS,在后台进行校验初始化,对性能有一定程度的影响。 l Rapid:离线进行快速初始化,初始化完成后才会上报给OS。 说明 该选项只在创建RAID5/50/6/60的时候出现。 |
SSD Over Provisioning optimization |
设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。 l Disabled l Enabled 说明 只有当RAID组由SSD组成时,才能设置该属性。 |
Acceleration method |
设置LD所采用的加速方法。 l SSD I/O Bypass(只有当LD由SSD组成时,该选项有效) l Controller cache(同时使用读Cache和写Cache) l None(禁用加速,表示既不使用SSD I/O Bypass,也不使用Controller Cache,即无任何加速。) |
Submit Changes |
确认修改。 |
步骤 7 按照表7-7所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 8 (可选)创建多个LD。
当Array的容量小于最大值时,才可进行此操作。
1. 在图7-4界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图7-12所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。
步骤 9 检查配置结果。具体操作请参见7.5.1 查看Array属性。
步骤 10 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见7.5.7 设置物理硬盘Cache。
----结束
操作场景
l 创建RAID组之前请先确认已将RAID卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见7.5.5 设置RAID卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 3152-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 各RAID级别所需的硬盘数请参见7.3.1 支持多种RAID级别。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见7.4.1 登录管理界面。
步骤 2 在图7-4界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 3 选择Create Array。
进入成员盘选择界面,如图7-13所示。
步骤 4 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l RAID 1ADM支持的硬盘个数为3。
步骤 5 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图7-14所示。
步骤 6 选择要配置的Array级别“RAID1(ADM)”,并选择“Proceed to next Form”。
进入Array属性配置界面,如图7-15所示,参数说明如表7-8所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit size |
LD的容量计算单位。 |
Parity Initialization Method |
设置校验初始化的方法。 l Default:在线进行后台校验初始化,选择该模式的LD会立即上报给OS,在后台进行校验初始化,对性能有一定程度的影响。 l Rapid:离线进行快速初始化,初始化完成后才会上报给OS。 说明 该选项只在创建RAID5/50/6/60的时候出现。 |
SSD Over Provisioning optimization |
设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。 l Disabled l Enabled 说明 只有当RAID组由SSD组成时,才能设置该属性。 |
Acceleration method |
设置LD所采用的加速方法。 l SSD I/O Bypass(只有当LD由SSD组成时,该选项有效) l Controller cache(同时使用读Cache和写Cache) l None(禁用加速,表示既不使用SSD I/O Bypass,也不使用Controller Cache,即无任何加速。) |
Submit Changes |
确认修改。 |
步骤 7 按照表7-8所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 8 (可选)创建多个LD。
当Array的容量小于最大值时,才可进行此操作。
1. 在图7-4界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图7-16所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。
步骤 9 检查配置结果。具体操作请参见7.5.1 查看Array属性。
步骤 10 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见7.5.7 设置物理硬盘Cache。
----结束
操作场景
l 创建RAID组之前请先确认已将RAID卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见7.5.5 设置RAID卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 3152-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 各RAID级别所需的硬盘数请参见7.3.1 支持多种RAID级别。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见7.4.1 登录管理界面。
步骤 2 在图7-4界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 3 选择Create Array。
进入成员盘选择界面,如图7-17所示。
步骤 4 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l RAID 10支持的硬盘个数为4~128(偶数)。
步骤 5 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图7-18所示。
步骤 6 选择要配置的Array级别“RAID1+0”,并选择“Proceed to next Form”。
进入Array属性配置界面,如图7-19所示,参数说明如表7-9所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit size |
LD的容量计算单位。 |
Parity Initialization Method |
设置校验初始化的方法。 l Default:在线进行后台校验初始化,选择该模式的LD会立即上报给OS,在后台进行校验初始化,对性能有一定程度的影响。 l Rapid:离线进行快速初始化,初始化完成后才会上报给OS。 说明 该选项只在创建RAID5/50/6/60的时候出现。 |
SSD Over Provisioning optimization |
设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。 l Disabled l Enabled 说明 只有当RAID组由SSD组成时,才能设置该属性。 |
Acceleration method |
设置LD所采用的加速方法。 l SSD I/O Bypass(只有当LD由SSD组成时,该选项有效) l Controller cache(同时使用读Cache和写Cache) l None(禁用加速,表示既不使用SSD I/O Bypass,也不使用Controller Cache,即无任何加速。) |
Submit Changes |
确认修改。 |
步骤 7 按照表7-9所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 8 (可选)创建多个LD。
当Array的容量小于最大值时,才可进行此操作。
1. 在图7-4界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图7-20所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。
步骤 9 检查配置结果。具体操作请参见7.5.1 查看Array属性。
步骤 10 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见7.5.7 设置物理硬盘Cache。
----结束
操作场景
l 创建RAID组之前请先确认已将RAID卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见7.5.5 设置RAID卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 3152-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 各RAID级别所需的硬盘数请参见7.3.1 支持多种RAID级别。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见7.4.1 登录管理界面。
步骤 2 在图7-4界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 3 选择Create Array。
进入成员盘选择界面,如图7-21所示。
步骤 4 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l RAID 10ADM支持的硬盘个数为6~128。
步骤 5 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图7-22所示。
步骤 6 选择要配置的Array级别“RAID10(ADM)”,并选择“Proceed to next Form”。
进入Array属性配置界面,如图7-23所示,参数说明如表7-10所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit size |
LD的容量计算单位。 |
Parity Initialization Method |
设置校验初始化的方法。 l Default:在线进行后台校验初始化,选择该模式的LD会立即上报给OS,在后台进行校验初始化,对性能有一定程度的影响。 l Rapid:离线进行快速初始化,初始化完成后才会上报给OS。 说明 该选项只在创建RAID5/50/6/60的时候出现。 |
SSD Over Provisioning optimization |
设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。 l Disabled l Enabled 说明 只有当RAID组由SSD组成时,才能设置该属性。 |
Acceleration method |
设置LD所采用的加速方法。 l SSD I/O Bypass(只有当LD由SSD组成时,该选项有效) l Controller cache(同时使用读Cache和写Cache) l None(禁用加速,表示既不使用SSD I/O Bypass,也不使用Controller Cache,即无任何加速。) |
Submit Changes |
确认修改。 |
步骤 7 按照表7-10所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 8 (可选)创建多个LD。
当Array的容量小于最大值时,才可进行此操作。
1. 在图7-4界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图7-24所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。
步骤 9 检查配置结果。具体操作请参见7.5.1 查看Array属性。
步骤 10 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见7.5.7 设置物理硬盘Cache。
----结束
操作场景
l 创建RAID组之前请先确认已将RAID卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见7.5.5 设置RAID卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 3152-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 各RAID级别所需的硬盘数请参见7.3.1 支持多种RAID级别。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见7.4.1 登录管理界面。
步骤 2 在图7-4界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 3 选择Create Array。
进入成员盘选择界面,如图7-25所示。
步骤 4 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l RAID 5支持的硬盘个数为3~128。
步骤 5 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图7-26所示。
步骤 6 选择要配置的Array级别“RAID5”,并选择“Proceed to next Form”。
进入Array属性配置界面,如图7-27所示,参数说明如表7-11所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit size |
LD的容量计算单位。 |
Parity Initialization Method |
设置校验初始化的方法。 l Default:在线进行后台校验初始化,选择该模式的LD会立即上报给OS,在后台进行校验初始化,对性能有一定程度的影响。 l Rapid:离线进行快速初始化,初始化完成后才会上报给OS。 说明 该选项只在创建RAID5/50/6/60的时候出现。 |
SSD Over Provisioning optimization |
设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。 l Disabled l Enabled 说明 只有当RAID组由SSD组成时,才能设置该属性。 |
Acceleration method |
设置LD所采用的加速方法。 l SSD I/O Bypass(只有当LD由SSD组成时,该选项有效) l Controller cache(同时使用读Cache和写Cache) l None(禁用加速,表示既不使用SSD I/O Bypass,也不使用Controller Cache,即无任何加速。) |
Submit Changes |
确认修改。 |
步骤 7 按照表7-11所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 8 (可选)创建多个LD。
当Array的容量小于最大值时,才可进行此操作。
1. 在图7-4界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图7-28所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。
步骤 9 检查配置结果。具体操作请参见7.5.1 查看Array属性。
步骤 10 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见7.5.7 设置物理硬盘Cache。
----结束
操作场景
l 创建RAID组之前请先确认已将RAID卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见7.5.5 设置RAID卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 3152-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 各RAID级别所需的硬盘数请参见7.3.1 支持多种RAID级别。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见7.4.1 登录管理界面。
步骤 2 在图7-4界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 3 选择Create Array。
进入成员盘选择界面,如图7-29所示。
步骤 4 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l RAID 50支持的硬盘个数为6~128。
步骤 5 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图7-30所示。
步骤 6 选择要配置的Array级别“RAID50”,并选择“Proceed to next Form”。
进入NPG设置界面,如图7-31所示。
“NPG”指LD包含的子组数,如设置为“2”时表示RAID 50包含两个RAID 5。
步骤 7 设置RAID 50的NPG个数,选择“Proceed to next Form”并按“Enter”。
进入Array属性配置界面,如图7-32所示,参数说明如表7-12所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit size |
LD的容量计算单位。 |
Parity Initialization Method |
设置校验初始化的方法。 l Default:在线进行后台校验初始化,选择该模式的LD会立即上报给OS,在后台进行校验初始化,对性能有一定程度的影响。 l Rapid:离线进行快速初始化,初始化完成后才会上报给OS。 说明 该选项只在创建RAID5/50/6/60的时候出现。 |
SSD Over Provisioning optimization |
设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。 l Disabled l Enabled 说明 只有当RAID组由SSD组成时,才能设置该属性。 |
Acceleration method |
设置LD所采用的加速方法。 l SSD I/O Bypass(只有当LD由SSD组成时,该选项有效) l Controller cache(同时使用读Cache和写Cache) l None(禁用加速,表示既不使用SSD I/O Bypass,也不使用Controller Cache,即无任何加速。) |
Submit Changes |
确认修改。 |
步骤 8 按照表7-12所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 9 (可选)创建多个LD。
当Array的容量小于最大值时,才可进行此操作。
1. 在图7-4界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图7-33所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。
步骤 10 检查配置结果。具体操作请参见7.5.1 查看Array属性。
步骤 11 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见7.5.7 设置物理硬盘Cache。
----结束
操作场景
l 创建RAID组之前请先确认已将RAID卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见7.5.5 设置RAID卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 3152-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 各RAID级别所需的硬盘数请参见7.3.1 支持多种RAID级别。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见7.4.1 登录管理界面。
步骤 2 在图7-4界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 3 选择Create Array。
进入成员盘选择界面,如图7-34所示。
步骤 4 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l RAID 6支持的硬盘个数为4~128。
步骤 5 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图7-35所示。
步骤 6 选择要配置的Array级别“RAID6(ADG)”,并选择“Proceed to next Form”。
进入Array属性配置界面,如图7-36所示,参数说明如表7-13所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit size |
LD的容量计算单位。 |
Parity Initialization Method |
设置校验初始化的方法。 l Default:在线进行后台校验初始化,选择该模式的LD会立即上报给OS,在后台进行校验初始化,对性能有一定程度的影响。 l Rapid:离线进行快速初始化,初始化完成后才会上报给OS。 说明 该选项只在创建RAID5/50/6/60的时候出现。 |
SSD Over Provisioning optimization |
设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。 l Disabled l Enabled 说明 只有当RAID组由SSD组成时,才能设置该属性。 |
Acceleration method |
设置LD所采用的加速方法。 l SSD I/O Bypass(只有当LD由SSD组成时,该选项有效) l Controller cache(同时使用读Cache和写Cache) l None(禁用加速,表示既不使用SSD I/O Bypass,也不使用Controller Cache,即无任何加速。) |
Submit Changes |
确认修改。 |
步骤 7 按照表7-13所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 8 (可选)创建多个LD。
当Array的容量小于最大值时,才可进行此操作。
1. 在图7-4界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图7-37所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。
步骤 9 检查配置结果。具体操作请参见7.5.1 查看Array属性。
步骤 10 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见7.5.7 设置物理硬盘Cache。
----结束
操作场景
l 创建RAID组之前请先确认已将RAID卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见7.5.5 设置RAID卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 3152-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 各RAID级别所需的硬盘数请参见7.3.1 支持多种RAID级别。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见7.4.1 登录管理界面。
步骤 2 在图7-4界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 3 选择Create Array。
进入成员盘选择界面,如图7-38所示。
步骤 4 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l RAID 60支持的硬盘个数为8~128。
步骤 5 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图7-39所示。
步骤 6 选择要配置的Array级别“RAID60”,并选择“Proceed to next Form”。
进入NPG设置界面,如图7-40所示。
“NPG”指LD包含的子组数,如设置为“2”时表示RAID 60包含两个RAID 6。
步骤 7 设置RAID 60的NPG个数,选择“Proceed to next Form”并按“Enter”。
进入Array属性配置界面,如图7-41所示,参数说明如表7-14所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit size |
LD的容量计算单位。 |
Parity Initialization Method |
设置校验初始化的方法。 l Default:在线进行后台校验初始化,选择该模式的LD会立即上报给OS,在后台进行校验初始化,对性能有一定程度的影响。 l Rapid:离线进行快速初始化,初始化完成后才会上报给OS。 说明 该选项只在创建RAID5/50/6/60的时候出现。 |
SSD Over Provisioning optimization |
设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。 l Disabled l Enabled 说明 只有当RAID组由SSD组成时,才能设置该属性。 |
Acceleration method |
设置LD所采用的加速方法。 l SSD I/O Bypass(只有当LD由SSD组成时,该选项有效) l Controller cache(同时使用读Cache和写Cache) l None(禁用加速,表示既不使用SSD I/O Bypass,也不使用Controller Cache,即无任何加速。) |
Submit Changes |
确认修改。 |
步骤 8 按照表7-14所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 9 (可选)创建多个LD。
当Array的容量小于最大值时,才可进行此操作。
1. 在图7-4界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图7-42所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。
步骤 10 检查配置结果。具体操作请参见7.5.1 查看Array属性。
步骤 11 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见7.5.7 设置物理硬盘Cache。
----结束
操作步骤
步骤 1 在图7-4界面中,按照“Array Configuration>Manage Arrays”的顺序进入
进入“Manage Arrays”界面,如图7-43所示。
步骤 2 选择要进行查看的Array,并按“Enter”。
进入Array操作界面,如图7-44所示,参数说明如表7-15所示。
参数 |
说明 |
Array Type |
Array的类型。 |
List Logical Drives |
逻辑盘相关的接口,可查看、修改逻辑盘的属性,删除逻辑盘等。 |
Create Logical Drive |
创建逻辑盘。 |
IO Bypass Settings |
设置SSD在不使用Controller Cache时的逻辑盘加速方法。 说明 l 该特性即为7.3.10 读写高速缓存所述的“SSD I/O Bypass”。 l SSD组成的RAID组在使能Controller cache的情况下无法使能IO Bypass功能。如需使能IO Bypass,需要先禁用RAID组的Controller Cache,再使能IO Bypass。 |
Manage Spare Drives |
热备盘相关的接口,可创建,删除热备盘等。 |
Identify Device |
点亮/熄灭硬盘locate灯。 |
Delete Array |
删除Array。 |
----结束
查看LD的属性
步骤 1 在图7-44中选择“List Logical Drive”并按“Enter”。
进入LD列表。
步骤 2 选择要进行查看的LD并按“Enter”。
进入LD相关操作界面,如图7-45所示,参数说明如表7-16所示。
参数 |
说明 |
Logical Drive Details |
查看LD的相关属性。 |
Edit Logical Drive |
修改LD的相关属性。 |
Delete Logical Drive |
删除LD。 |
步骤 3 选择“Logical Drive Details”并按“Enter”。
显示LD的相关属性,如图7-46所示,界面参数如表7-17所示。
参数 |
说明 |
Status |
当前LD的状态。 |
Size |
整个LD的容量大小。 |
RAID level |
当前LD的RAID级别。 |
Legacy disk geometry(C/H/S) |
当前LD所处的磁盘几何位置。 |
Strip Size |
整个LD的单个NPG条带大小。 说明 “NPG”指LD包含的子组数,如RAID 50包含两个RAID 5时,则RAID 50的NPG为2。 |
Full Stripe Size |
整个LD的分条大小。 |
Number of Parity Groups(NPG) |
整个LD的NPG数量。 说明 当LD的级别为“RAID 50”或“RAID 60”时,显示该参数。 |
Logical Drive Label |
LD的自定义标签。 |
Acceleration Method |
LD的加速方法。 |
Logical Drive Members |
LD的物理成员盘。 |
----结束
操作场景
对服务器的硬盘进行Array分组后,一般会配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l 3152-8i支持dedicated spare和auto replace spare两种类型的热备盘,具体介绍请参见7.3.3 硬盘热备份。
l 只有当“Spare Activation Mode”(热备盘的激活模式)设置为“Predictive Spare Activation”时,RAID0才支持配置热备盘。具体方法请参见7.7.3.1 Modify Controller Settings。
必备事项
前提条件
l 服务器存在空闲硬盘。
l 已登录管理界面,具体操作请参见7.4.1 登录管理界面。
数据
该操作无需准备数据。
操作步骤
步骤 1 在图7-4界面中,按照“Array Configuration>Manage Arrays”的顺序进入
进入“Manage Arrays”界面,如图7-47所示。
步骤 2 选择要创建热备盘的Array并按“Enter”。
步骤 3 选择“Manage Spare Drives”并按“Enter”。
进入热备盘类型选择界面,如图7-48所示,参数说明如表7-18所示。
参数 |
说明 |
Assign Dedicated Spare |
设置硬盘为dedicated spare drive。 dedicated模式的热备盘会作为Array的固定热备盘。当Array中某个硬盘发生故障,dedicated模式的热备盘会替代损坏盘并利用其他成员盘和冗余数据重构,生成损坏盘的数据。新加入的硬盘会利用其它成员盘和数据继续重构,恢复Array的状态。Array的状态恢复完成后,热备盘恢复原始状态。 该模式下的热备盘可以手动与所有的Array进行关联,即作为全局热备盘。 |
Assign Auto Replace Spare |
设置硬盘为auto replace drives。 该模式下,Array中某个硬盘发生故障时,auto replace模式的热备盘会替代故障盘并利用其他成员盘和冗余数据重构,生成故障盘的数据。当更换新的硬盘之后,原始热备盘中的数据继续作为Array的成员盘被使用,而新更换的硬盘将作为新的“热备盘”。 该模式下的热备盘只能作为某一个Array的热备盘,即局部热备盘,不能作全局热备盘。 |
步骤 4 按照表7-18所述,选择要设置的热备盘类型,并按“Enter”。
进入硬盘选择界面。
步骤 5 选择要设置的硬盘并按“Enter”。
没有加入Array且与Array成员盘类型一致的硬盘可设置为热备盘。建议使用与Array的成员盘型号、容量一致的硬盘作为热备盘。
步骤 6 选择“Assign Dedicated Spare”或“Assign Auto Replace Spare”并按“Enter”。
提示操作成功。
----结束
操作场景
当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。
操作步骤
步骤 1 在图7-4界面中,按照“Array Configuration>Manage Arrays”的顺序进入
进入“Manage Arrays”界面,如图7-49所示。
步骤 2 选择要进行操作的Array并按“Enter”。
步骤 3 选择“Manage Spare Drives”并按“Enter”。
进入“Manage Spare Drives”界面,如图7-50所示。
步骤 4 选择“Delete Spare Drives”并按“Enter”。
进入硬盘选择界面,如图7-51所示。
步骤 5 选择要删除的热备盘并按“Enter”。
步骤 6 选择“Delete Spare Drives”并按“Enter”。
提示操作成功。
----结束
操作场景
当服务器不需要Array或重新配置Array时,要先删除当前Array配置来释放硬盘。
必备事项
前提条件
l 已创建Array。
l 已登录管理界面,具体操作请参见7.4.1 登录管理界面。
数据
待删除Array中的数据已备份。
操作步骤
步骤 1 在图7-4界面中,按照“Array Configuration>Manage Arrays”的顺序进入“Manage Arrays”界面,如图7-52所示。
步骤 2 选择要删除的Array并按“Enter”。
步骤 3 选择“Delete Array”并按“Enter”。
进入操作确认界面。
步骤 4 按“Enter”。
提示操作成功。
----结束
l 当背板类型为直通背板时,可通过本章节的指导,分别设置Connector 0和Connector 1的工作模式,也可通过设置“Configure Controller Port Mode”参数,将所有Connector的工作模式同时设置为同一模式。具体操作请参见7.7.3.7 Configure Controller Port Mode。
l 当背板类型为Expander时,只能通过设置“Configure Controller Port Mode”参数,将RAID卡的工作模式同时设置为同一模式。具体操作请参见7.7.3.7 Configure Controller Port Mode。
操作步骤
步骤 1 进入“Modify Controller Settings”界面。
1. 在图7-4界面中,按照“Configure Controller Settings>Modify Controller Settings”的顺序进入“Modify Controller Settings”界面,如图7-53所示。
图7-53 “Modify Controller Settings”界面
步骤 2 设置Connector 0的工作模式。
1. 选择“Port CN0 Mode”并按“Enter”。
弹出工作模式选择菜单。
3152-8iRAID卡支持三种工作模式,分别为:
l RAID:控制器所有的RAID功能都被启用,但直通盘不会报送给OS。
l Mixed:RAID逻辑盘和直通盘都会报送给OS。
l HBA:controller所有的RAID功能都被禁用,控制器下所有硬盘均被视为直通盘。
2. 根据实际需要选择要设置的工作模式,并按“Enter”。
步骤 3 设置Connector 1的工作模式。
1. 选择“Port CN1 Mode”并按“Enter”。
2. 根据实际需要选择要设置的工作模式,并按“Enter”。
两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。
步骤 4 选择“Submit Changes”并按“Enter”。
提示操作成功。
----结束
l maxcache支持的RAID级别为RAID 0/1/10/5。
l 创建之前请确认服务器已存在由HDD盘组成的RAID组。
l 创建之前请确认RAID卡已配置超级电容且超级电容状态正常。查看超级电容状态的方法请参见7.7.3.4 Backup Power Source。
l 加入到maxCache Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 必须使用同类型同规格的硬盘创建maxCache Array。
l 各RAID级别所需的硬盘数请参见7.3.1 支持多种RAID级别。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见7.4.1 登录管理界面。
步骤 2 在图7-4界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 3 选择Create MaxCache Array。
进入成员盘选择界面,如图7-54所示。
步骤 4 选中硬盘后,按“Enter”键,将硬盘加入Array。
硬盘状态为“×”时表示硬盘被选中。
步骤 5 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图7-55所示。
步骤 6 选择要配置的Array级别,并选择“Proceed to next Form”。
进入Array属性配置界面,如图7-56所示,参数说明如表7-19所示。
参数 |
说明 |
Size |
整个LD的容量大小。 说明 创建Array时,会默认为Array创建一个LD。此处指创建的LD容量大小。 |
Unit size |
LD的容量计算单位。 l TiB l GiB l MiB |
Cache Write Policy |
LD的Cache写策略。 l Write-Back:当SSD组成的maxCache LD收到所有传输数据后,将给主机返回数据传输完成信号。 l Write-Through:当硬盘子系统接收到所有传输数据后,RAID卡将给主机返回数据传输完成信号。 说明 只有Cache的写策略设置为“Write-Back”时,maxCache才能为Array加速。 |
Cache Line Size |
LD的条带大小。 |
Submit Changes |
确认修改。 |
步骤 7 按照表7-19所述配置Array属性,选择“Submit Changes”并按“Enter”。
进入Array选择界面,如图7-57所示。
此处显示服务器当前存在的所有由HDD组成的Array。
步骤 8 选择maxCache Array加速的目标Array,并按“Enter”。
提示操作成功,如图7-58所示。
步骤 9 按“Enter”返回主菜单。
----结束
步骤 1 在图7-4界面中,按照“Array Configuration>Manage Arrays”的顺序进入“Manage Arrays”界面,如图7-59所示。
步骤 2 选择要修改属性的maxCache Array,并按“Enter”。
步骤 3 选择“List Logical Drives”,并按“Enter”。
进入LD选择界面,如图7-60所示。
步骤 4 选择要修改属性的maxCache的LD,并按“Enter”。
进入LD相关操作界面,如图7-61所示。
步骤 5 选择“Edit Logical Drive”,并按“Enter”。
进入“Edit Logical Drive”界面。在此界面可以修改maxCache的cache写策略。
步骤 6 选择“Modify Caching Write Policy”,并按“Enter”。
弹出可设置的写策略菜单。
步骤 7 选择要设置的写策略,并按“Enter”。
步骤 8 选择“Submit Changes”,并按“Enter”。
提示操作成功。
----结束
当maxCache Array的“Cache Write Policy”设置为“Write-Back”时,maxCache Array无法进行删除。需要把maxCache Array的“Cache Write Policy”修改为“Write-Through”后,才可删除maxCache Array。
步骤 1 在图7-4界面中,按照“Array Configuration>Manage Arrays”的顺序进入“Manage Arrays”界面,如图7-62所示。
步骤 2 选择要删除的maxCache Array,并按“Enter”。
步骤 3 选择“List Logical Drives”,并按“Enter”。
进入LD选择界面,如图7-63所示。
步骤 4 选择要删除maxCache的LD,并按“Enter”。
进入LD相关操作界面,如图7-64所示。
步骤 5 选择“Delete maxCache”,并按“Enter”。
弹出操作确认框。
步骤 6 按“Enter”。
----结束
操作步骤
步骤 1 在图7-4界面中,按照“Configure Controller Settings”>“Modify Controller Settings”>的顺序进入“Modify Controller Settings”界面,如图7-65所示,参数说明如表7-20所示。
图7-65 Modify Controller Settings
参数 |
说明 |
Transformation Priority |
设置Array扩展、逻辑盘扩展、逻辑盘迁移、Array收缩/迁移等操作的优先级,分为High/Medium/Low三个选项。 说明 该选项设置为“high”时,会抢占IO资源,影响读写IO性能,建议用户保持默认取值。 |
Rebuild Priority |
设置逻辑盘重构的优先级,分为Low/Medium/Medium High/High四个选项。 |
Surface Scan Analysis Priority |
设置两次硬盘表面扫描的时间间隔,硬盘表面扫描主要是检查硬盘健康状态。 可选项为0~31,默认值为3,数字表示controller在下一次surface scan analysis之前的延迟时间,单位为秒。0表示禁用硬盘表面扫描功能。 |
Current Parallel Surface Scan Count |
设置同时启动硬盘表面扫描进程的数量,取值范围为1~16,默认值为1。设置为1时表示禁用硬盘表面扫描功能。 |
Controller Cache |
设置是否使用控制器缓存 Enabled:使用控制器缓存 Disabled:不使用控制器缓存 |
Cache Ratio(Read) |
设置raid卡的cache读写比,通过设置Read的比例,余下的即为Write比例。可填数值为0~100,递增单位为5。 当有RAID组存在时,出现该参数。 设置范围:0-100 |
Spare Activation Mode |
设置热备盘的激活模式,可选模式有: l Failure Spare Activation:当硬盘出现故障时才触发热备盘重构。 l Predictive Spare Activation:当硬盘出现预失效就触发热备盘重构。 默认取值为:Failure Spare Activation。 |
Unconfigured Physical Drive Write Cache State |
设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
HBA Physical Drive Write Cache State |
设置HBA模式下硬盘的写Cache状态 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
Configured Physical Drive Write Cache State |
设置RAID/Mixed模式下RAID组成员盘的写Cache状态。 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
Port CN0 Mode |
设置Connector 0端口的模式,有以下三种模式: l RAID:控制器所有的RAID功能都被启用,但直通盘不会报送给OS。 l Mixed:RAID逻辑盘和直通盘都会报送给OS。 l HBA:controller所有的RAID功能都被禁用,控制器下所有硬盘被视为直通盘。 说明 两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。 |
Port CN1 Mode |
设置Connector 1端口的模式,有以下三种模式: l RAID:控制器所有的RAID功能都被启用,但直通盘不会报送给OS。 l Mixed:RAID逻辑盘和直通盘都会报送给OS。 l HBA:controller所有的RAID功能都被禁用,控制器下所有硬盘均被视为直通盘。 说明 两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。 |
Submit Changes |
确认修改。 |
l 如果要设置RAID/Mixed模式下RAID组成员盘的写Cache状态,请执行步骤2。
l 如果要设置HBA模式下硬盘的写Cache状态,请执行步骤3。
l 如果要设置RAID/Mixed模式下非RAID组成员盘的写Cache状态,请执行步骤4。
步骤 2 设置RAID/Mixed模式下RAID组成员盘的写Cache状态。
1. 选择“Unconfigured Physical Drive Write Cache State”并按“Enter”。
2. 参考表7-20的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。
3. 选择“Submit Changes”并按“Enter”。
提示操作成功。
1. 选择“HBA Physical Drive Write Cache State”并按“Enter”。
2. 参考表7-20的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。
3. 选择“Submit Changes”并按“Enter”。
提示操作成功。
步骤 4 设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。
1. 选择“Configured Physical Drive Write Cache State”并按“Enter”。
2. 参考表7-20的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。
3. 选择“Submit Changes”并按“Enter”。
提示操作成功。
----结束
介绍了硬盘故障、RAID卡故障、电池/电容故障的常用处理方法。更多故障案例请联系技术支持获取。
问题描述
当服务器出现如下现象时,说明硬盘故障。
l 硬盘Fault指示灯点亮。
l 硬盘指示灯不亮。
l 服务器上报硬盘故障告警。
直通模式下的硬盘发生故障时(通常指硬盘本身健康状态不佳),硬盘Fault指示灯会被点亮,同时BMC会对其进行告警。
处理方法
l 更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位。
l 更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。
步骤 1 拔掉故障硬盘。
步骤 2 判断硬盘故障后,数据是否可恢复。
l 若RAID组为RAID 0,则数据不可恢复。直接安装新硬盘,重新配置RAID,操作完成。
l 若RAID组存在热备盘,则热备盘自动补充坏盘,进入rebuild状态同步数据。
l 若RAID组为冗余RAID但不存在热备盘,则需要安装新硬盘进行数据恢复。
步骤 3 插入新硬盘。
l 若插入的硬盘无数据,则根据原RAID情况有如下工作方式:
− 若原RAID组存在热备盘,热备盘数据自动拷贝至新插入的硬盘中。原热备盘恢复热备状态,操作完成。
− 若原RAID组为冗余RAID且不存在热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成。
l 若插入的硬盘存在RAID信息,请执行步骤4。
步骤 5 手动重构RAID。
----结束
问题描述
当服务器出现如下现象时,说明RAID控制卡故障。
l 数据无法写入RAID控制卡控制的硬盘。
l 服务器上报RAID控制卡故障告警。
处理方法
步骤 1 登录BMC Web界面查看告警信息。
步骤 2 根据告警信息,参考BMC告警处理手册处理。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤3
步骤 4 联系技术支持处理。
----结束
问题描述
当RAID卡电容故障时,会导致Cache不可用,从而降低读写速度。
处理方法
步骤 1 进入OS,查询设备信息。具体操作请参见7.8.2.1 查询RAID卡的基本信息。
步骤 2 查看回显信息中的“Bettery Power Status”信息,如所图7-66所示,根据电容状态进行不同的操作。
l Failed:电容故障,请更换电容。
l Ok:表示电容充电完成,状态正常,
l Not Battery charged:表示电容不在位,请安装电容。
l No fully charged:表示电容正在充电,请等待15min后操作RAID卡。
步骤 3 如果仍然存在异常,请联系技术支持处理。
----结束
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
步骤 1 通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 2 重启服务器。
步骤 3 重启过程中,当出现如图7-67所示界面时,按“Delete”。
步骤 4 输入密码并按“Enter”。
进入Setup Utility界面。
BIOS的默认密码为“Password@_”。
步骤 5 按“→”切换到“Advanced”页签,如图7-68所示。
步骤 6 选择“MSCC SmartRAID 3152-8i”,按“Enter”。
图7-69 MSCC SmartRAID 3152-8i控制器主界面
参数 |
说明 |
Controller Information |
查看控制器相关的基本信息。 |
Configure Controller Settings |
设置控制器的相关属性。 |
Array Configuration |
创建与管理Array。 |
Disk Utilities |
查看与管理控制器的硬盘。 |
Set Bootable Device(s) for Legacy Boot Mode |
设置控制器在Legacy模式下的第一启动盘与第二启动盘。 |
Administration |
控制器的其他相关操作,包括更新Firmware,收集RAID卡日志,恢复RAID卡参数为出厂配置等。 |
----结束
在“Controller Information”界面中,可以查看控制器相关的基本信息。
界面介绍
在如图7-4所示的主界面中选择“Controller Information”,打开“Controller Information”界面,如图7-70所示,参数说明如表7-22所示。
图7-70 “Controller Information”界面
参数 |
说明 |
Controller |
Raid卡的名称。 |
Device Id |
设备编号。 |
PCI Address |
BIOS分配给Raid卡的PCI总线地址。 |
Hardware Revision |
硬件修订版本。 |
Serial Number |
RAID卡序列号。 |
WWID |
world wide name,Raid卡的唯一标识号。 |
Firmware version |
Firmware的版本号。 |
Firmware release data |
Firmware的发布日期。 |
UEFI Driver version |
UEFI驱动版本号。 |
UEFI Driver release date |
UEFI驱动版本发布日期。 |
Temperature |
Raid卡当前温度,耐受温度上限为105度,超过80度,即为不正常。 |
Controller Memory Module Size |
Raid卡的cache大小。 |
Controller Mode |
Raid卡的当前的使用模式,有RAID/Mixed/HBA三种模式。 l RAID模式:控制器下的LD会上报OS,但直通盘不会报送给OS。 l HBA模式:控制器的所有RAID功能都被禁用,控制器下所有硬盘都被视为直通盘。 l Mixed模式:RAID逻辑盘和直通盘都会报送给OS。 |
Supported Mode |
RAID卡Port口的支持模式。 Port CN0:RAID HBA Mixed Port CN1:RAID HBA Mixed |
在“Configure Controller Settings”界面中,可以设置控制器的相关属性。
界面介绍
在如图7-4所示的配置工具主界面中选择“Configure Controller Settings”,打开“Configure Controller Settings”界面,如图7-71所示,参数说明如表7-23所示。
图7-71 Configure Controller Settings
参数 |
说明 |
Modify Controller Settings |
修改控制器的相关属性。 |
Advanced Controller Settings |
修改控制器的高级属性。 |
Clear Configuration |
清除控制器当前所有的Array与RAID组配置。 |
Backup Power Source |
超级电容的状态。 |
Manage Power Settings |
能耗设置。 |
BMC Settings |
BMC相关的设置。 |
Configure Controller Port Mode |
设置Raid卡的使用模式。 |
界面说明
“Modify Controller Settings”界面如图7-72所示,参数说明如表7-24所示。
图7-72 Modify Controller Settings
参数 |
说明 |
Transformation Priority |
设置Array扩展、逻辑盘扩展、逻辑盘迁移、Array收缩/迁移等操作的优先级,分为High/Medium/Low三个选项。 说明 该选项设置为“high”时,会抢占IO资源,影响读写IO性能,建议用户保持默认取值。 |
Rebuild Priority |
设置逻辑盘重构的优先级,分为Low/Medium/Medium High/High四个选项。 |
Surface Scan Analysis Priority |
设置两次硬盘表面扫描的时间间隔,硬盘表面扫描主要是检查硬盘健康状态。 可选项为0~31,默认值为3,数字表示controller在下一次surface scan analysis之前的延迟时间,单位为秒。0表示禁用硬盘表面扫描功能。 |
Current Parallel Surface Scan Count |
设置同时启动硬盘表面扫描进程的数量,取值范围为1~16,默认值为1。设置为1时表示禁用硬盘表面扫描功能。 |
Spare Activation Mode |
设置热备盘的激活模式,可选模式有: l Failure Spare Activation:当硬盘出现故障时才触发热备盘重构。 l Predictive Spare Activation:当硬盘出现预失效就触发热备盘重构。 默认取值为:Failure Spare Activation。 |
Unconfigured Physical Drive Write Cache State |
设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
HBA Physical Drive Write Cache State |
设置HBA模式下硬盘的写Cache状态 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
Configured Physical Drive Write Cache State |
设置RAID/Mixed模式下RAID组成员盘的写Cache状态。 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
Port CN0 Mode |
设置Connector 0端口的模式,有以下三种模式: l RAID:控制器所有的RAID功能都被启用,但直通盘不会报送给OS。 l Mixed:RAID逻辑盘和直通盘都会报送给OS。 l HBA:controller所有的RAID功能都被禁用,控制器下所有硬盘均被视为直通盘。 说明 l 当背板类型为直通背板时,才会显示该参数。 l 两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。 |
Port CN1 Mode |
设置Connector 1端口的模式,有以下三种模式: l RAID:控制器所有的RAID功能都被启用,但直通盘不会报送给OS。 l Mixed:RAID逻辑盘和直通盘都会报送给OS。 l HBA:controller所有的RAID功能都被禁用,控制器下所有硬盘均被视为直通盘。 说明 l 当背板类型为直通背板时,才会显示该参数。 l 两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。 |
Submit Changes |
确认修改。 |
当“Surface Scan Analysis priority”选项设置为0或“Current Parallel Surface Scan Count”选项设置为1时,硬盘表面扫描功能(Surface Scan)会被禁用。
界面说明
“Advanced Controller Settings”界面如图7-73所示,参数说明如表7-25所示。
图7-73 Advanced Controller Settings
参数 |
说明 |
Degraded Mode Performance Optimization |
对于降格的RAID5逻辑驱动器,启用此设置将指示控制器通过缓冲物理驱动器请求,提高大规模读请求的性能;禁用此设置将强制控制器从同一驱动器中多次读取数据。 |
Physical Drive Request Elevator Sort |
设置驱动器的写入电梯排序算法的行为。这种调度优化将I/O请求按优先级排序,使磁盘取数臂和磁头运动继续沿同一方向进行。启用电梯排序功能将优化寻道时间;禁用电梯排序功能将增加吞吐量。 |
RAID6/60 Alternate Inconsistent Repair Policy |
若控制器检测到奇偶校验信息与硬盘数据不匹配,会设置RAID5卡的表层分析不一致修复策略。禁用该修复策略将指示控制器更新奇偶校验信息,保持数据不变;启用该修复策略将指示控制器根据奇偶校验信息更新驱动器上的数据。 |
Maximum Drive Request Queue Depth |
设置控制器的队列深度,有效取值自动设置为2,4,8,16和32。 |
Monitor and Performance Analysis Delay |
以分钟为单位,设置控制器的监控和性能分析延迟参数。默认参数值为60分钟。若将该值设置为0,将禁用监控和性能分析功能。 |
HDD Flexible Latency Optimization |
为硬盘提供灵活时延优化功能。启用灵活时延优化功能,控制器会检测I/O请求,设置时延阈值。如果检测到的I/O请求时延满足该阈值,则即时禁用电梯排序功能和业务请求,执行满足阈值的I/O请求,减少高时延I/O请求数量。阈值的有效取值范围如下: l Disabled:禁用 l Low:低值 l Middle(100ms):中等值 l High:高值 l Very High(30ms):较高值 l Very High(10ms):极高值 |
Submit Changes |
确认修改。 |
界面说明
“Clear Configuration”界面如图7-74所示,参数说明如表7-26所示。
参数 |
说明 |
Delete All Array Configurations |
清除所有RAID组的配置信息。 |
Delete Configuration metadata on all physical drives |
清除所有不属于RAID组,但带有RAID信息的物理硬盘数据。 |
界面说明
“Backup Power Source”界面如图7-75所示,参数说明如表7-27所示。
参数 |
说明 |
Backup Power Status |
超级电容当前状态。 l charging:超级电容正在充电。 l charged:超级电容充电完成。 l Not Present:未接入超级电容。 |
界面说明
“Manage Power Settings”界面如图7-76所示,参数说明如表7-28所示。
参数 |
说明 |
Power Mode |
设置控制器的power mode。 l Minimum Power:将static设置设为最低级。 l Balanced:static设置随配置而定。 l Maximum Performance:将static设置设为最高级。 默认为“Maximum Performance”。 |
Survival Mode |
当RAID卡的温度超过阈值时,Survival Mode将允许控制器将所有的功耗配置设置为最小值,选择该模式后,服务器将继续在这种环境下工作,但性能可能会下降。 l Enabled:启动该特性。 l Disabled:关闭该特性。 默认取值为“Enabled”。 |
Submit Changes |
确认修改。 |
“BMC Settings”界面如图7-77所示,参数说明如表7-29所示。
参数 |
说明 |
I2C Slave Address(Hexadecimal) |
设置Controller在I2C总线上的设备地址。 该地址为协议格式中第一个字节(称为slave address),由7位地址和一位R/W读写位(0写1读)组成,设置范围为0xD0~0xFF。 |
Submit Changes |
确认修改。 |
界面说明
“Configure Controller Port Mode”界面如图7-78所示,参数说明如表7-30所示。
图7-78 Configure Controller Port Mode
参数 |
说明 |
Controller Port Mode |
控制器的端口模式,有以下三种: l HBA:该模式下,支持硬盘直通功能,不支持创建RAID组。当有RAID组存在时,不支持切换到该模式。 l RAID:该模式下,支持创建RAID组,不支持硬盘直通功能。 l Mixed:支持硬盘直通功能与创建RAID组。 |
Submit Changes |
确认修改。 |
设置控制器的端口模式
通过该操作,可将所有Connector的工作模式同时设置为同一模式。
步骤 1 在图7-78中选择“Controller Port Mode”,并按“Enter”。
弹出端口模式菜单。
步骤 2 选择要设置的控制器端口模式,并按“Enter”。
步骤 3 选择“Submit Changes”,并按“Enter”。
提示操作成功。
----结束
界面说明
“Array Configuration”界面如图7-79所示,参数说明如表7-31所示。
参数 |
说明 |
Create Array |
创建Array。 |
Create maxCache Array |
创建maxCache Array。 |
Manage Arrays |
管理Array。 |
界面说明
“Disk Utilities”界面如图7-80所示。
如果3152-8i RAID卡接的是Expander,该界面还会显示Expander的相关信息,如图7-81所示。
界面说明
“Set Bootable Device(s) for Legacy Boot Mode”界面如图7-82所示,参数说明如表7-32所示。
图7-82 Set Bootable Device(s) for Legacy Boot Mode
参数 |
说明 |
Primary Bootable Device |
第一启动盘。 |
Secondary Bootable Device |
第二启动盘。 |
Select Bootable Logical Drive |
设置逻辑盘为第一启动盘或第二启动盘。 |
Select Bootable Physical Drive |
设置物理硬盘为第一启动盘或第二启动盘。 |
Number of OS bootable drives |
设置系统启动盘的数量。 |
Clear Bootable Device(s) |
清除启动盘。 l Select Boot Precedence:选择将要清除的启动盘。 l Clear Bootable Device(s):确认清除启动盘。 |
界面说明
“Administration”界面如图7-83所示,参数说明如表7-33所示。
参数 |
说明 |
Flash Controller Firmware |
更新控制器的Firmware。 |
Save Support Archive |
收集RAID卡日志。 |
Reset controller settings to factory defults |
将控制器恢复出厂配置。 |
使用OS命令行工具可以在服务器正常运行过程中对RAID卡进行操作,不需要重启服务器。
请联系技术支持获取ARCCONF工具的下载和安装方法。
l 为快速获取命令结果,建议在每条命令之后增加nodiskinfo参数,如arcconf list controller_id nodiskinfo。
l ARCCONF工具在23168及以后版本支持nodiskinfo参数。
命令功能
查询RAID卡的基本信息。
命令格式
arcconf list controller_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
使用指南
无
使用实例
# 查询ID为1的控制器属性。
[root@localhost ~]# arcconf list 1
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
Controller ID : Status, Slot, Mode, Name, SerialNumber, WWN
----------------------------------------------------------------------
Controller 1: : Optimal, Slot 1, Mixed, MSCC Adaptec SmartRAID 3152-8i, 7A45F30016A, 50000D1E00189F30
----------------------------------------------------------------------
Array Information
----------------------------------------------------------------------
Array ID : Status (Interface, TotalSize MB, FreeSpace MB)
----------------------------------------------------------------------
Array 0 : Ok (SATA SSD, 305152 MB, 0 MB)
----------------------------------------------------------------------
Logical device information
----------------------------------------------------------------------
Logical ID : Status (RAID, Interface, Size MB) Name
----------------------------------------------------------------------
Logical 0 : Optimal (0, Data, 305190 MB) LogicalDrv 0
----------------------------------------------------------------------
maxCache information
----------------------------------------------------------------------
----------------------------------------------------------------------
Physical Device information
----------------------------------------------------------------------
Physical ID : State (Interface, BlockSize, SizeMB, Vendor,
Model, Type) WWN, [Location]
----------------------------------------------------------------------
Physical 0,0 : Online (SATA, 512 Bytes, 152627MB, ATA ,
INTEL SSDSA2BW16, Solid State Drive) 30000D1E00189F30, [Enclosure Direct Attached, Slot 0(Connector 0:CN0)]
Physical 0,1 : Online (SATA, 512 Bytes, 1526185MB, ATA ,
SSDSC2BB016T7H , Solid State Drive) 30000D1E00189F32, [Enclosure Direct Attached, Slot 1(Connector 0:CN0)]
Physical 0,4 : Ready (SAS, 512 Bytes, 1716957MB, TOSHIBA ,
AL14SEB18EQ , Hard Drive) 500003969812C842, [Enclosure Direct Attached,
Slot 4(Connector 1:CN1)]
Physical 0,5 : Ready (SAS, 512 Bytes, 858483MB, HGST ,
HUC101890CSS200 , Hard Drive) 5000CCA0361C09C1, [Enclosure Direct Attached,
Slot 5(Connector 1:CN1)]
Physical 0,6 : Ready (SATA, 512 Bytes, 457862MB, ATA ,
MTFDDAK480TDC-1A, Solid State Drive) 30000D1E00189F39, [Enclosure Direct Attached, Slot 6(Connector 1:CN1)]
Physical 0,7 : Ready (SATA, 512 Bytes, 915715MB, ATA ,
MTFDDAK960TDC-1A, Solid State Drive) 30000D1E00189F3B, [Enclosure Direct Attached, Slot 7(Connector 1:CN1)]
Physical 2,2 : Ready (SES2, Not Applicable, Not Applicable,
MSCC , Virtual SGPIO, Enclosure Services Device) 50000D1E00189F30, [Not Applicable]
Command completed successfully.
命令功能
查询RAID卡的基本信息。
命令格式
表7-34
命令格式 |
功能 |
arcconf getconfig controller_id AD |
查询适配器信息 |
arcconf getconfig controller_id LD |
查询所有LD的信息 |
arcconf getconfig controller_id LD LD_id |
查询特定LD的信息 |
arcconf getconfig controller_id PD |
查询所有物理硬盘的信息 |
arcconf getconfig controller_id PD physical_id |
查询特定物理硬盘的信息 |
arcconf getconfig controller_id AR |
查询所有Array的信息 |
arcconf getconfig controller_id AR AR_id |
查询特定Array的信息 |
arcconf getconfig controller_id MC |
查询maxCached的信息 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
LD_id |
LD的ID |
– |
physical_id |
硬盘的physical编号 |
– |
slot_id |
物理硬盘槽位编号 |
– |
AR_id |
Array的ID |
– |
使用指南
无
使用实例
# 查询所有Array的信息。
[root@localhost ~]# ./arcconf getconfig 1 ar
Controllers found: 1
----------------------------------------------------------------------
Array Information
----------------------------------------------------------------------
Array Number 0
Name : A
Status : Ok
Interface : SATA SSD
Total Size : 305152 MB
Unused Size : 204800 MB
Block Size : 512 Bytes
Array Utilization : 32.77% Used, 67.23% Unused
Type : Data
Transformation Status : Not Applicable
Spare Rebuild Mode : Dedicated
SSD I/O Bypass : Disabled
--------------------------------------------------------
Array Logical Device Information
--------------------------------------------------------
Logical 0 : Optimal (1, Data, 49999 MB)
LogicalDrv 0
--------------------------------------------------------
Array Physical Device Information
--------------------------------------------------------
Device 0 : Present (915715MB, SATA, SSD,
Channel:0, Device:0) 18031A983BCA
Device 1 : Present (152627MB, SATA, SSD,
Channel:0, Device:1) CVPR1461036N160DGN
--------------------------------------------------------
Array Hotspare Information
--------------------------------------------------------
Device 3 : Dedicated Hot-Spare (457862MB,
SATA, SSD, Channel:0, Device:3) 2029E247
Command completed successfully.
[root@localhost ~]#
# 查询所有LD的基本信息。
[root@localhost ~]# ./arcconf getconfig 1 ld
Controllers found: 1
----------------------------------------------------------------------
Logical device information
----------------------------------------------------------------------
Logical Device number 0
Logical Device name : LogicalDrv 0
Disk Name : /dev/sdd
Block Size of member drives : 512 Bytes
Array : 0
RAID level : 1
Status of Logical Device : Optimal
Size : 49999 MB
Stripe-unit size : 256 KB
Full Stripe Size : 256 KB
Interface Type : SATA SSD
Device Type : Data
Boot Type : None
Heads : 255
Sectors Per Track : 32
Cylinders : 12549
Caching : Enabled
Mount Points : Not Applicable
LD Acceleration Method : Controller Cache
Volume Unique Identifier : 600508B1001C329D07A9BDA053FF081B
--------------------------------------------------------
Array Physical Device Information
--------------------------------------------------------
Device 0 : Present (915715MB, SATA, SSD,
Channel:0, Device:0) 18031A983BCA
Device 1 : Present (152627MB, SATA, SSD,
Channel:0, Device:1) CVPR1461036N160DGN
--------------------------------------------------------
Array Hotspare Information
--------------------------------------------------------
Device 3 : Dedicated Hot-Spare (457862MB,
SATA, SSD, Channel:0, Device:3) 2029E247
Command completed successfully.
[root@localhost ~]#
命令功能
查询RAID卡的FW和驱动的版本信息。
命令格式
arcconf getversion
使用实例
# 查询RAID卡FW和驱动的版本信息。
[root@localhost ~]# ./arcconf getversion
Controllers found: 1
Controller #1
==============
Firmware : 1.43[0] (0)
Driver : 0.9.14-100 (0)
Command completed successfully.
[root@localhost ~]#
命令功能
设置RAID卡工作模式。
命令格式
arcconf setcontrollermode controller_id mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
mode |
RAID卡工作模式 |
l 2:设置为HBA模式。 l 3:设置为RAID模式。 l 5:设置为Mixed模式。 说明 3152-8i的工作模式的介绍请参见7.3.2 支持多种工作模式。 |
使用指南
无
使用实例
# 设置RAID卡工作模式为“Mixed”。
[root@localhost ~]# ./arcconf setcontrollermode 1 5
Controllers found: 1
Command completed successfully.
# 查询RAID卡工作模式。
[root@localhost ~]# arcconf getconfig 1
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
Controller Status : Optimal
Controller Mode : Mixed
Channel description : SCSI
Controller Model : MSCC Adaptec SmartRAID 3152-8i
Controller Serial Number : 7A45F30016A
Controller World Wide Name : 50000D1E00189F30
Physical Slot : 1
Temperature : 48 C/ 118 F (Normal)
Host bus type : PCIe 3.0
Host bus speed : 7880 MBps
Host bus link width : 8 bit(s)/link(s)
PCI Address (Bus:Device:Function) : 0:3b:0:0
Number of Ports : 2
Internal Port Count : 2
External Port Count : 0
Defunct disk drive count : 0
NCQ status : Enabled
Queue Depth : Automatic
Monitor and Performance Delay : 60 minutes
Elevator Sort : Enabled
Degraded Mode Performance Optimization : Disabled
Latency : Disabled
Statistics data collection mode : Disabled
Post Prompt Timeout : 0 seconds
Boot Controller : False
Primary Boot Volume : None
Secondary Boot Volume : ADDD8BE3B85736315B553DAF0D36B31E
Driver Name : smartpqi
Driver Supports SSD I/O Bypass : Yes
Manufacturing Part Number : Not Applicable
Manufacturing Spare Part Number : Not Applicable
Manufacturing Wellness Log : Not Applicable
NVRAM Checksum Status : Passed
Sanitize Lock Setting : None
......
回显信息中的“Controller Mode”即为RAID卡的工作模式。
命令功能
查询所有适用arcconf工具的RAID卡。
命令格式
arcconf list
使用实例
# 查询所有适用arcconf工具的RAID卡。
[root@localhost ~]# ./arcconf list
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
Controller ID : Status, Slot, Mode, Name, SerialNumber, WWN
----------------------------------------------------------------------
Controller 1: : Optimal, Slot 1, Mixed, MSCC Adaptec SmartRAID 3152-8i, 7A45F30016A, 50000D1E00189F30
Command completed successfully.
[root@localhost ~]#
命令功能
通过该命令可以将PD或LD设置成启动设备,其中,PD在RAID卡的工作模式为HBA或MIX时生效,LD在RAID卡的工作模式为MIX或RAID时生效。
命令格式
arcconf setboot controller_id logicaldrive LD_id type boot_type
arcconf setboot controller_id device physical_id type boot_type
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
LD_id |
LD的ID |
– |
boot_type |
启动项的类型 |
Primary :将LD或PD设置为第一启动设备。 Secondary :将LD或PD设置为第二启动设备。 |
physical_id |
硬盘的physical ID |
– |
使用实例
# 设置LD0为第一启动设备。
[root@localhost ~]# arcconf setboot 1 logicaldrive 0 type primary
Controllers found: 1
Do you wish to change the boot type of the selected device.
Press y, then ENTER to continue or press ENTER to abort: y
Command completed successfully.
[root@localhost ~]#
命令功能
设置热备盘的模式。
命令格式
arcconf setarrayparam controller_id array_id sparetype mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
array_id |
array的ID |
– |
mode |
热备盘的类型 |
l 1:Dedicated l 2:Autoreplace 说明 热备盘相关介绍请参见7.3.3 硬盘热备份。 |
使用实例
# 设置Array的热备盘模式为:Dedicated。
[root@localhost ~]# arcconf setarrayparam 1 0 sparetype 1
Controllers found: 1
Command completed successfully.
[root@localhost ~]#
命令功能
点亮、熄灭控制器的硬盘定位指示灯。
命令格式
表7-35
命令 |
功能 |
arcconf identify controller_id device physical_id time time |
对特定的物理硬盘进行点灯,time为可选项,表示点灯持续的时间,单位为秒。 |
arcconf identify controller_id device physical_id |
对特定的物理硬盘持续点灯,按任意键会停止点灯。 |
arcconf identify controller_id all time time |
对所有的物理硬盘进行点灯,time为可选项,表示点灯持续的时间,单位为秒。 |
arcconf identify controller_id all stop |
对所有的物理硬盘停止点灯 |
arcconf identify controller_id logicaldrive LD_id time time |
对特定的LD进行点灯,time为可选项,表示点灯持续的时间,单位为秒。 |
arcconf identify controller_id logicaldrive LD_id |
对特定的LD停止点灯 |
arcconf identify controller_id array array_id time time |
对特定的Array进行点灯,time为可选项,表示点灯持续的时间,单位为秒。 |
arcconf identify controller_id array array_id |
对特定的Array停止点灯 |
arcconf identify controller_id maxcache time time |
对maxCache进行点灯,time为可选项,表示点灯持续的时间,单位为秒。 |
arcconf identify controller_id maxcache |
对maxCache停止点灯 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
LD_id |
LD的ID |
– |
physical_id |
硬盘的physical ID |
– |
time |
硬盘指示灯点亮的时间。 |
为可选项,表示点灯持续的时间,单位为秒。 |
array_id |
array的ID |
– |
使用实例
# 对slot 0硬盘的停止指示灯。
[root@localhost ~]# ./arcconf identify 1 device 0 0
Controllers found: 1
Only devices managed by an enclosure processor may be identified
The specified device(s) is/are blinking.
Press any key to stop the blinking.
# 设置所有的盘进行点灯60秒。
[root@localhost ~]# ./arcconf identify 1 all time 60
Controllers found: 1
Only devices managed by an enclosure processor may be identified
Command completed successfully.
# 熄灭所有的硬盘指示灯。
[root@localhost ~]# ./arcconf identify 1 all stop
Controllers found: 1
Command completed successfully.
命令功能
修改LD的条带大小。
命令格式
arcconf modify controller_id from LD_id to stripesize size LD_size LD_level physical_id physical_id......
为准确修改LD的条带大小,执行该命令前,请提前确认并正确输入LD的容量大小,级别以及成员盘的physical ID。
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
size |
修改后的条带大小 |
16/32/64/128/256/512/1024,单位为KB |
LD_size |
LD的容量大小 |
单位为MB |
LD_level |
LD的RAID级别 |
– |
physical_id |
LD成员盘的physical ID |
– |
使用实例
# 将LD的条带大小设置为256KB。
[root@localhost ~]# arcconf modify 1 from 0 to stripesize 256 49999 1 0 0 0 1
Controllers found: 1
Reconfiguration of a logical device is a long process. Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Reconfiguring logical device: LogicalDrv 0
Command completed successfully.
命令功能
在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。
命令格式
arcconf modify controller_id from LD_id to LD_size LD_level physical_id physical_id......
为准确进行扩容,执行该命令前,请提前确认并正确输入RAID级别以及成员盘的physical ID。
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
LD_id |
LD的ID |
– |
LD_size |
扩容后LD的容量大小 |
单位为MB |
LD_level |
LD的RAID级别 |
– |
physical_id |
LD成员盘的physical ID |
– |
使用实例
# 将LD的容量扩展为89999MB。
[root@localhost ~]# arcconf modify 1 from 0 to 89999 1 0 0 0 1
Controllers found: 1
Reconfiguration of a logical device is a long process. Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Reconfiguring logical device: LogicalDrv 0
Command completed successfully.
命令功能
在已存在的RAID中添加新硬盘,扩大RAID容量。
通过增加新盘进行扩容分两步进行,先给Array添加硬盘,再进行扩容。
命令格式
arcconf modify controller_id array array_id expand physical_id physical_id......
arcconf modify controller_id from LD_id to LD_size LD_level physical_id physical_id......
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
array_id |
Array的id |
– |
LD_size |
扩容后的RAID容量 |
– |
physical_id |
成员盘的physical ID |
– |
使用实例
# 为Array添加硬盘。
[root@localhost ~]# arcconf modify 1 array 0 expand 0 2
Controllers found: 1
This will modify the array 0.
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Modifying array: 0
Command completed successfully.
# 对LD进行扩容。
[root@localhost ~]# arcconf modify 1 from 0 to 109996 0 0 0 0 1 0 2
Controllers found: 1
Reconfiguration of a logical device is a long process. Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Reconfiguring logical device: LogicalDrv 0
Command completed successfully.
[root@localhost ~]#
命令功能
对RAID级别进行迁移。
l 迁移时,根据迁移级别的硬盘数量要求,如果迁移的目标级别所需的硬盘数量比原级别的多,则先需要为LD添加硬盘,然后再进行迁移RAID级别。
l 当从RAID 1迁移到RAID 5时,无法直接为RAID 1添加硬盘,此时先需要把RAID 1迁移到RAID 0,然后为RAID 0添加硬盘,最后再将LD的级别迁移到RAID 5。
命令格式
arcconf modify controller_id from LD_id to LD_size LD_level physical_id physical_id......
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
LD_id |
LD的ID |
– |
LD_size |
LD迁移前的容量 |
– |
LD_level |
迁移后的LD级别 |
– |
physical_id |
LD成员盘的physical ID |
– |
使用实例
#从RAID 0迁移到RAID 5。
[root@localhost ~]# arcconf modify 1 from 0 to 305190 5 0 0 0 1 0 6 0 7
Controllers found: 1
Reconfiguration of a logical device is a long process. Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Reconfiguring logical device: LogicalDrv 0
Command completed successfully.
# 查询迁移进程。
[root@localhost ~]# arcconf getconfig 1 ld
Controllers found: 1
^[[A----------------------------------------------------------------------
Logical device information
----------------------------------------------------------------------
Logical Device number 0
Logical Device name : LogicalDrv 0
Disk Name : /dev/sda
Block Size of member drives : 512 Bytes
Array : 0
RAID level : 5
Status of Logical Device : Optimal(Background Parity Initialization : 51 %)
Parity Initialization Status : In Progress
Size : 305190 MB
Stripe-unit size : 256 KB
Full Stripe Size : 768 KB
Interface Type : SATA SSD
Device Type : Data
Boot Type : None
Heads : 255
Sectors Per Track : 32
Cylinders : 65535
Caching : Enabled
Mount Points : Not Applicable
LD Acceleration Method : Controller Cache
Volume Unique Identifier : 600508B1001C7B7C4BBF3ACB01F885BC
--------------------------------------------------------
Array Physical Device Information
--------------------------------------------------------
Device 0 : Present (152627MB, SATA, SSD,
Channel:0, Device:0) CVPR1461036N160DGN
Device 1 : Present (1526185MB, SATA, SSD,
Channel:0, Device:1) PHDV624000FL1P6EGN
Device 6 : Present (457862MB, SATA, SSD,
Channel:0, Device:6) 17501B83246B
Device 7 : Present (915715MB, SATA, SSD,
Channel:0, Device:7) 18031A983BCA
Command completed successfully.
命令功能
为LD设置热备盘。
命令格式
arcconf setstate controller_id device physical_id hsp array array_id sparetype type
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
physical_id |
硬盘的physical ID |
– |
array_id |
Array的ID |
– |
type |
热备盘的类型 |
1 : Dedicated 2 : Autoreplace 说明 热备盘相关介绍请参见7.3.3 硬盘热备份。 |
使用实例
# 为LD设置Autoreplace热备盘。
[root@localhost ~]# arcconf setstate 1 device 0 3 hsp array 0 sparetype 2
Controllers found: 1
Any existing hot-spare drives of a different sparetype will be removed.
The physical drive used for this operation is connected to Mixed Mode(Smart HBA) connector. Using it will not allow operating system to use the drive contents.
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Command completed successfully.
[root@localhost ~]#
命令功能
设置后台任务优先级并使当前任务优先级生效。
后台任务包括后台初始化、RAID重构、迁移、扩容等。
命令格式
arcconf setpriority controller_id priority current
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
priority |
后台任务优先级 |
l high l medium l low |
使用指南
无
使用实例
# 设置后台任务优先级为“high”并生效。
domino:~# ./arcconf setpriority 1 high current
Controllers found: 1
Command completed successfully.
命令功能
使能和关闭LD的cache功能。
命令格式
arcconf setcache controller_id logicaldrive LD_id con
arcconf setcache controller_id logicaldrive LD_id coff
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
LD_id |
LD的ID |
– |
使用实例
# 使能LD0的cache功能。
[root@localhost ~]# arcconf setcache 1 logicaldrive 0 con
Controllers found: 1
Cache mode is already set to Enabled.
Command aborted.
[root@localhost ~]#
# 关闭LD0的cache功能。
[root@localhost ~]# arcconf setcache 1 logicaldrive 0 coff
Controllers found: 1
Command completed successfully.
[root@localhost ~]#
命令功能
设置后台一致性检查的并行个数。
命令格式
arcconf consistencycheck controller_id parallelcount parallelcount_number
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
parallelcount_number |
后台一致性检查的并行个数 |
– |
使用实例
# 设置后台一致性检查的并行个数为4。
[root@localhost ~]# arcconf consistencycheck 1 parallelcount 4
Controllers found: 1
Command completed successfully.
[root@localhost ~]#
CONSISTENCYCHECK <Controller#> PARALLELCOUNT <Count>
命令功能
创建、删除RAID。
命令格式
arcconf create controller_id logicaldrive option size level physical_id physical_id......
arcconf delete controller_id logicaldrive ld_id noprompt
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡ID |
请参照7.8.2.1 查询RAID卡的基本信息获取RAID卡的controller_id。 controller_id从1开始排序,如果有多张RAID卡,将按照1,2,3...的方式进行排序。 |
option |
要创建的LD的相关属性,具体请参见表7-36。 |
– |
size |
LD的容量大小。 |
单位为MB,设置时只输入数字即可,如数值设为“1024”,则表示虚拟磁盘的容量为1024MB。 如果设置为“MAX”,表示使用硬盘的所有容量创建虚拟磁盘。 |
level |
要创建的LD的级别。 |
支持的RAID级别请参照7.3.1 支持多种RAID级别。 |
physical_id |
LD成员盘的physical ID |
请参照7.8.2.2 查询物理硬盘、Array、LD、maxCache等相关信息获取物理硬盘的ID。 |
ld_id |
虚拟磁盘ID |
请参照7.8.2.2 查询物理硬盘、Array、LD、maxCache等相关信息获取虚拟磁盘的ID。 |
可设置属性 |
说明 |
取值 |
Stripesize |
LD的条带大小 |
16/32/64/128/256/512/1024 |
Legs |
LD的NPG,只在创建RAID 50和RAID 60时可设置。 |
– |
Name |
LD的名称。 |
– |
Method |
LD的初始化的方式。 |
l BUILD l DEFAULT |
Wcache |
即IO Bypass,只在创建maxCache时可设置。 |
l WT:write-through (Disabled) l WB:write-back (Enabled) |
LDcache |
即Controller Cache。 |
– |
SSDOverProvisioningOptimization |
SSD的特性。 |
l enable l disable 说明 当设置为Enabled时,SSD初始化时能支持快速校验初始化操作。 |
DataLD |
被加速的LD的ID。 |
– |
使用指南
无
使用实例
# 创建RAID 50。
[root@localhost ~]# arcconf create 1 logicaldrive stripesize 256 legs 2 name vd1 method default ldcache lon MAX
50 0 0 0 1 0 2 0 3 0 4 0 5
Controllers found: 1
Space will be wasted as devices specified are of different sizes.
Do you want to add a logical device to the configuration?
Press y, then ENTER to continue or press ENTER to abort: y
Creating logical device: vd1
Command completed successfully.
# 删除ID为0的虚拟磁盘。
[root@localhost ~]# arcconf delete 1 logicaldrive 0 noprompt
Controllers found: 1
WARNING: Deleting this logical device will automatically delete array 0 because it is the only logical device present on that array.
All data in logical device 0 will be lost.
Deleting: logical device 0 ("Logical Drive 1")
arr
Command completed successfully.
命令功能
创建MaxCache。
命令格式
arcconf create controller_id maxcache wcache policy datald LD_id size level physical_id physical_id......
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
policy |
maxCache的加速策略 |
wt:设置不为LD进行加速 wb:设置为LD进行加速 |
LD_id |
被加速的LD的ID |
– |
size |
maxCache 的容量 |
– |
level |
maxCache的级别 |
0/1/10/5 |
physical_id |
硬盘的physical ID |
– |
使用实例
# 创建级别为RAID 1的MaxCache。
[root@localhost ~]# arcconf create 1 maxcache wcache wb datald 0 17000 1 0 0 0 1
Controllers found: 1
Space will be wasted as devices specified are of different sizes.
After maxCache creation, the following operations are not allowed on the controller.
MODIFY on logical device and Array
SPLITMIRROR on array
CACHERATIO on controller
Do you want to add a logical device to the configuration?
Press y, then ENTER to continue or press ENTER to abort: y
Creating maxCache
Command completed successfully.
[root@localhost ~]#
命令功能
设置RAID卡的读写比例。
命令格式
arcconf setcache controller_id cacheratio read write
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
read |
读cache的比例 |
0~100 |
write |
写cache的比例 |
0~100 |
读cache的比例与写cache的比例总和应为100。
使用实例
# 设置读cache的比例与写cache的比例各为50%。
[root@localhost ~]# arcconf setcache 1 cacheratio 50 50
Controllers found: 1
Command completed successfully.
[root@localhost ~]#
命令功能
该命令允许在没有电容的状态下使用控制器cache。
在没有电容的状态下使用控制器cache时,一旦掉电,会导致数据丢失,请谨慎使用该命令。
命令格式
arcconf setcache controller_id nobatterywritecache enable
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
使用实例
# 设置无电容状态下使用cache。
[root@localhost ~]# arcconf setcache 1 nobatterywritecache enable
Controllers found: 1
WARNING : Enabling write caching on a cache module without a fully charged battery or capacitor could cause data loss in the event of a power failure.
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Command completed successfully.
[root@localhost ~]#
命令功能
使能一致性检查的修复策略。
命令格式
arcconf consistencycheck controller_id inconsistencyrepairpolicy enable
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
使用实例
# 使能一致性检查的修复策略。
[root@localhost ~]# arcconf consistencycheck 1 inconsistencyrepairpolicy enable
Controllers found: 1
Command completed successfully.
[root@localhost ~]#
命令功能
使能一致性检查生成调试信息并发出通知。
命令格式
arcconf consistencycheck controller_id eventnotify enable
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
使用实例
# 使能一致性检查生成调试信息并发出通知。
[root@localhost ~]# arcconf consistencycheck 1 eventnotify enable
Controllers found: 1
Command completed successfully.
[root@localhost ~]#
CONSISTENCYCHECK <Controller#> EVENTNOTIFY <Enable | Disable>
命令功能
关闭一致性检查功能。
命令格式
arcconf consistencycheck controller_id off
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
使用实例
# 关闭一致性检查功能。
[root@localhost ~]# arcconf consistencycheck 1 off
Controllers found: 1
Command completed successfully.
CONSISTENCYCHECK <Controller#> <On [Delay]|Off> [noprompt] [nologs]
命令功能
查询、设置硬盘写Cache策略。
命令格式
arcconf getconfig controller_id ad
arcconf setcache controller_id drivewritecachepolicy drivetype cachepolicy drivetype cachepolicy...
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
- |
drivetype |
要设置写Cache策略的硬盘类型 |
l Configured:设置RAID/Mixed模式下RAID组成员盘的写Cache策略。 l Unconfigured:设置RAID/Mixed模式下非RAID组成员盘的写Cache策略。 l HBA:设置HBA模式下硬盘的写Cache策略。 |
cachepolicy |
硬盘写Cache策略 |
l 0:Default(将硬盘的写Cache保持为默认状态) l 1:Enabled(打开硬盘的写Cache功能) l 2:Disabled(关闭硬盘的写Cache功能) |
使用实例
# 设置Configured状态的硬盘Cache写策略为Enabled,设置Unconfigured状态的硬盘Cache写策略为Disabled。
[root@localhost ~]# ./arcconf setcache 1 drivewritecachepolicy Configured 1 Unconfigured 2
Controllers found: 1
Enabling controller drive write cache can increase write performance but risks losing the data in the cache on sudden loss.
Command completed successfully.
# 查询当前的硬盘写Cache策略
[root@localhost ~]# ./arcconf getconfig 1 ad
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
Controller Statue : Optimal
Controller Mode :Mixed
Channle description :SCSI
...
----------------------------------------------------------------------
Physical Drive Write Cache Policy Information
----------------------------------------------------------------------
Configured Drives :Enabled
Unconfigured Drives :Disabled
HBA Drives :Default
----------------------------------------------------------------------
...
MSCC SmartHBA 2100-8i控制卡(以下简称2100-8i)提供2个12Gbit/s的mini SAS HD接口,支持PCIe 3.0接口,并支持最多8个phy。
2100-8i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。
由于2100-8i没有DDR Cache,不建议客户用于强调RAID5写性能的场景下。
2100-8i的结构如图8-1所示。
2100-8i的基本参数如表8-1所示。
特性 |
MSCC SmartHBA 2100-8i |
接口速率 (Gbit/s) |
12 |
支持的RAID组数量 |
64 |
单个RAID组支持的最大硬盘数 |
128 |
所有RAID组包含的最大硬盘数量 |
238 |
是否支持硬盘直通 |
是 |
硬盘直通模式支持的硬盘数量 |
238 |
支持的最大硬盘数 |
238 |
是否支持MaxCache(备注1) |
否 |
Cache读写比例是否可调 |
NA |
MaxCache支持的SSD最大个数 |
NA |
MaxCache最大容量 |
NA |
MaxCache支持的RAID级别 |
NA |
MaxCache是否支持热备 |
NA |
是否支持SSD IO Bypass |
是 |
是否支持4K盘 |
是 |
支持的RAID级别 |
RAID 0/1/10 |
是否支持设置条带单元 |
是(可设为16KB/32KB/64KB/128KB/256KB/512KB/1024KB) |
是否支持电池掉电保护 |
否 |
是否支持超级电容掉电保护 |
否 |
是否支持全局热备份功能 |
是 |
是否支持局部热备份功能 |
是 |
是否支持紧急热备份功能 |
NA |
支持的热备盘个数 |
32(每个Array最多支持4个热备盘) |
是否支持RAID级别在线迁移 |
否 |
是否支持在线扩容 |
否 |
是否支持自动SMART扫描 |
是 |
是否支持Patrol Read |
是 |
是否支持一致性检查 |
是 |
是否支持Crypto加密 |
否 |
是否支持带外管理 |
否 |
备注1:MaxCache即SSD Cache,Microsemi将该功能定义为“MaxCache”。 |
2100-8i最多支持238个硬盘,最多支持64个Array,每个Array最多支持64个LD(Logical Drive),整张RAID卡所有Array最多支持64个LD。
Array即通常所说的硬盘组,每个Array可以包括1个或多个LD。
2100-8i支持的RAID级别及对应的硬盘个数如表8-2所示。
RAID级别 |
支持硬盘数 |
允许坏盘数 |
RAID 0 |
1 ~ 128 |
0 |
RAID 1 |
2 |
1 |
RAID 5 |
3 ~ 128 |
1 |
RAID 10 |
4 ~ 128 (偶数) |
子组数(每个子组里最多只允许坏1个盘) |
l 子组数:子RAID的个数,例如RAID 10由两个RAID 1组成,则子组数为2。
l 不支持RAID 5级别。
2100-8iRAID卡支持三种工作模式,具体如下:
l RAID模式:控制器下的逻辑盘会上报OS,但直通盘不会报送给OS。即在该模式下,硬盘必须先加入RAID组才可以在OS下使用。
l HBA模式:控制器的所有RAID功能都被禁用,控制器下所有硬盘被视为直通盘。该模式下,硬盘以直通方式使用。
l Mixed模式:RAID逻辑盘和直通盘都会报送给OS。即该模式支持硬盘以RAID方式和直通方式使用。
热备盘是用于替代Array故障成员盘的硬盘,在成员盘故障时承载故障盘中的数据。
2100-8i支持创建最多32个热备盘,一个Array下最多支持创建4个热备盘,使Array在有一个或多个与热备盘同类型的成员盘故障的情况下,可以由热备盘替代,防止Array的数据丢失和状态进一步恶化。
2100-8i支持dedicated spare和auto replace spare两种类型的热备盘:
l dedicated spare:dedicated模式的热备盘会作为Array的固定热备盘。当Array中某个硬盘发生故障,dedicated模式的热备盘会替代损坏盘并利用其他成员盘和冗余数据重构,生成损坏盘的数据。更换新的硬盘之后,新加入的硬盘会利用其它成员盘和数据继续重构,恢复Array的状态。Array的状态恢复完成后,热备盘恢复原始状态。该模式下的热备盘可以手动与所有的Array进行关联,即作为全局热备盘。
l auto replace spare:Array中某个硬盘发生故障时,auto replace模式的热备盘会替代故障盘并利用其他成员盘和冗余数据重构,生成故障盘的数据。当更换新的硬盘之后,原始热备盘中的数据继续作为Array的成员盘被使用,而新更换的硬盘将作为新的“热备盘”。该模式下的热备盘只能作为某一个Array的热备盘,即局部热备盘,不能作全局热备盘。
机械盘与固态盘不能互相作为热备盘。
热插拔即带电插拔,用户不需要进行任何配置,就可以在不关闭系统、不切断电源的情况下取出和更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。
请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。
具备冗余功能的Array的成员盘故障之后,热备盘自动替换故障数据盘并开始同步。
当多个进程同时访问一个磁盘时,可能会出现磁盘冲突。大多数磁盘系统都对访问次数和数据传输率有限制。当达到这些限制时,后面需要访问磁盘的进程就需要等待,这时就是所谓的磁盘冲突。
条带化技术是一种自动将I/O负载均衡到多个物理磁盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同磁盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成磁盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。
影响条带化效果的因素有:
l 条带宽度:指同时可以并发读或写的条带数量。
这个数量等于Array中的物理硬盘数量。增加条带宽度,可以增加Array的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。
在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。
l 条带大小:指写在每块磁盘上的条带数据块的大小。
硬盘分条即把Array中每个成员盘的存储空间按照设置的条带单元大小进行分条,数据在写入时也会按照条带单元大小划分数据块。
2100-8i支持多种条带单元,包括16KB、32KB、64KB、128KB、256KB、512KB、1024KB,默认条带大小为256KB。
硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。
2100-8i可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在2100-8i下的硬盘作为安装盘;而不支持硬盘直通的RAID卡,在操作系统安装过程中,只能找到该RAID卡下已经配置好的虚拟磁盘作为安装盘。
直通模式下的硬盘发生故障时(通常指硬盘本身健康状态不佳),硬盘Fault指示灯会被点亮,同时BMC会对其进行告警。
2100-8i下挂载的硬盘支持“Erase Disk”,即安全擦除指定硬盘。Erase Disk格式化彻底、耗时长。
数据擦除过程中,不能执行关机,重启,插拔硬盘等操作,否则会导致硬盘被损坏。
擦除数据完成后,所有的硬盘数据会被清除。请谨慎执行该操作。
硬盘包含2个指示灯,其状态说明如表8-3所示。
指示灯 |
颜色 |
说明 |
硬盘Fault指示灯 |
黄色 |
l 灭:表示硬盘运行正常。 l 黄色闪烁:表示硬盘处于被定位状态或RAID重构状态。 l 黄色常亮:表示硬盘故障或RAID组中的成员盘状态异常。 说明 l 在线情况下,当Fault指示灯常亮时,可首先通过getconfig命令查询RAID状态,确定是RAID组成员盘状态异常,还是硬盘故障。 l 直通模式下的硬盘发生故障时(通常指硬盘本身健康状态不佳),硬盘Fault指示灯会被点亮,同时BMC会对其进行告警。 |
硬盘Active指示灯 |
绿色 |
l 灭:表示硬盘不在位或硬盘故障。 l 绿色闪烁:表示硬盘处于读写状态或同步状态。 l 绿色常亮:表示硬盘处于非活动状态。 |
当包含RAID配置信息的硬盘插入服务器后,服务器在启动过程中识别到当前硬盘配置符合该外部配置要求时,自动导入外部配置。
BIOS中“Boot Type”设置为“UEFI Boot”模式时,打开的管理界面如下所述。
文档中描述的关于2100-8i的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“ARCCONF”命令行工具。
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
步骤 1 通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 2 重启服务器。
步骤 3 重启过程中,当出现如图8-2所示界面时,按“Delete”。
步骤 4 输入密码并按“Enter”。
进入Setup Utility界面。
BIOS的默认密码为“Password@_”。
步骤 5 按“→”切换到“Advanced”页签,如图8-3所示。
步骤 6 选择“MSCC SmartHBA 2100-8i”,按“Enter”。
图8-4 MSCC SmartHBA 2100-8i控制器主界面
参数 |
说明 |
Controller Information |
查看控制器相关的基本信息。 |
Configure Controller Settings |
设置控制器的相关属性。 |
Array Configuration |
创建与管理Array。 |
Disk Utilities |
查看与管理控制器的硬盘。 |
Set Bootable Device(s) for Legacy Boot Mode |
设置控制器在Legacy模式下的第一启动盘与第二启动盘。 |
Administration |
控制器的其他相关操作,包括更新Firmware,收集RAID卡日志,恢复RAID卡参数为出厂配置等。 |
----结束
操作场景
l 创建RAID组之前请先确认已将RAID卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见8.5.5 设置RAID卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 2100-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 各RAID级别所需的硬盘数请参见8.3.1 支持多种RAID级别。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见8.4.1 登录管理界面。
步骤 2 在图8-4界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 3 选择“Create Array”并按Enter。
进入成员盘选择界面,如图8-5所示。
步骤 4 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l 创建RAID 0支持的硬盘个数为1~128。
步骤 5 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图8-6所示。
步骤 6 选择要配置的Array级别“RAID0”,并选择“Proceed to next Form”。
进入Array属性配置界面,如图8-7所示,参数说明如表8-5所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit size |
LD的容量计算单位。 l TiB l GiB l MiB |
Acceleration method |
设置LD所采用的加速方法。 l SSD I/O Bypass(只有当LD由SSD组成时,该选项有效) l None(禁用加速) |
Submit Changes |
确认修改。 |
步骤 7 按照表8-5所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 8 (可选)创建多个LD。
在Array未占用成员硬盘全部容量时,才可进行此操作。
1. 在图8-4界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图8-8所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。每个Array最多支持128个LD。
步骤 9 检查配置结果。具体操作请参见8.5.1 查看Array属性。
步骤 10 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见8.5.6 设置物理硬盘Cache。
----结束
操作场景
l 创建RAID组之前请先确认已将RAID卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见8.5.5 设置RAID卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 2100-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 各RAID级别所需的硬盘数请参见8.3.1 支持多种RAID级别。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见8.4.1 登录管理界面。
步骤 2 在图8-4界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 3 选择Create Array。
进入成员盘选择界面,如图8-9所示。
步骤 4 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l RAID 1支持的硬盘个数为2。
步骤 5 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图8-10所示。
步骤 6 选择要配置的Array级别“RAID1”,并选择“Proceed to next Form”。
进入Array属性配置界面,如图8-11所示,参数说明如表8-6所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit size |
LD的容量计算单位。 l TiB l GiB l MiB |
Acceleration method |
设置LD所采用的加速方法。 l SSD I/O Bypass(只有当LD由SSD组成时,该选项有效) l None(禁用加速) |
Submit Changes |
确认修改。 |
步骤 7 按照表8-6所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 8 (可选)创建多个LD。
在Array未占用成员硬盘全部容量时,才可进行此操作。
1. 在图8-4界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图8-12所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。每个Array最多支持128个LD。
步骤 9 检查配置结果。具体操作请参见8.5.1 查看Array属性。
步骤 10 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见8.5.6 设置物理硬盘Cache。
----结束
操作场景
l 创建RAID组之前请先确认已将RAID卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见8.5.5 设置RAID卡工作模式。
l 加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。
l 2100-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。
l 各RAID级别所需的硬盘数请参见8.3.1 支持多种RAID级别。
操作步骤
步骤 1 备份硬盘数据,并登录管理界面。具体操作方法请参见8.4.1 登录管理界面。
步骤 2 在图8-4界面中,选择“Array Configuration”。
进入“Array Configuration”界面。
步骤 3 选择Create Array。
进入成员盘选择界面,如图8-13所示。
步骤 4 选中硬盘后,按“Enter”键,将硬盘加入Array。
l 硬盘状态为“×”时表示硬盘被选中。
l RAID 10支持的硬盘个数为4~128且必须为偶数。
步骤 5 选择“Proceed to next Form”并按“Enter”。
进入RAID级别选择界面,如图8-14所示。
步骤 6 选择要配置的Array级别“RAID1+0”,并选择“Proceed to next Form”。
进入Array属性配置界面,如图8-15所示,参数说明如表8-7所示。
参数 |
说明 |
Logical Drive Label |
LD的自定义标签。 |
Strip Size/Full Stripe Size |
l Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。 l Full Stripe Size:整个LD的分条大小。 l 当设定Strip Size后,系统会自动计算出Full Stripe Size。 |
Size |
整个LD的容量大小。 |
Unit size |
LD的容量计算单位。 l TiB l GiB l MiB |
Acceleration method |
设置LD所采用的加速方法。 l SSD I/O Bypass(只有当LD由SSD组成时,该选项有效) l None(禁用加速) |
Submit Changes |
确认修改。 |
步骤 7 按照表8-7所述配置Array属性,选择“Submit Changes”并按“Enter”。
提示创建成功。按“Enter”返回主界面。
步骤 8 (可选)创建多个LD。
Array未占用成员硬盘全部容量时,才可进行此操作。
1. 在图8-4界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图8-16所示。
2. 选择要创建多个LD的Array并按“Enter”。
3. 选择“Create Logical Drives”并按“Enter”。
此处根据实际需求,可创建多个LD。每个Array最多支持128个LD。
步骤 9 检查配置结果。具体操作请参见8.5.1 查看Array属性。
步骤 10 (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见8.5.6 设置物理硬盘Cache。
----结束
操作步骤
步骤 1 在图8-4界面中,按照“Array Configuration>Manage Arrays”的顺序进入
进入“Manage Arrays”界面,如图8-17所示。
步骤 2 选择要进行查看的Array,并按“Enter”。
进入Array操作界面,如图8-18所示,参数说明如表8-8所示。
参数 |
说明 |
Array Type |
Array的类型,通常显示为“Data”,表示Array是数据盘。 |
List Logical Drives |
逻辑盘相关的接口,可查看、修改逻辑盘的属性,删除逻辑盘等。 |
Create Logical Drive |
创建逻辑盘。 |
Manage Spare Drives |
热备盘相关的接口,可创建,删除热备盘等。 |
Identify Device |
点亮/熄灭整个Array所有硬盘的locate灯。 |
Delete Array |
删除Array。 |
----结束
查看LD的属性
步骤 1 在图8-18中选择“List Logical Drive”并按“Enter”。
进入LD列表。
步骤 2 选择要进行查看的LD并按“Enter”。
进入LD相关操作界面,如图8-19所示,参数说明如表8-9所示。
参数 |
说明 |
Logical Drive Details |
查看LD的相关属性。 |
Edit Logical Drive |
修改LD的相关属性。 |
Delete Logical Drive |
删除LD。 |
步骤 3 选择“Logical Drive Details”并按“Enter”。
显示LD的相关属性,如图8-20所示,界面参数如表8-10所示。
参数 |
说明 |
Status |
当前LD的状态。 |
Size |
整个LD的容量大小。 |
RAID Level |
当前LD的RAID级别。 |
Legacy Disk Geometry(C/H/S) |
当前LD所处的磁盘几何位置。 |
Strip Size |
整个LD的单个子组条带大小。 |
Full Stripe Size |
整个LD的分条大小。 |
Logical Drive Label |
LD的自定义标签。 |
Acceleration Method |
LD的加速方法。 l SSD I/O Bypass(只有当LD由SSD组成时,该选项有效) l None(禁用加速) |
Logical Drive Members |
LD的物理成员盘。 |
----结束
操作场景
对服务器的硬盘进行Array分组后,一般会配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。
l 2100-8i支持dedicated spare和auto replace spare两种类型的热备盘,具体介绍请参见8.3.3 硬盘热备份。
l 只有当“Spare Activation Mode”(热备盘的激活模式)设置为“Predictive Spare Activation”时,RAID0才支持配置热备盘。具体方法请参见8.7.3.1 Modify Controller Settings。
必备事项
前提条件
l 服务器存在空闲硬盘。
l 已登录管理界面,具体操作请参见8.4.1 登录管理界面。
数据
该操作无需准备数据。
操作步骤
步骤 1 在图8-4界面中,按照“Array Configuration>Manage Arrays”的顺序进入
进入“Manage Arrays”界面,如图8-21所示。
步骤 2 选择要创建热备盘的Array并按“Enter”。
步骤 3 选择“Manage Spare Drives”并按“Enter”。
进入热备盘类型选择界面,如图8-22所示,参数说明如表8-11所示。
参数 |
说明 |
Assign Dedicated Spare |
设置硬盘为dedicated spare drive。 dedicated模式的热备盘会作为Array的固定热备盘。当Array中某个硬盘发生故障,dedicated模式的热备盘会替代损坏盘并利用其他成员盘和冗余数据重构,生成损坏盘的数据。更换新的硬盘之后,新加入的硬盘会利用其它成员盘和数据继续重构,恢复Array的状态。Array的状态恢复完成后,热备盘恢复原始状态。 该模式下的热备盘可以手动与所有的Array进行关联,即作为全局热备盘。 |
Assign Auto Replace Spare |
设置硬盘为auto replace drives。 该模式下,Array中某个硬盘发生故障时,auto replace模式的热备盘会替代故障盘并利用其他成员盘和冗余数据重构,生成故障盘的数据。当更换新的硬盘之后,原始热备盘中的数据继续作为Array的成员盘被使用,而新更换的硬盘将作为新的“热备盘”。 该模式下的热备盘只能作为某一个Array的热备盘,即局部热备盘,不能作全局热备盘。 |
步骤 4 按照表8-11所述,选择要设置的热备盘类型,并按“Enter”。
进入硬盘选择界面。
步骤 5 选择要设置的硬盘并按“Enter”。
没有加入Array且与Array成员盘类型一致的硬盘可设置为热备盘。建议使用与Array的成员盘型号、容量一致的硬盘作为热备盘。
步骤 6 选择“Assign Dedicated Spare”或“Assign Auto Replace Spare”并按“Enter”。
提示操作成功。
----结束
操作场景
当环境中硬盘个数不满足业务需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。
操作步骤
步骤 1 在图8-4界面中,按照“Array Configuration>Manage Arrays”的顺序进入
进入“Manage Arrays”界面,如图8-23所示。
步骤 2 选择要进行操作的Array并按“Enter”。
步骤 3 选择“Manage Spare Drives”并按“Enter”。
进入“Manage Spare Drives”界面,如图8-24所示。
步骤 4 选择“Delete Spare Drives”并按“Enter”。
进入硬盘选择界面,如图8-25所示。
步骤 5 选择要删除的热备盘并按“Enter”。
步骤 6 选择“Delete Spare Drives”并按“Enter”。
提示操作成功。
----结束
操作场景
当服务器不需要Array或需要重新配置Array时,要先删除当前Array配置来释放硬盘。
必备事项
前提条件
l 已创建Array。
l 已登录管理界面,具体操作请参见8.4.1 登录管理界面。
数据
待删除Array中的数据已备份。
操作步骤
步骤 1 在图8-4界面中,按照“Array Configuration>Manage Arrays”的顺序进入“Manage Arrays”界面,如图8-26所示。
步骤 2 选择要删除的Array并按“Enter”。
步骤 3 选择“Delete Array”并按“Enter”。
进入操作确认界面。
删除Array后,Array上的所有数据和Array下的所有LD都将被删除,请谨慎执行删除Array操作。
步骤 4 按“Enter”。
提示操作成功。
----结束
l 当背板类型为直通背板时,可通过本章节的指导,分别设置Connector 0和Connector 1的工作模式,也可通过设置“Configure Controller Port Mode”参数,将所有Connector的工作模式同时设置为同一模式。具体操作请参见8.7.3.6 Configure Controller Port Mode。
l 当背板类型为Expander时,只能通过设置“Configure Controller Port Mode”参数,将RAID卡的工作模式同时设置为同一模式。具体操作请参见8.7.3.6 Configure Controller Port Mode。
操作步骤
步骤 1 进入“Modify Controller Settings”界面。
在图8-4界面中,按照“Configure Controller Settings>Modify Controller Settings”的顺序进入“Modify Controller Settings”界面,如图8-27所示。
图8-27 “Modify Controller Settings”界面
步骤 2 设置Connector 0的工作模式。
1. 选择“Port CN0 Mode”并按“Enter”。
弹出工作模式选择菜单。
l 2100-8i支持三种工作模式,分别为:
l RAID:控制器所有的RAID功能都被启用,但直通盘不会报送给OS。
l Mixed:RAID逻辑盘和直通盘都会报送给OS。
l HBA:controller所有的RAID功能都被禁用,控制器下所有硬盘均被视为直通盘。
l 当配置有RAID组时,不支持将RAID卡的工作模式切换成HBA模式。
2. 根据实际需要选择要设置的工作模式,并按“Enter”。
步骤 3 设置Connector 1的工作模式。
1. 选择“Port CN1 Mode”并按“Enter”。
2. 根据实际需要选择要设置的工作模式,并按“Enter”。
两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。
步骤 4 选择“Submit Changes”并按“Enter”。
提示操作成功。
----结束
操作步骤
步骤 1 在图8-4界面中,按照“Configure Controller Settings”>“Modify Controller Settings”>的顺序进入“Modify Controller Settings”界面,如图8-28所示,参数说明如表8-12所示。
图8-28 Modify Controller Settings
参数 |
说明 |
Transformation Priority |
设置Array扩展、逻辑盘扩展、逻辑盘迁移、Array收缩/迁移等操作的优先级,分为High/Medium/Low三个选项。 说明 该选项设置为“high”时,会抢占IO资源,影响读写IO性能,建议用户保持默认取值。 |
Rebuild Priority |
设置逻辑盘重构的优先级,分为Low/Medium/Medium High/High四个选项。 默认取值为“High”。 |
Surface Scan Analysis Priority |
设置两次硬盘表面扫描的时间间隔,硬盘表面扫描主要是检查硬盘健康状态。 可选项为0~31,默认值为3,数字表示controller在下一次surface scan analysis之前的延迟时间,单位为秒。0表示禁用硬盘表面扫描功能。 |
Current Parallel Surface Scan Count |
设置同时启动硬盘表面扫描进程的数量,取值范围为1~16,默认值为1。设置为1时表示禁用硬盘表面扫描功能。 |
Spare Activation Mode |
设置热备盘的激活模式,可选模式有: l Failure Spare Activation l Predictive Spare Activation 默认取值为“Failure Spare Activation”。 |
Unconfigured Physical Drive Write Cache State |
设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
HBA Physical Drive Write Cache State |
设置HBA模式下硬盘的写Cache状态 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
Configured Physical Drive Write Cache State |
设置RAID/Mixed模式下RAID组成员盘的写Cache状态。 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
Port CN0 Mode |
设置Connector 0端口的模式,有以下三种模式: l RAID模式:控制器下的LD会上报OS,但直通盘不会报送给OS。即在该模式下,硬盘必须先加入RAID组才可以在OS下使用。 l HBA模式:控制器的所有RAID功能都被禁用,所有关联的设备都被视为直通盘。该模式下,硬盘以直通方式使用。 l Mixed模式:RAID逻辑盘和直通盘都会报送给OS。即该模式支持硬盘以RAID方式和直通方式使用。 说明 l 当背板类型为直通背板时,才会显示该参数。 l 两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。 |
Port CN1 Mode |
设置Connector 1端口的模式,有以下三种模式: l RAID模式:控制器下的LD会上报OS,但直通盘不会报送给OS。即在该模式下,硬盘必须先加入RAID组才可以在OS下使用。 l HBA模式:控制器的所有RAID功能都被禁用,所有关联的设备都被视为直通盘。该模式下,硬盘以直通方式使用。 l Mixed模式:RAID逻辑盘和直通盘都会报送给OS。即该模式支持硬盘以RAID方式和直通方式使用。 说明 l 当背板类型为直通背板时,才会显示该参数。 l 两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。 |
Submit Changes |
确认修改。 |
l 如果要设置RAID/Mixed模式下RAID组成员盘的写Cache状态,请执行步骤2。
l 如果要设置HBA模式下硬盘的写Cache状态,请执行步骤3。
l 如果要设置RAID/Mixed模式下非RAID组成员盘的写Cache状态,请执行步骤4。
步骤 2 设置RAID/Mixed模式下RAID组成员盘的写Cache状态。
1. 选择“Unconfigured Physical Drive Write Cache State”并按“Enter”。
2. 参考表8-12的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。
3. 选择“Submit Changes”并按“Enter”。
提示操作成功。
1. 选择“HBA Physical Drive Write Cache State”并按“Enter”。
2. 参考表8-12的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。
3. 选择“Submit Changes”并按“Enter”。
提示操作成功。
步骤 4 设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。
1. 选择“Configured Physical Drive Write Cache State”并按“Enter”。
2. 参考表8-12的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。
3. 选择“Submit Changes”并按“Enter”。
提示操作成功。
----结束
介绍了硬盘故障、RAID卡故障、电池/电容故障的常用处理方法。更多故障案例请联系技术支持获取。
问题描述
当服务器出现如下现象时,说明硬盘故障。
l 硬盘Fault指示灯点亮。
l 硬盘指示灯不亮。
l 服务器上报硬盘故障告警。
直通模式下的硬盘发生故障时(通常指硬盘本身健康状态不佳),硬盘Fault指示灯会被点亮,同时BMC会对其进行告警。
处理方法
l 更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位。
l 更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。
步骤 1 拔掉故障硬盘。
步骤 2 判断硬盘故障后,数据是否可恢复。
l 若RAID组为RAID 0,则数据不可恢复。直接安装新硬盘,重新配置RAID,操作完成。
l 若RAID组存在热备盘,则热备盘自动替代坏盘,进入rebuild状态同步数据。
l 若RAID组为冗余RAID但不存在热备盘,则需要安装新硬盘进行数据恢复。
步骤 3 插入新硬盘。
l 若插入的硬盘无数据,则根据原RAID情况有如下工作方式:
− 若原RAID组存在热备盘,热备盘数据自动拷贝至新插入的硬盘中。原热备盘恢复热备状态,操作完成。
− 若原RAID组为冗余RAID且不存在热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成。
l 若插入的硬盘存在RAID信息,请执行步骤4。
步骤 5 手动重构RAID。
----结束
问题描述
当服务器出现如下现象时,说明RAID控制卡故障。
l 数据无法写入RAID控制卡控制的硬盘。
l 服务器上报RAID控制卡故障告警。
处理方法
步骤 1 登录BMC Web界面查看告警信息。
步骤 2 根据告警信息,参考BMC 告警处理手册处理。
l 问题解决 => 处理完毕。
l 问题未解决 => 步骤3
步骤 4 联系技术支持处理。
----结束
对系统的影响
进入配置管理界面需要重启服务器,会导致服务器业务中断。
操作步骤
步骤 1 通过服务器远程虚拟控制台登录服务器实时桌面。
步骤 2 重启服务器。
步骤 3 重启过程中,当出现如图8-29所示界面时,按“Delete”。
步骤 4 输入密码并按“Enter”。
进入Setup Utility界面。
BIOS的默认密码为“Password@_”。
步骤 5 按“→”切换到“Advanced”页签,如图8-30所示。
步骤 6 选择“MSCC SmartHBA 2100-8i”,按“Enter”。
图8-31 MSCC SmartHBA 2100-8i控制器主界面
参数 |
说明 |
Controller Information |
查看控制器相关的基本信息。 |
Configure Controller Settings |
设置控制器的相关属性。 |
Array Configuration |
创建与管理Array。 |
Disk Utilities |
查看与管理控制器的硬盘。 |
Set Bootable Device(s) for Legacy Boot Mode |
设置控制器在Legacy模式下的第一启动盘与第二启动盘。 |
Administration |
控制器的其他相关操作,包括更新Firmware,收集RAID卡日志,恢复RAID卡参数为出厂配置等。 |
----结束
在“Controller Information”界面中,可以查看控制器相关的基本信息。
界面介绍
在如图8-4所示的主界面中选择“Controller Information”,打开“Controller Information”界面,如图8-32所示,参数说明如表8-14所示。
图8-32 “Controller Information”界面
参数 |
说明 |
Controller |
Raid卡的名称。 |
Device Id |
设备编号。 |
PCI Address |
BIOS分配给Raid卡的PCI总线地址。 |
Hardware Revision |
硬件修订版本。 |
Serial Number |
RAID卡序列号。 |
WWID |
world wide name,Raid卡的唯一标识号。 |
Firmware version |
Firmware的版本号。 |
Firmware release data |
Firmware的发布日期。 |
UEFI Driver version |
UEFI驱动版本号。 |
UEFI Driver release date |
UEFI驱动版本发布日期。 |
Temperature |
Raid卡当前温度,耐受温度上限为105度,超过80度,即为不正常。 |
Controller Memory Module Size |
Raid卡的cache大小。 |
Controller Mode |
Raid卡的当前的使用模式,有RAID/Mixed/HBA三种模式。 l RAID模式:控制器下的逻辑盘会上报OS,但直通盘不会报送给OS。即在该模式下,硬盘必须先加入RAID组才可以在OS下使用。 l HBA模式:控制器的所有RAID功能都被禁用,控制器下所有硬盘被视为直通盘。该模式下,硬盘以直通方式使用。 l Mixed模式:RAID逻辑盘和直通盘都会报送给OS。即该模式支持硬盘以RAID方式和直通方式使用。 |
Supported Mode |
RAID卡Port口的支持模式。 l Port CN0:RAID HBA Mixed l Port CN1:RAID HBA Mixed |
在“Configure Controller Settings”界面中,可以设置控制器的相关属性。
界面介绍
在如图8-4所示的配置工具主界面中选择“Configure Controller Settings”,打开“Configure Controller Settings”界面,如图8-33所示,参数说明如表8-15所示。
图8-33 Configure Controller Settings
参数 |
说明 |
Modify Controller Settings |
修改控制器的相关属性。 |
Advanced Controller Settings |
修改控制器的高级属性。 |
Clear Configuration |
清除控制器当前所有的Array与RAID组配置。 |
Manage Power Settings |
控制器能耗设置。 |
BMC Settings |
RAID卡带外管理相关的BMC设置。 |
Configure Controller Port Mode |
设置Raid卡的使用模式。 |
界面说明
“Modify Controller Settings”界面如图8-34所示,参数说明如表8-16所示。
图8-34 Modify Controller Settings
参数 |
说明 |
Transformation Priority |
设置Array扩展、逻辑盘扩展、逻辑盘迁移、Array收缩/迁移等操作的优先级,分为High/Medium/Low三个选项。 说明 该选项设置为“high”时,会抢占IO资源,影响读写IO性能,建议用户保持默认取值。 |
Rebuild Priority |
设置逻辑盘重构的优先级,分为Low/Medium/Medium High/High四个选项。 默认取值为“High”。 |
Surface Scan Analysis Priority |
设置两次硬盘表面扫描的时间间隔,硬盘表面扫描主要是检查硬盘健康状态。 可选项为0~31,默认值为3,数字表示controller在下一次surface scan analysis之前的延迟时间,单位为秒。0表示禁用硬盘表面扫描功能。 |
Current Parallel Surface Scan Count |
设置同时启动硬盘表面扫描进程的数量,取值范围为1~16,默认值为1。设置为1时表示禁用硬盘表面扫描功能。 |
Spare Activation Mode |
设置热备盘的激活模式,可选模式有: l Failure Spare Activation l Predictive Spare Activation 默认取值为“Failure Spare Activation”。 |
Unconfigured Physical Drive Write Cache State |
设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
HBA Physical Drive Write Cache State |
设置HBA模式下硬盘的写Cache状态 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
Configured Physical Drive Write Cache State |
设置RAID/Mixed模式下RAID组成员盘的写Cache状态。 l Default:将硬盘的写Cache保持为默认状态 l Enabled:打开硬盘的写Cache功能 l Disabled:关闭硬盘的写Cache功能 |
Port CN0 Mode |
设置Connector 0端口的模式,有以下三种模式: l RAID模式:控制器下的LD会上报OS,但直通盘不会报送给OS。即在该模式下,硬盘必须先加入RAID组才可以在OS下使用。 l HBA模式:控制器的所有RAID功能都被禁用,所有关联的设备都被视为直通盘。该模式下,硬盘以直通方式使用。 l Mixed模式:RAID逻辑盘和直通盘都会报送给OS。即该模式支持硬盘以RAID方式和直通方式使用。 说明 l 当背板类型为直通背板时,才会显示该参数。 l 两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。 |
Port CN1 Mode |
设置Connector 1端口的模式,有以下三种模式: l RAID模式:控制器下的LD会上报OS,但直通盘不会报送给OS。即在该模式下,硬盘必须先加入RAID组才可以在OS下使用。 l HBA模式:控制器的所有RAID功能都被禁用,所有关联的设备都被视为直通盘。该模式下,硬盘以直通方式使用。 l Mixed模式:RAID逻辑盘和直通盘都会报送给OS。即该模式支持硬盘以RAID方式和直通方式使用。 说明 l 当背板类型为直通背板时,才会显示该参数。 l 两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。 |
Submit Changes |
确认修改。 |
当“Surface Scan Analysis priority”选项设置为0或“Current Parallel Surface Scan Count”选项设置为1时,硬盘表面扫描功能(Surface Scan)会被禁用。
界面说明
“Advanced Controller Settings”界面如图8-35所示,参数说明如表8-17所示。
图8-35 Advanced Controller Settings
参数 |
说明 |
Degraded Mode Performance Optimization |
对于降格的RAID5逻辑驱动器,启用此设置将指示控制器通过缓冲物理驱动器请求,提高大规模读请求的性能;禁用此设置将强制控制器从同一驱动器中多次读取数据。 |
Physical Drive Request Elevator Sort |
设置驱动器的写入电梯排序算法的行为。这种调度优化将I/O请求按优先级排序,使磁盘取数臂和磁头运动继续沿同一方向进行。启用电梯排序功能将优化寻道时间;禁用电梯排序功能将增加吞吐量。 |
Maximum Drive Request Queue Depth |
设置控制器的队列深度,有效取值自动设置为2,4,8,16和32。 |
Monitor and Performance Analysis Delay |
以分钟为单位,设置控制器的监控和性能分析延迟参数。默认参数值为60分钟。若将该值设置为0,将禁用监控和性能分析功能。 |
HDD Flexible Latency Optimization |
为硬盘提供灵活时延优化功能。启用灵活时延优化功能,控制器会检测I/O请求,设置时延阈值。如果检测到的I/O请求时延满足该阈值,则即时禁用电梯排序功能和业务请求,执行满足阈值的I/O请求,减少高时延I/O请求数量。阈值的有效取值范围如下: l Disabled:禁用 l Low:低值 l Middle(100ms):中等值 l High:高值 l Very High(30ms):较高值 l Very High(10ms):极高值 |
Submit Changes |
确认修改。 |
界面说明
“Clear Configuration”界面如图8-36所示,参数说明如表8-18所示。
参数 |
说明 |
Delete All Array Configurations |
清除所有RAID组的配置信息。 须知 选择该参数会删除当前RAID卡下所有的RAID配置信息,请谨慎操作。 |
Delete Configuration metadata on all physical drives |
清除所有不属于RAID组,但带有RAID信息的物理硬盘数据。 |
界面说明
“Manage Power Settings”界面如图8-37所示,参数说明如表8-19所示。
参数 |
说明 |
Power Mode |
设置控制器的power mode。 l Minimum Power:将static设置设为最低级。 l Balanced:static设置随配置而定。 l Maximum Performance:将static设置设为最高级。 说明 默认为“Maximum Performance”。 |
Survival Mode |
当RAID卡的温度超过阈值时,Survival Mode将允许控制器将所有的功耗配置设置为最小值,选择该模式后,服务器将继续在这种环境下工作,但性能可能会下降。 l Enabled:启动该特性。 l Disabled:关闭该特性。 默认取值为Enabled。 |
Submit Changes |
确认修改。 |
“BMC Settings”界面如图8-38所示,参数说明如表8-20所示。
参数 |
说明 |
I2C Slave Address(Hexadecimal) |
设置Controller在I2C总线上的设备地址。 该地址为协议格式中第一个字节(称为slave address),由7位地址和一位R/W读写位(0写1读)组成,设置范围为0xD0~0xFF。 |
Submit Changes |
确认修改。 |
界面说明
“Configure Controller Port Mode”界面如图8-39所示,参数说明如表8-21所示。
图8-39 Configure Controller Port Mode
参数 |
说明 |
Controller Port Mode |
控制器的端口模式,有以下三种: l HBA:该模式下,支持硬盘直通功能,不支持创建RAID组。当有RAID组存在时,不支持切换到该模式。 l RAID:该模式下,支持创建RAID组,不支持硬盘直通功能。 l Mixed:支持硬盘直通功能与创建RAID组。 |
Submit Changes |
确认修改。 |
设置控制器的端口模式
通过该操作,可将所有Connector的工作模式同时设置为同一模式。
步骤 1 在图8-39中选择“Controller Port Mode”,并按“Enter”。
弹出端口模式菜单。
步骤 2 选择要设置的控制器端口模式,并按“Enter”。
步骤 3 选择“Submit Changes”,并按“Enter”。
提示操作成功。
----结束
界面说明
“Array Configuration”界面如图8-40所示,参数说明如表8-22所示。
参数 |
说明 |
Create Array |
创建Array。 |
Create maxCache Array |
创建maxCache Array。 说明 2100-8i不支持创建maxCache Array。 |
Manage Arrays |
管理已创建的Array。 |
界面说明
“Disk Utilities”界面如图8-41所示。
如果2100-8i RAID卡接的是Expander,该界面还会显示Expander的相关信息,如图8-42所示。
界面说明
在“Set Bootable Device(s) for Legacy Boot Mode”界面可设置Legacy模式下的启动盘,如图8-43所示,参数说明如表8-23所示。
图8-43 Set Bootable Device(s) for Legacy Boot Mode
参数 |
说明 |
Primary Bootable Device |
第一启动盘。 |
Secondary Bootable Device |
第二启动盘。 |
Select Bootable Logical Drive |
设置逻辑盘为第一启动盘或第二启动盘。 |
Number of OS bootable drives |
设置系统启动盘的数量。 |
Clear Bootable Device(s) |
清除启动盘。 l Select Boot Precedence:选择将要清除的启动盘。 l Clear Bootable Device(s):确认清除启动盘。 |
界面说明
“Administration”界面如图8-44所示,参数说明如表8-24所示。
参数 |
说明 |
Flash Controller Firmware |
更新控制器的Firmware。 该接口暂不可用。 |
Save Support Archive |
收集RAID卡日志。 该接口暂不可用。 |
Reset controller settings to factory defults |
将控制器恢复出厂配置。 |
使用OS命令行工具可以在服务器正常运行过程中对RAID卡进行操作,不需要重启服务器。
请联系技术支持获取ARCCONF工具的下载和安装方法。
l 为快速获取命令结果,建议在每条命令之后增加nodiskinfo参数,如arcconf list controller_id nodiskinfo。
l ARCCONF工具在23168及以后版本支持nodiskinfo参数。
命令功能
查询RAID卡的基本信息。
命令格式
arcconf list controller_id
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
使用指南
无
使用实例
# 查询ID为1的控制器属性。
[root@localhost ~]# arcconf list 1
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
Controller ID : Status, Slot, Mode, Name, SerialNumber, WWN
----------------------------------------------------------------------
Controller 1: : Optimal, Slot 1, RAID (Hide RAW), MSCC Adaptec SmartHBA 2100-8i, 7A4563EDE26, 50000D1703F07180
----------------------------------------------------------------------
Array Information
----------------------------------------------------------------------
Array ID : Status (Interface, TotalSize MB, FreeSpace MB)
----------------------------------------------------------------------
Array 0 : Has Failed Logical Drive (SATA, 19077120 MB, 0 MB)
Array 1 : Ok (SATA, 9538560 MB, 5343744 MB)
----------------------------------------------------------------------
Logical device information
----------------------------------------------------------------------
Logical ID : Status (RAID, Interface, Size MB) Name
----------------------------------------------------------------------
Logical 0 : Failed (10, Data, 4194304 MB) A
Logical 1 : Optimal (10, Data, 5344246 MB) B
Logical 2 : Optimal (1, Data, 2097152 MB) Logical Drive 3
----------------------------------------------------------------------
Physical Device information
----------------------------------------------------------------------
Physical ID : State (Interface, BlockSize, SizeMB, Vendor,
Model, Type) WWN, [Location]
----------------------------------------------------------------------
Physical 0,8 : Online (SATA, 512 Bytes, 4769307MB, ATA ,
HUS726050ALE610 , Hard Drive) 500E004AAAAAAA00, [Enclosure 1, Slot 0(Connector 0:CN0)]
Physical 0,9 : Online (SATA, 512 Bytes, 4769307MB, ATA ,
HGST HUS726050AL, Hard Drive) 500E004AAAAAAA01, [Enclosure 1, Slot 1(Connector 0:CN0)]
Physical 0,10 : Online (SATA, 512 Bytes, 4769307MB, ATA ,
HGST HUS726050AL, Hard Drive) 500E004AAAAAAA02, [Enclosure 1, Slot 2(Connector 0:CN0)]
Physical 0,11 : Online (SATA, 512 Bytes, 4769307MB, ATA ,
HGST HUS726050AL, Hard Drive) 500E004AAAAAAA03, [Enclosure 1, Slot 3(Connector 0:CN0)]
Physical 0,12 : Online (SATA, 512 Bytes, 4769307MB, ATA ,
HGST HUS726050AL, Hard Drive) 500E004AAAAAAA04, [Enclosure 1, Slot 4(Connector 0:CN0)]
Physical 0,13 : Online (SATA, 512 Bytes, 4769307MB, ATA ,
HGST HUS726050AL, Hard Drive) 500E004AAAAAAA05, [Enclosure 1, Slot 5(Connector 0:CN0)]
Physical 2,0 : Ready (SES2, Not Applicable, Not Applicable, 12G SAS, Expander, Enclosure Services Device) 500E004AAAAAAA1F, [Connector 0:CN0,
Enclosure 1]
Physical 2,3 : Ready (SES2, Not Applicable, Not Applicable,
MSCC , Virtual SGPIO, Enclosure Services Device) 50000D1703F07180, [Not Applicable]
Command completed successfully.
命令功能
查询RAID卡的基本信息。
命令格式
表8-25
命令格式 |
功能 |
arcconf getconfig controller_id AD |
查询适配器信息 |
arcconf getconfig controller_id LD |
查询所有LD的信息 |
arcconf getconfig controller_id LD LD_id |
查询特定LD的信息 |
arcconf getconfig controller_id PD |
查询所有物理硬盘的信息 |
arcconf getconfig controller_id PD physical_id |
查询特定物理硬盘的信息 |
arcconf getconfig controller_id AR |
查询所有Array的信息 |
arcconf getconfig controller_id AR AR_id |
查询特定Array的信息 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
LD_id |
LD的ID |
– |
physical_id |
硬盘的physical编号 |
– |
AR_id |
Array的ID |
– |
使用指南
无
使用实例
# 查询所有Array的信息。
[root@localhost ~]# arcconf getconfig 1 ar
Controllers found: 1
----------------------------------------------------------------------
Array Information
----------------------------------------------------------------------
Array Number 0
Name : A
Status : Has Failed Logical Drive
Interface : SATA
Total Size : 19077120 MB
Unused Size : 0 MB
Block Size : 512 Bytes
Array Utilization : 100.00% Used, 0.00% Unused
Type : Data
Transformation Status : Not Applicable
Spare Rebuild Mode : Dedicated
SSD I/O Bypass : Not Applicable
--------------------------------------------------------
Array Logical Device Information
--------------------------------------------------------
Logical 0 : Failed (10, Data, 4194304 MB) A
Logical 1 : Optimal (10, Data, 5344246 MB) B
--------------------------------------------------------
Array Physical Device Information
--------------------------------------------------------
Device 8 : Present (4769307MB, SATA, HDD,
Connector:CN0, Enclosure:1, Slot:0) NAG24LBX
Device 9 : Present (4769307MB, SATA, HDD,
Connector:CN0, Enclosure:1, Slot:1) NAG24N8X
Device 10 : Present (4769307MB, SATA, HDD,
Connector:CN0, Enclosure:1, Slot:2) NAG24L3X
Device 11 : Present (4769307MB, SATA, HDD,
Connector:CN0, Enclosure:1, Slot:3) NAG24L0X
Array Number 1
Name : B
Status : Ok
Interface : SATA
Total Size : 9538560 MB
Unused Size : 5343744 MB
Block Size : 512 Bytes
Array Utilization : 43.97% Used, 56.03% Unused
Type : Data
Transformation Status : Not Applicable
Spare Rebuild Mode : Dedicated
SSD I/O Bypass : Not Applicable
--------------------------------------------------------
Array Logical Device Information
--------------------------------------------------------
Logical 2 : Optimal (1, Data, 2097152 MB)
Logical Drive 3
--------------------------------------------------------
Array Physical Device Information
--------------------------------------------------------
Device 12 : Present (4769307MB, SATA, HDD,
Connector:CN0, Enclosure:1, Slot:4) NAG24LMX
Device 13 : Present (4769307MB, SATA, HDD, Connector:CN0,
Enclosure:1, Slot:5) NAG24NPX
Command completed successfully.
# 查询所有LD的基本信息。
[root@localhost ~]# arcconf getconfig 1 ld
Controllers found: 1
----------------------------------------------------------------------
Logical device information
----------------------------------------------------------------------
Logical Device number 0
Logical Device name : A
Disk Name : Not Applicable
Block Size of member drives : 512 Bytes
Array : 0
RAID level : 10
Status of Logical Device : Failed
Size : 4194304 MB
Stripe-unit size : 256 KB
Full Stripe Size : 512 KB
Interface Type : Serial ATA
Device Type : Data
Boot Type : None
Heads : 255
Sectors Per Track : 32
Cylinders : 65535
Mount Points : Not Applicable
LD Acceleration Method : None
Volume Unique Identifier : 600508B1001CC135379258C5A0305DB4
--------------------------------------------------------
Logical Device segment information
--------------------------------------------------------
Group 0, Segment 0 : Present (4769307MB, SATA, HDD,
Connector:CN0, Enclosure:1, Slot:0) NAG24LBX
Group 0, Segment 1 : Present (4769307MB, SATA, HDD,
Connector:CN0, Enclosure:1, Slot:1) NAG24N8X
Group 1, Segment 0 : Present (4769307MB, SATA, HDD,
Connector:CN0, Enclosure:1, Slot:2) NAG24L3X
Group 1, Segment 1 : Present (4769307MB, SATA, HDD,
Connector:CN0, Enclosure:1, Slot:3) NAG24L0X
Logical Device number 1
Logical Device name : B
Disk Name : /dev/sda
Block Size of member drives : 512 Bytes
Array : 0
RAID level : 10
Status of Logical Device : Optimal
Size : 5344246 MB
Stripe-unit size : 256 KB
Full Stripe Size : 512 KB
Interface Type : Serial ATA
Device Type : Data
Boot Type : None
Heads : 255
Sectors Per Track : 32
Cylinders : 65535
Mount Points : Not Applicable
LD Acceleration Method : None
Volume Unique Identifier : 600508B1001C2AD867883CE2E456B2DD
--------------------------------------------------------
Logical Device segment information
--------------------------------------------------------
Group 0, Segment 0 : Present (4769307MB, SATA, HDD,
Connector:CN0, Enclosure:1, Slot:0) NAG24LBX
Group 0, Segment 1 : Present (4769307MB, SATA, HDD,
Connector:CN0, Enclosure:1, Slot:1) NAG24N8X
Group 1, Segment 0 : Present (4769307MB, SATA, HDD,
Connector:CN0, Enclosure:1, Slot:2) NAG24L3X
Group 1, Segment 1 : Present (4769307MB, SATA, HDD,
Connector:CN0, Enclosure:1, Slot:3) NAG24L0X
Logical Device number 2
Logical Device name : Logical Drive 3
Disk Name : /dev/sdb
Block Size of member drives : 512 Bytes
Array : 1
RAID level : 1
Status of Logical Device : Optimal
Size : 2097152 MB
Stripe-unit size : 256 KB
Full Stripe Size : 256 KB
Interface Type : Serial ATA
Device Type : Data
Boot Type : None
Heads : 255
Sectors Per Track : 32
Cylinders : 65535
Mount Points : /boot/efi 57220 MB Partition Number 1 / 476837 MB Partition Number 2
LD Acceleration Method : None
Volume Unique Identifier : 600508B1001C1B97F48F2E0DC9CC2FCA
--------------------------------------------------------
Array Physical Device Information
--------------------------------------------------------
Device 12 : Present (4769307MB, SATA, HDD,
Connector:CN0, Enclosure:1, Slot:4) NAG24LMX
Device 13 : Present (4769307MB, SATA, HDD,
Connector:CN0, Enclosure:1, Slot:5) NAG24NPX
Command completed successfully.
命令功能
查询RAID卡的FW和驱动的版本信息。
命令格式
arcconf getversion
使用实例
# 查询RAID卡FW和驱动的版本信息。
[root@localhost ~]# arcconf getversion
Controllers found: 1
Controller #1
==============
Firmware : 1.43[0] (0)
Driver : Linux 1.1.2-125 (0)
Command completed successfully.
命令功能
设置RAID卡工作模式。
命令格式
arcconf setcontrollermode controller_id mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡的ID |
– |
mode |
RAID卡工作模式 |
l 2:设置为HBA模式。 l 3:设置为RAID模式。 l 5:设置为Mixed 模式。 说明 2100-8i的工作模式的介绍请参见8.3.2 支持多种工作模式。 |
使用指南
无
使用实例
# 设置RAID卡工作模式为“RAID”。
[root@localhost ~]# ./arcconf setcontrollermode 1 3
Controllers found: 1
Command completed successfully.
# 查询RAID卡工作模式。
[root@localhost ~]# arcconf getconfig 1
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
Controller Status : Optimal
Controller Mode : RAID (Hide RAW)
Channel description : SCSI
Controller Model : MSCC Adaptec SmartHBA 2100-8i
Controller Serial Number : 7A4563EDE26
Controller World Wide Name : 50000D1703F07180
Physical Slot : 1
Temperature : 48 C/ 118 F (Normal)
Host bus type : PCIe 3.0
Host bus speed : 7880 MBps
Host bus link width : 8 bit(s)/link(s)
PCI Address (Bus:Device:Function) : 0:3b:0:0
Number of Ports : 2
Internal Port Count : 2
External Port Count : 0
Defunct disk drive count : 0
NCQ status : Enabled
Queue Depth : Automatic
Monitor and Performance Delay : 60 minutes
Elevator Sort : Enabled
Degraded Mode Performance Optimization : Disabled
Latency : Disabled
Statistics data collection mode : Disabled
Post Prompt Timeout : 0 seconds
Boot Controller : False
Primary Boot Volume : None
Secondary Boot Volume : None
Driver Name : smartpqi
Driver Supports SSD I/O Bypass : Yes
Manufacturing Part Number : Not Applicable
Manufacturing Spare Part Number : Not Applicable
Manufacturing Wellness Log : Not Applicable
NVRAM Checksum Status : Passed
Sanitize Lock Setting : None
--------------------------------------------------------
Power Settings
--------------------------------------------------------
Power Consumption : 7910 milliWatts
Current Power Mode : Maximum Performance
Pending Power Mode : Not Applicable
Survival Mode : Enabled
--------------------------------------------------------
I2C Settings
--------------------------------------------------------
I2C Address : 0xDE
I2C Clock Speed : 400 KHZ
I2C Clock Stretching : Enabled
--------------------------------------------------------
Cache Properties
--------------------------------------------------------
Global Physical Device Write Cache Policy: Disabled
--------------------------------------------------------
RAID Properties
--------------------------------------------------------
Logical devices/Failed/Degraded : 3/1/0
Automatic Failover : Disabled
Background consistency check : Idle
Consistency Check Delay : 3 seconds
Parallel Consistency Check Supported : Enabled
Parallel Consistency Check Count : 1
Inconsistency Repair Policy : Disabled
Consistency Check Inconsistency Notify : Disabled
Rebuild Priority : High
Expand Priority : Medium
--------------------------------------------------------
Controller Version Information
--------------------------------------------------------
......
回显信息中的“Controller Mode”即为RAID卡的工作模式。
命令功能
查询所有适用arcconf工具的RAID卡。
命令格式
arcconf list
使用实例
# 查询所有适用arcconf工具的RAID卡。
[root@localhost ~]# arcconf list
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
Controller ID : Status, Slot, Mode, Name, SerialNumber, WWN
----------------------------------------------------------------------
Controller 1: : Optimal, Slot 1, Mixed, MSCC Adaptec SmartHBA 2100-8i, 7A4563EDE26, 50000D1703F07180
Command completed successfully.
命令功能
通过该命令可以将PD或LD设置成启动设备,其中,PD在RAID卡的工作模式为HBA或MIX时生效,LD在RAID卡的工作模式为MIX或RAID时生效。
命令格式
arcconf setboot controller_id logicaldrive LD_id type boot_type
arcconf setboot controller_id device physical_id type boot_type
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
LD_id |
LD的ID |
– |
boot_type |
启动项的类型 |
Primary :将LD或PD设置为第一启动设备。 Secondary :将LD或PD设置为第二启动设备。 |
physical_id |
硬盘的physical ID |
– |
使用实例
# 设置LD1为第一启动设备。
[root@localhost ~]# arcconf setboot 1 logicaldrive 1 type primary
Controllers found: 1
Do you wish to change the boot type of the selected device.
Press y, then ENTER to continue or press ENTER to abort: y
Command completed successfully.
命令功能
设置热备盘的模式。
命令格式
arcconf setarrayparam controller_id array_id sparetype mode
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
array_id |
array的ID |
– |
mode |
热备盘的类型 |
l 1:Dedicated l 2:Autoreplace 说明 热备盘相关介绍请参见8.3.3 硬盘热备份。 |
使用实例
# 设置Array的热备盘模式为:Dedicated。
[root@localhost ~]# arcconf setarrayparam 1 0 sparetype 1
Controllers found: 1
Command completed successfully.
[root@localhost ~]#
命令功能
点亮、熄灭控制器的硬盘定位指示灯。
命令格式
表8-26
命令 |
功能 |
arcconf identify controller_id device physical_id time time |
对特定的物理硬盘进行点灯,time为可选项,表示点灯持续的时间,单位为秒。 |
arcconf identify controller_id device physical_id |
对特定的物理硬盘持续点灯,按任意键会停止点灯。 |
arcconf identify controller_id all time time |
对所有的物理硬盘进行点灯,time为可选项,表示点灯持续的时间,单位为秒。 |
arcconf identify controller_id all stop |
对所有的物理硬盘停止点灯 |
arcconf identify controller_id logicaldrive LD_id time time |
对特定的LD进行点灯,time为可选项,表示点灯持续的时间,单位为秒。 |
arcconf identify controller_id logicaldrive LD_id |
对特定的LD停止点灯 |
arcconf identify controller_id array array_id time time |
对特定的Array进行点灯,time为可选项,表示点灯持续的时间,单位为秒。 |
arcconf identify controller_id array array_id |
对特定的Array停止点灯 |
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
LD_id |
LD的ID |
– |
physical_id |
硬盘的physical ID |
– |
time |
硬盘指示灯点亮的时间。 |
为可选项,表示点灯持续的时间,单位为秒。 |
array_id |
array的ID |
– |
使用实例
# 对slot 0硬盘的停止指示灯。
[root@localhost ~]# ./arcconf identify 1 device 0 0
Controllers found: 1
Only devices managed by an enclosure processor may be identified
The specified device(s) is/are blinking.
Press any key to stop the blinking.
# 设置所有的盘进行点灯60秒。
[root@localhost ~]# ./arcconf identify 1 all time 60
Controllers found: 1
Only devices managed by an enclosure processor may be identified
Command completed successfully.
# 熄灭所有的硬盘指示灯。
[root@localhost ~]# ./arcconf identify 1 all stop
Controllers found: 1
Command completed successfully.
命令功能
为LD设置热备盘。
命令格式
arcconf setstate controller_id device physical_id hsp array array_id sparetype type
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
physical_id |
硬盘的physical ID |
– |
array_id |
Array的ID |
– |
type |
热备盘的类型 |
1 : Dedicated 2 : Autoreplace 说明 热备盘相关介绍请参见8.3.3 硬盘热备份。 |
使用实例
# 为LD设置Autoreplace热备盘。
[root@localhost ~]# arcconf setstate 1 device 0 3 hsp array 0 sparetype 2
Controllers found: 1
Any existing hot-spare drives of a different sparetype will be removed.
The physical drive used for this operation is connected to Mixed Mode(Smart HBA) connector. Using it will not allow operating system to use the drive contents.
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
Command completed successfully.
[root@localhost ~]#
命令功能
设置后台一致性检查的并行个数。
命令格式
arcconf consistencycheck controller_id parallelcount parallelcount_number
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
parallelcount_number |
后台一致性检查的并行个数 |
– |
使用实例
# 设置后台一致性检查的并行个数为4。
[root@localhost ~]# arcconf consistencycheck 1 parallelcount 4
Controllers found: 1
Command completed successfully.
[root@localhost ~]#
CONSISTENCYCHECK <Controller#> PARALLELCOUNT <Count>
命令功能
创建、删除RAID。
命令格式
arcconf create controller_id logicaldrive option size level physical_id physical_id......
arcconf delete controller_id logicaldrive ld_id noprompt
参数说明
参数 |
参数说明 |
取值 |
controller_id |
RAID卡ID |
请参照8.8.2.1 查询RAID卡的基本信息获取RAID卡的controller_id。 controller_id从1开始排序,如果有多张RAID卡,将按照1,2,3...的方式进行排序。 |
option |
要创建的LD的相关属性,具体请参见表8-27。 |
– |
size |
LD的容量大小。 |
单位为MB,设置时只输入数字即可,如数值设为“1024”,则表示虚拟磁盘的容量为1024MB。 如果设置为“MAX”,表示使用硬盘的所有容量创建虚拟磁盘。 |
level |
要创建的LD的级别。 |
支持的RAID级别请参照8.3.1 支持多种RAID级别。 |
physical_id |
LD成员盘的physical ID |
请参照8.8.2.2 查询物理硬盘、Array、LD等相关信息获取物理硬盘的ID。 |
LD_id |
虚拟磁盘ID |
请参照8.8.2.2 查询物理硬盘、Array、LD等相关信息获取虚拟磁盘的ID。 |
可设置属性 |
说明 |
取值 |
Stripesize |
LD的条带大小 |
16/32/64/128/256/512/1024 |
Name |
LD的名称。 |
– |
LDcache |
即Controller Cache。 |
– |
SSDOverProvisioningOptimization |
SSD的特性。 |
l enable l disable 说明 当设置为Enabled时,SSD初始化时能支持快速校验初始化操作。 |
DataLD |
被加速的LD的ID。 |
– |
使用指南
无
使用实例
# 创建RAID 0。
[root@localhost ~]# ./arcconf create 1 logicaldrive max 0 0 7
Controllers found: 1
Do you want to add a logical device to the configuration?
Press y, then ENTER to continue or press ENTER to abort: y
Creating logical device: LogicalDrv 1
Command completed successfully.
# 删除ID为1的虚拟磁盘。
[root@localhost ~]# ./arcconf delete 1 logicaldrive 1 noprompt
Controllers found: 1
WARNING: Deleting this logical device will automatically delete array 1 because it is the only logical device present on that array.
All data in logical device 1 will be lost.
Deleting: logical device 1 ("LogicalDrv 1")
Command completed successfully.
命令功能
使能一致性检查的修复策略。
命令格式
arcconf consistencycheck controller_id inconsistencyrepairpolicy enable
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
使用实例
# 使能一致性检查的修复策略。
[root@localhost ~]# arcconf consistencycheck 1 inconsistencyrepairpolicy enable
Controllers found: 1
Command completed successfully.
[root@localhost ~]#
命令功能
使能一致性检查生成调试信息并发出通知。
命令格式
arcconf consistencycheck controller_id eventnotify enable
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
使用实例
# 使能一致性检查生成调试信息并发出通知。
[root@localhost ~]# arcconf consistencycheck 1 eventnotify enable
Controllers found: 1
Command completed successfully.
[root@localhost ~]#
CONSISTENCYCHECK <Controller#> EVENTNOTIFY <Enable | Disable>
命令功能
关闭一致性检查功能。
命令格式
arcconf consistencycheck controller_id off
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
– |
使用实例
# 关闭一致性检查功能。
[root@localhost ~]# arcconf consistencycheck 1 off
Controllers found: 1
Command completed successfully.
CONSISTENCYCHECK <Controller#> <On [Delay]|Off> [noprompt] [nologs]
命令功能
查询、设置硬盘写Cache策略。
命令格式
arcconf getconfig controller_id ad
arcconf setcache controller_id drivewritecachepolicy drivetype cachepolicy drivetype cachepolicy...
参数说明
参数 |
参数说明 |
取值 |
controller_id |
硬盘所在RAID卡的ID |
- |
drivetype |
要设置写Cache策略的硬盘类型 |
l Configured:设置RAID/Mixed模式下RAID组成员盘的写Cache策略。 l Unconfigured:设置RAID/Mixed模式下非RAID组成员盘的写Cache策略。 l HBA:设置HBA模式下硬盘的写Cache策略。 |
cachepolicy |
硬盘写Cache策略 |
l 0:Default(将硬盘的写Cache保持为默认状态) l 1:Enabled(打开硬盘的写Cache功能) l 2:Disabled(关闭硬盘的写Cache功能) |
使用实例
# 设置Configured状态的硬盘Cache写策略为Enabled,设置Unconfigured状态的硬盘Cache写策略为Disabled。
[root@localhost ~]# ./arcconf setcache 1 drivewritecachepolicy Configured 1 Unconfigured 2
Controllers found: 1
Enabling controller drive write cache can increase write performance but risks losing the data in the cache on sudden loss.
Command completed successfully.
# 查询当前的硬盘写Cache策略
[root@localhost ~]# ./arcconf getconfig 1 ad
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
Controller Statue : Optimal
Controller Mode :Mixed
Channle description :SCSI
...
----------------------------------------------------------------------
Physical Drive Write Cache Policy Information
----------------------------------------------------------------------
Configured Drives :Enabled
Unconfigured Drives :Disabled
HBA Drives :Default
----------------------------------------------------------------------
...
A.1.1 RAID卡驱动下载和安装
RAID卡驱动下载和安装的方法请联系技术支持。
A.1.2 通过BMC管理RAID卡
BMC 2.32及以上版本,提供了带外管理RAID功能。您可以通过BMC Web界面或命令行对支持带外管理的RAID卡进行基本的查询和配置操作。
表A-1描述了MegaRAID固件中出现的启动错误消息。
序号 |
显示的启动消息 |
原因及处理方法/建议 |
1 |
Memory or battery problems were detected. The adapter has recovered, but cached data was lost. Press any key to continue, or press C to load the configuration utility. |
原因:缓存数据丢失,无法检索。 处理方法:进行内存和电池测试。如果需要,更换电池或RAID卡。 |
2 |
This is a test message. You can press a key to ignore it, or you can wait five seconds. No further action is required. Press any key to continue, or press C to load the configuration utility. |
这是一条测试消息,可以按任意键忽略,或者等待五秒,无需进一步处理。 |
3 |
Firmware version inconsistency was detected. The adapter has recovered, but cached data was lost. Press any key to continue, or press C to load the configuration utility. |
原因:检测到固件版本不一致。适配器已恢复,但是缓存的数据已经丢失。 处理方法:确保另一个控制器也具有相同的固件版本。 |
4 |
Foreign configuration(s) found on adapter. Press any key to continue or press C to load the configuration utility or press F to import foreign configuration(s) and continue. |
原因:插入了一个存储设备,其中的元数据不属于控制器识别的任何RAID组。 处理方法:导入已插入的存储设备的配置或删除RAID组。 |
5 |
Previous configuration cleared or missing. Importing configuration created on %02d/%02d%2d:%02d. Press any key to continue, or press C to load the configuration utility. |
原因:控制器无法识别当前RAID组配置。 处理方法:导入配置或删除存储设备上的外部配置。 |
6 |
Firmware package: %s |
无 |
7 |
Firmware version: %s |
无 |
8 |
This firmware is a TEST version. It has not completed any validation. |
原因:控制器无法识别当前RAID组配置。 处理方法:将固件升级到正确的版本。 |
9 |
This firmware is an ALPHA version – It has not completed all validation. The validation stamp is: %s""" |
原因:控制器无法识别当前RAID组配置。 处理方法:将固件升级到正确的版本。 |
10 |
This firmware is BETA version – It has not completed all validation. The validation stamp is: %s""" |
原因:控制器无法识别当前RAID组配置。 处理方法:将固件升级到正确的版本。 |
11 |
An enclosure was found that contains both SAS and SATA drives, but this controller does not allow mixed drive types in a single enclosure. Correct the problem then restart your system. Press any key to continue, or press C to load the configuration utility. |
原因:不能使用同时包含SAS和SATA盘的Enclosure,因为控制器不支持包含混合磁盘类型的Enclosure。 处理方法: l 只使用一种类型的磁盘(SAS或SATA)。 l 更换控制器为支持单个Enclosure包含混合磁盘类型的控制器。 l 联系技术支持启用该特性。 |
12 |
SAS drives were detected, but this controller does not support SAS drives. Remove the SAS drives then restart your system. Press any key to continue, or press C to load the configuration utility. |
原因:该控制器不支持SAS盘。 处理方法:更换SAS盘为SATA盘并重启系统。 |
13 |
SATA drives were detected, but this controller does not support SATA drives. Remove the SATA drives then restart your system. Press any key to continue, or press C to load the configuration utility. |
原因:该控制器不支持SATA盘。 处理方法:将SATA盘替换为SAS盘并重启系统。 |
14 |
There are %d enclosures connected to connector %s, but only maximum of %d enclosures can be connected to a single SAS connector. Remove the extra enclosures then restart your system. |
原因:该控制器只支持特定数量的Enclosure。 处理方法:移除多余的Enclosure或插入满足需求的控制器。 |
15 |
Invalid SAS topology detected. Check your cable configurations, repair the problem, and restart your system. |
原因:控制器检测到无效的SAS拓扑。 处理方法:检查线缆或重新配置连接的设备以创建有效的SAS拓扑。 |
16 |
The battery is currently discharged or disconnected. Verify the connection and allow 30 minutes for charging. If the battery is properly connected and it has not returned to operational state after 30 minutes of charging then contact technical support for additional assistance. |
原因:电池当前处于放电或断开状态。 处理方法: l 检查电池线缆,确保电池线缆连接正常。 l 确保电池充电正常。 l 如果电池电量耗尽,请联系技术支持更换电池。 |
17 |
The battery hardware is missing or malfunctioning, or the battery is unconnected, or the battery could be fully discharged. If you continue to boot the system, the battery-backed cache will not function. If battery is connected and has been allowed to charge for 30 minutes and this message continues to appear, contact technical support for assistance. Press D to disable this warning (if your controller does not have a battery) |
原因:电池硬件缺失或故障,或电池未连接,或电池完全放电。 处理方法: l 检查电池线缆,确保电池线缆连接正常。 l 确保电池充电正常。 l 如果电池电量耗尽,请联系技术支持更换电池。 |
18 |
Invalid SAS Address present in MFC data. Program a valid SAS Address and restart your system. |
原因:可能存在无效的SAS地址。 处理方法: 1. 将系统下电,移除控制器。 2. 联系技术支持,对SAS地址重新编程。 |
19 |
Some configured disks have been removed from your system, or are no longer accessible. Check your cables and also make sure all disks are present. Press any key to continue, or press C to load the configuration utility. |
原因:控制器无法找到已配置的磁盘。 处理方法: l 检查已配置的磁盘是否在位、连接是否正常。 l 进入BIOS,查看这些设备是否有显示。 l 确保磁盘已启动并有电源供应。 l 如果有背板,检查连接器,确保磁盘有电源供应。 |
20 |
The following VDs have missing disks: %s. If you proceed (or load the configuration utility), these VDs will be marked OFFLINE and will be inaccessible. Check your cables and make sure all disks are present. Press any key to continue, or press C to load the configuration utility. |
原因:控制器无法找到已配置的磁盘。 处理方法: l 检查已配置的磁盘是否在位、连接是否正常。 l 进入BIOS,查看这些设备是否有显示。 l 确保磁盘已启动并有电源供应。 l 如果有背板,检查连接器,确保磁盘有电源供应。 |
21 |
The following VDs are missing: %s. If you proceed (or load the configuration utility), these VDs will be removed from your configuration. If you wish to use them at a later time, they will have to be imported. If you believe these VDs should be present, power off your system and check your cables to make sure all disks are present. Press any key to continue, or press C to load the configuration utility. |
原因:控制器无法找到已配置的磁盘。 处理方法: l 检查已配置的磁盘是否在位、连接是否正常。 l 进入BIOS,查看这些设备是否有显示。 l 确保磁盘已启动并有电源供应。 l 如果有背板,检查连接器,确保磁盘有电源供应。 |
22 |
The following VDs are missing complete spans: %s. If you proceed (or load the configuration utility), these VDs will be removed from your configuration and the remaining drives marked as foreign. If you wish to use them at a later time, restore the missing span(s) and use a foreign import to recover the VDs. If you believe these VDs should be present, please power off your system and check your cables to make sure all disks are present. Press any key to continue, or press C to load the configuration utility. |
原因:控制器无法找到已配置的磁盘。 处理方法: l 检查已配置的磁盘是否在位、连接是否正常。 l 进入BIOS,查看这些设备是否有显示。 l 确保磁盘已启动并有电源供应。 l 如果有背板,检查连接器,确保磁盘有电源供应。 |
23 |
All of the disks from your previous configuration are gone. If this is an unexpected message, power off your system and check your cables to make sure all disks are present. Press any key to continue, or press C to load the configuration utility. |
原因:控制器无法找到已配置的磁盘。 处理方法: l 检查已配置的磁盘是否在位、连接是否正常。 l 进入BIOS,查看这些设备是否有显示。 l 确保磁盘已启动并有电源供应。 l 如果有背板,检查连接器,确保磁盘有电源供应。 |
24 |
The cache contains dirty data, but some VDs are missing or will go offline, so the cached data can not be written to disk. If this is an unexpected error, power off your system and check your cables to make sure all disks are present. If you continue, the data in cache will be permanently discarded. Press X to acknowledge and permanently destroy the cached data. |
原因:控制器无法找到已配置的磁盘。 处理方法: l 检查已配置的磁盘是否在位、连接是否正常。 l 进入BIOS,查看这些设备是否有显示。 l 确保磁盘已启动并有电源供应。 l 如果有背板,检查连接器,确保磁盘有电源供应。 |
25 |
Your VDs that are configured for Write-Back are temporarily running in Write-Through mode. This is caused by the battery being charged, missing, or bad. Allow the battery to charge for 24 hours before evaluating the battery for replacement. The following VDs are affected: %s Press any key to continue. |
原因:配置为Write Back策略的虚拟磁盘暂时以Write Through方式运行。因为电池正在充电,或者电池已经丢失、损坏。 处理方法: l 检查电池线缆,确保电池线缆连接正常。 l 确保电池充电正常。 l 如果电池电量耗尽,联系技术支持更换电池。 |
26 |
Invalid memory configuration detected. Contact your system support. System has halted. |
原因:检测到无效内存配置。 处理方法:更换RAID卡。 |
27 |
Cache data was lost due to an unexpected power-off or reboot during a write operation, but the adapter has recovered. This could be because of memory problems, bad battery, or you might not have a battery installed. Press any key to continue or C to load the configuration utility. |
原因:在写操作过程中,可能因为内存问题、电池损坏、或者未安装电池等原因,造成意外断电或重启,导致缓存数据丢失,但适配器已恢复。 处理方法: l 检查电池线缆,确保电池线缆连接正常。 l 确保电池充电正常。 l 如果电池电量耗尽,联系技术支持更换电池。 |
28 |
Entering the configuration utility in this state will result in drive configuration changes. Press Y to continue loading the configuration utility or power off your system and check your cables to make sure all disks are present and reboot the system. |
原因:控制器无法找到已配置的磁盘。 处理方法: l 检查已配置的磁盘是否在位、连接是否正常。 l 进入BIOS,查看这些设备是否有显示。 l 确保磁盘已启动并有电源供应。 l 如果有背板,检查连接器,确保磁盘有电源供应。 l 如果使用控制器通过重用磁盘来创建新的配置,则清除现有数据,然后继续。 |
29 |
Multibit ECC errors were detected on the RAID controller. If you continue, data corruption can occur. Contact technical support to resolve this issue. Press X to continue, otherwise power off the system, replace the controller, and reboot. |
原因:在RAID控制器上检测到Multibit(多比特)ECC错误。如果继续,可能会导致数据损坏。 处理方法: 1. 更换RAID卡。 2. 如果问题仍然存在,联系技术支持。 |
30 |
Single-bit ECC errors were detected on the RAID controller. Contact technical support to resolve this issue. Press X to continue or else power off the system, replace the controller, and reboot. |
原因:在RAID控制器上检测到单比特(Single-bit)ECC错误。 处理方法: 1. 更换RAID卡。 2. 重启系统。 3. 如果问题仍然存在,联系技术支持。 |
31 |
Single-bit overflow ECC errors were detected on the RAID controller. If you continue, data corruption can occur. Contact technical support to resolve this issue. Press X to continue or else power off the system, replace the controller, and reboot. |
原因:RAID控制器上检测到单比特(Single-bit)溢出ECC错误。如果继续,可能会导致数据损坏。 处理方法: 1. 更换RAID卡。 2. 重启系统。 3. 如果问题仍然存在,联系技术支持。 |
32 |
Multibit ECC errors were detected on the RAID controller. The DIMM on the controller needs replacement. Contact technical support to resolve this issue. If you continue, data corruption can occur. Press X to continue, otherwise power off the system and replace the DIMM module and reboot. If you have replaced the DIMM press X to continue. |
原因:在RAID控制器上检测到Multibit(多比特)ECC错误。 处理方法: 1. 更换RAID卡。 2. 重启系统。 3. 如果问题仍然存在,联系技术支持。 |
33 |
Single-bit ECC errors were detected during the previous boot of the RAID controller. The DIMM on the controller needs replacement. Contact technical support to resolve this issue. Press X to continue, otherwise power off the system and replace the DIMM module and reboot. If you have replaced the DIMM press X to continue. |
原因:RAID控制器在上一次启动过程中检测到单比特(Single-bit)ECC错误。 处理方法: 1. 更换RAID卡。 2. 重启系统。 3. 如果问题仍然存在,联系技术支持。 |
34 |
Single-bit overflow ECC errors were detected during the previous boot of the RAID controller. The DIMM on the controller needs replacement. Contact technical support to resolve this issue. If you continue, data corruption can occur. Press X to continue, otherwise power off the system and replace the DIMM module and reboot. If you have replaced the DIMM press X to continue. |
原因:RAID控制器在上一次启动过程中检测到单比特(Single-bit)溢出ECC错误。 处理方法: 1. 更换RAID卡。 2. 重启系统。 3. 如果问题仍然存在,联系技术支持。 |
35 |
The attached enclosure does not support in controller's Direct mapping mode. Contact your system support. The system has halted because of an unsupported configuration. |
原因:可能存在过多串联的Enclosure,也可能与磁盘中的安全特性有关。 处理方法: l 移除不支持的磁盘。 l 减少磁盘数量。 l 更换为另一个Enclosure。 l 确保固件版本已经更新。 l 如果问题仍然存在,联系技术支持。 |
36 |
Expander detected in controller with direct mapping mode. Reconfiguring automatically to persistent mapping mode. Automatic reboot would happen in 10 seconds. |
原因:在直接映射模式下,控制器检测到了Expander。 处理方法:无需处理。控制器将自身配置为持久映射模式然后重新启动。 如果问题仍然存在,联系技术支持。 |
37 |
Your controller's I/O processor has a fault that can potentially cause data corruption. Your controller needs replacement. Contact your system support. To continue, press Y to acknowledge. |
原因:控制器的I/O处理器有一个可能导致数据损坏的故障。 处理方法:联系技术支持更换控制器。 |
38 |
The number of disks exceeded the maximum supported count of %d disks. Remove the extra drives and reboot system to avoid losing data. Press Y to continue with extra drives. |
原因:磁盘数量超过上限。 处理方法: l 将系统下电,移除控制器。 l 移除超出的磁盘以缩小拓扑。 l 将当前控制器更换为支持更大拓扑的控制器。 |
39 |
The number of devices exceeded the maximum limit of devices per quad. Remove the extra drives and reboot the system to avoid losing data. System has halted due to unsupported configuration. |
原因:磁盘数量超过上限。 处理方法: l 将系统下电,移除控制器。 l 移除超出的磁盘以缩小拓扑。 l 将当前控制器更换为支持更大拓扑的控制器。 |
40 |
A discovery error has occurred, power cycle the system and all the enclosures attached to this system. |
原因:发生了Discovery错误,对系统及所有与系统连接的Enclosure进行上下电。 处理方法: l 关闭并重启系统以及所有与系统连接的Enclosure。 l 确保所有线缆正确连接。如存在坏盘,缩小拓扑。 l 如果问题仍然存在,请收集系统日志、驱动日志和固件日志,并联系技术支持。 |
41 |
Drive security is enabled on this controller and a pass phrase is required. Enter the pass phrase. |
原因:控制器上启用了磁盘安全特性,需要输入密码。 处理方法:输入密码。 |
42 |
Invalid pass phrase. Enter the pass phrase. |
原因:无效的密码。 处理方法:输入有效的密码。 |
43 |
There was a drive security key error. All secure drives will be marked as foreign. Press any key to continue, or C to load the configuration utility. |
原因:磁盘安全key错误,所有安全磁盘将被标记为Foreign。 处理方法:检查控制器是否支持自加密磁盘。 |
44 |
Invalid pass phrase. If you continue, a drive security key error will occur and all secure configurations will be marked as foreign. Reboot the machine to retry the pass phrase or press any key to continue. |
原因:无效的密码。 处理方法:重启系统重试密码或按任意键继续。 |
45 |
Unable to communicate to EKMS. If you continue, there will be a drive security key error and all secure configurations will be marked as foreign. Check the connection with the EKMS, reboot the machine to retry the EKMS or press any key to continue. |
原因:无法与EKMS通信。 处理方法:检查与EKMS的连接,重启系统,重新建立与EKMS的连接。 |
46 |
Unable to change security to EKMS as not able to communicate to EKMS. If you continue, the drive security will remain to existing security mode. Check the connection with the EKMS, reboot the machine to retry the EKMS or press any key to continue. |
原因:无法与EKMS通信,无法将安全模式修改为EKMS。 处理方法:检查与EKMS的连接,重启系统,重新建立与EKMS的连接。 |
47 |
DKM existing key request failed; existing secure configurations will be labeled foreign and will not be accessible. Reboot the server to retry. |
原因:DKM现有key请求失败;现有的安全配置将被标记为“Foreign”且不能访问。 处理方法:检查与EKMS的连接,重启系统,重新建立与EKMS的连接。 |
48 |
DKM new key request failed; controller security mode transition was not successful. Reboot the server to retry request, or press any key to continue. |
原因:DKM新key请求失败;控制器安全模式转换不成功。 处理方法:检查与EKMS的连接,重启系统,重新建立与EKMS的连接。 |
49 |
Firmware did not find valid NVDATA image. Program a valid NVDATA image and restart your system. Press any key to continue. |
原因:固件没有找到有效的NVDATA镜像。 处理方法: l 刷新一个有合适NVDATA镜像的固件包。 l 检查当前固件版本,如有必要,更新到最新固件版本。更新到最新固件版本可能需要导入外部Volume。 |
50 |
IR to MR Migration failed. Press any key to continue with MR defined NVDATA values |
原因:IR到MR迁移失败,按任意键继续使用MR定义的NVDATA值。 处理方法:无 |
51 |
Two BBUs are connected to the adapter. This is not a supported configuration. Battery and caching operations are disabled. Remove one BBU and reboot to restore battery and caching operations. If dirty cache is lost in this boot, that could have been because of dual battery presence. |
原因:适配器连接着两个BBU,由于不支持这种配置,电池和缓存操作已被禁用。 处理方法:移除一个BBU,重启系统,恢复电池和缓存操作。 由于存在双电池,在系统重启过程中,可能会丢失脏缓存中的数据。 |
52 |
Offline or missing virtual drives with preserved cache exist. Check the cables and make sure that all drives are present. Press any key to continue, or C to load the configuration utility. |
原因:控制器无法找到已配置的磁盘。 处理方法: l 检查已配置的磁盘是否在位、连接是否正常。 l 进入BIOS,查看这些设备是否有显示。 l 确保磁盘已启动并有电源供应。 l 如果有背板,检查连接器,确保磁盘有电源供应。 l 如果恢复了丢失的磁盘,则会发生缓存卸载。 |
53 |
Offline or missing virtual drives with preserved cache exist. Check the cables and make sure that all drives are present. Press any key to enter the configuration utility. |
原因:控制器无法找到已配置的磁盘。 处理方法: l 检查已配置的磁盘是否在位、连接是否正常。 l 进入BIOS,查看这些设备是否有显示。 l 确保磁盘已启动并有电源供应。 l 如果有背板,检查连接器,确保磁盘有电源供应。 l 如果恢复了丢失的磁盘,则会发生缓存卸载。 |
54 |
Invalid SAS Address present in SBR. Contact your system support. Press any key to continue with Default SAS Address. |
原因:SBR中存在无效的SAS地址。 处理方法:联系技术支持恢复出厂配置默认值。 |
55 |
Incompatible secondary iButton present! Insert the correct iButton and restart the system. Press any key to continue but OEM specific features will not be upgraded! |
原因:存在不兼容的RAID key。 处理方法:插入正确RAID key,重启系统。如果问题仍然存在,联系技术支持更换RAID key。 |
56 |
Upgrade Key Missing! An upgrade key was present on a previous power cycle, but it is not connected. This can result in inaccessible data unless it is addressed. Re-attach the upgrade key and reboot. |
原因:前一个上下电周期中存在的升级key可能无法连接。 处理方法:重新连接key并重启系统。如果问题仍然存在,联系技术支持更换升级key。 |
57 |
The native configuration is not supported by the controller. Check the controller, iButton or key-vault. If you continue the configuration will be marked foreign. Press any key to continue. |
原因:控制器不支持本地配置。 处理方法:插入正确的RAID key,并重启系统。如果问题仍然存在,联系技术支持更换RAID key。 |
58 |
The battery is currently discharged or disconnected. Verify the connection and allow 30 minutes for charging. If the battery is properly connected and it has not returned to operational state after 30 minutes of charging, contact technical support for additional assistance. Press D to disable this warning (if your controller does not have a battery). |
原因:电池当前处于放电或断开状态。 处理方法: l 检查电池线缆,确保电池线缆连接正常。 l 确保电池充电正常。 l 如果电池电量耗尽,联系技术支持更换电池。 |
59 |
The battery is currently discharged or disconnected. VDs configured in Write-Back mode will run in Write-Through mode to protect your data and will return to the Write-Back policy when the battery is operational. If VDs have not returned to Write-Back mode after 30 minutes of charging then contact technical support for additional assistance. The following VDs are affected: %s. Press any key to continue. |
原因:电池当前处于放电或断开状态。在Write Back模式下配置的虚拟磁盘将以Write Through模式运行以保护数据,当电池运行时将返回Write Back模式。 处理方法: l 检查电池线缆,确保电池线缆连接正常。 l 确保电池充电正常。 l 如果电池电量耗尽,请联系技术支持更换电池。 |
60 |
Cache data was lost, but the controller has recovered. This could be because your controller had protected cache after an unexpected power loss and your system was without power longer than the battery backup time. Press any key to continue or C to load the configuration utility. |
原因:缓存数据丢失,但控制器已恢复。这可能是因为控制器在意外断电后保护了缓存,而系统的断电时间超过了电池的备份时间。 处理方法: l 检查内存和电池。 l 掉电时,检查电压水平和缓存卸载时间。 l 必要时更换内存或电池。 |
61 |
A snapshot rollback is in progress on VDs %s, the controller cannot boot until the rollback operation completes. Press any key to enter the configuration utility. |
原因:虚拟磁盘上正在进行快照回滚,在完成之前控制器无法启动。 处理方法:等待一段时间,直到回滚完成。 |
62 |
The following VDs: %s have Rollback active and the corresponding Repository is missing. If you continue to boot the system or enter the configuration utility, these VDs will become unusable. Press any key to Continue. |
原因:这可能与快照特性有关,MegaRAID 12Gb/s SAS RAID控制器不支持快照特性。 处理方法:等待一段时间,直到回滚完成。 |
63 |
Snapshot Repository VDs %s have been removed from your system, or are no longer accessible. Check the cables and make sure all disks are present. If you continue to boot the system, the snapshot related data will be lost. Press any key to continue, or C to load the configuration utility. |
原因:控制器无法找到已配置的磁盘。 处理方法: l 检查已配置的磁盘是否在位、连接是否正常。 l 进入BIOS,查看这些设备是否有显示。 l 确保磁盘已启动并有电源供应。 l 如果有背板,检查连接器,确保磁盘有电源供应。 |
64 |
The most recent configuration command could not be committed and must be retried. Press any key to continue, or C to load the configuration utility. |
原因:无法提交最近的配置命令,必须重试。 处理方法:无 |
65 |
Firmware could not synchronize the configuration or property changes for some of the VD's/PD's. Press any key to continue, or C to load the configuration utility. |
原因:固件无法同步某些虚拟磁盘或物理磁盘的配置或属性更改。 处理方法:按任意键继续,或按“C”键加载Configuration Utility。如果问题仍然存在,联系技术支持。 |
66 |
On-board expander firmware or manufacturing image is corrupted. The flash expander firmware and manufacturing image use the recovery tools. |
原因:Expander存在软件失效问题。 处理方法: 联系技术支持。 |
67 |
The native configuration is not supported by the current firmware. Make sure that the correct controller firmware is being used. If you continue, the configuration will be marked as foreign. Press any key to continue. |
原因:当前固件不支持本地配置。 处理方法: l 收集系统日志、驱动日志和固件日志。 l 确保固件版本正确,并更新到最新版本。 l 如果问题仍然存在,联系技术支持。 |
68 |
Foreign configuration import did not import any drives. Press any key to continue. |
原因:外部配置导入没有导入任何磁盘。 处理方法: l 检查控制器的固件版本。 l 更换控制器后重试。 l 如果问题仍然存在,联系技术支持。 |
69 |
Valid memory detected. Firmware is upgraded from iMR to MR. Reboot the system for the MR firmware to run. |
原因:检测到有效内存。固件从iMR升级到MR。 处理方法:重启系统,使MR固件运行。 |
70 |
Advanced software options keys were detected, features activated – %s. |
原因:检测到Advanced Software Options选项,特性正在被激活。 处理方法:无 |
71 |
Advanced software options keys were missing, features deactivated – %s. |
原因:Advanced Software Options选项丢失,特性正在被停用。 处理方法: l 检查线缆连接。 l 检查是否有Advanced Software Options选项。 l 如果问题仍然存在,联系技术支持。 |
72 |
Cannot communicate with iButton to retrieve premium features. This is probably because of extreme temperatures. The system has halted! |
原因:无法与RAID key通信进行高级特性检索。这可能是由极端温度引起的。 处理方法: l 检查线缆连接。 l 确保RAID key在位。 l 检查RAID key周边的环境温度。 l 如果问题仍然存在,联系技术支持。 |
73 |
Consecutive power loss detected during I/O transactions on non-optimal write-back volumes. This might have resulted in data integrity issues. Press 'X' to proceed. |
原因:在非最优的write-back写策略的volume上,I/O活动期间发生连续多次掉电。这可能导致数据完整性问题。 处理方法: l 检查控制器是否牢牢固定在PCI插槽中。 l 检查电源、电池和超级电容。 l 如发现硬件缺陷,联系技术支持。 |
74 |
USB cache device is not responding. Power down the system for 2 minutes to attempt recovery and avoid cache data loss, and then power-on. |
原因:USB缓存设备无响应。 处理方法: l LSI SAS2208控制器支持USB缓存卸载。确保USB缓存在位且安全。 l 插拔并更换USB缓存。 l 将系统断电2分钟,以尝试恢复和避免缓存数据丢失,然后上电。 |
75 |
Bad or missing RAID controller memory module detected. Press D to downgrade the RAID controller to iMR mode. Warning! Downgrading to iMR mode, might result in incompatible Logical drives. Press any other key to continue, controller shall boot to safe mode. |
原因:检测到RAID控制器内存模块损坏或丢失。 处理方法:更换RAID卡。 |
不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!