• 产品与解决方案
  • 行业解决方案
  • 服务
  • 支持
  • 合作伙伴
  • 新华三人才研学中心
  • 关于我们

H3C G6服务器 存储控制卡用户指南-6W102

05-第5章 LSI-9540&9560

本章节下载 05-第5章 LSI-9540&9560  (13.21 MB)

docurl=/cn/Service/Document_Software/Document_Center/Home/Server/00-Public/Configure/User_Manual/H3C_G6_UM-13601-Long/202312/1989679_30005_0.htm

05-第5章 LSI-9540&9560


5 LSI-9540&9560

本节介绍如下型号的存储控制卡,支持最大12Gbit/s的接口速率。部分存储控制卡支持缓存模块,极大地提升了性能和数据安全性。存储控制卡的详细信息及缓存模块支持信息,请参见http://www.h3c.com/cn/home/qr/default.htm?id=315

·     RAID-LSI-9560-LP-16i-8GB

·     RAID-LSI-9560-LP-8i-4GB

·     HBA-LSI-9540-LP-8i

5.1  概述

5.1.1  支持的RAID级别

各存储控制卡支持的RAID级别略有不同,详细信息请参见http://www.h3c.com/cn/home/qr/default.htm?id=315,各RAID级别对应的磁盘数量如表5-1所示。关于RAID级别的说明,请参见“附录B 磁盘阵列和容错方法”。

表5-1 RAID级别与磁盘数量关系

RAID级别

最少磁盘数

最多故障盘数

RAID 0

1

0

RAID 1

2

硬盘数/2

RAID 5

3

1

RAID 6

LSI 95604

其他阵列卡:3(建议使用4块)

2

RAID 00

2

0

RAID 10

4

nn为组成RAID 10RAID 1的个数)

RAID 50

6

nn为组成RAID 50RAID 5的个数)

RAID 60

LSI 95608

其他阵列卡:6(建议使用8块)

2nn为组成RAID 60RAID 6的个数)

说明

本章节介绍的存储控制卡,如果支持组建RAID 10/50/60,则最多支持由8个成员RAID 1/5/6组成该RAID 10/50/60。

 

5.1.2  RAID配置注意事项

·     建议用户安装没有RAID信息的硬盘。

·     请确保组建同一RAID的所有硬盘类型相同,否则会因硬盘性能不同而造成RAID性能下降或者无法创建RAID。即满足如下两点:

¡     所有硬盘均为SAS或SATA硬盘。

¡     所有硬盘均为HDD或SSD硬盘。

·     建议组建同一RAID的所有硬盘容量相同。当硬盘容量不同时,系统以最小容量的硬盘为准,即将所有硬盘容量都视为最小容量。

·     不建议将一个硬盘用在多个RAID中,该情况会使后期维护变得复杂,并影响RAID的性能。

5.2  UEFI启动模式下配置RAID

本节介绍在UEFI启动模式下通过存储控制卡配置RAID的方法。关于进入BIOS界面和设置BIOS启动模式为UEFI的详细介绍,请参见BIOS用户指南中的对应章节。

5.2.1  初始功能配置

1. 进入存储控制卡配置界面

说明

不同BIOS版本的界面有所差异,本手册仅以其中一种BIOS版本举例,操作界面请以实际情况为准。

 

本节介绍进入存储控制卡配置界面的操作步骤。

(1)     进入BIOS。

在服务器启动过程中,根据提示按下DeleteEsc(部分产品按DeleteF2)进入如图5-1所示的BIOS Setup界面(部分产品进入Front界面,请选择Device Management,进入设备管理菜单)。请参考界面右下角的按键操作提示,以实现在界面中导航和修改设置。

图5-1 BIOS Setup界面

 

(2)     进入存储控制器管理界面。

图5-2所示,进入Advanced页签,并选择存储控制器(如:BROADCOM < MegaRAID 9560-8i 4GB>,按Enter

图5-2 Advanced界面

 

(3)     进入图5-3所示界面,选择Main Menu,按Enter

图5-3 选择Main Menu

 

(4)     进入图5-4所示界面,界面上显示了五大类配置任务(相关说明请参见表5-2)。

图5-4 存储控制卡配置界面

 

表5-2 参数说明

选项

概要说明

Configuration Management

选择配置管理来执行任务,如创建逻辑磁盘、查看磁盘组属性,查看热备份信息、并清除配置。

Controller Management

选择控制器管理以查看和管理控制器属性并执行任务,如清除控制器事件、调度和运行控制器事件,并运行巡检读取。

Virtual Drive Management

选择逻辑磁盘管理来执行任务,如查看逻辑磁盘属性、定位逻辑磁盘,并运行一致性检查。

Drive Management

选择磁盘管理以查看物理磁盘属性和执行任务,如定位磁盘,初始化磁盘和磁盘失败后重建。

Hardware Components

选择硬件组件查看超级电容属性,管理超级电容和管理外围组件。

 

2. 切换磁盘状态

存储控制卡支持切换如下四种磁盘状态。

·     Unconfigured Good:表示该物理磁盘正常,可用于配置RAID或热备盘。

·     Unconfigured Bad:表示该物理盘已损坏或存在RAID残留信息,物理盘损坏时请更换;RAID信息残留时,请手动进行清除。

·     Hotspare:表示该物理磁盘为热备盘。

·     JBOD/JBOD online:Just a Bunch Of Disks,直通盘/类直通盘,不可用于配置RAID。

此处操作步骤是将一块Unconfigured Good状态的硬盘切换为Unconfigured Bad状态为例。

(1)     如图5-5所示,在存储控制卡配置界面选择Drive Management,按Enter

图5-5 存储控制卡配置界面

 

(2)     进入图5-6所示界面,选择待配置的磁盘,按Enter

图5-6 Drive Management管理界面

 

(3)     进入图5-7所示界面,选中Operation,按Enter,然后在弹出的对话框中选择Make Unconfigured Bad,按Enter

图5-7 Operation操作界面

 

(4)     进入图5-8所示界面,选择Go,按Enter

图5-8 选择Go

 

(5)     进入图5-9所示界面,完成切换磁盘状态操作。

图5-9 完成切换磁盘状态

 

3. 配置RAID 0/1/5/6

(1)     如图5-10所示,在存储控制卡配置界面选择Configuration Management,按Enter

图5-10 存储控制卡配置界面

 

 

(2)     进入图5-11所示界面,选择Create Virtual Drive,按Enter

图5-11 选择Create Virtual Drive

 

 

(3)     进入图5-12所示界面,选择Select RAID Level以组建RAID 0为例),设置RAID级别,按Enter

图5-12 设置RAID级别

 

 

(4)     进入图5-13所示界面,选择Select Drives From,设置RAID的硬盘容量来源(此处选择Unconfigured Capacity为例,按Enter

·     [Unconfigured Capacity] 表示容量来自完全未配置的硬盘。

·     [Free Capacity] 表示容量来自已配置RAID的硬盘的剩余容量。

图5-13 设置RAID的磁盘容量来源

 

 

(5)     进入图5-14所示界面,选择Select Drives,按Enter

图5-14 选择Select Drives

 

 

(6)     进入图5-15所示界面,选择要用来配置RAID的硬盘并按Enter,然后选择Apply Changes,按Enter。如果硬盘的状态为JBOD Online或者Unconfigured Bad,又或者Hotspare,则无法选择。

图5-15 选择磁盘

 

 

(7)     进入图5-16所示界面,完成选择硬盘操作,选择OK,按Enter

图5-16 完成选择硬盘操作

 

(8)     进入图5-17所示界面,进行相应的设置(相关参数说明请参见表5-3),然后选择Save Configuration,按Enter

图5-17 设置RAID参数

 

 

表5-3 参数说明

参数

说明

Virtual Drive Name

RAID的名称,仅支持字母、数字和特殊字符,不区分大小写

Virtual Drive Size

RAID的容量大小

Virtual Drive Size Unit

RAID的容量单位

Stripe Size

RAID的条带大小,写在每块磁盘上的条带数据块的大小,支持64KB、128KB、256KB、512KB、1MB等规格(HBA-LSI-9540-LP-8i卡当前仅支持64KB的条带规格)

Read Policy

读缓存策略,分为:

·     Read ahead:开启预读取功能。存储控制卡可以预读取顺序数据或预测需要即将使用到的数据,并存储到Cache中。

·     No read ahead:关闭预读取功能。

(HBA-LSI-9540-LP-8i卡当前不支持读缓存策略参数的设置)

Write Policy

写缓存策略,分为:

·     Write through:直写模式。当物理盘接收到所有传输数据后,存储控制卡将给主机返回数据传输完成信号。

·     Write back:回写模式一。当存储控制卡中的Cache收到所有的传输数据后,存储控制卡将给主机返回数据传输完成信号。该模式下,如果存储控制卡未安装超级电容或超级电容损坏,存储控制卡将自动切换到Write through模式。

·     Always write back:回写模式二。强制使用Write back模式,该模式下,如果存储控制卡未安装超级电容或超级电容损坏,也不会切换到Write through模式。此时,若主机掉电,存储控制卡中的Cache会由于缺失供电电源而丢失其中的数据。

(HBA-LSI-9540-LP-8i卡当前不支持写缓存策略参数的设置)

Access Policy

读写策略,分为:

·     Read/Write:可读可写

·     Read Only:只读

·     Blocked:禁止操作

I/O Policy

I/O 策略,分为:

·     Direct:在读、写场景中的定义不同:

¡     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID卡的Cache处理)

¡     在写场景中,写数据经过RAID卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID卡的Cache处理,直接写入硬盘)

·     Cached:所有读和写均经过RAID卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐

(HBA-LSI-9540-LP-8i卡当前不支持I/O策略参数的设置)

Drive Cache

磁盘缓存策略,分为:

·     Enable:开启,读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失

·     Disable:关闭,读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失

·     Unchanged:保持当前策略

Disable Background Initialization

使能或禁用后台初始化方式

Default Initialization

默认初始化方式,分为:

·     NO:不进行初始化

·     Fast:快速初始化

·     Full:完全初始化

Emulation Type

控制逻辑盘在OS中上报的扇区,分为:

·     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

·     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n

·     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)

Save Configuration

保存配置

 

(9)     进入图5-18所示界面,选择Confirm并按Enter,使其Enabled,选择Yes,按Enter

图5-18 确认配置

 

(10)     进入图5-19所示界面,完成配置RAID操作,选择OK,返回存储控制卡配置界面。

图5-19 完成配置RAID

 

(11)     进入图5-20所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图5-20 存储控制卡配置界面

 

(12)     进入图5-21所示界面,可以看到已创建的RAID,选择需要查看的RAID,按Enter

图5-21 Vitrual Drive Management界面

 

(13)     进入图5-22所示界面,选择View Associated Drives,按Enter,即可查看该RAID的详细信息(包括RAID名称、级别,所含磁盘信息等)。

图5-22 选择View Associated Drives

 

 

4. 配置RAID 10

(1)     如图5-23所示,在存储控制卡配置界面选择Configuration Management,按Enter。

图5-23 存储控制卡配置界面

 

(2)     进入图5-24所示界面,选择Create Virtual Drive,按Enter。

图5-24 选择Create Virtual Drive

 

(3)     进入图5-25所示界面,选择Select RAID Level,设置RAID级别,按Enter

图5-25 设置RAID10级别

 

(4)     进入图5-26所示界面,选择Select Drives From,设置RAID的磁盘容量来源,按Enter

图5-26 设置RAID的磁盘容量来源

 

(5)     进入图5-27所示界面,选择Select Drives,按Enter。

图5-27 选择Select Drives

 

(6)     进入图5-28所示界面,选择要用来配置RAID的磁盘,[Enabled]表示选中,然后选择Apply Changes,按Enter

图5-28 选择磁盘

 

(7)     进入图5-29所示界面,选择Add More Spans,按Enter,添加磁盘空间,组建R10最少需要4块磁盘。

图5-29 增加磁盘空间

 

(8)     进入图5-30所示界面,选择Select Drives,按Enter。

图5-30 选择Select Drives

 

(9)     进入图5-31所示界面,选择要用来配置RAID的磁盘,[Enabled]表示选中,然后选择Apply Changes,按Enter。如果磁盘的状态为JBODUnconfigured Bad,则无法选择。

图5-31 选择磁盘

 

(10)     进入图5-32所示界面,选择Confirm,选择Yes,按Enter

图5-32 确认磁盘

 

(11)     进入图5-33所示界面,进行相应的设置(参数说明请参见表5-3),然后选择Save Configuration,按Enter

图5-33 设置RAID参数

 

(12)     进入图5-34所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图5-34 确认配置

 

(13)     进入图5-35所示界面,完成配置RAID操作,选择OK,返回存储控制卡配置界面。

图5-35 完成配置RAID

 

(14)     如图5-36所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图5-36 存储控制卡配置界面

 

(15)     进入图5-37所示界面,可以看到已创建的RAID,选择需要查看的RAID10,按Enter

图5-37 Vitrual Drive Management界面

 

(16)     进入图5-38所示界面,选择View Associated Drives,按Enter,即可查看该RAID的详细信息(包括RAID名称、级别,所含磁盘信息等)。

图5-38 选择View Associated Drives

 

5. 配置RAID 50

(1)     如图5-39所示,在存储控制卡配置界面选择Configuration Management,按Enter

图5-39 存储控制卡配置界面

 

(2)     进入图5-40所示界面,选择Create Virtual Drive,按Enter

图5-40 选择Create Virtual Drive

 

(3)     进入图5-41所示界面,选择Select RAID Level,设置RAID级别,按Enter

图5-41 设置RAID级别

 

(4)     进入图5-42所示界面,选择Select Drives From,设置RAID的磁盘容量来源,按Enter

图5-42 设置RAID的磁盘容量来源

 

(5)     进入图5-43所示界面,选择Select Drives,按Enter

图5-43 选择Select Drives

 

(6)     进入图5-44所示界面,选择要用来配置RAID的磁盘,[Enabled]表示选中,然后选择Apply Changes,按Enter

图5-44 选择磁盘

 

(7)     进入图5-45所示界面,选择Add More Spans,按Enter,添加磁盘空间,组建R50最少需要6块磁盘。

图5-45 增加磁盘空间

 

(8)     进入图5-46所示界面,选择Select Drives,按Enter。

图5-46 选择Select Drives

 

(9)     进入图5-47所示界面,选择要用来配置RAID的磁盘,[Enabled]表示选中,然后选择Apply Changes,按Enter。如果磁盘的状态为JBODUnconfigured Bad,则无法选择。

图5-47 选择磁盘

 

(10)     进入图5-48所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图5-48 确认磁盘

 

(11)     进入图5-49所示界面,进行相应的设置(参数说明请参见表5-3),然后选择Save Configuration,按Enter

图5-49 设置RAID参数

 

(12)     进入图5-50所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图5-50 确认配置

 

(13)     进入图5-51所示界面,完成配置RAID操作,选择OK,返回存储控制卡配置界面。

图5-51 完成配置RAID

 

(14)     如图5-52所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图5-52 存储控制卡配置界面

 

(15)     进入图5-53所示界面,可以看到已创建的RAID 50,选择需要查看的RAID,按Enter

图5-53 Vitrual Drive Management界面

 

(16)     进入图5-54所示界面,选择View Associated Drives,按Enter,即可查看该RAID 50的详细信息(包括RAID名称、级别,所含磁盘信息等)。

图5-54 选择View Associated Drives

 

6. 配置RAID 60

(1)     如图5-55所示,在存储控制卡配置界面选择Configuration Management,按Enter

图5-55 存储控制卡配置界面

 

(2)     进入图5-56所示界面,选择Create Virtual Drive,按Enter。

图5-56 选择Create Virtual Drive

 

(3)     进入图5-57所示界面,选择Select RAID Level,设置RAID级别,按Enter

图5-57 设置RAID级别60

 

(4)     进入图5-58所示界面,选择Select Drives From,设置RAID的磁盘容量来源,按Enter

图5-58 设置RAID的磁盘容量来源

 

(5)     进入图5-59所示界面,选择Select Drives,按Enter。

图5-59 选择Select Drives

 

(6)     进入图5-60所示界面,选择要用来配置RAID的磁盘,[Enabled]表示选中,然后选择Apply Changes,按Enter

图5-60 选择磁盘

 

(7)     进入图5-61所示界面,选择Add More Spans,按Enter,添加磁盘空间,组建R 60最少需要8块磁盘。

图5-61 增加磁盘空间

 

(8)     进入图5-62所示界面,选择Select Drives,按Enter。

图5-62 选择Select Drives

 

(9)     进入图5-63所示界面,选择要用来配置RAID的磁盘,[Enabled]表示选中,然后选择Apply Changes,按Enter。如果磁盘的状态为JBODUnconfigured Bad,则无法选择。

图5-63 选择磁盘

 

(10)     进入图5-64所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图5-64 确认磁盘

 

(11)     进入图5-65所示界面,进行相应的设置(参数说明请参见表5-3),然后选择Save Configuration,按Enter

图5-65 设置RAID参数

 

(12)     进入图5-66所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图5-66 确认配置

 

(13)     进入图5-67所示界面,完成配置RAID操作,选择OK,返回存储控制卡配置界面。

图5-67 完成配置RAID

 

(14)     如图5-68所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图5-68 存储控制卡配置界面

 

(15)     进入图5-69所示界面,可以看到已创建的RAID,选择需要查看的RAID 60,按Enter

图5-69 Vitrual Drive Management界面

 

(16)     进入图5-70所示界面,选择View Associated Drives,按Enter,即可查看该RAID 60的详细信息(包括RAID名称、级别,所含磁盘信息等)。

图5-70 选择View Associated Drives

 

5.2.2  常用功能配置

1. 配置热备盘

配置RAID后一般会配置热备盘来提高数据的安全性。可根据需要配置全局热备盘或专用热备盘。

说明

·     热备盘仅供存在冗余的RAID级别使用。

·     热备盘的容量要大于等于RAID最小成员盘的容量。

·     仅支持配置状态为Unconfigured Good的磁盘为热备盘。

 

配置全局热备盘

(1)     如图5-71所示,在存储控制卡配置界面选择Drive Management,按Enter

图5-71 存储控制卡配置界面

 

(2)     进入图5-72所示界面,选择待配置为全局热备盘的磁盘,按Enter

图5-72 Drive Management管理界面

 

(3)     进入图5-73所示界面,选中Operation,按Enter,然后再选择Assign Global Hot Spare Drive,按Enter

图5-73 Operation操作界面

 

(4)     进入图5-74所示界面,选择Go,按Enter

图5-74 选择Go

 

(5)     进入图5-75所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图5-75 确认配置

 

(6)     进入图5-76所示界面,完成配置全局热备盘操作。

图5-76 完成配置全局热备盘

 

配置专用热备盘

(1) 图5-77所示,在存储控制卡配置界面选择Drive Management,按Enter。

图5-77 存储控制卡配置界面

 

(2)     进入图5-78所示界面,选择待配置为专用热备盘的磁盘,按Enter

图5-78 Drive Management管理界面

 

(3)     进入图5-79所示界面,选中Operation,按Enter,然后再选择Assign Dedicated Hot Spare Drive,按Enter

图5-79 Operation操作界面

 

(4)     进入图5-80所示界面,选择Go,按Enter

图5-80 选择Go

 

(5)     进入图5-81所示界面,选择需要配置专用热备盘的逻辑磁盘,使其Enable,选择OK,按Enter

图5-81 确认创建专用热备的逻辑磁盘

 

(6)     进入图5-82所示界面,完成配置专用热备盘操作。

图5-82 完成配置专用热备盘

 

2. 删除RAID

本功能用于删除已损坏或难以满足需求的RAID。

(1)     如图5-83所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图5-83 存储控制卡配置界面

 

(2)     进入图5-84所示界面,选择待删除的逻辑磁盘,按Enter

图5-84 逻辑磁盘管理界面

 

(3)     进入图5-85所示界面,选中Operation,按Enter,然后在弹出的对话框中选择Delete Virtual Drive,按Enter

图5-85 Operation操作界面

 

(4)     进入图5-86所示界面,选择Go,按Enter

图5-86 选择Go

 

(5)     进入图5-87所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图5-87 确认删除

 

(6)     进入图5-88所示界面,完成删除RAID操作。

图5-88 完成删除RAID

 

3. 定位磁盘位置

本功能通过点亮磁盘对应槽位的蓝色指示灯,方便您快速找到磁盘。可定位单个物理磁盘或某个逻辑磁盘包括的全部成员磁盘。

定位物理磁盘

(1)     如图5-89所示,在存储控制卡配置界面选择Drive Management,按Enter

图5-89 选择Drive Management

 

(2)     进入图5-90界面,选择待定位的磁盘,按Enter

图5-90 选择待定位的磁盘

 

(3)     进入图5-91界面,选择Operation,按Enter,然后在弹出的对话框中选择Start Locate,按Enter

图5-91 Operation操作界面

 

(4)     进入图5-92界面,选择Go,按Enter

图5-92 选择Go

 

(5)     进入图5-93界面,完成定位物理磁盘位置操作。

图5-93 完成定位物理磁盘位置

 

定位逻辑磁盘中的全部磁盘

(1)     如图5-94所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图5-94 存储控制卡配置界面

 

(2)     进入图5-95界面,选择待定位的逻辑磁盘,按Enter

图5-95 选择待定位的逻辑磁盘

 

(3)     进入图5-96界面,选中Operation,按Enter,然后在弹出的对话框中选择Start Locate,按Enter

图5-96 Operation操作界面

 

(4)     进入图5-97界面,选择Go,按Enter

图5-97 选择Go

 

(5)     进入图5-98界面,完成定位逻辑磁盘中的全部磁盘位置操作。

图5-98 完成定位逻辑磁盘中的全部磁盘

4. 初始化逻辑磁盘

本功能用于初始化逻辑磁盘内部数据空间。

(1)     如图5-99所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图5-99 存储控制卡配置界面

 

(2)     进入图5-100所示界面,选择待初始化的逻辑磁盘,按Enter

图5-100 逻辑磁盘管理界面

 

(3)     进入图5-101所示界面,选中Operation,按Enter,然后在弹出的对话中选择Fast/Slow InitializationEnter

图5-101 Operation操作界面

 

说明

Fast Initialization与Slow Initialization的区别在于前者能够立即写数据,后者需等待磁盘空间全部完成初始化后,才能写数据。

 

(4)     进入图5-102所示界面,选择Go,按Enter

图5-102 选择Go

 

(5)     进入图5-103所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图5-103 确认初始化

 

(6)     进入图5-104所示界面,完成初始化逻辑磁盘操作。

图5-104 完成初始化逻辑磁盘

 

5. 初始化物理磁盘

(1)     如图5-105所示,在存储控制卡配置界面选择Drive Management,按Enter

图5-105 存储控制卡配置界面

 

(2)     进入图5-106所示界面,选择待初始化的磁盘,按Enter

图5-106 磁盘管理界面

 

(3)     进入图5-107界面,选中Operation,按Enter,然后在弹出的对话框中选择Initialize Drive,按Enter

图5-107 Operation管理界面

 

(4)     进入图5-108界面,选择Go,按Enter

图5-108 选择Go

 

(5)     进入图5-109所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图5-109 确认初始化

 

(6)     进入图5-110界面,完成初始化物理磁盘操作。

图5-110 完成初始化物理磁盘

 

6. 擦除磁盘数据

本功能用于删除磁盘内部数据,包括擦除物理磁盘数据和逻辑磁盘数据。

擦除物理磁盘数据

(1)     如图5-111所示,在存储控制卡配置界面选择Drive Management,按Enter

图5-111 存储控制卡配置界面

 

(2)     进入图5-112所示界面,选择待擦除数据的磁盘,按Enter

图5-112 磁盘管理界面

 

(3)     进入图5-113所示界面,选中Operation,按Enter,然后在弹出的对话框里选择Drive Erase,按Enter

图5-113 Operation操作界面

 

说明

对于Drive Erase选项,部分存储控制卡对于SATA硬盘的配置选项是Drive Erase,对于SAS硬盘是Cryptographic Erase。

 

(4)     进入图5-114所示界面,按Enter,然后在弹出的对话框中选择擦除模式(建议使用缺省模式:Simple)。

图5-114 Erase Mode界面

 

(5)     进入图5-115所示界面,选择Go,按Enter

图5-115 选择Go

 

(6)     进入图5-116所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图5-116 确认擦除

 

(7)     进入图5-117所示界面,完成擦除物理磁盘数据操作。

图5-117 完成擦除物理磁盘数据

 

说明

为避免磁盘故障,请勿在擦除物理磁盘数据期间进行其他操作。

 

擦除逻辑磁盘数据

(1)     如图5-118所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图5-118 存储控制卡配置界面

 

(2)     进入图5-119所示界面,选择待擦除数据的逻辑磁盘,按Enter

图5-119 逻辑磁盘管理界面

 

(3)     进入图5-120所示界面,选中Operation,按Enter,然后在弹出的对话框中选择Virtual Drive Erase,按Enter

图5-120 Operation 操作界面

 

(4)     进入图5-121所示界面,按Enter,然后在弹出的对话框中选择擦除模式(建议使用缺省模式:Simple)。

图5-121 Erase Mode界面

 

(5)     进入图5-122所示界面,选择Go,按Enter

图5-122 选择Go

 

(6)     进入图5-123所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图5-123 确认擦除

 

(7)     进入图5-124所示界面,完成擦除逻辑磁盘数据操作。

图5-124 完成擦除逻辑磁盘数据

 

7. 扩容RAID

说明

LSI 9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。

 

本功能用于扩充RAID的容量来提升RAID的可用性,存储控制卡通过设置逻辑盘剩余容量比例来扩充RAID的容量。

(1)     如图5-125所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图5-125 存储控制卡配置界面

 

(2)     进入图5-126所示界面,选择待扩容的逻辑磁盘,按Enter

图5-126 Virtual Drive Management管理界面

 

(3)     进入图5-127所示界面,选择Operation,按Enter,然后在弹出的对话框中选择Expand Virtual Drive,按Enter

图5-127 Operation操作界面

 

(4)     进入图5-128所示界面,选择Go,按Enter

图5-128 选择Go

 

(5)     进入图5-129所示界面,修改Enter a Percentage of Avaliable Capacity栏参数来修改磁盘剩余可用容量的比例,选择OK,按Enter

图5-129 容量设置界面

 

(6)     进入图5-130所示界面,完成扩容RAID操作。

图5-130 完成扩容RAID

 

8. 迁移RAID级别

说明

LSI 9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。

 

本功能用于不影响当前数据完整性的情况下,对RAID的级别进行修改以达到配置需求。

(1)     如图5-131所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图5-131 存储控制卡配置界面

 

(2)     进入图5-132所示界面,选择待迁移的逻辑磁盘,按Enter

图5-132 Virtual Drive Management管理界面

 

(3)     进入图5-133所示界面,选择Operation,按Enter,然后在弹出的对话框中选择Reconfigure Virtual Drive,按Enter

图5-133 Operation操作界面

 

(4)     进入图5-134所示界面,选择Go,按Enter

图5-134 选择Go

 

(5)     进入图5-135所示界面,设置RAID级别,选择Choose the Operation,按Enter

图5-135 选择迁移方案

 

(6)     进入图5-136所示界面,选择待添加的磁盘,使其Enabled,选择Apply Changes,按Enter

图5-136 Choose the Operation界面

 

说明

可以通过增加或减少成员盘实现迁移逻辑盘级别。

 

(7)     进入图5-137所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图5-137 确认迁移

 

(8)     进入图5-138所示界面,选择Start Operation,按Enter

图5-138 开始迁移

 

(9)     进入图5-139所示界面,选择OK,按Enter

图5-139 选择OK

 

(10)     进入图5-140所示界面,可以查看当前迁移进度。

图5-140 RAID信息界面

 

9. 清除磁盘RAID信息

本功能用于清除磁盘中的RAID残留信息,使磁盘可重新用来配置RAID。

(1)     将磁盘状态Unconfigured Bad切换为Unconfigured Good,具体步骤请参见5.2.1  2. 切换磁盘状态

(2)     如图5-141所示,在存储控制卡配置界面选择Configuration Management,按Enter

图5-141 存储控制卡配置界面

 

(3)     进入图5-142所示界面,选择Manage Foreign Configuration,按Enter

图5-142 选择Manage Foreign Configuration

 

(4)     进入图5-143所示界面,选择Clear Foreign Configuration,按Enter

图5-143 选择Clear Foreign Configuration

 

(5)     进入图5-144所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图5-144 确认清除

 

(6)     进入图5-145所示界面,完成清除磁盘RAID信息操作。

图5-145 完成清除磁盘RAID

 

10. 隐藏RAID

本功能用于隐藏所选择的RAID。

(1)     如图5-146所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图5-146 存储控制卡配置界面

 

(2)     进入图5-147所示界面,选择待隐藏的逻辑磁盘,按Enter

图5-147 Virtual Drive Management管理界面

 

(3)     进入图5-148所示界面,选中Operation,按Enter,然后在弹出的对话框中选择Hide Virtual Drive,按Enter完成隐藏RAID操作。

图5-148 Operation操作界面

 

11. 隐藏磁盘组

本功能用于隐藏磁盘组,磁盘组隐藏后,在该磁盘组上组建的所有逻辑盘在系统下均不可见。

磁盘组是由指定数量磁盘组成的集合,一般在创建第一个逻辑盘时确定磁盘组成员,在磁盘组上可以组建特定级别的逻辑盘。

(1)     如图5-149所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图5-149 存储控制卡配置界面

 

(2)     进入图5-150所示界面,选择待隐藏的逻辑磁盘,按Enter

图5-150 Virtual Drive Management管理界面

 

(3)     进入图5-151所示界面,选中Operation,按Enter,然后在弹出的操作对话框里选择Hide Drive Group,按Enter

图5-151 Operation操作界面

 

12. 在线升级存储控制卡固件

您可通过该功能升级RAID的固件版本。需要注意的是,使用U盘升级固件时,固件文件放置在U盘根目录或一级目录下,否则BIOS下无法找到固件文件。

(1)     如图5-152所示,在Advanced界面中选择Update Firmware,按Enter

图5-152 Advanced界面

 

(2)     进入图5-153所示界面,选择升级固件的目录,按Enter

图5-153 选择升级固件的目录

 

(3)     进入如图5-154所示界面,选择待升级的固件版本文件,按Enter

图5-154 选择待升级的固件版本文件

 

(4)     进入图5-155所示界面,选择Update,按Enter

图5-155 选择Update

 

(5)     进入图5-156所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

注意

确认升级后,页面将短暂卡住,此时正在进行固件升级,请勿进行其他操作。

 

图5-156 确认升级

 

(6)     进入图5-157所示界面,选择OK,按Enter完成升级操作。

图5-157 选择OK

 

(7)     重启BIOS使操作生效。

13. 切换存储控制卡模式

本功能用于切换存储控制卡模式,包括JBOD模式和RAID模式。

(1)     如图5-158所示,在Advanced界面中选择Main Menu,按Enter

图5-158 Advanced界面选择Main Menu

 

(2)     如图5-159所示,选择Controller management,按Enter

图5-159 选择Controller management

 

(3)     如图5-160所示,选择Advanced Controller management,按Enter

图5-160 选择Advanced Controller management

 

(4)     如图5-161所示,选择Manage Personality Mode,按Enter

图5-161 选择Manage Personality Mode

 

(5)     如图5-162所示,当前为RAID模式,如需切换到JBOD模式,则选择Switch to JBOD Mode,按Enter

图5-162 选择Switch to JBOD Mode

 

(6)     如图5-163所示,选择Confirm,使其Enabled,选择Yes,按Enter

注意

当切换存储控制卡模式为JBOD模式时,存储控制卡上的逻辑盘也可以一并切换至JBOD 模式,需要注意的是,当强制进行切换的时候,不支持的逻辑盘无法保留数据。因此推荐任何LSI存储控制卡切换模式前都先将硬盘状态切换为Unconfigued Good状态。以RAID-LSI-9560-LP-8i-4GB举例,RAID 5,RAID 6,RAID 50,RAID 60的逻辑盘无法切换为JBOD模式,具体以界面提示信息为准。

 

图5-163 模式切换前确认工作

 

(7)     如图5-164所示,存储控制卡模式已成功切换,选择OK,按Enter重启操作系统后即可应用配置。

图5-164 模式切换完成

 

14. 逻辑磁盘强制上线

当发生故障的硬盘数量超出逻辑磁盘容错方法可承受的范围,管理工具界面逻辑磁盘会显示为Offline状态,因此可以使用Place Drive Online功能使逻辑磁盘强制上线。

注意

使用此功能可能会改变逻辑磁盘中的数据,在执行Place Drive Online前需要进行评估是否执行该操作。

 

(1)     如图5-165所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图5-165 存储控制卡配置界面

 

(2)     进入如图5-166所示界面,选择Offline的逻辑磁盘,按Enter

图5-166 Vitrual Drive Management界面

 

(3)     进入如图5-167所示界面,选择View Associated Drives,按Enter

图5-167 选择View Associated Drives

 

(4)     进入如图5-168所示界面,选择Offline的成员盘,使其Enabled,选择View Drive Properties,按Enter

图5-168 选择View Drive Properties

 

(5)     进入如图5-169所示界面,选中Operation,按Enter,然后再选择Place Drive Online,按Enter

图5-169 选择Place Drive Online

 

(6)     进入如图5-170所示界面,选择Go,按Enter

图5-170 选择Go

 

(7)     进入图5-171所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图5-171 确认配置

 

(8)     进入如图5-172所示界面,完成Place Drive Online操作。

图5-172 完成Place Drive Online操作

 

15. 添加新盘到RAID

本功能用于在RAID上新增磁盘进行扩容。

说明

·     LSI9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。

·     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

·     新增的磁盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。

·     新增磁盘进行扩容时,RAID1每次需要增加2*N块硬盘,且RAID0/1/5/6成员盘数量最大32。

 

(1)     如图5-173所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图5-173 存储控制卡配置界面

 

(2)     进入图5-174所示界面,选择待配置的逻辑磁盘,按Enter

图5-174 Virtual Drive Management管理界面

 

(3)     进入图5-175所示界面,选择Operation,按Enter,然后在弹出的下拉框中选择Reconfigure Virtual Drives,按Enter

图5-175 Operation操作界面

 

(4)     进入图5-176所示界面,选择Go,按Enter

图5-176 Operation操作界面

 

(5)     进入图5-177所示界面,设置RAID级别,选择Choose the Operation,按Enter

图5-177 选择方案

 

(6)     进入图5-178所示界面,选择待新增的磁盘,使其Enabled,选择Apply Changes,按Enter

图5-178 Choose the Operation界面

 

(7)     进入图5-179所示界面,选择Confirm并按Enter,使其Enabled,选择Yes,按Enter

图5-179 确认选择方案

 

(8)     进入图5-180所示界面,选择OK,按Enter

图5-180 完成磁盘的选择

 

(9)     进入图5-181所示界面,选择Start Operation,按Enter

图5-181 开始选择方案的操作

 

(10)     进入图5-182所示界面,选择OK,按Enter

图5-182 选择OK

 

(11)     进入图5-183所示界面,可以查看当前迁移进度。

图5-183 RAID信息界面

 

16. 查看存储控制卡属性

(1)     如图5-184所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图5-184 存储控制卡配置界面

 

(2)     进入图5-185所示界面,显示存储控制卡基本信息(相关参数说明请参见表5-4),按Enter

图5-185 Virtual Drive Management管理界面

 

表5-4 参数说明

参数

说明

Product Name

存储控制卡名称

Serial Number

存储控制卡序列号

Controller Status

存储控制卡的工作状态

Personality Mode

存储控制卡的模式

Select Boot Device

存储控制卡的启动项,此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效

PCI ID

存储控制卡的PCI ID

PCI Segment:Bus:Device:Fuction

存储控制卡的PCI地址,格式为:总线号:设备号:功能号

PCI Slot Number

存储控制卡的PCI槽位号

Package Version

存储控制卡的package版本

PSOC Firmware Version

存储控制卡的PSOC 固件版本

Firmware Version

存储控制卡的固件版本号

NVDATA Version

存储控制卡NVDATA的版本号

Supported Device Interfaces

支持的设备接口

Drive Count

存储控制卡下挂载的硬盘个数

Virtual Drive Count

存储控制卡下已有虚拟磁盘数量

Advanced Controller Management

更多的控制卡操作

Advanced Controller Properties

查看和修改控制卡的高级属性

 

(3)     进入图5-186所示界面,在存储控制卡管理界面选择Advanced Controller Properties,按Enter

图5-186 Advanced Controller Properties界面

 

(4)     进入图5-187所示界面,在该界面可查看并修改存储控制卡的高级属性(相关参数说明请参见表5-5)。

图5-187 存储控制卡高级属性界面

 

表5-5 参数说明

参数

说明

Cache and Memory

查看控制卡Cache和Memory信息

Patrol Read

显示并允许设置巡检属性,可以开始、停止、恢复和暂停巡检操作

Power Save Setting

显示并允许修改物理驱动器电源设置

Spare

修改与紧急热备、热备和替换驱动器相关的属性

Task Rates

设置各种任务的处理速率

Auto Import Foreign Configuration

是否自动导入外部配置

Coercion Mode

硬盘容量压缩模式

Boot Mode

BIOS在检测到异常时的处理方式(默认为Pause on Errors),包括:

·     Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动

·     Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动

·     Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断

Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动

Controller BIOS

控制卡BIOS开关,默认开启

ROC Temperature

控制卡温度

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断(默认参数为Yes)

Drive Security

硬盘加密功能的启用状态

T10-PI

信息保护技术的使能状态

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明:

该参数设置为“Disabled”时:

新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

该参数设置为“Enabled”时:

新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见导入外部配置清空外部配置

对JBOD online的硬盘进行在线热拔插后,硬盘状态将被标识为Unconfigured Bad,需手动切换状态。

SMART Polling

SMART轮巡检测周期

Stop Consistency Check on Error

遇到异常时是否停止一致性校验

JBOD Mode

启用或禁用JBOD模式

Write Verify

写校验

Large IO Support

大型I/O支持功能开关

Unmap Capability

解除映射能力

Firmware Device order

·     Disabled:缺省值,服务器重启阶段存储卡下设备按直通盘、逻辑盘上报;

·     Enabled:开启该功能,服务器重启阶段存储卡下设备上报顺序改变,按启动盘、逻辑盘、直通盘顺序上报。启用此功能仅适用于 Linux。

Apply Changes

查看和修改控制卡的高级属性

部分参数选项是否显示与存储控制卡固件有关,请以实际情况为准。

 

17. 导入外部配置

本功能用于服务器更换控制卡后,需要将原有的配置导入到新的存储控制卡中。

注意

·     如服务器已有配置RAID,在更换新的存储控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。

·     为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。

·     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

 

(1)     如图5-188所示,在存储控制卡配置界面选择Configuration Management,按Enter

图5-188 存储控制卡配置界面

 

(1)     进入图5-189所示界面,选择Manage Foreign Configuration,按Enter进入外部配置管理界面。

图5-189 Configuration Management界面

 

(2)     进入图5-190所示界面,选择Preview Foreign Configuration,按Enter,显示当前存在的外部配置的详细信息

图5-190 Manage Foreign Configuration界面

 

(3)     进入图5-191所示界面,选择Import Foreign Configuration,按Enter

图5-191 Preview Foreign Configuration界面

 

(4)     进入图5-192所示界面,选择Confirm并按Enter,使其Enabled,选择Yes,按Enter

图5-192 确认导入外部配置

 

(5)     进入图5-193所示界面,选择OK,按Enter

图5-193 完成导入外部配置

 

18. 清空外部配置

(1)     如图5-194所示,在存储控制卡配置界面选择Configuration Management,按Enter

图5-194 存储控制卡配置界面

 

(2)     进入图5-195所示界面,选择Manage Foreign Configuration,按Enter进入外部配置管理界面。

图5-195 Configuration Management界面

 

(3)     进入图5-196所示界面,选择Preview Foreign Configuration,按Enter,显示当前存在的外部配置的详细信息

图5-196 Manage Foreign Configuration界面

 

(4)     进入图5-197所示界面,选择Clear Foreign Configuration,按Enter

图5-197 Preview Foreign Configuration界面

 

(5)     进入图5-198所示界面,选择Confirm并按Enter,使其Enabled,选择Yes,按Enter

图5-198 确认清空外部配置

 

(6)     进入图5-199所示界面,选择OK,按Enter

图5-199 完成清空外部配置

 

19. 创建多个Virtual Drive

(1)     如图5-200所示,在存储控制卡配置界面选择Configuration Management,按Enter

图5-200 存储控制卡配置界面

 

(2)     进入图5-201所示界面,选择Create Virtual Drive,按Enter

图5-201 选择Create Virtual Drive

 

(3)     进入图5-202所示界面,选择Select RAID Level以组建RAID 1为例),设置RAID级别,按Enter

图5-202 设置RAID级别

 

(4)     进入图5-203所示界面,选择Select Drives From,设置RAID的磁盘容量来源,选择Free Capacity(表示容量来自已配置RAID的磁盘的剩余容量),按Enter

图5-203 选择Select Drives From

 

(5)     进入图5-204所示界面,选择Select Drives Group,选择要用来配置RAID的Drives Group,按Enter

图5-204 选择Select Drives group

 

(6)     进入图5-205所示界面,选择Apply Changes,按Enter

图5-205 选择Apply Changes

 

(7)     进入图5-206所示界面,完成Drives Group选择操作,选择OK,按Enter

图5-206 完成Drives Group的选择

 

(8)     进入图5-207所示界面,进行相应的设置,然后选择Save Configuration,按Enter

图5-207 选择Save Configuration

 

(9)     进入图5-208所示界面,选择Confirm并按Enter,使其Enabled,选择Yes,按Enter

图5-208 确认配置

 

(10)     进入图5-209所示界面,选择OK,按Enter

图5-209 完成配置

 

20. Make JBOD

本功能用于阵列卡在BIOS下同时改变多个硬盘状态为JBOD。

说明

LSI-9540阵列卡无此功能。

 

(1)     如图5-210所示,在存储控制卡配置界面选择Configuration Management,按Enter

图5-210 存储控制卡配置界面

 

(2)     进入图5-211所示界面,选择Make JBOD,按Enter

图5-211 Configuration Management界面

 

(3)     进入图5-212所示界面,选择想要变成JBOD模式的盘,按Enter,按向下箭头至OK项,按Enter确认

图5-212 选择硬盘界面

 

(4)     进入图5-213所示界面,选择Confirm,按Enter,按向下键选择OK项,按Enter确认。

图5-213 确认Make JBOD界面

 

(5)     进入图5-214所示界面,所示界面,选择OK,按Enter确认配置。

图5-214 完成Make JBOD

 

(6)     进入图5-215所示界面,进入Drive Management页面,查看所选盘已完成Make JBOD操作。

图5-215 Make JBOD实现结果

 

21. Auto Configure RAID 0

本功能用于阵列卡在BIOS下同时把所有Unconfigured Good硬盘单独组建为RAID 0 的逻辑盘。

说明

LSI-9540阵列卡无此功能。

 

(1)     如图5-216所示,在存储控制卡配置界面选择Configuration Management,按Enter

图5-216 存储控制卡配置界面

 

(2)     进入图5-217所示界面,选择Auto Configure RAID 0,按Enter

图5-217 Configuration Management界面

 

(3)     进入图5-218所示界面,选择Confirm,按Enter,按向下键选择Yes,按Enter确认

图5-218 确认Auto Configure RAID 0功能界面

 

(4)     进入图5-219示界面,选择OK,确认配置。

图5-219 完成Auto Configure RAID 0功能界面

 

(5)     进入图5-220所示界面,Virtual Drive Management配置查看,所有硬盘均单独组成了RAID 0的逻辑盘,即完成Auto configure RAID 0操作。

图5-220 BIOS实现 界面

 

5.3  Legacy启动模式下配置RAID

本章节介绍的存储控制卡,支持Legacy启动模式但是没有Legacy启动模式下的管理界面。

5.4  下载和安装StorCLI工具

本节介绍OS命令行工具的下载和安装步骤。OS命令行工具可在服务器正常运行中对RAID卡进行操作,无需重启服务器。

5.4.1  下载工具

(1)     登录https://www.h3c.com/cn/BizPortal/DownLoadAccessory/DownLoadAccessoryFilt.aspx

(2)     按照提示信息下载对应存储控制卡的固件安装包及版本说明书。

(3)     解压固件安装包后得到适用于不同操作系统的StorCLI工具包。

5.4.2  安装工具

请参考固件版本说明书安装不同操作系统下的StorCLI工具。

5.5  OS命令行工具常用命令

本节介绍OS命令行工具常用命令的使用方法及示例。OS命令行工具可在服务器正常运行中对RAID卡进行操作,无需重启服务器。

说明

本工具涉及指定路径相关的命令均不支持空格和特殊字符。

 

5.5.1  查询存储控制卡信息

查询LSI存储控制卡的基本信息。

【命令】

storcli64 /ccontroller_id show [logfile=logfilename]

storcli64 /ccontroller_id show all [logfile=logfilename]

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。all:表示查询该工具可管理的所有存储控制卡信息。

logfilename:导出的查询信息文件名。

【举例】

#查询存储控制卡的基本信息。

[root@localhost ~]# storcli64 /c0 show

Generating detailed summary of the adapter, it may take a while to complete.

 

CLI Version = 007.2408.0000.0000 Nov 15, 2022

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

Product Name = MegaRAID 9560-8i 4GB

Serial Number = SK01065334

SAS Address =  500062b2024fe0c0

PCI Address = 00:4b:00:00

System Time = 11/09/2023 14:38:46

Mfg. Date = 03/04/20

Controller Time = 11/09/2023 06:38:47

FW Package Build = 52.24.0-4763

BIOS Version = 7.24.01.0_0x07180100

FW Version = 5.240.02-3768

Driver Name = megaraid_sas

Driver Version = 07.726.02.00

Current Personality = RAID-Mode

Vendor Id = 0x1000

Device Id = 0x10E2

SubVendor Id = 0x1000

SubDevice Id = 0x4010

Host Interface = PCI-E

Device Interface = SAS-12G

Bus Number = 75

Device Number = 0

Function Number = 0

Domain ID = 0

Security Protocol = None

Drive Groups = 1

 

TOPOLOGY :

========

 

-----------------------------------------------------------------------------

DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace TR

-----------------------------------------------------------------------------

 0 -   -   -        -   RAID1 Optl  N  893.750 GB dflt N  N   none N      N

 0 0   -   -        -   RAID1 Optl  N  893.750 GB dflt N  N   none N      N

 0 0   0   249:0    31  DRIVE Onln  N  893.750 GB dflt N  N   none -      N

 0 0   1   249:1    30  DRIVE Onln  N  893.750 GB dflt N  N   none -      N

-----------------------------------------------------------------------------

 

DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID

DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Optl=Optimal|Dgrd=Degraded

Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active

PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign

DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present

TR=Transport Ready

 

Virtual Drives = 1

 

VD LIST :

=======

 

---------------------------------------------------------------

DG/VD TYPE  State Access Consist Cache Cac sCC       Size Name

---------------------------------------------------------------

0/235 RAID1 Optl  RW     No      RWBD  -   ON  893.750 GB

---------------------------------------------------------------

 

VD=Virtual Drive| DG=Drive Group|Rec=Recovery

Cac=CacheCade|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded

Optl=Optimal|dflt=Default|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady

B=Blocked|Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack

AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled

Check Consistency

 

JBOD Drives = 12

 

JBOD LIST :

=========

 

---------------------------------------------------------------------------------------

ID EID:Slt DID State Intf Med     Size SeSz Model                Vendor   Port

---------------------------------------------------------------------------------------

 4 249:4    32 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

 5 249:5     9 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

 6 249:6     1 Onln  SAS  HDD 7.277 TB 512B HUS728T8TAL5204      HGST     C0.0 & C0.1

 7 249:7    33 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

 8 249:8    16 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

 9 249:9    22 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

10 249:10   17 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

11 249:11   11 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

12 249:12   20 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

13 249:13   13 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

14 249:14   12 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

15 249:15   21 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

---------------------------------------------------------------------------------------

 

ID=JBOD Target ID|EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|Onln=Online

Offln=Offline|Intf=Interface|Med=Media Type|SeSz=Sector Size

SED=Self Encryptive Drive|PI=Protection Info|Sp=Spun|U=Up|D=Down

 

Physical Drives = 14

 

PD LIST :

=======

 

---------------------------------------------------------------------------------------

EID:Slt DID State DG       Size Intf Med SED PI SeSz Model                     Sp Type

---------------------------------------------------------------------------------------

249:0    31 Onln   0 893.750 GB SATA SSD N   N  512B Micron_5300_MTFDDAK960TDS U  -

249:1    30 Onln   0 893.750 GB SATA SSD N   N  512B Micron_5300_MTFDDAK960TDS U  -

249:4    32 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:5     9 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:6     1 Onln   -   7.277 TB SAS  HDD N   N  512B HUS728T8TAL5204           U  JBOD

249:7    33 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:8    16 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:9    22 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:10   17 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:11   11 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:12   20 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:13   13 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:14   12 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:15   21 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

---------------------------------------------------------------------------------------

 

EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|DG=DriveGroup

DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare

UBad=Unconfigured Bad|Sntze=Sanitize|Onln=Online|Offln=Offline|Intf=Interface

Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info

SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign

UGUnsp=UGood Unsupported|UGShld=UGood shielded|HSPShld=Hotspare shielded

CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded

UBUnsp=UBad Unsupported|Rbld=Rebuild

 

Enclosures = 1

 

Enclosure LIST :

==============

 

-----------------------------------------------------------------------------

EID State Slots PD PS Fans TSs Alms SIM Port#          ProdID VendorSpecific

-----------------------------------------------------------------------------

249 OK       28 14  0    1   7    0   0 C0.0 & C0.1 x8 Cub    exp-2.1.1.0

-----------------------------------------------------------------------------

 

EID=Enclosure Device ID | PD=Physical drive count | PS=Power Supply count

TSs=Temperature sensor count | Alms=Alarm count | SIM=SIM Count | ProdID=Product ID

 

 

Cachevault_Info :

===============

 

------------------------------------

Model  State   Temp Mode MfgDate

------------------------------------

CVPM05 Optimal 27C  -    2019/09/18

------------------------------------

 

#查询存储控制卡的所有信息,并保存到指定文件。

[root@localhost ~]# storcli64 /c0 show all logfile=logfile.txt

5.5.2  切换存储控制卡模式

切换存储控制卡的工作模式。

【命令】

storcli64 /ccontroller_id set personality =mode

【缺省情况】

默认存储控制卡工作在RAID模式。

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

mode:可选参数如下:

·     raid:切换存储控制卡到RAID模式。

·     jbod:切换存储控制卡到JBOD模式。

【注意事项】

·     使用此命令行前,请确保存储控制卡的固件为最新版本,较低版本可能不支持JBOD模式。

·     使用此命令行前,请确保存储控制卡控制的硬盘均为Unconfigured Good状态。

·     使用此命令行后,需要重启操作系统后方能生效。

【举例】

#切换存储控制卡模式为JBOD。

[root@localhost home]# ./storcli64 /c0 set personality=jbod

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

------------------------------------------------------------------------

Ctrl_Prop       Value

------------------------------------------------------------------------

Set Personality JBOD (Reboot the system for the change to take effect.)

------------------------------------------------------------------------

5.5.3  更新固件

升级、降级或平级更新存储控制卡的固件。

【命令】

固件升级:

storcli64 /ccontroller_id download file= fw_file

固件降级或者平级更新:

storcli64 /ccontroller_id download file= fw_file noverchk

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准;

fw_file:固件文件。

noverchk:降级或平级更新存储控制卡固件时,不检查固件镜像的版本。

【注意事项】

若存储控制卡固件文件不再当前路径下,则需要在fw_file前加上文件的绝对路径。

【举例】

#更新存储控制卡固件。

[root@localhost home]# ./storcli64 /c0 download file=MR_4MB.rom noverchk

Download Completed.

Flashing image to adapter...

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = F/W Flash Completed. Please reboot the system for the changes to take effect

5.5.4  PSoC信息检查

查看存储控制卡PSoC固件。

【命令】

storcli64 /ccontroller_id/ show all | grep -i psoc

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

【注意事项】

·     LSI 9560卡上已更新运行52.20.0-4341及以上版本固件,且storcli版本为7.2007.0000.0000或以上版本才能查询PSoC信息、更新PSoC固件。

·     LSI 9560卡上已更新运行52.22.0-4544及以上版本固件,且storcli版本为7.2307.0000.0000或以上版本才能查询PSoC信息、更新PSoC固件。

【举例】

#查询PSoC信息,其中包括PSoC FW Version、PSoC Part Number、PSoC支持情况等信息。

[root@localhost ~]# storcli64 /c0 show all | grep -i psoc

PSOC FW Version = 0x001B

PSOC Hardware Version = 0x0003

PSOC Part Number = 15987-270-4GB

Support PSOC Update = Yes

Support PSOC Part Information = Yes

Upgradable PSOC = Present

 

5.5.5  PSoC固件更新

升级存储控制卡的PSoC固件。

【命令】

storcli64 /ccontroller_id download file= fw_file

storcli64 /ccontroller_id download file= fw_file noverchk

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准;

fw_file:PSoC固件文件。

noverchk:降级或平级更新存储控制卡PSoC固件时,不检查固件镜像的版本。

【注意事项】

·     若存储控制卡PSoC固件文件不在当前路径下,则需要在fw_file前加上文件的绝对路径。

·     storcli工具涉及指定路径相关命令均不支持空格和特殊字符。

·     PSoC固件更新后,需将服务器AC power cycle才能生效。

·     LSI 9560卡上已更新运行52.20.0-4341及以上版本固件,且storcli版本为7.2007.0000.0000或以上版本才能查询PSoC信息、更新PSoC固件。

·     LSI 9560卡上已更新运行52.22.0-4544及以上版本固件,且storcli版本为7.2307.0000.0000或以上版本才能查询PSoC信息、更新PSoC固件。

【举例】

# 升级存储控制卡PSoC固件。

[root@localhost ~]# storcli64 /c0 download file=pblp_catalog.signed.rom

Download Completed.

Flashing image to adapter...

CLI Version = 007.2408.0000.0000 Nov 15, 2022

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = F/W Flash Completed. Please shutdown the system for the changes to take effect

 

# 降级或平级更新存储控制卡PSoC固件。

[root@localhost ~]# storcli64 /c0 download file=pblp_catalog.signed.rom noverchk

Download Completed.

Flashing image to adapter...

CLI Version = 007.2408.0000.0000 Nov 15, 2022

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = F/W Flash Completed. Please shutdown the system for the changes to take effect

5.5.6  创建和删除RAID

创建和删除RAID。

【命令】

创建RAID:storcli64 /ccontroller_id add vd rraid_level  [size=<vd1_size>,..] [name=<vdname1>,..] drives= vd_drives [pdperarray= pdperarraynum] [pdcache=pdcache_policy] [pi] [wt|wb|awb] [nora|ra] [strip=strip_size] [emulationtype=emulationtype] [spares =spares_drives]

删除RAID:storcli64  /ccontroller_id/vraid_id del

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_level :RAID级别,可选0|1|5|6|00|10|50|60。

vd1_size :RAID容量设定值,单位gb,输入all代表可用全容量组建。

vdname1 :逻辑盘命名。

vd_drives :选择成员盘,格式为enclosure_id:slot_id,enclosure_id为所在Enclosure的id,slot_id为目标成员盘的slot id。

pdperarraynum:符合RAID(10|50|60)级别时需要确定子组中的硬盘数。

pdcache_policy :成员盘的缓存设定,可选on|off|default,default代表默认硬盘当前的缓存状态,不做修改。

pi:开启数据保护。

wt|wb|awb:writecache写缓存策略也,可选wt(write through当数据落盘后告知系统传输完成)、wb(write back当数据写入控制卡cache即告知系统传输完成)、awb(always write back在没有超级电容保护时,强制使用wb,主机遇异常掉电会有数据丢失风险)。

nora|rareadcache读缓存策略,ra当从RAID中读取数据时,会把周边数据同时读出存在cache中,用户随后访问这些数据时可以直接从cache中读取,减少磁盘寻道时间,提升读取性能。

strip_size:条带大小,MR卡可选 8|16|32|64|128|256|512|1024,iMR卡仅支持64。本文支持的卡中,仅HBA-LSI-9440-8i卡为iMR卡。

emulationtype:可选0|1|2,0是默认值,当成员盘中有512e的盘,扇区大小就会显示512e,否则显示为512n、1表示如果成员盘中没有512e的盘,扇区大小显示为512n、2表示即使成员盘中没有512e的盘,扇区大小也会显示为512e。

spares_drives:热备盘,取值格式参照vd_drives,格式为enclosure_id:slot_id。

raid_id:待删除RAID的ID,可通过./storcli64 /c0/vall show查看RAID的id值。配置为all时删除全部RAID。

【注意事项】

RAID成员盘输入时,slot值之间以逗号分隔,slot连续的成员盘,可用‘-’连接。

【举例】

#创建RAID 1。

[root@localhost home]# ./storcli64 /c0 add vd r1 size=all drives=2:8,23

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Add VD Succeeded

 

[root@localhost home]# ./storcli64 /c0/v0 del

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Delete VD succeeded

5.5.7  定位物理盘

对指定物理盘执行定位点灯和灭灯操作。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id  action locate

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id,可选all点亮所有enclosure下的硬盘定位灯。

slot_id:物理硬盘slot槽位编号,可选all点亮enclosure下所有硬盘定位灯。

action:需要执行的操作,包括如下两种:

·     start:点亮硬盘指示灯。

·     stop:熄灭硬盘指示灯。

 

【举例】

#点亮硬盘指示灯。

[root@localhost home]# ./storcli64 /c0/e2/s8 start locate

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Start Drive Locate Succeeded.

 

#熄灭硬盘指示灯。

[root@localhost home]# ./storcli64 /c0/e2/s8 stop locate

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Stop Drive Locate Succeeded.

5.5.8  切换硬盘状态

切换硬盘状态(JBOD和Unconfigured Good)。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]

storcli64 /ccontroller_id/eenclosure_id/sslot_id set jbod

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

【注意事项】

硬盘状态由UG切换至JBOD时,先确认一下RAID卡JBOD选项是否打开,如未打开需在切换前打开JBOD开关。

【举例】

#切换硬盘状态为Unconfigured Good。

[root@localhost home]# ./storcli64 /c0/e2/s8 set good force

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Set Drive Good Succeeded.

#切换硬盘状态为JBOD。

[root@localhost home]# ./storcli64 /c0/e2/s8 set jbod

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Set Drive JBOD Succeeded.

5.5.9  检查硬盘信息

检查硬盘基本信息。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id  show [all]

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

【举例】

[root@localhost home]# ./storcli64 /c0/e2/s8 show

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Show Drive Information Succeeded.

 

 

Drive Information :

=================

 

-------------------------------------------------------------------------------

EID:Slt DID State DG     Size Intf Med SED PI SeSz Model               Sp Type

-------------------------------------------------------------------------------

2:8      39 JBOD  -  5.458 TB SATA HDD N   N  512B ST6000NM0115-1YZ110 U  -

-------------------------------------------------------------------------------

 

EID=Enclosure Device ID|Slt=Slot No.|DID=Device ID|DG=DriveGroup

DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare

UBad=Unconfigured Bad|Onln=Online|Offln=Offline|Intf=Interface

Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info

SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign

UGUnsp=Unsupported|UGShld=UnConfigured shielded|HSPShld=Hotspare shielded

CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded

UBUnsp=UBad Unsupported

5.5.10  导入导出RAID配置

保存当前RAID卡的配置、恢复或在其他卡上导入此配置。

【命令】

storcli64 /ccontroller_id get config file=filename

storcli64 /ccontroller_id set config file=filename

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

filename:配置文件名称。

【注意事项】

此功能操作的前提是,服务器环境必须完全一致。

【举例】

#导出配置。

[root@localhost home]# ./storcli64 /c0 get config file=conf.txt

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Config data is saved to the file

#导入配置。

[root@localhost home]# ./storcli64 /c0 set config file=conf.txt

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Config data is restored to the adapter

5.5.11  扩容RAID

增大目标RAID的容量。

【命令】

storcli64 /ccontroller_id/vraid_id expand size=target_size

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_id:待扩容的RAID ID。

target_size:待设置的容量值。

【注意事项】

LSI 9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。

【举例】

#增大指定RAID 20Gb容量。

[root@localhost home]# ./storcli64 /c0/v0 expand size=20gb

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = expansion operation succeeded

 

 

EXPANSION RESULT :

================

 

----------------------------------------------------------------------------

VD      Size FreSpc   ReqSize   AbsUsrSz  %FreSpc NewSize   Status NoArrExp

----------------------------------------------------------------------------

 0 10.000 GB 1.808 TB 20.000 GB 37.049 GB       2 47.049 GB -      1.808 TB

----------------------------------------------------------------------------

 

Size - Current VD size|FreSpc - Freespace available before expansion

%FreSpc - Requested expansion size in % of available free space

AbsUsrSz - User size rounded to nearest %

5.5.12  迁移RAID级别

在不影响数据完整性的情况下,对RAID级别进行修改。

【命令】

storcli64 /ccontroller_id/vraid_id start migrate type=raidx option=operation drives= vd_drives  force

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_id:待扩容的RAID ID。

raidx:目标RAID级别。

vd_drives :选择成员盘,格式为enclosure_id:slot_id,enclosure_id为所在Enclosure的id,slot_id为目标成员盘的slot id。

operation :选择增加或移除成员盘,可选add或remove。

【注意事项】

LSI 9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。

【举例】

[root@localhost home]# ./storcli64 /c0/v0 start migrate type=raid5 option=add drives=2:11

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Start Reconstruction Operation Success

 

[root@localhost home]# ./storcli64 /c0/v0 start migrate type=raid0 option=remove drives=2:9

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Start Reconstruction Operation Success

5.5.13  管理外部配置

导入或清除外部配置。

【命令】

storcli64 /ccontroller_id/fall operation

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

operation:可选操作如下:

·     import:导入外部配置。

·     del:清除外部配置。

【注意事项】

多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

【举例】

#导入外部配置。

[root@localhost home]# ./storcli64 /c0/fall import

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Successfully imported foreign configuration

 

#清除外部配置。

[root@localhost home]# ./storcli64 /c0/fall del

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Successfully deleted foreign configuration

5.5.14  设置热备盘

为冗余RAID添加热备盘。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive dgs=drive_group

storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive

【缺省情况】

add hotspare后不指定dgs默认为添加全局热备。

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

drive_group:磁盘组ID。

【注意事项】

·     多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

·     热备盘需要与原来RAID的成员盘接口协议一致,且容量大于等于原有RAID成员盘。

【举例】

#增加全局热备。

[root@localhost home]# ./storcli64 /c0/e2/s11 add hotsparedrive

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Add Hot Spare Succeeded.

 

#增加专属热备。

[root@localhost home]# ./storcli64 /c0/e2/s8 add hotsparedrive dgs=0

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Add Hot Spare Succeeded.

 

#删除热备盘。

[root@localhost home]# ./storcli64 /c0/e2/s8 delete hotsparedrive

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Delete Hot Spare Succeeded.

 

5.5.15  设置紧急热备功能

设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。

【命令】

storcli64 /ccontroller_id set eghs eug=state

storcli64 /ccontroller_id set eghs smarter=state

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

state:紧急热备功能的启用状态,取值:on 启用,off 禁用。

【注意事项】

·     多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

【举例】

# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。

[root@localhost storcli]# ./storcli64 /c0 set eghs eug=on

CLI Version = 007.2507.0000.0000 Feb 07, 2023

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

------------------

Ctrl_Prop   Value

------------------

EmergencyUG ON

------------------

 

[root@localhost storcli]# ./storcli64 /c0 set eghs smarter=on

CLI Version = 007.2507.0000.0000 Feb 07, 2023

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

-----------------------

Ctrl_Prop        Value

-----------------------

EmergencySmarter ON

-----------------------

 

 

5.5.16  收集日志

将存储控制卡的日志信息导出到日志文件。Snapdump文件是一个日志文件,在一些RAID控制卡异常场景下可以自动生成的日志,也可以主动获取当前RAID控制卡的snapdump日志。

【命令】

storcli /ccontroller_id show all logfile=logfilename

storcli /ccontroller_id show snapdump

storcli /ccontroller_id get snapdump

storcli /ccontroller_id get snapdump id=all

storcli /ccontroller_id get snapdump id=snapdump_id file= logfilename

storcli /ccontroller_id show alilog logfile=logfilename

storcli /ccontroller_id show events logfile=logfilename

storcli /ccontroller_id show termlog logfile=logfilename

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 show命令实际查询结果为准。

snapdump_id:snapdump日志ID。

logfilename:指定要在其中写入SnapDump数据的 zip 格式的文件。

【注意事项】

·     生成SnapDump数据是一项资源密集型操作,可能会导致I/O超时。因此,两个连续的get SnapDump请求之间应至少间隔10分钟。

·     LSI9540-8i(52.26.0-5014以下固件版本)仅支持1个snapdump,每次执行storcli /ccontroller_id get snapdump都会覆盖控制器上已存在snapdump数据;出现问题后应先立即执行storcli /ccontroller_id show snapdump查询是否已自动生成snapdump;若已自动生成,则应该使用storcli /ccontroller_id get snapdump id=allstorcli /ccontroller_id get snapdump id=snapdump_id file= logfilename命令下载snapdump数据;若未生成,则才应该使用storcli /ccontroller_id get snapdump触发控制器立即生成新的snapdump数据。

·     阵列卡模式切换,固件更新动作会丢弃DDR和flash上的所有Snapdump数据。

表5-6 Snapdump支持情况

存储控制卡型号

Snapdump支持情况

备注

LSI9540-8i

支持

·     snapdump数据保存在flash。

·     52.26.0-5014以下固件版本仅支持1个snapdump。

LSI9560-8i

支持

snapdump数据保存在flash。

LSI9560-16i

支持

snapdump数据保存在flash。

 

【举例】

#查询显示控制器的全部信息,将信息打印到文本文件并将该文件保存在指定位置。

[root@localhost home]# storcli64 /c0 show all logfile=/log/showall.txt

 

#查询控制器当前snapdump属性和控制器上存在的snapdump数据信息。

[root@localhost home]# storcli64 /c0 show snapdump

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = None

 

 

SnapDump Properties :

===================

 

-----------------------------------------

Ctrl_Prop                     Value

-----------------------------------------

Snapdump                      ON

Snapdump Save Count           N/A

Snapdump Delay OCR            15

Snapdump properties           Read-Write

Snapdump Preboot Trace Buffer ON

Snapdump Current Count        1

-----------------------------------------

 

 

SnapDump Details :

================

 

----------------------------------------------

ID Snapdump Size Snapdump time       OnDemand

----------------------------------------------

 0       2492649 09-15-2023 11:43:26 Yes

----------------------------------------------

   

#未指定提供ID,将触发控制器生成新的snapdump数据并同时下载控制器上所有已存在的SnapDump数据。

[root@localhost home]# storcli64 /c0 get snapdump

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = Download Support Log

 

 

Snapdump :

========

 

---------------------------------------

Ctrl Status  Ctrl_Prop    ErrCd ErrMsg

---------------------------------------

   0 Success Get Snapdump     0 -

---------------------------------------

 

#下载控制器上所有已存在的SnapDump数据,使用此命令,CLI将按特定格式构建文件名,如下所示:

snapdump_c#(controller_id)_id#(snapdump_id)_年_月_日_小时_分钟_秒.zip。

[root@localhost home]# /opt/MegaRAID/storcli/storcli64 /c0 get snapdump id=all

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 3.10.0-1160.el7.x86_64

Controller = 0

Status = Success

Description = None

 

 

Snapdump :

========

 

---------------------------------------

Ctrl Status  Ctrl_Prop    ErrCd ErrMsg

---------------------------------------

   0 Success Get Snapdump     0 -

---------------------------------------

 

#指定SnapDump ID,并将SnapDump数据写入指定的文件。如果文件已存在,它将被截断(truncating),并添加新的信息

[root@localhost home]# storcli64 /c0 get snapdump id=0 file=snapdump.zip

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = None

 

 

Snapdump :

========

 

---------------------------------------

Ctrl Status  Ctrl_Prop    ErrCd ErrMsg

---------------------------------------

   0 Success Get Snapdump     0 -

---------------------------------------

 

#将alilog日志打印到文本文件并将该文件保存在指定位置。

[root@localhost home]# ./storcli64 /c0 show alilog logfile=/log/alilog.txt

 

#将events日志打印到文本文件并将该文件保存在指定位置。

[root@localhost home]# storcli64 /c0 show events logfile=/log/events.txt

 

#将termlog日志打印到文本文件并将该文件保存在指定位置。

[root@localhost home]# storcli64 /c0 show termlog logfile=/log/termlog.txt

5.5.17  管理日志

查询和清除存储控制卡的日志。

【命令】

storcli64 /ccontroller_id show termlog

storcli64 /ccontroller_id show events

storcli64 /ccontroller_id show snapdump

storcli64 /ccontroller_id delete termlog

storcli64 /ccontroller_id delete events

storcli64 /ccontroller_id delete snapdump force

storcli64 /ccontroller_id set snapdump state=on|off

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 show命令实际查询结果为准。

【举例】

#查询TTY日志。

[root@localhost home]# ./storcli64 /c0 show termlog

Firmware Term Log Information on controller 0:

03/13/22  9:12:37: C0:TTY History buffer cleared

 

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

#查询事件日志。

[root@localhost home]# ./storcli64 /c0 show events

 

 

seqNum: 0x00079e17

Time: Sun Mar 13 09:13:18 2022

 

Code: 0x0000001e

Class: 0

Locale: 0x20

Event Description: Event log cleared

Event Data:

===========

None

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

Events = GETEVENTS

 

Controller Properties :

=====================

 

------------------------------------

Ctrl Status  Method          Value

------------------------------------

   0 Success handleSuboption Events

------------------------------------

 

#查询控制器当前snapdump属性和控制器上存在的snapdump数据信息。

[root@localhost 0920]# storcli64 /c0 show snapdump

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = None

 

 

SnapDump Properties :

===================

 

-----------------------------------------

Ctrl_Prop                     Value

-----------------------------------------

Snapdump                      ON

Snapdump Save Count           N/A

Snapdump Delay OCR            15

Snapdump properties           Read-Write

Snapdump Preboot Trace Buffer ON

Snapdump Current Count        2

-----------------------------------------

 

 

SnapDump Details :

================

 

----------------------------------------------

ID Snapdump Size Snapdump time       OnDemand

----------------------------------------------

 0       1643485 09-19-2023 07:03:58 Yes

 1       2499469 09-20-2023 06:48:47 Yes

----------------------------------------------

 

#清除TTY日志中的所有记录。

[root@localhost home]# ./storcli64 /c0 delete termlog

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

----------------------------

Ctrl Method Result

----------------------------

   0 Delete Termlog deleted

----------------------------

 

#清除事件日志中的所有记录。

[root@localhost home]# ./storcli64 /c0 delete events

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

---------------------------------

Ctrl Status  Method       Value

---------------------------------

   0 Success DeleteEvents Events

---------------------------------

 

#清除所有Snapdump数据。

[root@localhost 0920]# storcli64 /c0 delete snapdump force

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = Snapdump delete

 

#关闭Snapdump功能。

[root@localhost ~]# storcli64 /c0 set snapdump state=off

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

-------------------

Ctrl_Prop    Value

-------------------

Set Snapdump off

-------------------

 

 

#开启Snapdump功能。

[root@localhost ~]# storcli64 /c0 set snapdump state=on

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

-------------------

Ctrl_Prop    Value

-------------------

Set Snapdump on

-------------------

 

5.5.18  设置RAID缓存

调整RAID读写缓存设置。

【命令】

storcli64 /ccontroller_id/vraid_id set wrcache={wt|wb|awb}

storcli64 /ccontroller_id/vraid_id set rdcache={ra|nora}

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_id:目标RAID ID。

{wt|wb|awb}:可选wt(write through当数据落盘后告知系统传输完成)、wb(write back当数据写入控制卡cache即告知系统传输完成)、awb(always write back在没有超级电容保护时,强制使用wb,主机遇异常掉电会有数据丢失风险)。

{ra|nora}:ra当从RAID中读取数据时,会把周边数据同时读出存在cache中,用户随后访问这些数据时可以直接从cache中读取,减少磁盘寻道时间,提升读取性能。

【注意事项】

多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

【举例】

[root@localhost home]# ./storcli64 /c0/v0 set wrcache=awb

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

Detailed Status :

===============

 

---------------------------------------

VD Property Value Status  ErrCd ErrMsg

---------------------------------------

 0 wrCache  AWB   Success     0 -

---------------------------------------

 

[root@localhost home]# ./storcli64 /c0/v0 set rdcache=nora

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

Detailed Status :

===============

 

---------------------------------------

VD Property Value Status  ErrCd ErrMsg

---------------------------------------

 0 rdCache  NoRA  Success     0 -

---------------------------------------

5.5.19  设置RAID访问策略

设置RAID的读写访问权限。

【命令】

storcli64 /ccontroller_id/vraid_id set accesspolicy={rw|ro| blocked}

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_id:目标RAID ID。

{rw|ro| blocked}:访问策略,rw为可读写、ro为只读、blocked为无法访问。

【注意事项】

多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

【举例】

#设置访问策略为只读。

[root@localhost home]# ./storcli64 /c0/v0 set accesspolicy=rw

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

Detailed Status :

===============

 

----------------------------------------

VD Property  Value Status  ErrCd ErrMsg

----------------------------------------

 0 AccPolicy RW    Success     0 -

----------------------------------------

5.5.20  设置RAID成员盘读写缓存

设置RAID成员盘的读写缓存。

【命令】

storcli64 /ccontroller_id/vraid_id set pdcache= pdcache_policy

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_id:目标RAID ID。

pdcache_policy :可选on|off|default,default代表默认硬盘当前的缓存状态,不做修改。

【注意事项】

多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

【举例】

#关闭读写缓存。

[root@localhost home]# ./storcli64 /c0/v0 set pdcache=off

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

Detailed Status :

===============

 

---------------------------------------

VD Property Value Status  ErrCd ErrMsg

---------------------------------------

 0 PdCac    Off   Success     0 -

5.5.21  查看RAID成员盘的缓存状态

查看RAID成员盘的缓存状态。

【命令】

storcli64 /ccontroller_id / eenclosure_id/sslot_id show all

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

【注意事项】

·     多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

·     LSI-9560使用本命令查询硬盘会显示Write Cache = N/A。

【举例】

#查看RAID成员盘的缓存状态。

[root@localhost ~]# storcli64 /c1 /e252/s10 show all

CLI Version = 007.1705.0000.0000 Mar 31, 2021

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 1

Status = Success

Description = Show Drive Information Succeeded.

 

 

Drive /c1/e252/s10 :

==================

 

---------------------------------------------------------------------------------

EID:Slt DID State DG       Size Intf Med SED PI SeSz Model               Sp Type

---------------------------------------------------------------------------------

252:10   20 Onln   0 893.750 GB SATA SSD N   N  512B INTEL SSDSC2KB960G8 U  -

---------------------------------------------------------------------------------

 

EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|DG=DriveGroup

DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare

UBad=Unconfigured Bad|Sntze=Sanitize|Onln=Online|Offln=Offline|Intf=Interface

Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info

SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign

UGUnsp=UGood Unsupported|UGShld=UGood shielded|HSPShld=Hotspare shielded

CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded

UBUnsp=UBad Unsupported|Rbld=Rebuild

 

 

Drive /c1/e252/s10 - Detailed Information :

=========================================

 

Drive /c1/e252/s10 State :

========================

Shield Counter = 0

Media Error Count = 0

Other Error Count = 0

Drive Temperature =  36C (96.80 F)

Predictive Failure Count = 0

S.M.A.R.T alert flagged by drive = No

 

 

Drive /c1/e252/s10 Device attributes :

====================================

SN = PHYF832001H8960CGN

Manufacturer Id = ATA

Model Number = INTEL SSDSC2KB960G8

NAND Vendor = NA

WWN = 55CD2E414FA85A2E

Firmware Revision = XCV10120

Raw size = 894.252 GB [0x6fc81ab0 Sectors]

Coerced size = 893.750 GB [0x6fb80000 Sectors]

Non Coerced size = 893.752 GB [0x6fb81ab0 Sectors]

Device Speed = 6.0Gb/s

Link Speed = 6.0Gb/s

NCQ setting = Enabled

Write Cache = Enabled

Logical Sector Size = 512B

Physical Sector Size = 4 KB

Connector Name = C1.0 x1

 

 

Drive /c1/e252/s10 Policies/Settings :

====================================

Drive position = DriveGroup:0, Span:0, Row:0

Enclosure position = 1

Connected Port Number = 11(path0)

Sequence Number = 10

Commissioned Spare = No

Emergency Spare = No

Last Predictive Failure Event Sequence Number = 0

Successful diagnostics completion on = N/A

FDE Type = None

SED Capable = No

SED Enabled = No

Secured = No

Cryptographic Erase Capable = Yes

Sanitize Support = CryptoErase, OverWrite, BlockErase

Locked = No

Needs EKM Attention = No

PI Eligible = No

Certified = No

Wide Port Capable = No

Unmap capable = Yes

Unmap capable for LDs = No

Multipath = No

 

Port Information :

================

 

-----------------------------------------

Port Status Linkspeed SAS address

-----------------------------------------

   0 Active 6.0Gb/s   0x300062b20c75204a

-----------------------------------------

 

 

Inquiry Data =

40 00 ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00

00 00 00 00 48 50 46 59 33 38 30 32 31 30 38 48

36 39 43 30 4e 47 20 20 00 00 00 00 00 00 43 58

31 56 31 30 30 32 4e 49 45 54 20 4c 53 53 53 44

32 43 42 4b 36 39 47 30 20 38 20 20 20 20 20 20

20 20 20 20 20 20 20 20 20 20 20 20 20 20 01 80

00 40 00 2f 00 40 00 00 00 00 06 00 ff 3f 10 00

3f 00 10 fc fb 00 01 fd ff ff ff 0f 00 00 07 00

 

 

5.5.22  查看RAID的Cache读写状态

设置RAID组的Cache读写策略。

【命令】

storcli64 /ccontroller_id/vraid_id set wrcache=wrmode

storcli64 /ccontroller_id/vraid_id set rdcache=rdmode

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_id:待设置的RAID组的ID。

wrmodeCache读写模式,wt:当磁盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号; wb:控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号;awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”策略。          

Rdmode:设置Cache读策略,ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少磁盘寻道操作,节省响应时间,提高了数据读取速度;nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

【注意事项】

·     多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

【举例】

# 设置Cache读写模式为“wt”。

[root@localhost home]# ./storcli64 /c0/v0 set wrcache=wt
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 wrCache WT Success 0 -
---------------------------------------

 

5.5.23  擦除物理盘数据

执行、查询和停止擦除物理盘动作。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode

storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

mode:可选simple|normal|thorough,分别对硬盘进行一遍|三遍|九遍擦除。

【注意事项】

多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

【举例】

#执行物理盘数据1遍擦除。

[root@localhost home]# ./storcli64 /c0/e2/s11 start erase simple

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Start Drive Erase Succeeded.

 

#查看擦除进程。

[root@localhost home]# ./storcli64 /c0/e2/s11 show erase

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Show Drive Erse Status Succeeded.

------------------------------------------------------

Drive-ID Progress% Status Estimated Time Left

------------------------------------------------------

/c0/e2/s11 0 In progress 0 Seconds

------------------------------------------------------

 

#停止擦除物理盘数据。

[root@localhost home]# ./storcli64 /c0/e2/s11 stop erase

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Stop Drive Erase Succeeded.

5.5.24  查询超级电容信息

查询控制卡超级电容信息。

【命令】

storcli64 /ccontroller_id/cv show all

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

【举例】

[root@localhost ~]# storcli64 /c0/cv show all

CLI Version = 007.1705.0000.0000 Mar 31, 2021

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Cachevault_Info :

===============

 

--------------------

Property    Value

--------------------

Type        CVPM05

Temperature 25 C

State       Optimal

--------------------

 

 

Firmware_Status :

===============

 

---------------------------------------

Property                         Value

---------------------------------------

NVCache State                    OK

Replacement required             No

No space to cache offload        No

Module microcode update required No

---------------------------------------

 

 

GasGaugeStatus :

==============

 

------------------------------

Property                Value

------------------------------

Pack Energy             319 J

Capacitance             100 %

Remaining Reserve Space 0

------------------------------

 

 

Design_Info :

===========

 

------------------------------------

Property                 Value

------------------------------------

Date of Manufacture      18/09/2019

Serial Number            21428

Manufacture Name         LSI

Design Capacity          374 J

Device Name              CVPM05

tmmFru                   N/A

CacheVault Flash Size    8.187 GB

scapBatversionNo         0x00

scapSerialNo             0x53b4

scap Date of Manufacture 18/09/2019

scapPcbAssmNo            50046-01

scapPCBversionNo          B

scapBatPackAssmNo        49571-222

Module Version           07251-01

------------------------------------

 

 

Properties :

==========

 

---------------------------------------------------------------------

Property                   Value

---------------------------------------------------------------------

Auto Learn Period          27d (2412000 seconds)

Next Learn time            2022/07/18  21:59:20 (711496760 seconds)

Learn Delay Interval       0 hour(s)

Auto-Learn Mode            Transparent

Last Successful Learn Time Completed, MON, June 20, 2022 at 23:59:20

 

5.5.25  手动离线和上线物理盘

对物理盘执行手动离线和上线。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id set mode

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

mode:可选offline或online。offline为离线,online为上线。

【举例】

#手动离线物理盘。

[root@localhost home]# ./storcli64 /c0/e2/s23 set offline

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Set Drive Offline Succeeded.

 

#手动上线物理盘。

[root@localhost home]# ./storcli64 /c0/e2/s23 set online

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Set Drive Online Succeeded.

5.5.26  设置PR巡检参数

查询和设置Patrol Read巡检参数。

【命令】

storcli64 /ccontroller_id set patrolread starttime=start_time maxconcurrentpd=number

storcli64 /ccontroller_id set patrolread delay=delay_time

storcli64 /ccontroller_id show patrolread

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。start_time:开始巡检的启动时间。

number:同时巡检的盘数。

delay_time:巡检周期。

【注意事项】

·     巡检功能仅针对RAID成员盘。

·     巡检启动时间仅可设置整点。

【举例】

#设置巡检参数。

[root@localhost home]# ./storcli64 /c0 set pr starttime=2022/03/19 15 maxconcurrentpd=32

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

---------------------------------------

Ctrl_Prop          Value

---------------------------------------

PR Starttime       2022/03/19 15:00:00

PR MaxConcurrentPd 32

---------------------------------------

 

#查询巡检参数。

[root@localhost home]# ./storcli64 /c0 show pr

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

---------------------------------------------

Ctrl_Prop               Value

---------------------------------------------

PR Mode                 Auto

PR Execution Delay      168 hours

PR iterations completed 1

PR Next Start time      03/19/2022, 15:00:00

PR on SSD               Disabled

PR Current State        Stopped

PR Excluded VDs         None

PR MaxConcurrentPd      32

---------------------------------------------

5.5.27  设置CC一致性检查参数

查询和设置Consistent Check一致性检查参数。

【命令】

storcli64 /ccontroller_id[/vraid_id] show cc

storcli64 /ccontroller_id/vraid_id start cc force

storcli64 /ccontroller_id/vraid_id op cc

storcli64 /ccontroller_id set cc=conc delay=delay_time starttime=start_time

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_id:目标RAID ID。

op:可选操作pause/resume/stop,执行暂停/重启/停止动作。

delay_time:一致性检查周期。

start_time:一致性检查启动时间。

【注意事项】

storcli64 show cc命令,不加[/vraid_id]则返回存储控制卡一致性检查设定参数,增加[/vraid_id]则返回具体的一致性检查进度。

【举例】

#查看一致性检查设定参数。

[root@localhost home]# ./storcli64 /c0 show cc

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

-----------------------------------------------

Ctrl_Prop                 Value

-----------------------------------------------

CC Operation Mode         Concurrent

CC Execution Delay        2

CC Next Starttime         03/19/2022, 15:00:00

CC Current State          Stopped

CC Number of iterations   1

CC Number of VD completed 0

CC Excluded VDs           None

-----------------------------------------------

 

#查看一致性检查进度。

[root@localhost home]# ./storcli64 /c0/v0 show cc

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

VD Operation Status :

===================

 

-----------------------------------------------------------

VD Operation Progress% Status          Estimated Time Left

-----------------------------------------------------------

 0 CC        -         Not in progress -

-----------------------------------------------------------

 

#开启一致性检查。

[root@localhost home]# ./storcli64 /c0/v0 start cc force

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Start CC Operation Success

 

#停止一致性检查。

[root@localhost home]# ./storcli64 /c0/v0 stop cc

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Stop CC Operation Success

 

#设定一致性检查参数。

[root@localhost home]# ./storcli64 /c0 set cc=conc delay=2 starttime=2022/03/19 15

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

---------------------------------

Ctrl_Prop    Value

---------------------------------

CC Mode      CONC

CC delay     2

CC Starttime 2022/03/19 15:00:00

---------------------------------

5.5.28  重建和回拷RAID

启停重建和回拷任务,及状态查询。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id op func

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

op:可选操作show/pause/resume/stop,执行查询/暂停/重启/停止动作。

func:可选copyback/rebuild,对应巡检/回拷/重建功能。

【举例】

#查询回拷进度。

[root@localhost home]# ./storcli64 /c0/e2/s23 show copyback

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Show Drive Copyback Status Succeeded.

 

 

---------------------------------------------------------

Drive-ID   Progress% Status          Estimated Time Left

---------------------------------------------------------

/c0/e2/s23 -         Not in progress -

---------------------------------------------------------

 

#查询重建进度。

[root@localhost home]# ./storcli64 /c0/e2/s23 show rebuild

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Show Drive Rebuild Status Succeeded.

 

 

---------------------------------------------------------

Drive-ID   Progress% Status          Estimated Time Left

---------------------------------------------------------

/c0/e2/s23 -         Not in progress -

---------------------------------------------------------

5.5.29  管理任务资源

设置pr巡检速率、cc一致性检查速率、bgi后台初始化速率、rebuild重建速率、reconstruction重构速率。

【命令】

storcli64 /ccontroller_id set func=rate_value

【缺省情况】

各任务速率默认30%

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

func:可选prrate/ccrate/bgirate/rebuildrate/reconrate。

rate_value:可调范围0-100。

【注意事项】

多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

【举例】

#设置重构速率。

[root@localhost home]# ./storcli64 /c0 set reconrate=40

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

----------------

Ctrl_Prop Value

----------------

ReconRate 40%

----------------

5.5.30  查询和清除PreservedCache数据

查询和清除PreservedCache数据。

【命令】

storcli64 /ccontroller_id show preservedcache

storcli64 /ccontroller_id/vraid_id delete preservedcache force

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_id:目标RAID ID。

【举例】

#查询PreservedCache数据。

[root@localhost home]# ./storcli64 /c0 show preservedcache

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = No Virtual Drive has Preserved Cache Data.

 

#清除PreservedCache数据。

[root@localhost home]# ./storcli64 /c0/v0 delete preservedcache force

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = No Virtual Drive has Preserved Cache Data.

5.5.31  升级硬盘固件

升级硬盘的固件。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id download src=fw_file

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

fw_file:硬盘固件文件。

【举例】

#升级硬盘固件。

[root@localhost home]# ./storcli64 /c0/e2/s8 download src=fw.bin

Starting microcode update  .....please wait...

Flashing PD image  ..... please wait...

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Firmware Download succeeded.

Drive Firmware Download :

========================

--------------------------------------------------------------------------------

Drive     Status  ErrCd    ErrMsg

--------------------------------------------------------------------------------

/c0/e2/s8 Success   0       

---------------------------------------------------------------------------------

 

5.5.32  设置Firmware Device order功能

查询、设置LSI存储控制卡Firmware Device order功能处于开启或关闭状态。

【命令】

storcli64 /ccontroller_id show deviceorderbyfirmware

storcli64 /ccontroller_id set deviceorderbyfirmware=mode

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。可将该参数设置为all,表示查询该工具可管理的所有存储控制卡信息。

mode:Firmware Device order功能配置,可选参数如下:

·     on:开启Firmware Device order。

·     off:关闭Firmware Device order。

 

【注意事项】

启用此功能仅适用于Linux;对于Windows或VMware等其他操作系统,不支持该功能。意外启用它可能会导致系统在引导期间挂死。

该功能开启后,服务器重启阶段存储控制卡下设备上报顺序改变,按启动盘、逻辑盘、直通盘顺序上报。但需注意,所有存储控制卡会引入逻辑盘上报乱序,9460卡Personality模式和9560所有模式下直通盘设备上报乱序现象。

该选项修改后需重启服务器生效。

LSI 9560卡52.15.0-3720及以上固件版本支持该功能。

LSI 9540卡52.20.0-4341及以上固件版本支持该功能。

【举例】

#查询存储控制卡Firmware Device order功能状态。

[root@localhost ~]# storcli64 /c0 show deviceorderbyfirmware

CLI Version = 007.2203.0000.0000 May 11, 2022

Operating system = Linux 4.18.0-240.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

-------------------------------------

Ctrl_Prop                      Value

-------------------------------------

Firmware based device ordering OFF

-------------------------------------

 

#开启存储控制卡Firmware Device order功能。

[root@localhost ~]# storcli64 /c0 set deviceorderbyfirmware=on

CLI Version = 007.2203.0000.0000 May 11, 2022

Operating system = Linux 4.18.0-240.el8.x86_64

Controller = 0

Status = Success

Description = Please reboot the system for the changes to take effect

 

 

Controller Properties :

=====================

 

-------------------------------------

Ctrl_Prop                      Value

-------------------------------------

Firmware based device ordering ON

-------------------------------------

 

#关闭存储控制卡Firmware Device order功能。

[root@localhost ~]# storcli64 /c0 set deviceorderbyfirmware=off

CLI Version = 007.2203.0000.0000 May 11, 2022

Operating system = Linux 4.18.0-240.el8.x86_64

Controller = 0

Status = Success

Description = Please reboot the system for the changes to take effect

 

 

Controller Properties :

=====================

 

-------------------------------------

Ctrl_Prop                      Value

-------------------------------------

Firmware based device ordering OFF

-------------------------------------

 

5.5.33  设置direct pd mapping功能

查询、设置LSI存储控制卡Firmware Device order功能状态。

【命令】

storcli64 /ccontroller_id show directpdmapping

storcli64 /ccontroller_id set directpdmapping=mode

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。可将该参数设置为all,表示查询该工具可管理的所有存储控制卡信息。

mode:direct pd mapping功能配置,可选参数如下:

·     on:开启direct pd mapping。

·     off:关闭direct pd mapping。

 

【注意事项】

当存储卡连接Expander背板时不可启用该功能。意外启用它会导致存储卡进入Failed状态。

该功能开启后,服务器重启阶段存储卡下直通盘设备按slot号上报。

该选项修改后需重启服务器生效。

LSI 9560卡52.15.0-3720及以上固件版本和配套管理工具支持该功能。

LSI 9540卡52.20.0-4341及以上固件版本和配套管理工具支持该功能。

【举例】

#查询存储控制卡direct pd mapping功能状态。

[root@localhost ~]# storcli64 /c0 show directpdmapping

CLI Version = 007.2203.0000.0000 May 11, 2022

Operating system = Linux 4.18.0-240.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

----------------------

Ctrl_Prop       Value

----------------------

Directpdmapping OFF

----------------------

#开启存储控制卡direct pd mapping功能。

[root@localhost ~]# storcli64 /c0 set directpdmapping=on

CLI Version = 007.2203.0000.0000 May 11, 2022

Operating system = Linux 4.18.0-240.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

------------------------------------------------

Ctrl_Prop       Value

------------------------------------------------

Directpdmapping ON (Requires reboot for effect)

------------------------------------------------

#关闭存储控制卡direct pd mapping功能。

[root@localhost ~]# storcli64 /c0 set directpdmapping=off

CLI Version = 007.2203.0000.0000 May 11, 2022

Operating system = Linux 4.18.0-240.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

-------------------------------------------------

Ctrl_Prop       Value

-------------------------------------------------

Directpdmapping OFF (Requires reboot for effect)

-------------------------------------------------

 

5.5.34  设置Auto-Configure Behavior功能

本功能用于将控制器的自动配置策略设置为RAID 0或者JBOD。

【命令】

storcli64 /ccontroller_id show autoconfig

storcli64 /ccontroller_id set autoconfig=none

storcli64 /ccontroller_id set autoconfig=JBOD

storcli64 /ccontroller_id set autoconfig=r0 [immediate]

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。可将该参数设置为all,表示查询该工具可管理的所有存储控制卡信息。

autoconfig:自动物理驱动器配置策略,通过storcli64 /call show autoconfig命令可以查看自动物理驱动器配置策略

·     none: 自动配置驱动器策略为none。

·     JBOD:自动配置驱动器策略为JBOD。新连接或重启后的Unconfigured Good盘都会自动配置为JBOD。

·     r0: 自动配置驱动器策略为RAID0。设置当时Unconfigured Good盘都会自动配置为RAID0。新连接或重启后的Unconfigured Good盘不做改变。

immediate: 设置自动配置驱动器策略为RAID0后加此参数,设置当时Unconfigured Good盘都会自动配置为RAID0,然后自动配置驱动器策略恢复设置前的策略。

【注意事项】

LSI 9540卡不支持此功能。

【举例】

#查询存储控制卡自动物理驱动器配置策略。

[root@localhost storcli]# ./storcli64 /c0 show autoconfig

CLI Version = 007.2408.0000.0000 Nov 15, 2022

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

---------------------------------------------

Ctrl_Prop                          Value

---------------------------------------------

AutoConfig                         NONE

Supported Auto Configure Behaviors NONE JBOD

Support R0 Immediate               No

SES Management                     ON

---------------------------------------------

#设置自动配置驱动器策略为JBOD。

[root@localhost storcli]# ./storcli64 /c0 set autoconfig=JBOD

CLI Version = 007.2408.0000.0000 Nov 15, 2022

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

-----------------

Ctrl_Prop  Value

-----------------

AutoConfig JBOD

-----------------

#设置自动配置驱动器策略为RAID0。

[root@localhost storcli]# ./storcli64 /c0 set autoconfig=r0

CLI Version = 007.2408.0000.0000 Nov 15, 2022

Operating system = Linux 5.15.0-60-generic

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

-----------------

Ctrl_Prop  Value

-----------------

AutoConfig R0

-----------------

 

#设置自动配置驱动器策略为RAID0 (immediate)。

[root@localhost storcli]# ./storcli64 /c0 set autoconfig=r0 immediate

CLI Version = 007.2408.0000.0000 Nov 15, 2022

Operating system = Linux 5.15.0-60-generic

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

-----------------

Ctrl_Prop  Value

-----------------

AutoConfig R0

-----------------

 

5.6  故障告警支持情况

故障告警功能包含故障告警和预故障告警,不同存储控制卡不同模式支持情况各不相同,如表5-7表5-8所示。

表5-7 故障告警支持情况

存储控制卡系列

RAID模式直连硬盘

RAID模式连接硬盘扩展板

JBOD模式直连硬盘

JBOD模式连接硬盘扩展板

LSI-9540

支持

支持

不涉及

不涉及

LSI-9560

支持

支持

支持

支持

 

表5-8 预故障告警(PFA)支持情况

存储控制卡系列

RAID模式直连硬盘

RAID模式连接硬盘扩展板

JBOD模式直连硬盘

JBOD模式连接硬盘扩展板

LSI-9540

仅Unconfigured Good、逻辑成员盘、热备盘可识别PFA状态,不亮0.5Hz橙灯

仅Unconfigured Good、逻辑成员盘、热备盘可识别PFA状态,亮0.5Hz橙灯

不涉及

不涉及

LSI-9560

所有硬盘状态都支持PFA识别,不亮0.5Hz橙灯

所有硬盘状态都支持PFA识别,亮0.5Hz橙灯

所有硬盘状态都支持PFA识别,不亮0.5Hz橙灯

所有硬盘状态都支持PFA识别,亮0.5Hz橙灯

 

5.7  故障处理

关于存储控制卡的故障信息收集、故障诊断定位和故障解决方法的详细说明,请参见《H3C服务器 故障处理手册》。

5.8  兼容性

存储控制卡与服务器的兼容性关系,请查看服务器兼容的部件查询工具

5.9  驱动下载和安装

访问H3C官网下载存储控制卡的驱动程序。驱动程序的安装步骤,请参见与驱动程序一起发布的版本说明书。

 

 

不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!

新华三官网
联系我们