• 产品与解决方案
  • 行业解决方案
  • 服务
  • 支持
  • 合作伙伴
  • 关于我们

H3C G3&G5服务器 存储控制卡用户指南-6W131

07-第7章 LSI-9440&9460系列&5408系列&LSI-9361&9560&9540

本章节下载 07-第7章 LSI-9440&9460系列&5408系列&LSI-9361&9560&9540  (9.87 MB)

07-第7章 LSI-9440&9460系列&5408系列&LSI-9361&9560&9540

  录

7 LSI-9440&9460系列&5408系列&LSI-9361&L460&9560&9540

7.1 概述

7.1.1 工作模式

7.1.2 支持的RAID级别

7.1.3 RAID配置注意事项

7.2 UEFI启动模式下配置RAID

7.2.1 初始功能配置

1. 进入存储控制卡配置界面

2. 切换磁盘状态

3. 配置RAID

7.2.2 常用功能配置

1. 配置热备盘

2. 删除RAID

3. 定位磁盘位置

4. 初始化逻辑磁盘

5. 初始化物理磁盘

6. 擦除磁盘数据

7. 扩容RAID

8. 迁移RAID级别

9. 清除磁盘RAID信息

10. 隐藏RAID

11. 隐藏磁盘组

12. 在线升级存储控制卡固件

13. 切换存储控制卡模式

14. 逻辑磁盘强制上线

15. 切换蜂鸣器设置

16. 静音蜂鸣器报警

7.3 Legacy启动模式下配置RAID

7.3.1 初始功能配置

1. 进入存储控制卡配置界面

2. 切换磁盘状态

3. 配置RAID

7.3.2 常用功能配置

1. 配置热备盘

2. 删除RAID

3. 定位磁盘位置

4. 初始化逻辑磁盘

5. 擦除磁盘数据

6. 扩容RAID

7. 清除磁盘RAID信息

8. 隐藏RAID

9. 隐藏磁盘组

10. 配置启动项

7.4 下载和安装StorCLI工具

7.4.1 下载工具

7.4.2 安装工具

7.5 OS命令行工具常用命令

7.5.1 查询存储控制卡信息

7.5.2 切换存储控制卡模式

7.5.3 更新固件

7.5.4 创建和删除RAID

7.5.5 定位物理盘

7.5.6 查看JBOD状态

7.5.7 设置RAID卡JBOD功能

7.5.8 切换硬盘状态

7.5.9 检查硬盘信息

7.5.10 导入导出RAID配置

7.5.11 扩容RAID

7.5.12 迁移RAID级别

7.5.13 管理外部配置

7.5.14 设置热备盘

7.5.15 收集日志

7.5.16 管理日志

7.5.17 设置RAID缓存

7.5.18 设置RAID访问策略

7.5.19 设置RAID成员盘读写缓存

7.5.20 查看RAID成员盘的缓存状态

7.5.21 擦除物理盘数据

7.5.22 查询超级电容信息

7.5.23 手动离线和上线物理盘

7.5.24 设置PR巡检参数

7.5.25 设置CC一致性检查参数

7.5.26 重建和回拷RAID

7.5.27 管理任务资源

7.5.28 查询和清除PreservedCache数据

7.5.29 升级硬盘固件

7.5.30 切换蜂鸣器设置

7.5.31 设置Firmware Device order功能

7.5.32 设置direct pd mapping功能

7.5.33 PSoC信息检

7.5.34 PSoC固件更新

7.5.35 设置紧急热备功能

7.6 故障告警支持情况

7.7 故障处理

7.8 兼容性

7.9 驱动下载和安装

 


7 LSI-9440&9460系列&5408系列&LSI-9361&L460&9560&9540

本节介绍如下型号的存储控制卡,支持最大12Gbit/s的接口速率。部分存储控制卡支持缓存模块,极大地提升了性能和数据安全性。存储控制卡的详细信息及缓存模块支持信息,请参见http://www.h3c.com/cn/home/qr/default.htm?id=315

·     RAID-LSI-9361-8i(1G)-A1-X

·     RAID-LSI-9361-8i(2G)-1-X

·     HBA-LSI-9440-8i

·     RAID-LSI-9460-8i(2G)

·     RAID-LSI-9460-8i(4G)

·     RAID-LSI-9460-16i(4G)

·     HBA-H5408-Mf-8i

·     RAID-P5408-Mf-8i-4GB

·     RAID-P5408-Ma-8i-4GB

·     RAID-LSI-9560-LP-16i-8GB

·     RAID-LSI-9560-LP-8i-4GB

·     RAID-P9560-3S-8i-4G

·     HBA-LSI-9540-LP-8i

7.1  概述

7.1.1  工作模式

本节介绍的存储控制卡支持如下工作模式,具体支持情况如表7-1所示:

·     JBOD模式:支持JBOD盘和RAID都对系统可见,RAID支持简单级别(如RAID 0、RAID 1、RAID 10等)。

·     RAID模式(缺省):支持JBOD盘和RAID都对系统可见,RAID支持所有级别(如RAID 0、RAID 1、RAID 5、RAID 6、RAID 10、RAID 50、RAID 60等)。

说明

LSI存储控制卡RAID模式下支持配置JBOD盘(磁盘状态为JBOD/JBOD online的硬盘,详细说明请参见7.2.1  2. 切换磁盘状态)。需要注意的是,9361/9460/9440/9540 RAID模式下配置JBOD盘,还需打开JBOD开关,请参见7.5.7  设置RAID卡JBOD功能

 

表7-1 工作模式支持情况

存储控制卡型号

是否支持JBOD工作模式

是否支持RAID工作模式

RAID-LSI-9361-8i(1G)-A1-X

RAID-LSI-9361-8i(2G)-1-X

RAID-LSI-9460-8i(2G)

RAID-LSI-9460-8i(4G)

RAID-LSI-9460-16i(4G)

RAID-P5408-Mf-8i-4GB

RAID-P5408-Ma-8i-4GB

HBA-H5408-Mf-8i

HBA-LSI-9440-8i

RAID-LSI-9560-LP-8i-4GB

RAID-LSI-9560-LP-16i-8GB

RAID-P9560-3S-8i-4GB

HBA-LSI-9540-LP-8i

 

7.1.2  支持的RAID级别

各存储控制卡支持的RAID级别略有不同,详细信息请参见http://www.h3c.com/cn/home/qr/default.htm?id=315,各RAID级别对应的磁盘数量如表7-2所示。关于RAID级别的说明,请参见“附录B 磁盘阵列和容错方法”。

表7-2 RAID级别与磁盘数量关系

RAID级别

最少磁盘数

最多故障盘数

RAID 0

1

0

RAID 1

2

硬盘数/2

RAID 5

3

1

RAID 6

LSI 95604

其他阵列卡:3(建议使用4块)

2

RAID 00

2

0

RAID 10

4

nn为组成RAID 10RAID 1的个数)

RAID 50

6

nn为组成RAID 50RAID 5的个数)

RAID 60

LSI 95608

其他阵列卡:6(建议使用8块)

2nn为组成RAID 60RAID 6的个数)

说明

本章节介绍的存储控制卡,如果支持组建RAID 10/50/60,则最多支持由8个成员RAID 1/5/6组成该RAID 10/50/60。

 

7.1.3  RAID配置注意事项

·     建议用户安装没有RAID信息的硬盘。

·     请确保组建同一RAID的所有硬盘类型相同,否则会因硬盘性能不同而造成RAID性能下降或者无法创建RAID。即满足如下两点:

¡     所有硬盘均为SAS、SATA或NVMe硬盘。

¡     所有硬盘均为HDD或SSD硬盘。

·     建议组建同一RAID的所有硬盘容量相同。当硬盘容量不同时,系统以最小容量的硬盘为准,即将所有硬盘容量都视为最小容量。

·     不建议将一个硬盘用在多个RAID中,该情况会使后期维护变得复杂,并影响RAID的性能。

7.2  UEFI启动模式下配置RAID

本节介绍在UEFI启动模式下通过存储控制卡配置RAID的方法。关于进入BIOS界面和设置BIOS启动模式为UEFI的详细介绍,请参见BIOS用户指南中的对应章节。

7.2.1  初始功能配置

1. 进入存储控制卡配置界面

说明

不同BIOS版本的界面有所差异,本手册仅以其中一种BIOS版本举例,操作界面请以实际情况为准。

 

本节介绍进入存储控制卡配置界面的操作步骤。

(1)     进入BIOS。

在服务器启动过程中,根据提示按下DeleteEsc(部分产品按DeleteF2)进入如图7-1所示的BIOS Setup界面(部分产品进入Front界面,请选择Device Management,进入设备管理菜单)。请参考界面右下角的按键操作提示,以实现在界面中导航和修改设置。

图7-1 BIOS Setup界面

 

(2)     进入存储控制器管理界面。

进入Advanced页签> Dynamic Device Configuration(可选,取决于BIOS版本),并选择存储控制器(如:AVAGO MegaRAID<AVAGO MegaRAID SAS 9361-8i>,按Enter

图7-2 Advanced界面

 

(3)     进入图7-3所示界面,选择Main Menu,按Enter

图7-3 选择Main Menu

 

(4)     进入图7-4所示界面,界面上显示了五大类配置任务(相关说明请参见表7-3)。

图7-4 存储控制卡配置界面

 

表7-3 参数说明

选项

概要说明

Configuration Management

选择配置管理来执行任务,如创建逻辑磁盘、查看磁盘组属性,查看热备信息、清除配置。

Controller Management

选择控制器管理以查看和管理控制器属性并执行任务,如清除控制器事件、调度和运行控制器事件,运行巡检读取。

Virtual Drive Management

选择逻辑磁盘管理来执行任务,如查看逻辑磁盘属性、定位逻辑磁盘,运行一致性检查。

Drive Management

选择磁盘管理以查看物理磁盘属性和执行任务,如定位磁盘,初始化磁盘和磁盘失败后重建。

Hardware Components

选择硬件组件查看超级电容属性,管理超级电容和管理外围组件。

 

2. 切换磁盘状态

存储控制卡支持切换如下四种磁盘状态。

·     Unconfigured Good:表示该物理磁盘正常,可用于配置RAID或热备盘。

·     Unconfigured Bad:表示该物理盘已损坏或存在RAID残留信息,物理盘损坏时请更换;RAID信息残留时,请手动进行清除。

·     Hotspare:表示该物理磁盘为热备盘。

·     JBOD/JBOD online:Just a Bunch Of Disks,直通盘/类直通盘,不可用于配置RAID。

注意

型号为RAID-LSI-9560-LP-16i-8G和RAID-LSI-9560-LP-8i-4GB的存储控制卡设置为直通盘模式时,直通盘状态为JBOD Online,本章节介绍的其他存储控制卡设置为直通盘模式时,直通盘状态为JBOD。

 

此处以Unconfigured Good状态切换为Unconfigured Bad状态举例。

(1)     如图7-5所示,在存储控制卡配置界面选择Drive Management,按Enter

图7-5 存储控制卡配置界面

 

(2)     进入图7-6所示界面,选择待配置的磁盘,按Enter

图7-6 Drive Management管理界面

 

(3)     进入图7-7所示界面,选中Operation,按Enter,然后在弹出的对话框中选择Make Unconfigured Bad,按Enter

图7-7 Operation操作界面

 

(4)     进入图7-8所示界面,选择Go,按Enter

图7-8 选择Go

 

(5)     进入图7-9所示界面,完成切换磁盘状态操作。

图7-9 完成切换磁盘状态

 

3. 配置RAID

(1)     如图7-10所示,在存储控制卡配置界面选择Configuration Management,按Enter

图7-10 存储控制卡配置界面

 

(2)     进入图7-11所示界面,选择Create Virtual Drive,按Enter

图7-11 选择Create Virtual Drive

 

(3)     进入图7-12所示界面,选择Select RAID Level,设置RAID级别,按Enter

图7-12 设置RAID级别

 

(4)     进入图7-13所示界面,选择Select Drives From,设置RAID的磁盘容量来源,按Enter

¡     [Unconfigured Capacity] 表示容量来自空的磁盘。

¡     [Free Capacity] 表示容量来自已配置RAID的磁盘的剩余容量。

图7-13 设置RAID的磁盘容量来源

 

(5)     进入图7-14所示界面,选择Select Drives,按Enter

图7-14 选择Select Drives

 

(6)     进入图7-15所示界面,选择要用来配置RAID的磁盘,[Enabled]表示选中,然后选择Apply Changes,按Enter。如果磁盘的状态为JBODUnconfigured Bad,则无法选择。

图7-15 选择磁盘

 

(7)     进入图7-16所示界面,进行相应的设置(参数说明请参见表7-4),然后选择Save Configuration,按Enter

图7-16 设置RAID参数

 

表7-4 参数说明

参数

说明

Virtual Drive Name

RAID的名称,仅支持字母、数字和特殊字符,不区分大小写

Virtual Drive Size

RAID的容量大小

Virtual Drive Size Unit

RAID的容量单位

Stripe Size

条带大小,写在每块磁盘上的条带数据块的大小

Read Policy

读缓存策略,分为:

·     Read ahead:开启预读取功能。存储控制卡可以预读取顺序数据或预测需要即将使用到的数据,并存储到Cache中。

·     No read ahead:关闭预读取功能。

Write Policy

写缓存策略,分为:

·     Write through:直写模式。当物理盘接收到所有传输数据后,存储控制卡将给主机返回数据传输完成信号。

·     Write back:回写模式一。当存储控制卡中的Cache收到所有的传输数据后,存储控制卡将给主机返回数据传输完成信号。该模式下,如果存储控制卡未安装超级电容或超级电容损坏,存储控制卡将自动切换到Write through模式。

·     Always write back:回写模式二。强制使用Write back模式,该模式下,如果存储控制卡未安装超级电容或超级电容损坏,也不会切换到Write through模式。此时,若主机掉电,存储控制卡中的Cache会由于缺失供电电源而丢失其中的数据。

Access Policy

读写策略,分为:

·     Read/Write:可读可写

·     Read Only:只读

·     Blocked:禁止操作

I/O Policy

I/O 策略,分为:

·     Direct:在读、写场景中的定义不同:

¡     在读场景中,数据直接从硬盘读取。(若设置为“Read Ahead”,则读取操作会预先将数据载入RAID卡的缓存中)

¡     在写场景中,写入数据首先缓存到RAID卡的Cache中,然后再异步写入硬盘。(“Write Policy”设置为 “Write Through”,写入操作将绕过缓存,直接写入硬盘)

·     Cached:所有的读写操作均通过RAID卡的缓存处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐

·     (HBA-LSI-9540-LP-8i卡当前不支持I/O策略参数的设置)

Drive Cache

磁盘缓存策略,分为:

·     Enable:启用硬盘写Cache,提升写性能,但掉电可能导致数据丢失,除非有额外保护机制。

·     Disable:禁用硬盘写Cache,保护数据免于掉电丢失,但可能影响写性能。

·     Unchanged:维持现有缓存策略不变。

Disable Background Initialization

使能或禁用后台初始化方式

Default Initialization

默认初始化方式,分为:

·     NO:不进行初始化

·     Fast:快速初始化

·     Full:完全初始化

Emulation Type

·     控制逻辑盘在OS中上报的扇区,分为:

·     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

·     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n

·     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)

Save Configuration

保存配置

 

(8)     进入图7-17所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图7-17 确认配置

 

(9)     进入图7-18所示界面,完成配置RAID操作,选择OK,返回存储控制卡配置界面。

图7-18 完成配置RAID

 

(10)     如图7-19所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图7-19 存储控制卡配置界面

 

(11)     进入图7-20所示界面,可以看到已创建的RAID,选择需要查看的RAID,按Enter

图7-20 Vitrual Drive Management界面

 

(12)     进入图7-21所示界面,选择View Associated Drives,按Enter,即可查看该RAID的详细信息(包括RAID名称、级别,所含磁盘信息等)。

图7-21 选择View Associated Drives

 

7.2.2  常用功能配置

1. 配置热备盘

配置RAID后一般会配置热备盘来提高数据的安全性。可根据需要配置全局热备盘或专用热备盘。

说明

·     热备盘仅供存在冗余的RAID级别使用。

·     热备盘的容量要大于等于RAID最小成员盘的容量。

·     仅支持配置状态为Unconfigured Good的磁盘为热备盘。

 

·     配置全局热备盘

a.     如图7-22所示,在存储控制卡配置界面选择Drive Management,按Enter

图7-22 存储控制卡配置界面

 

b.     进入图7-23所示界面,选择待配置为全局热备盘的磁盘,按Enter

图7-23 Drive Management管理界面

 

c.     进入图7-24所示界面,选中Operation,按Enter,然后再选择Assign Global Hot Spare Drive,按Enter

图7-24 Operation操作界面

 

d.     进入图7-25所示界面,选择Go,按Enter

图7-25 选择Go

 

e.     进入图7-26所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图7-26 确认配置

 

f.     进入图7-27所示界面,完成配置全局热备盘操作。

图7-27 完成配置全局热备盘

 

·     配置专用热备盘

g.     如图7-28所示,在存储控制卡配置界面选择Drive Management,按Enter

图7-28 存储控制卡配置界面

 

h.     进入图7-29所示界面,选择待配置为专用热备盘的磁盘,按Enter

图7-29 Drive Management管理界面

 

i.     进入图7-30所示界面,选中Operation,按Enter,然后再选择Assign Dedicated Hot Spare Drive,按Enter

图7-30 Operation操作界面

 

j.     进入图7-31所示界面,选择Go,按Enter

图7-31 选择Go

 

k.     进入图7-32所示界面,选择需要配置专用热备盘的逻辑磁盘,使其Enable,选择OK,按Enter

图7-32 确认创建专用热备的逻辑磁盘

 

l.     进入图7-33所示界面,完成配置专用热备盘操作。

图7-33 完成配置专用热备盘

 

2. 删除RAID

本功能用于删除已损坏或难以满足需求的RAID。

(1)     如图7-34所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图7-34 存储控制卡配置界面

 

(2)     进入图7-35所示界面,选择待删除的逻辑磁盘,按Enter

图7-35 逻辑磁盘管理界面

 

(3)     进入图7-36所示界面,选中Operation,按Enter,然后在弹出的对话框中选择Delete Virtual Drive,按Enter

图7-36 Operation操作界面

 

(4)     进入图7-37所示界面,选择Go,按Enter

图7-37 选择Go

 

(5)     进入图7-38所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图7-38 确认删除

 

(6)     进入图7-39所示界面,完成删除RAID操作。

图7-39 完成删除RAID

 

3. 定位磁盘位置

本功能通过点亮磁盘对应槽位的蓝色指示灯,方便您快速找到磁盘。可定位单个物理磁盘或某个逻辑磁盘包括的全部成员磁盘。

定位物理磁盘

(1)     如图7-40所示,在存储控制卡配置界面选择Drive Management,按Enter

图7-40 选择Drive Management

 

(2)     进入图7-41界面,选择待定位的磁盘,按Enter

图7-41 选择待定位的磁盘

 

(3)     进入图7-42界面,选择Operation,按Enter,然后在弹出的对话框中选择Start Locate,按Enter

图7-42 Operation操作界面

 

(4)     进入图7-43界面,选择Go,按Enter

图7-43 选择Go

 

(5)     进入图7-44界面,完成定位物理磁盘位置操作。

图7-44 完成定位物理磁盘位置

 

定位逻辑磁盘中的全部磁盘

(6)     如图7-45所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图7-45 存储控制卡配置界面

 

(7)     进入图7-46界面,选择待定位的逻辑磁盘,按Enter

图7-46 选择待定位的逻辑磁盘

 

(8)     进入图7-47界面,选中Operation,按Enter,然后在弹出的对话框中选择Start Locate,按Enter

图7-47 Operation操作界面

 

(9)     进入图7-48界面,选择Go,按Enter

图7-48 选择Go

 

(10)     进入图7-49界面,完成定位逻辑磁盘中的全部磁盘位置操作。

图7-49 完成定位逻辑磁盘中的全部磁盘

 

4. 初始化逻辑磁盘

本功能用于初始化逻辑磁盘内部数据空间。

(1)     如图7-50所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图7-50 存储控制卡配置界面

图片2.png

 

(2)     进入图7-51所示界面,选择待初始化的逻辑磁盘,按Enter

图7-51 逻辑磁盘管理界面

图片3.png

 

(3)     进入图7-52所示界面,选中Operation,按Enter,然后在弹出的对话中选择Fast/Slow InitializationEnter

图7-52 Operation操作界面

图片4.png

 

说明

Fast Initialization与Slow Initialization的区别在于前者能够立即写数据,后者需等待磁盘空间全部完成初始化后,才能写数据。

 

(4)     进入图7-53所示界面,选择Go,按Enter

图7-53 选择Go

图片5.png

 

(5)     进入图7-54所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图7-54 确认初始化

图片6.png

 

(6)     进入图7-55所示界面,完成初始化逻辑磁盘操作。

图7-55 完成初始化逻辑磁盘

图片7.png

 

5. 初始化物理磁盘

(1)     如图7-56所示,在存储控制卡配置界面选择Drive Management,按Enter

图7-56 存储控制卡配置界面

 

(2)     进入图7-57所示界面,选择待初始化的磁盘,按Enter

图7-57 磁盘管理界面

 

(3)     进入图7-58界面,选中Operation,按Enter,然后在弹出的对话框中选择Initialize Drive,按Enter

图7-58 Operation管理界面

 

(4)     进入图7-59界面,选择Go,按Enter

图7-59 选择Go

 

(5)     进入图7-60所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图7-60 确认初始化

 

(6)     进入图7-61界面,完成初始化物理磁盘操作。

图7-61 完成初始化物理磁盘

图片1.png

 

6. 擦除磁盘数据

本功能用于删除磁盘内部数据,包括擦除物理磁盘数据和逻辑磁盘数据。

擦除物理磁盘数据

(1)     如图7-62所示,在存储控制卡配置界面选择Drive Management,按Enter

图7-62 存储控制卡配置界面

 

(2)     进入图7-63所示界面,选择待擦除数据的磁盘,按Enter

图7-63 磁盘管理界面

图片8.png

 

(3)     进入图7-64所示界面,选中Operation,按Enter,然后在弹出的对话框里选择Drive Erase,按Enter

图7-64 Operation操作界面

图片9.png

 

说明

对于Drive Erase选项,部分存储控制卡对于SATA硬盘的配置选项是Drive Erase,对于SAS硬盘是Cryptographic Erase。

 

(4)     进入图7-65所示界面,按Enter,然后在弹出的对话框中选择擦除模式(建议使用缺省模式:Simple)。

图7-65 Erase Mode界面

图片10.png

 

(5)     进入图7-66所示界面,选择Go,按Enter

图7-66 选择Go

 

(6)     进入图7-67所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图7-67 确认擦除

 

(7)     进入图7-68所示界面,完成擦除物理磁盘数据操作。

图7-68 完成擦除物理磁盘数据

 

说明

为避免磁盘故障,请勿在擦除物理磁盘数据期间进行其他操作。

 

擦除逻辑磁盘数据

(8)     如图7-69所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图7-69 存储控制卡配置界面

 

(9)     进入图7-70所示界面,选择待擦除数据的逻辑磁盘,按Enter

图7-70 逻辑磁盘管理界面

 

(10)     进入图7-71所示界面,选中Operation,按Enter,然后在弹出的对话框中选择Virtual Drive Erase,按Enter

图7-71 Operation 操作界面

 

(11)     进入图7-72所示界面,按Enter,然后在弹出的对话框中选择擦除模式(建议使用缺省模式:Simple)。

图7-72 Erase Mode界面

 

(12)     进入图7-73所示界面,选择Go,按Enter

图7-73 选择Go

 

(13)     进入图7-74所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图7-74 确认擦除

 

(14)     进入图7-75所示界面,完成擦除逻辑磁盘数据操作。

图7-75 完成擦除逻辑磁盘数据

 

7. 扩容RAID

说明

LSI 9440&9460&9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。

 

本功能用于扩充RAID的容量来提升RAID的可用性,存储控制卡通过设置逻辑盘剩余容量比例来扩充RAID的容量。

(1)     如图7-76所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图7-76 存储控制卡配置界面

 

(2)     进入图7-77所示界面,选择待扩容的逻辑磁盘,按Enter

图7-77 Virtual Drive Management管理界面

 

(3)     进入图7-78所示界面,选择Operation,按Enter,然后在弹出的对话框中选择Expand Virtual Drive,按Enter

图7-78 Operation操作界面

 

(4)     进入图7-79所示界面,选择Go,按Enter

图7-79 选择Go

 

(5)     进入图7-80所示界面,修改Enter a Percentage of Avaliable Capacity栏参数来修改磁盘剩余可用容量的比例,选择OK,按Enter

图7-80 容量设置界面

 

(6)     进入图7-81所示界面,完成扩容RAID操作。

图7-81 完成扩容RAID

 

8. 迁移RAID级别

说明

LSI 9440&9460&9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。

 

本功能用于不影响当前数据完整性的情况下,对RAID的级别进行修改以达到配置需求。

(1)     如图7-82所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图7-82 存储控制卡配置界面

 

(2)     进入图7-83所示界面,选择待迁移的逻辑磁盘,按Enter

图7-83 Virtual Drive Management管理界面

 

(3)     进入图7-84所示界面,选择Operation,按Enter,然后在弹出的对话框中选择Reconfigure Virtual Drive,按Enter

图7-84 Operation操作界面

 

(4)     进入图7-85所示界面,选择Go,按Enter

图7-85 选择Go

 

(5)     进入图7-86所示界面,设置RAID级别,选择Choose the Operation,按Enter

图7-86 选择迁移方案

 

(6)     进入图7-87所示界面,选择待添加的磁盘,使其Enabled,选择Apply Changes,按Enter

图7-87 Choose the Operation界面

 

说明

可以通过增加或减少成员盘实现迁移逻辑盘级别。

 

(7)     进入图7-88所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图7-88 确认迁移

 

(8)     进入图7-89所示界面,选择Start Operation,按Enter

图7-89 开始迁移

 

(9)     进入图7-90所示界面,选择OK,按Enter

图7-90 选择OK

 

(10)     进入图7-91所示界面,可以查看当前迁移进度。

图7-91 RAID信息界面

 

9. 清除磁盘RAID信息

本功能用于清除磁盘中的RAID残留信息,使磁盘可重新用来配置RAID。

(1)     将磁盘状态Unconfigured Bad切换为Unconfigured Good,具体步骤请参见7.2.1  2. 切换磁盘状态

(2)     如图7-92所示,在存储控制卡配置界面选择Configuration Management,按Enter

图7-92 存储控制卡配置界面

 

(3)     进入图7-93所示界面,选择Manage Foreign Configuration,按Enter

图7-93 选择Manage Foreign Configuration

 

(4)     进入图7-94所示界面,选择Clear Foreign Configuration,按Enter

图7-94 选择Clear Foreign Configuration

 

(5)     进入图7-95所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图7-95 确认清除

 

(6)     进入图7-96所示界面,完成清除磁盘RAID信息操作。

图7-96 完成清除磁盘RAID

 

10. 隐藏RAID

本功能用于隐藏所选择的RAID。

(1)     如图7-97所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图7-97 存储控制卡配置界面

 

(2)     进入图7-98所示界面,选择待隐藏的逻辑磁盘,按Enter

图7-98 Virtual Drive Management管理界面

 

(3)     进入图7-99所示界面,选中Operation,按Enter,然后在弹出的对话框中选择Hide Virtual Drive,按Enter完成隐藏RAID操作。

图7-99 Operation操作界面

 

11. 隐藏磁盘组

本功能用于隐藏磁盘组,磁盘组隐藏后,在该磁盘组上组建的所有逻辑盘在系统下均不可见。

磁盘组是由指定数量磁盘组成的集合,一般在创建第一个逻辑盘时确定磁盘组成员,在磁盘组上可以组建特定级别的逻辑盘。

(1)     如图7-100所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图7-100 存储控制卡配置界面

 

(2)     进入图7-101所示界面,选择待隐藏的逻辑磁盘,按Enter

图7-101 Virtual Drive Management管理界面

 

(3)     进入图7-102所示界面,选中Operation,按Enter,然后在弹出的操作对话框里选择Hide Drive Group,按Enter

图7-102 Operation操作界面

 

12. 在线升级存储控制卡固件

您可通过该功能升级RAID的固件版本。需要注意的是,使用U盘升级固件时,固件文件放置在U盘根目录或一级目录下,否则BIOS下无法找到固件文件。

(1)     如图7-103所示,在Advanced界面中选择Update Firmware,按Enter

图7-103 Advanced界面

 

(2)     进入图7-104所示界面,选择升级固件的目录,按Enter

图7-104 选择升级固件的目录

 

(3)     进入如图7-105所示界面,选择待升级的固件版本文件,按Enter

图7-105 选择待升级的固件版本文件

 

(4)     进入图7-106所示界面,选择Update,按Enter

图7-106 选择Update

 

(5)     进入图7-107所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

注意

确认升级后,页面将短暂卡住,此时正在进行固件升级,请勿进行其他操作。

 

图7-107 确认升级

 

(6)     进入图7-108所示界面,选择OK,按Enter完成升级操作。

图7-108 选择OK

 

(7)     重启BIOS使操作生效。

13. 切换存储控制卡模式

本功能用于切换存储控制卡模式,包括JBOD模式和RAID模式。

(1)     如图7-109所示,在Advanced界面中选择Main Menu,按Enter

图7-109 Advanced界面选择Main Menu

 

(2)     如图7-110所示,选择Controller management,按Enter

图7-110 选择Controller management

 

(3)     如图7-111所示,选择Advanced Controller management,按Enter

图7-111 选择Advanced Controller management

 

(4)     如图7-112所示,选择Manage Personality Mode,按Enter

图7-112 选择Manage Personality Mode

 

(5)     如图7-113所示,当前为RAID模式,如需切换到JBOD模式,则选择Switch to JBOD Mode,按Enter

图7-113 选择Switch to JBOD Mode

 

(6)     如图7-114所示,选择Confirm,使其Enabled,选择Yes,按Enter

注意

当切换存储控制卡模式为JBOD模式时,存储控制卡上的逻辑盘也可以一并切换至JBOD 模式,需要注意的是,当强制进行切换的时候,不支持的逻辑盘无法保留数据。因此推荐任何LSI存储控制卡切换模式前都先将硬盘状态切换为Unconfigued Good状态。以RAID-LSI-9560-LP-8i-4GB举例,RAID 5,RAID 6,RAID 50,RAID 60的逻辑盘无法切换为JBOD模式,具体以界面提示信息为准。

 

图7-114 模式切换前确认工作

 

(7)     如图7-115所示,存储控制卡模式已成功切换,选择OK,按Enter重启操作系统后即可应用配置。

图7-115 模式切换完成

 

14. 逻辑磁盘强制上线

当发生故障的硬盘数量超出逻辑磁盘容错方法可承受的范围,管理工具界面逻辑磁盘会显示为Offline状态,因此可以使用Place Drive Online功能使逻辑磁盘强制上线。

注意

使用此功能可能会改变逻辑磁盘中的数据,在执行Place Drive Online前需要进行评估是否执行该操作。

 

(1)     如图7-116所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图7-116 存储控制卡配置界面

 

(2)     进入如图7-117所示界面,选择Offline的逻辑磁盘,按Enter

图7-117 Vitrual Drive Management界面

 

(3)     进入如图7-118所示界面,选择View Associated Drives,按Enter

图7-118 选择View Associated Drives

 

(4)     进入如图7-119所示界面,选择Offline的成员盘,使其Enabled,选择View Drive Properties,按Enter

图7-119 选择View Drive Properties

 

(5)     进入如图7-120所示界面,选中Operation,按Enter,然后再选择Place Drive Online,按Enter

图7-120 选择Place Drive Online

 

(6)     进入如图7-121所示界面,选择Go,按Enter

图7-121 选择Go

 

(7)     进入图7-122所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图7-122 确认配置

 

(8)     进入如图7-123所示界面,完成Place Drive Online操作。

图7-123 完成Place Drive Online操作

 

15. 切换蜂鸣器设置

本功能用于启用或禁用蜂鸣器设置。

(1)     如图7-124所示,在存储控制卡配置界面选择Controller Management,按Enter

图7-124 存储控制卡配置界面

 

(2)     进入图7-125所示Controller Management界面,选择Advanced Controller Properties,按Enter

图7-125 Controller Management界面

 

(3)     进入图7-126所示Advanced Controller Properties界面,选中Alarm Control,按Enter,然后在弹出的对话框中选择Enabled/Disabled,按Enter完成开启/关闭蜂鸣器操作。

说明

LSI9560/9540已移除蜂鸣器,因此无Alarm Control选项。

 

图7-126 磁盘管理界面

 

16. 静音蜂鸣器报警

本功能用于静音蜂鸣器报警。

(1)     进入存储控制器管理界面。

图7-127所示,进入Advanced页签,并选择存储控制器(如:AVAGO MegaRAID<AVAGO MegaRAID SAS 9361-8i>,按Enter

图7-127 Advanced界面

 

(2)     进入图7-3所示界面,选择Slience Alarm,按Enter

图7-128 选择Slience Alarm

 

7.3  Legacy启动模式下配置RAID

本节介绍在Legacy启动模式下通过存储控制卡配置RAID的方法。关于进入BIOS界面和设置BIOS启动模式为Legacy的详细介绍,请参见BIOS用户指南中的对应章节。

说明

本章节介绍的存储控制卡中,仅LSI-9361系列存储控制卡支持在Legacy启动模式下进入存储控制卡配置界面配置RAID功能;其他型号的存储控制卡在Legacy启动模式下支持在post界面中,查看存储控制卡及其控制的物理盘和逻辑盘,但无法进入存储控制卡配置界面配置RAID功能。

 

7.3.1  初始功能配置

1. 进入存储控制卡配置界面

说明

不同BIOS版本的界面有所差异,本手册仅以其中一种BIOS版本举例,操作界面请以实际情况为准。

 

(1)     在BIOS启动过程中,出现如图7-129所示界面后,按Ctrl+R

图7-129 BIOS启动过程中根据提示按Ctrl+R

 

(2)     进入图7-130所示界面。请参考界面下边框处的按键操作提示,以实现在界面中导航和修改设置。

图7-130 LSI RAID管理界面

 

2. 切换磁盘状态

存储控制卡支持切换如下四种磁盘状态。

·     Unconfigured Good:表示该物理磁盘正常,可用于配置RAID或热备盘。

·     Unconfigured Bad:表示该物理盘已损坏或存在RAID残留信息,物理盘损坏时请更换;RAID信息残留时,请手动进行清除。

·     Hotspare:表示该物理磁盘为热备盘。

·     JBOD:Just a Bunch Of Disks,直通盘,不可用于配置RAID。

此处以Unconfigured Bad状态切换为Unconfigured Good状态举例。

(1)     如图7-131所示,在PD Mgmt界面选择待切换状态的磁盘,按F2

图7-131 选择待切换状态磁盘

 

(2)     进入图7-132所示界面,选择Make unconfigured good,按Enter完成切换磁盘状态操作。

图7-132 选择Make unconfigured good

 

3. 配置RAID

(1)     如图7-133所示,在VD Mgmt界面按F2,选择Create Virtual Drive

图7-133 选择Create Virtual Drive

 

(2)     进入图7-134所示界面,设置RAID级别,按Enter

图7-134 设置RAID级别

 

(3)     进入图7-135所示界面,选择用来配置RAID的磁盘,按Enter

图7-135 选择磁盘

 

(4)     进入图7-136所示界面,对Size与Name进行相应的设置,然后选择Advanced,按Enter

图7-136 设置RAID名称与容量大小

 

(5)     进入图7-137所示界面,设置相关参数(参数说明请参见表7-4),然后选择OK,按Enter

图7-137 设置高级参数

 

(6)     进入图7-138所示界面,选择OK,按Enter完成配置RAID操作。

图7-138 确认创建

 

(7)     选择待查看的RAID,按Enter,即可查看该RAID的详细信息(包括RAID名称、级别,所含磁盘信息等),如图7-139所示。

图7-139 查看RAID信息

 

7.3.2  常用功能配置

1. 配置热备盘

配置RAID后一般会配置热备盘来提高数据的安全性。可根据需要配置全局热备盘和专用热备盘。

说明

·     热备盘仅供存在冗余的RAID级别使用。

·     热备盘的容量要大于等于RAID最小成员盘的容量。

·     仅支持配置状态为Unconfigured Good的磁盘为热备盘。

 

配置全局热备盘

(1)     如图7-140所示,在PD Mgmt界面选择待配置为全局热备盘的磁盘,按F2

图7-140 选择待配置为全局热备盘的磁盘

 

(2)     进入图7-141所示界面,选择Make Global HS,按Enter完成配置全局热备盘操作。

图7-141 选择Make Global HS

 

(3)     返回到图7-142所示界面,选择热备盘可查看全局热备盘相关信息。

图7-142 查看全局热备盘信息

 

配置专用热备盘

说明

此处以创建RAID同时配置专用热备盘为例介绍操作过程。

 

(4)     在VD Mgmt管理界面按F2,选择Manage Ded.HS

(5)     进入图7-143所示界面,选择磁盘,选择Advanced,按Enter

图7-143 选择磁盘

 

(6)     进入图7-144所示界面,选择Configure HotSpare选项,选择OK,按Enter

图7-144 选择Configure HotSpare

 

(7)     进入图7-145所示界面,选择待配置为专用热备盘的磁盘,选择OK,按Enter完成配置专用热备盘操作。

图7-145 选择待配置为专用热备盘的磁盘

 

2. 删除RAID

本功能用于删除已损坏或难以满足需求的RAID。

(1)     如图7-146所示,在VD Mgmt界面选择待删除的逻辑磁盘,按F2

图7-146 选择待删除的逻辑磁盘

 

(2)     进入图7-147所示界面,选择Delete VD,按Enter

图7-147 选择Delete VD

 

(3)     进入图7-148所示界面,选择YES,按Enter完成删除RAID操作。

图7-148 确认删除

 

3. 定位磁盘位置

本功能通过点亮磁盘对应槽位的蓝色指示灯,方便您快速找到磁盘。

(1)     如图7-149所示,在PD Mgmt界面选择待定位的磁盘,按F2

图7-149 选择待定位的磁盘

 

(2)     进入图7-150所示界面,选择Locate-Start,完成磁盘定位操作。

图7-150 选择Locate-〉Start

 

说明

·     Locate-〉Start:开始磁盘定位操作。

·     Locate-〉Stop:停止定位磁盘操作。

 

4. 初始化逻辑磁盘

本功能用于初始化磁盘内部数据空间。

(1)     如图7-151所示,在VD Mgmt界面选择待初始化的磁盘,按F2

图7-151 选择待初始化的磁盘

 

(2)     进入图7-152所示界面,选择Initialization-Start FGI

图7-152 选择Initialization-〉Start FGI

 

说明

·     BGI:Backgroud Initialization,后台初始化,先将RAID的部分空间初始化用于写数据,其余空间在后台初始化。

·     FGI:Full Groud Initialization,全盘初始化,将RAID的所有空间进行初始化,初始化完成后才能进行写数据。

 

(3)     进入图7-153所示界面,选择YES,按Enter完成初始化磁盘操作。

图7-153 确认初始化

 

5. 擦除磁盘数据

本功能用于删除磁盘内部数据,包括擦除物理磁盘数据和逻辑磁盘数据。

擦除物理磁盘数据

(1)     如图7-154所示,在PD Mgmt界面选择待擦除的物理磁盘,按F2

图7-154 选择待擦除的物理磁盘

 

(2)     进入图7-155所示界面,选择擦除模式(建议使用缺省模式:Simple),按Enter

图7-155 选择擦除模式

 

(3)     进入图7-156所示界面,选择Yes,按Enter完成擦除物理磁盘数据操作。

图7-156 确认擦

 

说明

为避免磁盘故障,请勿在擦除物理磁盘数据期间进行其他操作。

 

擦除逻辑磁盘数据

(4)     如图7-157所示,在VD Mgmt界面选择待擦除的逻辑磁盘,按F2

图7-157 选择待擦除的逻辑磁盘

 

(5)     进入图7-158所示界面,选择擦除模式(建议使用缺省模式:Simple),按Enter

图7-158 选择擦除模式

 

(6)     进入图7-159所示界面,选择Yes,按Enter完成擦除逻辑磁盘数据操作。

图7-159 确认擦除

 

6. 扩容RAID

说明

LSI 9440&9460&9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。

 

本功能用于扩充RAID的容量来提升RAID的可用性,存储控制卡通过设置逻辑盘剩余容量比例来扩充RAID的容量。

(1)     如图7-160所示,在VD Mgmt界面选择待扩容的逻辑磁盘,按F2

图7-160 选择待扩容的逻辑磁盘

 

(2)     进入图7-161所示界面,选择Expand VD size,按Enter

图7-161 选择Expand VD size

 

(3)     进入图7-162所示界面,按照提示输入用于扩容的可用容量的比例,然后选择Resize,按Enter完成扩容RAID操作。

图7-162 输入用于扩容的可用容量的比例

 

7. 清除磁盘RAID信息

本功能用于清除磁盘中的RAID残留信息,使磁盘可重新用来配置RAID。

(1)     将磁盘状态Unconfigured Bad切换为Unconfigured Good,具体步骤请参见7.3.1  2. 切换磁盘状态

(2)     如图7-163所示,在Foreign View界面,选择存储控制卡,按F2,选择Foreign Config->Clear,按Enter

图7-163 选择Foreign Config->Clear

3.PNG

 

(3)     在弹出的图7-164所示对话框中,选择OK,按Enter完成清除磁盘RAID信息操作。

图7-164 确认清除

4.PNG

 

8. 隐藏RAID

本功能用于隐藏所选择的RAID。

进入如图7-165所示界面,选择Hide VD,按Enter

图7-165 隐藏RAID

 

9. 隐藏磁盘组

本功能用于隐藏磁盘组,磁盘组隐藏后,在该磁盘组上组建的所有逻辑盘在系统下均不可见。

进入如图7-166所示界面,选择Hide Drive Group,按Enter

图7-166 隐藏磁盘组

 

10. 配置启动项

(1)     如图7-167所示,在Ctrl Mgmt界面,在Boot device选择栏选择将要配置为第一启动项的硬盘或逻辑盘,按Enter

图7-167 配置启动项

 

(2)     如图7-168所示选择APPLY,按Enter,完成启动项配置。

图7-168 完成配置

 

7.4  下载和安装StorCLI工具

本节介绍OS命令行工具的下载和安装步骤。OS命令行工具可在服务器正常运行中对RAID卡进行操作,无需重启服务器。

7.4.1  下载工具

(1)     登录https://www.h3c.com/cn/BizPortal/DownLoadAccessory/DownLoadAccessoryFilt.aspx

(2)     按照提示信息下载对应存储控制卡的固件安装包及版本说明书。

(3)     解压固件安装包后得到适用于不同操作系统的StorCLI工具包。

7.4.2  安装工具

请参考固件版本说明书安装不同操作系统下的StorCLI工具。

7.5  OS命令行工具常用命令

本节介绍OS命令行工具常用命令的使用方法及示例。OS命令行工具可在服务器正常运行中对RAID卡进行操作,无需重启服务器。

说明

本工具涉及指定路径相关的命令均不支持空格和特殊字符。

 

7.5.1  查询存储控制卡信息

查询LSI存储控制卡的基本信息。

【命令】

storcli64 /ccontroller_id show [logfile=logfilename]

storcli64 /ccontroller_id show all [logfile=logfilename]

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。all:表示查询该工具可管理的所有存储控制卡信息。

logfilename:导出的查询信息文件名。

【举例】

#查询存储控制卡的基本信息。

[root@localhost ~]# storcli64 /c0 show

Generating detailed summary of the adapter, it may take a while to complete.

 

CLI Version = 007.2408.0000.0000 Nov 15, 2022

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

Product Name = MegaRAID 9560-8i 4GB

Serial Number = SK01065334

SAS Address =  500062b2024fe0c0

PCI Address = 00:4b:00:00

System Time = 11/09/2023 14:38:46

Mfg. Date = 03/04/20

Controller Time = 11/09/2023 06:38:47

FW Package Build = 52.24.0-4763

BIOS Version = 7.24.01.0_0x07180100

FW Version = 5.240.02-3768

Driver Name = megaraid_sas

Driver Version = 07.726.02.00

Current Personality = RAID-Mode

Vendor Id = 0x1000

Device Id = 0x10E2

SubVendor Id = 0x1000

SubDevice Id = 0x4010

Host Interface = PCI-E

Device Interface = SAS-12G

Bus Number = 75

Device Number = 0

Function Number = 0

Domain ID = 0

Security Protocol = None

Drive Groups = 1

 

TOPOLOGY :

========

 

-----------------------------------------------------------------------------

DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace TR

-----------------------------------------------------------------------------

 0 -   -   -        -   RAID1 Optl  N  893.750 GB dflt N  N   none N      N

 0 0   -   -        -   RAID1 Optl  N  893.750 GB dflt N  N   none N      N

 0 0   0   249:0    31  DRIVE Onln  N  893.750 GB dflt N  N   none -      N

 0 0   1   249:1    30  DRIVE Onln  N  893.750 GB dflt N  N   none -      N

-----------------------------------------------------------------------------

 

DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID

DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Optl=Optimal|Dgrd=Degraded

Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active

PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign

DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present

TR=Transport Ready

 

Virtual Drives = 1

 

VD LIST :

=======

 

---------------------------------------------------------------

DG/VD TYPE  State Access Consist Cache Cac sCC       Size Name

---------------------------------------------------------------

0/235 RAID1 Optl  RW     No      RWBD  -   ON  893.750 GB

---------------------------------------------------------------

 

VD=Virtual Drive| DG=Drive Group|Rec=Recovery

Cac=CacheCade|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded

Optl=Optimal|dflt=Default|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady

B=Blocked|Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack

AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled

Check Consistency

 

JBOD Drives = 12

 

JBOD LIST :

=========

 

---------------------------------------------------------------------------------------

ID EID:Slt DID State Intf Med     Size SeSz Model                Vendor   Port

---------------------------------------------------------------------------------------

 4 249:4    32 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

 5 249:5     9 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

 6 249:6     1 Onln  SAS  HDD 7.277 TB 512B HUS728T8TAL5204      HGST     C0.0 & C0.1

 7 249:7    33 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

 8 249:8    16 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

 9 249:9    22 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

10 249:10   17 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

11 249:11   11 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

12 249:12   20 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

13 249:13   13 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

14 249:14   12 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

15 249:15   21 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

---------------------------------------------------------------------------------------

 

ID=JBOD Target ID|EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|Onln=Online

Offln=Offline|Intf=Interface|Med=Media Type|SeSz=Sector Size

SED=Self Encryptive Drive|PI=Protection Info|Sp=Spun|U=Up|D=Down

 

Physical Drives = 14

 

PD LIST :

=======

 

---------------------------------------------------------------------------------------

EID:Slt DID State DG       Size Intf Med SED PI SeSz Model                     Sp Type

---------------------------------------------------------------------------------------

249:0    31 Onln   0 893.750 GB SATA SSD N   N  512B Micron_5300_MTFDDAK960TDS U  -

249:1    30 Onln   0 893.750 GB SATA SSD N   N  512B Micron_5300_MTFDDAK960TDS U  -

249:4    32 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:5     9 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:6     1 Onln   -   7.277 TB SAS  HDD N   N  512B HUS728T8TAL5204           U  JBOD

249:7    33 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:8    16 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:9    22 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:10   17 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:11   11 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:12   20 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:13   13 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:14   12 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:15   21 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

---------------------------------------------------------------------------------------

 

EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|DG=DriveGroup

DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare

UBad=Unconfigured Bad|Sntze=Sanitize|Onln=Online|Offln=Offline|Intf=Interface

Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info

SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign

UGUnsp=UGood Unsupported|UGShld=UGood shielded|HSPShld=Hotspare shielded

CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded

UBUnsp=UBad Unsupported|Rbld=Rebuild

 

Enclosures = 1

 

Enclosure LIST :

==============

 

-----------------------------------------------------------------------------

EID State Slots PD PS Fans TSs Alms SIM Port#          ProdID VendorSpecific

-----------------------------------------------------------------------------

249 OK       28 14  0    1   7    0   0 C0.0 & C0.1 x8 Cub    exp-2.1.1.0

-----------------------------------------------------------------------------

 

EID=Enclosure Device ID | PD=Physical drive count | PS=Power Supply count

TSs=Temperature sensor count | Alms=Alarm count | SIM=SIM Count | ProdID=Product ID

 

 

Cachevault_Info :

===============

 

------------------------------------

Model  State   Temp Mode MfgDate

------------------------------------

CVPM05 Optimal 27C  -    2019/09/18

------------------------------------

 

#查询存储控制卡的所有信息,并保存到指定文件。

[root@localhost ~]# storcli64 /c0 show all logfile=logfile.txt

7.5.2  切换存储控制卡模式

切换存储控制卡的工作模式。

【命令】

storcli64 /ccontroller_id set personality =mode

【缺省情况】

默认存储控制卡工作在RAID模式。

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

mode:可选参数如下:

·     raid:切换存储控制卡到RAID模式。

·     jbod:切换存储控制卡到JBOD模式。

【注意事项】

·     使用此命令行前,请确保存储控制卡的固件为最新版本,较低版本可能不支持JBOD模式。

·     使用此命令行前,请确保存储控制卡控制的硬盘均为Unconfigured Good状态。

·     使用此命令行后,需要重启操作系统后方能生效。

【举例】

#切换存储控制卡模式为JBOD。

[root@localhost home]# ./storcli64 /c0 set personality=jbod

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

------------------------------------------------------------------------

Ctrl_Prop       Value

------------------------------------------------------------------------

Set Personality JBOD (Reboot the system for the change to take effect.)

------------------------------------------------------------------------

7.5.3  更新固件

升级、降级或平级更新存储控制卡的固件。

【命令】

固件升级:

storcli64 /ccontroller_id download file= fw_file

固件降级或者平级更新:

storcli64 /ccontroller_id download file= fw_file noverchk

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准;

fw_file:固件文件。

noverchk:降级或平级更新存储控制卡固件时,不检查固件镜像的版本。

【注意事项】

若存储控制卡固件文件不再当前路径下,则需要在fw_file前加上文件的绝对路径。

【举例】

#固件升级。

[root@localhost home]# ./storcli64 /c0 download file=MR_4MB.rom

Download Completed.

Flashing image to adapter...

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = F/W Flash Completed. Please reboot the system for the changes to take effect

#固件降级或者平级更新。

[root@localhost home]# ./storcli64 /c0 download file=MR_4MB.rom noverchk

Download Completed.

Flashing image to adapter...

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = F/W Flash Completed. Please reboot the system for the changes to take effect

7.5.4  创建和删除RAID

创建和删除RAID。

【命令】

创建RAID:storcli64 /ccontroller_id add vd rraid_level  [size=<vd1_size>,..] [name=<vdname1>,..] drives= vd_drives [pdperarray= pdperarraynum] [pdcache=pdcache_policy] [pi] [wt|wb|awb] [nora|ra] [strip=strip_size] [emulationtype=emulationtype] [spares =spares_drives]

删除RAID:storcli64  /ccontroller_id/vraid_id del

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_level :RAID级别,可选0|1|5|6|00|10|50|60。

vd1_size :RAID容量设定值,单位gb,输入all代表可用全容量组建。

vdname1 :逻辑盘命名。

vd_drives :选择成员盘,格式为enclosure_id:slot_id,enclosure_id为所在Enclosure的id,slot_id为目标成员盘的slot id。

pdperarraynum:符合RAID(10|50|60)级别时需要确定子组中的硬盘数。

pdcache_policy :成员盘的缓存设定,可选on|off|default,default代表默认硬盘当前的缓存状态,不做修改。

pi:开启数据保护。

wt|wb|awb:writecache写缓存策略也,可选wt(write through当数据落盘后告知系统传输完成)、wb(write back当数据写入控制卡cache即告知系统传输完成)、awb(always write back在没有超级电容保护时,强制使用wb,主机遇异常掉电会有数据丢失风险)。

nora|rareadcache读缓存策略,ra当从RAID中读取数据时,会把周边数据同时读出存在cache中,用户随后访问这些数据时可以直接从cache中读取,减少磁盘寻道时间,提升读取性能。

strip_size:条带大小,MR卡可选 8|16|32|64|128|256|512|1024,iMR卡仅支持64。本文支持的卡中,仅HBA-LSI-9440-8i卡为iMR卡。

emulationtype:可选0|1|2,0是默认值,当成员盘中有512e的盘,扇区大小就会显示512e,否则显示为512n、1表示如果成员盘中没有512e的盘,扇区大小显示为512n、2表示即使成员盘中没有512e的盘,扇区大小也会显示为512e。

spares_drives:热备盘,取值格式参照vd_drives,格式为enclosure_id:slot_id。

raid_id:待删除RAID的ID,可通过./storcli64 /c0/vall show查看RAID的id值。配置为all时删除全部RAID。

【注意事项】

RAID成员盘输入时,slot值之间以逗号分隔,slot连续的成员盘,可用‘-’连接。

【举例】

#创建RAID 1。

[root@localhost home]# ./storcli64 /c0 add vd r1 size=all drives=2:8,23

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Add VD Succeeded

 

[root@localhost home]# ./storcli64 /c0/v0 del

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Delete VD succeeded

7.5.5  定位物理盘

对指定物理盘执行定位点灯和灭灯操作。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id  action locate

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id,可选all点亮所有enclosure下的硬盘定位灯。

slot_id:物理硬盘slot槽位编号,可选all点亮enclosure下所有硬盘定位灯。

action:需要执行的操作,包括如下两种:

·     start:点亮硬盘指示灯。

·     stop:熄灭硬盘指示灯。

 

【举例】

#点亮硬盘指示灯。

[root@localhost home]# ./storcli64 /c0/e2/s8 start locate

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Start Drive Locate Succeeded.

 

#熄灭硬盘指示灯。

[root@localhost home]# ./storcli64 /c0/e2/s8 stop locate

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Stop Drive Locate Succeeded.

7.5.6  查看JBOD状态

查看存储控制卡JBOD功能处于开启或关闭状态。

【命令】

storcli64 /ccontroller_id jbod

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

【举例】

#查看JBOD状态。

[root@localhost home]# ./storcli64 /c0 show jbod

CLI Version = 007.1316.0000.0000 Mar 12, 2020

Operating system = Linux 3.10.0-862.el7.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

----------------

Ctrl_Prop Value

----------------

JBOD      ON

----------------

7.5.7  设置RAID卡JBOD功能

设置RAID模式下的JBOD开关。

【命令】

storcli64 /ccontroller_id set jbod=mode

【缺省情况】

RAID模式下的JBOD默认为关闭状态

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

mode:JBOD模式配置,可选参数如下:

·     on:开启JBOD。

·     off:关闭JBOD。

【注意事项】

RAID模式下的JBOD开关,仅9361/9460/9440/9540支持。

【举例】

#开启JBOD。

[root@localhost home]# ./storcli64 /c0 set jbod=on

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

----------------

Ctrl_Prop Value

----------------

JBOD      ON

----------------

 

#关闭JBOD。

[root@localhost home]# ./storcli64 /c0 set jbod=off

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

----------------

Ctrl_Prop Value

----------------

JBOD      OFF

----------------

7.5.8  切换硬盘状态

切换硬盘状态(JBOD和Unconfigured Good)。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]

storcli64 /ccontroller_id/eenclosure_id/sslot_id set jbod

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

【注意事项】

硬盘状态由UG切换至JBOD时,先确认一下RAID卡JBOD选项是否打开,如未打开需在切换前打开JBOD开关。

【举例】

#切换硬盘状态为Unconfigured Good。

[root@localhost home]# ./storcli64 /c0/e2/s8 set good force

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Set Drive Good Succeeded.

#切换硬盘状态为JBOD。

[root@localhost home]# ./storcli64 /c0/e2/s8 set jbod

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Set Drive JBOD Succeeded.

7.5.9  检查硬盘信息

检查硬盘基本信息。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id  show [all]

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

【举例】

[root@localhost home]# ./storcli64 /c0/e2/s8 show

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Show Drive Information Succeeded.

 

 

Drive Information :

=================

 

-------------------------------------------------------------------------------

EID:Slt DID State DG     Size Intf Med SED PI SeSz Model               Sp Type

-------------------------------------------------------------------------------

2:8      39 JBOD  -  5.458 TB SATA HDD N   N  512B ST6000NM0115-1YZ110 U  -

-------------------------------------------------------------------------------

 

EID=Enclosure Device ID|Slt=Slot No.|DID=Device ID|DG=DriveGroup

DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare

UBad=Unconfigured Bad|Onln=Online|Offln=Offline|Intf=Interface

Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info

SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign

UGUnsp=Unsupported|UGShld=UnConfigured shielded|HSPShld=Hotspare shielded

CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded

UBUnsp=UBad Unsupported

7.5.10  导入导出RAID配置

保存当前RAID卡的配置、恢复或在其他卡上导入此配置。

【命令】

storcli64 /ccontroller_id get config file=filename

storcli64 /ccontroller_id set config file=filename

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

filename:配置文件名称。

【注意事项】

此功能操作的前提是,服务器环境必须完全一致。

LSI 9361/9460卡JBOD模式和LSI 9560卡所有模式下,导入RAID配置前必须将所有硬盘都设置为Unconfigured Good状态。

【举例】

#导出配置。

[root@localhost home]# ./storcli64 /c0 get config file=conf.txt

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Config data is saved to the file

#导入配置。

[root@localhost home]# ./storcli64 /c0 set config file=conf.txt

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Config data is restored to the adapter

7.5.11  扩容RAID

增大目标RAID的容量。

【命令】

storcli64 /ccontroller_id/vraid_id expand size=target_size

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_id:待扩容的RAID ID。

target_size:待设置的容量值。

【注意事项】

LSI 9440&9460&9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。

【举例】

#增大指定RAID 20Gb容量。

[root@localhost home]# ./storcli64 /c0/v0 expand size=20gb

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = expansion operation succeeded

 

 

EXPANSION RESULT :

================

 

----------------------------------------------------------------------------

VD      Size FreSpc   ReqSize   AbsUsrSz  %FreSpc NewSize   Status NoArrExp

----------------------------------------------------------------------------

 0 10.000 GB 1.808 TB 20.000 GB 37.049 GB       2 47.049 GB -      1.808 TB

----------------------------------------------------------------------------

 

Size - Current VD size|FreSpc - Freespace available before expansion

%FreSpc - Requested expansion size in % of available free space

AbsUsrSz - User size rounded to nearest %

7.5.12  迁移RAID级别

在不影响数据完整性的情况下,对RAID级别进行修改。

【命令】

storcli64 /ccontroller_id/vraid_id start migrate type=raidx option=operation drives= vd_drives  force

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_id:待扩容的RAID ID。

raidx:目标RAID级别。

vd_drives :选择成员盘,格式为enclosure_id:slot_id,enclosure_id为所在Enclosure的id,slot_id为目标成员盘的slot id。

operation :选择增加或移除成员盘,可选add或remove。

【注意事项】

LSI 9440&9460&9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。

【举例】

[root@localhost home]# ./storcli64 /c0/v0 start migrate type=raid5 option=add drives=2:11

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Start Reconstruction Operation Success

 

[root@localhost home]# ./storcli64 /c0/v0 start migrate type=raid0 option=remove drives=2:9

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Start Reconstruction Operation Success

7.5.13  管理外部配置

导入或清除外部配置。

【命令】

storcli64 /ccontroller_id/fall operation

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

operation:可选操作如下:

·     import:导入外部配置。

·     del:清除外部配置。

【注意事项】

多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

【举例】

#导入外部配置。

[root@localhost home]# ./storcli64 /c0/fall import

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Successfully imported foreign configuration

 

#清除外部配置。

[root@localhost home]# ./storcli64 /c0/fall del

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Successfully deleted foreign configuration

7.5.14  设置热备盘

为冗余RAID添加热备盘。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive dgs=drive_group

storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive

【缺省情况】

add hotspare后不指定dgs默认为添加全局热备。

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

drive_group:磁盘组ID。

【注意事项】

·     多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

·     热备盘需要与原来RAID的成员盘接口协议一致,且容量大于等于原有RAID成员盘。

【举例】

#增加全局热备。

[root@localhost home]# ./storcli64 /c0/e2/s11 add hotsparedrive

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Add Hot Spare Succeeded.

 

#增加局部热备。

[root@localhost home]# ./storcli64 /c0/e2/s8 add hotsparedrive dgs=0

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Add Hot Spare Succeeded.

 

#删除热备盘。

[root@localhost home]# ./storcli64 /c0/e2/s8 delete hotsparedrive

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Delete Hot Spare Succeeded.

7.5.15  收集日志

将存储控制卡的日志信息导出到日志文件。Snapdump文件是一个日志文件,在一些RAID控制卡异常场景下可以自动生成的日志,也可以主动获取当前RAID控制卡的snapdump日志。

【命令】

storcli /ccontroller_id show all logfile=logfilename

storcli /ccontroller_id show snapdump

storcli /ccontroller_id get snapdump

storcli /ccontroller_id get snapdump id=all

storcli /ccontroller_id get snapdump id=snapdump_id file= logfilename

storcli /ccontroller_id show alilog logfile=logfilename

storcli /ccontroller_id show events logfile=logfilename

storcli /ccontroller_id show termlog logfile=logfilename

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 show命令实际查询结果为准。

snapdump_id:snapdump日志ID。

logfilename:指定要在其中写入SnapDump数据的 zip 格式的文件。

【注意事项】

·     生成SnapDump数据是一项资源密集型操作,可能会导致I/O超时。因此,两个连续的get SnapDump请求之间应至少间隔10分钟。

·     LSI9440-8i(所有固件版本)/LSI9540-8i(52.26.0-5014以下固件版本)仅支持1个snapdump,每次执行storcli /ccontroller_id get snapdump都会覆盖控制器上已存在snapdump数据;出现问题后应先立即执行storcli /ccontroller_id show snapdump查询是否已自动生成snapdump;若已自动生成,则应该使用storcli /ccontroller_id get snapdump id=allstorcli /ccontroller_id get snapdump id=snapdump_id file= logfilename命令下载snapdump数据;若未生成,则才应该使用storcli /ccontroller_id get snapdump触发控制器立即生成新的snapdump数据。

·     阵列卡模式切换,固件更新动作会丢弃DDR和flash上的所有Snapdump数据。

表7-5 Snapdump支持情况

存储控制卡型号

Snapdump支持情况

备注

LSI9361-8i

不支持

/

LSI9440-8i

支持

·     snapdump数据保存在flash。

·     仅支持1个snapdump。

LSI9460-8i

支持

·     snapdump数据保存在DDR。

·     若超级电容在位,四次及以内的重启,可以保留snapdump数据。

·     若超级电容不在位,重启后snapdump即丢失。

LSI9460-16i

支持

·     snapdump数据保存在高速缓存。

·     若超级电容在位,四次及以内的重启,可以保留snapdump数据。

·     若超级电容不在位,重启后snapdump即丢失。

LSI9540-8i

支持

·     snapdump数据保存在flash。

·     52.26.0-5014以下固件版本仅支持1个snapdump。

LSI9560-8i

支持

snapdump数据保存在flash。

LSI9560-16i

支持

snapdump数据保存在flash。

 

【举例】

#查询显示控制器的全部信息,将信息打印到文本文件并将该文件保存在指定位置。

[root@localhost home]# storcli64 /c0 show all logfile=/log/showall.txt

 

#查询控制器当前snapdump属性和控制器上存在的snapdump数据信息。

[root@localhost home]# storcli64 /c0 show snapdump

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = None

 

 

SnapDump Properties :

===================

 

-----------------------------------------

Ctrl_Prop                     Value

-----------------------------------------

Snapdump                      ON

Snapdump Save Count           N/A

Snapdump Delay OCR            15

Snapdump properties           Read-Write

Snapdump Preboot Trace Buffer ON

Snapdump Current Count        1

-----------------------------------------

 

 

SnapDump Details :

================

 

----------------------------------------------

ID Snapdump Size Snapdump time       OnDemand

----------------------------------------------

 0       2492649 09-15-2023 11:43:26 Yes

----------------------------------------------

 

#未指定提供ID,将触发控制器生成新的snapdump数据并同时下载控制器上所有已存在的SnapDump数据。

[root@localhost home]# storcli64 /c0 get snapdump

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = Download Support Log

 

 

Snapdump :

========

 

---------------------------------------

Ctrl Status  Ctrl_Prop    ErrCd ErrMsg

---------------------------------------

   0 Success Get Snapdump     0 -

---------------------------------------

 

#下载控制器上所有已存在的SnapDump数据,使用此命令,CLI将按特定格式构建文件名,如下所示:

snapdump_c#(controller_id)_id#(snapdump_id)_年_月_日_小时_分钟_秒.zip。

[root@localhost home]# /opt/MegaRAID/storcli/storcli64 /c0 get snapdump id=all

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 3.10.0-1160.el7.x86_64

Controller = 0

Status = Success

Description = None

 

 

Snapdump :

========

 

---------------------------------------

Ctrl Status  Ctrl_Prop    ErrCd ErrMsg

---------------------------------------

   0 Success Get Snapdump     0 -

---------------------------------------

 

#指定SnapDump ID,并将SnapDump数据写入指定的文件。如果文件已存在,它将被截断(truncating),并添加新的信息

[root@localhost home]# storcli64 /c0 get snapdump id=0 file=snapdump.zip

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = None

 

 

Snapdump :

========

 

---------------------------------------

Ctrl Status  Ctrl_Prop    ErrCd ErrMsg

---------------------------------------

   0 Success Get Snapdump     0 -

---------------------------------------

 

#将alilog日志打印到文本文件并将该文件保存在指定位置。

[root@localhost home]# ./storcli64 /c0 show alilog logfile=/log/alilog.txt

 

#将events日志打印到文本文件并将该文件保存在指定位置。

[root@localhost home]# storcli64 /c0 show events logfile=/log/events.txt

 

#将termlog日志打印到文本文件并将该文件保存在指定位置。

[root@localhost home]# storcli64 /c0 show termlog logfile=/log/termlog.txt

7.5.16  管理日志

查询和清除存储控制卡的日志。

【命令】

storcli64 /ccontroller_id show termlog

storcli64 /ccontroller_id show events

storcli64 /ccontroller_id show snapdump

storcli64 /ccontroller_id delete termlog

storcli64 /ccontroller_id delete events

storcli64 /ccontroller_id delete snapdump force

storcli64 /ccontroller_id set snapdump state=on|off

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 show命令实际查询结果为准。

【举例】

#查询TTY日志。

[root@localhost home]# ./storcli64 /c0 show termlog

Firmware Term Log Information on controller 0:

03/13/22  9:12:37: C0:TTY History buffer cleared

 

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

#查询事件日志。

[root@localhost home]# ./storcli64 /c0 show events

 

 

seqNum: 0x00079e17

Time: Sun Mar 13 09:13:18 2022

 

Code: 0x0000001e

Class: 0

Locale: 0x20

Event Description: Event log cleared

Event Data:

===========

None

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

Events = GETEVENTS

 

Controller Properties :

=====================

 

------------------------------------

Ctrl Status  Method          Value

------------------------------------

   0 Success handleSuboption Events

------------------------------------

 

#查询控制器当前snapdump属性和控制器上存在的snapdump数据信息。

[root@localhost 0920]# storcli64 /c0 show snapdump

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = None

 

 

SnapDump Properties :

===================

 

-----------------------------------------

Ctrl_Prop                     Value

-----------------------------------------

Snapdump                      ON

Snapdump Save Count           N/A

Snapdump Delay OCR            15

Snapdump properties           Read-Write

Snapdump Preboot Trace Buffer ON

Snapdump Current Count        2

-----------------------------------------

 

 

SnapDump Details :

================

 

----------------------------------------------

ID Snapdump Size Snapdump time       OnDemand

----------------------------------------------

 0       1643485 09-19-2023 07:03:58 Yes

 1       2499469 09-20-2023 06:48:47 Yes

----------------------------------------------

 

#清除TTY日志中的所有记录。

[root@localhost home]# ./storcli64 /c0 delete termlog

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

----------------------------

Ctrl Method Result

----------------------------

   0 Delete Termlog deleted

----------------------------

 

#清除事件日志中的所有记录。

[root@localhost home]# ./storcli64 /c0 delete events

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

---------------------------------

Ctrl Status  Method       Value

---------------------------------

   0 Success DeleteEvents Events

---------------------------------

 

#清除所有Snapdump数据。

[root@localhost 0920]# storcli64 /c0 delete snapdump force

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = Snapdump delete

 

#关闭Snapdump功能。

[root@localhost ~]# storcli64 /c0 set snapdump state=off

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

-------------------

Ctrl_Prop    Value

-------------------

Set Snapdump off

-------------------

 

 

#开启Snapdump功能。

[root@localhost ~]# storcli64 /c0 set snapdump state=on

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

-------------------

Ctrl_Prop    Value

-------------------

Set Snapdump on

-------------------

 

7.5.17  设置RAID缓存

调整RAID读写缓存设置。

【命令】

storcli64 /ccontroller_id/vraid_id set wrcache={wt|wb|awb}

storcli64 /ccontroller_id/vraid_id set rdcache={ra|nora}

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_id:目标RAID ID。

{wt|wb|awb}:可选wt(write through当数据落盘后告知系统传输完成)、wb(write back当数据写入控制卡cache即告知系统传输完成)、awb(always write back在没有超级电容保护时,强制使用wb,主机遇异常掉电会有数据丢失风险)。

{ra|nora}:ra当从RAID中读取数据时,会把周边数据同时读出存在cache中,用户随后访问这些数据时可以直接从cache中读取,减少磁盘寻道时间,提升读取性能。

【注意事项】

多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

【举例】

[root@localhost home]# ./storcli64 /c0/v0 set wrcache=awb

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

Detailed Status :

===============

 

---------------------------------------

VD Property Value Status  ErrCd ErrMsg

---------------------------------------

 0 wrCache  AWB   Success     0 -

---------------------------------------

 

[root@localhost home]# ./storcli64 /c0/v0 set rdcache=nora

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

Detailed Status :

===============

 

---------------------------------------

VD Property Value Status  ErrCd ErrMsg

---------------------------------------

 0 rdCache  NoRA  Success     0 -

---------------------------------------

7.5.18  设置RAID访问策略

设置RAID的读写访问权限。

【命令】

storcli64 /ccontroller_id/vraid_id set accesspolicy={rw|ro| blocked}

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_id:目标RAID ID。

{rw|ro| blocked}:访问策略,rw为可读写、ro为只读、blocked为无法访问。

【注意事项】

多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

【举例】

#设置访问策略为只读。

[root@localhost home]# ./storcli64 /c0/v0 set accesspolicy=rw

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

Detailed Status :

===============

 

----------------------------------------

VD Property  Value Status  ErrCd ErrMsg

----------------------------------------

 0 AccPolicy RW    Success     0 -

----------------------------------------

7.5.19  设置RAID成员盘读写缓存

设置RAID成员盘的读写缓存。

【命令】

storcli64 /ccontroller_id/vraid_id set pdcache= pdcache_policy

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_id:目标RAID ID。

pdcache_policy :可选on|off|default,default代表默认硬盘当前的缓存状态,不做修改。

【注意事项】

多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

【举例】

#关闭读写缓存。

[root@localhost home]# ./storcli64 /c0/v0 set pdcache=off

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

Detailed Status :

===============

 

---------------------------------------

VD Property Value Status  ErrCd ErrMsg

---------------------------------------

 0 PdCac    Off   Success     0 -

7.5.20  查看RAID成员盘的缓存状态

查看RAID成员盘的缓存状态。

【命令】

storcli64 /ccontroller_id / eenclosure_id/sslot_id show all

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

【注意事项】

·     多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

·     LSI-9361使用本命令查询硬盘会显示Write Cache = N/A。

【举例】

#查看RAID成员盘的缓存状态。

[root@localhost ~]# storcli64 /c1 /e252/s10 show all

CLI Version = 007.1705.0000.0000 Mar 31, 2021

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 1

Status = Success

Description = Show Drive Information Succeeded.

 

 

Drive /c1/e252/s10 :

==================

 

---------------------------------------------------------------------------------

EID:Slt DID State DG       Size Intf Med SED PI SeSz Model               Sp Type

---------------------------------------------------------------------------------

252:10   20 Onln   0 893.750 GB SATA SSD N   N  512B INTEL SSDSC2KB960G8 U  -

---------------------------------------------------------------------------------

 

EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|DG=DriveGroup

DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare

UBad=Unconfigured Bad|Sntze=Sanitize|Onln=Online|Offln=Offline|Intf=Interface

Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info

SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign

UGUnsp=UGood Unsupported|UGShld=UGood shielded|HSPShld=Hotspare shielded

CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded

UBUnsp=UBad Unsupported|Rbld=Rebuild

 

 

Drive /c1/e252/s10 - Detailed Information :

=========================================

 

Drive /c1/e252/s10 State :

========================

Shield Counter = 0

Media Error Count = 0

Other Error Count = 0

Drive Temperature =  36C (96.80 F)

Predictive Failure Count = 0

S.M.A.R.T alert flagged by drive = No

 

 

Drive /c1/e252/s10 Device attributes :

====================================

SN = PHYF832001H8960CGN

Manufacturer Id = ATA

Model Number = INTEL SSDSC2KB960G8

NAND Vendor = NA

WWN = 55CD2E414FA85A2E

Firmware Revision = XCV10120

Raw size = 894.252 GB [0x6fc81ab0 Sectors]

Coerced size = 893.750 GB [0x6fb80000 Sectors]

Non Coerced size = 893.752 GB [0x6fb81ab0 Sectors]

Device Speed = 6.0Gb/s

Link Speed = 6.0Gb/s

NCQ setting = Enabled

Write Cache = Enabled

Logical Sector Size = 512B

Physical Sector Size = 4 KB

Connector Name = C1.0 x1

 

 

Drive /c1/e252/s10 Policies/Settings :

====================================

Drive position = DriveGroup:0, Span:0, Row:0

Enclosure position = 1

Connected Port Number = 11(path0)

Sequence Number = 10

Commissioned Spare = No

Emergency Spare = No

Last Predictive Failure Event Sequence Number = 0

Successful diagnostics completion on = N/A

FDE Type = None

SED Capable = No

SED Enabled = No

Secured = No

Cryptographic Erase Capable = Yes

Sanitize Support = CryptoErase, OverWrite, BlockErase

Locked = No

Needs EKM Attention = No

PI Eligible = No

Certified = No

Wide Port Capable = No

Unmap capable = Yes

Unmap capable for LDs = No

Multipath = No

 

Port Information :

================

 

-----------------------------------------

Port Status Linkspeed SAS address

-----------------------------------------

   0 Active 6.0Gb/s   0x300062b20c75204a

-----------------------------------------

 

 

Inquiry Data =

40 00 ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00

00 00 00 00 48 50 46 59 33 38 30 32 31 30 38 48

36 39 43 30 4e 47 20 20 00 00 00 00 00 00 43 58

31 56 31 30 30 32 4e 49 45 54 20 4c 53 53 53 44

32 43 42 4b 36 39 47 30 20 38 20 20 20 20 20 20

20 20 20 20 20 20 20 20 20 20 20 20 20 20 01 80

00 40 00 2f 00 40 00 00 00 00 06 00 ff 3f 10 00

3f 00 10 fc fb 00 01 fd ff ff ff 0f 00 00 07 00

 

7.5.21  擦除物理盘数据

执行、查询和停止擦除物理盘动作。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode

storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

mode:可选simple|normal|thorough,分别对硬盘进行一遍|三遍|九遍擦除。

【注意事项】

多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

【举例】

#执行物理盘数据1遍擦除。

[root@localhost home]# ./storcli64 /c0/e2/s11 start erase simple

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Start Drive Erase Succeeded.

 

#查看擦除进程。

[root@localhost home]# ./storcli64 /c0/e2/s11 show erase

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Show Drive Erse Status Succeeded.

------------------------------------------------------

Drive-ID Progress% Status Estimated Time Left

------------------------------------------------------

/c0/e2/s11 0 In progress 0 Seconds

------------------------------------------------------

 

#停止擦除物理盘数据。

[root@localhost home]# ./storcli64 /c0/e2/s11 stop erase

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Stop Drive Erase Succeeded.

7.5.22  查询超级电容信息

查询控制卡超级电容信息。

【命令】

storcli64 /ccontroller_id/cv show all

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

【举例】

[root@localhost ~]# storcli64 /c0/cv show all

CLI Version = 007.1705.0000.0000 Mar 31, 2021

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Cachevault_Info :

===============

 

--------------------

Property    Value

--------------------

Type        CVPM05

Temperature 25 C

State       Optimal

--------------------

 

 

Firmware_Status :

===============

 

---------------------------------------

Property                         Value

---------------------------------------

NVCache State                    OK

Replacement required             No

No space to cache offload        No

Module microcode update required No

---------------------------------------

 

 

GasGaugeStatus :

==============

 

------------------------------

Property                Value

------------------------------

Pack Energy             319 J

Capacitance             100 %

Remaining Reserve Space 0

------------------------------

 

 

Design_Info :

===========

 

------------------------------------

Property                 Value

------------------------------------

Date of Manufacture      18/09/2019

Serial Number            21428

Manufacture Name         LSI

Design Capacity          374 J

Device Name              CVPM05

tmmFru                   N/A

CacheVault Flash Size    8.187 GB

scapBatversionNo         0x00

scapSerialNo             0x53b4

scap Date of Manufacture 18/09/2019

scapPcbAssmNo            50046-01

scapPCBversionNo          B

scapBatPackAssmNo        49571-222

Module Version           07251-01

------------------------------------

 

 

Properties :

==========

 

---------------------------------------------------------------------

Property                   Value

---------------------------------------------------------------------

Auto Learn Period          27d (2412000 seconds)

Next Learn time            2022/07/18  21:59:20 (711496760 seconds)

Learn Delay Interval       0 hour(s)

Auto-Learn Mode            Transparent

Last Successful Learn Time Completed, MON, June 20, 2022 at 23:59:20

---------------------------------------------------------------------

7.5.23  手动离线和上线物理盘

对物理盘执行手动离线和上线。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id set mode

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

mode:可选offline或online。offline为离线,online为上线。

【举例】

#手动离线物理盘。

[root@localhost home]# ./storcli64 /c0/e2/s23 set offline

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Set Drive Offline Succeeded.

 

#手动上线物理盘。

[root@localhost home]# ./storcli64 /c0/e2/s23 set online

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Set Drive Online Succeeded.

7.5.24  设置PR巡检参数

查询和设置Patrol Read巡检参数。

【命令】

storcli64 /ccontroller_id set patrolread starttime=start_time maxconcurrentpd=number

storcli64 /ccontroller_id set patrolread delay=delay_time

storcli64 /ccontroller_id show patrolread

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。start_time:开始巡检的启动时间。

number:同时巡检的盘数。

delay_time:巡检周期。

【注意事项】

·     巡检功能仅针对RAID成员盘。

·     巡检启动时间仅可设置整点。

【举例】

#设置巡检参数。

[root@localhost home]# ./storcli64 /c0 set pr starttime=2022/03/19 15 maxconcurrentpd=32

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

---------------------------------------

Ctrl_Prop          Value

---------------------------------------

PR Starttime       2022/03/19 15:00:00

PR MaxConcurrentPd 32

---------------------------------------

 

#查询巡检参数。

[root@localhost home]# ./storcli64 /c0 show pr

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

---------------------------------------------

Ctrl_Prop               Value

---------------------------------------------

PR Mode                 Auto

PR Execution Delay      168 hours

PR iterations completed 1

PR Next Start time      03/19/2022, 15:00:00

PR on SSD               Disabled

PR Current State        Stopped

PR Excluded VDs         None

PR MaxConcurrentPd      32

---------------------------------------------

7.5.25  设置CC一致性检查参数

查询和设置Consistent Check一致性检查参数。

【命令】

storcli64 /ccontroller_id[/vraid_id] show cc

storcli64 /ccontroller_id/vraid_id start cc force

storcli64 /ccontroller_id/vraid_id op cc

storcli64 /ccontroller_id set cc=conc delay=delay_time starttime=start_time

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_id:目标RAID ID。

op:可选操作pause/resume/stop,执行暂停/重启/停止动作。

delay_time:一致性检查周期。

start_time:一致性检查启动时间。

【注意事项】

storcli64 show cc命令,不加[/vraid_id]则返回存储控制卡一致性检查设定参数,增加[/vraid_id]则返回具体的一致性检查进度。

【举例】

#查看一致性检查设定参数。

[root@localhost home]# ./storcli64 /c0 show cc

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

-----------------------------------------------

Ctrl_Prop                 Value

-----------------------------------------------

CC Operation Mode         Concurrent

CC Execution Delay        2

CC Next Starttime         03/19/2022, 15:00:00

CC Current State          Stopped

CC Number of iterations   1

CC Number of VD completed 0

CC Excluded VDs           None

-----------------------------------------------

 

#查看一致性检查进度。

[root@localhost home]# ./storcli64 /c0/v0 show cc

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

VD Operation Status :

===================

 

-----------------------------------------------------------

VD Operation Progress% Status          Estimated Time Left

-----------------------------------------------------------

 0 CC        -         Not in progress -

-----------------------------------------------------------

 

#开启一致性检查。

[root@localhost home]# ./storcli64 /c0/v0 start cc force

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Start CC Operation Success

 

#停止一致性检查。

[root@localhost home]# ./storcli64 /c0/v0 stop cc

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Stop CC Operation Success

 

#设定一致性检查参数。

[root@localhost home]# ./storcli64 /c0 set cc=conc delay=2 starttime=2022/03/19 15

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

---------------------------------

Ctrl_Prop    Value

---------------------------------

CC Mode      CONC

CC delay     2

CC Starttime 2022/03/19 15:00:00

---------------------------------

7.5.26  重建和回拷RAID

启停重建和回拷任务,及状态查询。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id op func

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

op:可选操作show/pause/resume/stop,执行查询/暂停/重启/停止动作。

func:可选copyback/rebuild,对应巡检/回拷/重建功能。

【举例】

#查询回拷进度。

[root@localhost home]# ./storcli64 /c0/e2/s23 show copyback

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Show Drive Copyback Status Succeeded.

 

 

---------------------------------------------------------

Drive-ID   Progress% Status          Estimated Time Left

---------------------------------------------------------

/c0/e2/s23 -         Not in progress -

---------------------------------------------------------

 

#查询重建进度。

[root@localhost home]# ./storcli64 /c0/e2/s23 show rebuild

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Show Drive Rebuild Status Succeeded.

 

 

---------------------------------------------------------

Drive-ID   Progress% Status          Estimated Time Left

---------------------------------------------------------

/c0/e2/s23 -         Not in progress -

---------------------------------------------------------

7.5.27  管理任务资源

设置pr巡检速率、cc一致性检查速率、bgi后台初始化速率、rebuild重建速率、reconstruction重构速率。

【命令】

storcli64 /ccontroller_id set func=rate_value

【缺省情况】

各任务速率默认30%

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

func:可选prrate/ccrate/bgirate/rebuildrate/reconrate。

rate_value:可调范围0-100。

【注意事项】

多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

【举例】

#设置重构速率。

[root@localhost home]# ./storcli64 /c0 set reconrate=40

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

----------------

Ctrl_Prop Value

----------------

ReconRate 40%

----------------

7.5.28  查询和清除PreservedCache数据

查询和清除PreservedCache数据。

【命令】

storcli64 /ccontroller_id show preservedcache

storcli64 /ccontroller_id/vraid_id delete preservedcache force

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_id:目标RAID ID。

【举例】

#查询PreservedCache数据。

[root@localhost home]# ./storcli64 /c0 show preservedcache

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = No Virtual Drive has Preserved Cache Data.

 

#清除PreservedCache数据。

[root@localhost home]# ./storcli64 /c0/v0 delete preservedcache force

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = No Virtual Drive has Preserved Cache Data.

7.5.29  升级硬盘固件

升级硬盘的固件。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id download src=fw_file

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

fw_file:硬盘固件文件。

【举例】

#升级硬盘固件。

[root@localhost home]# ./storcli64 /c0/e2/s8 download src=fw.bin

Starting microcode update  .....please wait...

Flashing PD image  ..... please wait...

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Firmware Download succeeded.

Drive Firmware Download :

========================

--------------------------------------------------------------------------------

Drive     Status  ErrCd    ErrMsg

--------------------------------------------------------------------------------

/c0/e2/s8 Success   0       

---------------------------------------------------------------------------------

7.5.30  切换蜂鸣器设置

修改蜂鸣器设置。

【命令】

storcli64 /ccontroller_id show alarm

storcli64 /ccontroller_id set alarm={on|off|silence}

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

on:蜂鸣器开启,出现严重错误时蜂鸣器会发出警报。

off:蜂鸣器关闭,任何活动蜂鸣器都会静音,并且在发生任何错误(包括严重错误)时不会发出警报。

silence:使控制器上的蜂鸣器警报静音,即当前发出的任何警报都会停止;如果严重错误仍然存在并且蜂鸣器使能,则重启后会再次启动。如果禁用蜂鸣器,则该选项也被禁用。

【举例】

#查询蜂鸣器开关状态。

[root@localhost storcli]# ./storcli64 /c0 show alarm

CLI Version = 007.2408.0000.0000 Nov 15, 2022

Operating system = Linux 4.18.0-425.3.1.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

----------------

Ctrl_Prop Value

----------------

Alarm     OFF

----------------

#关闭蜂鸣器。

[root@localhost storcli]# ./storcli64 /c0 set alarm=off

CLI Version = 007.2408.0000.0000 Nov 15, 2022

Operating system = Linux 4.18.0-425.3.1.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

----------------

Ctrl_Prop Value

----------------

Alarm     OFF

----------------

 

#开启蜂鸣器。

[root@localhost storcli]# ./storcli64 /c0 set alarm=on

CLI Version = 007.2408.0000.0000 Nov 15, 2022

Operating system = Linux 4.18.0-425.3.1.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

----------------

Ctrl_Prop Value

----------------

Alarm     ON

----------------

#静音蜂鸣器告警。

[root@localhost storcli]# ./storcli64 /c0 set alarm=silence

CLI Version = 007.2408.0000.0000 Nov 15, 2022

Operating system = Linux 4.18.0-425.3.1.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

------------------

Ctrl_Prop Value

------------------

Alarm     SILENCE

------------------

7.5.31  设置Firmware Device order功能

查询、设置LSI存储控制卡Firmware Device order功能处于开启或关闭状态。

【命令】

storcli64 /ccontroller_id show deviceorderbyfirmware

storcli64 /ccontroller_id set deviceorderbyfirmware=mode

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。可将该参数设置为all,表示查询该工具可管理的所有存储控制卡信息。

mode:Firmware Device order功能配置,可选参数如下:

·     on:开启Firmware Device order。

·     off:关闭Firmware Device order。

 

【注意事项】

仅9460/9440/9540/9560卡支持。

启用此功能仅适用于Linux;对于Windows或VMware等其他操作系统,不支持该功能。意外启用它可能会导致系统在引导期间挂死。

该功能开启后,服务器重启阶段存储卡下设备上报顺序改变,按启动盘、逻辑盘、直通盘顺序上报。但需注意,所有存储卡会引入逻辑盘上报乱序,9460卡JBOD模式和9560所有模式下直通盘设备上报乱序现象。

该选项修改后需重启服务器生效。

LSI 9440/9460卡51.15.0-3630及以上固件版本支持该功能。

LSI 9560卡52.15.0-3720及以上固件版本支持该功能。

LSI 9540卡52.20.0-4341及以上固件版本支持该功能。

【举例】

#查询存储控制卡Firmware Device order功能状态。

[root@localhost ~]# storcli64 /c0 show deviceorderbyfirmware

CLI Version = 007.2203.0000.0000 May 11, 2022

Operating system = Linux 4.18.0-240.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

-------------------------------------

Ctrl_Prop                      Value

-------------------------------------

Firmware based device ordering OFF

-------------------------------------

 

#开启存储控制卡Firmware Device order功能。

[root@localhost ~]# storcli64 /c0 set deviceorderbyfirmware=on

CLI Version = 007.2203.0000.0000 May 11, 2022

Operating system = Linux 4.18.0-240.el8.x86_64

Controller = 0

Status = Success

Description = Please reboot the system for the changes to take effect

 

 

Controller Properties :

=====================

 

-------------------------------------

Ctrl_Prop                      Value

-------------------------------------

Firmware based device ordering ON

-------------------------------------

 

#关闭存储控制卡Firmware Device order功能。

[root@localhost ~]# storcli64 /c0 set deviceorderbyfirmware=off

CLI Version = 007.2203.0000.0000 May 11, 2022

Operating system = Linux 4.18.0-240.el8.x86_64

Controller = 0

Status = Success

Description = Please reboot the system for the changes to take effect

 

 

Controller Properties :

=====================

 

-------------------------------------

Ctrl_Prop                      Value

-------------------------------------

Firmware based device ordering OFF

-------------------------------------

 

7.5.32  设置direct pd mapping功能

查询、设置LSI存储控制卡Firmware Device order功能处于开启或关闭状态。

【命令】

storcli64 /ccontroller_id show directpdmapping

storcli64 /ccontroller_id set directpdmapping=mode

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。可将该参数设置为all,表示查询该工具可管理的所有存储控制卡信息。

mode:direct pd mapping功能配置,可选参数如下:

·     on:开启direct pd mapping。

·     off:关闭direct pd mapping。

 

【注意事项】

仅9460/9440/9540/9560卡支持。

当存储卡连接Expander背板时不可启用该功能。意外启用它会导致存储卡进入Failed状态。

该功能开启后,服务器重启阶段存储卡下直通盘设备按slot号上报。

该选项修改后需重启服务器生效。

LSI 9440/9460卡51.15.0-3630及以上固件版本和配套管理工具支持该功能。

LSI 9560卡52.15.0-3720及以上固件版本和配套管理工具支持该功能。

LSI 9540卡52.20.0-4341及以上固件版本和配套管理工具支持该功能。

【举例】

#查询存储控制卡direct pd mapping功能状态。

[root@localhost ~]# storcli64 /c0 show directpdmapping

CLI Version = 007.2203.0000.0000 May 11, 2022

Operating system = Linux 4.18.0-240.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

----------------------

Ctrl_Prop       Value

----------------------

Directpdmapping OFF

----------------------

#开启存储控制卡direct pd mapping功能。

[root@localhost ~]# storcli64 /c0 set directpdmapping=on

CLI Version = 007.2203.0000.0000 May 11, 2022

Operating system = Linux 4.18.0-240.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

------------------------------------------------

Ctrl_Prop       Value

------------------------------------------------

Directpdmapping ON (Requires reboot for effect)

------------------------------------------------

#关闭存储控制卡direct pd mapping功能。

[root@localhost ~]# storcli64 /c0 set directpdmapping=off

CLI Version = 007.2203.0000.0000 May 11, 2022

Operating system = Linux 4.18.0-240.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

-------------------------------------------------

Ctrl_Prop       Value

-------------------------------------------------

Directpdmapping OFF (Requires reboot for effect)

-------------------------------------------------

7.5.33  PSoC信息检查

查看存储控制卡PSoC固件。

【命令】

storcli64 /ccontroller_id/ show all | grep -i psoc

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

【注意事项】

·     LSI 9560卡上已更新运行52.20.0-4341及以上版本固件,且storcli版本为7.2007.0000.0000或以上版本才能查询PSoC信息、更新PSoC固件。

·     LSI 9560卡上已更新运行52.22.0-4544及以上版本固件,且storcli版本为7.2307.0000.0000或以上版本才能查询PSoC信息、更新PSoC固件。

【举例】

#查询PSoC信息,其中包括PSoC FW Version、PSoC Part Number、PSoC支持情况等信息。

[root@localhost ~]# storcli64 /c0 show all | grep -i psoc

PSOC FW Version = 0x001B

PSOC Hardware Version = 0x0003

PSOC Part Number = 15987-270-4GB

Support PSOC Update = Yes

Support PSOC Part Information = Yes

Upgradable PSOC = Present

 

7.5.34  PSoC固件更新

升级存储控制卡的PSoC固件。

【命令】

storcli64 /ccontroller_id download file= fw_file

storcli64 /ccontroller_id download file= fw_file noverchk

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准;

fw_file:PSoC固件文件。

noverchk:降级或平级更新存储控制卡PSoC固件时,不检查固件镜像的版本。

【注意事项】

·     若存储控制卡PSoC固件文件不在当前路径下,则需要在fw_file前加上文件的绝对路径。

·     storcli工具涉及指定路径相关命令均不支持空格和特殊字符。

·     PSoC固件更新后,需将服务器AC power cycle才能生效。

·     LSI 9560卡上已更新运行52.20.0-4341及以上版本固件,且storcli版本为7.2007.0000.0000或以上版本才能查询PSoC信息、更新PSoC固件。

·     LSI 9560卡上已更新运行52.22.0-4544及以上版本固件,且storcli版本为7.2307.0000.0000或以上版本才能查询PSoC信息、更新PSoC固件。

【举例】

# 升级存储控制卡PSoC固件。

[root@localhost ~]# storcli64 /c0 download file=pblp_catalog.signed.rom

Download Completed.

Flashing image to adapter...

CLI Version = 007.2408.0000.0000 Nov 15, 2022

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = F/W Flash Completed. Please shutdown the system for the changes to take effect

 

# 降级或平级更新存储控制卡PSoC固件。

[root@localhost ~]# storcli64 /c0 download file=pblp_catalog.signed.rom noverchk

Download Completed.

Flashing image to adapter...

CLI Version = 007.2408.0000.0000 Nov 15, 2022

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = F/W Flash Completed. Please shutdown the system for the changes to take effect

7.5.35  设置紧急热备功能

设置紧急热备功能。使能RAID卡的紧急热备功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。

【命令】

storcli64 /ccontroller_id set eghs eug={on|off}

storcli64 /ccontroller_id set eghs smarter={on|off}

storcli64 /ccontroller_id set eghs state={on|off}

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

eug设置Unconfigured Good状态的盘为紧急热备盘。

smarter:设置为处于SMART Error状态的盘提供紧急热备功能。

state:设置Unconfigured Good和hot spare状态的盘为紧急热备盘。

【注意事项】

·     多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

·     热备盘需要与原来RAID的成员盘接口协议一致,且容量大于等于原有RAID成员盘。

【举例】

#设置Unconfigured Good状态的盘为紧急热备盘

[root@localhost ~]# storcli /c0 set eghs eug=on

CLI Version = 007.2807.0000.0000 Dec 22, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

------------------

Ctrl_Prop   Value

------------------

EmergencyUG ON

------------------

#设置为处于SMART Error状态的盘提供紧急热备功能

[root@localhost ~]# storcli /c0 set eghs smarter=on

CLI Version = 007.2807.0000.0000 Dec 22, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

-----------------------

Ctrl_Prop        Value

-----------------------

EmergencySmarter ON

-----------------------

#设置Unconfigured Good和hot spare状态的盘为紧急热备盘

[root@localhost ~]# storcli /c0 set eghs state=on

CLI Version = 007.2807.0000.0000 Dec 22, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

-------------------

Ctrl_Prop    Value

-------------------

EmergencyGHS ON

-------------------

 

7.6  故障告警支持情况

故障告警功能包含故障告警和预故障告警,不同存储控制卡不同模式支持情况各不相同,如表7-6表7-7所示。

表7-6 故障告警支持情况

存储控制卡系列

RAID模式直连硬盘

RAID模式连接硬盘扩展板

JBOD模式直连硬盘

JBOD模式连接硬盘扩展板

LSI-9361

支持

支持

支持

支持

LSI-9440

支持

支持

不涉及

不涉及

LSI-9460

支持

支持

支持

支持

LSI-9540

支持

支持

不涉及

不涉及

LSI-9560

支持

支持

支持

支持

 

表7-7 预故障告警(PFA)支持情况

存储控制卡系列

RAID模式直连硬盘

RAID模式连接硬盘扩展板

JBOD模式直连硬盘

JBOD模式连接硬盘扩展板

LSI-9361

仅Unconfigured Good、逻辑成员盘、热备盘可识别PFA状态,不亮0.5Hz橙灯

仅Unconfigured Good、逻辑成员盘、热备盘可识别PFA状态,亮0.5Hz橙灯

不支持

不支持

LSI-9440

不涉及

不涉及

LSI-9460

所有硬盘状态都支持PFA识别,不亮0.5Hz橙灯

所有硬盘状态都支持PFA识别,但仅UG、逻辑成员盘、热备盘支持亮0.5Hz橙灯

LSI-9540

不涉及

不涉及

LSI-9560

所有硬盘状态都支持PFA识别,不亮0.5Hz橙灯

所有硬盘状态都支持PFA识别,亮0.5Hz橙灯

所有硬盘状态都支持PFA识别,不亮0.5Hz橙灯

所有硬盘状态都支持PFA识别,亮0.5Hz橙灯

 

7.7  故障处理

关于存储控制卡的故障信息收集、故障诊断定位和故障解决方法的详细说明,请参见《H3C服务器 故障处理手册》。

7.8  兼容性

存储控制卡与服务器的兼容性关系,请查看服务器兼容的部件查询工具

7.9  驱动下载和安装

访问H3C官网下载存储控制卡的驱动程序。驱动程序的安装步骤,请参见与驱动程序一起发布的版本说明书。

 

不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!

新华三官网
联系我们