• 产品与解决方案
  • 行业解决方案
  • 服务
  • 支持
  • 合作伙伴
  • 新华三人才研学中心
  • 关于我们

H3C G3&G5服务器 存储控制卡用户指南-6W125

07-第7章 LSI-9440&9460系列&5408系列&LSI-9361&L460&9560&9540

本章节下载 07-第7章 LSI-9440&9460系列&5408系列&LSI-9361&L460&9560&9540  (12.53 MB)

docurl=/cn/Service/Document_Software/Document_Center/Home/Server/00-Public/Configure/User_Manual/H3C_G3_G5_UM-15875-Long/202312/1989693_30005_0.htm

07-第7章 LSI-9440&9460系列&5408系列&LSI-9361&L460&9560&9540


7 LSI-9440&9460系列&5408系列&LSI-9361&L460&9560&9540

本节介绍如下型号的存储控制卡,支持最大12Gbit/s的接口速率。部分存储控制卡支持缓存模块,极大地提升了性能和数据安全性。存储控制卡的详细信息及缓存模块支持信息,请参见http://www.h3c.com/cn/home/qr/default.htm?id=315

·     RAID-LSI-9361-8i(1G)-A1-X

·     RAID-LSI-9361-8i(2G)-1-X

·     HBA-LSI-9440-8i

·     RAID-LSI-9460-8i(2G)

·     RAID-LSI-9460-8i(4G)

·     RAID-LSI-9460-16i(4G)

·     RAID-L460-M4

·     HBA-H5408-Mf-8i

·     RAID-P5408-Mf-8i-4GB

·     RAID-P5408-Ma-8i-4GB

·     RAID-LSI-9560-LP-16i-8GB

·     RAID-LSI-9560-LP-8i-4GB

·     RAID-P9560-3S-8i-4G

·     HBA-LSI-9540-LP-8i

7.1  概述

7.1.1  支持的RAID级别

各存储控制卡支持的RAID级别略有不同,详细信息请参见http://www.h3c.com/cn/home/qr/default.htm?id=315,各RAID级别对应的磁盘数量如表7-1所示。关于RAID级别的说明,请参见“附录B 磁盘阵列和容错方法”。

表7-1 RAID级别与磁盘数量关系

RAID级别

最少磁盘数

最多故障盘数

RAID 0

1

0

RAID 1

2

硬盘数/2

RAID 5

3

1

RAID 6

LSI 95604

其他阵列卡:3(建议使用4块)

2

RAID 00

2

0

RAID 10

4

nn为组成RAID 10RAID 1的个数)

RAID 50

6

nn为组成RAID 50RAID 5的个数)

RAID 60

LSI 95608

其他阵列卡:6(建议使用8块)

2nn为组成RAID 60RAID 6的个数)

说明

本章节介绍的存储控制卡,如果支持组建RAID 10/50/60,则最多支持由8个成员RAID 1/5/6组成该RAID 10/50/60。

 

7.1.2  RAID配置注意事项

·     建议用户安装没有RAID信息的硬盘。

·     请确保组建同一RAID的所有硬盘类型相同,否则会因硬盘性能不同而造成RAID性能下降或者无法创建RAID。即满足如下两点:

¡     所有硬盘均为SAS、SATA或NVMe硬盘。

¡     所有硬盘均为HDD或SSD硬盘。

·     建议组建同一RAID的所有硬盘容量相同。当硬盘容量不同时,系统以最小容量的硬盘为准,即将所有硬盘容量都视为最小容量。

·     不建议将一个硬盘用在多个RAID中,该情况会使后期维护变得复杂,并影响RAID的性能。

7.2  UEFI启动模式下配置RAID

本节介绍在UEFI启动模式下通过存储控制卡配置RAID的方法。关于进入BIOS界面和设置BIOS启动模式为UEFI的详细介绍,请参见BIOS用户指南中的对应章节。

7.2.1  初始功能配置

1. 进入存储控制卡配置界面

说明

不同BIOS版本的界面有所差异,本手册仅以其中一种BIOS版本举例,操作界面请以实际情况为准。

 

本节介绍进入存储控制卡配置界面的操作步骤。

(1)     进入BIOS。

在服务器启动过程中,根据提示按下DeleteEsc(部分产品按DeleteF2)进入如图7-1所示的BIOS Setup界面(部分产品进入Front界面,请选择Device Management,进入设备管理菜单)。请参考界面右下角的按键操作提示,以实现在界面中导航和修改设置。

图7-1 BIOS Setup界面

 

(2)     进入存储控制器管理界面。

图7-2所示,进入Advanced页签,并选择存储控制器(如:AVAGO MegaRAID<AVAGO MegaRAID SAS 9361-8i>,按Enter

图7-2 Advanced界面

 

(3)     进入图7-3所示界面,选择Main Menu,按Enter

图7-3 选择Main Menu

 

(4)     进入图7-4所示界面,界面上显示了五大类配置任务(相关说明请参见表7-2)。

图7-4 存储控制卡配置界面

 

表7-2 参数说明

选项

概要说明

Configuration Management

选择配置管理来执行任务,如创建逻辑磁盘、查看磁盘组属性,查看热备信息、清除配置。

Controller Management

选择控制器管理以查看和管理控制器属性并执行任务,如清除控制器事件、调度和运行控制器事件,运行巡检读取。

Virtual Drive Management

选择逻辑磁盘管理来执行任务,如查看逻辑磁盘属性、定位逻辑磁盘,运行一致性检查。

Drive Management

选择磁盘管理以查看物理磁盘属性和执行任务,如定位磁盘,初始化磁盘和磁盘失败后重建。

Hardware Components

选择硬件组件查看超级电容属性,管理超级电容和管理外围组件。

 

2. 切换磁盘状态

存储控制卡支持切换如下四种磁盘状态。

·     Unconfigured Good:表示该物理磁盘正常,可用于配置RAID或热备盘。

·     Unconfigured Bad:表示该物理盘已损坏或存在RAID残留信息,物理盘损坏时请更换;RAID信息残留时,请手动进行清除。

·     Hotspare:表示该物理磁盘为热备盘。

·     JBOD/JBOD online:Just a Bunch Of Disks,直通盘/类直通盘,不可用于配置RAID。

注意

型号为RAID-LSI-9560-LP-16i-8G和RAID-LSI-9560-LP-8i-4GB的存储控制卡设置为直通盘模式时,直通盘状态为JBOD Online,本章节介绍的其他存储控制卡设置为直通盘模式时,直通盘状态为JBOD。

 

此处以Unconfigured Good状态切换为Unconfigured Bad状态举例。

(1)     如图7-5所示,在存储控制卡配置界面选择Drive Management,按Enter

图7-5 存储控制卡配置界面

 

(2)     进入图7-6所示界面,选择待配置的磁盘,按Enter

图7-6 Drive Management管理界面

 

(3)     进入图7-7所示界面,选中Operation,按Enter,然后在弹出的对话框中选择Make Unconfigured Bad,按Enter

图7-7 Operation操作界面

 

(4)     进入图7-8所示界面,选择Go,按Enter

图7-8 选择Go

 

(5)     进入图7-9所示界面,完成切换磁盘状态操作。

图7-9 完成切换磁盘状态

 

3. 配置RAID

(1)     如图7-10所示,在存储控制卡配置界面选择Configuration Management,按Enter

图7-10 存储控制卡配置界面

 

(2)     进入图7-11所示界面,选择Create Virtual Drive,按Enter

图7-11 选择Create Virtual Drive

 

(3)     进入图7-12所示界面,选择Select RAID Level,设置RAID级别,按Enter

图7-12 设置RAID级别

 

(4)     进入图7-13所示界面,选择Select Drives From,设置RAID的磁盘容量来源,按Enter

·     [Unconfigured Capacity] 表示容量来自空的磁盘。

·     [Free Capacity] 表示容量来自已配置RAID的磁盘的剩余容量。

图7-13 设置RAID的磁盘容量来源

 

(5)     进入图7-14所示界面,选择Select Drives,按Enter

图7-14 选择Select Drives

 

(6)     进入图7-15所示界面,选择要用来配置RAID的磁盘,[Enabled]表示选中,然后选择Apply Changes,按Enter。如果磁盘的状态为JBODUnconfigured Bad,则无法选择。

图7-15 选择磁盘

 

(7)     进入图7-16所示界面,进行相应的设置(参数说明请参见表7-3),然后选择Save Configuration,按Enter

图7-16 设置RAID参数

 

表7-3 参数说明

参数

说明

Virtual Drive Name

RAID的名称,仅支持字母、数字和特殊字符,不区分大小写

Virtual Drive Size

RAID的容量大小

Virtual Drive Size Unit

RAID的容量单位

Stripe Size

条带大小,写在每块磁盘上的条带数据块的大小

Read Policy

读缓存策略,分为:

·     Read ahead:开启预读取功能。存储控制卡可以预读取顺序数据或预测需要即将使用到的数据,并存储到Cache中。

·     No read ahead:关闭预读取功能。

Write Policy

写缓存策略,分为:

·     Write through:直写模式。当物理盘接收到所有传输数据后,存储控制卡将给主机返回数据传输完成信号。

·     Write back:回写模式一。当存储控制卡中的Cache收到所有的传输数据后,存储控制卡将给主机返回数据传输完成信号。该模式下,如果存储控制卡未安装超级电容或超级电容损坏,存储控制卡将自动切换到Write through模式。

·     Always write back:回写模式二。强制使用Write back模式,该模式下,如果存储控制卡未安装超级电容或超级电容损坏,也不会切换到Write through模式。此时,若主机掉电,存储控制卡中的Cache会由于缺失供电电源而丢失其中的数据。

Access Policy

读写策略,分为:

·     Read/Write:可读可写

·     Read Only:只读

·     Blocked:禁止操作

I/O Policy

I/O 策略,分为:

·     Direct:在读、写场景中的定义不同:

¡     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID卡的Cache处理)

¡     在写场景中,写数据经过RAID卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID卡的Cache处理,直接写入硬盘)

·     Cached:所有读和写均经过RAID卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐

Drive Cache

磁盘缓存策略,分为:

·     Enable:开启,读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失

·     Disable:关闭,读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失

·     Unchanged:保持当前策略

Disable Background Initialization

使能或禁用后台初始化方式

Default Initialization

默认初始化方式,分为:

·     NO:不进行初始化

·     Fast:快速初始化

·     Full:完全初始化

Emulation Type

控制逻辑盘在OS中上报的扇区,分为:

·     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

·     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n

·     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)

Save Configuration

保存配置

 

(8)     进入图7-17所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图7-17 确认配置

 

(9)     进入图7-18所示界面,完成配置RAID操作,选择OK,返回存储控制卡配置界面。

图7-18 完成配置RAID

 

(10)     如图7-19所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图7-19 存储控制卡配置界面

 

(11)     进入图7-20所示界面,可以看到已创建的RAID,选择需要查看的RAID,按Enter

图7-20 Vitrual Drive Management界面

 

(12)     进入图7-21所示界面,选择View Associated Drives,按Enter,即可查看该RAID的详细信息(包括RAID名称、级别,所含磁盘信息等)。

图7-21 选择View Associated Drives

 

7.2.2  常用功能配置

1. 配置热备盘

配置RAID后一般会配置热备盘来提高数据的安全性。可根据需要配置全局热备盘或专用热备盘。

说明

·     热备盘仅供存在冗余的RAID级别使用。

·     热备盘的容量要大于等于RAID最小成员盘的容量。

·     仅支持配置状态为Unconfigured Good的磁盘为热备盘。

 

·     配置全局热备盘

(1)     如图7-22所示,在存储控制卡配置界面选择Drive Management,按Enter

图7-22 存储控制卡配置界面

 

(2)     进入图7-23所示界面,选择待配置为全局热备盘的磁盘,按Enter

图7-23 Drive Management管理界面

 

(3)     进入图7-24所示界面,选中Operation,按Enter,然后再选择Assign Global Hot Spare Drive,按Enter

图7-24 Operation操作界面

 

(4)     进入图7-25所示界面,选择Go,按Enter

图7-25 选择Go

 

(5)     进入图7-26所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图7-26 确认配置

 

(6)     进入图7-27所示界面,完成配置全局热备盘操作。

图7-27 完成配置全局热备盘

 

·     配置专用热备盘

(1)     如图7-28所示,在存储控制卡配置界面选择Drive Management,按Enter

图7-28 存储控制卡配置界面

 

(2)     进入图7-29所示界面,选择待配置为专用热备盘的磁盘,按Enter

图7-29 Drive Management管理界面

 

(3)     进入图7-30所示界面,选中Operation,按Enter,然后再选择Assign Dedicated Hot Spare Drive,按Enter

图7-30 Operation操作界面

 

(4)     进入图7-31所示界面,选择Go,按Enter

图7-31 选择Go

 

(5)     进入图7-32所示界面,选择需要配置专用热备盘的逻辑磁盘,使其Enable,选择OK,按Enter

图7-32 确认创建专用热备的逻辑磁盘

 

(6)     进入图7-33所示界面,完成配置专用热备盘操作。

图7-33 完成配置专用热备盘

 

2. 删除RAID

本功能用于删除已损坏或难以满足需求的RAID。

(1)     如图7-34所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图7-34 存储控制卡配置界面

 

(2)     进入图7-35所示界面,选择待删除的逻辑磁盘,按Enter

图7-35 逻辑磁盘管理界面

 

(3)     进入图7-36所示界面,选中Operation,按Enter,然后在弹出的对话框中选择Delete Virtual Drive,按Enter

图7-36 Operation操作界面

 

(4)     进入图7-37所示界面,选择Go,按Enter

图7-37 选择Go

 

(5)     进入图7-38所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图7-38 确认删除

 

(6)     进入图7-39所示界面,完成删除RAID操作。

图7-39 完成删除RAID

 

3. 定位磁盘位置

本功能通过点亮磁盘对应槽位的蓝色指示灯,方便您快速找到磁盘。可定位单个物理磁盘或某个逻辑磁盘包括的全部成员磁盘。

·     定位物理磁盘

(1)     如图7-40所示,在存储控制卡配置界面选择Drive Management,按Enter

图7-40 选择Drive Management

 

(2)     进入图7-41界面,选择待定位的磁盘,按Enter

图7-41 选择待定位的磁盘

 

(3)     进入图7-42界面,选择Operation,按Enter,然后在弹出的对话框中选择Start Locate,按Enter

图7-42 Operation操作界面

 

(4)     进入图7-43界面,选择Go,按Enter

图7-43 选择Go

 

(5)     进入图7-44界面,完成定位物理磁盘位置操作。

图7-44 完成定位物理磁盘位置

 

·     定位逻辑磁盘中的全部磁盘

(6)     如图7-45所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图7-45 存储控制卡配置界面

 

(7)     进入图7-46界面,选择待定位的逻辑磁盘,按Enter

图7-46 选择待定位的逻辑磁盘

 

(8)     进入图7-47界面,选中Operation,按Enter,然后在弹出的对话框中选择Start Locate,按Enter

图7-47 Operation操作界面

 

(9)     进入图7-48界面,选择Go,按Enter

图7-48 选择Go

 

(10)     进入图7-49界面,完成定位逻辑磁盘中的全部磁盘位置操作。

图7-49 完成定位逻辑磁盘中的全部磁盘

 

4. 初始化逻辑磁盘

本功能用于初始化逻辑磁盘内部数据空间。

(1)     如图7-50所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图7-50 存储控制卡配置界面

图片2.png

 

(2)     进入图7-51所示界面,选择待初始化的逻辑磁盘,按Enter

图7-51 逻辑磁盘管理界面

图片3.png

 

(3)     进入图7-52所示界面,选中Operation,按Enter,然后在弹出的对话中选择Fast/Slow InitializationEnter

图7-52 Operation操作界面

图片4.png

 

说明

Fast Initialization与Slow Initialization的区别在于前者能够立即写数据,后者需等待磁盘空间全部完成初始化后,才能写数据。

 

(4)     进入图7-53所示界面,选择Go,按Enter

图7-53 选择Go

图片5.png

 

(5)     进入图7-54所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图7-54 确认初始化

图片6.png

 

(6)     进入图7-55所示界面,完成初始化逻辑磁盘操作。

图7-55 完成初始化逻辑磁盘

图片7.png

 

5. 初始化物理磁盘

(1)     如图7-56所示,在存储控制卡配置界面选择Drive Management,按Enter

图7-56 存储控制卡配置界面

 

(2)     进入图7-57所示界面,选择待初始化的磁盘,按Enter

图7-57 磁盘管理界面

 

(3)     进入图7-58界面,选中Operation,按Enter,然后在弹出的对话框中选择Initialize Drive,按Enter

图7-58 Operation管理界面

 

(4)     进入图7-59界面,选择Go,按Enter

图7-59 选择Go

 

(5)     进入图7-60所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图7-60 确认初始化

 

(6)     进入图7-61界面,完成初始化物理磁盘操作。

图7-61 完成初始化物理磁盘

图片1.png

 

6. 擦除磁盘数据

本功能用于删除磁盘内部数据,包括擦除物理磁盘数据和逻辑磁盘数据。

·     擦除物理磁盘数据

(1)     如图7-62所示,在存储控制卡配置界面选择Drive Management,按Enter

图7-62 存储控制卡配置界面

 

(2)     进入图7-63所示界面,选择待擦除数据的磁盘,按Enter

图7-63 磁盘管理界面

图片8.png

 

(3)     进入图7-64所示界面,选中Operation,按Enter,然后在弹出的对话框里选择Drive Erase,按Enter

图7-64 Operation操作界面

图片9.png

 

说明

对于Drive Erase选项,部分存储控制卡对于SATA硬盘的配置选项是Drive Erase,对于SAS硬盘是Cryptographic Erase。

 

(4)     进入图7-65所示界面,按Enter,然后在弹出的对话框中选择擦除模式(建议使用缺省模式:Simple)。

图7-65 Erase Mode界面

图片10.png

 

(5)     进入图7-66所示界面,选择Go,按Enter

图7-66 选择Go

 

(6)     进入图7-67所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图7-67 确认擦除

 

(7)     进入图7-68所示界面,完成擦除物理磁盘数据操作。

图7-68 完成擦除物理磁盘数据

 

说明

为避免磁盘故障,请勿在擦除物理磁盘数据期间进行其他操作。

 

·     擦除逻辑磁盘数据

(8)     如图7-69所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图7-69 存储控制卡配置界面

 

(9)     进入图7-70所示界面,选择待擦除数据的逻辑磁盘,按Enter

图7-70 逻辑磁盘管理界面

 

(10)     进入图7-71所示界面,选中Operation,按Enter,然后在弹出的对话框中选择Virtual Drive Erase,按Enter

图7-71 Operation 操作界面

 

(11)     进入图7-72所示界面,按Enter,然后在弹出的对话框中选择擦除模式(建议使用缺省模式:Simple)。

图7-72 Erase Mode界面

 

(12)     进入图7-73所示界面,选择Go,按Enter

图7-73 选择Go

 

(13)     进入图7-74所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图7-74 确认擦除

 

(14)     进入图7-75所示界面,完成擦除逻辑磁盘数据操作。

图7-75 完成擦除逻辑磁盘数据

 

7. 扩容RAID

说明

LSI 9440&9460&9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。

 

本功能用于扩充RAID的容量来提升RAID的可用性,存储控制卡通过设置逻辑盘剩余容量比例来扩充RAID的容量。

(1)     如图7-76所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图7-76 存储控制卡配置界面

 

(2)     进入图7-77所示界面,选择待扩容的逻辑磁盘,按Enter

图7-77 Virtual Drive Management管理界面

 

(3)     进入图7-78所示界面,选择Operation,按Enter,然后在弹出的对话框中选择Expand Virtual Drive,按Enter

图7-78 Operation操作界面

 

(4)     进入图7-79所示界面,选择Go,按Enter

图7-79 选择Go

 

(5)     进入图7-80所示界面,修改Enter a Percentage of Avaliable Capacity栏参数来修改磁盘剩余可用容量的比例,选择OK,按Enter

图7-80 容量设置界面

 

(6)     进入图7-81所示界面,完成扩容RAID操作。

图7-81 完成扩容RAID

 

8. 迁移RAID级别

说明

LSI 9440&9460&9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。

 

本功能用于不影响当前数据完整性的情况下,对RAID的级别进行修改以达到配置需求。

(1)     如图7-82所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图7-82 存储控制卡配置界面

 

(2)     进入图7-83所示界面,选择待迁移的逻辑磁盘,按Enter

图7-83 Virtual Drive Management管理界面

 

(3)     进入图7-84所示界面,选择Operation,按Enter,然后在弹出的对话框中选择Reconfigure Virtual Drive,按Enter

图7-84 Operation操作界面

 

(4)     进入图7-85所示界面,选择Go,按Enter

图7-85 选择Go

 

(5)     进入图7-86所示界面,设置RAID级别,选择Choose the Operation,按Enter

图7-86 选择迁移方案

 

(6)     进入图7-87所示界面,选择待添加的磁盘,使其Enabled,选择Apply Changes,按Enter

图7-87 Choose the Operation界面

 

说明

可以通过增加或减少成员盘实现迁移逻辑盘级别。

 

(7)     进入图7-88所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图7-88 确认迁移

 

(8)     进入图7-89所示界面,选择Start Operation,按Enter

图7-89 开始迁移

 

(9)     进入图7-90所示界面,选择OK,按Enter

图7-90 选择OK

 

(10)     进入图7-91所示界面,可以查看当前迁移进度。

图7-91 RAID信息界面

 

9. 清除磁盘RAID信息

本功能用于清除磁盘中的RAID残留信息,使磁盘可重新用来配置RAID。

(1)     将磁盘状态Unconfigured Bad切换为Unconfigured Good,具体步骤请参见7.2.1  2. 切换磁盘状态

(2)     如图7-92所示,在存储控制卡配置界面选择Configuration Management,按Enter

图7-92 存储控制卡配置界面

 

(3)     进入图7-93所示界面,选择Manage Foreign Configuration,按Enter

图7-93 选择Manage Foreign Configuration

 

(4)     进入图7-94所示界面,选择Clear Foreign Configuration,按Enter

图7-94 选择Clear Foreign Configuration

 

(5)     进入图7-95所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图7-95 确认清除

 

(6)     进入图7-96所示界面,完成清除磁盘RAID信息操作。

图7-96 完成清除磁盘RAID

 

10. 隐藏RAID

本功能用于隐藏所选择的RAID。

(1)     如图7-97所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图7-97 存储控制卡配置界面

 

(2)     进入图7-98所示界面,选择待隐藏的逻辑磁盘,按Enter

图7-98 Virtual Drive Management管理界面

 

(3)     进入图7-99所示界面,选中Operation,按Enter,然后在弹出的对话框中选择Hide Virtual Drive,按Enter完成隐藏RAID操作。

图7-99 Operation操作界面

 

11. 隐藏磁盘组

本功能用于隐藏磁盘组,磁盘组隐藏后,在该磁盘组上组建的所有逻辑盘在系统下均不可见。

磁盘组是由指定数量磁盘组成的集合,一般在创建第一个逻辑盘时确定磁盘组成员,在磁盘组上可以组建特定级别的逻辑盘。

(1)     如图7-100所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图7-100 存储控制卡配置界面

 

(2)     进入图7-101所示界面,选择待隐藏的逻辑磁盘,按Enter

图7-101 Virtual Drive Management管理界面

 

(3)     进入图7-102所示界面,选中Operation,按Enter,然后在弹出的操作对话框里选择Hide Drive Group,按Enter

图7-102 Operation操作界面

 

12. 在线升级存储控制卡固件

您可通过该功能升级RAID的固件版本。需要注意的是,使用U盘升级固件时,固件文件放置在U盘根目录或一级目录下,否则BIOS下无法找到固件文件。

(1)     如图7-103所示,在Advanced界面中选择Update Firmware,按Enter

图7-103 Advanced界面

 

(2)     进入图7-104所示界面,选择升级固件的目录,按Enter

图7-104 选择升级固件的目录

 

(3)     进入如图7-105所示界面,选择待升级的固件版本文件,按Enter

图7-105 选择待升级的固件版本文件

 

(4)     进入图7-106所示界面,选择Update,按Enter

图7-106 选择Update

 

(5)     进入图7-107所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

注意

确认升级后,页面将短暂卡住,此时正在进行固件升级,请勿进行其他操作。

 

图7-107 确认升级

 

(6)     进入图7-108所示界面,选择OK,按Enter完成升级操作。

图7-108 选择OK

 

(7)     重启BIOS使操作生效。

13. 切换存储控制卡模式

本功能用于切换存储控制卡模式,包括JBOD模式和RAID模式。

(1)     如图7-109所示,在Advanced界面中选择Main Menu,按Enter

图7-109 Advanced界面选择Main Menu

 

(2)     如图7-110所示,选择Controller management,按Enter

图7-110 选择Controller management

 

(3)     如图7-111所示,选择Advanced Controller management,按Enter

图7-111 选择Advanced Controller management

 

(4)     如图7-112所示,选择Manage Personality Mode,按Enter

图7-112 选择Manage Personality Mode

 

(5)     如图7-113所示,当前为RAID模式,如需切换到JBOD模式,则选择Switch to JBOD Mode,按Enter

图7-113 选择Switch to JBOD Mode

 

(6)     如图7-114所示,选择Confirm,使其Enabled,选择Yes,按Enter

注意

当切换存储控制卡模式为JBOD模式时,存储控制卡上的逻辑盘也可以一并切换至JBOD 模式,需要注意的是,当强制进行切换的时候,不支持的逻辑盘无法保留数据。因此推荐任何LSI存储控制卡切换模式前都先将硬盘状态切换为Unconfigued Good状态。以RAID-LSI-9560-LP-8i-4GB举例,RAID 5,RAID 6,RAID 50,RAID 60的逻辑盘无法切换为JBOD模式,具体以界面提示信息为准。

 

图7-114 模式切换前确认工作

 

(7)     如图7-115所示,存储控制卡模式已成功切换,选择OK,按Enter重启操作系统后即可应用配置。

图7-115 模式切换完成

 

14. 逻辑磁盘强制上线

当发生故障的硬盘数量超出逻辑磁盘容错方法可承受的范围,管理工具界面逻辑磁盘会显示为Offline状态,因此可以使用Place Drive Online功能使逻辑磁盘强制上线。

注意

使用此功能可能会改变逻辑磁盘中的数据,在执行Place Drive Online前需要进行评估是否执行该操作。

 

(1)     如图7-116所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter

图7-116 存储控制卡配置界面

 

(2)     进入如图7-117所示界面,选择Offline的逻辑磁盘,按Enter

图7-117 Vitrual Drive Management界面

 

(3)     进入如图7-118所示界面,选择View Associated Drives,按Enter

图7-118 选择View Associated Drives

 

(4)     进入如图7-119所示界面,选择Offline的成员盘,使其Enabled,选择View Drive Properties,按Enter

图7-119 选择View Drive Properties

 

(5)     进入如图7-120所示界面,选中Operation,按Enter,然后再选择Place Drive Online,按Enter

图7-120 选择Place Drive Online

 

(6)     进入如图7-121所示界面,选择Go,按Enter

图7-121 选择Go

 

(7)     进入图7-122所示界面,选择Confirm,使其Enabled,选择Yes,按Enter

图7-122 确认配置

 

(8)     进入如图7-123所示界面,完成Place Drive Online操作。

图7-123 完成Place Drive Online操作

 

15. 切换蜂鸣器设置

本功能用于启用或禁用蜂鸣器设置。

(1)     如图7-124所示,在存储控制卡配置界面选择Controller Management,按Enter

图7-124 存储控制卡配置界面

 

(2)     进入图7-125所示Controller Management界面,选择Advanced Controller Properties,按Enter

图7-125 Controller Management界面

 

(3)     进入图7-126所示Advanced Controller Properties界面,选中Alarm Control,按Enter,然后在弹出的对话框中选择Enabled/Disabled,按Enter完成开启/关闭蜂鸣器操作。

说明

LSI9560/9540已移除蜂鸣器,因此无Alarm Control选项。

 

图7-126 磁盘管理界面

 

16. 静音蜂鸣器报警

本功能用于静音蜂鸣器报警。

(1)     进入存储控制器管理界面。

图7-127所示,进入Advanced页签,并选择存储控制器(如:AVAGO MegaRAID<AVAGO MegaRAID SAS 9361-8i>,按Enter

图7-127 Advanced界面

 

(2)     进入图7-3所示界面,选择Slience Alarm,按Enter

图7-128 选择Slience Alarm

 

7.3  Legacy启动模式下配置RAID

本节介绍在Legacy启动模式下通过存储控制卡配置RAID的方法。关于进入BIOS界面和设置BIOS启动模式为Legacy的详细介绍,请参见BIOS用户指南中的对应章节。

说明

本章节介绍的存储控制卡中,仅LSI-9361系列存储控制卡支持在Legacy启动模式下进入存储控制卡配置界面配置RAID功能;其他型号的存储控制卡在Legacy启动模式下支持在post界面中,查看存储控制卡及其控制的物理盘和逻辑盘,但无法进入存储控制卡配置界面配置RAID功能。

 

7.3.1  初始功能配置

1. 进入存储控制卡配置界面

说明

不同BIOS版本的界面有所差异,本手册仅以其中一种BIOS版本举例,操作界面请以实际情况为准。

 

(1)     在BIOS启动过程中,出现如图7-129所示界面后,按Ctrl+R

图7-129 BIOS启动过程中根据提示按Ctrl+R

 

(2)     进入图7-130所示界面。请参考界面下边框处的按键操作提示,以实现在界面中导航和修改设置。

图7-130 LSI RAID管理界面

 

2. 切换磁盘状态

存储控制卡支持切换如下四种磁盘状态。

·     Unconfigured Good:表示该物理磁盘正常,可用于配置RAID或热备盘。

·     Unconfigured Bad:表示该物理盘已损坏或存在RAID残留信息,物理盘损坏时请更换;RAID信息残留时,请手动进行清除。

·     Hotspare:表示该物理磁盘为热备盘。

·     JBOD:Just a Bunch Of Disks,直通盘,不可用于配置RAID。

此处以Unconfigured Bad状态切换为Unconfigured Good状态举例。

(1)     如图7-131所示,在PD Mgmt界面选择待切换状态的磁盘,按F2

图7-131 选择待切换状态磁盘

 

(2)     进入图7-132所示界面,选择Make unconfigured good,按Enter完成切换磁盘状态操作。

图7-132 选择Make unconfigured good

 

3. 配置RAID

(1)     如图7-133所示,在VD Mgmt界面按F2,选择Create Virtual Drive

图7-133 选择Create Virtual Drive

 

(2)     进入图7-134所示界面,设置RAID级别,按Enter

图7-134 设置RAID级别

 

(3)     进入图7-135所示界面,选择用来配置RAID的磁盘,按Enter

图7-135 选择磁盘

 

(4)     进入图7-136所示界面,对Size与Name进行相应的设置,然后选择Advanced,按Enter

图7-136 设置RAID名称与容量大小

 

(5)     进入图7-137所示界面,设置相关参数(参数说明请参见表7-3),然后选择OK,按Enter

图7-137 设置高级参数

 

(6)     进入图7-138所示界面,选择OK,按Enter完成配置RAID操作。

图7-138 确认创建

 

(7)     选择待查看的RAID,按Enter,即可查看该RAID的详细信息(包括RAID名称、级别,所含磁盘信息等),如图7-139所示。

图7-139 查看RAID信息

 

7.3.2  常用功能配置

1. 配置热备盘

配置RAID后一般会配置热备盘来提高数据的安全性。可根据需要配置全局热备盘和专用热备盘。

说明

·     热备盘仅供存在冗余的RAID级别使用。

·     热备盘的容量要大于等于RAID最小成员盘的容量。

·     仅支持配置状态为Unconfigured Good的磁盘为热备盘。

 

·     配置全局热备盘

(1)     如图7-140所示,在PD Mgmt界面选择待配置为全局热备盘的磁盘,按F2

图7-140 选择待配置为全局热备盘的磁盘

 

(2)     进入图7-141所示界面,选择Make Global HS,按Enter完成配置全局热备盘操作。

图7-141 选择Make Global HS

 

(3)     返回到图7-142所示界面,选择热备盘可查看全局热备盘相关信息。

图7-142 查看全局热备盘信息

 

·     配置专用热备盘

说明

此处以创建RAID同时配置专用热备盘为例介绍操作过程。

 

(1)     在VD Mgmt管理界面按F2,选择Manage Ded.HS

(2)     进入图7-143所示界面,选择磁盘,选择Advanced,按Enter

图7-143 选择磁盘

 

(3)     进入图7-144所示界面,选择Configure HotSpare选项,选择OK,按Enter

图7-144 选择Configure HotSpare

 

(4)     进入图7-145所示界面,选择待配置为专用热备盘的磁盘,选择OK,按Enter完成配置专用热备盘操作。

图7-145 选择待配置为专用热备盘的磁盘

 

2. 删除RAID

本功能用于删除已损坏或难以满足需求的RAID。

(1)     如图7-146所示,在VD Mgmt界面选择待删除的逻辑磁盘,按F2

图7-146 选择待删除的逻辑磁盘

 

(2)     进入图7-147所示界面,选择Delete VD,按Enter

图7-147 选择Delete VD

 

(3)     进入图7-148所示界面,选择YES,按Enter完成删除RAID操作。

图7-148 确认删除

 

3. 定位磁盘位置

本功能通过点亮磁盘对应槽位的蓝色指示灯,方便您快速找到磁盘。

(1)     如图7-149所示,在PD Mgmt界面选择待定位的磁盘,按F2

图7-149 选择待定位的磁盘

 

(2)     进入图7-150所示界面,选择Locate-Start,完成磁盘定位操作。

图7-150 选择Locate-〉Start

 

说明

·     Locate-〉Start:开始磁盘定位操作。

·     Locate-〉Stop:停止定位磁盘操作。

 

4. 初始化逻辑磁盘

本功能用于初始化磁盘内部数据空间。

(1)     如图7-151所示,在VD Mgmt界面选择待初始化的磁盘,按F2

图7-151 选择待初始化的磁盘

 

(2)     进入图7-152所示界面,选择Initialization-Start FGI

图7-152 选择Initialization-〉Start FGI

 

说明

·     BGI:Backgroud Initialization,后台初始化,先将RAID的部分空间初始化用于写数据,其余空间在后台初始化。

·     FGI:Full Groud Initialization,全盘初始化,将RAID的所有空间进行初始化,初始化完成后才能进行写数据。

 

(3)     进入图7-153所示界面,选择YES,按Enter完成初始化磁盘操作。

图7-153 确认初始化

 

5. 擦除磁盘数据

本功能用于删除磁盘内部数据,包括擦除物理磁盘数据和逻辑磁盘数据。

·     擦除物理磁盘数据

(1)     如图7-154所示,在PD Mgmt界面选择待擦除的物理磁盘,按F2

图7-154 选择待擦除的物理磁盘

 

(2)     进入图7-155所示界面,选择擦除模式(建议使用缺省模式:Simple),按Enter

图7-155 选择擦除模式

 

(3)     进入图7-156所示界面,选择Yes,按Enter完成擦除物理磁盘数据操作。

图7-156 确认擦

 

说明

为避免磁盘故障,请勿在擦除物理磁盘数据期间进行其他操作。

 

·     擦除逻辑磁盘数据

(4)     如图7-157所示,在VD Mgmt界面选择待擦除的逻辑磁盘,按F2

图7-157 选择待擦除的逻辑磁盘

 

(5)     进入图7-158所示界面,选择擦除模式(建议使用缺省模式:Simple),按Enter

图7-158 选择擦除模式

 

(6)     进入图7-159所示界面,选择Yes,按Enter完成擦除逻辑磁盘数据操作。

图7-159 确认擦除

 

6. 扩容RAID

说明

LSI 9440&9460&9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。

 

本功能用于扩充RAID的容量来提升RAID的可用性,存储控制卡通过设置逻辑盘剩余容量比例来扩充RAID的容量。

(1)     如图7-160所示,在VD Mgmt界面选择待扩容的逻辑磁盘,按F2

图7-160 选择待扩容的逻辑磁盘

 

(2)     进入图7-161所示界面,选择Expand VD size,按Enter

图7-161 选择Expand VD size

 

(3)     进入图7-162所示界面,按照提示输入用于扩容的可用容量的比例,然后选择Resize,按Enter完成扩容RAID操作。

图7-162 输入用于扩容的可用容量的比例

 

7. 清除磁盘RAID信息

本功能用于清除磁盘中的RAID残留信息,使磁盘可重新用来配置RAID。

(1)     将磁盘状态Unconfigured Bad切换为Unconfigured Good,具体步骤请参见7.3.1  2. 切换磁盘状态

(2)     如图7-163所示,在Foreign View界面,选择存储控制卡,按F2,选择Foreign Config->Clear,按Enter

图7-163 选择Foreign Config->Clear

3.PNG

 

(3)     在弹出的图7-164所示对话框中,选择OK,按Enter完成清除磁盘RAID信息操作。

图7-164 确认清除

4.PNG

 

8. 隐藏RAID

本功能用于隐藏所选择的RAID。

进入如图7-165所示界面,选择Hide VD,按Enter

图7-165 隐藏RAID

 

9. 隐藏磁盘组

本功能用于隐藏磁盘组,磁盘组隐藏后,在该磁盘组上组建的所有逻辑盘在系统下均不可见。

进入如图7-166所示界面,选择Hide Drive Group,按Enter

图7-166 隐藏磁盘组

 

10. 配置启动项

(1)     如图7-167所示,在Ctrl Mgmt界面,在Boot device选择栏选择将要配置为第一启动项的硬盘或逻辑盘,按Enter

图7-167 配置启动项

 

(2)     如图7-168所示选择APPLY,按Enter,完成启动项配置。

图7-168 完成配置

 

7.4  下载和安装StorCLI工具

本节介绍OS命令行工具的下载和安装步骤。OS命令行工具可在服务器正常运行中对RAID卡进行操作,无需重启服务器。

7.4.1  下载工具

(1)     登录https://www.h3c.com/cn/BizPortal/DownLoadAccessory/DownLoadAccessoryFilt.aspx

(2)     按照提示信息下载对应存储控制卡的固件安装包及版本说明书。

(3)     解压固件安装包后得到适用于不同操作系统的StorCLI工具包。

7.4.2  安装工具

请参考固件版本说明书安装不同操作系统下的StorCLI工具。

7.5  OS命令行工具常用命令

本节介绍OS命令行工具常用命令的使用方法及示例。OS命令行工具可在服务器正常运行中对RAID卡进行操作,无需重启服务器。

说明

本工具涉及指定路径相关的命令均不支持空格和特殊字符。

 

7.5.1  查询存储控制卡信息

查询LSI存储控制卡的基本信息。

【命令】

storcli64 /ccontroller_id show [logfile=logfilename]

storcli64 /ccontroller_id show all [logfile=logfilename]

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。all:表示查询该工具可管理的所有存储控制卡信息。

logfilename:导出的查询信息文件名。

【举例】

#查询存储控制卡的基本信息。

[root@localhost ~]# storcli64 /c0 show

Generating detailed summary of the adapter, it may take a while to complete.

 

CLI Version = 007.2408.0000.0000 Nov 15, 2022

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

Product Name = MegaRAID 9560-8i 4GB

Serial Number = SK01065334

SAS Address =  500062b2024fe0c0

PCI Address = 00:4b:00:00

System Time = 11/09/2023 14:38:46

Mfg. Date = 03/04/20

Controller Time = 11/09/2023 06:38:47

FW Package Build = 52.24.0-4763

BIOS Version = 7.24.01.0_0x07180100

FW Version = 5.240.02-3768

Driver Name = megaraid_sas

Driver Version = 07.726.02.00

Current Personality = RAID-Mode

Vendor Id = 0x1000

Device Id = 0x10E2

SubVendor Id = 0x1000

SubDevice Id = 0x4010

Host Interface = PCI-E

Device Interface = SAS-12G

Bus Number = 75

Device Number = 0

Function Number = 0

Domain ID = 0

Security Protocol = None

Drive Groups = 1

 

TOPOLOGY :

========

 

-----------------------------------------------------------------------------

DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace TR

-----------------------------------------------------------------------------

 0 -   -   -        -   RAID1 Optl  N  893.750 GB dflt N  N   none N      N

 0 0   -   -        -   RAID1 Optl  N  893.750 GB dflt N  N   none N      N

 0 0   0   249:0    31  DRIVE Onln  N  893.750 GB dflt N  N   none -      N

 0 0   1   249:1    30  DRIVE Onln  N  893.750 GB dflt N  N   none -      N

-----------------------------------------------------------------------------

 

DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID

DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Optl=Optimal|Dgrd=Degraded

Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active

PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign

DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present

TR=Transport Ready

 

Virtual Drives = 1

 

VD LIST :

=======

 

---------------------------------------------------------------

DG/VD TYPE  State Access Consist Cache Cac sCC       Size Name

---------------------------------------------------------------

0/235 RAID1 Optl  RW     No      RWBD  -   ON  893.750 GB

---------------------------------------------------------------

 

VD=Virtual Drive| DG=Drive Group|Rec=Recovery

Cac=CacheCade|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded

Optl=Optimal|dflt=Default|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady

B=Blocked|Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack

AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled

Check Consistency

 

JBOD Drives = 12

 

JBOD LIST :

=========

 

---------------------------------------------------------------------------------------

ID EID:Slt DID State Intf Med     Size SeSz Model                Vendor   Port

---------------------------------------------------------------------------------------

 4 249:4    32 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

 5 249:5     9 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

 6 249:6     1 Onln  SAS  HDD 7.277 TB 512B HUS728T8TAL5204      HGST     C0.0 & C0.1

 7 249:7    33 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

 8 249:8    16 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

 9 249:9    22 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

10 249:10   17 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

11 249:11   11 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

12 249:12   20 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

13 249:13   13 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

14 249:14   12 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

15 249:15   21 Onln  SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA      C0.0 & C0.1

---------------------------------------------------------------------------------------

 

ID=JBOD Target ID|EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|Onln=Online

Offln=Offline|Intf=Interface|Med=Media Type|SeSz=Sector Size

SED=Self Encryptive Drive|PI=Protection Info|Sp=Spun|U=Up|D=Down

 

Physical Drives = 14

 

PD LIST :

=======

 

---------------------------------------------------------------------------------------

EID:Slt DID State DG       Size Intf Med SED PI SeSz Model                     Sp Type

---------------------------------------------------------------------------------------

249:0    31 Onln   0 893.750 GB SATA SSD N   N  512B Micron_5300_MTFDDAK960TDS U  -

249:1    30 Onln   0 893.750 GB SATA SSD N   N  512B Micron_5300_MTFDDAK960TDS U  -

249:4    32 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:5     9 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:6     1 Onln   -   7.277 TB SAS  HDD N   N  512B HUS728T8TAL5204           U  JBOD

249:7    33 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:8    16 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:9    22 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:10   17 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:11   11 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:12   20 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:13   13 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:14   12 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

249:15   21 Onln   -   7.277 TB SATA HDD N   N  512B HGST HUS728T8TALE6L4      U  JBOD

---------------------------------------------------------------------------------------

 

EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|DG=DriveGroup

DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare

UBad=Unconfigured Bad|Sntze=Sanitize|Onln=Online|Offln=Offline|Intf=Interface

Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info

SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign

UGUnsp=UGood Unsupported|UGShld=UGood shielded|HSPShld=Hotspare shielded

CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded

UBUnsp=UBad Unsupported|Rbld=Rebuild

 

Enclosures = 1

 

Enclosure LIST :

==============

 

-----------------------------------------------------------------------------

EID State Slots PD PS Fans TSs Alms SIM Port#          ProdID VendorSpecific

-----------------------------------------------------------------------------

249 OK       28 14  0    1   7    0   0 C0.0 & C0.1 x8 Cub    exp-2.1.1.0

-----------------------------------------------------------------------------

 

EID=Enclosure Device ID | PD=Physical drive count | PS=Power Supply count

TSs=Temperature sensor count | Alms=Alarm count | SIM=SIM Count | ProdID=Product ID

 

 

Cachevault_Info :

===============

 

------------------------------------

Model  State   Temp Mode MfgDate

------------------------------------

CVPM05 Optimal 27C  -    2019/09/18

------------------------------------

 

#查询存储控制卡的所有信息,并保存到指定文件。

[root@localhost ~]# storcli64 /c0 show all logfile=logfile.txt

7.5.2  切换存储控制卡模式

切换存储控制卡的工作模式。

【命令】

storcli64 /ccontroller_id set personality =mode

【缺省情况】

默认存储控制卡工作在RAID模式。

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

mode:可选参数如下:

·     raid:切换存储控制卡到RAID模式。

·     jbod:切换存储控制卡到JBOD模式。

【注意事项】

·     使用此命令行前,请确保存储控制卡的固件为最新版本,较低版本可能不支持JBOD模式。

·     使用此命令行前,请确保存储控制卡控制的硬盘均为Unconfigured Good状态。

·     使用此命令行后,需要重启操作系统后方能生效。

【举例】

#切换存储控制卡模式为JBOD。

[root@localhost home]# ./storcli64 /c0 set personality=jbod

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

------------------------------------------------------------------------

Ctrl_Prop       Value

------------------------------------------------------------------------

Set Personality JBOD (Reboot the system for the change to take effect.)

------------------------------------------------------------------------

7.5.3  更新固件

升级、降级或平级更新存储控制卡的固件。

【命令】

固件升级:

storcli64 /ccontroller_id download file= fw_file

固件降级或者平级更新:

storcli64 /ccontroller_id download file= fw_file noverchk

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准;

fw_file:固件文件。

noverchk:降级或平级更新存储控制卡固件时,不检查固件镜像的版本。

【注意事项】

若存储控制卡固件文件不再当前路径下,则需要在fw_file前加上文件的绝对路径。

【举例】

#更新存储控制卡固件。

[root@localhost home]# ./storcli64 /c0 download file=MR_4MB.rom noverchk

Download Completed.

Flashing image to adapter...

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = F/W Flash Completed. Please reboot the system for the changes to take effect

7.5.4  创建和删除RAID

创建和删除RAID。

【命令】

创建RAID:storcli64 /ccontroller_id add vd rraid_level  [size=<vd1_size>,..] [name=<vdname1>,..] drives= vd_drives [pdperarray= pdperarraynum] [pdcache=pdcache_policy] [pi] [wt|wb|awb] [nora|ra] [strip=strip_size] [emulationtype=emulationtype] [spares =spares_drives]

删除RAID:storcli64  /ccontroller_id/vraid_id del

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_level :RAID级别,可选0|1|5|6|00|10|50|60。

vd1_size :RAID容量设定值,单位gb,输入all代表可用全容量组建。

vdname1 :逻辑盘命名。

vd_drives :选择成员盘,格式为enclosure_id:slot_id,enclosure_id为所在Enclosure的id,slot_id为目标成员盘的slot id。

pdperarraynum:符合RAID(10|50|60)级别时需要确定子组中的硬盘数。

pdcache_policy :成员盘的缓存设定,可选on|off|default,default代表默认硬盘当前的缓存状态,不做修改。

pi:开启数据保护。

wt|wb|awb:writecache写缓存策略也,可选wt(write through当数据落盘后告知系统传输完成)、wb(write back当数据写入控制卡cache即告知系统传输完成)、awb(always write back在没有超级电容保护时,强制使用wb,主机遇异常掉电会有数据丢失风险)。

nora|rareadcache读缓存策略,ra当从RAID中读取数据时,会把周边数据同时读出存在cache中,用户随后访问这些数据时可以直接从cache中读取,减少磁盘寻道时间,提升读取性能。

strip_size:条带大小,MR卡可选 8|16|32|64|128|256|512|1024,iMR卡仅支持64。本文支持的卡中,仅HBA-LSI-9440-8i卡为iMR卡。

emulationtype:可选0|1|2,0是默认值,当成员盘中有512e的盘,扇区大小就会显示512e,否则显示为512n、1表示如果成员盘中没有512e的盘,扇区大小显示为512n、2表示即使成员盘中没有512e的盘,扇区大小也会显示为512e。

spares_drives:热备盘,取值格式参照vd_drives,格式为enclosure_id:slot_id。

raid_id:待删除RAID的ID,可通过./storcli64 /c0/vall show查看RAID的id值。配置为all时删除全部RAID。

【注意事项】

RAID成员盘输入时,slot值之间以逗号分隔,slot连续的成员盘,可用‘-’连接。

【举例】

#创建RAID 1。

[root@localhost home]# ./storcli64 /c0 add vd r1 size=all drives=2:8,23

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Add VD Succeeded

 

[root@localhost home]# ./storcli64 /c0/v0 del

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Delete VD succeeded

7.5.5  定位物理盘

对指定物理盘执行定位点灯和灭灯操作。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id  action locate

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id,可选all点亮所有enclosure下的硬盘定位灯。

slot_id:物理硬盘slot槽位编号,可选all点亮enclosure下所有硬盘定位灯。

action:需要执行的操作,包括如下两种:

·     start:点亮硬盘指示灯。

·     stop:熄灭硬盘指示灯。

 

【举例】

#点亮硬盘指示灯。

[root@localhost home]# ./storcli64 /c0/e2/s8 start locate

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Start Drive Locate Succeeded.

 

#熄灭硬盘指示灯。

[root@localhost home]# ./storcli64 /c0/e2/s8 stop locate

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Stop Drive Locate Succeeded.

7.5.6  查看JBOD状态

查看存储控制卡JBOD功能处于开启或关闭状态。

【命令】

storcli64 /ccontroller_id jbod

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

【举例】

#查看JBOD状态。

[root@localhost home]# ./storcli64 /c0 show jbod

CLI Version = 007.1316.0000.0000 Mar 12, 2020

Operating system = Linux 3.10.0-862.el7.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

----------------

Ctrl_Prop Value

----------------

JBOD      ON

----------------

7.5.7  设置RAID卡JBOD功能

设置RAID模式下的JBOD开关。

【命令】

storcli64 /ccontroller_id set jbod=mode

【缺省情况】

RAID模式下的JBOD默认为关闭状态

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

mode:JBOD模式配置,可选参数如下:

·     on:开启JBOD。

·     off:关闭JBOD。

【注意事项】

RAID模式下的JBOD开关,仅9361/9460/9440或同系列的卡支持。

【举例】

#开启JBOD。

[root@localhost home]# ./storcli64 /c0 set jbod=on

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

----------------

Ctrl_Prop Value

----------------

JBOD      ON

----------------

 

#关闭JBOD。

[root@localhost home]# ./storcli64 /c0 set jbod=off

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

----------------

Ctrl_Prop Value

----------------

JBOD      OFF

----------------

7.5.8  切换硬盘状态

切换硬盘状态(JBOD和Unconfigured Good)。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]

storcli64 /ccontroller_id/eenclosure_id/sslot_id set jbod

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

【注意事项】

硬盘状态由UG切换至JBOD时,先确认一下RAID卡JBOD选项是否打开,如未打开需在切换前打开JBOD开关。

【举例】

#切换硬盘状态为Unconfigured Good。

[root@localhost home]# ./storcli64 /c0/e2/s8 set good force

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Set Drive Good Succeeded.

#切换硬盘状态为JBOD。

[root@localhost home]# ./storcli64 /c0/e2/s8 set jbod

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Set Drive JBOD Succeeded.

7.5.9  检查硬盘信息

检查硬盘基本信息。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id  show [all]

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

【举例】

[root@localhost home]# ./storcli64 /c0/e2/s8 show

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Show Drive Information Succeeded.

 

 

Drive Information :

=================

 

-------------------------------------------------------------------------------

EID:Slt DID State DG     Size Intf Med SED PI SeSz Model               Sp Type

-------------------------------------------------------------------------------

2:8      39 JBOD  -  5.458 TB SATA HDD N   N  512B ST6000NM0115-1YZ110 U  -

-------------------------------------------------------------------------------

 

EID=Enclosure Device ID|Slt=Slot No.|DID=Device ID|DG=DriveGroup

DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare

UBad=Unconfigured Bad|Onln=Online|Offln=Offline|Intf=Interface

Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info

SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign

UGUnsp=Unsupported|UGShld=UnConfigured shielded|HSPShld=Hotspare shielded

CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded

UBUnsp=UBad Unsupported

7.5.10  导入导出RAID配置

保存当前RAID卡的配置、恢复或在其他卡上导入此配置。

【命令】

storcli64 /ccontroller_id get config file=filename

storcli64 /ccontroller_id set config file=filename

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

filename:配置文件名称。

【注意事项】

此功能操作的前提是,服务器环境必须完全一致。

【举例】

#导出配置。

[root@localhost home]# ./storcli64 /c0 get config file=conf.txt

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Config data is saved to the file

#导入配置。

[root@localhost home]# ./storcli64 /c0 set config file=conf.txt

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Config data is restored to the adapter

7.5.11  扩容RAID

增大目标RAID的容量。

【命令】

storcli64 /ccontroller_id/vraid_id expand size=target_size

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_id:待扩容的RAID ID。

target_size:待设置的容量值。

【注意事项】

LSI 9440&9460&9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。

【举例】

#增大指定RAID 20Gb容量。

[root@localhost home]# ./storcli64 /c0/v0 expand size=20gb

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = expansion operation succeeded

 

 

EXPANSION RESULT :

================

 

----------------------------------------------------------------------------

VD      Size FreSpc   ReqSize   AbsUsrSz  %FreSpc NewSize   Status NoArrExp

----------------------------------------------------------------------------

 0 10.000 GB 1.808 TB 20.000 GB 37.049 GB       2 47.049 GB -      1.808 TB

----------------------------------------------------------------------------

 

Size - Current VD size|FreSpc - Freespace available before expansion

%FreSpc - Requested expansion size in % of available free space

AbsUsrSz - User size rounded to nearest %

7.5.12  迁移RAID级别

在不影响数据完整性的情况下,对RAID级别进行修改。

【命令】

storcli64 /ccontroller_id/vraid_id start migrate type=raidx option=operation drives= vd_drives  force

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_id:待扩容的RAID ID。

raidx:目标RAID级别。

vd_drives :选择成员盘,格式为enclosure_id:slot_id,enclosure_id为所在Enclosure的id,slot_id为目标成员盘的slot id。

operation :选择增加或移除成员盘,可选add或remove。

【注意事项】

LSI 9440&9460&9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。

【举例】

[root@localhost home]# ./storcli64 /c0/v0 start migrate type=raid5 option=add drives=2:11

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Start Reconstruction Operation Success

 

[root@localhost home]# ./storcli64 /c0/v0 start migrate type=raid0 option=remove drives=2:9

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Start Reconstruction Operation Success

7.5.13  管理外部配置

导入或清除外部配置。

【命令】

storcli64 /ccontroller_id/fall operation

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

operation:可选操作如下:

·     import:导入外部配置。

·     del:清除外部配置。

【注意事项】

多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

【举例】

#导入外部配置。

[root@localhost home]# ./storcli64 /c0/fall import

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Successfully imported foreign configuration

 

#清除外部配置。

[root@localhost home]# ./storcli64 /c0/fall del

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Successfully deleted foreign configuration

7.5.14  设置热备盘

为冗余RAID添加热备盘。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive dgs=drive_group

storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive

【缺省情况】

add hotspare后不指定dgs默认为添加全局热备。

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

drive_group:磁盘组ID。

【注意事项】

·     多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

·     热备盘需要与原来RAID的成员盘接口协议一致,且容量大于等于原有RAID成员盘。

【举例】

#增加全局热备。

[root@localhost home]# ./storcli64 /c0/e2/s11 add hotsparedrive

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Add Hot Spare Succeeded.

 

#增加局部热备。

[root@localhost home]# ./storcli64 /c0/e2/s8 add hotsparedrive dgs=0

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Add Hot Spare Succeeded.

 

#删除热备盘。

[root@localhost home]# ./storcli64 /c0/e2/s8 delete hotsparedrive

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Delete Hot Spare Succeeded.

7.5.15  收集日志

将存储控制卡的日志信息导出到日志文件。Snapdump文件是一个日志文件,在一些RAID控制卡异常场景下可以自动生成的日志,也可以主动获取当前RAID控制卡的snapdump日志。

【命令】

storcli /ccontroller_id show all logfile=logfilename

storcli /ccontroller_id show snapdump

storcli /ccontroller_id get snapdump

storcli /ccontroller_id get snapdump id=all

storcli /ccontroller_id get snapdump id=snapdump_id file= logfilename

storcli /ccontroller_id show alilog logfile=logfilename

storcli /ccontroller_id show events logfile=logfilename

storcli /ccontroller_id show termlog logfile=logfilename

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 show命令实际查询结果为准。

snapdump_id:snapdump日志ID。

logfilename:指定要在其中写入SnapDump数据的 zip 格式的文件。

【注意事项】

·     生成SnapDump数据是一项资源密集型操作,可能会导致I/O超时。因此,两个连续的get SnapDump请求之间应至少间隔10分钟。

·     LSI9440-8i(所有固件版本)/LSI9540-8i(52.26.0-5014以下固件版本)仅支持1个snapdump,每次执行storcli /ccontroller_id get snapdump都会覆盖控制器上已存在snapdump数据;出现问题后应先立即执行storcli /ccontroller_id show snapdump查询是否已自动生成snapdump;若已自动生成,则应该使用storcli /ccontroller_id get snapdump id=allstorcli /ccontroller_id get snapdump id=snapdump_id file= logfilename命令下载snapdump数据;若未生成,则才应该使用storcli /ccontroller_id get snapdump触发控制器立即生成新的snapdump数据。

·     阵列卡模式切换,固件更新动作会丢弃DDR和flash上的所有Snapdump数据。

表7-4 Snapdump支持情况

存储控制卡型号

Snapdump支持情况

备注

LSI9361-8i

不支持

·     /

LSI9440-8i

支持

·     snapdump数据保存在flash。

·     仅支持1个snapdump。

LSI9460-8i

支持

·     snapdump数据保存在DDR。

·     若超级电容在位,四次及以内的重启,可以保留snapdump数据。

·     若超级电容不在位,重启后snapdump即丢失。

LSI9460-16i

支持

·     snapdump数据保存在高速缓存。

·     若超级电容在位,四次及以内的重启,可以保留snapdump数据。

·     若超级电容不在位,重启后snapdump即丢失。

LSI9540-8i

支持

·     snapdump数据保存在flash。

·     52.26.0-5014以下固件版本仅支持1个snapdump。

LSI9560-8i

支持

snapdump数据保存在flash。

LSI9560-16i

支持

snapdump数据保存在flash。

 

【举例】

#查询显示控制器的全部信息,将信息打印到文本文件并将该文件保存在指定位置。

[root@localhost home]# storcli64 /c0 show all logfile=/log/showall.txt

 

#查询控制器当前snapdump属性和控制器上存在的snapdump数据信息。

[root@localhost home]# storcli64 /c0 show snapdump

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = None

 

 

SnapDump Properties :

===================

 

-----------------------------------------

Ctrl_Prop                     Value

-----------------------------------------

Snapdump                      ON

Snapdump Save Count           N/A

Snapdump Delay OCR            15

Snapdump properties           Read-Write

Snapdump Preboot Trace Buffer ON

Snapdump Current Count        1

-----------------------------------------

 

 

SnapDump Details :

================

 

----------------------------------------------

ID Snapdump Size Snapdump time       OnDemand

----------------------------------------------

 0       2492649 09-15-2023 11:43:26 Yes

----------------------------------------------

   

#未指定提供ID,将触发控制器生成新的snapdump数据并同时下载控制器上所有已存在的SnapDump数据。

[root@localhost home]# storcli64 /c0 get snapdump

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = Download Support Log

 

 

Snapdump :

========

 

---------------------------------------

Ctrl Status  Ctrl_Prop    ErrCd ErrMsg

---------------------------------------

   0 Success Get Snapdump     0 -

---------------------------------------

 

#下载控制器上所有已存在的SnapDump数据,使用此命令,CLI将按特定格式构建文件名,如下所示:

snapdump_c#(controller_id)_id#(snapdump_id)_年_月_日_小时_分钟_秒.zip。

[root@localhost home]# /opt/MegaRAID/storcli/storcli64 /c0 get snapdump id=all

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 3.10.0-1160.el7.x86_64

Controller = 0

Status = Success

Description = None

 

 

Snapdump :

========

 

---------------------------------------

Ctrl Status  Ctrl_Prop    ErrCd ErrMsg

---------------------------------------

   0 Success Get Snapdump     0 -

---------------------------------------

 

#指定SnapDump ID,并将SnapDump数据写入指定的文件。如果文件已存在,它将被截断(truncating),并添加新的信息

[root@localhost home]# storcli64 /c0 get snapdump id=0 file=snapdump.zip

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = None

 

 

Snapdump :

========

 

---------------------------------------

Ctrl Status  Ctrl_Prop    ErrCd ErrMsg

---------------------------------------

   0 Success Get Snapdump     0 -

---------------------------------------

 

#将alilog日志打印到文本文件并将该文件保存在指定位置。

[root@localhost home]# ./storcli64 /c0 show alilog logfile=/log/alilog.txt

 

#将events日志打印到文本文件并将该文件保存在指定位置。

[root@localhost home]# storcli64 /c0 show events logfile=/log/events.txt

 

#将termlog日志打印到文本文件并将该文件保存在指定位置。

[root@localhost home]# storcli64 /c0 show termlog logfile=/log/termlog.txt

7.5.16  管理日志

查询和清除存储控制卡的日志。

【命令】

storcli64 /ccontroller_id show termlog

storcli64 /ccontroller_id show events

storcli64 /ccontroller_id show snapdump

storcli64 /ccontroller_id delete termlog

storcli64 /ccontroller_id delete events

storcli64 /ccontroller_id delete snapdump force

storcli64 /ccontroller_id set snapdump state=on|off

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 show命令实际查询结果为准。

【举例】

#查询TTY日志。

[root@localhost home]# ./storcli64 /c0 show termlog

Firmware Term Log Information on controller 0:

03/13/22  9:12:37: C0:TTY History buffer cleared

 

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

#查询事件日志。

[root@localhost home]# ./storcli64 /c0 show events

 

 

seqNum: 0x00079e17

Time: Sun Mar 13 09:13:18 2022

 

Code: 0x0000001e

Class: 0

Locale: 0x20

Event Description: Event log cleared

Event Data:

===========

None

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

Events = GETEVENTS

 

Controller Properties :

=====================

 

------------------------------------

Ctrl Status  Method          Value

------------------------------------

   0 Success handleSuboption Events

------------------------------------

 

#查询控制器当前snapdump属性和控制器上存在的snapdump数据信息。

[root@localhost 0920]# storcli64 /c0 show snapdump

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = None

 

 

SnapDump Properties :

===================

 

-----------------------------------------

Ctrl_Prop                     Value

-----------------------------------------

Snapdump                      ON

Snapdump Save Count           N/A

Snapdump Delay OCR            15

Snapdump properties           Read-Write

Snapdump Preboot Trace Buffer ON

Snapdump Current Count        2

-----------------------------------------

 

 

SnapDump Details :

================

 

----------------------------------------------

ID Snapdump Size Snapdump time       OnDemand

----------------------------------------------

 0       1643485 09-19-2023 07:03:58 Yes

 1       2499469 09-20-2023 06:48:47 Yes

----------------------------------------------

 

#清除TTY日志中的所有记录。

[root@localhost home]# ./storcli64 /c0 delete termlog

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

----------------------------

Ctrl Method Result

----------------------------

   0 Delete Termlog deleted

----------------------------

 

#清除事件日志中的所有记录。

[root@localhost home]# ./storcli64 /c0 delete events

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

---------------------------------

Ctrl Status  Method       Value

---------------------------------

   0 Success DeleteEvents Events

---------------------------------

 

#清除所有Snapdump数据。

[root@localhost 0920]# storcli64 /c0 delete snapdump force

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = Snapdump delete

 

#关闭Snapdump功能。

[root@localhost ~]# storcli64 /c0 set snapdump state=off

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

-------------------

Ctrl_Prop    Value

-------------------

Set Snapdump off

-------------------

 

 

#开启Snapdump功能。

[root@localhost ~]# storcli64 /c0 set snapdump state=on

CLI Version = 007.2612.0000.0000 June 13, 2023

Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

-------------------

Ctrl_Prop    Value

-------------------

Set Snapdump on

-------------------

 

7.5.17  设置RAID缓存

调整RAID读写缓存设置。

【命令】

storcli64 /ccontroller_id/vraid_id set wrcache={wt|wb|awb}

storcli64 /ccontroller_id/vraid_id set rdcache={ra|nora}

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_id:目标RAID ID。

{wt|wb|awb}:可选wt(write through当数据落盘后告知系统传输完成)、wb(write back当数据写入控制卡cache即告知系统传输完成)、awb(always write back在没有超级电容保护时,强制使用wb,主机遇异常掉电会有数据丢失风险)。

{ra|nora}:ra当从RAID中读取数据时,会把周边数据同时读出存在cache中,用户随后访问这些数据时可以直接从cache中读取,减少磁盘寻道时间,提升读取性能。

【注意事项】

多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

【举例】

[root@localhost home]# ./storcli64 /c0/v0 set wrcache=awb

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

Detailed Status :

===============

 

---------------------------------------

VD Property Value Status  ErrCd ErrMsg

---------------------------------------

 0 wrCache  AWB   Success     0 -

---------------------------------------

 

[root@localhost home]# ./storcli64 /c0/v0 set rdcache=nora

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

Detailed Status :

===============

 

---------------------------------------

VD Property Value Status  ErrCd ErrMsg

---------------------------------------

 0 rdCache  NoRA  Success     0 -

---------------------------------------

7.5.18  设置RAID访问策略

设置RAID的读写访问权限。

【命令】

storcli64 /ccontroller_id/vraid_id set accesspolicy={rw|ro| blocked}

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_id:目标RAID ID。

{rw|ro| blocked}:访问策略,rw为可读写、ro为只读、blocked为无法访问。

【注意事项】

多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

【举例】

#设置访问策略为只读。

[root@localhost home]# ./storcli64 /c0/v0 set accesspolicy=rw

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

Detailed Status :

===============

 

----------------------------------------

VD Property  Value Status  ErrCd ErrMsg

----------------------------------------

 0 AccPolicy RW    Success     0 -

----------------------------------------

7.5.19  设置RAID成员盘读写缓存

设置RAID成员盘的读写缓存。

【命令】

storcli64 /ccontroller_id/vraid_id set pdcache= pdcache_policy

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_id:目标RAID ID。

pdcache_policy :可选on|off|default,default代表默认硬盘当前的缓存状态,不做修改。

【注意事项】

多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

【举例】

#关闭读写缓存。

[root@localhost home]# ./storcli64 /c0/v0 set pdcache=off

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

Detailed Status :

===============

 

---------------------------------------

VD Property Value Status  ErrCd ErrMsg

---------------------------------------

 0 PdCac    Off   Success     0 -

7.5.20  查看RAID成员盘的缓存状态

查看RAID成员盘的缓存状态。

【命令】

storcli64 /ccontroller_id / eenclosure_id/sslot_id show all

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

【注意事项】

·     多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

·     LSI-9361使用本命令查询硬盘会显示Write Cache = N/A。

【举例】

#查看RAID成员盘的缓存状态。

[root@localhost ~]# storcli64 /c1 /e252/s10 show all

CLI Version = 007.1705.0000.0000 Mar 31, 2021

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 1

Status = Success

Description = Show Drive Information Succeeded.

 

 

Drive /c1/e252/s10 :

==================

 

---------------------------------------------------------------------------------

EID:Slt DID State DG       Size Intf Med SED PI SeSz Model               Sp Type

---------------------------------------------------------------------------------

252:10   20 Onln   0 893.750 GB SATA SSD N   N  512B INTEL SSDSC2KB960G8 U  -

---------------------------------------------------------------------------------

 

EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|DG=DriveGroup

DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare

UBad=Unconfigured Bad|Sntze=Sanitize|Onln=Online|Offln=Offline|Intf=Interface

Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info

SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign

UGUnsp=UGood Unsupported|UGShld=UGood shielded|HSPShld=Hotspare shielded

CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded

UBUnsp=UBad Unsupported|Rbld=Rebuild

 

 

Drive /c1/e252/s10 - Detailed Information :

=========================================

 

Drive /c1/e252/s10 State :

========================

Shield Counter = 0

Media Error Count = 0

Other Error Count = 0

Drive Temperature =  36C (96.80 F)

Predictive Failure Count = 0

S.M.A.R.T alert flagged by drive = No

 

 

Drive /c1/e252/s10 Device attributes :

====================================

SN = PHYF832001H8960CGN

Manufacturer Id = ATA

Model Number = INTEL SSDSC2KB960G8

NAND Vendor = NA

WWN = 55CD2E414FA85A2E

Firmware Revision = XCV10120

Raw size = 894.252 GB [0x6fc81ab0 Sectors]

Coerced size = 893.750 GB [0x6fb80000 Sectors]

Non Coerced size = 893.752 GB [0x6fb81ab0 Sectors]

Device Speed = 6.0Gb/s

Link Speed = 6.0Gb/s

NCQ setting = Enabled

Write Cache = Enabled

Logical Sector Size = 512B

Physical Sector Size = 4 KB

Connector Name = C1.0 x1

 

 

Drive /c1/e252/s10 Policies/Settings :

====================================

Drive position = DriveGroup:0, Span:0, Row:0

Enclosure position = 1

Connected Port Number = 11(path0)

Sequence Number = 10

Commissioned Spare = No

Emergency Spare = No

Last Predictive Failure Event Sequence Number = 0

Successful diagnostics completion on = N/A

FDE Type = None

SED Capable = No

SED Enabled = No

Secured = No

Cryptographic Erase Capable = Yes

Sanitize Support = CryptoErase, OverWrite, BlockErase

Locked = No

Needs EKM Attention = No

PI Eligible = No

Certified = No

Wide Port Capable = No

Unmap capable = Yes

Unmap capable for LDs = No

Multipath = No

 

Port Information :

================

 

-----------------------------------------

Port Status Linkspeed SAS address

-----------------------------------------

   0 Active 6.0Gb/s   0x300062b20c75204a

-----------------------------------------

 

 

Inquiry Data =

40 00 ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00

00 00 00 00 48 50 46 59 33 38 30 32 31 30 38 48

36 39 43 30 4e 47 20 20 00 00 00 00 00 00 43 58

31 56 31 30 30 32 4e 49 45 54 20 4c 53 53 53 44

32 43 42 4b 36 39 47 30 20 38 20 20 20 20 20 20

20 20 20 20 20 20 20 20 20 20 20 20 20 20 01 80

00 40 00 2f 00 40 00 00 00 00 06 00 ff 3f 10 00

3f 00 10 fc fb 00 01 fd ff ff ff 0f 00 00 07 00

 

7.5.21  擦除物理盘数据

执行、查询和停止擦除物理盘动作。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode

storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

mode:可选simple|normal|thorough,分别对硬盘进行一遍|三遍|九遍擦除。

【注意事项】

多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

【举例】

#执行物理盘数据1遍擦除。

[root@localhost home]# ./storcli64 /c0/e2/s11 start erase simple

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Start Drive Erase Succeeded.

 

#查看擦除进程。

[root@localhost home]# ./storcli64 /c0/e2/s11 show erase

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Show Drive Erse Status Succeeded.

------------------------------------------------------

Drive-ID Progress% Status Estimated Time Left

------------------------------------------------------

/c0/e2/s11 0 In progress 0 Seconds

------------------------------------------------------

 

#停止擦除物理盘数据。

[root@localhost home]# ./storcli64 /c0/e2/s11 stop erase

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Stop Drive Erase Succeeded.

7.5.22  查询超级电容信息

查询控制卡超级电容信息。

【命令】

storcli64 /ccontroller_id/cv show all

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

【举例】

[root@localhost ~]# storcli64 /c0/cv show all

CLI Version = 007.1705.0000.0000 Mar 31, 2021

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Cachevault_Info :

===============

 

--------------------

Property    Value

--------------------

Type        CVPM05

Temperature 25 C

State       Optimal

--------------------

 

 

Firmware_Status :

===============

 

---------------------------------------

Property                         Value

---------------------------------------

NVCache State                    OK

Replacement required             No

No space to cache offload        No

Module microcode update required No

---------------------------------------

 

 

GasGaugeStatus :

==============

 

------------------------------

Property                Value

------------------------------

Pack Energy             319 J

Capacitance             100 %

Remaining Reserve Space 0

------------------------------

 

 

Design_Info :

===========

 

------------------------------------

Property                 Value

------------------------------------

Date of Manufacture      18/09/2019

Serial Number            21428

Manufacture Name         LSI

Design Capacity          374 J

Device Name              CVPM05

tmmFru                   N/A

CacheVault Flash Size    8.187 GB

scapBatversionNo         0x00

scapSerialNo             0x53b4

scap Date of Manufacture 18/09/2019

scapPcbAssmNo            50046-01

scapPCBversionNo          B

scapBatPackAssmNo        49571-222

Module Version           07251-01

------------------------------------

 

 

Properties :

==========

 

---------------------------------------------------------------------

Property                   Value

---------------------------------------------------------------------

Auto Learn Period          27d (2412000 seconds)

Next Learn time            2022/07/18  21:59:20 (711496760 seconds)

Learn Delay Interval       0 hour(s)

Auto-Learn Mode            Transparent

Last Successful Learn Time Completed, MON, June 20, 2022 at 23:59:20

---------------------------------------------------------------------

7.5.23  手动离线和上线物理盘

对物理盘执行手动离线和上线。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id set mode

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

mode:可选offline或online。offline为离线,online为上线。

【举例】

#手动离线物理盘。

[root@localhost home]# ./storcli64 /c0/e2/s23 set offline

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Set Drive Offline Succeeded.

 

#手动上线物理盘。

[root@localhost home]# ./storcli64 /c0/e2/s23 set online

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Set Drive Online Succeeded.

7.5.24  设置PR巡检参数

查询和设置Patrol Read巡检参数。

【命令】

storcli64 /ccontroller_id set patrolread starttime=start_time maxconcurrentpd=number

storcli64 /ccontroller_id set patrolread delay=delay_time

storcli64 /ccontroller_id show patrolread

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。start_time:开始巡检的启动时间。

number:同时巡检的盘数。

delay_time:巡检周期。

【注意事项】

·     巡检功能仅针对RAID成员盘。

·     巡检启动时间仅可设置整点。

【举例】

#设置巡检参数。

[root@localhost home]# ./storcli64 /c0 set pr starttime=2022/03/19 15 maxconcurrentpd=32

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

---------------------------------------

Ctrl_Prop          Value

---------------------------------------

PR Starttime       2022/03/19 15:00:00

PR MaxConcurrentPd 32

---------------------------------------

 

#查询巡检参数。

[root@localhost home]# ./storcli64 /c0 show pr

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

---------------------------------------------

Ctrl_Prop               Value

---------------------------------------------

PR Mode                 Auto

PR Execution Delay      168 hours

PR iterations completed 1

PR Next Start time      03/19/2022, 15:00:00

PR on SSD               Disabled

PR Current State        Stopped

PR Excluded VDs         None

PR MaxConcurrentPd      32

---------------------------------------------

7.5.25  设置CC一致性检查参数

查询和设置Consistent Check一致性检查参数。

【命令】

storcli64 /ccontroller_id[/vraid_id] show cc

storcli64 /ccontroller_id/vraid_id start cc force

storcli64 /ccontroller_id/vraid_id op cc

storcli64 /ccontroller_id set cc=conc delay=delay_time starttime=start_time

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_id:目标RAID ID。

op:可选操作pause/resume/stop,执行暂停/重启/停止动作。

delay_time:一致性检查周期。

start_time:一致性检查启动时间。

【注意事项】

storcli64 show cc命令,不加[/vraid_id]则返回存储控制卡一致性检查设定参数,增加[/vraid_id]则返回具体的一致性检查进度。

【举例】

#查看一致性检查设定参数。

[root@localhost home]# ./storcli64 /c0 show cc

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

-----------------------------------------------

Ctrl_Prop                 Value

-----------------------------------------------

CC Operation Mode         Concurrent

CC Execution Delay        2

CC Next Starttime         03/19/2022, 15:00:00

CC Current State          Stopped

CC Number of iterations   1

CC Number of VD completed 0

CC Excluded VDs           None

-----------------------------------------------

 

#查看一致性检查进度。

[root@localhost home]# ./storcli64 /c0/v0 show cc

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

VD Operation Status :

===================

 

-----------------------------------------------------------

VD Operation Progress% Status          Estimated Time Left

-----------------------------------------------------------

 0 CC        -         Not in progress -

-----------------------------------------------------------

 

#开启一致性检查。

[root@localhost home]# ./storcli64 /c0/v0 start cc force

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Start CC Operation Success

 

#停止一致性检查。

[root@localhost home]# ./storcli64 /c0/v0 stop cc

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Stop CC Operation Success

 

#设定一致性检查参数。

[root@localhost home]# ./storcli64 /c0 set cc=conc delay=2 starttime=2022/03/19 15

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

---------------------------------

Ctrl_Prop    Value

---------------------------------

CC Mode      CONC

CC delay     2

CC Starttime 2022/03/19 15:00:00

---------------------------------

7.5.26  重建和回拷RAID

启停重建和回拷任务,及状态查询。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id op func

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

op:可选操作show/pause/resume/stop,执行查询/暂停/重启/停止动作。

func:可选copyback/rebuild,对应巡检/回拷/重建功能。

【举例】

#查询回拷进度。

[root@localhost home]# ./storcli64 /c0/e2/s23 show copyback

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Show Drive Copyback Status Succeeded.

 

 

---------------------------------------------------------

Drive-ID   Progress% Status          Estimated Time Left

---------------------------------------------------------

/c0/e2/s23 -         Not in progress -

---------------------------------------------------------

 

#查询重建进度。

[root@localhost home]# ./storcli64 /c0/e2/s23 show rebuild

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Show Drive Rebuild Status Succeeded.

 

 

---------------------------------------------------------

Drive-ID   Progress% Status          Estimated Time Left

---------------------------------------------------------

/c0/e2/s23 -         Not in progress -

---------------------------------------------------------

7.5.27  管理任务资源

设置pr巡检速率、cc一致性检查速率、bgi后台初始化速率、rebuild重建速率、reconstruction重构速率。

【命令】

storcli64 /ccontroller_id set func=rate_value

【缺省情况】

各任务速率默认30%

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

func:可选prrate/ccrate/bgirate/rebuildrate/reconrate。

rate_value:可调范围0-100。

【注意事项】

多张存储控制卡存在时,注意controller_idstorcli64 /call show实际查询结果为准。

【举例】

#设置重构速率。

[root@localhost home]# ./storcli64 /c0 set reconrate=40

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

----------------

Ctrl_Prop Value

----------------

ReconRate 40%

----------------

7.5.28  查询和清除PreservedCache数据

查询和清除PreservedCache数据。

【命令】

storcli64 /ccontroller_id show preservedcache

storcli64 /ccontroller_id/vraid_id delete preservedcache force

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

raid_id:目标RAID ID。

【举例】

#查询PreservedCache数据。

[root@localhost home]# ./storcli64 /c0 show preservedcache

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = No Virtual Drive has Preserved Cache Data.

 

#清除PreservedCache数据。

[root@localhost home]# ./storcli64 /c0/v0 delete preservedcache force

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = No Virtual Drive has Preserved Cache Data.

7.5.29  升级硬盘固件

升级硬盘的固件。

【命令】

storcli64 /ccontroller_id/eenclosure_id/sslot_id download src=fw_file

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

slot_id:物理硬盘slot槽位编号。

fw_file:硬盘固件文件。

【举例】

#升级硬盘固件。

[root@localhost home]# ./storcli64 /c0/e2/s8 download src=fw.bin

Starting microcode update  .....please wait...

Flashing PD image  ..... please wait...

CLI Version = 007.1017.0000.0000 May 10, 2019

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = Firmware Download succeeded.

Drive Firmware Download :

========================

--------------------------------------------------------------------------------

Drive     Status  ErrCd    ErrMsg

--------------------------------------------------------------------------------

/c0/e2/s8 Success   0       

---------------------------------------------------------------------------------

7.5.30  切换蜂鸣器设置

修改蜂鸣器设置。

【命令】

storcli64 /ccontroller_id show alarm

storcli64 /ccontroller_id set alarm={on|off|silence}

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

enclosure_id:连接硬盘的enclosure id。

on:蜂鸣器开启,出现严重错误时蜂鸣器会发出警报。

off:蜂鸣器关闭,任何活动蜂鸣器都会静音,并且在发生任何错误(包括严重错误)时不会发出警报。

silence:使控制器上的蜂鸣器警报静音,即当前发出的任何警报都会停止;如果严重错误仍然存在并且蜂鸣器使能,则重启后会再次启动。如果禁用蜂鸣器,则该选项也被禁用。

【举例】

#查询蜂鸣器开关状态。

[root@localhost storcli]# ./storcli64 /c0 show alarm

CLI Version = 007.2408.0000.0000 Nov 15, 2022

Operating system = Linux 4.18.0-425.3.1.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

----------------

Ctrl_Prop Value

----------------

Alarm     OFF

----------------

#关闭蜂鸣器。

[root@localhost storcli]# ./storcli64 /c0 set alarm=off

CLI Version = 007.2408.0000.0000 Nov 15, 2022

Operating system = Linux 4.18.0-425.3.1.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

----------------

Ctrl_Prop Value

----------------

Alarm     OFF

----------------

 

#开启蜂鸣器。

[root@localhost storcli]# ./storcli64 /c0 set alarm=on

CLI Version = 007.2408.0000.0000 Nov 15, 2022

Operating system = Linux 4.18.0-425.3.1.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

----------------

Ctrl_Prop Value

----------------

Alarm     ON

----------------

#静音蜂鸣器告警。

[root@localhost storcli]# ./storcli64 /c0 set alarm=silence

CLI Version = 007.2408.0000.0000 Nov 15, 2022

Operating system = Linux 4.18.0-425.3.1.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

------------------

Ctrl_Prop Value

------------------

Alarm     SILENCE

------------------

7.5.31  设置Firmware Device order功能

查询、设置LSI存储控制卡Firmware Device order功能处于开启或关闭状态。

【命令】

storcli64 /ccontroller_id show deviceorderbyfirmware

storcli64 /ccontroller_id set deviceorderbyfirmware=mode

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。可将该参数设置为all,表示查询该工具可管理的所有存储控制卡信息。

mode:Firmware Device order功能配置,可选参数如下:

·     on:开启Firmware Device order。

·     off:关闭Firmware Device order。

 

【注意事项】

仅9460/9440/9540/9560卡支持。

启用此功能仅适用于Linux;对于Windows或VMware等其他操作系统,不支持该功能。意外启用它可能会导致系统在引导期间挂死。

该功能开启后,服务器重启阶段存储卡下设备上报顺序改变,按启动盘、逻辑盘、直通盘顺序上报。但需注意,所有存储卡会引入逻辑盘上报乱序,9460卡Personality模式和9560所有模式下直通盘设备上报乱序现象。

该选项修改后需重启服务器生效。

LSI 9440/9460卡51.15.0-3630及以上固件版本支持该功能。

LSI 9560卡52.15.0-3720及以上固件版本支持该功能。

LSI 9540卡52.20.0-4341及以上固件版本支持该功能。

【举例】

#查询存储控制卡Firmware Device order功能状态。

[root@localhost ~]# storcli64 /c0 show deviceorderbyfirmware

CLI Version = 007.2203.0000.0000 May 11, 2022

Operating system = Linux 4.18.0-240.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

-------------------------------------

Ctrl_Prop                      Value

-------------------------------------

Firmware based device ordering OFF

-------------------------------------

 

#开启存储控制卡Firmware Device order功能。

[root@localhost ~]# storcli64 /c0 set deviceorderbyfirmware=on

CLI Version = 007.2203.0000.0000 May 11, 2022

Operating system = Linux 4.18.0-240.el8.x86_64

Controller = 0

Status = Success

Description = Please reboot the system for the changes to take effect

 

 

Controller Properties :

=====================

 

-------------------------------------

Ctrl_Prop                      Value

-------------------------------------

Firmware based device ordering ON

-------------------------------------

 

#关闭存储控制卡Firmware Device order功能。

[root@localhost ~]# storcli64 /c0 set deviceorderbyfirmware=off

CLI Version = 007.2203.0000.0000 May 11, 2022

Operating system = Linux 4.18.0-240.el8.x86_64

Controller = 0

Status = Success

Description = Please reboot the system for the changes to take effect

 

 

Controller Properties :

=====================

 

-------------------------------------

Ctrl_Prop                      Value

-------------------------------------

Firmware based device ordering OFF

-------------------------------------

 

7.5.32  设置direct pd mapping功能

查询、设置LSI存储控制卡Firmware Device order功能处于开启或关闭状态。

【命令】

storcli64 /ccontroller_id show directpdmapping

storcli64 /ccontroller_id set directpdmapping=mode

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。可将该参数设置为all,表示查询该工具可管理的所有存储控制卡信息。

mode:direct pd mapping功能配置,可选参数如下:

·     on:开启direct pd mapping。

·     off:关闭direct pd mapping。

 

【注意事项】

仅9460/9440/9540/9560卡支持。

当存储卡连接Expander背板时不可启用该功能。意外启用它会导致存储卡进入Failed状态。

该功能开启后,服务器重启阶段存储卡下直通盘设备按slot号上报。

该选项修改后需重启服务器生效。

LSI 9440/9460卡51.15.0-3630及以上固件版本和配套管理工具支持该功能。

LSI 9560卡52.15.0-3720及以上固件版本和配套管理工具支持该功能。

LSI 9540卡52.20.0-4341及以上固件版本和配套管理工具支持该功能。

【举例】

#查询存储控制卡direct pd mapping功能状态。

[root@localhost ~]# storcli64 /c0 show directpdmapping

CLI Version = 007.2203.0000.0000 May 11, 2022

Operating system = Linux 4.18.0-240.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

----------------------

Ctrl_Prop       Value

----------------------

Directpdmapping OFF

----------------------

#开启存储控制卡direct pd mapping功能。

[root@localhost ~]# storcli64 /c0 set directpdmapping=on

CLI Version = 007.2203.0000.0000 May 11, 2022

Operating system = Linux 4.18.0-240.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

------------------------------------------------

Ctrl_Prop       Value

------------------------------------------------

Directpdmapping ON (Requires reboot for effect)

------------------------------------------------

#关闭存储控制卡direct pd mapping功能。

[root@localhost ~]# storcli64 /c0 set directpdmapping=off

CLI Version = 007.2203.0000.0000 May 11, 2022

Operating system = Linux 4.18.0-240.el8.x86_64

Controller = 0

Status = Success

Description = None

 

 

Controller Properties :

=====================

 

-------------------------------------------------

Ctrl_Prop       Value

-------------------------------------------------

Directpdmapping OFF (Requires reboot for effect)

-------------------------------------------------

7.5.33  PSoC信息检查

查看存储控制卡PSoC固件。

【命令】

storcli64 /ccontroller_id/ show all | grep -i psoc

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。

【注意事项】

·     LSI 9560卡上已更新运行52.20.0-4341及以上版本固件,且storcli版本为7.2007.0000.0000或以上版本才能查询PSoC信息、更新PSoC固件。

·     LSI 9560卡上已更新运行52.22.0-4544及以上版本固件,且storcli版本为7.2307.0000.0000或以上版本才能查询PSoC信息、更新PSoC固件。

【举例】

#查询PSoC信息,其中包括PSoC FW Version、PSoC Part Number、PSoC支持情况等信息。

[root@localhost ~]# storcli64 /c0 show all | grep -i psoc

PSOC FW Version = 0x001B

PSOC Hardware Version = 0x0003

PSOC Part Number = 15987-270-4GB

Support PSOC Update = Yes

Support PSOC Part Information = Yes

Upgradable PSOC = Present

 

7.5.34  PSoC固件更新

升级存储控制卡的PSoC固件。

【命令】

storcli64 /ccontroller_id download file= fw_file

storcli64 /ccontroller_id download file= fw_file noverchk

【参数】

controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准;

fw_file:PSoC固件文件。

noverchk:降级或平级更新存储控制卡PSoC固件时,不检查固件镜像的版本。

【注意事项】

·     若存储控制卡PSoC固件文件不在当前路径下,则需要在fw_file前加上文件的绝对路径。

·     storcli工具涉及指定路径相关命令均不支持空格和特殊字符。

·     PSoC固件更新后,需将服务器AC power cycle才能生效。

·     LSI 9560卡上已更新运行52.20.0-4341及以上版本固件,且storcli版本为7.2007.0000.0000或以上版本才能查询PSoC信息、更新PSoC固件。

·     LSI 9560卡上已更新运行52.22.0-4544及以上版本固件,且storcli版本为7.2307.0000.0000或以上版本才能查询PSoC信息、更新PSoC固件。

【举例】

# 升级存储控制卡PSoC固件。

[root@localhost ~]# storcli64 /c0 download file=pblp_catalog.signed.rom

Download Completed.

Flashing image to adapter...

CLI Version = 007.2408.0000.0000 Nov 15, 2022

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = F/W Flash Completed. Please shutdown the system for the changes to take effect

 

# 降级或平级更新存储控制卡PSoC固件。

[root@localhost ~]# storcli64 /c0 download file=pblp_catalog.signed.rom noverchk

Download Completed.

Flashing image to adapter...

CLI Version = 007.2408.0000.0000 Nov 15, 2022

Operating system = Linux 4.18.0-193.el8.x86_64

Controller = 0

Status = Success

Description = F/W Flash Completed. Please shutdown the system for the changes to take effect

 

7.6  故障告警支持情况

故障告警功能包含故障告警和预故障告警,不同存储控制卡不同模式支持情况各不相同,如表7-5表7-6所示。

表7-5 故障告警支持情况

存储控制卡系列

RAID模式直连硬盘

RAID模式连接硬盘扩展板

JBOD模式直连硬盘

JBOD模式连接硬盘扩展板

LSI-9361

支持

支持

支持

支持

LSI-9440

支持

支持

不涉及

不涉及

LSI-9460

支持

支持

支持

支持

LSI-9540

支持

支持

不涉及

不涉及

LSI-9560

支持

支持

支持

支持

 

表7-6 预故障告警(PFA)支持情况

存储控制卡系列

RAID模式直连硬盘

RAID模式连接硬盘扩展板

JBOD模式直连硬盘

JBOD模式连接硬盘扩展板

LSI-9361

仅Unconfigured Good、逻辑成员盘、热备盘可识别PFA状态,不亮0.5Hz橙灯

仅Unconfigured Good、逻辑成员盘、热备盘可识别PFA状态,亮0.5Hz橙灯

不支持

不支持

LSI-9440

不涉及

不涉及

LSI-9460

所有硬盘状态都支持PFA识别,不亮0.5Hz橙灯

所有硬盘状态都支持PFA识别,但仅UG、逻辑成员盘、热备盘支持亮0.5Hz橙灯

LSI-9540

不涉及

不涉及

LSI-9560

所有硬盘状态都支持PFA识别,不亮0.5Hz橙灯

所有硬盘状态都支持PFA识别,亮0.5Hz橙灯

所有硬盘状态都支持PFA识别,不亮0.5Hz橙灯

所有硬盘状态都支持PFA识别,亮0.5Hz橙灯

 

7.7  故障处理

关于存储控制卡的故障信息收集、故障诊断定位和故障解决方法的详细说明,请参见《H3C服务器 故障处理手册》。

7.8  兼容性

存储控制卡与服务器的兼容性关系,请查看服务器兼容的部件查询工具

7.9  驱动下载和安装

访问H3C官网下载存储控制卡的驱动程序。驱动程序的安装步骤,请参见与驱动程序一起发布的版本说明书。

 

不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!

新华三官网
联系我们