05-第5章 LSI-9540&9560
本章节下载: 05-第5章 LSI-9540&9560 (13.21 MB)
本节介绍如下型号的存储控制卡,支持最大12Gbit/s的接口速率。部分存储控制卡支持缓存模块,极大地提升了性能和数据安全性。存储控制卡的详细信息及缓存模块支持信息,请参见http://www.h3c.com/cn/home/qr/default.htm?id=315:
· RAID-LSI-9560-LP-16i-8GB
· RAID-LSI-9560-LP-8i-4GB
· HBA-LSI-9540-LP-8i
各存储控制卡支持的RAID级别略有不同,详细信息请参见http://www.h3c.com/cn/home/qr/default.htm?id=315,各RAID级别对应的磁盘数量如表5-1所示。关于RAID级别的说明,请参见“附录B 磁盘阵列和容错方法”。
表5-1 RAID级别与磁盘数量关系
RAID级别 |
最少磁盘数 |
最多故障盘数 |
RAID 0 |
1 |
0 |
RAID 1 |
2 |
硬盘数/2 |
RAID 5 |
3 |
1 |
RAID 6 |
LSI 9560:4 其他阵列卡:3(建议使用4块) |
2 |
RAID 00 |
2 |
0 |
RAID 10 |
4 |
n(n为组成RAID 10的RAID 1的个数) |
RAID 50 |
6 |
n(n为组成RAID 50的RAID 5的个数) |
RAID 60 |
LSI 9560:8 其他阵列卡:6(建议使用8块) |
2n(n为组成RAID 60的RAID 6的个数) |
本章节介绍的存储控制卡,如果支持组建RAID 10/50/60,则最多支持由8个成员RAID 1/5/6组成该RAID 10/50/60。 |
· 建议用户安装没有RAID信息的硬盘。
· 请确保组建同一RAID的所有硬盘类型相同,否则会因硬盘性能不同而造成RAID性能下降或者无法创建RAID。即满足如下两点:
¡ 所有硬盘均为SAS或SATA硬盘。
¡ 所有硬盘均为HDD或SSD硬盘。
· 建议组建同一RAID的所有硬盘容量相同。当硬盘容量不同时,系统以最小容量的硬盘为准,即将所有硬盘容量都视为最小容量。
· 不建议将一个硬盘用在多个RAID中,该情况会使后期维护变得复杂,并影响RAID的性能。
本节介绍在UEFI启动模式下通过存储控制卡配置RAID的方法。关于进入BIOS界面和设置BIOS启动模式为UEFI的详细介绍,请参见BIOS用户指南中的对应章节。
不同BIOS版本的界面有所差异,本手册仅以其中一种BIOS版本举例,操作界面请以实际情况为准。
本节介绍进入存储控制卡配置界面的操作步骤。
(1) 进入BIOS。
在服务器启动过程中,根据提示按下Delete或Esc(部分产品按Delete或F2)进入如图5-1所示的BIOS Setup界面(部分产品进入Front界面,请选择Device Management,进入设备管理菜单)。请参考界面右下角的按键操作提示,以实现在界面中导航和修改设置。
(2) 进入存储控制器管理界面。
如图5-2所示,进入Advanced页签,并选择存储控制器(如:BROADCOM < MegaRAID 9560-8i 4GB>),按Enter。
(3) 进入图5-3所示界面,选择Main Menu,按Enter。
(4) 进入图5-4所示界面,界面上显示了五大类配置任务(相关说明请参见表5-2)。
选项 |
概要说明 |
Configuration Management |
选择配置管理来执行任务,如创建逻辑磁盘、查看磁盘组属性,查看热备份信息、并清除配置。 |
Controller Management |
选择控制器管理以查看和管理控制器属性并执行任务,如清除控制器事件、调度和运行控制器事件,并运行巡检读取。 |
Virtual Drive Management |
选择逻辑磁盘管理来执行任务,如查看逻辑磁盘属性、定位逻辑磁盘,并运行一致性检查。 |
Drive Management |
选择磁盘管理以查看物理磁盘属性和执行任务,如定位磁盘,初始化磁盘和磁盘失败后重建。 |
Hardware Components |
选择硬件组件查看超级电容属性,管理超级电容和管理外围组件。 |
存储控制卡支持切换如下四种磁盘状态。
· Unconfigured Good:表示该物理磁盘正常,可用于配置RAID或热备盘。
· Unconfigured Bad:表示该物理盘已损坏或存在RAID残留信息,物理盘损坏时请更换;RAID信息残留时,请手动进行清除。
· Hotspare:表示该物理磁盘为热备盘。
· JBOD/JBOD online:Just a Bunch Of Disks,直通盘/类直通盘,不可用于配置RAID。
此处操作步骤是将一块Unconfigured Good状态的硬盘切换为Unconfigured Bad状态为例。
(1) 如图5-5所示,在存储控制卡配置界面选择Drive Management,按Enter。
(2) 进入图5-6所示界面,选择待配置的磁盘,按Enter。
(3) 进入图5-7所示界面,选中Operation,按Enter,然后在弹出的对话框中选择Make Unconfigured Bad,按Enter。
图5-7 Operation操作界面
(4) 进入图5-8所示界面,选择Go,按Enter。
(5) 进入图5-9所示界面,完成切换磁盘状态操作。
(1) 如图5-10所示,在存储控制卡配置界面选择Configuration Management,按Enter。
(2) 进入图5-11所示界面,选择Create Virtual Drive,按Enter。
(3) 进入图5-12所示界面,选择Select RAID Level(以组建RAID 0为例),设置RAID级别,按Enter。
(4) 进入图5-13所示界面,选择Select Drives From,设置RAID的硬盘容量来源(此处选择Unconfigured Capacity为例),按Enter。
· [Unconfigured Capacity] 表示容量来自完全未配置的硬盘。
· [Free Capacity] 表示容量来自已配置RAID的硬盘的剩余容量。
图5-13 设置RAID的磁盘容量来源
(5) 进入图5-14所示界面,选择Select Drives,按Enter。
(6) 进入图5-15所示界面,选择要用来配置RAID的硬盘并按Enter,然后选择Apply Changes,按Enter。如果硬盘的状态为JBOD Online或者Unconfigured Bad,又或者Hotspare,则无法选择。
(7) 进入图5-16所示界面,完成选择硬盘操作,选择OK,按Enter。
(8) 进入图5-17所示界面,进行相应的设置(相关参数说明请参见表5-3),然后选择Save Configuration,按Enter。
参数 |
说明 |
Virtual Drive Name |
RAID的名称,仅支持字母、数字和特殊字符,不区分大小写 |
Virtual Drive Size |
RAID的容量大小 |
Virtual Drive Size Unit |
RAID的容量单位 |
Stripe Size |
RAID的条带大小,写在每块磁盘上的条带数据块的大小,支持64KB、128KB、256KB、512KB、1MB等规格(HBA-LSI-9540-LP-8i卡当前仅支持64KB的条带规格) |
Read Policy |
读缓存策略,分为: · Read ahead:开启预读取功能。存储控制卡可以预读取顺序数据或预测需要即将使用到的数据,并存储到Cache中。 · No read ahead:关闭预读取功能。 (HBA-LSI-9540-LP-8i卡当前不支持读缓存策略参数的设置) |
Write Policy |
写缓存策略,分为: · Write through:直写模式。当物理盘接收到所有传输数据后,存储控制卡将给主机返回数据传输完成信号。 · Write back:回写模式一。当存储控制卡中的Cache收到所有的传输数据后,存储控制卡将给主机返回数据传输完成信号。该模式下,如果存储控制卡未安装超级电容或超级电容损坏,存储控制卡将自动切换到Write through模式。 · Always write back:回写模式二。强制使用Write back模式,该模式下,如果存储控制卡未安装超级电容或超级电容损坏,也不会切换到Write through模式。此时,若主机掉电,存储控制卡中的Cache会由于缺失供电电源而丢失其中的数据。 (HBA-LSI-9540-LP-8i卡当前不支持写缓存策略参数的设置) |
Access Policy |
读写策略,分为: · Read/Write:可读可写 · Read Only:只读 · Blocked:禁止操作 |
I/O Policy |
I/O 策略,分为: · Direct:在读、写场景中的定义不同: ¡ 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID卡的Cache处理) ¡ 在写场景中,写数据经过RAID卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID卡的Cache处理,直接写入硬盘) · Cached:所有读和写均经过RAID卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐 (HBA-LSI-9540-LP-8i卡当前不支持I/O策略参数的设置) |
Drive Cache |
磁盘缓存策略,分为: · Enable:开启,读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失 · Disable:关闭,读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失 · Unchanged:保持当前策略 |
Disable Background Initialization |
使能或禁用后台初始化方式 |
Default Initialization |
默认初始化方式,分为: · NO:不进行初始化 · Fast:快速初始化 · Full:完全初始化 |
Emulation Type |
控制逻辑盘在OS中上报的扇区,分为: · Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n · Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n · Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K) |
Save Configuration |
保存配置 |
(9) 进入图5-18所示界面,选择Confirm并按Enter,使其Enabled,选择Yes,按Enter。
(10) 进入图5-19所示界面,完成配置RAID操作,选择OK,返回存储控制卡配置界面。
(11) 进入图5-20所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(12) 进入图5-21所示界面,可以看到已创建的RAID,选择需要查看的RAID,按Enter。
图5-21 Vitrual Drive Management界面
(13) 进入图5-22所示界面,选择View Associated Drives,按Enter,即可查看该RAID的详细信息(包括RAID名称、级别,所含磁盘信息等)。
图5-22 选择View Associated Drives
(1) 如图5-23所示,在存储控制卡配置界面选择Configuration Management,按Enter。
(2) 进入图5-24所示界面,选择Create Virtual Drive,按Enter。
(3) 进入图5-25所示界面,选择Select RAID Level,设置RAID级别,按Enter。
(4) 进入图5-26所示界面,选择Select Drives From,设置RAID的磁盘容量来源,按Enter。
图5-26 设置RAID的磁盘容量来源
(5) 进入图5-27所示界面,选择Select Drives,按Enter。
(6) 进入图5-28所示界面,选择要用来配置RAID的磁盘,[Enabled]表示选中,然后选择Apply Changes,按Enter。
(7) 进入图5-29所示界面,选择Add More Spans,按Enter,添加磁盘空间,组建R10最少需要4块磁盘。
(8) 进入图5-30所示界面,选择Select Drives,按Enter。
(9) 进入图5-31所示界面,选择要用来配置RAID的磁盘,[Enabled]表示选中,然后选择Apply Changes,按Enter。如果磁盘的状态为JBOD或Unconfigured Bad,则无法选择。
(10) 进入图5-32所示界面,选择Confirm,选择Yes,按Enter。
(11) 进入图5-33所示界面,进行相应的设置(参数说明请参见表5-3),然后选择Save Configuration,按Enter。
(12) 进入图5-34所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(13) 进入图5-35所示界面,完成配置RAID操作,选择OK,返回存储控制卡配置界面。
(14) 如图5-36所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(15) 进入图5-37所示界面,可以看到已创建的RAID,选择需要查看的RAID10,按Enter。
图5-37 Vitrual Drive Management界面
(16) 进入图5-38所示界面,选择View Associated Drives,按Enter,即可查看该RAID的详细信息(包括RAID名称、级别,所含磁盘信息等)。
图5-38 选择View Associated Drives
(1) 如图5-39所示,在存储控制卡配置界面选择Configuration Management,按Enter。
(2) 进入图5-40所示界面,选择Create Virtual Drive,按Enter。
(3) 进入图5-41所示界面,选择Select RAID Level,设置RAID级别,按Enter。
(4) 进入图5-42所示界面,选择Select Drives From,设置RAID的磁盘容量来源,按Enter。
图5-42 设置RAID的磁盘容量来源
(5) 进入图5-43所示界面,选择Select Drives,按Enter。
(6) 进入图5-44所示界面,选择要用来配置RAID的磁盘,[Enabled]表示选中,然后选择Apply Changes,按Enter。
(7) 进入图5-45所示界面,选择Add More Spans,按Enter,添加磁盘空间,组建R50最少需要6块磁盘。
(8) 进入图5-46所示界面,选择Select Drives,按Enter。
(9) 进入图5-47所示界面,选择要用来配置RAID的磁盘,[Enabled]表示选中,然后选择Apply Changes,按Enter。如果磁盘的状态为JBOD或Unconfigured Bad,则无法选择。
(10) 进入图5-48所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(11) 进入图5-49所示界面,进行相应的设置(参数说明请参见表5-3),然后选择Save Configuration,按Enter。
(12) 进入图5-50所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(13) 进入图5-51所示界面,完成配置RAID操作,选择OK,返回存储控制卡配置界面。
(14) 如图5-52所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(15) 进入图5-53所示界面,可以看到已创建的RAID 50,选择需要查看的RAID,按Enter。
图5-53 Vitrual Drive Management界面
(16) 进入图5-54所示界面,选择View Associated Drives,按Enter,即可查看该RAID 50的详细信息(包括RAID名称、级别,所含磁盘信息等)。
图5-54 选择View Associated Drives
(1) 如图5-55所示,在存储控制卡配置界面选择Configuration Management,按Enter。
(2) 进入图5-56所示界面,选择Create Virtual Drive,按Enter。
(3) 进入图5-57所示界面,选择Select RAID Level,设置RAID级别,按Enter。
图5-57 设置RAID级别60
(4) 进入图5-58所示界面,选择Select Drives From,设置RAID的磁盘容量来源,按Enter。
图5-58 设置RAID的磁盘容量来源
(5) 进入图5-59所示界面,选择Select Drives,按Enter。
(6) 进入图5-60所示界面,选择要用来配置RAID的磁盘,[Enabled]表示选中,然后选择Apply Changes,按Enter。
(7) 进入图5-61所示界面,选择Add More Spans,按Enter,添加磁盘空间,组建R 60最少需要8块磁盘。
(8) 进入图5-62所示界面,选择Select Drives,按Enter。
(9) 进入图5-63所示界面,选择要用来配置RAID的磁盘,[Enabled]表示选中,然后选择Apply Changes,按Enter。如果磁盘的状态为JBOD或Unconfigured Bad,则无法选择。
(10) 进入图5-64所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(11) 进入图5-65所示界面,进行相应的设置(参数说明请参见表5-3),然后选择Save Configuration,按Enter。
(12) 进入图5-66所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(13) 进入图5-67所示界面,完成配置RAID操作,选择OK,返回存储控制卡配置界面。
(14) 如图5-68所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(15) 进入图5-69所示界面,可以看到已创建的RAID,选择需要查看的RAID 60,按Enter。
图5-69 Vitrual Drive Management界面
(16) 进入图5-70所示界面,选择View Associated Drives,按Enter,即可查看该RAID 60的详细信息(包括RAID名称、级别,所含磁盘信息等)。
图5-70 选择View Associated Drives
配置RAID后一般会配置热备盘来提高数据的安全性。可根据需要配置全局热备盘或专用热备盘。
· 热备盘仅供存在冗余的RAID级别使用。
· 热备盘的容量要大于等于RAID最小成员盘的容量。
· 仅支持配置状态为Unconfigured Good的磁盘为热备盘。
(1) 如图5-71所示,在存储控制卡配置界面选择Drive Management,按Enter。
(2) 进入图5-72所示界面,选择待配置为全局热备盘的磁盘,按Enter。
(3) 进入图5-73所示界面,选中Operation,按Enter,然后再选择Assign Global Hot Spare Drive,按Enter。
图5-73 Operation操作界面
(4) 进入图5-74所示界面,选择Go,按Enter。
(5) 进入图5-75所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(6) 进入图5-76所示界面,完成配置全局热备盘操作。
(1) 如图5-77所示,在存储控制卡配置界面选择Drive Management,按Enter。
(2) 进入图5-78所示界面,选择待配置为专用热备盘的磁盘,按Enter。
(3) 进入图5-79所示界面,选中Operation,按Enter,然后再选择Assign Dedicated Hot Spare Drive,按Enter。
图5-79 Operation操作界面
(4) 进入图5-80所示界面,选择Go,按Enter。
(5) 进入图5-81所示界面,选择需要配置专用热备盘的逻辑磁盘,使其Enable,选择OK,按Enter。
(6) 进入图5-82所示界面,完成配置专用热备盘操作。
本功能用于删除已损坏或难以满足需求的RAID。
(1) 如图5-83所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(2) 进入图5-84所示界面,选择待删除的逻辑磁盘,按Enter。
(3) 进入图5-85所示界面,选中Operation,按Enter,然后在弹出的对话框中选择Delete Virtual Drive,按Enter。
图5-85 Operation操作界面
(4) 进入图5-86所示界面,选择Go,按Enter。
(5) 进入图5-87所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(6) 进入图5-88所示界面,完成删除RAID操作。
本功能通过点亮磁盘对应槽位的蓝色指示灯,方便您快速找到磁盘。可定位单个物理磁盘或某个逻辑磁盘包括的全部成员磁盘。
(1) 如图5-89所示,在存储控制卡配置界面选择Drive Management,按Enter。
(2) 进入图5-90界面,选择待定位的磁盘,按Enter。
(3) 进入图5-91界面,选择Operation,按Enter,然后在弹出的对话框中选择Start Locate,按Enter。
图5-91 Operation操作界面
(4) 进入图5-92界面,选择Go,按Enter。
(5) 进入图5-93界面,完成定位物理磁盘位置操作。
(1) 如图5-94所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(2) 进入图5-95界面,选择待定位的逻辑磁盘,按Enter。
(3) 进入图5-96界面,选中Operation,按Enter,然后在弹出的对话框中选择Start Locate,按Enter。
图5-96 Operation操作界面
(4) 进入图5-97界面,选择Go,按Enter。
(5) 进入图5-98界面,完成定位逻辑磁盘中的全部磁盘位置操作。
本功能用于初始化逻辑磁盘内部数据空间。
(1) 如图5-99所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(2) 进入图5-100所示界面,选择待初始化的逻辑磁盘,按Enter。
(3) 进入图5-101所示界面,选中Operation,按Enter,然后在弹出的对话中选择Fast/Slow Initialization,按Enter。
图5-101 Operation操作界面
Fast Initialization与Slow Initialization的区别在于前者能够立即写数据,后者需等待磁盘空间全部完成初始化后,才能写数据。
(4) 进入图5-102所示界面,选择Go,按Enter。
(5) 进入图5-103所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(1) 如图5-105所示,在存储控制卡配置界面选择Drive Management,按Enter。
(2) 进入图5-106所示界面,选择待初始化的磁盘,按Enter。
(3) 进入图5-107界面,选中Operation,按Enter,然后在弹出的对话框中选择Initialize Drive,按Enter。
图5-107 Operation管理界面
(4) 进入图5-108界面,选择Go,按Enter。
(5) 进入图5-109所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(6) 进入图5-110界面,完成初始化物理磁盘操作。
本功能用于删除磁盘内部数据,包括擦除物理磁盘数据和逻辑磁盘数据。
(1) 如图5-111所示,在存储控制卡配置界面选择Drive Management,按Enter。
(2) 进入图5-112所示界面,选择待擦除数据的磁盘,按Enter。
(3) 进入图5-113所示界面,选中Operation,按Enter,然后在弹出的对话框里选择Drive Erase,按Enter。
图5-113 Operation操作界面
对于Drive Erase选项,部分存储控制卡对于SATA硬盘的配置选项是Drive Erase,对于SAS硬盘是Cryptographic Erase。
(4) 进入图5-114所示界面,按Enter,然后在弹出的对话框中选择擦除模式(建议使用缺省模式:Simple)。
(5) 进入图5-115所示界面,选择Go,按Enter。
(6) 进入图5-116所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(7) 进入图5-117所示界面,完成擦除物理磁盘数据操作。
为避免磁盘故障,请勿在擦除物理磁盘数据期间进行其他操作。
(1) 如图5-118所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(2) 进入图5-119所示界面,选择待擦除数据的逻辑磁盘,按Enter。
(3) 进入图5-120所示界面,选中Operation,按Enter,然后在弹出的对话框中选择Virtual Drive Erase,按Enter。
图5-120 Operation 操作界面
(4) 进入图5-121所示界面,按Enter,然后在弹出的对话框中选择擦除模式(建议使用缺省模式:Simple)。
(5) 进入图5-122所示界面,选择Go,按Enter。
(6) 进入图5-123所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(7) 进入图5-124所示界面,完成擦除逻辑磁盘数据操作。
LSI 9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。
本功能用于扩充RAID的容量来提升RAID的可用性,存储控制卡通过设置逻辑盘剩余容量比例来扩充RAID的容量。
(1) 如图5-125所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(2) 进入图5-126所示界面,选择待扩容的逻辑磁盘,按Enter。
图5-126 Virtual Drive Management管理界面
(3) 进入图5-127所示界面,选择Operation,按Enter,然后在弹出的对话框中选择Expand Virtual Drive,按Enter。
图5-127 Operation操作界面
(4) 进入图5-128所示界面,选择Go,按Enter。
(5) 进入图5-129所示界面,修改Enter a Percentage of Avaliable Capacity栏参数来修改磁盘剩余可用容量的比例,选择OK,按Enter。
(6) 进入图5-130所示界面,完成扩容RAID操作。
LSI 9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。
本功能用于不影响当前数据完整性的情况下,对RAID的级别进行修改以达到配置需求。
(1) 如图5-131所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(2) 进入图5-132所示界面,选择待迁移的逻辑磁盘,按Enter。
图5-132 Virtual Drive Management管理界面
(3) 进入图5-133所示界面,选择Operation,按Enter,然后在弹出的对话框中选择Reconfigure Virtual Drive,按Enter。
图5-133 Operation操作界面
(4) 进入图5-134所示界面,选择Go,按Enter。
(5) 进入图5-135所示界面,设置RAID级别,选择Choose the Operation,按Enter。
(6) 进入图5-136所示界面,选择待添加的磁盘,使其Enabled,选择Apply Changes,按Enter。
可以通过增加或减少成员盘实现迁移逻辑盘级别。
(7) 进入图5-137所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(8) 进入图5-138所示界面,选择Start Operation,按Enter。
(9) 进入图5-139所示界面,选择OK,按Enter。
(10) 进入图5-140所示界面,可以查看当前迁移进度。
图5-140 RAID信息界面
本功能用于清除磁盘中的RAID残留信息,使磁盘可重新用来配置RAID。
(1) 将磁盘状态Unconfigured Bad切换为Unconfigured Good,具体步骤请参见5.2.1 2. 切换磁盘状态。
(2) 如图5-141所示,在存储控制卡配置界面选择Configuration Management,按Enter。
(3) 进入图5-142所示界面,选择Manage Foreign Configuration,按Enter。
图5-142 选择Manage Foreign Configuration
(4) 进入图5-143所示界面,选择Clear Foreign Configuration,按Enter。
图5-143 选择Clear Foreign Configuration
(5) 进入图5-144所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(6) 进入图5-145所示界面,完成清除磁盘RAID信息操作。
本功能用于隐藏所选择的RAID。
(1) 如图5-146所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(2) 进入图5-147所示界面,选择待隐藏的逻辑磁盘,按Enter。
图5-147 Virtual Drive Management管理界面
(3) 进入图5-148所示界面,选中Operation,按Enter,然后在弹出的对话框中选择Hide Virtual Drive,按Enter完成隐藏RAID操作。
图5-148 Operation操作界面
本功能用于隐藏磁盘组,磁盘组隐藏后,在该磁盘组上组建的所有逻辑盘在系统下均不可见。
磁盘组是由指定数量磁盘组成的集合,一般在创建第一个逻辑盘时确定磁盘组成员,在磁盘组上可以组建特定级别的逻辑盘。
(1) 如图5-149所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(2) 进入图5-150所示界面,选择待隐藏的逻辑磁盘,按Enter。
图5-150 Virtual Drive Management管理界面
(3) 进入图5-151所示界面,选中Operation,按Enter,然后在弹出的操作对话框里选择Hide Drive Group,按Enter。
图5-151 Operation操作界面
您可通过该功能升级RAID的固件版本。需要注意的是,使用U盘升级固件时,固件文件放置在U盘根目录或一级目录下,否则BIOS下无法找到固件文件。
(1) 如图5-152所示,在Advanced界面中选择Update Firmware,按Enter。
(2) 进入图5-153所示界面,选择升级固件的目录,按Enter。
(3) 进入如图5-154所示界面,选择待升级的固件版本文件,按Enter。
(4) 进入图5-155所示界面,选择Update,按Enter。
(5) 进入图5-156所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
确认升级后,页面将短暂卡住,此时正在进行固件升级,请勿进行其他操作。
(6) 进入图5-157所示界面,选择OK,按Enter完成升级操作。
(7) 重启BIOS使操作生效。
本功能用于切换存储控制卡模式,包括JBOD模式和RAID模式。
(1) 如图5-158所示,在Advanced界面中选择Main Menu,按Enter。
图5-158 Advanced界面选择Main Menu
(2) 如图5-159所示,选择Controller management,按Enter。
图5-159 选择Controller management
(3) 如图5-160所示,选择Advanced Controller management,按Enter。
图5-160 选择Advanced Controller management
(4) 如图5-161所示,选择Manage Personality Mode,按Enter。
图5-161 选择Manage Personality Mode
(5) 如图5-162所示,当前为RAID模式,如需切换到JBOD模式,则选择Switch to JBOD Mode,按Enter。
(6) 如图5-163所示,选择Confirm,使其Enabled,选择Yes,按Enter。
当切换存储控制卡模式为JBOD模式时,存储控制卡上的逻辑盘也可以一并切换至JBOD 模式,需要注意的是,当强制进行切换的时候,不支持的逻辑盘无法保留数据。因此推荐任何LSI存储控制卡切换模式前都先将硬盘状态切换为Unconfigued Good状态。以RAID-LSI-9560-LP-8i-4GB举例,RAID 5,RAID 6,RAID 50,RAID 60的逻辑盘无法切换为JBOD模式,具体以界面提示信息为准。
(7) 如图5-164所示,存储控制卡模式已成功切换,选择OK,按Enter重启操作系统后即可应用配置。
当发生故障的硬盘数量超出逻辑磁盘容错方法可承受的范围,管理工具界面逻辑磁盘会显示为Offline状态,因此可以使用Place Drive Online功能使逻辑磁盘强制上线。
使用此功能可能会改变逻辑磁盘中的数据,在执行Place Drive Online前需要进行评估是否执行该操作。
(1) 如图5-165所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(2) 进入如图5-166所示界面,选择Offline的逻辑磁盘,按Enter。
图5-166 Vitrual Drive Management界面
(3) 进入如图5-167所示界面,选择View Associated Drives,按Enter。
图5-167 选择View Associated Drives
(4) 进入如图5-168所示界面,选择Offline的成员盘,使其Enabled,选择View Drive Properties,按Enter。
图5-168 选择View Drive Properties
(5) 进入如图5-169所示界面,选中Operation,按Enter,然后再选择Place Drive Online,按Enter。
(6) 进入如图5-170所示界面,选择Go,按Enter。
(7) 进入图5-171所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(8) 进入如图5-172所示界面,完成Place Drive Online操作。
本功能用于在RAID上新增磁盘进行扩容。
· LSI9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。
· RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。
· 新增的磁盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。
· 新增磁盘进行扩容时,RAID1每次需要增加2*N块硬盘,且RAID0/1/5/6成员盘数量最大32。
(1) 如图5-173所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(2) 进入图5-174所示界面,选择待配置的逻辑磁盘,按Enter。
图5-174 Virtual Drive Management管理界面
(3) 进入图5-175所示界面,选择Operation,按Enter,然后在弹出的下拉框中选择Reconfigure Virtual Drives,按Enter。
图5-175 Operation操作界面
(4) 进入图5-176所示界面,选择Go,按Enter。
图5-176 Operation操作界面
(5) 进入图5-177所示界面,设置RAID级别,选择Choose the Operation,按Enter。
(6) 进入图5-178所示界面,选择待新增的磁盘,使其Enabled,选择Apply Changes,按Enter。
(7) 进入图5-179所示界面,选择Confirm并按Enter,使其Enabled,选择Yes,按Enter。
(8) 进入图5-180所示界面,选择OK,按Enter。
(9) 进入图5-181所示界面,选择Start Operation,按Enter。
(10) 进入图5-182所示界面,选择OK,按Enter。
(11) 进入图5-183所示界面,可以查看当前迁移进度。
图5-183 RAID信息界面
(1) 如图5-184所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(2) 进入图5-185所示界面,显示存储控制卡基本信息(相关参数说明请参见表5-4),按Enter。
图5-185 Virtual Drive Management管理界面
参数 |
说明 |
Product Name |
存储控制卡名称 |
Serial Number |
存储控制卡序列号 |
Controller Status |
存储控制卡的工作状态 |
Personality Mode |
存储控制卡的模式 |
Select Boot Device |
存储控制卡的启动项,此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效 |
PCI ID |
存储控制卡的PCI ID |
PCI Segment:Bus:Device:Fuction |
存储控制卡的PCI地址,格式为:总线号:设备号:功能号 |
PCI Slot Number |
存储控制卡的PCI槽位号 |
Package Version |
存储控制卡的package版本 |
PSOC Firmware Version |
存储控制卡的PSOC 固件版本 |
Firmware Version |
存储控制卡的固件版本号 |
NVDATA Version |
存储控制卡NVDATA的版本号 |
Supported Device Interfaces |
支持的设备接口 |
Drive Count |
存储控制卡下挂载的硬盘个数 |
Virtual Drive Count |
存储控制卡下已有虚拟磁盘数量 |
Advanced Controller Management |
更多的控制卡操作 |
Advanced Controller Properties |
查看和修改控制卡的高级属性 |
(3) 进入图5-186所示界面,在存储控制卡管理界面选择Advanced Controller Properties,按Enter。
图5-186 Advanced Controller Properties界面
(4) 进入图5-187所示界面,在该界面可查看并修改存储控制卡的高级属性(相关参数说明请参见表5-5)。
参数 |
说明 |
Cache and Memory |
查看控制卡Cache和Memory信息 |
Patrol Read |
显示并允许设置巡检属性,可以开始、停止、恢复和暂停巡检操作 |
Power Save Setting |
显示并允许修改物理驱动器电源设置 |
Spare |
修改与紧急热备、热备和替换驱动器相关的属性 |
Task Rates |
设置各种任务的处理速率 |
Auto Import Foreign Configuration |
是否自动导入外部配置 |
Coercion Mode |
硬盘容量压缩模式 |
Boot Mode |
BIOS在检测到异常时的处理方式(默认为Pause on Errors),包括: · Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动 · Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动 · Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断 Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动 |
Controller BIOS |
控制卡BIOS开关,默认开启 |
ROC Temperature |
控制卡温度 |
Shield State Supported |
是否支持暂停I/O,对硬盘进行诊断(默认参数为Yes) |
Drive Security |
硬盘加密功能的启用状态 |
T10-PI |
信息保护技术的使能状态 |
Maintain Drive Fail History |
表示是否使能硬盘故障记录功能,默认为使能状态。 说明: 该参数设置为“Disabled”时: 新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。 该参数设置为“Enabled”时: 新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。 新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见导入外部配置和清空外部配置。 对JBOD online的硬盘进行在线热拔插后,硬盘状态将被标识为Unconfigured Bad,需手动切换状态。 |
SMART Polling |
SMART轮巡检测周期 |
Stop Consistency Check on Error |
遇到异常时是否停止一致性校验 |
JBOD Mode |
启用或禁用JBOD模式 |
Write Verify |
写校验 |
Large IO Support |
大型I/O支持功能开关 |
Unmap Capability |
解除映射能力 |
Firmware Device order |
· Disabled:缺省值,服务器重启阶段存储卡下设备按直通盘、逻辑盘上报; · Enabled:开启该功能,服务器重启阶段存储卡下设备上报顺序改变,按启动盘、逻辑盘、直通盘顺序上报。启用此功能仅适用于 Linux。 |
Apply Changes |
查看和修改控制卡的高级属性 |
部分参数选项是否显示与存储控制卡固件有关,请以实际情况为准。 |
本功能用于服务器更换控制卡后,需要将原有的配置导入到新的存储控制卡中。
· 如服务器已有配置RAID,在更换新的存储控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。
· 为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。
· 当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。
(1) 如图5-188所示,在存储控制卡配置界面选择Configuration Management,按Enter。
(1) 进入图5-189所示界面,选择Manage Foreign Configuration,按Enter,进入外部配置管理界面。
图5-189 Configuration Management界面
(2) 进入图5-190所示界面,选择Preview Foreign Configuration,按Enter,显示当前存在的外部配置的详细信息。
图5-190 Manage Foreign Configuration界面
(3) 进入图5-191所示界面,选择Import Foreign Configuration,按Enter。
图5-191 Preview Foreign Configuration界面
(4) 进入图5-192所示界面,选择Confirm并按Enter,使其Enabled,选择Yes,按Enter。
(5) 进入图5-193所示界面,选择OK,按Enter。
(1) 如图5-194所示,在存储控制卡配置界面选择Configuration Management,按Enter。
(2) 进入图5-195所示界面,选择Manage Foreign Configuration,按Enter,进入外部配置管理界面。
图5-195 Configuration Management界面
(3) 进入图5-196所示界面,选择Preview Foreign Configuration,按Enter,显示当前存在的外部配置的详细信息。
图5-196 Manage Foreign Configuration界面
(4) 进入图5-197所示界面,选择Clear Foreign Configuration,按Enter。
图5-197 Preview Foreign Configuration界面
(5) 进入图5-198所示界面,选择Confirm并按Enter,使其Enabled,选择Yes,按Enter。
(6) 进入图5-199所示界面,选择OK,按Enter。
(1) 如图5-200所示,在存储控制卡配置界面选择Configuration Management,按Enter。
(2) 进入图5-201所示界面,选择Create Virtual Drive,按Enter。
(3) 进入图5-202所示界面,选择Select RAID Level(以组建RAID 1为例),设置RAID级别,按Enter。
(4) 进入图5-203所示界面,选择Select Drives From,设置RAID的磁盘容量来源,选择Free Capacity(表示容量来自已配置RAID的磁盘的剩余容量),按Enter。
(5) 进入图5-204所示界面,选择Select Drives Group,选择要用来配置RAID的Drives Group,按Enter。
(6) 进入图5-205所示界面,选择Apply Changes,按Enter。
(7) 进入图5-206所示界面,完成Drives Group选择操作,选择OK,按Enter,。
(8) 进入图5-207所示界面,进行相应的设置,然后选择Save Configuration,按Enter。
(9) 进入图5-208所示界面,选择Confirm并按Enter,使其Enabled,选择Yes,按Enter。
(10) 进入图5-209所示界面,选择OK,按Enter。
本功能用于阵列卡在BIOS下同时改变多个硬盘状态为JBOD。
LSI-9540阵列卡无此功能。
(1) 如图5-210所示,在存储控制卡配置界面选择Configuration Management,按Enter。
(2) 进入图5-211所示界面,选择Make JBOD,按Enter。
图5-211 Configuration Management界面
(3) 进入图5-212所示界面,选择想要变成JBOD模式的盘,按Enter,按向下箭头至OK项,按Enter确认
(4) 进入图5-213所示界面,选择Confirm,按Enter,按向下键选择OK项,按Enter确认。
(5) 进入图5-214所示界面,所示界面,选择OK,按Enter确认配置。
(6) 进入图5-215所示界面,进入Drive Management页面,查看所选盘已完成Make JBOD操作。
图5-215 Make JBOD实现结果
本功能用于阵列卡在BIOS下同时把所有Unconfigured Good硬盘单独组建为RAID 0 的逻辑盘。
LSI-9540阵列卡无此功能。
(1) 如图5-216所示,在存储控制卡配置界面选择Configuration Management,按Enter。
(2) 进入图5-217所示界面,选择Auto Configure RAID 0,按Enter。
图5-217 Configuration Management界面
(3) 进入图5-218所示界面,选择Confirm,按Enter,按向下键选择Yes,按Enter确认。
图5-218 确认Auto Configure RAID 0功能界面
(4) 进入图5-219示界面,选择OK,确认配置。
图5-219 完成Auto Configure RAID 0功能界面
(5) 进入图5-220所示界面,Virtual Drive Management配置查看,所有硬盘均单独组成了RAID 0的逻辑盘,即完成Auto configure RAID 0操作。
图5-220 BIOS实现 界面
本章节介绍的存储控制卡,支持Legacy启动模式但是没有Legacy启动模式下的管理界面。
本节介绍OS命令行工具的下载和安装步骤。OS命令行工具可在服务器正常运行中对RAID卡进行操作,无需重启服务器。
(1) 登录https://www.h3c.com/cn/BizPortal/DownLoadAccessory/DownLoadAccessoryFilt.aspx。
(2) 按照提示信息下载对应存储控制卡的固件安装包及版本说明书。
(3) 解压固件安装包后得到适用于不同操作系统的StorCLI工具包。
请参考固件版本说明书安装不同操作系统下的StorCLI工具。
本节介绍OS命令行工具常用命令的使用方法及示例。OS命令行工具可在服务器正常运行中对RAID卡进行操作,无需重启服务器。
本工具涉及指定路径相关的命令均不支持空格和特殊字符。
查询LSI存储控制卡的基本信息。
【命令】
storcli64 /ccontroller_id show [logfile=logfilename]
storcli64 /ccontroller_id show all [logfile=logfilename]
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。all:表示查询该工具可管理的所有存储控制卡信息。
logfilename:导出的查询信息文件名。
【举例】
#查询存储控制卡的基本信息。
[root@localhost ~]# storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
CLI Version = 007.2408.0000.0000 Nov 15, 2022
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Product Name = MegaRAID 9560-8i 4GB
Serial Number = SK01065334
SAS Address = 500062b2024fe0c0
PCI Address = 00:4b:00:00
System Time = 11/09/2023 14:38:46
Mfg. Date = 03/04/20
Controller Time = 11/09/2023 06:38:47
FW Package Build = 52.24.0-4763
BIOS Version = 7.24.01.0_0x07180100
FW Version = 5.240.02-3768
Driver Name = megaraid_sas
Driver Version = 07.726.02.00
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x10E2
SubVendor Id = 0x1000
SubDevice Id = 0x4010
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 75
Device Number = 0
Function Number = 0
Domain ID = 0
Security Protocol = None
Drive Groups = 1
TOPOLOGY :
========
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size PDC PI SED DS3 FSpace TR
-----------------------------------------------------------------------------
0 - - - - RAID1 Optl N 893.750 GB dflt N N none N N
0 0 - - - RAID1 Optl N 893.750 GB dflt N N none N N
0 0 0 249:0 31 DRIVE Onln N 893.750 GB dflt N N none - N
0 0 1 249:1 30 DRIVE Onln N 893.750 GB dflt N N none - N
-----------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Optl=Optimal|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 1
VD LIST :
=======
---------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC Size Name
---------------------------------------------------------------
0/235 RAID1 Optl RW No RWBD - ON 893.750 GB
---------------------------------------------------------------
VD=Virtual Drive| DG=Drive Group|Rec=Recovery
Cac=CacheCade|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|dflt=Default|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady
B=Blocked|Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
JBOD Drives = 12
JBOD LIST :
=========
---------------------------------------------------------------------------------------
ID EID:Slt DID State Intf Med Size SeSz Model Vendor Port
---------------------------------------------------------------------------------------
4 249:4 32 Onln SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA C0.0 & C0.1
5 249:5 9 Onln SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA C0.0 & C0.1
6 249:6 1 Onln SAS HDD 7.277 TB 512B HUS728T8TAL5204 HGST C0.0 & C0.1
7 249:7 33 Onln SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA C0.0 & C0.1
8 249:8 16 Onln SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA C0.0 & C0.1
9 249:9 22 Onln SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA C0.0 & C0.1
10 249:10 17 Onln SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA C0.0 & C0.1
11 249:11 11 Onln SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA C0.0 & C0.1
12 249:12 20 Onln SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA C0.0 & C0.1
13 249:13 13 Onln SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA C0.0 & C0.1
14 249:14 12 Onln SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA C0.0 & C0.1
15 249:15 21 Onln SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA C0.0 & C0.1
---------------------------------------------------------------------------------------
ID=JBOD Target ID|EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|Onln=Online
Offln=Offline|Intf=Interface|Med=Media Type|SeSz=Sector Size
SED=Self Encryptive Drive|PI=Protection Info|Sp=Spun|U=Up|D=Down
Physical Drives = 14
PD LIST :
=======
---------------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp Type
---------------------------------------------------------------------------------------
249:0 31 Onln 0 893.750 GB SATA SSD N N 512B Micron_5300_MTFDDAK960TDS U -
249:1 30 Onln 0 893.750 GB SATA SSD N N 512B Micron_5300_MTFDDAK960TDS U -
249:4 32 Onln - 7.277 TB SATA HDD N N 512B HGST HUS728T8TALE6L4 U JBOD
249:5 9 Onln - 7.277 TB SATA HDD N N 512B HGST HUS728T8TALE6L4 U JBOD
249:6 1 Onln - 7.277 TB SAS HDD N N 512B HUS728T8TAL5204 U JBOD
249:7 33 Onln - 7.277 TB SATA HDD N N 512B HGST HUS728T8TALE6L4 U JBOD
249:8 16 Onln - 7.277 TB SATA HDD N N 512B HGST HUS728T8TALE6L4 U JBOD
249:9 22 Onln - 7.277 TB SATA HDD N N 512B HGST HUS728T8TALE6L4 U JBOD
249:10 17 Onln - 7.277 TB SATA HDD N N 512B HGST HUS728T8TALE6L4 U JBOD
249:11 11 Onln - 7.277 TB SATA HDD N N 512B HGST HUS728T8TALE6L4 U JBOD
249:12 20 Onln - 7.277 TB SATA HDD N N 512B HGST HUS728T8TALE6L4 U JBOD
249:13 13 Onln - 7.277 TB SATA HDD N N 512B HGST HUS728T8TALE6L4 U JBOD
249:14 12 Onln - 7.277 TB SATA HDD N N 512B HGST HUS728T8TALE6L4 U JBOD
249:15 21 Onln - 7.277 TB SATA HDD N N 512B HGST HUS728T8TALE6L4 U JBOD
---------------------------------------------------------------------------------------
EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Sntze=Sanitize|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=UGood Unsupported|UGShld=UGood shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported|Rbld=Rebuild
Enclosures = 1
Enclosure LIST :
==============
-----------------------------------------------------------------------------
EID State Slots PD PS Fans TSs Alms SIM Port# ProdID VendorSpecific
-----------------------------------------------------------------------------
249 OK 28 14 0 1 7 0 0 C0.0 & C0.1 x8 Cub exp-2.1.1.0
-----------------------------------------------------------------------------
EID=Enclosure Device ID | PD=Physical drive count | PS=Power Supply count
TSs=Temperature sensor count | Alms=Alarm count | SIM=SIM Count | ProdID=Product ID
Cachevault_Info :
===============
------------------------------------
Model State Temp Mode MfgDate
------------------------------------
CVPM05 Optimal 27C - 2019/09/18
------------------------------------
#查询存储控制卡的所有信息,并保存到指定文件。
[root@localhost ~]# storcli64 /c0 show all logfile=logfile.txt
切换存储控制卡的工作模式。
【命令】
storcli64 /ccontroller_id set personality =mode
【缺省情况】
默认存储控制卡工作在RAID模式。
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
mode:可选参数如下:
· raid:切换存储控制卡到RAID模式。
· jbod:切换存储控制卡到JBOD模式。
【注意事项】
· 使用此命令行前,请确保存储控制卡的固件为最新版本,较低版本可能不支持JBOD模式。
· 使用此命令行前,请确保存储控制卡控制的硬盘均为Unconfigured Good状态。
· 使用此命令行后,需要重启操作系统后方能生效。
【举例】
#切换存储控制卡模式为JBOD。
[root@localhost home]# ./storcli64 /c0 set personality=jbod
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------------------------------------------
Ctrl_Prop Value
------------------------------------------------------------------------
Set Personality JBOD (Reboot the system for the change to take effect.)
------------------------------------------------------------------------
升级、降级或平级更新存储控制卡的固件。
【命令】
固件升级:
storcli64 /ccontroller_id download file= fw_file
固件降级或者平级更新:
storcli64 /ccontroller_id download file= fw_file noverchk
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准;
fw_file:固件文件。
noverchk:降级或平级更新存储控制卡固件时,不检查固件镜像的版本。
【注意事项】
若存储控制卡固件文件不再当前路径下,则需要在fw_file前加上文件的绝对路径。
【举例】
#更新存储控制卡固件。
[root@localhost home]# ./storcli64 /c0 download file=MR_4MB.rom noverchk
Download Completed.
Flashing image to adapter...
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = F/W Flash Completed. Please reboot the system for the changes to take effect
查看存储控制卡PSoC固件。
【命令】
storcli64 /ccontroller_id/ show all | grep -i psoc
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
【注意事项】
· LSI 9560卡上已更新运行52.20.0-4341及以上版本固件,且storcli版本为7.2007.0000.0000或以上版本才能查询PSoC信息、更新PSoC固件。
· LSI 9560卡上已更新运行52.22.0-4544及以上版本固件,且storcli版本为7.2307.0000.0000或以上版本才能查询PSoC信息、更新PSoC固件。
【举例】
#查询PSoC信息,其中包括PSoC FW Version、PSoC Part Number、PSoC支持情况等信息。
[root@localhost ~]# storcli64 /c0 show all | grep -i psoc
PSOC FW Version = 0x001B
PSOC Hardware Version = 0x0003
PSOC Part Number = 15987-270-4GB
Support PSOC Update = Yes
Support PSOC Part Information = Yes
Upgradable PSOC = Present
升级存储控制卡的PSoC固件。
【命令】
storcli64 /ccontroller_id download file= fw_file
storcli64 /ccontroller_id download file= fw_file noverchk
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准;
fw_file:PSoC固件文件。
noverchk:降级或平级更新存储控制卡PSoC固件时,不检查固件镜像的版本。
【注意事项】
· 若存储控制卡PSoC固件文件不在当前路径下,则需要在fw_file前加上文件的绝对路径。
· storcli工具涉及指定路径相关命令均不支持空格和特殊字符。
· PSoC固件更新后,需将服务器AC power cycle才能生效。
· LSI 9560卡上已更新运行52.20.0-4341及以上版本固件,且storcli版本为7.2007.0000.0000或以上版本才能查询PSoC信息、更新PSoC固件。
· LSI 9560卡上已更新运行52.22.0-4544及以上版本固件,且storcli版本为7.2307.0000.0000或以上版本才能查询PSoC信息、更新PSoC固件。
【举例】
# 升级存储控制卡PSoC固件。
[root@localhost ~]# storcli64 /c0 download file=pblp_catalog.signed.rom
Download Completed.
Flashing image to adapter...
CLI Version = 007.2408.0000.0000 Nov 15, 2022
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = F/W Flash Completed. Please shutdown the system for the changes to take effect
# 降级或平级更新存储控制卡PSoC固件。
[root@localhost ~]# storcli64 /c0 download file=pblp_catalog.signed.rom noverchk
Download Completed.
Flashing image to adapter...
CLI Version = 007.2408.0000.0000 Nov 15, 2022
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = F/W Flash Completed. Please shutdown the system for the changes to take effect
创建和删除RAID。
【命令】
创建RAID:storcli64 /ccontroller_id add vd rraid_level [size=<vd1_size>,..] [name=<vdname1>,..] drives= vd_drives [pdperarray= pdperarraynum] [pdcache=pdcache_policy] [pi] [wt|wb|awb] [nora|ra] [strip=strip_size] [emulationtype=emulationtype] [spares =spares_drives]
删除RAID:storcli64 /ccontroller_id/vraid_id del
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
raid_level :RAID级别,可选0|1|5|6|00|10|50|60。
vd1_size :RAID容量设定值,单位gb,输入all代表可用全容量组建。
vdname1 :逻辑盘命名。
vd_drives :选择成员盘,格式为enclosure_id:slot_id,enclosure_id为所在Enclosure的id,slot_id为目标成员盘的slot id。
pdperarraynum:符合RAID(10|50|60)级别时需要确定子组中的硬盘数。
pdcache_policy :成员盘的缓存设定,可选on|off|default,default代表默认硬盘当前的缓存状态,不做修改。
pi:开启数据保护。
wt|wb|awb:writecache写缓存策略也,可选wt(write through当数据落盘后告知系统传输完成)、wb(write back当数据写入控制卡cache即告知系统传输完成)、awb(always write back在没有超级电容保护时,强制使用wb,主机遇异常掉电会有数据丢失风险)。
nora|ra:readcache读缓存策略,ra当从RAID中读取数据时,会把周边数据同时读出存在cache中,用户随后访问这些数据时可以直接从cache中读取,减少磁盘寻道时间,提升读取性能。
strip_size:条带大小,MR卡可选 8|16|32|64|128|256|512|1024,iMR卡仅支持64。本文支持的卡中,仅HBA-LSI-9440-8i卡为iMR卡。
emulationtype:可选0|1|2,0是默认值,当成员盘中有512e的盘,扇区大小就会显示512e,否则显示为512n、1表示如果成员盘中没有512e的盘,扇区大小显示为512n、2表示即使成员盘中没有512e的盘,扇区大小也会显示为512e。
spares_drives:热备盘,取值格式参照vd_drives,格式为enclosure_id:slot_id。
raid_id:待删除RAID的ID,可通过./storcli64 /c0/vall show查看RAID的id值。配置为all时删除全部RAID。
【注意事项】
RAID成员盘输入时,slot值之间以逗号分隔,slot连续的成员盘,可用‘-’连接。
【举例】
#创建RAID 1。
[root@localhost home]# ./storcli64 /c0 add vd r1 size=all drives=2:8,23
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Add VD Succeeded
[root@localhost home]# ./storcli64 /c0/v0 del
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Delete VD succeeded
对指定物理盘执行定位点灯和灭灯操作。
【命令】
storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
enclosure_id:连接硬盘的enclosure id,可选all点亮所有enclosure下的硬盘定位灯。
slot_id:物理硬盘slot槽位编号,可选all点亮enclosure下所有硬盘定位灯。
action:需要执行的操作,包括如下两种:
· start:点亮硬盘指示灯。
· stop:熄灭硬盘指示灯。
【举例】
#点亮硬盘指示灯。
[root@localhost home]# ./storcli64 /c0/e2/s8 start locate
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.
#熄灭硬盘指示灯。
[root@localhost home]# ./storcli64 /c0/e2/s8 stop locate
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Stop Drive Locate Succeeded.
切换硬盘状态(JBOD和Unconfigured Good)。
【命令】
storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]
storcli64 /ccontroller_id/eenclosure_id/sslot_id set jbod
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
enclosure_id:连接硬盘的enclosure id。
slot_id:物理硬盘slot槽位编号。
【注意事项】
硬盘状态由UG切换至JBOD时,先确认一下RAID卡JBOD选项是否打开,如未打开需在切换前打开JBOD开关。
【举例】
#切换硬盘状态为Unconfigured Good。
[root@localhost home]# ./storcli64 /c0/e2/s8 set good force
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Set Drive Good Succeeded.
#切换硬盘状态为JBOD。
[root@localhost home]# ./storcli64 /c0/e2/s8 set jbod
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Set Drive JBOD Succeeded.
检查硬盘基本信息。
【命令】
storcli64 /ccontroller_id/eenclosure_id/sslot_id show [all]
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
enclosure_id:连接硬盘的enclosure id。
slot_id:物理硬盘slot槽位编号。
【举例】
[root@localhost home]# ./storcli64 /c0/e2/s8 show
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
Drive Information :
=================
-------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp Type
-------------------------------------------------------------------------------
2:8 39 JBOD - 5.458 TB SATA HDD N N 512B ST6000NM0115-1YZ110 U -
-------------------------------------------------------------------------------
EID=Enclosure Device ID|Slt=Slot No.|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=Unsupported|UGShld=UnConfigured shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported
保存当前RAID卡的配置、恢复或在其他卡上导入此配置。
【命令】
storcli64 /ccontroller_id get config file=filename
storcli64 /ccontroller_id set config file=filename
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
filename:配置文件名称。
【注意事项】
此功能操作的前提是,服务器环境必须完全一致。
【举例】
#导出配置。
[root@localhost home]# ./storcli64 /c0 get config file=conf.txt
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Config data is saved to the file
#导入配置。
[root@localhost home]# ./storcli64 /c0 set config file=conf.txt
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Config data is restored to the adapter
增大目标RAID的容量。
【命令】
storcli64 /ccontroller_id/vraid_id expand size=target_size
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
raid_id:待扩容的RAID ID。
target_size:待设置的容量值。
【注意事项】
LSI 9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。
【举例】
#增大指定RAID 20Gb容量。
[root@localhost home]# ./storcli64 /c0/v0 expand size=20gb
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = expansion operation succeeded
EXPANSION RESULT :
================
----------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz %FreSpc NewSize Status NoArrExp
----------------------------------------------------------------------------
0 10.000 GB 1.808 TB 20.000 GB 37.049 GB 2 47.049 GB - 1.808 TB
----------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %
在不影响数据完整性的情况下,对RAID级别进行修改。
【命令】
storcli64 /ccontroller_id/vraid_id start migrate type=raidx option=operation drives= vd_drives force
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
raid_id:待扩容的RAID ID。
raidx:目标RAID级别。
vd_drives :选择成员盘,格式为enclosure_id:slot_id,enclosure_id为所在Enclosure的id,slot_id为目标成员盘的slot id。
operation :选择增加或移除成员盘,可选add或remove。
【注意事项】
LSI 9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。
【举例】
[root@localhost home]# ./storcli64 /c0/v0 start migrate type=raid5 option=add drives=2:11
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Start Reconstruction Operation Success
[root@localhost home]# ./storcli64 /c0/v0 start migrate type=raid0 option=remove drives=2:9
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Start Reconstruction Operation Success
导入或清除外部配置。
【命令】
storcli64 /ccontroller_id/fall operation
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
operation:可选操作如下:
· import:导入外部配置。
· del:清除外部配置。
【注意事项】
多张存储控制卡存在时,注意controller_id以storcli64 /call show实际查询结果为准。
【举例】
#导入外部配置。
[root@localhost home]# ./storcli64 /c0/fall import
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Successfully imported foreign configuration
#清除外部配置。
[root@localhost home]# ./storcli64 /c0/fall del
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration
为冗余RAID添加热备盘。
【命令】
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive dgs=drive_group
storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive
【缺省情况】
add hotspare后不指定dgs默认为添加全局热备。
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
enclosure_id:连接硬盘的enclosure id。
slot_id:物理硬盘slot槽位编号。
drive_group:磁盘组ID。
【注意事项】
· 多张存储控制卡存在时,注意controller_id以storcli64 /call show实际查询结果为准。
· 热备盘需要与原来RAID的成员盘接口协议一致,且容量大于等于原有RAID成员盘。
【举例】
#增加全局热备。
[root@localhost home]# ./storcli64 /c0/e2/s11 add hotsparedrive
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
#增加专属热备。
[root@localhost home]# ./storcli64 /c0/e2/s8 add hotsparedrive dgs=0
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
#删除热备盘。
[root@localhost home]# ./storcli64 /c0/e2/s8 delete hotsparedrive
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Delete Hot Spare Succeeded.
设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。
【命令】
storcli64 /ccontroller_id set eghs eug=state
storcli64 /ccontroller_id set eghs smarter=state
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
state:紧急热备功能的启用状态,取值:on 启用,off 禁用。
【注意事项】
· 多张存储控制卡存在时,注意controller_id以storcli64 /call show实际查询结果为准。
【举例】
# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。
[root@localhost storcli]# ./storcli64 /c0 set eghs eug=on
CLI Version = 007.2507.0000.0000 Feb 07, 2023
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------
Ctrl_Prop Value
------------------
EmergencyUG ON
------------------
[root@localhost storcli]# ./storcli64 /c0 set eghs smarter=on
CLI Version = 007.2507.0000.0000 Feb 07, 2023
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
EmergencySmarter ON
-----------------------
将存储控制卡的日志信息导出到日志文件。Snapdump文件是一个日志文件,在一些RAID控制卡异常场景下可以自动生成的日志,也可以主动获取当前RAID控制卡的snapdump日志。
【命令】
storcli /ccontroller_id show all logfile=logfilename
storcli /ccontroller_id show snapdump
storcli /ccontroller_id get snapdump
storcli /ccontroller_id get snapdump id=all
storcli /ccontroller_id get snapdump id=snapdump_id file= logfilename
storcli /ccontroller_id show alilog logfile=logfilename
storcli /ccontroller_id show events logfile=logfilename
storcli /ccontroller_id show termlog logfile=logfilename
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 show命令实际查询结果为准。
snapdump_id:snapdump日志ID。
logfilename:指定要在其中写入SnapDump数据的 zip 格式的文件。
【注意事项】
· 生成SnapDump数据是一项资源密集型操作,可能会导致I/O超时。因此,两个连续的get SnapDump请求之间应至少间隔10分钟。
· LSI9540-8i(52.26.0-5014以下固件版本)仅支持1个snapdump,每次执行storcli /ccontroller_id get snapdump都会覆盖控制器上已存在snapdump数据;出现问题后应先立即执行storcli /ccontroller_id show snapdump查询是否已自动生成snapdump;若已自动生成,则应该使用storcli /ccontroller_id get snapdump id=all或storcli /ccontroller_id get snapdump id=snapdump_id file= logfilename命令下载snapdump数据;若未生成,则才应该使用storcli /ccontroller_id get snapdump触发控制器立即生成新的snapdump数据。
· 阵列卡模式切换,固件更新动作会丢弃DDR和flash上的所有Snapdump数据。
表5-6 Snapdump支持情况
存储控制卡型号 |
Snapdump支持情况 |
备注 |
LSI9540-8i |
支持 |
· snapdump数据保存在flash。 · 52.26.0-5014以下固件版本仅支持1个snapdump。 |
LSI9560-8i |
支持 |
snapdump数据保存在flash。 |
LSI9560-16i |
支持 |
snapdump数据保存在flash。 |
【举例】
#查询显示控制器的全部信息,将信息打印到文本文件并将该文件保存在指定位置。
[root@localhost home]# storcli64 /c0 show all logfile=/log/showall.txt
#查询控制器当前snapdump属性和控制器上存在的snapdump数据信息。
[root@localhost home]# storcli64 /c0 show snapdump
CLI Version = 007.2612.0000.0000 June 13, 2023
Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64
Controller = 0
Status = Success
Description = None
SnapDump Properties :
===================
-----------------------------------------
Ctrl_Prop Value
-----------------------------------------
Snapdump ON
Snapdump Save Count N/A
Snapdump Delay OCR 15
Snapdump properties Read-Write
Snapdump Preboot Trace Buffer ON
Snapdump Current Count 1
-----------------------------------------
SnapDump Details :
================
----------------------------------------------
ID Snapdump Size Snapdump time OnDemand
----------------------------------------------
0 2492649 09-15-2023 11:43:26 Yes
----------------------------------------------
#未指定提供ID,将触发控制器生成新的snapdump数据并同时下载控制器上所有已存在的SnapDump数据。
[root@localhost home]# storcli64 /c0 get snapdump
CLI Version = 007.2612.0000.0000 June 13, 2023
Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64
Controller = 0
Status = Success
Description = Download Support Log
Snapdump :
========
---------------------------------------
Ctrl Status Ctrl_Prop ErrCd ErrMsg
---------------------------------------
0 Success Get Snapdump 0 -
---------------------------------------
#下载控制器上所有已存在的SnapDump数据,使用此命令,CLI将按特定格式构建文件名,如下所示:
snapdump_c#(controller_id)_id#(snapdump_id)_年_月_日_小时_分钟_秒.zip。
[root@localhost home]# /opt/MegaRAID/storcli/storcli64 /c0 get snapdump id=all
CLI Version = 007.2612.0000.0000 June 13, 2023
Operating system = Linux 3.10.0-1160.el7.x86_64
Controller = 0
Status = Success
Description = None
Snapdump :
========
---------------------------------------
Ctrl Status Ctrl_Prop ErrCd ErrMsg
---------------------------------------
0 Success Get Snapdump 0 -
---------------------------------------
#指定SnapDump ID,并将SnapDump数据写入指定的文件。如果文件已存在,它将被截断(truncating),并添加新的信息
[root@localhost home]# storcli64 /c0 get snapdump id=0 file=snapdump.zip
CLI Version = 007.2612.0000.0000 June 13, 2023
Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64
Controller = 0
Status = Success
Description = None
Snapdump :
========
---------------------------------------
Ctrl Status Ctrl_Prop ErrCd ErrMsg
---------------------------------------
0 Success Get Snapdump 0 -
---------------------------------------
#将alilog日志打印到文本文件并将该文件保存在指定位置。
[root@localhost home]# ./storcli64 /c0 show alilog logfile=/log/alilog.txt
#将events日志打印到文本文件并将该文件保存在指定位置。
[root@localhost home]# storcli64 /c0 show events logfile=/log/events.txt
#将termlog日志打印到文本文件并将该文件保存在指定位置。
[root@localhost home]# storcli64 /c0 show termlog logfile=/log/termlog.txt
查询和清除存储控制卡的日志。
【命令】
storcli64 /ccontroller_id show termlog
storcli64 /ccontroller_id show events
storcli64 /ccontroller_id show snapdump
storcli64 /ccontroller_id delete termlog
storcli64 /ccontroller_id delete events
storcli64 /ccontroller_id delete snapdump force
storcli64 /ccontroller_id set snapdump state=on|off
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 show命令实际查询结果为准。
【举例】
#查询TTY日志。
[root@localhost home]# ./storcli64 /c0 show termlog
Firmware Term Log Information on controller 0:
03/13/22 9:12:37: C0:TTY History buffer cleared
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
#查询事件日志。
[root@localhost home]# ./storcli64 /c0 show events
seqNum: 0x00079e17
Time: Sun Mar 13 09:13:18 2022
Code: 0x0000001e
Class: 0
Locale: 0x20
Event Description: Event log cleared
Event Data:
===========
None
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Events = GETEVENTS
Controller Properties :
=====================
------------------------------------
Ctrl Status Method Value
------------------------------------
0 Success handleSuboption Events
------------------------------------
#查询控制器当前snapdump属性和控制器上存在的snapdump数据信息。
[root@localhost 0920]# storcli64 /c0 show snapdump
CLI Version = 007.2612.0000.0000 June 13, 2023
Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64
Controller = 0
Status = Success
Description = None
SnapDump Properties :
===================
-----------------------------------------
Ctrl_Prop Value
-----------------------------------------
Snapdump ON
Snapdump Save Count N/A
Snapdump Delay OCR 15
Snapdump properties Read-Write
Snapdump Preboot Trace Buffer ON
Snapdump Current Count 2
-----------------------------------------
SnapDump Details :
================
----------------------------------------------
ID Snapdump Size Snapdump time OnDemand
----------------------------------------------
0 1643485 09-19-2023 07:03:58 Yes
1 2499469 09-20-2023 06:48:47 Yes
----------------------------------------------
#清除TTY日志中的所有记录。
[root@localhost home]# ./storcli64 /c0 delete termlog
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------------------
Ctrl Method Result
----------------------------
0 Delete Termlog deleted
----------------------------
#清除事件日志中的所有记录。
[root@localhost home]# ./storcli64 /c0 delete events
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------
Ctrl Status Method Value
---------------------------------
0 Success DeleteEvents Events
---------------------------------
#清除所有Snapdump数据。
[root@localhost 0920]# storcli64 /c0 delete snapdump force
CLI Version = 007.2612.0000.0000 June 13, 2023
Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64
Controller = 0
Status = Success
Description = Snapdump delete
#关闭Snapdump功能。
[root@localhost ~]# storcli64 /c0 set snapdump state=off
CLI Version = 007.2612.0000.0000 June 13, 2023
Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
Set Snapdump off
-------------------
#开启Snapdump功能。
[root@localhost ~]# storcli64 /c0 set snapdump state=on
CLI Version = 007.2612.0000.0000 June 13, 2023
Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
Set Snapdump on
-------------------
调整RAID读写缓存设置。
【命令】
storcli64 /ccontroller_id/vraid_id set wrcache={wt|wb|awb}
storcli64 /ccontroller_id/vraid_id set rdcache={ra|nora}
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
raid_id:目标RAID ID。
{wt|wb|awb}:可选wt(write through当数据落盘后告知系统传输完成)、wb(write back当数据写入控制卡cache即告知系统传输完成)、awb(always write back在没有超级电容保护时,强制使用wb,主机遇异常掉电会有数据丢失风险)。
{ra|nora}:ra当从RAID中读取数据时,会把周边数据同时读出存在cache中,用户随后访问这些数据时可以直接从cache中读取,减少磁盘寻道时间,提升读取性能。
【注意事项】
多张存储控制卡存在时,注意controller_id以storcli64 /call show实际查询结果为准。
【举例】
[root@localhost home]# ./storcli64 /c0/v0 set wrcache=awb
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 wrCache AWB Success 0 -
---------------------------------------
[root@localhost home]# ./storcli64 /c0/v0 set rdcache=nora
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 rdCache NoRA Success 0 -
---------------------------------------
设置RAID的读写访问权限。
【命令】
storcli64 /ccontroller_id/vraid_id set accesspolicy={rw|ro| blocked}
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
raid_id:目标RAID ID。
{rw|ro| blocked}:访问策略,rw为可读写、ro为只读、blocked为无法访问。
【注意事项】
多张存储控制卡存在时,注意controller_id以storcli64 /call show实际查询结果为准。
【举例】
#设置访问策略为只读。
[root@localhost home]# ./storcli64 /c0/v0 set accesspolicy=rw
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
----------------------------------------
VD Property Value Status ErrCd ErrMsg
----------------------------------------
0 AccPolicy RW Success 0 -
----------------------------------------
设置RAID成员盘的读写缓存。
【命令】
storcli64 /ccontroller_id/vraid_id set pdcache= pdcache_policy
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
raid_id:目标RAID ID。
pdcache_policy :可选on|off|default,default代表默认硬盘当前的缓存状态,不做修改。
【注意事项】
多张存储控制卡存在时,注意controller_id以storcli64 /call show实际查询结果为准。
【举例】
#关闭读写缓存。
[root@localhost home]# ./storcli64 /c0/v0 set pdcache=off
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 PdCac Off Success 0 -
查看RAID成员盘的缓存状态。
【命令】
storcli64 /ccontroller_id / eenclosure_id/sslot_id show all
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
enclosure_id:连接硬盘的enclosure id。
slot_id:物理硬盘slot槽位编号。
【注意事项】
· 多张存储控制卡存在时,注意controller_id以storcli64 /call show实际查询结果为准。
· LSI-9560使用本命令查询硬盘会显示Write Cache = N/A。
【举例】
#查看RAID成员盘的缓存状态。
[root@localhost ~]# storcli64 /c1 /e252/s10 show all
CLI Version = 007.1705.0000.0000 Mar 31, 2021
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 1
Status = Success
Description = Show Drive Information Succeeded.
Drive /c1/e252/s10 :
==================
---------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp Type
---------------------------------------------------------------------------------
252:10 20 Onln 0 893.750 GB SATA SSD N N 512B INTEL SSDSC2KB960G8 U -
---------------------------------------------------------------------------------
EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Sntze=Sanitize|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=UGood Unsupported|UGShld=UGood shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported|Rbld=Rebuild
Drive /c1/e252/s10 - Detailed Information :
=========================================
Drive /c1/e252/s10 State :
========================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature = 36C (96.80 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
Drive /c1/e252/s10 Device attributes :
====================================
SN = PHYF832001H8960CGN
Manufacturer Id = ATA
Model Number = INTEL SSDSC2KB960G8
NAND Vendor = NA
WWN = 55CD2E414FA85A2E
Firmware Revision = XCV10120
Raw size = 894.252 GB [0x6fc81ab0 Sectors]
Coerced size = 893.750 GB [0x6fb80000 Sectors]
Non Coerced size = 893.752 GB [0x6fb81ab0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 6.0Gb/s
NCQ setting = Enabled
Write Cache = Enabled
Logical Sector Size = 512B
Physical Sector Size = 4 KB
Connector Name = C1.0 x1
Drive /c1/e252/s10 Policies/Settings :
====================================
Drive position = DriveGroup:0, Span:0, Row:0
Enclosure position = 1
Connected Port Number = 11(path0)
Sequence Number = 10
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
FDE Type = None
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = Yes
Sanitize Support = CryptoErase, OverWrite, BlockErase
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = No
Wide Port Capable = No
Unmap capable = Yes
Unmap capable for LDs = No
Multipath = No
Port Information :
================
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
0 Active 6.0Gb/s 0x300062b20c75204a
-----------------------------------------
Inquiry Data =
40 00 ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 48 50 46 59 33 38 30 32 31 30 38 48
36 39 43 30 4e 47 20 20 00 00 00 00 00 00 43 58
31 56 31 30 30 32 4e 49 45 54 20 4c 53 53 53 44
32 43 42 4b 36 39 47 30 20 38 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 01 80
00 40 00 2f 00 40 00 00 00 00 06 00 ff 3f 10 00
3f 00 10 fc fb 00 01 fd ff ff ff 0f 00 00 07 00
设置RAID组的Cache读写策略。
【命令】
storcli64 /ccontroller_id/vraid_id set wrcache=wrmode
storcli64 /ccontroller_id/vraid_id set rdcache=rdmode
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
raid_id:待设置的RAID组的ID。
wrmode:Cache读写模式,wt:当磁盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号; wb:控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号;awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”策略。
Rdmode:设置Cache读策略,ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少磁盘寻道操作,节省响应时间,提高了数据读取速度;nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。
【注意事项】
· 多张存储控制卡存在时,注意controller_id以storcli64 /call show实际查询结果为准。
【举例】
# 设置Cache读写模式为“wt”。
[root@localhost home]# ./storcli64
/c0/v0 set wrcache=wt
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 wrCache WT Success 0 -
---------------------------------------
执行、查询和停止擦除物理盘动作。
【命令】
storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode
storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
enclosure_id:连接硬盘的enclosure id。
slot_id:物理硬盘slot槽位编号。
mode:可选simple|normal|thorough,分别对硬盘进行一遍|三遍|九遍擦除。
【注意事项】
多张存储控制卡存在时,注意controller_id以storcli64 /call show实际查询结果为准。
【举例】
#执行物理盘数据1遍擦除。
[root@localhost home]# ./storcli64 /c0/e2/s11 start erase simple
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
#查看擦除进程。
[root@localhost home]# ./storcli64 /c0/e2/s11 show erase
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e2/s11 0 In progress 0 Seconds
------------------------------------------------------
#停止擦除物理盘数据。
[root@localhost home]# ./storcli64 /c0/e2/s11 stop erase
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.
查询控制卡超级电容信息。
【命令】
storcli64 /ccontroller_id/cv show all
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
【举例】
[root@localhost ~]# storcli64 /c0/cv show all
CLI Version = 007.1705.0000.0000 Mar 31, 2021
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Cachevault_Info :
===============
--------------------
Property Value
--------------------
Type CVPM05
Temperature 25 C
State Optimal
--------------------
Firmware_Status :
===============
---------------------------------------
Property Value
---------------------------------------
NVCache State OK
Replacement required No
No space to cache offload No
Module microcode update required No
---------------------------------------
GasGaugeStatus :
==============
------------------------------
Property Value
------------------------------
Pack Energy 319 J
Capacitance 100 %
Remaining Reserve Space 0
------------------------------
Design_Info :
===========
------------------------------------
Property Value
------------------------------------
Date of Manufacture 18/09/2019
Serial Number 21428
Manufacture Name LSI
Design Capacity 374 J
Device Name CVPM05
tmmFru N/A
CacheVault Flash Size 8.187 GB
scapBatversionNo 0x00
scapSerialNo 0x53b4
scap Date of Manufacture 18/09/2019
scapPcbAssmNo 50046-01
scapPCBversionNo B
scapBatPackAssmNo 49571-222
Module Version 07251-01
------------------------------------
Properties :
==========
---------------------------------------------------------------------
Property Value
---------------------------------------------------------------------
Auto Learn Period 27d (2412000 seconds)
Next Learn time 2022/07/18 21:59:20 (711496760 seconds)
Learn Delay Interval 0 hour(s)
Auto-Learn Mode Transparent
Last Successful Learn Time Completed, MON, June 20, 2022 at 23:59:20
对物理盘执行手动离线和上线。
【命令】
storcli64 /ccontroller_id/eenclosure_id/sslot_id set mode
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
enclosure_id:连接硬盘的enclosure id。
slot_id:物理硬盘slot槽位编号。
mode:可选offline或online。offline为离线,online为上线。
【举例】
#手动离线物理盘。
[root@localhost home]# ./storcli64 /c0/e2/s23 set offline
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Set Drive Offline Succeeded.
#手动上线物理盘。
[root@localhost home]# ./storcli64 /c0/e2/s23 set online
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Set Drive Online Succeeded.
查询和设置Patrol Read巡检参数。
【命令】
storcli64 /ccontroller_id set patrolread starttime=start_time maxconcurrentpd=number
storcli64 /ccontroller_id set patrolread delay=delay_time
storcli64 /ccontroller_id show patrolread
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。start_time:开始巡检的启动时间。
number:同时巡检的盘数。
delay_time:巡检周期。
【注意事项】
· 巡检功能仅针对RAID成员盘。
· 巡检启动时间仅可设置整点。
【举例】
#设置巡检参数。
[root@localhost home]# ./storcli64 /c0 set pr starttime=2022/03/19 15 maxconcurrentpd=32
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
PR Starttime 2022/03/19 15:00:00
PR MaxConcurrentPd 32
---------------------------------------
#查询巡检参数。
[root@localhost home]# ./storcli64 /c0 show pr
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------------
Ctrl_Prop Value
---------------------------------------------
PR Mode Auto
PR Execution Delay 168 hours
PR iterations completed 1
PR Next Start time 03/19/2022, 15:00:00
PR on SSD Disabled
PR Current State Stopped
PR Excluded VDs None
PR MaxConcurrentPd 32
---------------------------------------------
查询和设置Consistent Check一致性检查参数。
【命令】
storcli64 /ccontroller_id[/vraid_id] show cc
storcli64 /ccontroller_id/vraid_id start cc force
storcli64 /ccontroller_id/vraid_id op cc
storcli64 /ccontroller_id set cc=conc delay=delay_time starttime=start_time
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
raid_id:目标RAID ID。
op:可选操作pause/resume/stop,执行暂停/重启/停止动作。
delay_time:一致性检查周期。
start_time:一致性检查启动时间。
【注意事项】
storcli64 show cc命令,不加[/vraid_id]则返回存储控制卡一致性检查设定参数,增加[/vraid_id]则返回具体的一致性检查进度。
【举例】
#查看一致性检查设定参数。
[root@localhost home]# ./storcli64 /c0 show cc
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------------------------------
Ctrl_Prop Value
-----------------------------------------------
CC Operation Mode Concurrent
CC Execution Delay 2
CC Next Starttime 03/19/2022, 15:00:00
CC Current State Stopped
CC Number of iterations 1
CC Number of VD completed 0
CC Excluded VDs None
-----------------------------------------------
#查看一致性检查进度。
[root@localhost home]# ./storcli64 /c0/v0 show cc
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-----------------------------------------------------------
0 CC - Not in progress -
-----------------------------------------------------------
#开启一致性检查。
[root@localhost home]# ./storcli64 /c0/v0 start cc force
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Start CC Operation Success
#停止一致性检查。
[root@localhost home]# ./storcli64 /c0/v0 stop cc
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Stop CC Operation Success
#设定一致性检查参数。
[root@localhost home]# ./storcli64 /c0 set cc=conc delay=2 starttime=2022/03/19 15
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------
Ctrl_Prop Value
---------------------------------
CC Mode CONC
CC delay 2
CC Starttime 2022/03/19 15:00:00
---------------------------------
启停重建和回拷任务,及状态查询。
【命令】
storcli64 /ccontroller_id/eenclosure_id/sslot_id op func
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
enclosure_id:连接硬盘的enclosure id。
slot_id:物理硬盘slot槽位编号。
op:可选操作show/pause/resume/stop,执行查询/暂停/重启/停止动作。
func:可选copyback/rebuild,对应巡检/回拷/重建功能。
【举例】
#查询回拷进度。
[root@localhost home]# ./storcli64 /c0/e2/s23 show copyback
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
---------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
---------------------------------------------------------
/c0/e2/s23 - Not in progress -
---------------------------------------------------------
#查询重建进度。
[root@localhost home]# ./storcli64 /c0/e2/s23 show rebuild
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
---------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
---------------------------------------------------------
/c0/e2/s23 - Not in progress -
---------------------------------------------------------
设置pr巡检速率、cc一致性检查速率、bgi后台初始化速率、rebuild重建速率、reconstruction重构速率。
【命令】
storcli64 /ccontroller_id set func=rate_value
【缺省情况】
各任务速率默认30%
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
func:可选prrate/ccrate/bgirate/rebuildrate/reconrate。
rate_value:可调范围0-100。
【注意事项】
多张存储控制卡存在时,注意controller_id以storcli64 /call show实际查询结果为准。
【举例】
#设置重构速率。
[root@localhost home]# ./storcli64 /c0 set reconrate=40
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
ReconRate 40%
----------------
查询和清除PreservedCache数据。
【命令】
storcli64 /ccontroller_id show preservedcache
storcli64 /ccontroller_id/vraid_id delete preservedcache force
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
raid_id:目标RAID ID。
【举例】
#查询PreservedCache数据。
[root@localhost home]# ./storcli64 /c0 show preservedcache
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = No Virtual Drive has Preserved Cache Data.
#清除PreservedCache数据。
[root@localhost home]# ./storcli64 /c0/v0 delete preservedcache force
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = No Virtual Drive has Preserved Cache Data.
升级硬盘的固件。
【命令】
storcli64 /ccontroller_id/eenclosure_id/sslot_id download src=fw_file
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
enclosure_id:连接硬盘的enclosure id。
slot_id:物理硬盘slot槽位编号。
fw_file:硬盘固件文件。
【举例】
#升级硬盘固件。
[root@localhost home]# ./storcli64 /c0/e2/s8 download src=fw.bin
Starting microcode update .....please wait...
Flashing PD image ..... please wait...
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Firmware Download succeeded.
Drive Firmware Download :
========================
--------------------------------------------------------------------------------
Drive Status ErrCd ErrMsg
--------------------------------------------------------------------------------
/c0/e2/s8 Success 0
---------------------------------------------------------------------------------
查询、设置LSI存储控制卡Firmware Device order功能处于开启或关闭状态。
【命令】
storcli64 /ccontroller_id show deviceorderbyfirmware
storcli64 /ccontroller_id set deviceorderbyfirmware=mode
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。可将该参数设置为all,表示查询该工具可管理的所有存储控制卡信息。
mode:Firmware Device order功能配置,可选参数如下:
· on:开启Firmware Device order。
· off:关闭Firmware Device order。
【注意事项】
启用此功能仅适用于Linux;对于Windows或VMware等其他操作系统,不支持该功能。意外启用它可能会导致系统在引导期间挂死。
该功能开启后,服务器重启阶段存储控制卡下设备上报顺序改变,按启动盘、逻辑盘、直通盘顺序上报。但需注意,所有存储控制卡会引入逻辑盘上报乱序,9460卡Personality模式和9560所有模式下直通盘设备上报乱序现象。
该选项修改后需重启服务器生效。
LSI 9560卡52.15.0-3720及以上固件版本支持该功能。
LSI 9540卡52.20.0-4341及以上固件版本支持该功能。
【举例】
#查询存储控制卡Firmware Device order功能状态。
[root@localhost ~]# storcli64 /c0 show deviceorderbyfirmware
CLI Version = 007.2203.0000.0000 May 11, 2022
Operating system = Linux 4.18.0-240.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------------
Ctrl_Prop Value
-------------------------------------
Firmware based device ordering OFF
-------------------------------------
#开启存储控制卡Firmware Device order功能。
[root@localhost ~]# storcli64 /c0 set deviceorderbyfirmware=on
CLI Version = 007.2203.0000.0000 May 11, 2022
Operating system = Linux 4.18.0-240.el8.x86_64
Controller = 0
Status = Success
Description = Please reboot the system for the changes to take effect
Controller Properties :
=====================
-------------------------------------
Ctrl_Prop Value
-------------------------------------
Firmware based device ordering ON
-------------------------------------
#关闭存储控制卡Firmware Device order功能。
[root@localhost ~]# storcli64 /c0 set deviceorderbyfirmware=off
CLI Version = 007.2203.0000.0000 May 11, 2022
Operating system = Linux 4.18.0-240.el8.x86_64
Controller = 0
Status = Success
Description = Please reboot the system for the changes to take effect
Controller Properties :
=====================
-------------------------------------
Ctrl_Prop Value
-------------------------------------
Firmware based device ordering OFF
-------------------------------------
查询、设置LSI存储控制卡Firmware Device order功能状态。
【命令】
storcli64 /ccontroller_id show directpdmapping
storcli64 /ccontroller_id set directpdmapping=mode
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。可将该参数设置为all,表示查询该工具可管理的所有存储控制卡信息。
mode:direct pd mapping功能配置,可选参数如下:
· on:开启direct pd mapping。
· off:关闭direct pd mapping。
【注意事项】
当存储卡连接Expander背板时不可启用该功能。意外启用它会导致存储卡进入Failed状态。
该功能开启后,服务器重启阶段存储卡下直通盘设备按slot号上报。
该选项修改后需重启服务器生效。
LSI 9560卡52.15.0-3720及以上固件版本和配套管理工具支持该功能。
LSI 9540卡52.20.0-4341及以上固件版本和配套管理工具支持该功能。
【举例】
#查询存储控制卡direct pd mapping功能状态。
[root@localhost ~]# storcli64 /c0 show directpdmapping
CLI Version = 007.2203.0000.0000 May 11, 2022
Operating system = Linux 4.18.0-240.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------------
Ctrl_Prop Value
----------------------
Directpdmapping OFF
----------------------
#开启存储控制卡direct pd mapping功能。
[root@localhost ~]# storcli64 /c0 set directpdmapping=on
CLI Version = 007.2203.0000.0000 May 11, 2022
Operating system = Linux 4.18.0-240.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------------------
Ctrl_Prop Value
------------------------------------------------
Directpdmapping ON (Requires reboot for effect)
------------------------------------------------
#关闭存储控制卡direct pd mapping功能。
[root@localhost ~]# storcli64 /c0 set directpdmapping=off
CLI Version = 007.2203.0000.0000 May 11, 2022
Operating system = Linux 4.18.0-240.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------------------------
Ctrl_Prop Value
-------------------------------------------------
Directpdmapping OFF (Requires reboot for effect)
-------------------------------------------------
本功能用于将控制器的自动配置策略设置为RAID 0或者JBOD。
【命令】
storcli64 /ccontroller_id show autoconfig
storcli64 /ccontroller_id set autoconfig=none
storcli64 /ccontroller_id set autoconfig=JBOD
storcli64 /ccontroller_id set autoconfig=r0 [immediate]
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。可将该参数设置为all,表示查询该工具可管理的所有存储控制卡信息。
autoconfig:自动物理驱动器配置策略,通过storcli64 /call show autoconfig命令可以查看自动物理驱动器配置策略
· none: 自动配置驱动器策略为none。
· JBOD:自动配置驱动器策略为JBOD。新连接或重启后的Unconfigured Good盘都会自动配置为JBOD。
· r0: 自动配置驱动器策略为RAID0。设置当时Unconfigured Good盘都会自动配置为RAID0。新连接或重启后的Unconfigured Good盘不做改变。
immediate: 设置自动配置驱动器策略为RAID0后加此参数,设置当时Unconfigured Good盘都会自动配置为RAID0,然后自动配置驱动器策略恢复设置前的策略。
【注意事项】
LSI 9540卡不支持此功能。
【举例】
#查询存储控制卡自动物理驱动器配置策略。
[root@localhost storcli]# ./storcli64 /c0 show autoconfig
CLI Version = 007.2408.0000.0000 Nov 15, 2022
Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------------
Ctrl_Prop Value
---------------------------------------------
AutoConfig NONE
Supported Auto Configure Behaviors NONE JBOD
Support R0 Immediate No
SES Management ON
---------------------------------------------
#设置自动配置驱动器策略为JBOD。
[root@localhost storcli]# ./storcli64 /c0 set autoconfig=JBOD
CLI Version = 007.2408.0000.0000 Nov 15, 2022
Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------
Ctrl_Prop Value
-----------------
AutoConfig JBOD
-----------------
#设置自动配置驱动器策略为RAID0。
[root@localhost storcli]# ./storcli64 /c0 set autoconfig=r0
CLI Version = 007.2408.0000.0000 Nov 15, 2022
Operating system = Linux 5.15.0-60-generic
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------
Ctrl_Prop Value
-----------------
AutoConfig R0
-----------------
#设置自动配置驱动器策略为RAID0 (immediate)。
[root@localhost storcli]# ./storcli64 /c0 set autoconfig=r0 immediate
CLI Version = 007.2408.0000.0000 Nov 15, 2022
Operating system = Linux 5.15.0-60-generic
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------
Ctrl_Prop Value
-----------------
AutoConfig R0
-----------------
故障告警功能包含故障告警和预故障告警,不同存储控制卡不同模式支持情况各不相同,如表5-7和表5-8所示。
存储控制卡系列 |
RAID模式直连硬盘 |
RAID模式连接硬盘扩展板 |
JBOD模式直连硬盘 |
JBOD模式连接硬盘扩展板 |
LSI-9540 |
支持 |
支持 |
不涉及 |
不涉及 |
LSI-9560 |
支持 |
支持 |
支持 |
支持 |
表5-8 预故障告警(PFA)支持情况
存储控制卡系列 |
RAID模式直连硬盘 |
RAID模式连接硬盘扩展板 |
JBOD模式直连硬盘 |
JBOD模式连接硬盘扩展板 |
LSI-9540 |
仅Unconfigured Good、逻辑成员盘、热备盘可识别PFA状态,不亮0.5Hz橙灯 |
仅Unconfigured Good、逻辑成员盘、热备盘可识别PFA状态,亮0.5Hz橙灯 |
不涉及 |
不涉及 |
LSI-9560 |
所有硬盘状态都支持PFA识别,不亮0.5Hz橙灯 |
所有硬盘状态都支持PFA识别,亮0.5Hz橙灯 |
所有硬盘状态都支持PFA识别,不亮0.5Hz橙灯 |
所有硬盘状态都支持PFA识别,亮0.5Hz橙灯 |
关于存储控制卡的故障信息收集、故障诊断定位和故障解决方法的详细说明,请参见《H3C服务器 故障处理手册》。
存储控制卡与服务器的兼容性关系,请查看服务器兼容的部件查询工具。
访问H3C官网下载存储控制卡的驱动程序。驱动程序的安装步骤,请参见与驱动程序一起发布的版本说明书。
不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!