07-第7章 LSI-9440&9460系列&5408系列&LSI-9361&L460&9560&9540
本章节下载: 07-第7章 LSI-9440&9460系列&5408系列&LSI-9361&L460&9560&9540 (12.53 MB)
本节介绍如下型号的存储控制卡,支持最大12Gbit/s的接口速率。部分存储控制卡支持缓存模块,极大地提升了性能和数据安全性。存储控制卡的详细信息及缓存模块支持信息,请参见http://www.h3c.com/cn/home/qr/default.htm?id=315:
· RAID-LSI-9361-8i(1G)-A1-X
· RAID-LSI-9361-8i(2G)-1-X
· HBA-LSI-9440-8i
· RAID-LSI-9460-8i(2G)
· RAID-LSI-9460-8i(4G)
· RAID-LSI-9460-16i(4G)
· RAID-L460-M4
· HBA-H5408-Mf-8i
· RAID-P5408-Mf-8i-4GB
· RAID-P5408-Ma-8i-4GB
· RAID-LSI-9560-LP-16i-8GB
· RAID-LSI-9560-LP-8i-4GB
· RAID-P9560-3S-8i-4G
· HBA-LSI-9540-LP-8i
各存储控制卡支持的RAID级别略有不同,详细信息请参见http://www.h3c.com/cn/home/qr/default.htm?id=315,各RAID级别对应的磁盘数量如表7-1所示。关于RAID级别的说明,请参见“附录B 磁盘阵列和容错方法”。
表7-1 RAID级别与磁盘数量关系
RAID级别 |
最少磁盘数 |
最多故障盘数 |
RAID 0 |
1 |
0 |
RAID 1 |
2 |
硬盘数/2 |
RAID 5 |
3 |
1 |
RAID 6 |
LSI 9560:4 其他阵列卡:3(建议使用4块) |
2 |
RAID 00 |
2 |
0 |
RAID 10 |
4 |
n(n为组成RAID 10的RAID 1的个数) |
RAID 50 |
6 |
n(n为组成RAID 50的RAID 5的个数) |
RAID 60 |
LSI 9560:8 其他阵列卡:6(建议使用8块) |
2n(n为组成RAID 60的RAID 6的个数) |
本章节介绍的存储控制卡,如果支持组建RAID 10/50/60,则最多支持由8个成员RAID 1/5/6组成该RAID 10/50/60。 |
· 建议用户安装没有RAID信息的硬盘。
· 请确保组建同一RAID的所有硬盘类型相同,否则会因硬盘性能不同而造成RAID性能下降或者无法创建RAID。即满足如下两点:
¡ 所有硬盘均为SAS、SATA或NVMe硬盘。
¡ 所有硬盘均为HDD或SSD硬盘。
· 建议组建同一RAID的所有硬盘容量相同。当硬盘容量不同时,系统以最小容量的硬盘为准,即将所有硬盘容量都视为最小容量。
· 不建议将一个硬盘用在多个RAID中,该情况会使后期维护变得复杂,并影响RAID的性能。
本节介绍在UEFI启动模式下通过存储控制卡配置RAID的方法。关于进入BIOS界面和设置BIOS启动模式为UEFI的详细介绍,请参见BIOS用户指南中的对应章节。
不同BIOS版本的界面有所差异,本手册仅以其中一种BIOS版本举例,操作界面请以实际情况为准。
本节介绍进入存储控制卡配置界面的操作步骤。
(1) 进入BIOS。
在服务器启动过程中,根据提示按下Delete或Esc(部分产品按Delete或F2)进入如图7-1所示的BIOS Setup界面(部分产品进入Front界面,请选择Device Management,进入设备管理菜单)。请参考界面右下角的按键操作提示,以实现在界面中导航和修改设置。
(2) 进入存储控制器管理界面。
如图7-2所示,进入Advanced页签,并选择存储控制器(如:AVAGO MegaRAID<AVAGO MegaRAID SAS 9361-8i>),按Enter。
(3) 进入图7-3所示界面,选择Main Menu,按Enter。
(4) 进入图7-4所示界面,界面上显示了五大类配置任务(相关说明请参见表7-2)。
选项 |
概要说明 |
Configuration Management |
选择配置管理来执行任务,如创建逻辑磁盘、查看磁盘组属性,查看热备信息、清除配置。 |
Controller Management |
选择控制器管理以查看和管理控制器属性并执行任务,如清除控制器事件、调度和运行控制器事件,运行巡检读取。 |
Virtual Drive Management |
选择逻辑磁盘管理来执行任务,如查看逻辑磁盘属性、定位逻辑磁盘,运行一致性检查。 |
Drive Management |
选择磁盘管理以查看物理磁盘属性和执行任务,如定位磁盘,初始化磁盘和磁盘失败后重建。 |
Hardware Components |
选择硬件组件查看超级电容属性,管理超级电容和管理外围组件。 |
存储控制卡支持切换如下四种磁盘状态。
· Unconfigured Good:表示该物理磁盘正常,可用于配置RAID或热备盘。
· Unconfigured Bad:表示该物理盘已损坏或存在RAID残留信息,物理盘损坏时请更换;RAID信息残留时,请手动进行清除。
· Hotspare:表示该物理磁盘为热备盘。
· JBOD/JBOD online:Just a Bunch Of Disks,直通盘/类直通盘,不可用于配置RAID。
型号为RAID-LSI-9560-LP-16i-8G和RAID-LSI-9560-LP-8i-4GB的存储控制卡设置为直通盘模式时,直通盘状态为JBOD Online,本章节介绍的其他存储控制卡设置为直通盘模式时,直通盘状态为JBOD。
此处以Unconfigured Good状态切换为Unconfigured Bad状态举例。
(1) 如图7-5所示,在存储控制卡配置界面选择Drive Management,按Enter。
(2) 进入图7-6所示界面,选择待配置的磁盘,按Enter。
(3) 进入图7-7所示界面,选中Operation,按Enter,然后在弹出的对话框中选择Make Unconfigured Bad,按Enter。
图7-7 Operation操作界面
(4) 进入图7-8所示界面,选择Go,按Enter。
(5) 进入图7-9所示界面,完成切换磁盘状态操作。
(1) 如图7-10所示,在存储控制卡配置界面选择Configuration Management,按Enter。
(2) 进入图7-11所示界面,选择Create Virtual Drive,按Enter。
(3) 进入图7-12所示界面,选择Select RAID Level,设置RAID级别,按Enter。
(4) 进入图7-13所示界面,选择Select Drives From,设置RAID的磁盘容量来源,按Enter。
· [Unconfigured Capacity] 表示容量来自空的磁盘。
· [Free Capacity] 表示容量来自已配置RAID的磁盘的剩余容量。
图7-13 设置RAID的磁盘容量来源
(5) 进入图7-14所示界面,选择Select Drives,按Enter。
(6) 进入图7-15所示界面,选择要用来配置RAID的磁盘,[Enabled]表示选中,然后选择Apply Changes,按Enter。如果磁盘的状态为JBOD或Unconfigured Bad,则无法选择。
(7) 进入图7-16所示界面,进行相应的设置(参数说明请参见表7-3),然后选择Save Configuration,按Enter。
参数 |
说明 |
Virtual Drive Name |
RAID的名称,仅支持字母、数字和特殊字符,不区分大小写 |
Virtual Drive Size |
RAID的容量大小 |
Virtual Drive Size Unit |
RAID的容量单位 |
Stripe Size |
条带大小,写在每块磁盘上的条带数据块的大小 |
Read Policy |
读缓存策略,分为: · Read ahead:开启预读取功能。存储控制卡可以预读取顺序数据或预测需要即将使用到的数据,并存储到Cache中。 · No read ahead:关闭预读取功能。 |
Write Policy |
写缓存策略,分为: · Write through:直写模式。当物理盘接收到所有传输数据后,存储控制卡将给主机返回数据传输完成信号。 · Write back:回写模式一。当存储控制卡中的Cache收到所有的传输数据后,存储控制卡将给主机返回数据传输完成信号。该模式下,如果存储控制卡未安装超级电容或超级电容损坏,存储控制卡将自动切换到Write through模式。 · Always write back:回写模式二。强制使用Write back模式,该模式下,如果存储控制卡未安装超级电容或超级电容损坏,也不会切换到Write through模式。此时,若主机掉电,存储控制卡中的Cache会由于缺失供电电源而丢失其中的数据。 |
Access Policy |
读写策略,分为: · Read/Write:可读可写 · Read Only:只读 · Blocked:禁止操作 |
I/O Policy |
I/O 策略,分为: · Direct:在读、写场景中的定义不同: ¡ 在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID卡的Cache处理) ¡ 在写场景中,写数据经过RAID卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID卡的Cache处理,直接写入硬盘) · Cached:所有读和写均经过RAID卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐 |
Drive Cache |
磁盘缓存策略,分为: · Enable:开启,读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失 · Disable:关闭,读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失 · Unchanged:保持当前策略 |
Disable Background Initialization |
使能或禁用后台初始化方式 |
Default Initialization |
默认初始化方式,分为: · NO:不进行初始化 · Fast:快速初始化 · Full:完全初始化 |
Emulation Type |
控制逻辑盘在OS中上报的扇区,分为: · Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n · Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n · Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K) |
Save Configuration |
保存配置 |
(8) 进入图7-17所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(9) 进入图7-18所示界面,完成配置RAID操作,选择OK,返回存储控制卡配置界面。
(10) 如图7-19所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(11) 进入图7-20所示界面,可以看到已创建的RAID,选择需要查看的RAID,按Enter。
图7-20 Vitrual Drive Management界面
(12) 进入图7-21所示界面,选择View Associated Drives,按Enter,即可查看该RAID的详细信息(包括RAID名称、级别,所含磁盘信息等)。
图7-21 选择View Associated Drives
配置RAID后一般会配置热备盘来提高数据的安全性。可根据需要配置全局热备盘或专用热备盘。
· 热备盘仅供存在冗余的RAID级别使用。
· 热备盘的容量要大于等于RAID最小成员盘的容量。
· 仅支持配置状态为Unconfigured Good的磁盘为热备盘。
· 配置全局热备盘
(1) 如图7-22所示,在存储控制卡配置界面选择Drive Management,按Enter。
(2) 进入图7-23所示界面,选择待配置为全局热备盘的磁盘,按Enter。
(3) 进入图7-24所示界面,选中Operation,按Enter,然后再选择Assign Global Hot Spare Drive,按Enter。
图7-24 Operation操作界面
(4) 进入图7-25所示界面,选择Go,按Enter。
(5) 进入图7-26所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(6) 进入图7-27所示界面,完成配置全局热备盘操作。
· 配置专用热备盘
(1) 如图7-28所示,在存储控制卡配置界面选择Drive Management,按Enter。
(2) 进入图7-29所示界面,选择待配置为专用热备盘的磁盘,按Enter。
(3) 进入图7-30所示界面,选中Operation,按Enter,然后再选择Assign Dedicated Hot Spare Drive,按Enter。
图7-30 Operation操作界面
(4) 进入图7-31所示界面,选择Go,按Enter。
(5) 进入图7-32所示界面,选择需要配置专用热备盘的逻辑磁盘,使其Enable,选择OK,按Enter。
(6) 进入图7-33所示界面,完成配置专用热备盘操作。
本功能用于删除已损坏或难以满足需求的RAID。
(1) 如图7-34所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(2) 进入图7-35所示界面,选择待删除的逻辑磁盘,按Enter。
(3) 进入图7-36所示界面,选中Operation,按Enter,然后在弹出的对话框中选择Delete Virtual Drive,按Enter。
图7-36 Operation操作界面
(4) 进入图7-37所示界面,选择Go,按Enter。
(5) 进入图7-38所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(6) 进入图7-39所示界面,完成删除RAID操作。
本功能通过点亮磁盘对应槽位的蓝色指示灯,方便您快速找到磁盘。可定位单个物理磁盘或某个逻辑磁盘包括的全部成员磁盘。
· 定位物理磁盘
(1) 如图7-40所示,在存储控制卡配置界面选择Drive Management,按Enter。
(2) 进入图7-41界面,选择待定位的磁盘,按Enter。
(3) 进入图7-42界面,选择Operation,按Enter,然后在弹出的对话框中选择Start Locate,按Enter。
图7-42 Operation操作界面
(4) 进入图7-43界面,选择Go,按Enter。
(5) 进入图7-44界面,完成定位物理磁盘位置操作。
· 定位逻辑磁盘中的全部磁盘
(6) 如图7-45所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(7) 进入图7-46界面,选择待定位的逻辑磁盘,按Enter。
(8) 进入图7-47界面,选中Operation,按Enter,然后在弹出的对话框中选择Start Locate,按Enter。
图7-47 Operation操作界面
(9) 进入图7-48界面,选择Go,按Enter。
(10) 进入图7-49界面,完成定位逻辑磁盘中的全部磁盘位置操作。
本功能用于初始化逻辑磁盘内部数据空间。
(1) 如图7-50所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(2) 进入图7-51所示界面,选择待初始化的逻辑磁盘,按Enter。
(3) 进入图7-52所示界面,选中Operation,按Enter,然后在弹出的对话中选择Fast/Slow Initialization,按Enter。
图7-52 Operation操作界面
Fast Initialization与Slow Initialization的区别在于前者能够立即写数据,后者需等待磁盘空间全部完成初始化后,才能写数据。
(4) 进入图7-53所示界面,选择Go,按Enter。
(5) 进入图7-54所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(1) 如图7-56所示,在存储控制卡配置界面选择Drive Management,按Enter。
(2) 进入图7-57所示界面,选择待初始化的磁盘,按Enter。
(3) 进入图7-58界面,选中Operation,按Enter,然后在弹出的对话框中选择Initialize Drive,按Enter。
图7-58 Operation管理界面
(4) 进入图7-59界面,选择Go,按Enter。
(5) 进入图7-60所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(6) 进入图7-61界面,完成初始化物理磁盘操作。
本功能用于删除磁盘内部数据,包括擦除物理磁盘数据和逻辑磁盘数据。
· 擦除物理磁盘数据
(1) 如图7-62所示,在存储控制卡配置界面选择Drive Management,按Enter。
(2) 进入图7-63所示界面,选择待擦除数据的磁盘,按Enter。
(3) 进入图7-64所示界面,选中Operation,按Enter,然后在弹出的对话框里选择Drive Erase,按Enter。
图7-64 Operation操作界面
对于Drive Erase选项,部分存储控制卡对于SATA硬盘的配置选项是Drive Erase,对于SAS硬盘是Cryptographic Erase。
(4) 进入图7-65所示界面,按Enter,然后在弹出的对话框中选择擦除模式(建议使用缺省模式:Simple)。
(5) 进入图7-66所示界面,选择Go,按Enter。
(6) 进入图7-67所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(7) 进入图7-68所示界面,完成擦除物理磁盘数据操作。
为避免磁盘故障,请勿在擦除物理磁盘数据期间进行其他操作。
· 擦除逻辑磁盘数据
(8) 如图7-69所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(9) 进入图7-70所示界面,选择待擦除数据的逻辑磁盘,按Enter。
(10) 进入图7-71所示界面,选中Operation,按Enter,然后在弹出的对话框中选择Virtual Drive Erase,按Enter。
图7-71 Operation 操作界面
(11) 进入图7-72所示界面,按Enter,然后在弹出的对话框中选择擦除模式(建议使用缺省模式:Simple)。
(12) 进入图7-73所示界面,选择Go,按Enter。
(13) 进入图7-74所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(14) 进入图7-75所示界面,完成擦除逻辑磁盘数据操作。
LSI 9440&9460&9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。
本功能用于扩充RAID的容量来提升RAID的可用性,存储控制卡通过设置逻辑盘剩余容量比例来扩充RAID的容量。
(1) 如图7-76所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(2) 进入图7-77所示界面,选择待扩容的逻辑磁盘,按Enter。
图7-77 Virtual Drive Management管理界面
(3) 进入图7-78所示界面,选择Operation,按Enter,然后在弹出的对话框中选择Expand Virtual Drive,按Enter。
图7-78 Operation操作界面
(4) 进入图7-79所示界面,选择Go,按Enter。
(5) 进入图7-80所示界面,修改Enter a Percentage of Avaliable Capacity栏参数来修改磁盘剩余可用容量的比例,选择OK,按Enter。
(6) 进入图7-81所示界面,完成扩容RAID操作。
LSI 9440&9460&9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。
本功能用于不影响当前数据完整性的情况下,对RAID的级别进行修改以达到配置需求。
(1) 如图7-82所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(2) 进入图7-83所示界面,选择待迁移的逻辑磁盘,按Enter。
图7-83 Virtual Drive Management管理界面
(3) 进入图7-84所示界面,选择Operation,按Enter,然后在弹出的对话框中选择Reconfigure Virtual Drive,按Enter。
图7-84 Operation操作界面
(4) 进入图7-85所示界面,选择Go,按Enter。
(5) 进入图7-86所示界面,设置RAID级别,选择Choose the Operation,按Enter。
(6) 进入图7-87所示界面,选择待添加的磁盘,使其Enabled,选择Apply Changes,按Enter。
可以通过增加或减少成员盘实现迁移逻辑盘级别。
(7) 进入图7-88所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(8) 进入图7-89所示界面,选择Start Operation,按Enter。
(9) 进入图7-90所示界面,选择OK,按Enter。
(10) 进入图7-91所示界面,可以查看当前迁移进度。
图7-91 RAID信息界面
本功能用于清除磁盘中的RAID残留信息,使磁盘可重新用来配置RAID。
(1) 将磁盘状态Unconfigured Bad切换为Unconfigured Good,具体步骤请参见7.2.1 2. 切换磁盘状态。
(2) 如图7-92所示,在存储控制卡配置界面选择Configuration Management,按Enter。
(3) 进入图7-93所示界面,选择Manage Foreign Configuration,按Enter。
图7-93 选择Manage Foreign Configuration
(4) 进入图7-94所示界面,选择Clear Foreign Configuration,按Enter。
图7-94 选择Clear Foreign Configuration
(5) 进入图7-95所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(6) 进入图7-96所示界面,完成清除磁盘RAID信息操作。
本功能用于隐藏所选择的RAID。
(1) 如图7-97所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(2) 进入图7-98所示界面,选择待隐藏的逻辑磁盘,按Enter。
图7-98 Virtual Drive Management管理界面
(3) 进入图7-99所示界面,选中Operation,按Enter,然后在弹出的对话框中选择Hide Virtual Drive,按Enter完成隐藏RAID操作。
图7-99 Operation操作界面
本功能用于隐藏磁盘组,磁盘组隐藏后,在该磁盘组上组建的所有逻辑盘在系统下均不可见。
磁盘组是由指定数量磁盘组成的集合,一般在创建第一个逻辑盘时确定磁盘组成员,在磁盘组上可以组建特定级别的逻辑盘。
(1) 如图7-100所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(2) 进入图7-101所示界面,选择待隐藏的逻辑磁盘,按Enter。
图7-101 Virtual Drive Management管理界面
(3) 进入图7-102所示界面,选中Operation,按Enter,然后在弹出的操作对话框里选择Hide Drive Group,按Enter。
图7-102 Operation操作界面
您可通过该功能升级RAID的固件版本。需要注意的是,使用U盘升级固件时,固件文件放置在U盘根目录或一级目录下,否则BIOS下无法找到固件文件。
(1) 如图7-103所示,在Advanced界面中选择Update Firmware,按Enter。
(2) 进入图7-104所示界面,选择升级固件的目录,按Enter。
(3) 进入如图7-105所示界面,选择待升级的固件版本文件,按Enter。
(4) 进入图7-106所示界面,选择Update,按Enter。
(5) 进入图7-107所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
确认升级后,页面将短暂卡住,此时正在进行固件升级,请勿进行其他操作。
(6) 进入图7-108所示界面,选择OK,按Enter完成升级操作。
(7) 重启BIOS使操作生效。
本功能用于切换存储控制卡模式,包括JBOD模式和RAID模式。
(1) 如图7-109所示,在Advanced界面中选择Main Menu,按Enter。
图7-109 Advanced界面选择Main Menu
(2) 如图7-110所示,选择Controller management,按Enter。
图7-110 选择Controller management
(3) 如图7-111所示,选择Advanced Controller management,按Enter。
图7-111 选择Advanced Controller management
(4) 如图7-112所示,选择Manage Personality Mode,按Enter。
图7-112 选择Manage Personality Mode
(5) 如图7-113所示,当前为RAID模式,如需切换到JBOD模式,则选择Switch to JBOD Mode,按Enter。
(6) 如图7-114所示,选择Confirm,使其Enabled,选择Yes,按Enter。
当切换存储控制卡模式为JBOD模式时,存储控制卡上的逻辑盘也可以一并切换至JBOD 模式,需要注意的是,当强制进行切换的时候,不支持的逻辑盘无法保留数据。因此推荐任何LSI存储控制卡切换模式前都先将硬盘状态切换为Unconfigued Good状态。以RAID-LSI-9560-LP-8i-4GB举例,RAID 5,RAID 6,RAID 50,RAID 60的逻辑盘无法切换为JBOD模式,具体以界面提示信息为准。
(7) 如图7-115所示,存储控制卡模式已成功切换,选择OK,按Enter重启操作系统后即可应用配置。
当发生故障的硬盘数量超出逻辑磁盘容错方法可承受的范围,管理工具界面逻辑磁盘会显示为Offline状态,因此可以使用Place Drive Online功能使逻辑磁盘强制上线。
使用此功能可能会改变逻辑磁盘中的数据,在执行Place Drive Online前需要进行评估是否执行该操作。
(1) 如图7-116所示,在存储控制卡配置界面选择Virtual Drive Management,按Enter。
(2) 进入如图7-117所示界面,选择Offline的逻辑磁盘,按Enter。
图7-117 Vitrual Drive Management界面
(3) 进入如图7-118所示界面,选择View Associated Drives,按Enter。
图7-118 选择View Associated Drives
(4) 进入如图7-119所示界面,选择Offline的成员盘,使其Enabled,选择View Drive Properties,按Enter。
图7-119 选择View Drive Properties
(5) 进入如图7-120所示界面,选中Operation,按Enter,然后再选择Place Drive Online,按Enter。
(6) 进入如图7-121所示界面,选择Go,按Enter。
(7) 进入图7-122所示界面,选择Confirm,使其Enabled,选择Yes,按Enter。
(8) 进入如图7-123所示界面,完成Place Drive Online操作。
本功能用于启用或禁用蜂鸣器设置。
(1) 如图7-124所示,在存储控制卡配置界面选择Controller Management,按Enter。
(2) 进入图7-125所示Controller Management界面,选择Advanced Controller Properties,按Enter。
图7-125 Controller Management界面
(3) 进入图7-126所示Advanced Controller Properties界面,选中Alarm Control,按Enter,然后在弹出的对话框中选择Enabled/Disabled,按Enter完成开启/关闭蜂鸣器操作。
LSI9560/9540已移除蜂鸣器,因此无Alarm Control选项。
本功能用于静音蜂鸣器报警。
(1) 进入存储控制器管理界面。
如图7-127所示,进入Advanced页签,并选择存储控制器(如:AVAGO MegaRAID<AVAGO MegaRAID SAS 9361-8i>),按Enter。
(2) 进入图7-3所示界面,选择Slience Alarm,按Enter。
图7-128 选择Slience Alarm
本节介绍在Legacy启动模式下通过存储控制卡配置RAID的方法。关于进入BIOS界面和设置BIOS启动模式为Legacy的详细介绍,请参见BIOS用户指南中的对应章节。
本章节介绍的存储控制卡中,仅LSI-9361系列存储控制卡支持在Legacy启动模式下进入存储控制卡配置界面配置RAID功能;其他型号的存储控制卡在Legacy启动模式下支持在post界面中,查看存储控制卡及其控制的物理盘和逻辑盘,但无法进入存储控制卡配置界面配置RAID功能。
不同BIOS版本的界面有所差异,本手册仅以其中一种BIOS版本举例,操作界面请以实际情况为准。
(1) 在BIOS启动过程中,出现如图7-129所示界面后,按Ctrl+R。
图7-129 BIOS启动过程中根据提示按Ctrl+R
(2) 进入图7-130所示界面。请参考界面下边框处的按键操作提示,以实现在界面中导航和修改设置。
图7-130 LSI RAID管理界面
存储控制卡支持切换如下四种磁盘状态。
· Unconfigured Good:表示该物理磁盘正常,可用于配置RAID或热备盘。
· Unconfigured Bad:表示该物理盘已损坏或存在RAID残留信息,物理盘损坏时请更换;RAID信息残留时,请手动进行清除。
· Hotspare:表示该物理磁盘为热备盘。
· JBOD:Just a Bunch Of Disks,直通盘,不可用于配置RAID。
此处以Unconfigured Bad状态切换为Unconfigured Good状态举例。
(1) 如图7-131所示,在PD Mgmt界面选择待切换状态的磁盘,按F2。
(2) 进入图7-132所示界面,选择Make unconfigured good,按Enter完成切换磁盘状态操作。
图7-132 选择Make unconfigured good
(1) 如图7-133所示,在VD Mgmt界面按F2,选择Create Virtual Drive。
(2) 进入图7-134所示界面,设置RAID级别,按Enter。
(3) 进入图7-135所示界面,选择用来配置RAID的磁盘,按Enter。
(4) 进入图7-136所示界面,对Size与Name进行相应的设置,然后选择Advanced,按Enter。
图7-136 设置RAID名称与容量大小
(5) 进入图7-137所示界面,设置相关参数(参数说明请参见表7-3),然后选择OK,按Enter。
(6) 进入图7-138所示界面,选择OK,按Enter完成配置RAID操作。
(7) 选择待查看的RAID,按Enter,即可查看该RAID的详细信息(包括RAID名称、级别,所含磁盘信息等),如图7-139所示。
配置RAID后一般会配置热备盘来提高数据的安全性。可根据需要配置全局热备盘和专用热备盘。
· 热备盘仅供存在冗余的RAID级别使用。
· 热备盘的容量要大于等于RAID最小成员盘的容量。
· 仅支持配置状态为Unconfigured Good的磁盘为热备盘。
· 配置全局热备盘
(1) 如图7-140所示,在PD Mgmt界面选择待配置为全局热备盘的磁盘,按F2。
(2) 进入图7-141所示界面,选择Make Global HS,按Enter完成配置全局热备盘操作。
(3) 返回到图7-142所示界面,选择热备盘可查看全局热备盘相关信息。
· 配置专用热备盘
此处以创建RAID同时配置专用热备盘为例介绍操作过程。
(1) 在VD Mgmt管理界面按F2,选择Manage Ded.HS。
(2) 进入图7-143所示界面,选择磁盘,选择Advanced,按Enter。
(3) 进入图7-144所示界面,选择Configure HotSpare选项,选择OK,按Enter。
(4) 进入图7-145所示界面,选择待配置为专用热备盘的磁盘,选择OK,按Enter完成配置专用热备盘操作。
本功能用于删除已损坏或难以满足需求的RAID。
(1) 如图7-146所示,在VD Mgmt界面选择待删除的逻辑磁盘,按F2。
(2) 进入图7-147所示界面,选择Delete VD,按Enter。
(3) 进入图7-148所示界面,选择YES,按Enter完成删除RAID操作。
本功能通过点亮磁盘对应槽位的蓝色指示灯,方便您快速找到磁盘。
(1) 如图7-149所示,在PD Mgmt界面选择待定位的磁盘,按F2。
(2) 进入图7-150所示界面,选择Locate-〉Start,完成磁盘定位操作。
图7-150 选择Locate-〉Start
· Locate-〉Start:开始磁盘定位操作。
· Locate-〉Stop:停止定位磁盘操作。
本功能用于初始化磁盘内部数据空间。
(1) 如图7-151所示,在VD Mgmt界面选择待初始化的磁盘,按F2。
(2) 进入图7-152所示界面,选择Initialization-〉Start FGI。
图7-152 选择Initialization-〉Start FGI
· BGI:Backgroud Initialization,后台初始化,先将RAID的部分空间初始化用于写数据,其余空间在后台初始化。
· FGI:Full Groud Initialization,全盘初始化,将RAID的所有空间进行初始化,初始化完成后才能进行写数据。
(3) 进入图7-153所示界面,选择YES,按Enter完成初始化磁盘操作。
本功能用于删除磁盘内部数据,包括擦除物理磁盘数据和逻辑磁盘数据。
· 擦除物理磁盘数据
(1) 如图7-154所示,在PD Mgmt界面选择待擦除的物理磁盘,按F2。
(2) 进入图7-155所示界面,选择擦除模式(建议使用缺省模式:Simple),按Enter。
(3) 进入图7-156所示界面,选择Yes,按Enter完成擦除物理磁盘数据操作。
为避免磁盘故障,请勿在擦除物理磁盘数据期间进行其他操作。
· 擦除逻辑磁盘数据
(4) 如图7-157所示,在VD Mgmt界面选择待擦除的逻辑磁盘,按F2。
(5) 进入图7-158所示界面,选择擦除模式(建议使用缺省模式:Simple),按Enter。
(6) 进入图7-159所示界面,选择Yes,按Enter完成擦除逻辑磁盘数据操作。
LSI 9440&9460&9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。
本功能用于扩充RAID的容量来提升RAID的可用性,存储控制卡通过设置逻辑盘剩余容量比例来扩充RAID的容量。
(1) 如图7-160所示,在VD Mgmt界面选择待扩容的逻辑磁盘,按F2。
(2) 进入图7-161所示界面,选择Expand VD size,按Enter。
(3) 进入图7-162所示界面,按照提示输入用于扩容的可用容量的比例,然后选择Resize,按Enter完成扩容RAID操作。
本功能用于清除磁盘中的RAID残留信息,使磁盘可重新用来配置RAID。
(1) 将磁盘状态Unconfigured Bad切换为Unconfigured Good,具体步骤请参见7.3.1 2. 切换磁盘状态。
(2) 如图7-163所示,在Foreign View界面,选择存储控制卡,按F2,选择Foreign Config->Clear,按Enter。
图7-163 选择Foreign Config->Clear
(3) 在弹出的图7-164所示对话框中,选择OK,按Enter完成清除磁盘RAID信息操作。
本功能用于隐藏所选择的RAID。
进入如图7-165所示界面,选择Hide VD,按Enter。
本功能用于隐藏磁盘组,磁盘组隐藏后,在该磁盘组上组建的所有逻辑盘在系统下均不可见。
进入如图7-166所示界面,选择Hide Drive Group,按Enter。
(1) 如图7-167所示,在Ctrl Mgmt界面,在Boot device选择栏选择将要配置为第一启动项的硬盘或逻辑盘,按Enter。
(2) 如图7-168所示选择APPLY,按Enter,完成启动项配置。
本节介绍OS命令行工具的下载和安装步骤。OS命令行工具可在服务器正常运行中对RAID卡进行操作,无需重启服务器。
(1) 登录https://www.h3c.com/cn/BizPortal/DownLoadAccessory/DownLoadAccessoryFilt.aspx。
(2) 按照提示信息下载对应存储控制卡的固件安装包及版本说明书。
(3) 解压固件安装包后得到适用于不同操作系统的StorCLI工具包。
请参考固件版本说明书安装不同操作系统下的StorCLI工具。
本节介绍OS命令行工具常用命令的使用方法及示例。OS命令行工具可在服务器正常运行中对RAID卡进行操作,无需重启服务器。
本工具涉及指定路径相关的命令均不支持空格和特殊字符。
查询LSI存储控制卡的基本信息。
【命令】
storcli64 /ccontroller_id show [logfile=logfilename]
storcli64 /ccontroller_id show all [logfile=logfilename]
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。all:表示查询该工具可管理的所有存储控制卡信息。
logfilename:导出的查询信息文件名。
【举例】
#查询存储控制卡的基本信息。
[root@localhost ~]# storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
CLI Version = 007.2408.0000.0000 Nov 15, 2022
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Product Name = MegaRAID 9560-8i 4GB
Serial Number = SK01065334
SAS Address = 500062b2024fe0c0
PCI Address = 00:4b:00:00
System Time = 11/09/2023 14:38:46
Mfg. Date = 03/04/20
Controller Time = 11/09/2023 06:38:47
FW Package Build = 52.24.0-4763
BIOS Version = 7.24.01.0_0x07180100
FW Version = 5.240.02-3768
Driver Name = megaraid_sas
Driver Version = 07.726.02.00
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x10E2
SubVendor Id = 0x1000
SubDevice Id = 0x4010
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 75
Device Number = 0
Function Number = 0
Domain ID = 0
Security Protocol = None
Drive Groups = 1
TOPOLOGY :
========
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size PDC PI SED DS3 FSpace TR
-----------------------------------------------------------------------------
0 - - - - RAID1 Optl N 893.750 GB dflt N N none N N
0 0 - - - RAID1 Optl N 893.750 GB dflt N N none N N
0 0 0 249:0 31 DRIVE Onln N 893.750 GB dflt N N none - N
0 0 1 249:1 30 DRIVE Onln N 893.750 GB dflt N N none - N
-----------------------------------------------------------------------------
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Optl=Optimal|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Virtual Drives = 1
VD LIST :
=======
---------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC Size Name
---------------------------------------------------------------
0/235 RAID1 Optl RW No RWBD - ON 893.750 GB
---------------------------------------------------------------
VD=Virtual Drive| DG=Drive Group|Rec=Recovery
Cac=CacheCade|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|dflt=Default|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady
B=Blocked|Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
JBOD Drives = 12
JBOD LIST :
=========
---------------------------------------------------------------------------------------
ID EID:Slt DID State Intf Med Size SeSz Model Vendor Port
---------------------------------------------------------------------------------------
4 249:4 32 Onln SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA C0.0 & C0.1
5 249:5 9 Onln SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA C0.0 & C0.1
6 249:6 1 Onln SAS HDD 7.277 TB 512B HUS728T8TAL5204 HGST C0.0 & C0.1
7 249:7 33 Onln SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA C0.0 & C0.1
8 249:8 16 Onln SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA C0.0 & C0.1
9 249:9 22 Onln SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA C0.0 & C0.1
10 249:10 17 Onln SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA C0.0 & C0.1
11 249:11 11 Onln SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA C0.0 & C0.1
12 249:12 20 Onln SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA C0.0 & C0.1
13 249:13 13 Onln SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA C0.0 & C0.1
14 249:14 12 Onln SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA C0.0 & C0.1
15 249:15 21 Onln SATA HDD 7.277 TB 512B HGST HUS728T8TALE6L4 ATA C0.0 & C0.1
---------------------------------------------------------------------------------------
ID=JBOD Target ID|EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|Onln=Online
Offln=Offline|Intf=Interface|Med=Media Type|SeSz=Sector Size
SED=Self Encryptive Drive|PI=Protection Info|Sp=Spun|U=Up|D=Down
Physical Drives = 14
PD LIST :
=======
---------------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp Type
---------------------------------------------------------------------------------------
249:0 31 Onln 0 893.750 GB SATA SSD N N 512B Micron_5300_MTFDDAK960TDS U -
249:1 30 Onln 0 893.750 GB SATA SSD N N 512B Micron_5300_MTFDDAK960TDS U -
249:4 32 Onln - 7.277 TB SATA HDD N N 512B HGST HUS728T8TALE6L4 U JBOD
249:5 9 Onln - 7.277 TB SATA HDD N N 512B HGST HUS728T8TALE6L4 U JBOD
249:6 1 Onln - 7.277 TB SAS HDD N N 512B HUS728T8TAL5204 U JBOD
249:7 33 Onln - 7.277 TB SATA HDD N N 512B HGST HUS728T8TALE6L4 U JBOD
249:8 16 Onln - 7.277 TB SATA HDD N N 512B HGST HUS728T8TALE6L4 U JBOD
249:9 22 Onln - 7.277 TB SATA HDD N N 512B HGST HUS728T8TALE6L4 U JBOD
249:10 17 Onln - 7.277 TB SATA HDD N N 512B HGST HUS728T8TALE6L4 U JBOD
249:11 11 Onln - 7.277 TB SATA HDD N N 512B HGST HUS728T8TALE6L4 U JBOD
249:12 20 Onln - 7.277 TB SATA HDD N N 512B HGST HUS728T8TALE6L4 U JBOD
249:13 13 Onln - 7.277 TB SATA HDD N N 512B HGST HUS728T8TALE6L4 U JBOD
249:14 12 Onln - 7.277 TB SATA HDD N N 512B HGST HUS728T8TALE6L4 U JBOD
249:15 21 Onln - 7.277 TB SATA HDD N N 512B HGST HUS728T8TALE6L4 U JBOD
---------------------------------------------------------------------------------------
EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Sntze=Sanitize|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=UGood Unsupported|UGShld=UGood shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported|Rbld=Rebuild
Enclosures = 1
Enclosure LIST :
==============
-----------------------------------------------------------------------------
EID State Slots PD PS Fans TSs Alms SIM Port# ProdID VendorSpecific
-----------------------------------------------------------------------------
249 OK 28 14 0 1 7 0 0 C0.0 & C0.1 x8 Cub exp-2.1.1.0
-----------------------------------------------------------------------------
EID=Enclosure Device ID | PD=Physical drive count | PS=Power Supply count
TSs=Temperature sensor count | Alms=Alarm count | SIM=SIM Count | ProdID=Product ID
Cachevault_Info :
===============
------------------------------------
Model State Temp Mode MfgDate
------------------------------------
CVPM05 Optimal 27C - 2019/09/18
------------------------------------
#查询存储控制卡的所有信息,并保存到指定文件。
[root@localhost ~]# storcli64 /c0 show all logfile=logfile.txt
切换存储控制卡的工作模式。
【命令】
storcli64 /ccontroller_id set personality =mode
【缺省情况】
默认存储控制卡工作在RAID模式。
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
mode:可选参数如下:
· raid:切换存储控制卡到RAID模式。
· jbod:切换存储控制卡到JBOD模式。
【注意事项】
· 使用此命令行前,请确保存储控制卡的固件为最新版本,较低版本可能不支持JBOD模式。
· 使用此命令行前,请确保存储控制卡控制的硬盘均为Unconfigured Good状态。
· 使用此命令行后,需要重启操作系统后方能生效。
【举例】
#切换存储控制卡模式为JBOD。
[root@localhost home]# ./storcli64 /c0 set personality=jbod
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------------------------------------------
Ctrl_Prop Value
------------------------------------------------------------------------
Set Personality JBOD (Reboot the system for the change to take effect.)
------------------------------------------------------------------------
升级、降级或平级更新存储控制卡的固件。
【命令】
固件升级:
storcli64 /ccontroller_id download file= fw_file
固件降级或者平级更新:
storcli64 /ccontroller_id download file= fw_file noverchk
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准;
fw_file:固件文件。
noverchk:降级或平级更新存储控制卡固件时,不检查固件镜像的版本。
【注意事项】
若存储控制卡固件文件不再当前路径下,则需要在fw_file前加上文件的绝对路径。
【举例】
#更新存储控制卡固件。
[root@localhost home]# ./storcli64 /c0 download file=MR_4MB.rom noverchk
Download Completed.
Flashing image to adapter...
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = F/W Flash Completed. Please reboot the system for the changes to take effect
创建和删除RAID。
【命令】
创建RAID:storcli64 /ccontroller_id add vd rraid_level [size=<vd1_size>,..] [name=<vdname1>,..] drives= vd_drives [pdperarray= pdperarraynum] [pdcache=pdcache_policy] [pi] [wt|wb|awb] [nora|ra] [strip=strip_size] [emulationtype=emulationtype] [spares =spares_drives]
删除RAID:storcli64 /ccontroller_id/vraid_id del
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
raid_level :RAID级别,可选0|1|5|6|00|10|50|60。
vd1_size :RAID容量设定值,单位gb,输入all代表可用全容量组建。
vdname1 :逻辑盘命名。
vd_drives :选择成员盘,格式为enclosure_id:slot_id,enclosure_id为所在Enclosure的id,slot_id为目标成员盘的slot id。
pdperarraynum:符合RAID(10|50|60)级别时需要确定子组中的硬盘数。
pdcache_policy :成员盘的缓存设定,可选on|off|default,default代表默认硬盘当前的缓存状态,不做修改。
pi:开启数据保护。
wt|wb|awb:writecache写缓存策略也,可选wt(write through当数据落盘后告知系统传输完成)、wb(write back当数据写入控制卡cache即告知系统传输完成)、awb(always write back在没有超级电容保护时,强制使用wb,主机遇异常掉电会有数据丢失风险)。
nora|ra:readcache读缓存策略,ra当从RAID中读取数据时,会把周边数据同时读出存在cache中,用户随后访问这些数据时可以直接从cache中读取,减少磁盘寻道时间,提升读取性能。
strip_size:条带大小,MR卡可选 8|16|32|64|128|256|512|1024,iMR卡仅支持64。本文支持的卡中,仅HBA-LSI-9440-8i卡为iMR卡。
emulationtype:可选0|1|2,0是默认值,当成员盘中有512e的盘,扇区大小就会显示512e,否则显示为512n、1表示如果成员盘中没有512e的盘,扇区大小显示为512n、2表示即使成员盘中没有512e的盘,扇区大小也会显示为512e。
spares_drives:热备盘,取值格式参照vd_drives,格式为enclosure_id:slot_id。
raid_id:待删除RAID的ID,可通过./storcli64 /c0/vall show查看RAID的id值。配置为all时删除全部RAID。
【注意事项】
RAID成员盘输入时,slot值之间以逗号分隔,slot连续的成员盘,可用‘-’连接。
【举例】
#创建RAID 1。
[root@localhost home]# ./storcli64 /c0 add vd r1 size=all drives=2:8,23
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Add VD Succeeded
[root@localhost home]# ./storcli64 /c0/v0 del
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Delete VD succeeded
对指定物理盘执行定位点灯和灭灯操作。
【命令】
storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
enclosure_id:连接硬盘的enclosure id,可选all点亮所有enclosure下的硬盘定位灯。
slot_id:物理硬盘slot槽位编号,可选all点亮enclosure下所有硬盘定位灯。
action:需要执行的操作,包括如下两种:
· start:点亮硬盘指示灯。
· stop:熄灭硬盘指示灯。
【举例】
#点亮硬盘指示灯。
[root@localhost home]# ./storcli64 /c0/e2/s8 start locate
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.
#熄灭硬盘指示灯。
[root@localhost home]# ./storcli64 /c0/e2/s8 stop locate
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Stop Drive Locate Succeeded.
查看存储控制卡JBOD功能处于开启或关闭状态。
【命令】
storcli64 /ccontroller_id jbod
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
【举例】
#查看JBOD状态。
[root@localhost home]# ./storcli64 /c0 show jbod
CLI Version = 007.1316.0000.0000 Mar 12, 2020
Operating system = Linux 3.10.0-862.el7.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
JBOD ON
----------------
设置RAID模式下的JBOD开关。
【命令】
storcli64 /ccontroller_id set jbod=mode
【缺省情况】
RAID模式下的JBOD默认为关闭状态
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
mode:JBOD模式配置,可选参数如下:
· on:开启JBOD。
· off:关闭JBOD。
【注意事项】
RAID模式下的JBOD开关,仅9361/9460/9440或同系列的卡支持。
【举例】
#开启JBOD。
[root@localhost home]# ./storcli64 /c0 set jbod=on
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
JBOD ON
----------------
#关闭JBOD。
[root@localhost home]# ./storcli64 /c0 set jbod=off
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
JBOD OFF
----------------
切换硬盘状态(JBOD和Unconfigured Good)。
【命令】
storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]
storcli64 /ccontroller_id/eenclosure_id/sslot_id set jbod
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
enclosure_id:连接硬盘的enclosure id。
slot_id:物理硬盘slot槽位编号。
【注意事项】
硬盘状态由UG切换至JBOD时,先确认一下RAID卡JBOD选项是否打开,如未打开需在切换前打开JBOD开关。
【举例】
#切换硬盘状态为Unconfigured Good。
[root@localhost home]# ./storcli64 /c0/e2/s8 set good force
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Set Drive Good Succeeded.
#切换硬盘状态为JBOD。
[root@localhost home]# ./storcli64 /c0/e2/s8 set jbod
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Set Drive JBOD Succeeded.
检查硬盘基本信息。
【命令】
storcli64 /ccontroller_id/eenclosure_id/sslot_id show [all]
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
enclosure_id:连接硬盘的enclosure id。
slot_id:物理硬盘slot槽位编号。
【举例】
[root@localhost home]# ./storcli64 /c0/e2/s8 show
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
Drive Information :
=================
-------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp Type
-------------------------------------------------------------------------------
2:8 39 JBOD - 5.458 TB SATA HDD N N 512B ST6000NM0115-1YZ110 U -
-------------------------------------------------------------------------------
EID=Enclosure Device ID|Slt=Slot No.|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=Unsupported|UGShld=UnConfigured shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported
保存当前RAID卡的配置、恢复或在其他卡上导入此配置。
【命令】
storcli64 /ccontroller_id get config file=filename
storcli64 /ccontroller_id set config file=filename
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
filename:配置文件名称。
【注意事项】
此功能操作的前提是,服务器环境必须完全一致。
【举例】
#导出配置。
[root@localhost home]# ./storcli64 /c0 get config file=conf.txt
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Config data is saved to the file
#导入配置。
[root@localhost home]# ./storcli64 /c0 set config file=conf.txt
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Config data is restored to the adapter
增大目标RAID的容量。
【命令】
storcli64 /ccontroller_id/vraid_id expand size=target_size
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
raid_id:待扩容的RAID ID。
target_size:待设置的容量值。
【注意事项】
LSI 9440&9460&9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。
【举例】
#增大指定RAID 20Gb容量。
[root@localhost home]# ./storcli64 /c0/v0 expand size=20gb
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = expansion operation succeeded
EXPANSION RESULT :
================
----------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz %FreSpc NewSize Status NoArrExp
----------------------------------------------------------------------------
0 10.000 GB 1.808 TB 20.000 GB 37.049 GB 2 47.049 GB - 1.808 TB
----------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %
在不影响数据完整性的情况下,对RAID级别进行修改。
【命令】
storcli64 /ccontroller_id/vraid_id start migrate type=raidx option=operation drives= vd_drives force
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
raid_id:待扩容的RAID ID。
raidx:目标RAID级别。
vd_drives :选择成员盘,格式为enclosure_id:slot_id,enclosure_id为所在Enclosure的id,slot_id为目标成员盘的slot id。
operation :选择增加或移除成员盘,可选add或remove。
【注意事项】
LSI 9440&9460&9540&9560卡只有RAID 0/1/5/6支持在UEFI或OS下迁移、扩容。
【举例】
[root@localhost home]# ./storcli64 /c0/v0 start migrate type=raid5 option=add drives=2:11
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Start Reconstruction Operation Success
[root@localhost home]# ./storcli64 /c0/v0 start migrate type=raid0 option=remove drives=2:9
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Start Reconstruction Operation Success
导入或清除外部配置。
【命令】
storcli64 /ccontroller_id/fall operation
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
operation:可选操作如下:
· import:导入外部配置。
· del:清除外部配置。
【注意事项】
多张存储控制卡存在时,注意controller_id以storcli64 /call show实际查询结果为准。
【举例】
#导入外部配置。
[root@localhost home]# ./storcli64 /c0/fall import
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Successfully imported foreign configuration
#清除外部配置。
[root@localhost home]# ./storcli64 /c0/fall del
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration
为冗余RAID添加热备盘。
【命令】
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive
storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive dgs=drive_group
storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive
【缺省情况】
add hotspare后不指定dgs默认为添加全局热备。
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
enclosure_id:连接硬盘的enclosure id。
slot_id:物理硬盘slot槽位编号。
drive_group:磁盘组ID。
【注意事项】
· 多张存储控制卡存在时,注意controller_id以storcli64 /call show实际查询结果为准。
· 热备盘需要与原来RAID的成员盘接口协议一致,且容量大于等于原有RAID成员盘。
【举例】
#增加全局热备。
[root@localhost home]# ./storcli64 /c0/e2/s11 add hotsparedrive
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
#增加局部热备。
[root@localhost home]# ./storcli64 /c0/e2/s8 add hotsparedrive dgs=0
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.
#删除热备盘。
[root@localhost home]# ./storcli64 /c0/e2/s8 delete hotsparedrive
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Delete Hot Spare Succeeded.
将存储控制卡的日志信息导出到日志文件。Snapdump文件是一个日志文件,在一些RAID控制卡异常场景下可以自动生成的日志,也可以主动获取当前RAID控制卡的snapdump日志。
【命令】
storcli /ccontroller_id show all logfile=logfilename
storcli /ccontroller_id show snapdump
storcli /ccontroller_id get snapdump
storcli /ccontroller_id get snapdump id=all
storcli /ccontroller_id get snapdump id=snapdump_id file= logfilename
storcli /ccontroller_id show alilog logfile=logfilename
storcli /ccontroller_id show events logfile=logfilename
storcli /ccontroller_id show termlog logfile=logfilename
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 show命令实际查询结果为准。
snapdump_id:snapdump日志ID。
logfilename:指定要在其中写入SnapDump数据的 zip 格式的文件。
【注意事项】
· 生成SnapDump数据是一项资源密集型操作,可能会导致I/O超时。因此,两个连续的get SnapDump请求之间应至少间隔10分钟。
· LSI9440-8i(所有固件版本)/LSI9540-8i(52.26.0-5014以下固件版本)仅支持1个snapdump,每次执行storcli /ccontroller_id get snapdump都会覆盖控制器上已存在snapdump数据;出现问题后应先立即执行storcli /ccontroller_id show snapdump查询是否已自动生成snapdump;若已自动生成,则应该使用storcli /ccontroller_id get snapdump id=all或storcli /ccontroller_id get snapdump id=snapdump_id file= logfilename命令下载snapdump数据;若未生成,则才应该使用storcli /ccontroller_id get snapdump触发控制器立即生成新的snapdump数据。
· 阵列卡模式切换,固件更新动作会丢弃DDR和flash上的所有Snapdump数据。
表7-4 Snapdump支持情况
存储控制卡型号 |
Snapdump支持情况 |
备注 |
LSI9361-8i |
不支持 |
· / |
LSI9440-8i |
支持 |
· snapdump数据保存在flash。 · 仅支持1个snapdump。 |
LSI9460-8i |
支持 |
· snapdump数据保存在DDR。 · 若超级电容在位,四次及以内的重启,可以保留snapdump数据。 · 若超级电容不在位,重启后snapdump即丢失。 |
LSI9460-16i |
支持 |
· snapdump数据保存在高速缓存。 · 若超级电容在位,四次及以内的重启,可以保留snapdump数据。 · 若超级电容不在位,重启后snapdump即丢失。 |
LSI9540-8i |
支持 |
· snapdump数据保存在flash。 · 52.26.0-5014以下固件版本仅支持1个snapdump。 |
LSI9560-8i |
支持 |
snapdump数据保存在flash。 |
LSI9560-16i |
支持 |
snapdump数据保存在flash。 |
【举例】
#查询显示控制器的全部信息,将信息打印到文本文件并将该文件保存在指定位置。
[root@localhost home]# storcli64 /c0 show all logfile=/log/showall.txt
#查询控制器当前snapdump属性和控制器上存在的snapdump数据信息。
[root@localhost home]# storcli64 /c0 show snapdump
CLI Version = 007.2612.0000.0000 June 13, 2023
Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64
Controller = 0
Status = Success
Description = None
SnapDump Properties :
===================
-----------------------------------------
Ctrl_Prop Value
-----------------------------------------
Snapdump ON
Snapdump Save Count N/A
Snapdump Delay OCR 15
Snapdump properties Read-Write
Snapdump Preboot Trace Buffer ON
Snapdump Current Count 1
-----------------------------------------
SnapDump Details :
================
----------------------------------------------
ID Snapdump Size Snapdump time OnDemand
----------------------------------------------
0 2492649 09-15-2023 11:43:26 Yes
----------------------------------------------
#未指定提供ID,将触发控制器生成新的snapdump数据并同时下载控制器上所有已存在的SnapDump数据。
[root@localhost home]# storcli64 /c0 get snapdump
CLI Version = 007.2612.0000.0000 June 13, 2023
Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64
Controller = 0
Status = Success
Description = Download Support Log
Snapdump :
========
---------------------------------------
Ctrl Status Ctrl_Prop ErrCd ErrMsg
---------------------------------------
0 Success Get Snapdump 0 -
---------------------------------------
#下载控制器上所有已存在的SnapDump数据,使用此命令,CLI将按特定格式构建文件名,如下所示:
snapdump_c#(controller_id)_id#(snapdump_id)_年_月_日_小时_分钟_秒.zip。
[root@localhost home]# /opt/MegaRAID/storcli/storcli64 /c0 get snapdump id=all
CLI Version = 007.2612.0000.0000 June 13, 2023
Operating system = Linux 3.10.0-1160.el7.x86_64
Controller = 0
Status = Success
Description = None
Snapdump :
========
---------------------------------------
Ctrl Status Ctrl_Prop ErrCd ErrMsg
---------------------------------------
0 Success Get Snapdump 0 -
---------------------------------------
#指定SnapDump ID,并将SnapDump数据写入指定的文件。如果文件已存在,它将被截断(truncating),并添加新的信息
[root@localhost home]# storcli64 /c0 get snapdump id=0 file=snapdump.zip
CLI Version = 007.2612.0000.0000 June 13, 2023
Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64
Controller = 0
Status = Success
Description = None
Snapdump :
========
---------------------------------------
Ctrl Status Ctrl_Prop ErrCd ErrMsg
---------------------------------------
0 Success Get Snapdump 0 -
---------------------------------------
#将alilog日志打印到文本文件并将该文件保存在指定位置。
[root@localhost home]# ./storcli64 /c0 show alilog logfile=/log/alilog.txt
#将events日志打印到文本文件并将该文件保存在指定位置。
[root@localhost home]# storcli64 /c0 show events logfile=/log/events.txt
#将termlog日志打印到文本文件并将该文件保存在指定位置。
[root@localhost home]# storcli64 /c0 show termlog logfile=/log/termlog.txt
查询和清除存储控制卡的日志。
【命令】
storcli64 /ccontroller_id show termlog
storcli64 /ccontroller_id show events
storcli64 /ccontroller_id show snapdump
storcli64 /ccontroller_id delete termlog
storcli64 /ccontroller_id delete events
storcli64 /ccontroller_id delete snapdump force
storcli64 /ccontroller_id set snapdump state=on|off
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 show命令实际查询结果为准。
【举例】
#查询TTY日志。
[root@localhost home]# ./storcli64 /c0 show termlog
Firmware Term Log Information on controller 0:
03/13/22 9:12:37: C0:TTY History buffer cleared
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
#查询事件日志。
[root@localhost home]# ./storcli64 /c0 show events
seqNum: 0x00079e17
Time: Sun Mar 13 09:13:18 2022
Code: 0x0000001e
Class: 0
Locale: 0x20
Event Description: Event log cleared
Event Data:
===========
None
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Events = GETEVENTS
Controller Properties :
=====================
------------------------------------
Ctrl Status Method Value
------------------------------------
0 Success handleSuboption Events
------------------------------------
#查询控制器当前snapdump属性和控制器上存在的snapdump数据信息。
[root@localhost 0920]# storcli64 /c0 show snapdump
CLI Version = 007.2612.0000.0000 June 13, 2023
Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64
Controller = 0
Status = Success
Description = None
SnapDump Properties :
===================
-----------------------------------------
Ctrl_Prop Value
-----------------------------------------
Snapdump ON
Snapdump Save Count N/A
Snapdump Delay OCR 15
Snapdump properties Read-Write
Snapdump Preboot Trace Buffer ON
Snapdump Current Count 2
-----------------------------------------
SnapDump Details :
================
----------------------------------------------
ID Snapdump Size Snapdump time OnDemand
----------------------------------------------
0 1643485 09-19-2023 07:03:58 Yes
1 2499469 09-20-2023 06:48:47 Yes
----------------------------------------------
#清除TTY日志中的所有记录。
[root@localhost home]# ./storcli64 /c0 delete termlog
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------------------
Ctrl Method Result
----------------------------
0 Delete Termlog deleted
----------------------------
#清除事件日志中的所有记录。
[root@localhost home]# ./storcli64 /c0 delete events
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------
Ctrl Status Method Value
---------------------------------
0 Success DeleteEvents Events
---------------------------------
#清除所有Snapdump数据。
[root@localhost 0920]# storcli64 /c0 delete snapdump force
CLI Version = 007.2612.0000.0000 June 13, 2023
Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64
Controller = 0
Status = Success
Description = Snapdump delete
#关闭Snapdump功能。
[root@localhost ~]# storcli64 /c0 set snapdump state=off
CLI Version = 007.2612.0000.0000 June 13, 2023
Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
Set Snapdump off
-------------------
#开启Snapdump功能。
[root@localhost ~]# storcli64 /c0 set snapdump state=on
CLI Version = 007.2612.0000.0000 June 13, 2023
Operating system = Linux 5.14.0-70.22.1.el9_0.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
Set Snapdump on
-------------------
调整RAID读写缓存设置。
【命令】
storcli64 /ccontroller_id/vraid_id set wrcache={wt|wb|awb}
storcli64 /ccontroller_id/vraid_id set rdcache={ra|nora}
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
raid_id:目标RAID ID。
{wt|wb|awb}:可选wt(write through当数据落盘后告知系统传输完成)、wb(write back当数据写入控制卡cache即告知系统传输完成)、awb(always write back在没有超级电容保护时,强制使用wb,主机遇异常掉电会有数据丢失风险)。
{ra|nora}:ra当从RAID中读取数据时,会把周边数据同时读出存在cache中,用户随后访问这些数据时可以直接从cache中读取,减少磁盘寻道时间,提升读取性能。
【注意事项】
多张存储控制卡存在时,注意controller_id以storcli64 /call show实际查询结果为准。
【举例】
[root@localhost home]# ./storcli64 /c0/v0 set wrcache=awb
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 wrCache AWB Success 0 -
---------------------------------------
[root@localhost home]# ./storcli64 /c0/v0 set rdcache=nora
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 rdCache NoRA Success 0 -
---------------------------------------
设置RAID的读写访问权限。
【命令】
storcli64 /ccontroller_id/vraid_id set accesspolicy={rw|ro| blocked}
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
raid_id:目标RAID ID。
{rw|ro| blocked}:访问策略,rw为可读写、ro为只读、blocked为无法访问。
【注意事项】
多张存储控制卡存在时,注意controller_id以storcli64 /call show实际查询结果为准。
【举例】
#设置访问策略为只读。
[root@localhost home]# ./storcli64 /c0/v0 set accesspolicy=rw
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
----------------------------------------
VD Property Value Status ErrCd ErrMsg
----------------------------------------
0 AccPolicy RW Success 0 -
----------------------------------------
设置RAID成员盘的读写缓存。
【命令】
storcli64 /ccontroller_id/vraid_id set pdcache= pdcache_policy
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
raid_id:目标RAID ID。
pdcache_policy :可选on|off|default,default代表默认硬盘当前的缓存状态,不做修改。
【注意事项】
多张存储控制卡存在时,注意controller_id以storcli64 /call show实际查询结果为准。
【举例】
#关闭读写缓存。
[root@localhost home]# ./storcli64 /c0/v0 set pdcache=off
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 PdCac Off Success 0 -
查看RAID成员盘的缓存状态。
【命令】
storcli64 /ccontroller_id / eenclosure_id/sslot_id show all
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
enclosure_id:连接硬盘的enclosure id。
slot_id:物理硬盘slot槽位编号。
【注意事项】
· 多张存储控制卡存在时,注意controller_id以storcli64 /call show实际查询结果为准。
· LSI-9361使用本命令查询硬盘会显示Write Cache = N/A。
【举例】
#查看RAID成员盘的缓存状态。
[root@localhost ~]# storcli64 /c1 /e252/s10 show all
CLI Version = 007.1705.0000.0000 Mar 31, 2021
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 1
Status = Success
Description = Show Drive Information Succeeded.
Drive /c1/e252/s10 :
==================
---------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp Type
---------------------------------------------------------------------------------
252:10 20 Onln 0 893.750 GB SATA SSD N N 512B INTEL SSDSC2KB960G8 U -
---------------------------------------------------------------------------------
EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Sntze=Sanitize|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=UGood Unsupported|UGShld=UGood shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported|Rbld=Rebuild
Drive /c1/e252/s10 - Detailed Information :
=========================================
Drive /c1/e252/s10 State :
========================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature = 36C (96.80 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
Drive /c1/e252/s10 Device attributes :
====================================
SN = PHYF832001H8960CGN
Manufacturer Id = ATA
Model Number = INTEL SSDSC2KB960G8
NAND Vendor = NA
WWN = 55CD2E414FA85A2E
Firmware Revision = XCV10120
Raw size = 894.252 GB [0x6fc81ab0 Sectors]
Coerced size = 893.750 GB [0x6fb80000 Sectors]
Non Coerced size = 893.752 GB [0x6fb81ab0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 6.0Gb/s
NCQ setting = Enabled
Write Cache = Enabled
Logical Sector Size = 512B
Physical Sector Size = 4 KB
Connector Name = C1.0 x1
Drive /c1/e252/s10 Policies/Settings :
====================================
Drive position = DriveGroup:0, Span:0, Row:0
Enclosure position = 1
Connected Port Number = 11(path0)
Sequence Number = 10
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
FDE Type = None
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = Yes
Sanitize Support = CryptoErase, OverWrite, BlockErase
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = No
Wide Port Capable = No
Unmap capable = Yes
Unmap capable for LDs = No
Multipath = No
Port Information :
================
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
0 Active 6.0Gb/s 0x300062b20c75204a
-----------------------------------------
Inquiry Data =
40 00 ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 48 50 46 59 33 38 30 32 31 30 38 48
36 39 43 30 4e 47 20 20 00 00 00 00 00 00 43 58
31 56 31 30 30 32 4e 49 45 54 20 4c 53 53 53 44
32 43 42 4b 36 39 47 30 20 38 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 01 80
00 40 00 2f 00 40 00 00 00 00 06 00 ff 3f 10 00
3f 00 10 fc fb 00 01 fd ff ff ff 0f 00 00 07 00
执行、查询和停止擦除物理盘动作。
【命令】
storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode
storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase
storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
enclosure_id:连接硬盘的enclosure id。
slot_id:物理硬盘slot槽位编号。
mode:可选simple|normal|thorough,分别对硬盘进行一遍|三遍|九遍擦除。
【注意事项】
多张存储控制卡存在时,注意controller_id以storcli64 /call show实际查询结果为准。
【举例】
#执行物理盘数据1遍擦除。
[root@localhost home]# ./storcli64 /c0/e2/s11 start erase simple
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
#查看擦除进程。
[root@localhost home]# ./storcli64 /c0/e2/s11 show erase
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e2/s11 0 In progress 0 Seconds
------------------------------------------------------
#停止擦除物理盘数据。
[root@localhost home]# ./storcli64 /c0/e2/s11 stop erase
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.
查询控制卡超级电容信息。
【命令】
storcli64 /ccontroller_id/cv show all
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
【举例】
[root@localhost ~]# storcli64 /c0/cv show all
CLI Version = 007.1705.0000.0000 Mar 31, 2021
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Cachevault_Info :
===============
--------------------
Property Value
--------------------
Type CVPM05
Temperature 25 C
State Optimal
--------------------
Firmware_Status :
===============
---------------------------------------
Property Value
---------------------------------------
NVCache State OK
Replacement required No
No space to cache offload No
Module microcode update required No
---------------------------------------
GasGaugeStatus :
==============
------------------------------
Property Value
------------------------------
Pack Energy 319 J
Capacitance 100 %
Remaining Reserve Space 0
------------------------------
Design_Info :
===========
------------------------------------
Property Value
------------------------------------
Date of Manufacture 18/09/2019
Serial Number 21428
Manufacture Name LSI
Design Capacity 374 J
Device Name CVPM05
tmmFru N/A
CacheVault Flash Size 8.187 GB
scapBatversionNo 0x00
scapSerialNo 0x53b4
scap Date of Manufacture 18/09/2019
scapPcbAssmNo 50046-01
scapPCBversionNo B
scapBatPackAssmNo 49571-222
Module Version 07251-01
------------------------------------
Properties :
==========
---------------------------------------------------------------------
Property Value
---------------------------------------------------------------------
Auto Learn Period 27d (2412000 seconds)
Next Learn time 2022/07/18 21:59:20 (711496760 seconds)
Learn Delay Interval 0 hour(s)
Auto-Learn Mode Transparent
Last Successful Learn Time Completed, MON, June 20, 2022 at 23:59:20
---------------------------------------------------------------------
对物理盘执行手动离线和上线。
【命令】
storcli64 /ccontroller_id/eenclosure_id/sslot_id set mode
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
enclosure_id:连接硬盘的enclosure id。
slot_id:物理硬盘slot槽位编号。
mode:可选offline或online。offline为离线,online为上线。
【举例】
#手动离线物理盘。
[root@localhost home]# ./storcli64 /c0/e2/s23 set offline
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Set Drive Offline Succeeded.
#手动上线物理盘。
[root@localhost home]# ./storcli64 /c0/e2/s23 set online
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Set Drive Online Succeeded.
查询和设置Patrol Read巡检参数。
【命令】
storcli64 /ccontroller_id set patrolread starttime=start_time maxconcurrentpd=number
storcli64 /ccontroller_id set patrolread delay=delay_time
storcli64 /ccontroller_id show patrolread
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。start_time:开始巡检的启动时间。
number:同时巡检的盘数。
delay_time:巡检周期。
【注意事项】
· 巡检功能仅针对RAID成员盘。
· 巡检启动时间仅可设置整点。
【举例】
#设置巡检参数。
[root@localhost home]# ./storcli64 /c0 set pr starttime=2022/03/19 15 maxconcurrentpd=32
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------
Ctrl_Prop Value
---------------------------------------
PR Starttime 2022/03/19 15:00:00
PR MaxConcurrentPd 32
---------------------------------------
#查询巡检参数。
[root@localhost home]# ./storcli64 /c0 show pr
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------------------
Ctrl_Prop Value
---------------------------------------------
PR Mode Auto
PR Execution Delay 168 hours
PR iterations completed 1
PR Next Start time 03/19/2022, 15:00:00
PR on SSD Disabled
PR Current State Stopped
PR Excluded VDs None
PR MaxConcurrentPd 32
---------------------------------------------
查询和设置Consistent Check一致性检查参数。
【命令】
storcli64 /ccontroller_id[/vraid_id] show cc
storcli64 /ccontroller_id/vraid_id start cc force
storcli64 /ccontroller_id/vraid_id op cc
storcli64 /ccontroller_id set cc=conc delay=delay_time starttime=start_time
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
raid_id:目标RAID ID。
op:可选操作pause/resume/stop,执行暂停/重启/停止动作。
delay_time:一致性检查周期。
start_time:一致性检查启动时间。
【注意事项】
storcli64 show cc命令,不加[/vraid_id]则返回存储控制卡一致性检查设定参数,增加[/vraid_id]则返回具体的一致性检查进度。
【举例】
#查看一致性检查设定参数。
[root@localhost home]# ./storcli64 /c0 show cc
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------------------------------
Ctrl_Prop Value
-----------------------------------------------
CC Operation Mode Concurrent
CC Execution Delay 2
CC Next Starttime 03/19/2022, 15:00:00
CC Current State Stopped
CC Number of iterations 1
CC Number of VD completed 0
CC Excluded VDs None
-----------------------------------------------
#查看一致性检查进度。
[root@localhost home]# ./storcli64 /c0/v0 show cc
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-----------------------------------------------------------
0 CC - Not in progress -
-----------------------------------------------------------
#开启一致性检查。
[root@localhost home]# ./storcli64 /c0/v0 start cc force
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Start CC Operation Success
#停止一致性检查。
[root@localhost home]# ./storcli64 /c0/v0 stop cc
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Stop CC Operation Success
#设定一致性检查参数。
[root@localhost home]# ./storcli64 /c0 set cc=conc delay=2 starttime=2022/03/19 15
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------------
Ctrl_Prop Value
---------------------------------
CC Mode CONC
CC delay 2
CC Starttime 2022/03/19 15:00:00
---------------------------------
启停重建和回拷任务,及状态查询。
【命令】
storcli64 /ccontroller_id/eenclosure_id/sslot_id op func
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
enclosure_id:连接硬盘的enclosure id。
slot_id:物理硬盘slot槽位编号。
op:可选操作show/pause/resume/stop,执行查询/暂停/重启/停止动作。
func:可选copyback/rebuild,对应巡检/回拷/重建功能。
【举例】
#查询回拷进度。
[root@localhost home]# ./storcli64 /c0/e2/s23 show copyback
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
---------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
---------------------------------------------------------
/c0/e2/s23 - Not in progress -
---------------------------------------------------------
#查询重建进度。
[root@localhost home]# ./storcli64 /c0/e2/s23 show rebuild
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
---------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
---------------------------------------------------------
/c0/e2/s23 - Not in progress -
---------------------------------------------------------
设置pr巡检速率、cc一致性检查速率、bgi后台初始化速率、rebuild重建速率、reconstruction重构速率。
【命令】
storcli64 /ccontroller_id set func=rate_value
【缺省情况】
各任务速率默认30%
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
func:可选prrate/ccrate/bgirate/rebuildrate/reconrate。
rate_value:可调范围0-100。
【注意事项】
多张存储控制卡存在时,注意controller_id以storcli64 /call show实际查询结果为准。
【举例】
#设置重构速率。
[root@localhost home]# ./storcli64 /c0 set reconrate=40
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
ReconRate 40%
----------------
查询和清除PreservedCache数据。
【命令】
storcli64 /ccontroller_id show preservedcache
storcli64 /ccontroller_id/vraid_id delete preservedcache force
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
raid_id:目标RAID ID。
【举例】
#查询PreservedCache数据。
[root@localhost home]# ./storcli64 /c0 show preservedcache
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = No Virtual Drive has Preserved Cache Data.
#清除PreservedCache数据。
[root@localhost home]# ./storcli64 /c0/v0 delete preservedcache force
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = No Virtual Drive has Preserved Cache Data.
升级硬盘的固件。
【命令】
storcli64 /ccontroller_id/eenclosure_id/sslot_id download src=fw_file
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
enclosure_id:连接硬盘的enclosure id。
slot_id:物理硬盘slot槽位编号。
fw_file:硬盘固件文件。
【举例】
#升级硬盘固件。
[root@localhost home]# ./storcli64 /c0/e2/s8 download src=fw.bin
Starting microcode update .....please wait...
Flashing PD image ..... please wait...
CLI Version = 007.1017.0000.0000 May 10, 2019
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = Firmware Download succeeded.
Drive Firmware Download :
========================
--------------------------------------------------------------------------------
Drive Status ErrCd ErrMsg
--------------------------------------------------------------------------------
/c0/e2/s8 Success 0
---------------------------------------------------------------------------------
修改蜂鸣器设置。
【命令】
storcli64 /ccontroller_id show alarm
storcli64 /ccontroller_id set alarm={on|off|silence}
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
enclosure_id:连接硬盘的enclosure id。
on:蜂鸣器开启,出现严重错误时蜂鸣器会发出警报。
off:蜂鸣器关闭,任何活动蜂鸣器都会静音,并且在发生任何错误(包括严重错误)时不会发出警报。
silence:使控制器上的蜂鸣器警报静音,即当前发出的任何警报都会停止;如果严重错误仍然存在并且蜂鸣器使能,则重启后会再次启动。如果禁用蜂鸣器,则该选项也被禁用。
【举例】
#查询蜂鸣器开关状态。
[root@localhost storcli]# ./storcli64 /c0 show alarm
CLI Version = 007.2408.0000.0000 Nov 15, 2022
Operating system = Linux 4.18.0-425.3.1.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
Alarm OFF
----------------
#关闭蜂鸣器。
[root@localhost storcli]# ./storcli64 /c0 set alarm=off
CLI Version = 007.2408.0000.0000 Nov 15, 2022
Operating system = Linux 4.18.0-425.3.1.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
Alarm OFF
----------------
#开启蜂鸣器。
[root@localhost storcli]# ./storcli64 /c0 set alarm=on
CLI Version = 007.2408.0000.0000 Nov 15, 2022
Operating system = Linux 4.18.0-425.3.1.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
Alarm ON
----------------
#静音蜂鸣器告警。
[root@localhost storcli]# ./storcli64 /c0 set alarm=silence
CLI Version = 007.2408.0000.0000 Nov 15, 2022
Operating system = Linux 4.18.0-425.3.1.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------
Ctrl_Prop Value
------------------
Alarm SILENCE
------------------
查询、设置LSI存储控制卡Firmware Device order功能处于开启或关闭状态。
【命令】
storcli64 /ccontroller_id show deviceorderbyfirmware
storcli64 /ccontroller_id set deviceorderbyfirmware=mode
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。可将该参数设置为all,表示查询该工具可管理的所有存储控制卡信息。
mode:Firmware Device order功能配置,可选参数如下:
· on:开启Firmware Device order。
· off:关闭Firmware Device order。
【注意事项】
仅9460/9440/9540/9560卡支持。
启用此功能仅适用于Linux;对于Windows或VMware等其他操作系统,不支持该功能。意外启用它可能会导致系统在引导期间挂死。
该功能开启后,服务器重启阶段存储卡下设备上报顺序改变,按启动盘、逻辑盘、直通盘顺序上报。但需注意,所有存储卡会引入逻辑盘上报乱序,9460卡Personality模式和9560所有模式下直通盘设备上报乱序现象。
该选项修改后需重启服务器生效。
LSI 9440/9460卡51.15.0-3630及以上固件版本支持该功能。
LSI 9560卡52.15.0-3720及以上固件版本支持该功能。
LSI 9540卡52.20.0-4341及以上固件版本支持该功能。
【举例】
#查询存储控制卡Firmware Device order功能状态。
[root@localhost ~]# storcli64 /c0 show deviceorderbyfirmware
CLI Version = 007.2203.0000.0000 May 11, 2022
Operating system = Linux 4.18.0-240.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------------
Ctrl_Prop Value
-------------------------------------
Firmware based device ordering OFF
-------------------------------------
#开启存储控制卡Firmware Device order功能。
[root@localhost ~]# storcli64 /c0 set deviceorderbyfirmware=on
CLI Version = 007.2203.0000.0000 May 11, 2022
Operating system = Linux 4.18.0-240.el8.x86_64
Controller = 0
Status = Success
Description = Please reboot the system for the changes to take effect
Controller Properties :
=====================
-------------------------------------
Ctrl_Prop Value
-------------------------------------
Firmware based device ordering ON
-------------------------------------
#关闭存储控制卡Firmware Device order功能。
[root@localhost ~]# storcli64 /c0 set deviceorderbyfirmware=off
CLI Version = 007.2203.0000.0000 May 11, 2022
Operating system = Linux 4.18.0-240.el8.x86_64
Controller = 0
Status = Success
Description = Please reboot the system for the changes to take effect
Controller Properties :
=====================
-------------------------------------
Ctrl_Prop Value
-------------------------------------
Firmware based device ordering OFF
-------------------------------------
查询、设置LSI存储控制卡Firmware Device order功能处于开启或关闭状态。
【命令】
storcli64 /ccontroller_id show directpdmapping
storcli64 /ccontroller_id set directpdmapping=mode
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。可将该参数设置为all,表示查询该工具可管理的所有存储控制卡信息。
mode:direct pd mapping功能配置,可选参数如下:
· on:开启direct pd mapping。
· off:关闭direct pd mapping。
【注意事项】
仅9460/9440/9540/9560卡支持。
当存储卡连接Expander背板时不可启用该功能。意外启用它会导致存储卡进入Failed状态。
该功能开启后,服务器重启阶段存储卡下直通盘设备按slot号上报。
该选项修改后需重启服务器生效。
LSI 9440/9460卡51.15.0-3630及以上固件版本和配套管理工具支持该功能。
LSI 9560卡52.15.0-3720及以上固件版本和配套管理工具支持该功能。
LSI 9540卡52.20.0-4341及以上固件版本和配套管理工具支持该功能。
【举例】
#查询存储控制卡direct pd mapping功能状态。
[root@localhost ~]# storcli64 /c0 show directpdmapping
CLI Version = 007.2203.0000.0000 May 11, 2022
Operating system = Linux 4.18.0-240.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------------
Ctrl_Prop Value
----------------------
Directpdmapping OFF
----------------------
#开启存储控制卡direct pd mapping功能。
[root@localhost ~]# storcli64 /c0 set directpdmapping=on
CLI Version = 007.2203.0000.0000 May 11, 2022
Operating system = Linux 4.18.0-240.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------------------
Ctrl_Prop Value
------------------------------------------------
Directpdmapping ON (Requires reboot for effect)
------------------------------------------------
#关闭存储控制卡direct pd mapping功能。
[root@localhost ~]# storcli64 /c0 set directpdmapping=off
CLI Version = 007.2203.0000.0000 May 11, 2022
Operating system = Linux 4.18.0-240.el8.x86_64
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------------------------
Ctrl_Prop Value
-------------------------------------------------
Directpdmapping OFF (Requires reboot for effect)
-------------------------------------------------
查看存储控制卡PSoC固件。
【命令】
storcli64 /ccontroller_id/ show all | grep -i psoc
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准。
【注意事项】
· LSI 9560卡上已更新运行52.20.0-4341及以上版本固件,且storcli版本为7.2007.0000.0000或以上版本才能查询PSoC信息、更新PSoC固件。
· LSI 9560卡上已更新运行52.22.0-4544及以上版本固件,且storcli版本为7.2307.0000.0000或以上版本才能查询PSoC信息、更新PSoC固件。
【举例】
#查询PSoC信息,其中包括PSoC FW Version、PSoC Part Number、PSoC支持情况等信息。
[root@localhost ~]# storcli64 /c0 show all | grep -i psoc
PSOC FW Version = 0x001B
PSOC Hardware Version = 0x0003
PSOC Part Number = 15987-270-4GB
Support PSOC Update = Yes
Support PSOC Part Information = Yes
Upgradable PSOC = Present
升级存储控制卡的PSoC固件。
【命令】
storcli64 /ccontroller_id download file= fw_file
storcli64 /ccontroller_id download file= fw_file noverchk
【参数】
controller_id:存储控制卡ID,单卡默认为0,多卡以storcli64 /call show命令实际查询结果为准;
fw_file:PSoC固件文件。
noverchk:降级或平级更新存储控制卡PSoC固件时,不检查固件镜像的版本。
【注意事项】
· 若存储控制卡PSoC固件文件不在当前路径下,则需要在fw_file前加上文件的绝对路径。
· storcli工具涉及指定路径相关命令均不支持空格和特殊字符。
· PSoC固件更新后,需将服务器AC power cycle才能生效。
· LSI 9560卡上已更新运行52.20.0-4341及以上版本固件,且storcli版本为7.2007.0000.0000或以上版本才能查询PSoC信息、更新PSoC固件。
· LSI 9560卡上已更新运行52.22.0-4544及以上版本固件,且storcli版本为7.2307.0000.0000或以上版本才能查询PSoC信息、更新PSoC固件。
【举例】
# 升级存储控制卡PSoC固件。
[root@localhost ~]# storcli64 /c0 download file=pblp_catalog.signed.rom
Download Completed.
Flashing image to adapter...
CLI Version = 007.2408.0000.0000 Nov 15, 2022
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = F/W Flash Completed. Please shutdown the system for the changes to take effect
# 降级或平级更新存储控制卡PSoC固件。
[root@localhost ~]# storcli64 /c0 download file=pblp_catalog.signed.rom noverchk
Download Completed.
Flashing image to adapter...
CLI Version = 007.2408.0000.0000 Nov 15, 2022
Operating system = Linux 4.18.0-193.el8.x86_64
Controller = 0
Status = Success
Description = F/W Flash Completed. Please shutdown the system for the changes to take effect
故障告警功能包含故障告警和预故障告警,不同存储控制卡不同模式支持情况各不相同,如表7-5和表7-6所示。
存储控制卡系列 |
RAID模式直连硬盘 |
RAID模式连接硬盘扩展板 |
JBOD模式直连硬盘 |
JBOD模式连接硬盘扩展板 |
LSI-9361 |
支持 |
支持 |
支持 |
支持 |
LSI-9440 |
支持 |
支持 |
不涉及 |
不涉及 |
LSI-9460 |
支持 |
支持 |
支持 |
支持 |
LSI-9540 |
支持 |
支持 |
不涉及 |
不涉及 |
LSI-9560 |
支持 |
支持 |
支持 |
支持 |
表7-6 预故障告警(PFA)支持情况
存储控制卡系列 |
RAID模式直连硬盘 |
RAID模式连接硬盘扩展板 |
JBOD模式直连硬盘 |
JBOD模式连接硬盘扩展板 |
LSI-9361 |
仅Unconfigured Good、逻辑成员盘、热备盘可识别PFA状态,不亮0.5Hz橙灯 |
仅Unconfigured Good、逻辑成员盘、热备盘可识别PFA状态,亮0.5Hz橙灯 |
不支持 |
不支持 |
LSI-9440 |
不涉及 |
不涉及 |
||
LSI-9460 |
所有硬盘状态都支持PFA识别,不亮0.5Hz橙灯 |
所有硬盘状态都支持PFA识别,但仅UG、逻辑成员盘、热备盘支持亮0.5Hz橙灯 |
||
LSI-9540 |
不涉及 |
不涉及 |
||
LSI-9560 |
所有硬盘状态都支持PFA识别,不亮0.5Hz橙灯 |
所有硬盘状态都支持PFA识别,亮0.5Hz橙灯 |
所有硬盘状态都支持PFA识别,不亮0.5Hz橙灯 |
所有硬盘状态都支持PFA识别,亮0.5Hz橙灯 |
关于存储控制卡的故障信息收集、故障诊断定位和故障解决方法的详细说明,请参见《H3C服务器 故障处理手册》。
存储控制卡与服务器的兼容性关系,请查看服务器兼容的部件查询工具。
访问H3C官网下载存储控制卡的驱动程序。驱动程序的安装步骤,请参见与驱动程序一起发布的版本说明书。
不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!