03-第3章 VROC SATA RAID
本章节下载: 03-第3章 VROC SATA RAID (3.71 MB)
目 录
Intel VROC(Virtual RAID on CPU)是Intel的一种板载虚拟RAID技术,对使用SATA磁盘的系统提供RAID功能支持。使用多个磁盘时,可使用RAID技术,对数据进行保护,提高数据读写性能。
VROC SATA支持如下两种模式:
· AHCI模式(缺省):支持NCQ(本机命令队列),能提高SATA磁盘的读写速率。系统直接使用物理磁盘来存储数据。
· RAID模式:即磁盘阵列模式,可以使用多个磁盘配置RAID,提高数据读写性能、提升数据安全性。
· 切换存储控制卡工作模式后,请重新启动服务器使新工作模式生效。
· 切换存储控制卡工作模式后,原模式的系统盘可能出现异常,从而导致操作系统无法正常启动,此时可尝试重新安装操作系统,如仍无法解决,请联系技术支持。
VROC SATA RAID支持的RAID级别略有不同,详细信息请参见《H3C服务器 存储控制卡功能和技术参数介绍》,各RAID级别对应的成员盘数量如表3-1所示。关于RAID级别的说明,请参见“附录B 磁盘阵列和容错方法”。
表3-1 RAID级别与磁盘数量的关系
RAID级别 |
最少磁盘数 |
最多磁盘数 |
最多故障盘数 |
RAID 0 |
2 |
硬盘背板接口支持的最大硬盘数量 |
0 |
RAID 1 |
2 |
2 |
1 |
RAID 5 |
3 |
硬盘背板接口支持的最大硬盘数量 |
1 |
RAID 10 |
4 |
4 |
2 |
· 建议用户安装没有RAID信息的硬盘。
· 请确保组建同一RAID的所有硬盘类型相同,否则会因硬盘性能不同而造成RAID性能下降或者无法创建RAID。即满足如下两点:
¡ 所有硬盘均为SATA硬盘。
¡ 所有硬盘均为HDD或SSD硬盘。
· 建议组建同一RAID的所有硬盘容量相同。当硬盘容量不同时,系统以最小容量的硬盘为准,即将所有硬盘容量都视为最小容量。
· 不建议将一个硬盘用在多个RAID中,该情况会使后期维护变得复杂,并影响RAID的性能。
本节介绍在UEFI启动模式下通过VROC SATA配置RAID的方法。关于进入BIOS界面和设置BIOS启动模式为UEFI的详细介绍,请参见BIOS用户指南中的对应章节。
不同BIOS版本的界面有所差异,本手册仅以其中一种BIOS版本举例,操作界面请以实际情况为准。
本节介绍设置VROC SATA工作模式为RAID模式的操作步骤。具体操作过程如下:
(1) 将服务器上电或重启后,在BIOS启动界面,根据提示按下Delete或Esc(部分产品按Delete或F2),进入图3-1所示的BIOS Setup界面。请参考界面右下角的按键操作提示,以实现在界面中导航和修改设置。
(2) 如图3-2所示,选择Advanced>Platform Configuration页签 > PCH-IO Configuration,按Enter。
(3) 进入图3-3所示界面,选择SATA And RST Configuration,然后按Enter。
(4) 进入图3-4所示界面,选择Controller 1 SATA And RST Configuration(或Controller 2 SATA And RST Configuration或Controller 3 SATA And RST Configuration,根据硬盘所插位置选择),按Enter。
(5) 如图3-6所示,选择工作模式。关于VROC SATA工作模式的说明请参见3.1.1 工作模式。
图3-5 选择工作模式
(6) 配置完成后,按F4,在弹出的对话框中,选择Yes,保存当前配置并重新启动,完成存储控制卡工作模式的设置。
本节介绍进入VROC SAT配置界面,即进入RAID功能相关的配置入口的操作步骤。
(1) 进入BIOS Setup界面。
(2) 如图3-6所示,在BIOS Setup界面选择Advanced页签 > Intel(R) VROC SATA Controller(或Intel(R) VROC sSATA Controller),按Enter。
图3-6所示界面上存在Intel(R) VROC SATA Controller或Intel(R) VROC sSATA Controller选项的前提是SATA或sSATA控制器的工作模式已设置为RAID模式(具体方法请参见设置VROC SATA工作模式)。
(3) 进入图3-7所示的VROC SATA配置界面。
图3-7 VROC SATA配置界面
本节介绍配置RAID的详细操作步骤,操作过程如下。
(1) 进入VROC SATA配置界面,具体方法请参见2. 进入VROC SATA配置界面。
(2) 如图3-8所示,选择Create RAID Volume(只有SATA或sSATA控制器对应的接口连接了两个及以上的磁盘才会有该选项),按Enter。
(3) 进入图3-9所示界面,在Name、RAID Level、Select Disks、Strip Size和Capacity栏进行相应的设置(参数说明请参见表3-2),然后选择Create Volume,按Enter,完成RAID的创建。
参数 |
说明 |
Name |
RAID的名称。 |
RAID Level |
RAID级别,其决定了逻辑磁盘性能、容错能力和容量。 |
Select Disks |
选择组成RAID的成员磁盘。Select Disks栏下方显示了可用的磁盘,按Enter选择磁盘,[X]表示该磁盘已被选中。 |
Strip Size |
条带大小,写在每块磁盘上的条带数据块的大小。 |
Capacity |
逻辑磁盘的容量。 |
(4) 进入如图3-10所示界面,RAID创建完成后,会在RAID Volumes目录下显示。选择某个RAID,按Enter,可查看该RAID的详细信息(包括RAID名称、级别,所含磁盘信息等)。
本节介绍配置热备盘的详细操作步骤。
本功能配置的为全局热备盘,热备盘对创建的RAID卷均有效,可同时创建多个热备盘保护多个RAID卷。
在配置了热备盘的情况下,若发生了硬盘故障导致RAID降级的情况,热备盘会自动顶替故障硬盘,RAID重建会在进入操作系统后自动进行。
(1) 进入VROC SATA配置界面,具体方法请参见3.2.1 2. 进入VROC SATA配置界面。
(2) 如图3-11所示,选择要用来配置为热备盘的磁盘,按Enter。
(3) 进入图3-12所示界面,选择“Mark as Spare”,按Enter。
(4) 进入图3-13所示界面,选择“Yes”,按Enter,完成热备盘的配置。
本节介绍删除RAID的详细操作步骤,操作过程如下。
(1) 进入VROC SATA配置界面,具体方法请参见3.2.1 2. 进入VROC SATA配置界面。
(2) 如图3-14所示,在RAID Volumes目录下选中待删除的RAID,按Enter。
(3) 进入图3-15所示RAID的信息界面,选择Delete,按Enter,即可删除该RAID。
图3-15 RAID信息界面
本节介绍定位磁盘位置的详细操作步骤,操作过程如下。
(1) 进入VROC SATA配置界面,具体方法请参见3.2.1 2. 进入VROC SATA配置界面。
(2) 如图3-16所示,选择需要定位的磁盘,按Enter。
(3) 进入图3-17所示界面,选择Locate LED,选择on,按Enter,即可完成硬盘的定位,具体硬盘指示灯信息请参见对应产品的用户指南。
板载软RAID在配置完RAID后,会自动初始化RAID,使其可以被操作系统使用,且使具有冗余功能的RAID中各成员盘的数据关系满足相应的RAID级别要求。
NVMe VROC不支持在Legacy启动模式下配置RAID。
· 配置软RAID时,需要将PCH Configuration下的PCH SATA Configuration(或PCH sSATA Configuration)选择工作模式为RAID,设置后,请重新启动服务器使新工作模式生效。
· 切换存储控制卡工作模式后,原模式的系统盘可能出现异常,从而导致操作系统无法正常启动,此时可尝试重新安装操作系统,如仍无法解决,请联系技术支持。
通过该命令可以查询创建软RAID的物理盘符。
【命令】
lsscsi
【举例】
# 查询创建软RAID的物理盘符。
[root@localhost ~]# lsscsi
[0:0:0:0] disk ATA INTEL SSDSCKKB48 1132 /dev/sda
[1:0:0:0] disk ATA Micron_5300_MTFD U001 /dev/sdb
[N:0:0:1] disk INTEL SSDPE2KX010T8__1 /dev/nvme0n1
上例中系统盘符为/dev/nvme0n1,本次组建软RAID的盘符为/dev/sda,/dev/sdb。
创建软RAID所需的容器。
【命令】
mdadm –C container_id phy_id –n num –e imsm
【参数】
container_id:容器名称
phy_id:物理盘符
num:物理盘数量
【举例】
# 创建名为/dev/md0的容器
[root@localhost ~]# mdadm -C /dev/md0 /dev/sda /dev/sdb -n 2 -e imsm
mdadm: container /dev/md0 prepared.
在创建的容器中添加软RAID。
【命令】
mdadm –C RAID_id container_id –n num –l RAID_level
【参数】
RAID_id:软RAID名称。
container_id:容器名称。
num:物理盘数量。
RAID_level:软RAID的级别。
【举例】
# 在/dev/md0容器中创建名为/dev/md/R1的软RAID1。
[root@localhost ~]# mdadm -C /dev/md/R1 /dev/md0 -n 2 -l 1
mdadm: array /dev/md/R1 started.
# 在/dev/md0容器中创建名为/dev/md/R1的软RAID0。
[root@localhost ~]# mdadm -C /dev/md/R1 /dev/md0 -n 2 -l 0
mdadm: array /dev/md/R1 started.
# 使用两块硬盘在/dev/md0容器中创建RAID0。
[root@localhost ~]# mdadm -C /dev/md0 /dev/sdc /dev/sdd -n 2 -e imsm
mdadm: /dev/sdc appears to contain an ext2fs file system
size=976762584K mtime=Wed Dec 31 19:00:00 1969
mdadm: /dev/sdd appears to contain an ext2fs file system
size=976762584K mtime=Wed Dec 31 19:00:00 1969
Continue creating array? y
mdadm: container /dev/md0 prepared.
[root@localhost ~]# mdadm -C /dev/md/R0 /dev/md0 -n 2 -l 0
mdadm: array /dev/md/R0 started.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid0]
md125 : active raid0 sdc[1] sdd[0]
1953513472 blocks super external:/md0/0 128k chunks
md0 : inactive sdd[1](S) sdc[0](S)
2210 blocks super external:imsm
md126 : active raid0 sda[1] sdb[0]
890817536 blocks super external:/md127/0 128k chunks
md127 : inactive sdb[1](S) sda[0](S)
10402 blocks super external:imsm
unused devices: <none>
[root@localhost ~]# mdadm -D /dev/md125
/dev/md125:
Container : /dev/md0, member 0
Raid Level : raid0
Array Size : 1953513472 (1863.02 GiB 2000.40 GB)
Raid Devices : 2
Total Devices : 2
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Chunk Size : 128K
Consistency Policy : none
UUID : cdba8f2d:aad3144b:8a4c2d03:b16742d0
Number Major Minor RaidDevice State
0 8 48 0 active sync /dev/sdd
1 8 32 1 active sync /dev/sdc
# 使用三块硬盘在/dev/md0容器中创建RAID5。
[root@localhost ~]# mdadm -C /dev/md0 /dev/sdc /dev/sdd /dev/sde -n 3 -e imsm
mdadm: /dev/sdc appears to contain an ext2fs file system
size=976762584K mtime=Wed Dec 31 19:00:00 1969
mdadm: /dev/sdd appears to contain an ext2fs file system
size=976762584K mtime=Wed Dec 31 19:00:00 1969
mdadm: /dev/sde appears to contain an ext2fs file system
size=468851544K mtime=Wed Dec 31 19:00:00 1969
Continue creating array? y
mdadm: container /dev/md0 prepared.
[root@localhost ~]# mdadm -C /dev/md/R1 /dev/md0 -n 3 -l 5
mdadm: array /dev/md/R1 started.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid0] [raid6] [raid5] [raid4]
md125 : active raid5 sde[2] sdd[1] sdc[0]
937691136 blocks super external:/md0/0 level 5, 128k chunk, algorithm 0 [3/3] [UUU]
[>....................] resync = 0.3% (1692948/468845568) finish=59.7min speed=130226K/sec
md0 : inactive sde[2](S) sdd[1](S) sdc[0](S)
3315 blocks super external:imsm
md126 : active raid0 sda[1] sdb[0]
890817536 blocks super external:/md127/0 128k chunks
md127 : inactive sdb[1](S) sda[0](S)
10402 blocks super external:imsm
unused devices: <none>
[root@localhost ~]# mdadm -D /dev/md125
/dev/md125:
Container : /dev/md0, member 0
Raid Level : raid5
Array Size : 937691136 (894.25 GiB 960.20 GB)
Used Dev Size : 468845568 (447.13 GiB 480.10 GB)
Raid Devices : 3
Total Devices : 3
State : clean, resyncing
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-asymmetric
Chunk Size : 128K
Consistency Policy : resync
Resync Status : 4% complete
UUID : 62e76373:ba6fb28a:4ae39dba:bdf52d6c
Number Major Minor RaidDevice State
0 8 32 0 active sync /dev/sdc
1 8 48 1 active sync /dev/sdd
2 8 64 2 active sync /dev/sde
# 使用四块硬盘在/dev/md0容器中创建RAID10
[root@localhost ~]# mdadm -C /dev/md0 /dev/sdc /dev/sdd /dev/sde /dev/sdf -n 4 -e imsm
mdadm: /dev/sdc appears to contain an ext2fs file system
size=976762584K mtime=Wed Dec 31 19:00:00 1969
mdadm: /dev/sdd appears to contain an ext2fs file system
size=976762584K mtime=Wed Dec 31 19:00:00 1969
mdadm: /dev/sdf appears to contain an ext2fs file system
size=3750738264K mtime=Wed Dec 31 19:00:00 1969
Continue creating array? y
mdadm: container /dev/md0 prepared.
[root@localhost ~]# mdadm -C /dev/md/R1 /dev/md0 -n 4 -l 10
mdadm: array /dev/md/R1 started.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid0] [raid6] [raid5] [raid4] [raid10]
md125 : active raid10 sde[3] sdd[2] sdf[1] sdc[0]
937691136 blocks super external:/md0/0 128K chunks 2 near-copies [4/4] [UUUU]
[>....................] resync = 0.1% (1635136/937691136) finish=76.3min speed=204392K/sec
md0 : inactive sdf[3](S) sde[2](S) sdd[1](S) sdc[0](S)
4420 blocks super external:imsm
md126 : active raid0 sda[1] sdb[0]
890817536 blocks super external:/md127/0 128k chunks
md127 : inactive sdb[1](S) sda[0](S)
10402 blocks super external:imsm
unused devices: <none>
[root@localhost ~]# mdadm -D /dev/md125
/dev/md125:
Container : /dev/md0, member 0
Raid Level : raid10
Array Size : 937691136 (894.25 GiB 960.20 GB)
Used Dev Size : 468845568 (447.13 GiB 480.10 GB)
Raid Devices : 4
Total Devices : 4
State : clean, resyncing
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : near=2
Chunk Size : 128K
Consistency Policy : resync
Resync Status : 0% complete
UUID : bd08e6b3:90b4c83c:498c7d20:2b33be77
Number Major Minor RaidDevice State
0 8 32 0 active sync set-A /dev/sdc
1 8 80 1 active sync set-B /dev/sdf
2 8 48 2 active sync set-A /dev/sdd
3 8 64 3 active sync set-B /dev/sde
查询所有软RAID状态。
【命令】
cat /proc/mdstat
【举例】
# 查询所有软RAID状态。
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md127 : active raid1 sda[1] sdb[0]
468845568 blocks super external:/md0/0 [2/2] [UU]
[>....................] resync = 0.5% (2401792/468845568) finish=35.6min speed=218344K/sec
md0 : inactive sdb[1](S) sda[0](S)
2210 blocks super external:imsm
unused devices: <none>
[root@localhost ~]# mdadm -D /dev/md127
/dev/md127:
Container : /dev/md0, member 0
Raid Level : raid1
Array Size : 468845568 (447.13 GiB 480.10 GB)
Used Dev Size : 468845568 (447.13 GiB 480.10 GB)
Raid Devices : 2
Total Devices : 2
State : clean, resyncing
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Resync Status : 1% complete
UUID : af26b232:b11886cf:24caa39f:e04f675a
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 8 0 1 active sync /dev/sda
等待resync进程结束后,即可使用
[root@localhost ~]# mdadm -D /dev/md127
/dev/md127:
Container : /dev/md0, member 0
Raid Level : raid1
Array Size : 468845568 (447.13 GiB 480.10 GB)
Used Dev Size : 468845568 (447.13 GiB 480.10 GB)
Raid Devices : 2
Total Devices : 2
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
UUID : af26b232:b11886cf:24caa39f:e04f675a
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 8 0 1 active sync /dev/sda
安装VROC驱动的同时会一并安装相关软件程序。
(1) 如图3-18所示,从H3C官网下载VROC驱动程序。
(2) 如图3-19所示,将驱动程序中包含的SetupVROC.exe文件上传到系统中,双击进入安装界面。
(3) 如图3-20所示,自行选择软件安装的位置。
(4) 如图3-21所示,安装完成。
(1) 如图3-22所示,打开上一步安装的Intel Virtual RAID on CPU软件。
(2) 如图3-23所示,选择Create Volume。
(3) 如图3-24所示,选择controller和创建RAID的级别,此处以两块M.2硬盘组建RAID1为例。完成后,选择Next。
图3-24 选择controller和RAID级别
(4) 如图3-25所示,选择硬盘。完成后,选择Next。
(5) 如图3-26所示,填写RAID名称,选择RAID容量,选择Next,选择Create Volume。
(6) 如图3-27所示,完成创建。
(1) 如图3-28所示,选择已有的软RAID硬盘Array,单击右侧的Delete Volume。
(2) 如图3-29所示,在弹出的对话框中,选择Yes。
(3) 如图3-30所示,在Volumes页面中可以看到软RAID硬盘Array已被删除。
关于存储控制卡的故障信息收集、故障诊断定位和故障解决方法的详细说明,请参见《H3C服务器 故障处理手册》。
存储控制卡与服务器的兼容性关系,请使用http://www.h3c.com/cn/home/qr/default.htm?id=315查询。
访问https://www.h3c.com/cn/BizPortal/DownLoadAccessory/DownLoadAccessoryFilt.aspx下载存储控制卡的驱动程序。驱动程序的安装步骤,请参见与驱动程序一起发布的版本说明书。
不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!