• 产品与解决方案
  • 行业解决方案
  • 服务
  • 支持
  • 合作伙伴
  • 关于我们

H3C 鲲鹏服务器 RAID控制卡 用户指南-6W102

手册下载

H3C 鲲鹏服务器 RAID控制卡 用户指南-6W102-整本手册.pdf  (45.58 MB)

  • 发布时间:2024/6/20 19:36:04
  • 浏览量:
  • 下载量:

 

 

 

 

H3C 鲲鹏服务器 RAID控制卡

 

用户指南

 

 

 

 

资料版本:6W102-20240612

 

 

 

 


 

 

 

 

注意

 

 

 

由于产品版本升级或其他原因,本文档内容会不定期进行更新。除非另有约定,本文档仅作为使用指导,本文档中的所有陈述、信息和建议不构成任何明示或暗示的担保。

 


 

前言... 1

2 RAID基本概念... 3

2.1 硬盘组和虚拟磁盘... 3

2.2 RAID级别介绍... 4

2.2.1 RAID 0. 4

2.2.2 RAID 1. 4

2.2.3 RAID 1ADMRAID 1Triple. 5

2.2.4 RAID 5. 6

2.2.5 RAID 6. 7

2.2.6 RAID 10. 8

2.2.7 RAID 10ADMRAID 10Triple. 9

2.2.8 RAID 1E.. 10

2.2.9 RAID 50. 11

2.2.10 RAID 60. 11

2.2.11 容错能力... 12

2.2.12 读写性能... 13

2.2.13 存储容量... 13

2.3 常见功能... 14

2.3.1 容错... 14

2.3.2 一致性校验... 14

2.3.3 热备份... 14

2.3.4 RAID重构... 15

2.3.5 硬盘状态... 15

2.3.6 虚拟磁盘的读写策略... 18

2.3.7 数据掉电保护... 19

2.3.8 硬盘条带化... 20

2.3.9 磁盘镜像... 21

2.3.10 外部配置... 21

2.3.11 硬盘节能... 22

2.3.12 硬盘直通... 22

3 RAID控制卡兼容性... 23

4 命名含义... 24

5 技术规格... 25

6 常用操作... 36

6.1 RAID控制卡驱动下载和安装... 36

6.2 通过BMC管理RAID控制卡... 36

6.3 通过ToolKit配置RAID控制卡... 36

7 LSI SAS3008IR.. 37

7.1 概述... 37

7.2 功能... 40

7.2.1 提供高速接口和模块... 40

7.2.2 可连接多个扩展设备... 40

7.2.3 支持的硬盘... 40

7.2.4 一致性校验... 40

7.2.5 故障自修复... 40

7.2.6 硬盘热备份... 41

7.2.7 硬盘直通... 41

7.2.8 硬盘低格... 41

7.2.9 硬盘节能... 41

7.2.10 硬盘热插拔... 42

7.2.11 支持多种RAID类型... 42

7.2.12 硬盘巡检... 42

7.2.13 自动SMART扫描... 43

7.3 初始配置... 43

7.3.1 登录管理界面... 43

7.3.2 创建RAID 0. 47

7.3.3 创建RAID 1. 51

7.3.4 创建RAID 1E.. 55

7.3.5 创建RAID 10. 59

7.3.6 配置启动项... 63

7.4 常用配置... 64

7.4.1 配置热备盘... 64

7.4.2 删除热备盘... 66

7.4.3 导入和清除外部配置... 68

7.4.4 删除RAID.. 73

7.4.5 查询RAID控制卡固件版本... 75

7.5 故障处理... 76

7.5.1 硬盘故障... 76

7.5.2 控制卡故障... 78

7.6 管理界面介绍... 78

7.6.1 登录管理界面... 78

7.6.2 Controller Management 82

7.6.2.1 View Controller Properties. 84

7.6.2.2 Change Controller Properties. 85

7.6.2.3 Create Configuration. 86

7.6.2.4 Clear Configuration. 89

7.6.2.5 Manage Foreign Configuration. 90

7.6.2.6 Save Controller Events. 94

7.6.3 Virtual Disk Management 95

7.6.3.1 Manage Virtual Disk Properties. 96

7.6.3.2 Select Virtual Disk Operations. 101

7.6.4 Physical Disk Management 103

7.6.4.1 View Physical Disk Properties. 104

7.6.4.2 Select Physical Disk Operations. 105

7.6.5 Exit 106

7.7 OS命令行工具... 107

7.7.1 下载和安装SAS3IRCU工具... 107

7.7.2 常用命令... 107

7.7.2.1 查看所有控制卡... 107

7.7.2.2 查看所有信息... 108

7.7.2.3 创建和删除RAID.. 110

7.7.2.4 删除指定的RAID... 112

7.7.2.5 模拟硬盘故障... 112

7.7.2.6 热备盘的创建和删除... 113

7.7.2.7 查看虚拟磁盘状态... 114

7.7.2.8 一致性校验... 115

7.7.2.9 激活RAID... 116

7.7.2.10 点亮硬盘指示灯... 116

7.7.2.11 收集和清除RAID组事件日志... 117

8 LSI SAS3108. 119

8.1 概述... 119

8.2 功能... 125

8.2.1 支持多种RAID类型... 125

8.2.2 硬盘热备份... 126

8.2.3 硬盘热插拔... 127

8.2.4 回拷... 127

8.2.5 硬盘分条... 127

8.2.6 RAID级别迁移... 128

8.2.7 初始化... 129

8.2.8 可用容量扩展... 129

8.2.9 安全数据擦除... 130

8.2.10 写洞保护... 130

8.2.11 读写高速缓存... 131

8.2.12 数据掉电保护... 131

8.2.13 CacheCade. 131

8.2.14 硬盘巡检... 131

8.2.15 自动SMART扫描... 132

8.2.16 硬盘节能... 132

8.2.17 硬盘直通... 132

8.2.18 硬盘漫游... 133

8.2.19 导入外部配置... 133

8.2.20 硬盘故障记录... 133

8.2.21 一致性校验... 133

8.3 初始配置... 134

8.3.1 进入管理界面... 134

8.3.2 创建RAID 0. 139

8.3.3 创建RAID 1. 145

8.3.4 创建RAID 5. 151

8.3.5 创建RAID 6. 157

8.3.6 创建RAID 10. 163

8.3.7 创建RAID 50. 170

8.3.8 创建RAID 60. 177

8.3.9 配置启动项... 184

8.4 用配置... 184

8.4.1 管理热备盘... 184

8.4.1.1 配置全局热备盘... 185

8.4.1.2 配置局部热备盘... 186

8.4.1.3 删除热备盘... 187

8.4.2 设置紧急热备功能... 189

8.4.3 扩展Virtual Drives可用空间... 190

8.4.4 添加新硬盘到RAID.. 193

8.4.5 迁移RAID级别... 199

8.4.6 删除RAID.. 205

8.4.7 重构RAID.. 207

8.4.8 查看RAID控制卡属性... 208

8.4.9 导入和清除外部配置... 212

8.4.10 管理CacheCade. 215

8.4.10.1 创建CacheCade虚拟磁盘... 215

8.4.10.2 删除CacheCade虚拟磁盘... 218

8.4.10.3 在普通虚拟磁盘上启用SSD Caching. 220

8.4.11 创建多个VDVirtual Drive... 222

8.4.12 设置JBOD模式... 230

8.4.13 查询RAID控制卡固件版本... 231

8.5 故障处理... 232

8.5.1 硬盘相关故障... 232

8.5.1.1 硬盘故障... 232

8.5.1.2 硬盘状态为failprefail 234

8.5.1.3 硬盘状态为Unconfigured BadUBad. 234

8.5.2 电容故障... 235

8.5.3 控制卡故障... 236

8.5.4 Device ManagerRAID控制卡状态显示Not Healthy. 236

8.5.4.1 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone  239

8.5.4.2 There are offline or missing virtual drives with preserved cache. 240

8.5.4.3 The following VDs have missing disks. 245

8.5.4.4 Number of disks exceeded the maximum supported count of 32 disks. 246

8.5.4.5 Memory/battery problems were detected / Unexpected power-loss occurred. 247

8.5.5 Controller Mode恢复为RAID.. 248

8.5.6 删除Preserved Cache. 252

8.6 管理界面介绍... 254

8.6.1 进入管理界面... 254

8.6.2 Main Menu. 258

8.6.2.1 Configuration Management 260

8.6.2.2 Controller Management 264

8.6.2.3 Virtual Drive Management 274

8.6.2.4 Drive Management 282

8.6.2.5 Hardware Components. 286

8.6.3 View Server Profile. 289

8.6.4 View Foreign Configuration. 290

8.6.5 Configure. 292

8.6.6 Set Factory Defaults. 293

8.6.7 Manage MegaRAID Advanced Software Options. 293

8.6.8 Exit 294

8.7 OS命令行工具... 295

8.7.1 下载和安装StorCLI工具... 295

8.7.2 常用命令... 296

8.7.2.1 查询RAID控制卡配置信息... 296

8.7.2.2 创建和删除RAID.. 298

8.7.2.3 查询RAID控制卡/RAID/物理硬盘信息... 302

8.7.2.4 查询超级电容的相关信息... 309

8.7.2.5 查询和设置Patrolread参数... 311

8.7.2.6 查询和设置Spinup参数... 312

8.7.2.7 查询和设置硬盘数据擦除功能... 314

8.7.2.8 查询和设置RAID后台初始化... 315

8.7.2.9 查询和设置CacheFlush参数... 316

8.7.2.10 查询和设置物理硬盘初始化功能... 317

8.7.2.11 查询和设置RAID重构... 318

8.7.2.12 查询和设置回拷... 319

8.7.2.13 查询和设置Smart扫描周期... 321

8.7.2.14 查询和设置一致性校验参数... 322

8.7.2.15 设置热备盘... 324

8.7.2.16 设置启动项... 325

8.7.2.17 设置硬盘状态... 326

8.7.2.18 设置RAID组访问策略... 328

8.7.2.19 设置RAID组的I/O策略... 328

8.7.2.20 设置硬盘Cache状态... 330

8.7.2.21 设置RAID组的Cache读写策略... 331

8.7.2.22 设置紧急热备功能... 332

8.7.2.23 设置RAID前台初始化... 333

8.7.2.24 设置硬盘直通功能... 334

8.7.2.25 设置硬盘定位指示灯状态... 335

8.7.2.26 设置硬盘PowerSave功能... 336

8.7.2.27 设置后台资源占用率... 337

8.7.2.28 设置自动恢复热备盘状态... 338

8.7.2.29 设置BIOS Stop on Error功能... 340

8.7.2.30 查询和清除PreservedCache数据... 340

8.7.2.31 通过增加成员盘可用容量扩容RAID.. 341

8.7.2.32 通过增加新盘扩容或迁移RAID.. 343

8.7.2.33 配置CacheCade虚拟磁盘... 344

8.7.2.34 升级硬盘FW... 345

8.7.2.35 手动重构RAID.. 346

8.7.2.36 收集和清除RAID控制卡日志... 347

8.7.2.37 查看/导入/清除外部配置... 349

8.7.2.38 升级控制卡FW... 350

9 Avago SAS3508. 352

9.1 概述... 352

9.2 功能... 357

9.2.1 支持多种RAID类型... 357

9.2.2 硬盘热备份... 358

9.2.3 硬盘热插拔... 359

9.2.4 回拷... 359

9.2.5 硬盘分条... 360

9.2.6 RAID级别迁移... 360

9.2.7 初始化... 361

9.2.8 可用容量扩展... 362

9.2.9 安全数据擦除... 362

9.2.10 写洞保护... 362

9.2.11 读写高速缓存... 363

9.2.12 数据掉电保护... 363

9.2.13 硬盘巡检... 364

9.2.14 自动SMART扫描... 364

9.2.15 硬盘节能... 364

9.2.16 硬盘直通... 365

9.2.17 硬盘漫游... 365

9.2.18 导入外部配置... 365

9.2.19 硬盘故障记录... 365

9.2.20 一致性校验... 366

9.3 初始配置... 366

9.3.1 进入管理界面... 366

9.3.2 创建RAID 0. 370

9.3.3 创建RAID 1. 376

9.3.4 创建RAID 5. 382

9.3.5 创建RAID 6. 388

9.3.6 创建RAID 10. 394

9.3.7 创建RAID 50. 401

9.3.8 创建RAID 60. 408

9.3.9 配置启动项... 415

9.4 常用配置... 415

9.4.1 管理热备盘... 415

9.4.1.1 配置全局热备盘... 416

9.4.1.2 配置局部热备盘... 417

9.4.1.3 删除热备盘... 418

9.4.2 设置紧急热备功能... 419

9.4.3 添加新硬盘到RAID.. 421

9.4.4 扩展Virtual Drives可用空间... 425

9.4.5 迁移RAID级别... 427

9.4.6 删除RAID.. 432

9.4.7 重构RAID.. 433

9.4.8 查看RAID控制卡属性... 434

9.4.9 导入和清除外部配置... 439

9.4.10 设置JBOD模式... 443

9.4.11 创建多个VDVirtual Drive... 444

9.4.12 查询RAID控制卡固件版本... 450

9.5 故障处理... 452

9.5.1 硬盘相关故障... 452

9.5.1.1 硬盘故障... 452

9.5.1.2 硬盘状态为failprefail 453

9.5.1.3 硬盘状态为Unconfigured BadUBad. 454

9.5.2 电容故障... 455

9.5.3 控制卡故障... 456

9.5.4 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy. 456

9.5.4.1 The following VDs have missing disks. 460

9.5.4.2 There are offline or missing virtual drives with preserved cache. 461

9.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone  463

9.5.4.4 Number of disks exceeded the maximum supported count of 32 disks. 465

9.5.4.5 Memory/battery problems were detected / Unexpected power-loss occurred. 465

9.5.4.6 Disabling writes to flash as the flash part has gone bad. 466

9.5.5 Controller Mode恢复为RAID.. 467

9.5.6 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死... 471

9.5.7 删除Preserved Cache. 472

9.6 管理界面介绍... 474

9.6.1 进入管理界面... 474

9.6.2 Main Menu. 478

9.6.2.1 Configuration Management 479

9.6.2.2 Controller Management 484

9.6.2.3 Virtual Drive Management 491

9.6.2.4 Drive Management 499

9.6.2.5 Hardware Components. 505

9.6.3 View Server Profile. 507

9.6.4 View Foreign Configuration. 508

9.6.5 Configure. 510

9.6.6 Set Factory Defaults. 515

9.6.7 Manage MegaRAID Advanced Software Options. 515

9.6.8 Exit 516

9.7 OS命令行工具... 517

9.7.1 下载和安装StorCLI工具... 517

9.7.2 常用命令... 517

9.7.2.1 查询RAID控制卡配置信息... 517

9.7.2.2 创建和删除RAID.. 520

9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息... 524

9.7.2.4 查询超级电容的相关信息... 531

9.7.2.5 查询和设置Patrolread参数... 533

9.7.2.6 查询和设置Spinup参数... 534

9.7.2.7 查询和设置硬盘数据擦除功能... 536

9.7.2.8 查询和设置RAID后台初始化... 537

9.7.2.9 查询和设置CacheFlush参数... 538

9.7.2.10 查询和设置物理硬盘初始化功能... 539

9.7.2.11 查询和设置RAID重构... 540

9.7.2.12 查询和设置回拷... 542

9.7.2.13 查询和设置Smart扫描周期... 543

9.7.2.14 查询和设置一致性校验参数... 544

9.7.2.15 设置热备盘... 546

9.7.2.16 设置启动项... 547

9.7.2.17 设置硬盘状态... 549

9.7.2.18 设置RAID组访问策略... 550

9.7.2.19 设置RAID组的I/O策略... 551

9.7.2.20 设置硬盘Cache状态... 553

9.7.2.21 设置RAID组的Cache读写策略... 554

9.7.2.22 设置紧急热备功能... 555

9.7.2.23 设置RAID前台初始化模式... 556

9.7.2.24 设置硬盘直通功能... 557

9.7.2.25 设置硬盘定位指示灯状态... 558

9.7.2.26 设置硬盘PowerSave功能... 559

9.7.2.27 设置后台资源占用率... 560

9.7.2.28 设置自动恢复热备盘状态... 561

9.7.2.29 设置BIOS Stop on Error功能... 563

9.7.2.30 通过增加成员盘可用容量扩容RAID.. 564

9.7.2.31 通过增加新盘扩容或迁移RAID.. 565

9.7.2.32 查询和清除PreservedCache数据... 567

9.7.2.33 升级硬盘FW... 568

9.7.2.34 手动重构RAID.. 569

9.7.2.35 收集和清除RAID控制卡日志... 570

9.7.2.36 查看/导入/清除外部配置... 571

9.7.2.37 Snapdump相关操作... 572

9.7.2.38 升级控制卡FW... 575

10 Avago SAS3516. 577

10.1 概述... 577

10.2 功能... 579

10.2.1 支持多种RAID类型... 579

10.2.2 硬盘热备份... 580

10.2.3 硬盘热插拔... 581

10.2.4 回拷... 581

10.2.5 硬盘分条... 582

10.2.6 RAID级别迁移... 582

10.2.7 初始化... 583

10.2.8 可用容量扩展... 584

10.2.9 安全数据擦除... 584

10.2.10 写洞保护... 584

10.2.11 写高速缓存... 585

10.2.12 数据掉电保护... 585

10.2.13 硬盘巡检... 586

10.2.14 自动SMART扫描... 586

10.2.15 硬盘节能... 586

10.2.16 硬盘直通... 586

10.2.17 硬盘漫游... 587

10.2.18 导入外部配置... 587

10.2.19 硬盘故障记录... 587

10.3 初始配置... 588

10.3.1 进入管理界面... 588

10.3.2 创建RAID 0. 593

10.3.3 创建RAID 1. 598

10.3.4 创建RAID 5. 604

10.3.5 创建RAID 6. 610

10.3.6 创建RAID 10. 616

10.3.7 创建RAID 50. 623

10.3.8 创建RAID 60. 630

10.3.9 设置启动项... 637

10.3.9.1 设置RAID控制卡下的启动项... 637

10.3.9.2 设置服务器的启动项... 637

10.4 常用配置... 637

10.4.1 管理热备盘... 637

10.4.1.1 配置全局热备盘... 638

10.4.1.2 配置局部热备盘... 639

10.4.1.3 删除热备盘... 640

10.4.2 设置紧急热备功能... 641

10.4.3 添加新硬盘到RAID.. 643

10.4.4 扩展Virtual Drives可用空间... 649

10.4.5 迁移RAID级别... 652

10.4.6 删除RAID.. 659

10.4.7 重构RAID.. 660

10.4.8 查看RAID控制卡属性... 661

10.4.9 导入和清除外部配置... 666

10.4.10 创建多个VDVirtual Drive... 670

10.4.11 设置JBOD模式... 678

10.5 故障处理... 679

10.5.1 硬盘相关故障... 679

10.5.1.1 硬盘故障... 679

10.5.1.2 硬盘状态为failprefail 680

10.5.1.3 硬盘状态为Unconfigured BadUBad. 681

10.5.2 电容故障... 682

10.5.3 控制卡故障... 682

10.5.4 Device ManagerRAID控制卡状态显示Not Healthy. 683

10.5.4.1 The following VDs have missing disks. 684

10.5.4.2 There are offline or missing virtual drives with preserved cache. 684

10.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone  685

10.5.4.4 Memory/battery problems were detected. 687

10.5.4.5 Disabling writes to flash as the flash part has gone bad. 687

10.5.5 Controller Mode恢复为RAID.. 688

10.5.6 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死... 689

10.5.7 删除Preserved Cache. 690

10.6 管理界面介绍... 691

10.6.1 进入管理界面... 691

10.6.2 Main Menu. 696

10.6.2.1 Configuration Management 697

10.6.2.2 Controller Management 701

10.6.2.3 Virtual Drive Management 709

10.6.2.4 Drive Management 717

10.6.2.5 Hardware Components. 722

10.6.3 View Server Profile. 724

10.6.4 View Foreign Configuration. 725

10.6.5 Configure. 727

10.6.6 Set Factory Defaults. 728

10.6.7 Update Firmware. 728

10.6.8 Manage MegaRAID Advanced Software Options. 730

10.6.9 Exit 731

10.7 OS命令行工具... 731

10.7.1 下载和安装StorCLI工具... 732

10.7.2 常用命令... 732

10.7.2.1 查询RAID控制卡配置信息... 732

10.7.2.2 创建和删除RAID.. 735

10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息... 739

10.7.2.4 查询和设置Patrolread参数... 740

10.7.2.5 查询和设置Spinup参数... 741

10.7.2.6 查询和设置硬盘数据擦除功能... 743

10.7.2.7 查询和设置RAID后台初始化... 744

10.7.2.8 查询和设置CacheFlush参数... 745

10.7.2.9 查询和设置物理硬盘初始化功能... 747

10.7.2.10 查询和设置RAID重构... 748

10.7.2.11 查询和设置回拷... 749

10.7.2.12 查询和设置Smart扫描周期... 751

10.7.2.13 查询和设置一致性校验参数... 752

10.7.2.14 设置热备盘... 754

10.7.2.15 设置启动项... 755

10.7.2.16 设置硬盘状态... 756

10.7.2.17 设置RAID组访问策略... 758

10.7.2.18 设置RAID组的I/O策略... 759

10.7.2.19 设置硬盘Cache状态... 760

10.7.2.20 设置RAID组的Cache读写策略... 761

10.7.2.21 设置紧急热备功能... 763

10.7.2.22 设置RAID前台初始化模式... 764

10.7.2.23 设置硬盘定位指示灯状态... 765

10.7.2.24 设置硬盘PowerSave功能... 766

10.7.2.25 设置后台资源占用率... 768

10.7.2.26 设置BIOS Stop on Error功能... 769

10.7.2.27 查询和清除PreservedCache数据... 770

10.7.2.28 通过增加成员盘可用容量扩容RAID.. 770

10.7.2.29 通过增加新盘扩容或迁移RAID.. 772

10.7.2.30 升级硬盘FW... 774

10.7.2.31 手动重构RAID.. 775

10.7.2.32 收集和清除RAID控制卡日志... 776

10.7.2.33 查看/导入/清除外部配置... 777

10.7.2.34 Snapdump相关操作... 778

10.7.2.35 升级控制卡FW... 781

11 Avago SAS3408iMR.. 783

11.1 概述... 783

11.2 功能... 786

11.2.1 支持多种RAID类型... 786

11.2.2 硬盘热备份... 787

11.2.3 硬盘热插拔... 788

11.2.4 回拷... 788

11.2.5 硬盘分条... 788

11.2.6 初始化... 789

11.2.7 RAID级别迁移... 789

11.2.8 可用容量扩展... 790

11.2.9 安全数据擦除... 790

11.2.10 硬盘巡检... 791

11.2.11 自动SMART扫描... 791

11.2.12 硬盘节能... 791

11.2.13 硬盘直通... 791

11.2.14 硬盘漫游... 792

11.2.15 导入外部配置... 792

11.2.16 硬盘故障记录... 792

11.2.17 一致性校验... 793

11.3 初始配置... 793

11.3.1 登录管理界面... 793

11.3.2 创建RAID 0. 798

11.3.3 创建RAID 1. 803

11.3.4 创建RAID 10. 808

11.3.5 配置启动项... 814

11.4 常用配置... 814

11.4.1 管理热备盘... 814

11.4.1.1 配置全局热备盘... 815

11.4.1.2 配置局部热备盘... 816

11.4.1.3 删除热备盘... 817

11.4.2 设置紧急热备功能... 818

11.4.3 添加新硬盘到RAID.. 819

11.4.4 扩展Virtual Drives可用空间... 825

11.4.5 迁移RAID级别... 828

11.4.6 删除RAID.. 833

11.4.7 重构RAID.. 835

11.4.8 查看RAID控制卡属性... 838

11.4.9 导入和清除外部配置... 843

11.4.10 设置JBOD模式... 847

11.4.11 创建多个VDVirtual Drive... 848

11.4.12 查询RAID控制卡固件版本... 854

11.5 故障处理... 856

11.5.1 硬盘相关故障... 856

11.5.1.1 硬盘故障... 856

11.5.1.2 硬盘状态为failprefail 857

11.5.1.3 硬盘状态为Unconfigured BadUBad. 858

11.5.2 控制卡故障... 859

11.5.3 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy. 859

11.5.3.1 The following VDs have missing disks. 861

11.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone  863

11.5.3.3 Disabling writes to flash as the flash part has gone bad. 864

11.5.4 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死... 865

11.5.5 Controller Mode恢复为RAID.. 866

11.6 管理界面介绍... 870

11.6.1 登录管理界面... 870

11.6.2 Main Menu. 875

11.6.2.1 Configuration Management 876

11.6.2.2 Controller Management 879

11.6.2.3 Virtual Drive Management 885

11.6.2.4 Drive Management 894

11.6.2.5 Hardware Components. 899

11.6.3 View Server Profile. 900

11.6.4 Manage Foreign Configuration. 901

11.6.5 Configure. 903

11.6.6 Set Factory Defaults. 904

11.6.7 Manage MegaRAID Advanced Software Options. 904

11.6.8 Exit 905

11.7 OS命令行工具... 906

11.7.1 下载和安装StorCLI工具... 906

11.7.2 常用命令... 907

11.7.2.1 查询RAID控制卡配置信息... 907

11.7.2.2 创建和删除RAID.. 909

11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息... 911

11.7.2.4 查询和设置Patrolread参数... 918

11.7.2.5 查询和设置Spinup参数... 920

11.7.2.6 查询和设置硬盘数据擦除功能... 922

11.7.2.7 查询和设置RAID后台初始化... 923

11.7.2.8 查询和设置物理硬盘初始化功能... 924

11.7.2.9 查询和设置RAID重构... 925

11.7.2.10 查询和设置回拷... 927

11.7.2.11 查询和设置Smart扫描周期... 928

11.7.2.12 查询和设置一致性校验参数... 929

11.7.2.13 设置热备盘... 931

11.7.2.14 设置启动项... 932

11.7.2.15 设置硬盘状态... 933

11.7.2.16 设置RAID组访问策略... 935

11.7.2.17 设置硬盘Cache状态... 936

11.7.2.18 设置紧急热备功能... 937

11.7.2.19 设置RAID前台初始化模式... 938

11.7.2.20 设置硬盘定位指示灯状态... 939

11.7.2.21 设置硬盘PowerSave功能... 940

11.7.2.22 设置后台资源占用率... 941

11.7.2.23 设置BIOS Stop on Error功能... 942

11.7.2.24 通过增加成员盘可用容量扩容RAID.. 943

11.7.2.25 通过增加新盘扩容或迁移RAID.. 945

11.7.2.26 手动重构RAID.. 947

11.7.2.27 收集和清除RAID控制卡日志... 948

11.7.2.28 查看/导入/清除外部配置... 949

11.7.2.29 Snapdump相关操作... 950

11.7.2.30 升级控制卡FW... 953

12 Avago SAS3416iMR.. 955

12.1 概述... 955

12.2 功能... 957

12.2.1 支持多种RAID类型... 957

12.2.2 硬盘热备份... 958

12.2.3 硬盘热插... 959

12.2.4 回拷... 959

12.2.5 硬盘分条... 959

12.2.6 RAID级别迁移... 960

12.2.7 初始化... 960

12.2.8 可用容量扩展... 961

12.2.9 安全数据擦除... 961

12.2.10 硬盘巡检... 962

12.2.11 自动SMART扫描... 962

12.2.12 硬盘节能... 962

12.2.13 硬盘直通... 962

12.2.14 硬盘漫游... 963

12.2.15 导入外部配... 963

12.2.16 硬盘故障记录... 963

12.3 初始配置... 964

12.3.1 登录管理界面... 964

12.3.2 创建RAID 0. 969

12.3.3 创建RAID 1. 976

12.3.4 创建RAID 10. 983

12.3.5 设置启动项... 990

12.3.5.1 设置RAID控制卡下的启动项... 990

12.3.5.2 设置服务器的启动项... 990

12.4 常用配置... 990

12.4.1 管理热备盘... 990

12.4.1.1 配置全局热备盘... 991

12.4.1.2 配置局部热备盘... 993

12.4.1.3 删除热备盘... 997

12.4.2 设置紧急热备功能... 998

12.4.3 扩展Virtual Drives可用空间... 1001

12.4.4 添加新硬盘到RAID.. 1004

12.4.5 迁移RAID级别... 1010

12.4.6 删除RAID.. 1017

12.4.7 重构RAID.. 1019

12.4.8 查看RAID控制卡属性... 1022

12.4.9 设置JBOD模式... 1027

12.4.10 导入和清除外部配置... 1028

12.4.11 创建多个VDVirtual Drive... 1032

12.4.12 设置硬盘状态为JBODUnconfigured Good. 1039

12.5 故障处理... 1043

12.5.1 硬盘相关故障... 1043

12.5.1.1 硬盘故障... 1043

12.5.1.2 硬盘状态为failprefail 1045

12.5.1.3 硬盘状态为Unconfigured BadUBad. 1045

12.5.2 控制卡故障... 1046

12.5.3 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy. 1047

12.5.3.1 The following VDs have missing disks. 1049

12.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone  1050

12.5.3.3 Disabling writes to flash as the flash part has gone bad. 1051

12.5.4 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死... 1052

12.5.5 Controller Mode恢复为RAID.. 1053

12.6 管理界面介绍... 1057

12.6.1 登录管理界面... 1057

12.6.2 Main Menu. 1062

12.6.2.1 Configuration Management 1063

12.6.2.2 Controller Management 1067

12.6.2.3 Virtual Drive Management 1074

12.6.2.4 Drive Management 1081

12.6.2.5 Hardware Components. 1087

12.6.3 View Server Profile. 1088

12.6.4 Manage Foreign Configuration. 1089

12.6.5 Configure. 1092

12.6.6 Set Factory Defaults. 1093

12.6.7 Update Firmware. 1093

12.6.8 Manage MegaRAID Advanced Software Options. 1095

12.6.9 Exit 1096

12.7 OS命令行工具... 1096

12.7.1 下载和安装StorCLI工具... 1097

12.7.2 常用命令... 1097

12.7.2.1 查询RAID控制卡配置信息... 1097

12.7.2.2 创建和删除RAID.. 1100

12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息... 1102

12.7.2.4 查询和设置Patrolread参数... 1109

12.7.2.5 查询和设置Spinup参数... 1111

12.7.2.6 查询和设置硬盘数据擦除功能... 1112

12.7.2.7 查询和设置RAID后台初始化... 1113

12.7.2.8 查询和设置物理硬盘初始化功能... 1114

12.7.2.9 查询和设置RAID重构... 1115

12.7.2.10 查询和设置回拷... 1117

12.7.2.11 查询和设置Smart扫描周期... 1119

12.7.2.12 查询和设置一致性校验参数... 1119

12.7.2.13 设置热备盘... 1121

12.7.2.14 设置启动项... 1122

12.7.2.15 设置硬盘状态... 1123

12.7.2.16 设置RAID组访问策略... 1125

12.7.2.17 设置硬盘Cache状态... 1126

12.7.2.18 设置紧急热备功能... 1127

12.7.2.19 设置RAID前台初始化模式... 1128

12.7.2.20 设置硬盘直通功能... 1129

12.7.2.21 设置硬盘定位指示灯状态... 1130

12.7.2.22 设置硬盘PowerSave功能... 1131

12.7.2.23 设置后台资源占用率... 1132

12.7.2.24 设置BIOS Stop on Error功能... 1133

12.7.2.25 通过增加成员盘可用容量扩容RAID.. 1134

12.7.2.26 通过增加新盘扩容或迁移RAID.. 1136

12.7.2.27 手动重构RAID.. 1137

12.7.2.28 收集和清除RAID控制卡日志... 1139

12.7.2.29 查看/导入/清除外部配置... 1140

12.7.2.30 Snapdump相关操作... 1141

12.7.2.31 升级控制卡FW... 1144

13 MSCC SmartRAID 3152-8i 1145

13.1 概述... 1145

13.2 硬盘状态... 1146

13.3 功能... 1147

13.3.1 支持多种RAID级别... 1147

13.3.2 支持多种工作模式... 1148

13.3.3 硬盘热备份... 1149

13.3.4 硬盘热插拔... 1149

13.3.5 重构... 1149

13.3.6 硬盘分条... 1150

13.3.7 硬盘直通... 1150

13.3.8 擦除硬盘数据... 1150

13.3.9 容量扩展... 1151

13.3.10 读写高速缓存... 1151

13.3.11 数据掉电保护... 1151

13.3.12 外部配置导入... 1152

13.4 初始配置... 1152

13.4.1 登录管理界面... 1152

13.4.2 创建RAID 0. 1155

13.4.3 创建RAID 1. 1160

13.4.4 创建RAID 1ADM... 1164

13.4.5 创建RAID 10. 1169

13.4.6 创建RAID 10ADM... 1173

13.4.7 创建RAID 5. 1178

13.4.8 创建RAID 50. 1182

13.4.9 创建RAID 6. 1188

13.4.10 创建RAID 60. 1193

13.5 常用任务... 1199

13.5.1 查看和修改Array属性... 1199

13.5.2 配置热备盘... 1205

13.5.3 删除热备盘... 1208

13.5.4 删除Array. 1210

13.5.5 设置RAID控制卡工作模式... 1211

13.5.6 管理maxCache Array. 1213

13.5.6.1 创建maxcache Array. 1213

13.5.6.2 修改maxCache Array属性... 1218

13.5.6.3 删除maxCache Array. 1220

13.5.7 设置物理硬盘Cache. 1223

13.5.8 查询RAID控制卡固件版本... 1226

13.5.9 擦除硬盘... 1227

13.5.10 设置带外管理接口为MCTP. 1230

13.6 故障处理... 1235

13.6.1 硬盘故障... 1235

13.6.2 电容故障... 1236

13.6.3 控制卡故障... 1237

13.6.4 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy. 1238

13.6.5 重新激活状态为FailedRAID... 1241

13.7 管理界面介绍... 1241

13.7.1 登录管理界面... 1241

13.7.2 Controller Information. 1244

13.7.3 Configure Controller Settings. 1247

13.7.3.1 Modify Controller Settings. 1248

13.7.3.2 Modify Cache Settings. 1251

13.7.3.3 Advanced Controller Settings. 1252

13.7.3.4 Clear Configuration. 1253

13.7.3.5 Backup Power Source. 1254

13.7.3.6 Manage Power Settings. 1255

13.7.3.7 Out of Band Messaging Settings. 1256

13.7.3.8 Configure Controller Port Mode. 1258

13.7.4 Array Configuration. 1259

13.7.5 Disk Utilities. 1260

13.7.6 Set Bootable Device(s) for Legacy Boot Mode. 1266

13.7.7 Administration. 1267

13.8 OS命令行工具... 1268

13.8.1 下载和安装ARCCONF工具... 1268

13.8.2 常用命令... 1269

13.8.2.1 查询控制卡的基本信息... 1269

13.8.2.2 查询物理硬盘、ArrayLDmaxCache等相关信息... 1270

13.8.2.3 查询控制卡的FW和驱动版本... 1273

13.8.2.4 升级控制卡FW... 1273

13.8.2.5 设置控制卡工作模式... 1274

13.8.2.6 设置RAID控制卡带外管理接口... 1276

13.8.2.7 查询所有适用arcconf工具的控制卡... 1278

13.8.2.8 设置启动盘... 1278

13.8.2.9 设置热备模式... 1279

13.8.2.10 设置硬盘定位指示灯... 1280

13.8.2.11 修改条带大小... 1281

13.8.2.12 通过增加成员盘可用容量扩容RAID.. 1282

13.8.2.13 通过增加新盘进行扩容... 1283

13.8.2.14 迁移RAID级别... 1284

13.8.2.15 LD设置热备盘... 1286

13.8.2.16 设置后台任务优先级... 1287

13.8.2.17 使能和关闭LDcache功能... 1288

13.8.2.18 设置后台一致性校验的并行个数... 1289

13.8.2.19 创建和删除RAID.. 1289

13.8.2.20 创建MaxCache. 1292

13.8.2.21 设置控制卡的读写比例... 1293

13.8.2.22 无电容状态下使用cache. 1293

13.8.2.23 使能一致性校验的修复策略... 1294

13.8.2.24 使能一致性校验生成调试信息并发出通知... 1295

13.8.2.25 关闭一致性校验... 1295

13.8.2.26 查询和设置硬盘写Cache策略... 1296

13.8.2.27 收集FW日志... 1297

13.8.2.28 设置硬盘和LD状态... 1298

13.8.2.29 设置SSD I/O Bypass状态... 1300

14 MSCC SmartHBA 2100-8i 1302

14.1 概述... 1302

14.2 硬盘状态... 1303

14.3 功能... 1304

14.3.1 支持多种RAID级别... 1304

14.3.2 支持多种工作模式... 1305

14.3.3 硬盘热备份... 1305

14.3.4 硬盘热插拔... 1306

14.3.5 重构... 1306

14.3.6 硬盘分条... 1306

14.3.7 硬盘直通... 1306

14.3.8 擦除硬盘数据... 1307

14.3.9 外部配置导入... 1307

14.4 初始配置... 1307

14.4.1 登录管理界面... 1307

14.4.2 创建RAID 0. 1311

14.4.3 创建RAID 1. 1315

14.4.4 创建RAID 10. 1320

14.5 常用任务... 1324

14.5.1 查看Array属性... 1324

14.5.2 配置热备盘... 1329

14.5.3 删除热备盘... 1332

14.5.4 删除Array. 1334

14.5.5 设置RAID控制卡工作模式... 1336

14.5.6 设置物理硬盘Cache. 1337

14.5.7 查询RAID控制卡固件版本... 1341

14.6 故障处理... 1341

14.6.1 硬盘故障... 1342

14.6.2 控制卡故障... 1343

14.6.3 重新激活状态为FailedRAID... 1343

14.7 管理界面介绍... 1344

14.7.1 登录管理界面... 1344

14.7.2 Controller Information. 1346

14.7.3 Configure Controller Settings. 1348

14.7.3.1 Modify Controller Settings. 1349

14.7.3.2 Advanced Controller Settings. 1352

14.7.3.3 Clear Configuration. 1353

14.7.3.4 Manage Power Settings. 1354

14.7.3.5 BMC Settings. 1355

14.7.3.6 Configure Controller Port Mode. 1356

14.7.4 Array Configuration. 1358

14.7.5 Disk Utilities. 1359

14.7.6 Set Bootable Device(s) for Legacy Boot Mode. 1360

14.7.7 Administration. 1362

14.8 OS命令行工具... 1362

14.8.1 下载和安装ARCCONF工具... 1363

14.8.2 常用命令... 1364

14.8.2.1 查询控制卡的基本信息... 1364

14.8.2.2 查询物理硬盘、ArrayLD等相关信息... 1365

14.8.2.3 查询控制卡的FW和驱动版本... 1369

14.8.2.4 升级控制卡FW... 1370

14.8.2.5 设置控制卡工作模式... 1371

14.8.2.6 查询所有适用arcconf工具的控制卡... 1373

14.8.2.7 设置启动盘... 1373

14.8.2.8 设置热备模式... 1374

14.8.2.9 设置硬盘定位指示灯... 1375

14.8.2.10 LD设置热备盘... 1376

14.8.2.11 设置后台一致性校验的并行个数... 1377

14.8.2.12 创建和删除RAID.. 1378

14.8.2.13 使能一致性校验的修复策略... 1380

14.8.2.14 使能一致性校验生成调试信息并发出通知... 1380

14.8.2.15 关闭一致性校验... 1381

14.8.2.16 查询和设置硬盘写Cache策略... 1382

14.8.2.17 收集FW日志... 1383

14.8.2.18 设置硬盘和LD状态... 1384

14.8.2.19 设置SSD I/O Bypass状态... 1386

15 Avago MegaRAID SAS 9460-8i 1388

15.1 概述... 1388

15.2 功能... 1391

15.2.1 支持多种RAID类型... 1391

15.2.2 硬盘热备份... 1392

15.2.3 硬盘热插拔... 1393

15.2.4 回拷... 1393

15.2.5 硬盘分条... 1393

15.2.6 RAID级别迁移... 1394

15.2.7 初始化... 1395

15.2.8 可用容量扩展... 1396

15.2.9 安全数据擦除... 1396

15.2.10 写洞保护... 1396

15.2.11 写高速缓存... 1397

15.2.12 数据掉电保护... 1397

15.2.13 硬盘巡检... 1398

15.2.14 自动SMART扫描... 1398

15.2.15 硬盘节能... 1398

15.2.16 硬盘直通... 1398

15.2.17 硬盘漫游... 1399

15.2.18 导入外部配置... 1399

15.2.19 硬盘故障记录... 1399

15.2.20 一致性校验... 1400

15.3 初始配置... 1400

15.3.1 进入管理界面... 1400

15.3.2 创建RAID 0. 1405

15.3.3 创建RAID 1. 1410

15.3.4 创建RAID 5. 1416

15.3.5 创建RAID 6. 1422

15.3.6 创建RAID 10. 1428

15.3.7 创建RAID 50. 1435

15.3.8 创建RAID 60. 1441

15.3.9 配置启动项... 1448

15.4 常用配置... 1448

15.4.1 管理热备盘... 1448

15.4.1.1 配置全局热备盘... 1449

15.4.1.2 配置局部热备盘... 1450

15.4.1.3 删除热备盘... 1451

15.4.2 设置紧急热备功能... 1452

15.4.3 添加新硬盘到RAID.. 1454

15.4.4 扩展Virtual Drives可用空间... 1460

15.4.5 迁移RAID级别... 1462

15.4.6 删除RAID.. 1468

15.4.7 重构RAID.. 1469

15.4.8 查看RAID控制卡属性... 1470

15.4.9 导入和清除外部配置... 1474

15.4.10 设置JBOD模式... 1478

15.4.11 创建多个VDVirtual Drive... 1479

15.4.12 查询RAID控制卡固件版本... 1485

15.5 故障处理... 1487

15.5.1 硬盘相关故障... 1487

15.5.1.1 硬盘故障... 1487

15.5.1.2 硬盘状态为failprefail 1488

15.5.1.3 硬盘状态为Unconfigured BadUBad. 1489

15.5.2 电容故障... 1490

15.5.3 控制卡故障... 1490

15.5.4 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy. 1491

15.5.4.1 The following VDs have missing disks. 1494

15.5.4.2 There are offline or missing virtual drives with preserved cache. 1495

15.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone  1498

15.5.4.4 Memory/battery problems were detected / Unexpected power-loss occurred. 1499

15.5.4.5 Disabling writes to flash as the flash part has gone bad. 1500

15.5.5 Controller Mode恢复为RAID.. 1501

15.5.6 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死... 1505

15.5.7 删除Preserved Cache. 1506

15.6 管理界面介绍... 1508

15.6.1 进入管理界面... 1508

15.6.2 Main Menu. 1512

15.6.2.1 Configuration Management 1513

15.6.2.2 Controller Management 1518

15.6.2.3 Virtual Drive Management 1524

15.6.2.4 Drive Management 1531

15.6.2.5 Hardware Components. 1536

15.6.3 View Server Profile. 1538

15.6.4 View Foreign Configuration. 1539

15.6.5 Configure. 1542

15.6.6 Set Factory Defaults. 1543

15.6.7 Manage MegaRAID Advanced Software Options. 1543

15.6.8 Exit 1544

15.7 OS命令行工具... 1545

15.7.1 下载和安装StorCLI工具... 1545

15.7.2 常用命令... 1546

15.7.2.1 查询RAID控制卡配置信息... 1546

15.7.2.2 创建和删除RAID.. 1548

15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息... 1551

15.7.2.4 查询超级电容的相关信息... 1558

15.7.2.5 查询和设置Patrolread参数... 1560

15.7.2.6 查询和设置Spinup参数... 1562

15.7.2.7 查询和设置硬盘数据擦除功能... 1564

15.7.2.8 查询和设置RAID后台初始化... 1565

15.7.2.9 查询和设置CacheFlush参数... 1566

15.7.2.10 查询和设置物理硬盘初始化功能... 1567

15.7.2.11 查询和设置RAID重构... 1568

15.7.2.12 查询和设置回拷... 1569

15.7.2.13 查询和设置Smart扫描周期... 1571

15.7.2.14 查询和设置一致性校验参数... 1572

15.7.2.15 设置热备盘... 1573

15.7.2.16 设置启动项... 1575

15.7.2.17 设置硬盘状态... 1576

15.7.2.18 设置RAID组访问策略... 1578

15.7.2.19 设置硬盘Cache状态... 1578

15.7.2.20 设置RAID组的Cache读写策略... 1579

15.7.2.21 设置紧急热备功能... 1581

15.7.2.22 设置RAID前台初始化模式... 1582

15.7.2.23 设置硬盘直通功能... 1583

15.7.2.24 设置硬盘定位指示灯状态... 1584

15.7.2.25 设置硬盘PowerSave功能... 1585

15.7.2.26 设置后台资源占用率... 1586

15.7.2.27 设置BIOS Stop on Error功能... 1587

15.7.2.28 通过增加成员盘可用容量扩容RAID.. 1588

15.7.2.29 通过增加新盘扩容或迁移RAID.. 1590

15.7.2.30 查询和清除PreservedCache数据... 1591

15.7.2.31 升级硬盘FW... 1592

15.7.2.32 手动重构RAID.. 1593

15.7.2.33 收集和清除RAID控制卡日志... 1594

15.7.2.34 查看/导入/清除外部配置... 1596

15.7.2.35 Snapdump相关操作... 1597

15.7.2.36 升级控制卡FW... 1599

16 Avago MegaRAID SAS 9440-8i 1601

16.1 概述... 1601

16.2 功能... 1603

16.2.1 支持多种RAID类型... 1603

16.2.2 硬盘热备份... 1604

16.2.3 硬盘热插拔... 1605

16.2.4 回拷... 1605

16.2.5 硬盘分条... 1606

16.2.6 初始化... 1606

16.2.7 RAID级别迁移... 1607

16.2.8 可用容量扩展... 1607

16.2.9 安全数据擦除... 1608

16.2.10 硬盘巡检... 1608

16.2.11 自动SMART扫描... 1608

16.2.12 硬盘节能... 1608

16.2.13 硬盘直通... 1609

16.2.14 硬盘漫游... 1609

16.2.15 导入外部配置... 1609

16.2.16 硬盘故障记录... 1609

16.2.17 一致性校验... 1610

16.3 初始配置... 1610

16.3.1 登录管理界面... 1610

16.3.2 创建RAID 0. 1615

16.3.3 创建RAID 1. 1620

16.3.4 创建RAID 10. 1625

16.3.5 配置启动项... 1631

16.4 常用配置... 1631

16.4.1 管理热备盘... 1631

16.4.1.1 配置全局热备盘... 1632

16.4.1.2 配置局部热备盘... 1633

16.4.1.3 删除热备盘... 1634

16.4.2 设置紧急热备功能... 1635

16.4.3 添加新硬盘到RAID.. 1636

16.4.4 扩展Virtual Drive可用空间... 1641

16.4.5 迁移RAID级别... 1644

16.4.6 删除RAID.. 1649

16.4.7 重构RAID.. 1651

16.4.8 查看RAID控制卡属性... 1651

16.4.9 导入和清除外部配置... 1656

16.4.10 设置JBOD模式... 1660

16.4.11 创建多个VDVirtual Drive... 1660

16.4.12 查询RAID控制卡固件版本... 1667

16.5 故障处理... 1668

16.5.1 硬盘相关故障... 1668

16.5.1.1 硬盘故障... 1668

16.5.1.2 硬盘状态为failprefail 1670

16.5.1.3 硬盘状态为Unconfigured BadUBad. 1670

16.5.2 控制卡故障... 1671

16.5.3 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy. 1672

16.5.3.1 The following VDs have missing disks. 1674

16.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone  1675

16.5.3.3 Disabling writes to flash as the flash part has gone bad. 1676

16.5.4 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死... 1677

16.5.5 Controller Mode恢复为RAID.. 1678

16.6 管理界面介绍... 1682

16.6.1 登录管理界面... 1682

16.6.2 Main Menu. 1687

16.6.2.1 Configuration Management 1688

16.6.2.2 Controller Management 1691

16.6.2.3 Virtual Drive Management 1698

16.6.2.4 Drive Management 1705

16.6.2.5 Hardware Components. 1711

16.6.3 View Server Profile. 1712

16.6.4 Manage Foreign Configuration. 1713

16.6.5 Configure. 1715

16.6.6 Set Factory Defaults. 1717

16.6.7 Manage MegaRAID Advanced Software Options. 1717

16.6.8 Exit 1718

16.7 OS命令行工具... 1719

16.7.1 下载和安装StorCLI工具... 1719

16.7.2 常用命令... 1720

16.7.2.1 查询RAID控制卡配置信息... 1720

16.7.2.2 查询和设置Spinup参数... 1722

16.7.2.3 设置硬盘PowerSave功能... 1724

16.7.2.4 查询和设置物理硬盘初始化功能... 1725

16.7.2.5 查询和设置硬盘数据擦除功能... 1726

16.7.2.6 设置后台资源占用率... 1727

16.7.2.7 设置BIOS Stop on Error功能... 1728

16.7.2.8 创建和删除RAID.. 1729

16.7.2.9 设置RAID前台初始化... 1731

16.7.2.10 查询和设置RAID后台初始化... 1732

16.7.2.11 设置启动项... 1733

16.7.2.12 设置紧急热备功能... 1735

16.7.2.13 设置热备盘... 1736

16.7.2.14 查询和设置RAID重构... 1737

16.7.2.15 查询和设置回拷... 1738

16.7.2.16 设置Smart扫描周期... 1740

16.7.2.17 通过增加成员盘可用容量扩容RAID.. 1741

16.7.2.18 通过增加新盘扩容或迁移RAID.. 1742

16.7.2.19 设置一致性校验参数... 1744

16.7.2.20 查询和设置Patrolread参数... 1745

16.7.2.21 设置硬盘状态... 1747

16.7.2.22 设置硬盘定位指示灯状态... 1749

16.7.2.23 查询RAID控制卡/RAID/物理硬盘信... 1750

16.7.2.24 手动重构RAID.. 1757

16.7.2.25 收集和清除RAID控制卡日志... 1758

16.7.2.26 查看/导入/清除外部配置... 1760

16.7.2.27 Snapdump相关操作... 1761

16.7.2.28 升级控制卡FW... 1763

17 Avago MegaRAID SAS 9460-16i 1765

17.1 概述... 1765

17.2 功能... 1768

17.2.1 支持多种RAID类型... 1768

17.2.2 硬盘热备份... 1769

17.2.3 硬盘热插拔... 1770

17.2.4 回拷... 1770

17.2.5 硬盘分条... 1770

17.2.6 RAID级别迁移... 1771

17.2.7 初始化... 1772

17.2.8 可用容量扩展... 1772

17.2.9 安全数据擦除... 1773

17.2.10 写洞保护... 1773

17.2.11 读写高速缓存... 1773

17.2.12 数据掉电保护... 1774

17.2.13 硬盘巡检... 1774

17.2.14 自动SMART扫描... 1775

17.2.15 硬盘节能... 1775

17.2.16 硬盘直通... 1775

17.2.17 硬盘漫游... 1775

17.2.18 导入外部配置... 1776

17.2.19 硬盘故障记录... 1776

17.3 初始配置... 1776

17.3.1 登录管理界面... 1777

17.3.2 创建RAID 0. 1781

17.3.3 创建RAID 1. 1786

17.3.4 创建RAID 5. 1792

17.3.5 创建RAID 6. 1798

17.3.6 创建RAID 10. 1804

17.3.7 创建RAID 50. 1811

17.3.8 创建RAID 60. 1817

17.3.9 设置启动项... 1823

17.3.9.1 设置RAID控制卡下的启动项... 1823

17.3.9.2 设置服务器的启动项... 1823

17.4 常用配置... 1823

17.4.1 管理热备盘... 1823

17.4.1.1 配置全局热备盘... 1824

17.4.1.2 配置局部热备盘... 1825

17.4.1.3 删除热备盘... 1826

17.4.2 设置紧急热备功能... 1827

17.4.3 添加新硬盘到RAID.. 1829

17.4.4 扩展Virtual Drives可用空间... 1835

17.4.5 迁移RAID级别... 1838

17.4.6 删除RAID.. 1844

17.4.7 重构RAID.. 1845

17.4.8 查看RAID控制卡属性... 1846

17.4.9 导入和清除外部配置... 1852

17.4.10 创建多个VDVirtual Drive... 1855

17.4.11 设置JBOD模式... 1863

17.4.12 查询RAID控制卡固件版本... 1864

17.5 故障处理... 1866

17.5.1 硬盘相关故障... 1866

17.5.1.1 硬盘故障... 1866

17.5.1.2 硬盘状态为failprefail 1867

17.5.1.3 硬盘状态为Unconfigured BadUBad. 1868

17.5.2 电容故障... 1869

17.5.3 控制卡故障... 1869

17.5.4 Device ManagerRAID控制卡状态显示Not Healthy. 1870

17.5.4.1 The following VDs have missing disks. 1871

17.5.4.2 There are offline or missing virtual drives with preserved cache. 1871

17.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone  1872

17.5.4.4 Memory/battery problems were detected. 1874

17.5.4.5 Disabling writes to flash as the flash part has gone bad. 1874

17.5.5 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死... 1875

17.5.6 Controller Mode恢复为RAID.. 1876

17.5.7 删除Preserved Cache. 1880

17.6 管理界面介绍... 1882

17.6.1 登录管理界面... 1882

17.6.2 Main Menu. 1887

17.6.2.1 Configuration Management 1888

17.6.2.2 Controller Management 1892

17.6.2.3 Virtual Drive Management 1900

17.6.2.4 Drive Management 1908

17.6.2.5 Hardware Components. 1913

17.6.3 View Server Profile. 1914

17.6.4 Manage Foreign Configuration. 1915

17.6.5 Configure. 1917

17.6.6 Set Factory Defaults. 1918

17.6.7 Update Firmware. 1918

17.6.8 Manage MegaRAID Advanced Software Options. 1920

17.6.9 Exit 1921

17.7 OS命令行工具... 1921

17.7.1 下载和安装StorCLI工具... 1922

17.7.2 常用命令... 1922

17.7.2.1 查询RAID控制卡配置信息... 1922

17.7.2.2 创建和删除RAID.. 1925

17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息... 1928

17.7.2.4 查询和设置Patrolread参数... 1929

17.7.2.5 查询和设置Spinup参数... 1930

17.7.2.6 查询和设置硬盘数据擦除功能... 1932

17.7.2.7 查询和设置RAID后台初始化... 1933

17.7.2.8 查询和设置CacheFlush参数... 1934

17.7.2.9 查询和设置物理硬盘初始化功能... 1935

17.7.2.10 查询和设置RAID重构... 1937

17.7.2.11 查询和设置回拷... 1938

17.7.2.12 查询和设置Smart扫描周期... 1940

17.7.2.13 查询和设置一致性校验参数... 1941

17.7.2.14 设置热备盘... 1943

17.7.2.15 设置启动项... 1944

17.7.2.16 设置硬盘状态... 1945

17.7.2.17 设置RAID组访问策略... 1947

17.7.2.18 设置硬盘Cache状态... 1948

17.7.2.19 设置紧急热备功能... 1949

17.7.2.20 设置硬盘PowerSave功能... 1950

17.7.2.21 设置后台资源占用率... 1951

17.7.2.22 设置BIOS Stop on Error功能... 1952

17.7.2.23 设置RAID组的Cache读写策略... 1953

17.7.2.24 设置RAID前台初始化模式... 1955

17.7.2.25 设置硬盘定位指示灯状态... 1956

17.7.2.26 通过增加成员盘可用容量扩容RAID.. 1957

17.7.2.27 通过增加新盘扩容或迁移RAID.. 1959

17.7.2.28 查询和清除PreservedCache数据... 1960

17.7.2.29 收集和清除RAID控制卡日志... 1961

17.7.2.30 查看/导入/清除外部配置... 1962

17.7.2.31 Snapdump相关操作... 1963

17.7.2.32 升级控制卡FW... 1966

18 BROADCOM MegaRAID 9540-8i 1968

18.1 概述... 1968

18.2 功能... 1970

18.2.1 支持多种RAID类型... 1970

18.2.2 硬盘热备份... 1970

18.2.3 硬盘热插拔... 1971

18.2.4 回拷... 1972

18.2.5 初始化... 1972

18.2.6 RAID级别迁移... 1973

18.2.7 可用容量扩展... 1973

18.2.8 安全数据擦除... 1973

18.2.9 硬盘巡检... 1974

18.2.10 自动SMART扫描... 1974

18.2.11 硬盘节能... 1974

18.2.12 硬盘直通... 1974

18.2.13 硬盘漫游... 1975

18.2.14 导入外部配置... 1975

18.2.15 硬盘故障记录... 1975

18.2.16 一致性校验... 1976

18.3 初始配置... 1976

18.3.1 登录管理界面... 1976

18.3.2 创建RAID 0. 1981

18.3.3 创建RAID 1. 1986

18.3.4 创建RAID 10. 1991

18.3.5 配置启动项... 1997

18.3.5.1 设置控制卡启动项... 1997

18.3.5.2 设置服务器启动项... 1998

18.4 常用配置... 1999

18.4.1 管理热备盘... 1999

18.4.1.1 配置全局热备盘... 1999

18.4.1.2 配置局部热备盘... 2000

18.4.1.3 删除热备盘... 2001

18.4.2 设置紧急热备功能... 2002

18.4.3 添加新硬盘到RAID.. 2003

18.4.4 扩展Virtual Drive可用空间... 2009

18.4.5 迁移RAID级别... 2012

18.4.6 删除RAID.. 2017

18.4.7 重构RAID.. 2019

18.4.8 查看RAID控制卡属性... 2019

18.4.9 导入和清除外部配置... 2024

18.4.10 设置JBOD模式... 2028

18.4.11 创建多个VDVirtual Drive... 2029

18.4.12 查询RAID控制卡固件版本... 2036

18.5 故障处理... 2036

硬盘相关故障... 2037

硬盘故障... 2037

18.5.1.4 硬盘状态为failprefail 2038

18.5.1.5 硬盘状态为Unconfigured BadUBad. 2039

18.5.2 控制卡故障... 2040

18.5.3 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy. 2040

The following VDs have missing disks. 2042

18.5.3.6 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone  2044

18.5.4 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死... 2045

18.5.5 Controller Mode恢复为RAID.. 2047

18.6 管理界面介绍... 2050

Main Menu. 2050

Configuration Management 2051

Create Virtual Drive. 2052

18.6.1.6.2 Create Profile Based Virtual Drive. 2055

18.6.1.6.3 View Drive Group Properties. 2057

18.6.1.6.4 Make JBOD.. 2058

18.6.1.6.5 Make Unconfigured Good. 2059

18.6.1.6.6 Clear Configuration. 2060

18.6.1.7 Controller Management 2061

Advanced Controller Management 2063

18.6.1.7.7 Advanced Controller Properties. 2065

18.6.1.8 Virtual Drive Management 2069

18.6.1.9 Drive Management 2076

18.6.1.10 Hardware Components. 2082

18.6.2 View Server Profile. 2083

18.6.3 Manage Foreign Configuration. 2084

18.6.4 Configure. 2086

18.6.5 Set Factory Defaults. 2088

18.6.6 Manage MegaRAID Advanced Software Options. 2088

18.6.7 Exit 2089

18.7 OS命令行工具... 2089

下载和安装StorCLI工具... 2090

18.7.2 常用命令... 2090

查询控制卡配置信息... 2090

18.7.2.11 查询和设置Spinup参数... 2093

18.7.2.12 设置硬盘PowerSave功能... 2095

18.7.2.13 查询和设置物理硬盘初始化功能... 2096

18.7.2.14 查询和设置硬盘数据擦除功能... 2097

18.7.2.15 设置后台资源占用率... 2098

18.7.2.16 设置BIOS Stop on Error功能... 2099

18.7.2.17 创建和删除RAID.. 2100

18.7.2.18 设置RAID前台初始化... 2102

18.7.2.19 查询和设置RAID后台初始化... 2103

18.7.2.20 设置启动项... 2104

18.7.2.21 设置紧急热备功能... 2105

18.7.2.22 设置热备盘... 2106

18.7.2.23 查询和设置RAID重构... 2108

18.7.2.24 查询和设置回拷... 2109

18.7.2.25 设置Smart扫描周期... 2111

18.7.2.26 通过增加成员盘可用容量扩容RAID.. 2112

18.7.2.27 通过增加新盘扩容或迁移RAID.. 2113

18.7.2.28 设置一致性校验参数... 2115

18.7.2.29 查询和设置Patrolread参数... 2116

18.7.2.30 设置硬盘状态... 2118

18.7.2.31 设置硬盘定位指示灯状态... 2120

18.7.2.32 查询RAID控制卡/RAID/物理硬盘信息... 2121

18.7.2.33 手动重构RAID.. 2128

18.7.2.34 收集和清除RAID控制卡日志... 2129

18.7.2.35 查看/导入/清除外部配置... 2131

18.7.2.36 Snapdump相关操作... 2132

18.7.2.37 升级控制卡FW... 2134

19 BROADCOM MegaRAID 9560-8i 2136

概述... 2136

19.2 功能... 2139

支持多种RAID类型... 2139

19.2.2 硬盘热备份... 2140

19.2.3 硬盘热插拔... 2141

19.2.4 回拷... 2141

19.2.5 硬盘分条... 2141

19.2.6 RAID级别迁移... 2142

19.2.7 初始化... 2143

19.2.8 可用容量扩展... 2143

19.2.9 安全数据擦除... 2144

19.2.10 写洞保护(Write hole... 2144

19.2.11 读写高速缓存... 2144

19.2.12 数据掉电保护... 2145

19.2.13 硬盘巡检... 2145

19.2.14 自动SMART扫描... 2146

19.2.15 硬盘节能... 2146

19.2.16 硬盘直通... 2146

19.2.17 磁盘漫游... 2146

19.2.18 导入外部配置... 2147

19.2.19 硬盘故障记录... 2147

19.2.20 一致性校验... 2147

19.3 初始配置... 2147

登录管理界面... 2148

19.3.2 创建RAID 0. 2152

19.3.3 创建RAID 1. 2158

19.3.4 创建RAID 5. 2164

19.3.5 创建RAID 6. 2170

19.3.6 创建RAID 10. 2176

19.3.7 创建RAID 50. 2183

19.3.8 创建RAID 60. 2190

19.3.9 设置启动项... 2196

19.4 常用配置... 2197

管理热备盘... 2197

配置全局热备盘... 2197

19.4.1.2 配置局部热备盘... 2198

19.4.1.3 删除热备盘... 2200

19.4.2 设置紧急热备功能... 2201

19.4.3 添加新硬盘到RAID.. 2203

19.4.4 扩展Virtual Drives可用空间... 2208

19.4.5 迁移RAID级别... 2211

19.4.6 删除RAID... 2217

19.4.7 重构RAID... 2218

19.4.8 查看RAID控制卡属性... 2219

19.4.9 导入和清除外部配置... 2224

19.4.10 创建多个VDVirtual Drive... 2228

19.4.11 查询RAID控制卡固件版本... 2235

19.5 故障处理... 2237

硬盘相关故障... 2237

硬盘故障... 2237

19.5.1.4 硬盘状态为failprefail 2239

19.5.1.5 硬盘状态为Unconfigured BadUBad. 2239

19.5.2 电容故障... 2240

19.5.3 控制卡故障... 2241

19.5.4 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy. 2241

The following VDs have missing disks. 2244

19.5.4.6 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone  2245

19.5.5 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死... 2246

19.5.6 Controller Mode恢复为RAID.. 2248

19.5.7 删除Preserved Cache. 2251

19.6 管理界面介绍... 2253

登录管理界面... 2253

19.6.2 Main Menu. 2257

Configuration Management 2258

Auto Configure RAID 0. 2259

19.6.2.6.2 Create Virtual Drive. 2260

19.6.2.6.3 Create Profile Based Virtual Drive. 2264

19.6.2.6.4 View Drive Group Properties. 2265

19.6.2.6.5 Make JBOD.. 2266

19.6.2.6.6 Clear Configuration. 2266

19.6.2.6.7 Manage Foreign Configuration. 2267

19.6.2.7 Controller Management 2268

Advanced Controller Management 2270

19.6.2.7.8 Advanced Controller Properties. 2272

19.6.2.8 Virtual Drive Management 2276

19.6.2.9 Drive Management 2283

19.6.2.10 Hardware Components. 2289

Battery Management 2290

19.6.2.10.9 Enclosure Management 2292

19.6.3 View Server Profile. 2293

19.6.4 View Foreign Configuration. 2294

19.6.5 Configure. 2295

19.6.6 Set Factory Defaults. 2295

19.6.7 Manage MegaRAID Advanced Software Options. 2295

19.6.8 Exit 2297

19.7 OS命令行工具... 2297

下载和安装StorCLI工具... 2297

19.7.2 常用命令... 2298

查询RAID控制卡配置信息... 2298

19.7.2.11 查询和设置Spin up参数... 2302

19.7.2.12 查询和设置Spin down参数... 2304

19.7.2.13 设置硬盘PowerSave功能... 2305

19.7.2.14 查询和设置物理硬盘初始化功能... 2306

19.7.2.15 查询和设置硬盘数据擦除功能... 2307

19.7.2.16 设置后台资源占用率... 2309

19.7.2.17 设置BIOS Stop on Error功能... 2310

19.7.2.18 创建和删除RAID.. 2311

19.7.2.19 设置RAID组的Cache读写属性... 2314

19.7.2.20 设置RAID访问策略... 2316

19.7.2.21 设置RAID前台初始化... 2317

19.7.2.22 查询和设置RAID后台初始化... 2318

19.7.2.23 设置启动项... 2319

19.7.2.24 设置紧急热备功能... 2320

19.7.2.25 设置热备盘... 2322

19.7.2.26 查询和设置RAID重构... 2323

19.7.2.27 查询和设置回拷... 2324

19.7.2.28 设置SMART扫描周期... 2326

19.7.2.29 通过增加成员盘可用容量扩容RAID.. 2327

19.7.2.30 通过增加新盘扩容或迁移RAID.. 2328

19.7.2.31 设置一致性校验参数... 2330

19.7.2.32 查询和设置Patrol read参数... 2332

19.7.2.33 查询和设置Cache Flush参数... 2333

19.7.2.34 设置硬盘状态... 2335

19.7.2.35 设置硬盘点灯... 2336

19.7.2.36 查询RAID控制卡/RAID/物理硬盘信息... 2337

19.7.2.37 查询超级电容的相关信息... 2345

19.7.2.38 升级硬盘FW... 2347

19.7.2.39 手动重构RAID.. 2348

19.7.2.40 设置硬盘直通功能... 2350

19.7.2.41 收集和清除RAID控制卡日志... 2351

19.7.2.42 查询和设置bootwithpinnedcache参数... 2353

19.7.2.43 升级控制卡FW... 2354

20 BROADCOM MegaRAID 9560-16i 2356

概述... 2356

20.2 功能... 2359

支持多种RAID类型... 2359

20.2.2 硬盘热备份... 2360

20.2.3 硬盘热插拔... 2361

20.2.4 回拷... 2361

20.2.5 硬盘分条... 2361

20.2.6 RAID级别迁移... 2362

20.2.7 初始化... 2363

20.2.8 可用容量扩展... 2363

20.2.9 安全数据擦除... 2364

20.2.10 写洞保护... 2364

20.2.11 读写高速缓存... 2365

20.2.12 数据掉电保护... 2365

20.2.13 硬盘巡检... 2365

20.2.14 自动SMART扫描... 2366

20.2.15 硬盘节能... 2366

20.2.16 硬盘直通... 2366

20.2.17 硬盘漫游... 2367

20.2.18 导入外部配置... 2367

20.2.19 硬盘故障记录... 2367

20.3 初始配置... 2368

登录管理界面... 2368

20.3.2 创建RAID 0. 2373

20.3.3 创建RAID 1. 2379

20.3.4 创建RAID 5. 2385

20.3.5 创建RAID 6. 2391

20.3.6 创建RAID 10. 2397

20.3.7 创建RAID 50. 2404

20.3.8 创建RAID 60. 2411

20.3.9 设置启动项... 2418

设置控制卡启动项... 2418

20.3.9.2 设置服务器的启动项... 2419

20.4 常用配置... 2419

管理热备盘... 2419

配置全局热备盘... 2419

20.4.1.3 配置局部热备盘... 2420

20.4.1.4 删除热备盘... 2421

20.4.2 设置紧急热备功能... 2422

20.4.3 添加新硬盘到RAID.. 2425

20.4.4 扩展Virtual Drives可用空间... 2431

20.4.5 迁移RAID级别... 2434

20.4.6 删除RAID.. 2440

20.4.7 重构RAID.. 2441

20.4.8 查看RAID控制卡属性... 2442

20.4.9 导入和清除外部配置... 2448

20.4.10 创建多个VDVirtual Drive... 2451

20.4.11 查询RAID控制卡固件版本... 2459

20.5 故障处理... 2461

硬盘相关故障... 2461

硬盘故障... 2461

20.5.1.5 硬盘状态为failprefail 2462

20.5.1.6 硬盘状态为Unconfigured BadUBad. 2463

20.5.2 电容故障... 2464

20.5.3 控制卡故障... 2464

20.5.4 Device ManagerRAID控制卡状态显示Not Healthy. 2465

The following VDs have missing disks. 2466

20.5.4.7 There are offline or missing virtual drives with preserved cache. 2466

20.5.4.8 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone  2467

20.5.4.9 Memory/battery problems were detected. 2469

20.5.4.10 Disabling writes to flash as the flash part has gone bad. 2469

20.5.5 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死... 2470

20.5.6 Controller Mode恢复为RAID.. 2471

20.5.7 删除Preserved Cache. 2475

20.6 管理界面介绍... 2477

Main Menu. 2477

Configuration Management 2478

Auto Configure RAID 0. 2480

20.6.1.10.2 Create Virtual Drive. 2480

20.6.1.10.3 Create Profile Based Virtual Drive. 2484

20.6.1.10.4 View Drive Group Properties. 2486

20.6.1.10.5 View Global Hotspare Drives. 2487

20.6.1.10.6 Make JBOD.. 2488

20.6.1.10.7 Make Unconfigured Good. 2489

20.6.1.10.8 Clear Configuration. 2490

20.6.1.11 Controller Management 2491

Advanced Controller Management 2493

20.6.1.11.9 Advanced Controller Properties. 2495

20.6.1.12 Virtual Drive Management 2500

20.6.1.13 Drive Management 2508

20.6.1.14 Hardware Components. 2513

20.6.2 View Server Profile. 2514

20.6.3 Manage Foreign Configuration. 2515

20.6.4 Configure. 2517

20.6.5 Set Factory Defaults. 2518

20.6.6 Update Firmware. 2518

20.6.7 Manage MegaRAID Advanced Software Options. 2520

20.6.8 Exit 2521

20.7 OS命令行工具... 2521

下载和安装StorCLI工具... 2521

20.7.2 常用命令... 2522

查询RAID控制卡配置信息... 2522

20.7.2.15 创建和删除RAID.. 2525

20.7.2.16 查询RAID控制卡/RAID/物理硬盘信息... 2528

20.7.2.17 查询和设置Patrolread参数... 2529

20.7.2.18 查询和设置Spinup参数... 2531

20.7.2.19 查询和设置硬盘数据擦除功能... 2532

20.7.2.20 查询和设置RAID后台初始化... 2534

20.7.2.21 查询和设置CacheFlush参数... 2535

20.7.2.22 查询和设置物理硬盘初始化功能... 2536

20.7.2.23 查询和设置RAID重构... 2537

20.7.2.24 查询和设置回拷... 2538

20.7.2.25 查询和设置Smart扫描周期... 2540

20.7.2.26 查询和设置一致性校验参数... 2541

20.7.2.27 设置热备盘... 2543

20.7.2.28 设置启动项... 2544

20.7.2.29 设置硬盘状态... 2545

20.7.2.30 设置RAID组访问策略... 2547

20.7.2.31 设置硬盘Cache状态... 2548

20.7.2.32 设置紧急热备功能... 2549

20.7.2.33 设置硬盘PowerSave功能... 2550

20.7.2.34 设置后台资源占用率... 2551

20.7.2.35 设置BIOS Stop on Error功能... 2552

20.7.2.36 设置RAID组的Cache读写策略... 2553

20.7.2.37 设置RAID前台初始化模式... 2555

20.7.2.38 设置硬盘定位指示灯状态... 2556

20.7.2.39 通过增加成员盘可用容量扩容RAID.. 2557

20.7.2.40 通过增加新盘扩容或迁移RAID.. 2559

20.7.2.41 查询和清除PreservedCache数据... 2560

20.7.2.42 收集和清除RAID控制卡日志... 2561

20.7.2.43 查看/导入/清除外部配置... 2562

20.7.2.44 Snapdump相关操作... 2563

20.7.2.45 升级控制卡FW... 2566

21 SP686C.. 2568

概述... 2568

21.2 功能... 2571

裸盘... 2571

21.2.1 多种RAID类型... 2571

21.2.2 高速缓存... 2572

21.2.3 初始化... 2572

21.2.4 重构... 2573

21.2.5 预拷贝... 2573

21.2.6 回拷... 2573

21.2.7 一致性校验... 2574

21.2.8 硬盘热备... 2574

21.2.9 容量扩展... 2575

21.2.10 数据擦除... 2575

21.2.11 硬盘巡检... 2576

21.2.12 硬盘漫游... 2576

21.2.13 外部配置... 2576

21.2.14 掉电保护... 2576

21.2.15 写洞保护... 2577

21.2.16 SMART扫描... 2577

21.2.17 硬盘热插拔... 2577

21.2.18 慢盘检测... 2578

21.3 初始配置... 2578

进入BIOS配置管理界面... 2578

21.3.2 创建RAID 0. 2581

21.3.3 创建RAID 1. 2586

21.3.4 创建RAID 5. 2591

21.3.5 创建RAID 6. 2596

21.3.6 创建RAID 10. 2601

21.3.7 创建RAID 50. 2606

21.3.8 创建RAID 60. 2611

21.3.9 配置启动项... 2616

设置控制卡启动项... 2616

21.3.9.2 设置服务器启动项... 2617

21.4 常用配置... 2617

管理热备盘... 2617

设置全局热备盘... 2617

21.4.1.3 设置局部热备盘... 2618

21.4.1.4 删除热备盘... 2620

21.4.1.5 设置热备槽位... 2622

21.4.1.6 设置紧急热备开关... 2623

21.4.2 创建多个VD.. 2624

21.4.3 删除VD.. 2629

21.4.4 安全擦除VD数据... 2630

21.4.5 扩展VD可用容量... 2633

21.4.6 设置裸盘模式... 2636

21.4.7 设置硬盘属性... 2637

21.4.8 擦除硬盘数据... 2639

21.4.9 查看控制卡属性... 2642

21.4.10 查询控制卡固件版本... 2646

21.4.11 导入和清除外部配置... 2647

21.5 故障处理... 2649

硬盘故障... 2649

21.5.2 电容故障... 2651

21.5.3 控制卡故障... 2652

21.5.4 UEFI下控制卡故障... 2652

Bad Card类故障... 2656

21.5.4.7 Restore Data类故障... 2657

21.5.4.8 Drop Data类故障... 2660

21.5.4.9 Write Hole类故障... 2663

21.5.4.10 Pinned Cache类故障... 2666

21.5.5 控制卡运行大压力业务低概率出现map error 2669

21.6 管理界面介绍... 2672

Controller Management 2672

Advanced Controller Properties. 2674

21.6.1.11 Reset Default Configuration. 2679

21.6.2 Virtual Drive Management 2679

Create Virtual Drive. 2680

21.6.2.12 View Virtual Drives. 2683

21.6.2.13 View RAID Group Properties. 2684

21.6.2.14 Manage Foreign Configurations. 2687

21.6.3 Physical Drive Management 2688

21.6.4 Hardware Components. 2692

Supercapacitor 2692

21.6.5 Exit 2695

21.7 OS命令行工具... 2695

安装hiraidadm工具... 2695

21.7.1 系统命令... 2696

查询控制卡列表... 2696

21.7.1.15 查询控制卡数量... 2697

21.7.1.16 转换控制卡日志... 2698

21.7.2 控制卡命令... 2699

查询控制卡配置信息... 2699

21.7.2.17 查询和设置系统巡检参数... 2701

21.7.2.18 查询和设置裸盘模式... 2704

21.7.2.19 查询和设置控制卡一致性校验参数... 2705

21.7.2.20 查询和设置控制卡后台任务... 2708

21.7.2.21 查询和设置预拷贝开关... 2710

21.7.2.22 设置成员盘强制上线和下线... 2711

21.7.2.23 查询和设置控制卡回拷开关... 2712

21.7.2.24 查询和设置SMART扫描周期... 2714

21.7.2.25 查询控制卡硬盘列表... 2715

21.7.2.26 创建虚拟磁盘... 2717

21.7.2.27 查询控制卡虚拟磁盘列表... 2721

21.7.2.28 查询控制卡RAID组列表... 2723

21.7.2.29 查询和设置紧急热备功能... 2724

21.7.2.30 查询和处理外部配置... 2725

21.7.2.31 恢复默认设置... 2727

21.7.2.32 收集控制卡日志信息... 2728

21.7.2.33 查询控制卡寄存器信息... 2730

21.7.2.34 获取NAND日志... 2731

21.7.2.35 查询单板电子标签信息... 2733

21.7.2.36 查询和配置引导策略... 2735

21.7.2.37 查询控制卡坏块列表... 2736

21.7.2.38 查询控制卡启动项... 2738

21.7.2.39 查询驱动队列深度... 2739

21.7.2.40 查询和设置慢盘检测... 2739

21.7.2.41 查询控制卡状态信息... 2743

21.7.2.42 查询控制卡基本信息... 2746

21.7.2.43 升级和激活控制卡固件... 2752

21.7.2.44 查询热备槽位... 2754

21.7.2.45 查询SAS phy配置信息... 2755

21.7.2.46 查询和设置慢盘踢盘参数... 2756

21.7.2.47 查询和修复控制卡故障... 2758

21.7.2.48 查询和配置控制卡故障修复策略... 2760

21.7.2.49 查询和设置SAS链路请求分发的模式... 2762

21.7.2.50 查询和设置裸盘的流控门限... 2764

21.7.2.51 查询固件详细版本... 2765

21.7.2.52 查询超级电容容值和状态... 2766

21.7.2.53 查询和设置日志级别... 2768

21.7.2.54 查看当前存在pinned cache的虚拟磁盘... 2770

21.7.2.55 查询整板功耗... 2770

21.7.2.56 查询和设置硬盘健康状态分析开关状态... 2772

21.7.2.57 查询和设置虚拟磁盘的流控门限... 2773

21.7.2.58 查询和设置I/O合并参数... 2774

21.7.2.59 查询和设置虚拟磁盘的I/O合并参数... 2776

21.7.2.60 查询和设置硬盘并发参数... 2778

21.7.3 虚拟磁盘命令... 2780

查询虚拟磁盘信息... 2780

21.7.3.61 查询RAID组信息... 2783

21.7.3.62 查询虚拟磁盘的成员盘信息... 2787

21.7.3.63 查询RAID组的成员盘信息... 2789

21.7.3.64 查询和设置虚拟磁盘一致性校验参数... 2791

21.7.3.65 设置虚拟磁盘的Cache读写策略... 2794

21.7.3.66 设置虚拟磁盘名称... 2796

21.7.3.67 删除虚拟磁盘... 2797

21.7.3.68 扩充虚拟磁盘容量... 2798

21.7.3.69 设置虚拟磁盘为默认启动项... 2799

21.7.3.70 查询和设置虚拟磁盘擦除... 2800

21.7.3.71 清除当前存在的pinned cache. 2803

21.7.3.72 设置虚拟磁盘成员盘Cache策略... 2804

21.7.3.73 设置RAID成员盘Cache策略... 2804

21.7.3.74 设置虚拟磁盘读写属性... 2805

21.7.4 硬盘命令... 2806

查询硬盘详细信息... 2806

21.7.4.75 设置硬盘状态... 2812

21.7.4.76 设置热备盘... 2813

21.7.4.77 设置指定槽位为热备槽位... 2814

21.7.4.78 设置phy口状态... 2815

21.7.4.79 查询和清除phy口误码... 2816

21.7.4.80 查询硬盘端误码... 2818

21.7.4.81 设置硬盘指示灯状态... 2820

21.7.4.82 查询和设置硬盘sanitize擦除... 2821

21.7.4.83 查询和设置硬盘erase擦除... 2823

21.7.4.84 升级和激活硬盘固件... 2825

21.7.4.85 查询和设置硬盘Cache策略... 2826

21.7.4.86 查询硬盘SMART信息... 2828

21.7.4.87 查询和设置硬盘巡检参数... 2831

21.7.4.88 查询硬盘I/O统计信息... 2833

21.7.4.89 SCSI透传管理命令... 2835

21.7.4.90 查询硬盘坏块列表... 2836

21.7.4.91 设置硬盘为默认启动项... 2837

21.7.4.92 查询硬盘背板phy误码... 2838

21.7.4.93 保存SAS phy配置... 2841

21.7.5 超级电容命令... 2842

查询超级电容的相关信息... 2842

21.7.5.94 查询和设置超级电容自学习... 2845

21.7.5.95 设置备电模块告警温度... 2847

22 SP186. 2848

概述... 2848

22.2 功能... 2850

裸盘... 2850

22.2.1 多种RAID类型... 2850

22.2.2 初始... 2851

22.2.3 重构... 2852

22.2.4 预拷贝... 2852

22.2.5 回拷... 2852

22.2.6 一致性校验... 2852

22.2.7 硬盘热备... 2852

22.2.8 容量扩展... 2854

22.2.9 数据擦除... 2854

22.2.10 硬盘巡检... 2854

22.2.11 硬盘漫游... 2855

22.2.12 外部配置... 2855

22.2.13 写洞保护... 2855

22.2.14 SMART扫描... 2855

22.2.15 硬盘热插拔... 2856

22.2.16 慢盘检测... 2856

22.3 初始配置... 2856

登录BIOS管理界面... 2856

22.3.2 创建RAID 0. 2859

22.3.3 创建RAID 1. 2864

22.3.4 创建RAID 10. 2868

22.3.5 配置启动项... 2872

设置HBA控制卡启动项... 2872

22.3.5.2 设置服务器启动项... 2874

22.4 常用配置... 2874

管理热备盘... 2874

设置全局热备盘... 2874

22.4.1.3 设置局部热备盘... 2875

22.4.1.4 删除热备盘... 2877

22.4.1.5 设置热备槽位... 2879

22.4.1.6 设置紧急热备开关... 2880

22.4.2 创建多个VD.. 2881

22.4.3 删除VD.. 2886

22.4.4 安全擦除VD数据... 2887

22.4.5 扩展VD可用空间... 2890

22.4.6 设置裸盘模式... 2893

22.4.7 设置硬盘属性... 2894

22.4.8 擦除硬盘数据... 2896

22.4.9 查看控制卡属性... 2899

22.4.10 查询控制卡固件版本... 2902

22.4.11 导入和清除外部配置... 2904

22.5 故障处理... 2906

硬盘故障... 2906

22.5.2 控制卡故障... 2908

22.5.3 控制卡运行大压力业务低概率出现map error 2908

22.5.4 UEFI下控制卡故障... 2911

Bad Card类故障... 2915

22.5.4.7 Restore Data类故障... 2916

22.5.4.8 Drop Data类故障... 2918

22.5.4.9 Write Hole类故障... 2921

22.6 管理界面介绍... 2924

Controller Management 2924

22.6.2 Virtual Drive Management 2929

Create Virtual Drive. 2930

22.6.2.10 View Virtual Drives. 2932

22.6.2.11 View RAID Group Properties. 2934

22.6.2.12 Manage Foreign Configuration. 2936

22.6.3 Physical Drive Management 2937

22.6.4 Hardware Components. 2940

22.6.5 Exit 2940

22.7 OS命令行工具... 2941

安装hiraidadm工具... 2941

22.7.1 系统命令... 2941

查询控制卡列表... 2941

22.7.1.13 查询控制卡数量... 2942

22.7.1.14 转换控制卡日志... 2943

22.7.2 控制卡命令... 2944

查询控制卡配置信息... 2944

22.7.2.15 查询和设置系统巡检参数... 2946

22.7.2.16 查询和设置裸盘模式... 2949

22.7.2.17 查询和设置控制卡一致性校验参数... 2950

22.7.2.18 查询和设置控制卡后台任务... 2953

22.7.2.19 查询和设置预拷贝开关... 2955

22.7.2.20 设置成员盘强制上线和下线... 2956

22.7.2.21 查询和设置控制卡回拷开关... 2957

22.7.2.22 查询和设置SMART扫描周期... 2959

22.7.2.23 查询控制卡硬盘列表... 2960

22.7.2.24 创建虚拟磁盘... 2962

22.7.2.25 查询控制卡虚拟磁盘列表... 2966

22.7.2.26 查询控制卡RAID组列表... 2967

22.7.2.27 查询和设置紧急热备功能... 2969

22.7.2.28 查询和处理外部配置... 2970

22.7.2.29 恢复默认设置... 2972

22.7.2.30 收集控制卡日志信息... 2973

22.7.2.31 查询控制卡寄存器信息... 2975

22.7.2.32 获取NAND日志... 2976

22.7.2.33 查询单板电子标签信息... 2978

22.7.2.34 查询控制卡坏块列表... 2980

22.7.2.35 查询控制卡启动项... 2981

22.7.2.36 查询驱动队列深度... 2982

22.7.2.37 查询和设置慢盘检测... 2983

22.7.2.38 查询控制卡状态信息... 2986

22.7.2.39 查询控制卡基本信息... 2989

22.7.2.40 升级和激活控制卡固件... 2994

22.7.2.41 查询热备槽位... 2996

22.7.2.42 查询SAS phy配置信息... 2997

22.7.2.43 查询和设置慢盘踢盘参数... 2998

22.7.2.44 查询和修复控制卡故障... 3000

22.7.2.45 查询和配置控制卡故障修复策略... 3002

22.7.2.46 查询和设置SAS链路请求分发的模式... 3004

22.7.2.47 查询和设置裸盘的流控门限... 3006

22.7.2.48 查询固件详细版本... 3007

22.7.2.49 查询和设置日志级别... 3008

22.7.2.50 查询整板功耗... 3010

22.7.2.51 查询和设置硬盘健康状态分析开关状态... 3011

22.7.2.52 查询和设置虚拟磁盘的流控门限... 3012

22.7.2.53 查询和设置I/O合并参数... 3014

22.7.2.54 查询和设置虚拟磁盘的I/O合并参数... 3015

22.7.2.55 查询和设置硬盘并发参数... 3017

22.7.2.56 查询HBA控制卡小电容电压值... 3019

22.7.3 虚拟磁盘命令... 3020

查询虚拟磁盘信息... 3020

22.7.3.57 查询RAID组信息... 3023

22.7.3.58 查询虚拟磁盘的成员盘信息... 3028

22.7.3.59 查询RAID组的成员盘信息... 3029

22.7.3.60 查询和设置虚拟磁盘一致性校验参数... 3031

22.7.3.61 设置虚拟磁盘名称... 3034

22.7.3.62 删除虚拟磁盘... 3036

22.7.3.63 扩充虚拟磁盘容量... 3037

22.7.3.64 设置虚拟磁盘为默认启动项... 3038

22.7.3.65 查询和设置虚拟磁盘擦除... 3039

22.7.3.66 设置虚拟磁盘成员盘Cache策略... 3041

22.7.3.67 设置RAID成员盘Cache策略... 3042

22.7.3.68 设置虚拟磁盘读写属性... 3043

22.7.4 硬盘命令... 3044

查询硬盘详细信息... 3044

22.7.4.69 设置硬盘状态... 3049

22.7.4.70 设置热备盘... 3050

22.7.4.71 设置指定槽位为热备槽位... 3052

22.7.4.72 设置phy口状态... 3053

22.7.4.73 查询和清除phy口误码... 3054

22.7.4.74 查询硬盘端误码... 3056

22.7.4.75 设置硬盘指示灯状态... 3057

22.7.4.76 查询和设置硬盘sanitize擦除... 3058

22.7.4.77 查询和设置硬盘erase擦除... 3060

22.7.4.78 升级和激活硬盘固件... 3063

22.7.4.79 查询和设置硬盘Cache策略... 3064

22.7.4.80 查询硬盘SMART信息... 3066

22.7.4.81 查询和设置硬盘巡检参数... 3069

22.7.4.82 查询硬盘I/O统计信息... 3071

22.7.4.83 SCSI透传管理命令... 3072

22.7.4.84 查询硬盘坏块列表... 3074

22.7.4.85 设置硬盘为默认启动项... 3075

22.7.4.86 查询硬盘背板phy误码... 3076

22.7.4.87 保存SAS phy配置... 3079

A 附录... 3081


前言

概述

本文档为维护服务器的人员编写。介绍服务器的RAID控制卡的外观及特性、如何配置RAID、如何安装驱动软件等信息。

RAID控制卡仅在EFIUEFI模式下支持安全启动,并使用BIOS提供的安全认证机制。

读者对象

本文档主要适用于以下人员:

l     企业管理员

l     企业终端用户

本文档认定读者对服务器产品有足够的了解,拥有足够的培训知识,在维护过程中不会造成人身伤害或产品损坏。

符号约定

在本文中可能出现下列标志,它们所代表的含义如下。

符号

说明

表示如不避免则将会导致死亡或严重伤害的具有高等级风险的危害。

表示如不避免则可能导致死亡或严重伤害的具有中等级风险的危害。

表示如不避免则可能导致轻微或中度伤害的具有低等级风险的危害。

用于传递设备或环境安全警示信息。如不避免则可能会导致设备损坏、数据丢失、设备性能降低或其它不可预知的结果。

“须知”不涉及人身伤害。

对正文中重点信息的补充说明。

“说明”不是安全警示信息,不涉及人身、设备及环境伤害信息。

 

RAID卡对应关系表

常见RAID卡的芯片对应关系如下。

表1-1 RAID卡对应关系表

RAID卡用户指南中的类型

芯片型号

BMC中显示型号

RAID卡厂商

Avago SAS3516

SAS3516

SP460C-M

Huawei

Avago SAS3408iMR

SAS3408

SR150-M

Huawei

Avago SAS3508

SAS3508

SR450C-M

Huawei

Avago MegaRAID SAS 9440-8i

SAS3408

LSI 9440-8i

LSI

Avago MegaRAID SAS 9460-8i

SAS3508

LSI 9460-8i

LSI

Avago MegaRAID SAS 9460-16i

SAS3516

LSI 9460-16i

LSI

 

 


2 RAID基本概念

1.1  硬盘组和虚拟磁盘

1.2  RAID级别介绍

1.3  常见功能

2.1 硬盘组和虚拟磁盘

由于现代数据中心业务量的与日俱增,单台服务器上需要运行的数据也日益增多。当单个物理硬盘在容量和安全性上不足以支持系统业务时,就需要将多个硬盘以某种特定方式组合起来,对外作为一个可见的硬盘来使用,才可满足实际需要。硬盘组,就是将一组物理硬盘组合起来,作为一个整体对外体现,是虚拟磁盘的基础。

虚拟磁盘,即使用硬盘组划分出来的连续的数据存储单元,相当于一个个独立的硬盘,通过一定的配置,使其具有比单个物理硬盘更大的容量,及更高的安全性和数据冗余性。

一个虚拟磁盘可以是:

l     一个完整的硬盘组。

l     多个完整的硬盘组。

l     一个硬盘组的一部分。

l     多个硬盘组的一部分(每个硬盘组划分一部分,共同组成虚拟磁盘)。

在下文的描述中:

l     硬盘组一般会表述为“Drive Group”(简称“DG”)、“Array”、“RAID组”。

l     虚拟磁盘一般会表述为“Virtual Drive”、“Virtual Disk”(简称“VD”)、“Volume”、“Logical Device”(简称“LD”)等。

2.2 RAID级别介绍

RAIDRedundant Array of Independent Disks)是将多块物理硬盘通过RAID控制卡组合成虚拟的单块大容量硬盘使用,从而提供比单个硬盘更高的存储性能、更高的I/O性能及可靠性。

RAID控制卡仅在EFIUEFI模式下支持安全启动,并使用BIOS提供的安全认证机制。

2.2.1 RAID 0

RAID 0又称为条带化(Stripe)或分条(Striping),代表了所有RAID级别中最高的存储性能。RAID 0提高存储性能的原理是把连续的数据分散到多个硬盘上存取。这样,当系统有数据请求时就可以在多个硬盘上并行执行,每个硬盘执行属于它自己的那部分数据请求。这种数据上的并行操作可以充分利用总线的带宽,显著提高硬盘整体读写性能。但由于其没有数据冗余,无法保护数据的安全性,只能适用于I/O速率要求高,但数据安全性要求低的场合。

处理流程

2-1所示,系统向三块硬盘组成的逻辑硬盘(RAID 0硬盘组)发出的I/O数据请求被转化为三项操作,其中的每一项操作都对应于一块物理硬盘。

通过建立RAID 0,原先顺序的数据请求被分散到所有的三块硬盘中同时执行。

三块硬盘的并行操作在理论上使同一时间内硬盘读写速度提升了3倍。虽然由于总线带宽等多种因素的影响,实际的提升速率会低于理论值,但是大量数据并行传输与串行传输比较,提速效果显著。

图2-1 RAID 0数据存储原理

 

2.2.2 RAID 1

RAID 1又称镜像(MirrorMirroring),即每个工作盘都有一个镜像盘,每次写数据时必须同时写入镜像盘,读数据时同时从工作盘和镜像盘读出。当更换故障盘后,数据可以重构,恢复工作盘正确数据。RAID 1可靠性高,但其有效容量减小到总容量一半,因此常用于对容错要求较高的应用场合,如财政、金融等领域。

处理流程

2-2所示,系统向两块硬盘组成的逻辑硬盘(RAID 1硬盘组)发出I/O数据请求。

l     向硬盘Drive 0写入数据时,系统会同时把用户写入Drive 0的数据自动复制到Drive 1上。

l     读取数据时,系统同时从Drive 0Drive 1读取。

图2-2 RAID 1数据存储原理

 

2.2.3 RAID 1ADMRAID 1Triple

l     MSCC SmartRAID 3152-8iFBGF-RAD-R1-S1支持此RAID级别。

l     RAID 1TripleRAID 1ADMMSCC SmartRAID 3152-8iFW版本4.72后将RAID 1ADM更名为RAID 1Triple

RAID 1ADM的每个工作盘都有两个镜像盘,每次写数据时必须同时写入镜像盘,读数据时同时从工作盘和镜像盘读出。当更换故障盘后,数据可以重构,恢复工作盘正确数据。RAID 1ADM可靠性比RAID 1高,但其有效容量减小到总容量的三分之一,因此常用于对容错要求较高的应用场合,如财政、金融等领域。

处理流程

2-3所示,系统向三块硬盘组成的逻辑硬盘(RAID 1ADM硬盘组)发出I/O数据请求。

l     向硬盘Drive 0写入数据时,系统会同时把用户写入Drive 0的数据自动复制到Drive 1Drive 2上。

l     读取数据时,系统同时从Drive 0Drive 1Drive 2读取。

图2-3 RAID 1ADM数据存储原理

 

2.2.4 RAID 5

RAID 5是一种存储性能、数据安全和存储成本兼顾的存储解决方案。为保障存储数据的可靠性,采用循环冗余校验方式,并将校验数据分散存储在RAID的各成员盘上。当RAID的某个成员盘出现故障时,通过其他成员盘上的数据可以重新构建故障硬盘上的数据。RAID 5既适用于大数据量的操作,也适用于各种小数据的事务处理,是一种快速、大容量和容错分布合理的磁盘阵列。

处理流程

2-4所示,PAA0A1A2的奇偶校验信息,PBB0B1B2的奇偶校验信息,以此类推。

RAID 5不对存储的数据进行备份,而是把数据和相对应的奇偶校验信息存储到成员盘上,并且奇偶校验信息和相对应的数据分别存储于不同的硬盘上。当RAID 5的一个硬盘数据发生损坏后,利用剩下的数据和相应的奇偶校验信息可以恢复被损坏的数据。

RAID 5可以理解为是RAID 0RAID 1的折衷方案:

l     RAID 5可以为系统提供数据安全保障,但保障程度要比RAID 1低而硬盘空间利用率要比RAID 1高,存储成本相对较低。

l     RAID 5具有较RAID 0略低的数据读写速度,但写性能比写入单个硬盘时要高。

图2-4 RAID 5数据存储原理

 

2.2.5 RAID 6

RAID 5的基础上,RAID 6增加了第二个独立的奇偶校验信息块。两个独立的奇偶系统使用不同的算法,数据的可靠性非常高,即使两块硬盘同时失效也不会影响数据的使用。但RAID 6需要分配给奇偶校验信息更大的硬盘空间,相对于RAID 5有更大的“写损失”,因此“写性能”较差。

处理流程

2-5所示,PA为数据块A0A1A2的第一个校验信息块,QA为第二个校验信息块;PB为数据块B0B1B2的第一个校验信息框,QB为第二个校验信息块,以此类推。

数据块和校验块一起分散存储到RAID 6的各个成员盘上。当任意一个或两个成员硬盘出现故障时,控制卡可以从其他处于正常状态的硬盘上重新恢复或生成丢失的数据而不影响数据的可用性。

图2-5 RAID 6数据存储原理

 

2.2.6 RAID 10

RAID 10是将镜像和条带进行两级组合的RAID级别,即RAID 1RAID 0的组合形式,第一级是RAID 1,第二级是RAID 0RAID 10是存储性能和数据安全兼顾的方案。它在提供与RAID 1一样的数据安全保障的同时,也提供了与RAID 0近似的存储性能。

处理流程

2-6所示,Drive 0Drive 1组成一个子组0Drive 2Drive 3组成一个子组1,子组内的两个硬盘互为镜像。

系统向硬盘发出I/O数据请求时,原先顺序的数据请求按照RAID 0的方式,被分散到两个子组中并行执行,同时通过RAID 1的方式,系统在向硬盘Drive 0写入数据的同时把数据自动复制到硬盘Drive 1上,向硬盘Drive 2写入数据的同时把数据自动复制到硬盘Drive 3上。

图2-6 RAID 10数据存储原理

 

2.2.7 RAID 10ADMRAID 10Triple

l     MSCC SmartRAID 3152-8iFBGF-RAD-R1-S1支持此RAID级别。

l     RAID 10TripleRAID 10ADMMSCC SmartRAID 3152-8iFW版本4.72后将RAID 10ADM更名为RAID 10Triple

RAID 10ADM是将镜像和条带进行两级组合的RAID级别,即RAID 1ADMRAID 0的组合形式,第一级是RAID 1ADM,第二级是RAID 0RAID 10ADM是存储性能和数据安全兼顾的方案。它在提供与RAID 1ADM一样的数据安全保障的同时,也提供了与RAID 0近似的存储性能。

处理流程

2-7所示,Drive 0Drive 1Drive 2组成一个子组0Drive 3Drive 4Drive 5组成一个子组1,子组内的硬盘互为镜像。

系统向硬盘发出I/O数据请求时,原先顺序的数据请求按照RAID 0的方式,被分散到两个子组中并行执行,同时通过RAID 1ADM的方式,系统在向硬盘Drive 0写入数据的同时把数据自动复制到硬盘Drive 1Drive 2上,向硬盘Drive 3写入数据的同时把数据自动复制到硬盘Drive 4Drive 5上。

图2-7 RAID 10ADM数据存储原理

 

2.2.8 RAID 1E

RAID 1ERAID 1的增强版,工作原理与RAID 1类似。RAID 1E的数据条带及数据备份贯穿在逻辑盘中所有的硬盘当中。跟RAID 1类似,数据是镜像的,逻辑盘的容量是硬盘总容量的一半,可提供数据冗余功能及较高的性能。然而,RAID 1E允许使用更多的物理硬盘,至少由三个硬盘组成。

处理流程

2-8所示,系统向三块硬盘组成的逻辑硬盘(RAID 1E硬盘组)发出I/O数据请求。条带数据均匀分布在3个硬盘中,任意一个条带数据都在其他硬盘中有自己的备份。此时,如果有单个硬盘故障,不会造成数据丢失。

图2-8 RAID 1E数据存储原理

 

2.2.9 RAID 50

RAID 50被称为镜像阵列条带,即RAID 5+RAID 0的组合形式。像RAID 0一样,数据被分区成条带,在同一时间内向多块硬盘写入;像RAID 5一样,也是以数据的校验位来保证数据的安全,且校验条带均匀分布在各个硬盘上。

处理流程

2-9所示,PAA0A1A2的奇偶校验信息,PBB0B1B2的奇偶校验信息,以此类推。

RAID 50RAID 5RAID 0两种技术的结合,一个RAID 50由多个RAID 5子组组成,数据的存储访问以RAID 0的形式分布在各个RAID 5子组上。依靠RAID 5提供的冗余功能,在子组内部任意一个硬盘故障时,阵列均可正常工作并恢复出故障硬盘的信息。同样,故障硬盘的更换不会影响业务的正常进行。因此,RAID 50可以容忍多个子组同时单盘故障,这是单纯RAID 5技术无法做到的。同时,由于数据分布在多个子组上,阵列可以提供更加优秀的读写性能。

图2-9 RAID 50数据存储原理

 

2.2.10 RAID 60

RAID 60RAID 50类似,数据采用镜像阵列条带分布方式,即RAID 6 + RAID 0的组合形式。像RAID 0一样,数据被分区成条带,在同一时间内向多块硬盘写入;像RAID 6一样,以两个数据校验模块来保证数据的安全,且校验条带均匀分布在各个硬盘上。

处理流程

2-10所示,PAA0A1A2的校验信息1QAA0A1A2的校验信息2PBB0B1B2的校验信息1QBB0B1B2的校验信息2,以此类推。

RAID 60RAID 6RAID 0两种技术的结合,一个RAID 60由多个RAID 6子组组成,数据的存储访问以 RAID 0的形式分布在各个RAID 6子组上。依靠RAID 6提供的冗余功能,在子组内部任意两个硬盘故障,阵列均可正常工作并恢复出故障硬盘的信息。同样,故障硬盘的更换不会影响业务的正常进行。

图2-10 RAID 60数据存储原理

 

2.2.11 容错能力

l     RAID 0:不提供容错功能。任意一个成员盘出现故障,都会导致数据丢失。通过条带化方式同时在多个成员盘中写入数据。RAID 0对于需要高性能但不需要容错的应用场景非常理想。

l     RAID 1:提供100%的数据冗余能力。当一个成员盘故障时,可以使用RAID组中对应的其他硬盘的数据来运行系统,并重构故障盘。因为一个成员盘的内容会完全备份写入另一个硬盘, 所以如果其中一个成员盘出现故障,则不会丢失任何数据。成对的成员盘在任何时候都包含相同的数据。RAID 1组是需要最大容错能力和最小容量要求的应用场景的理想选择。

l     RAID 5:结合了分布式奇偶校验和硬盘条带化。奇偶校验在不需要备份全部硬盘内容的情况下,为1个硬盘提供了冗余特性。当一个成员盘故障时,RAID控制卡使用奇偶校验数据来重构所有丢失的信息。RAID 5使用较小的系统开销为系统提供了足够的容错能力。

l     RAID 6:结合了分布式奇偶校验和硬盘条带化。奇偶校验在不需要备份全部硬盘内容的情况下,为2个硬盘提供了冗余特性。当一个成员盘故障时,RAID控制卡使用奇偶校验数据来重构所有丢失的信息。RAID 6使用较小的系统开销为系统提供了足够的容错能力。

l     RAID 10:使用多个RAID 1提供完整的数据冗余能力。RAID 10对所有需要通过镜像硬盘组提供100%冗余能力的场景都适用。

l     RAID 50:使用多个RAID 5的分布式奇偶校验提供数据冗余能力。在保证数据完整性的情况下,每个RAID 5分组允许1个成员盘故障。

l     RAID 60:使用多个RAID 6的分布式奇偶校验提供数据冗余能力。在保证数据完整性的情况下,每个RAID 6分组允许2个成员盘故障。

2.2.12 读写性能

RAID组可作为一个单独的存储单元或多个虚拟单元被系统使用。由于可以同时访问多个硬盘,使得针对RAID组的I/O读写速率较普通硬盘更高。

l     RAID 0:提供优异的性能。RAID 0将数据分割为较小的数据块并写入到不同的硬盘中,由于可以同时对多个硬盘进行读写,RAID 0提升了I/O性能。

l     RAID 1:由于RAID组中的硬盘都是成对出现,写数据时也必须同时写入2份,从而占用更多的时间和资源,导致性能降低。

l     RAID 5:提供了较高的数据吞吐能力。由于成员盘上同时保留常规数据和校验数据,每个成员盘都可以独立读写,再加上完善的Cache算法,使得RAID 5在很多应用场景中都有出色的性能表现。

l     RAID 6:在需要高可靠性、高响应率、高传输率的场景下,RAID 6是较为适合的RAID级别,其提供了高数据吞吐量、数据冗余性和较高的I/O性能。由于RAID 6需要为每个成员盘写入2套校验数据,导致其在写操作期间性能降低。

l     RAID 10:由RAID 0子组提供高数据传输速率的同时,RAID 10在数据存储方面表现优异。I/O性能随着子组数量的增加而提升。

l     RAID 50:在需要高可靠性、高响应率、高传输率的场景下,RAID 50表现最好。I/O性能随着子组数量的增加而提升。

l     RAID 60:使用场景与RAID 50类似,但是由于每个成员盘必须写入2组奇偶校验数据,使得在写操作中性能降低,因此RAID 60不适用于大量写入任务。

l     当同一RAID控制卡下同时存在无需校验的RAID组(如RAID 0RAID 1)和需要校验的RAID组(如RAID 5RAID 6),且写策略均设置为Write Back时,需要校验的RAID组性能会下降,I/O wait增加。

l     建议将无需校验的RAID组写策略设置为Write Through,以免对需要校验的RAID组性能产生影响。

2.2.13 存储容量

在选择RAID级别时,其存储容量也是一个重要参数。

l     RAID 0:在指定一组硬盘后,同等情况下,RAID 0可以提供最大的存储容量,可用容量=成员盘最小容量×成员盘数量。

l     RAID 1:由于对一个硬盘进行写入时,必须同时写入另一个硬盘,导致存储空间损耗。可用容量=成员盘最小容量。

l     RAID 5:校验数据块与常规数据块隔离,因此整体上来说,校验数据会占用1个成员盘的容量。可用容量=成员盘最小容量×(成员盘数量-1)。

l     RAID 6:由于2个独立的校验数据块与常规数据块隔离,整体上来说,校验数据会占用2个成员盘的容量。可用容量=成员盘最小容量×(成员盘数量-2)。

l     RAID 10:可用容量=子组容量之和。

l     RAID 50:可用容量=子组容量之和。

l     RAID 60:可用容量=子组容量之和。

2.3 常见功能

2.3.1 容错

容错是指在子系统出现硬盘错误或硬盘故障时,可以保证数据完整性和数据处理能力。RAID控制卡通过冗余的硬盘组在RAID 156105060上实现此功能。

RAID 1中,由于数据镜像存储于成对的硬盘上,因此在成对的硬盘中的一个产生错误或故障时,不会造成数据丢失。同理,在RAID 5中,允许1个硬盘故障;在RAID 6中,允许2个硬盘故障。

而对于包含多个子组的RAIDRAID 1050允许故障盘的个数与子组数相同,但是要求每个子组只能包含1个故障盘。RAID 60允许故障盘的个数为子组数的2倍,要求每个子组最多包含2个故障盘。

RAID 0不支持容错特性,当RAID 0中的硬盘故障时,该RAID失效,数据丢失。

容错性能提高了系统的可用性,即硬盘故障时,系统仍可正常运行。因此,在故障修复流程中,容错是非常重要的特性。

2.3.2 一致性校验

针对有冗余功能的RAID 156105060RAID控制卡可以对RAID组的硬盘数据进行一致性校验,对硬盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。

由于RAID 0不具备冗余性,因此不支持一致性校验。

建议每月至少进行一次一致性校验。

2.3.3 热备份

RAID控制卡的热备份特性由热备盘和紧急备份功能实现。

热备盘

热备盘是硬盘系统中的一个独立的硬盘,当RAID组中的硬盘故障时,热备盘自动取代故障盘作为成员盘,并在热备盘上重构故障盘数据。

RAID控制卡的管理界面或命令行工具中,可以指定容量大于或等于RAID组成员盘,且介质类型及接口与成员盘相同的空闲盘作为RAID组的热备盘。

RAID控制卡支持的热备盘包括下面两种:

l     全局热备盘,为RAID控制卡上所有已配置的RAID组所共有,1RAID控制卡中可配置1个或多个全局热备盘。当任意RAID组内的成员盘故障时,全局热备盘均可自动替代。

l     局部热备盘,为RAID控制卡上某个指定的RAID组所专有,每个RAID组都可以配置1个或多个局部热备盘。当指定RAID组内的成员盘故障时,局部热备盘可自动替换。

热备盘有如下特性:

l     热备盘仅用于具有冗余功能的RAID组,包括RAID 156105060

l     热备盘仅用于替代同一RAID控制卡上的故障盘。

紧急备份

紧急备份功能,是指任意一个具备冗余功能的RAID组中出现成员盘故障且没有指定热备盘时,RAID控制卡下属的空闲盘会自动替代故障成员盘并进行重构,避免数据丢失。

紧急备份要求用于备份的空闲盘容量大于等于成员盘容量,且介质类型与成员盘相同。

2.3.4 RAID重构

RAID组中出现故障盘时,可以通过RAID控制卡的数据重构功能,将故障盘中的数据在新盘上重构。数据重构功能仅适用于具有冗余功能的RAID 156105060

RAID控制卡支持热备盘自动重构故障成员盘数据。当RAID组配置了可用的热备盘时,在成员盘故障的情况下,热备盘自动替换故障盘,进行数据重构;当RAID组没有可用的热备盘时,只有更换新盘后才可进行数据重构。当热备盘开始数据重构后,故障的成员盘就被标注为可移除状态。如果在数据重构过程中系统下电,那么在系统重新启动后,RAID控制卡会继续执行数据重构的任务。

重构率,即数据重构任务在系统运行的所占用CPU资源的比率,可设置为0%100%0%表示数据重构任务只有系统当前没有任何其他任务运行时,才会启动数据重构任务。100%表示数据重构任务占用所有CPU资源。重构率可由用户自行设置,建议根据系统的实际情况设置一个合适的取值。

2.3.5 硬盘状态

RAID控制卡下属的物理硬盘有如2-1所示的状态。

表2-1 物理硬盘状态

状态

说明

AvailableAVL

硬盘可能未就绪,并且不适合在逻辑盘或热备池中使用。

Cfgincompat

硬盘配置不兼容。

Copyback/Copybacking

新盘正在替换热备盘。

Diagnosing

硬盘状态正在诊断。

DegradedDGD

硬盘是逻辑盘的一部分,处于降级状态。

Erase In Progress

硬盘正在进行擦除。

FailedFLD

当“Online”状态或“Hot Spare”状态的硬盘出现不可恢复的错误时,会体现为此状态。

Fault

硬盘故障。

Foreign

硬盘中包含外部配置。

Hot SpareHSP

被设置为热备盘。

Inactive

硬盘属于未激活逻辑盘的成员盘,在激活逻辑盘后方可使用硬盘。

JBOD

硬盘以直通方式使用。

MissingMIS

Online”状态的硬盘被拔出后,体现为此状态。

Offline

为某个虚拟磁盘的成员盘,不可正常使用,处于离线状态。

OnlineONL

为某个虚拟磁盘的成员盘,可正常使用,处于在线状态。

Optimal

硬盘状态是正常的,且是逻辑盘的一部分。

Out of SyncOSY

硬盘作为IR逻辑盘的一部分,与该逻辑盘中的其他硬盘不同步。

Predictive Failure

硬盘即将变为Failed状态,应备份硬盘上的数据,并更换硬盘。

RawPass Through

HBA模式下裸盘。

Raw Drive

硬盘以裸盘方式使用。

ReadyRDY

适用于RAID控制卡的RAID/Mixed模式,硬盘可用于配置RAID组,RAID模式下Ready状态的硬盘不上报操作系统(以下简称“OS”),Mixed模式下Ready状态的硬盘会上报OS

Rebuild/RebuildingRBLD

硬盘正在进行数据重构,以保证虚拟磁盘的数据冗余性和完整性,此时虚拟磁盘的性能会受一定程度的影响。

Reconstructing

硬盘正在进行数据重构,以保证虚拟磁盘的数据冗余性和完整性,此时虚拟磁盘的性能会受一定程度的影响。

Spare

硬盘为热备盘,且状态正常。

Shield State

物理硬盘在做诊断操作时的临时状态。

StandbySBY

设备不是硬盘设备。

Unconfigured Goodugood/ucfggood

硬盘状态正常,但不是虚拟磁盘的成员盘或热备盘。

Unconfigured Badubad

Unconfigured Good”状态硬盘或未初始化的硬盘,出现无法恢复的错误时,会体现为此状态。

Unknown

硬盘状态未知。

Unsupport

硬盘规格超过RAID控制卡当前规格。

 

RAID控制卡下创建的虚拟磁盘有如2-2所示的状态。

表2-2 虚拟磁盘状态

状态

说明

Degrade/DegradedDGD

虚拟磁盘可用但状态异常,存在成员盘故障或离线的情况。用户数据未收到保护。

Delete fail

执行删除失败。

Deleting

正在删除此虚拟磁盘。

FailedFLD

虚拟磁盘故障。

Fault

虚拟磁盘故障。

Formatting

正在格式化中。

Inactive

虚拟磁盘处于未激活状态,在激活后方可使用。

Inc RAID

不支持SMARTSATA扩展命令。

InitializingINIT

正在初始化。

Initialize fail

初始化失败。

Interim Recovery

RAID组降级,因为RAID组中存在故障盘,使得RAID组运行性能降低,数据可能丢失。要解决此问题,请检查硬盘是否正确连接设备,或更换故障的硬盘。

Max Dsks

RAID组支持的硬盘数量已达到最大数,该硬盘不能被加入RAID中。

MissingMIS

虚拟磁盘丢失。

Not formatted

未格式化。

Not Syncd

该硬盘上面的数据与逻辑盘中其他硬盘的数据不同步。

Normal

虚拟磁盘状态正常,所有成员盘均在线。

Offline

RAID组中的物理硬盘故障或离线的数量超过该RAID组级别支持的最大故障硬盘的数量时,RAID组会体现为该状态。

OnlineONL

虚拟磁盘处于在线状态。

Optimal

虚拟磁盘状态良好,所有成员盘均在线。

OkayOKY

虚拟磁盘处于活动状态,驱动器运行正常。如果当前RAID级别提供数据保护,则用户数据将受到保护。

Partial Degraded

RAID组中的物理硬盘故障或离线的数量未超过该RAID组级别支持的最大故障硬盘的数量时,RAID组会体现为部分降级状态。

Primary

该硬盘为RAID1中的主盘且状态正常。

Ready for Rebuild

准备执行重构。

Sanitizing

虚拟磁盘正在执行数据擦除。

Secondary

该硬盘为RAID1中的从盘且状态正常。

Tool Small

硬盘容量过小,不能用于当前RAID组的热备盘。

Wrg Intfc

硬盘接口与当前RAID组中的硬盘接口不同。

Wrg Type

该硬盘不能作为该RAID组的成员盘,可能不兼容或者硬盘故障。

Write_protect

虚拟磁盘处于写保护中。

 

2.3.6 虚拟磁盘的读写策略

在创建虚拟磁盘时,会需要对其数据读写策略进行定义,以规范后续虚拟磁盘运行过程中数据的读写方式。

数据读策略

在配置界面中一般体现为“Read Policy”。RAID控制卡支持如下两种数据读策略:

l     预读取方式:在配置界面中一般有“Always Read Ahead”、“Read Ahead”、“Ahead”等配置选项。使用此策略后,从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

要使用该策略,要求RAID控制卡支持数据掉电保护功能,但如果此时超级电容异常,可能导致数据丢失。

l     非预读取方式:使用此策略后,RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

数据写策略

在配置界面中一般体现为“Write Policy”。RAID控制卡支持如下数据写策略:

l     回写:在配置界面中一般体现为“Write Back”等字样。使用此策略后,需要向虚拟磁盘写数据时,会直接写入Cache中,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到虚拟磁盘,这样不但实现了批量写入,而且提升了数据写入的速度。当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

要使用该策略,要求RAID控制卡支持数据掉电保护功能,但如果此时超级电容异常,可能导致数据丢失。

l     直写:在配置界面中一般有“Write Through”等选项。使用此策略后,RAID控制卡向虚拟磁盘直接写入数据,不经过Cache。当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

此种方式不要求RAID控制卡支持数据掉电保护功能,即使超级电容故障,也无影响。该写策略的缺点是写入速度较低。

l     BBU相关的回写:在配置界面中一般有“Write Back with BBU”等选项。使用此策略后,当RAID控制卡BBU在位且状态正常时,RAID控制卡到虚拟磁盘的写操作会经过Cache中转(即回写方式);当RAID控制卡BBU不在位或BBU故障时,RAID控制卡到虚拟磁盘的写操作会自动切换为不经过Cache的直接写入(即写通方式)。

l     强制回写:在配置界面中一般体现为“Write Back Enforce”、“Always Write Back”等字样。在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

2.3.7 数据掉电保护

掉电保护的原理

数据写入RAID控制卡高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用RAID控制卡高速缓存来提升系统性能。

l     开启RAID控制卡高速缓存可提升整机写性能,当服务器写压力减小或RAID控制卡高速缓存将写满时,数据再由RAID控制卡高速缓存写入硬盘。

l     开启RAID控制卡高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,RAID控制卡高速缓存中的数据将会丢失。

为了提升整机的高读写性能和RAID控制卡高速缓存中数据的安全,可为RAID控制卡配置超级电容。超级电容保护模块的原理是在发生系统意外掉电时,利用超级电容供电,将RAID控制卡高速缓存中的数据写入超级电容模块中的NAND Flash中永久保存。

超级电容电量校准

由于数据保护需要超级电容的配合,为了记录超级电容的放电曲线,以便RAID控制卡了解超级电容的状态,例如最大和最小电压等,同时为了延长超级电容的寿命,RAID控制卡默认启动超级电容自动校准模式。

RAID控制卡通过如下所述的三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。

1.     RAID控制卡将超级电容的电量充到最大值。

2.     自动启动校准进程,将超级电容完全放电。

3.     重新开始充电,直至达到最大电量。

超级电容电量校准过程中,RAID控制卡写策略自动调整为“Write Through”模式以保证数据完整性,此时RAID控制卡性能会降低。电量校准的时间取决于超级电容充放电速度。

2.3.8 硬盘条带化

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待。

条带化是一种自动的将I/O的负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

硬盘的条带化,是将硬盘空间按照设定的大小分为多个条带,数据写入时也按照条带的大小来划分数据模块。

例如,在一个由四个成员盘组成的硬盘系统中(例如RAID 0),第一个数据块写入第一块成员盘,第二个数据块写入第二个成员盘,以此类推,如2-11所示。由于是同时对多个硬盘进行写入,因此极大地提升了系统性能,但是,此特性并不能保证数据的冗余性。

图2-11 硬盘分条举例

 

硬盘分条包含下面的概念:

l     条带宽度:一个硬盘组在进行分条时所使用的硬盘的个数,例如一个由四个成员盘组成的硬盘组,其条带宽度为“4”。

l     硬盘组的条带大小:RAID控制卡同时在一个硬盘组中所有硬盘上的写入的数据块的大小。

l     硬盘的条带大小:RAID控制卡在每块硬盘上写入的数据块的大小。

例如,针对一个硬盘组,在写入数据时,一个1MB的数据条带,在每个成员盘上分配的数据块为64KB,那么此硬盘组的条带大小为1MB,硬盘的条带大小为64KB

2.3.9 磁盘镜像

磁盘镜像,适用于RAID 1RAID 10,是指执行写数据的任务时,会将同样的数据同时写入两块硬盘,以实现100%的数据冗余度。由于两块硬盘上的数据完全相同,当一块硬盘故障时,数据不会丢失。另外,同一时间,两块盘上的数据是完全相同的,当一块硬盘故障时,由于数据是同时读写,因此数据流不会中断。

磁盘镜像带来的是100%的完全冗余,但是其代价是比较昂贵的,因为在镜像过程中,每个硬盘都需要一个备份盘,如2-12所示。

图2-12 磁盘镜像举例

 

2.3.10 外部配置

外部配置,是区别于当前RAID控制卡的配置来说的,在配置界面中一般体现为“Foreign Configuration”之类的字样。

一般在下述情况下,会有外部配置出现:

l     一个新安装到服务器上的物理硬盘中存在RAID配置信息,RAID控制卡会将此类信息识别为外部配置。

l     服务器更换了RAID控制卡后,新RAID控制卡会将当前存在的RAID信息识别为外部配置。

l     热插拔RAID组的成员盘后,该成员盘会被标记为携带外部配置。

对检测出来的外部配置,可以根据服务器实际情况进行处理。例如,当新插入的硬盘携带的RAID信息不符合当前使用场景时,可以删除此配置。更换RAID控制卡后,如果仍然想使用之前的配置,就可以导入该配置,使其在新RAID控制卡上生效。

2.3.11 硬盘节能

RAID控制卡具备硬盘节能功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SASSATA机械硬盘均支持此功能。

当硬盘节能功能开启时,RAID控制卡下挂载的空闲状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID组,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。

2.3.12 硬盘直通

硬盘直通,即“JBOD”功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

打开硬盘直通功能后,RAID控制卡可对所连接的硬盘进行指令透传,在不配置RAID组的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。

例如,服务器操作系统安装过程中,可以直接找到挂载在RAID控制卡下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。


3 RAID控制卡兼容性

不同型号的RAID控制卡支持的服务器和操作系统不同,详细信息可咨询技术支持。


4 命名含义

RAID控制卡命名后缀的含义如4-1所示。

表4-1 RAID控制卡命名后缀的含义

后缀名

是否支持创建RAID

是否支持带外管理

是否有电容/电池

是否有Cache

IT

IR

iMR

MRa

a:命名中无后缀默认为MR,包含LSI SAS3108Avago SAS3508Avago SAS3516控制卡。


5 技术规格

RAID控制卡的基本特性如5-15-25-3所示。

表5-1 基本特性(1

特性

LSI SAS3008IR

LSI SAS3108

Avago SAS3408iMR

Avago SAS3416iMR

Avago SAS3508

Avago SAS3516

接口速率(Gbit/s)

12

12

12

12

12

12

支持的RAID组数量

2

64

32

32

64

64

单个RAID组支持的最大硬盘数

10

32/240a

32

32

32/240b

32

所有RAID组包含的最大硬盘数量d

14

32/240a

32

32

32/240b

32

是否支持硬盘直通

硬盘直通模式支持的硬盘数量

1000

32/240a

63

63

32/240b

32

支持的最大硬盘数

1000

32/240a

63

63

32/240b

32

是否支持CacheCade

Cache读写比例是否可调

NA

NA

NA

NA

NA

CacheCade支持的SSD最大个数

NA

32

NA

NA

NA

NA

CacheCade最大容量

NA

512GB

NA

NA

NA

NA

CacheCade支持的RAID级别

NA

0/1

NA

NA

NA

NA

CacheCade是否支持热备

NA

NA

NA

NA

NA

是否支持FastPath

是否支持4K

支持的RAID级别

0/1/10/1E

0/1/10/5/50/6/60

0/1/10

0/1/10

0/1/10/5/50/6/60

0/1/10/5/50/6/60

是否支持设置条带大小

否(默认为64KB

是(可设为64KB/128KB/256KB/512KB/1024KB,默认为256KB

否(默认为64KB

否(默认为64KB

是(可设为64KB/128KB/256KB/512KB/1024KB,默认为256KB

是(可设为64KB/128KB/256KB/512KB/1024KB,默认为256KB

是否支持电池掉电保护

是否支持超级电容掉电保护

是否支持全局热备

e

e

e

e

e

e

是否支持局部热备

e

e

e

e

e

是否支持紧急热备

支持的热备盘个数

2

32/240a

63

63

32/240b

32

是否支持RAID级别在线迁移

是否支持在线扩容

是否支持自动SMART扫描

是否支持Patrol Read

是否支持一致性校验

e

e

e

e

e

e

是否支持Crypto加密

是否支持带外管理

c

是否支持Cache

是(1G/2G

是(2G/4G

是(2G/4G

是否支持蜂鸣器

aLSI SAS3108支持2种规格的RAID Key,分别支持32盘和240盘。具体规格请参见8.2.1 支持多种RAID类型中的8-4

bAvago SAS3508支持2种规格的RAID Key,分别支持32盘和240盘。具体规格请参见9.2.1 支持多种RAID类型中的9-2

cLSI SAS3108PCB版本为.B及以上版本时,支持带外管理功能;PCB版本为.A时,不支持带外管理功能。

d:对于LSI SAS3008IR RAID控制卡,该数量为热备盘与加入RAID组的硬盘数量之和;对于LSI SAS3008IR以外的RAID控制卡,该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

eRAID 0除外。

 

表5-2 基本特性(2

特性

Avago MegaRAID SAS 9440-8i

Avago MegaRAID SAS 9460-8i

Avago MegaRAID SAS 9460-16i

BROADCOM MegaRAID SAS 9560-8i

BROADCOM MegaRAID SAS 9540-8i

BROADCOM MegaRAID SAS 9560-16i

接口速率(Gbit/s)

12

12

12

12

12

12

支持的RAID组数量

32

64

64

64

32

64

单个RAID组支持的最大硬盘数量

32

240

32

240

32

32

所有RAID组包含的最大硬盘数量a

32

240

240

240

32

240

是否支持硬盘直通

硬盘直通模式支持的硬盘数量

63

240

240

240

63

240

支持的最大硬盘数量

63

240

240

240

63

240

是否支持CacheCade

Cache读写比例是否可调

NA

NA

NA

NA

NA

NA

CacheCade支持的SSD最大个数量

NA

NA

NA

NA

NA

NA

CacheCade最大容量

NA

NA

NA

NA

NA

NA

CacheCade支持的RAID级别

NA

NA

NA

NA

NA

NA

CacheCade是否支持热备

NA

NA

NA

NA

NA

NA

是否支持FastPath

是否支持4K

支持的RAID级别

0/1/10

0/1/10/5/50/6/60

0/1/10/5/50/6/60

0/1/10/5/50/6/60

0/1/10

0/1/10/5/50/6/60

是否支持设置条带大小

否(默认为64KB

是(可设为64KB/128KB/256KB/512KB/1024KB,默认为256KB

是(可设为64KB/128KB/256KB/512KB/1024KB,默认为256KB

是(可设为64KB/128KB/256KB/512KB/1024KB,默认为256KB

否(默认为64KB

是(可设为64KB/128KB/256KB/512KB/1024KB,默认为256KB

是否支持电池掉电保护

是否支持超级电容掉电保护

是否支持全局热备

b

b

b

b

b

b

是否支持局部热备

b

b

b

b

b

b

是否支持紧急热备

支持的热备盘个数

63

240

240

240

63

240

是否支持RAID级别在线迁移

是否支持在线扩容

是否支持自动SMART扫描

是否支持Patrol Read

是否支持一致性校验

b

b

b

b

b

b

是否支持Crypto加密

是否支持带外管理

是否支持Cache

是(2G/4G

是(2G/4G

是(4G

是(8G

是否支持蜂鸣器

a:该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

bRAID 0除外。

 

表5-3 基本特性(3

特性

MSCC SmartRAID 3152-8i

MSCC SmartHBA 2100-8i

接口速率 (Gbit/s)

12

12

支持的RAID组数量

64

64

单个RAID组支持的最大硬盘数

128

128

所有RAID组包含的最大硬盘数量

238

238

是否支持硬盘直通

是否支持裸盘

NA

NA

硬盘直通模式支持的硬盘数量

238

238

支持的最大硬盘数

238

238

是否支持MaxCachea

Cache读写比例是否可调

NA

MaxCache支持的SSD最大个数

128

NA

MaxCache最大容量

6.8TB

NA

MaxCache支持的RAID级别

0/1/10/5

NA

MaxCache是否支持热备

NA

是否支持SSD IO Bypass

是否支持4K

支持的RAID级别

RAID 0/1/1ADM/10/10ADM/5/50/6/60

RAID 0/1/10

是否支持设置条带大小

是(可设为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认为256KiB

是(可设为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认为256KiB

是否支持电池掉电保护

是否支持超级电容掉电保护

是否支持全局热备份功能

是否支持局部热备份功能

是否支持紧急热备份功能

NA

NA

支持的热备盘个数

32

32(每个Array最多支持4个热备盘)

是否支持RAID级别在线迁移

是否支持在线扩容

是否支持自动SMART扫描

是否支持Patrol Read

是否支持一致性校验

是否支持Crypto加密

是否支持带外管理

是否支持520B扇区硬盘

是否支持蜂鸣器

aMaxCacheCacheCadeMicrosemi将该功能定义为“MaxCache”。

 

表5-4 基本特性(3

特性

SP686C

SP186

接口速率(Gbit/s)

12

12

支持的RAID组数量

40b

40b

单个RAID组支持的最大硬盘数

40

40

所有RAID组包含的最大硬盘数量a

40b

40b

是否支持裸盘

裸盘模式支持的硬盘数量

40b

40b

支持的最大硬盘数

40b

40b

是否支持4K

支持的RAID级别

0/1/10/5/50/6/60

0/1/10

是否支持设置条带大小

是(可设为32KB/64KB/128KB/256KB/512KB/1024KBHDD默认为256KBSSD默认为64KB

是(可设为32KB/64KB/128KB/256KB/512KB/1024KBHDD默认为256KBSSD默认为64KB

是否支持超级电容掉电保护

是否支持全局热备

是否支持局部热备

是否支持紧急热备

支持的热备盘个数

16(每个Array最多支持2个热备盘)

16(每个Array最多支持2个热备盘)

是否支持在线扩容

d

d

是否支持自动SMART扫描

是否支持Patrol Read

是否支持一致性校验

c

c

是否支持带外管理

是否支持Cache

是(2G/4G

a:该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

b:以卡实际支持能力为准,SP686C RAID控制卡查看方法请参见21.4.9 查看控制卡属性SP186 HBA控制卡查看方法请参见22.4.9 查看控制卡属性

cRAID 0除外。

d:当前支持增加VD可用空间扩容,不支持通过增加硬盘扩容。

 

表中的“NA”表示不涉及。

RAID控制卡支持的各级别RAID的性能及硬盘利用率如5-5

表5-5 RAID级别比较

RAID级别

可靠性

读性能

写性能

硬盘利用率

RAID 0

100%

RAID 1

50%

RAID 1ADM/Triple

33%

RAID 5

N-1/N

RAID 6

N-2/N

RAID 10

50%

RAID 1E

50%

RAID 10ADM/Triple

33%

RAID 50

较高

N-M/N

RAID 60

较高

N-M*2/N

注:NRAID成员盘的个数,MRAID的子组数。

 

RAID控制卡支持的硬盘接口类型如5-6所示。

表5-6 RAID控制卡支持的硬盘接口类型

硬盘接口类型

SAS HDD

SATA HDD

SAS SSD

SATA SSD

NVMe PCIe SSD

M.2 SATA SSD

LSI SAS3008IR

支持

支持

支持

支持

不支持

不支持

LSI SAS3108

支持

支持

支持

支持

不支持

不支持

Avago SAS3508

支持

支持

支持

支持

不支持

不支持

Avago SAS3516

支持

支持

支持

支持

不支持

不支持

Avago SAS3408iMR

支持

支持

支持

支持

不支持

不支持

Avago SAS3416iMR

支持

支持

支持

支持

不支持

不支持

Avago MegaRAID SAS 9440-8i

支持

支持

支持

支持

不支持

不支持

Avago MegaRAID SAS 9460-8i

支持

支持

支持

支持

不支持

不支持

Avago MegaRAID SAS 9460-16i

支持

支持

支持

支持

不支持

不支持

MSCC SmartRAID 3152-8i

支持

支持

不支持

支持

不支持

不支持

MSCC SmartHBA 2100-8i

支持

支持

不支持

支持

不支持

不支持

BROADCOM MegaRAID 9560-8i

支持

支持

支持

支持

不支持

不支持

BROADCOM MegaRAID 9540-8i

支持

支持

支持

支持

不支持

不支持

BROADCOM MegaRAID 9560-16i

支持

支持

支持

支持

不支持

不支持

SP686C

支持

支持

支持

支持

不支持

不支持

SP186

支持

支持

支持

支持

不支持

不支持

 

RAID控制卡支持配置的硬盘型号以兼容性列表为准,详细信息可通过兼容性查询助手获得。


6 常用操作

5.1  RAID控制卡驱动下载和安装

5.2  通过BMC管理RAID控制卡

5.3  通过ToolKit配置RAID控制卡

6.1 RAID控制卡驱动下载和安装

RAID控制卡驱动下载和安装的方法请联系技术支持。

6.2 通过BMC管理RAID控制卡

BMC提供了带外管理RAID功能。您可以通过BMC Web界面或命令行对支持带外管理的RAID控制卡进行基本的查询和配置操作。

详细操作信息请参见iBMC用户指南。

可通过“技术规格”章节查询各RAID控制卡是否支持带外管理功能。

6.3 通过ToolKit配置RAID控制卡

ToolKit提供了配置RAID功能。您可以通过ToolKitRAID控制卡进行配置,并支持批量配置RAID

详细操作请参见ToolKit用户指南的“使用ToolKit > 硬件配置  >  配置RAID”章节。


7 LSI SAS3008IR

关于本章

本章节主要介绍LSI SAS3008IR RAID控制卡的外观、特性、以及配置方法。

本章节涉及的截图以14.0.0.0Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

6.1  概述

6.2  功能

6.3  初始配置

6.4  常用配置

6.5  故障处理

6.6  管理界面介绍

6.7  OS命令行工具

7.1 概述

LSI SAS3008IR RAID控制卡(以下简称LSI SAS3008IR)是基于Fusion-MPT™(消息传递技术)架构的8端口12Gbit/s SAS控制卡,并采用PCIe3.0 x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

另外,LSI SAS3008IR提供3Gbit/s6Gbit/s12Gbit/s SAS数据通道和3Gbit/s6Gbit/s SATA数据通道,每个端口支持SSPSMPSTP等协议。

LSI SAS3008IR的结构如7-1所示。

图7-1 LSI SAS3008IR外观

 

1

RAID控制卡

2

miniSAS接口(port BSFF-8643

3

miniSAS接口(port ASFF-8643

4

Xcede连接器

 

RAID控制卡指示灯

LSI SAS3008IR的指示灯说明如7-2所示。

图7-2 LSI SAS3008IR指示灯

 

表7-1 指示灯说明

序号

位置

指示灯

颜色

说明

指示灯异常处理策略

1

D1

SYS_ERR0 指示灯

红色

灯亮:RAID控制卡出现ERR0告警

灯灭:RAID控制卡工作正常

如果灯亮,需要更换RAID控制卡

2

D3

心跳指示灯

绿色

闪烁:RAID控制卡心跳正常

灯灭:RAID控制卡心跳异常

如果灯灭,需要更换RAID控制卡

3

D4

VCC_1V8 电源指示灯

绿色

灯亮:电压正常

灯灭:电压异常

如果灯灭,需要更换RAID控制卡

4

D5

VCC_1V5 电源指示灯

绿色

灯亮:电压正常

灯灭:电压异常

如果灯灭,需要更换RAID控制卡

5

D6

VCC_0V9 电源指示灯

绿色

灯亮:电压正常

灯灭:电压异常

如果灯灭,需要更换RAID控制卡

 

7.2 功能

7.2.1 提供高速接口和模块

LSI SAS3008IRPCIe Core提供x8 PCIe接口,每lane速率为8Gb/s,可以兼容x1x2x4配置;支持PCIe 3.0规格,兼容PCIe 2.xPCIe 1.x

LSI SAS3008IRSAS模块提供SAS功能,并定义支持的硬盘速率。LSI SAS3008IR支持的SAS模块包括:

l     12Gb/s SAS6Gb/s SAS3Gb/s SAS

l     6Gb/s SATA3Gb/s SATA1.5Gb/s SATA

7.2.2 可连接多个扩展设备

LSI SAS3008IR最多支持256个扩展设备,应用在服务器上,主要体现在连接多个硬盘,最多支持40个硬盘。

7.2.3 支持的硬盘

RAID控制卡支持SASSATASSD硬盘混合使用,支持SAS RAIDSATA RAIDSSD RAID共存于1个控制卡下。

实际使用过程中建议使用同类型同规格的硬盘。

7.2.4 一致性校验

针对有冗余功能的RAIDRAID 1/10/1E),可以实现手动对RAID内的硬盘进行数据的一致性校验,如果发现有数据不一致的情况,会尝试做自动修复并将错误信息保存在Bad Block Table中。

一致性校验只针对已经完成初始化的RAID

7.2.5 故障自修复

RAID控制卡集成故障自修复工具,当出现轻微的链路故障或硬盘读写闪断时,自动对故障进行修复。

7.2.6 硬盘热备份

热备盘是指定用于替代RAID故障成员盘的硬盘,用于承载被替代硬盘中的数据。

LSI SAS3008IR支持创建最多两个全局热备盘,当RAID的成员盘出现故障时,可以由热备盘替代,防止RAID数据丢失和状态进一步恶化。

热备盘的配置方法可参考7.4.1 配置热备盘

l     机械盘与固态盘不能互相作为热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID组的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID组成员盘最大容量。

l     RAID 0外,其他类型的RAID组均支持热备盘。

7.2.7 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

LSI SAS3008IR可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在LSI SAS3008IR下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。

LSI SAS3008IR默认开启硬盘直通功能。

直通模式下的硬盘发生故障后,硬盘Fault指示灯不会被点亮且iBMC不会对其进行告警。

7.2.8 硬盘低格

通过对硬盘反复写0的方式,将硬盘的数据做彻底的格式化和删除动作。

硬盘格式化彻底、耗时长,格式化过程中,不能执行关机、重启、插拔硬盘等操作,否则会导致硬盘被损坏。

 

硬盘格式化完成后,所有的硬盘数据会被清除。请谨慎执行该操作。

7.2.9 硬盘节能

RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SASSATA机械硬盘均支持此功能。

默认情况下,硬盘节能功能处于开启状态。

当硬盘节能功能开启且在固定时间内没有I/O访问时,RAID控制卡下挂载的空闲状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。

7.2.10 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下取出和更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     人为在线插拔RAID组中的硬盘会导致该硬盘所在的RAID组降级或故障,插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

7.2.11 支持多种RAID类型

LSISAS3008IR最多支持2个虚拟磁盘,单个虚拟磁盘中最多支持10个硬盘。所有的虚拟磁盘包含的硬盘总量最多14个,剩余硬盘只能以独立的“Physical drive”方式被LSISAS3008IR管理。

LSISAS3008IR支持的具体RAID类型及对应的硬盘个数如7-2所示。

表7-2 RAID-硬盘参数

RAID类型

支持硬盘数

允许坏盘数

RAID 0

210

0

RAID 1

2

1

RAID 10

410

硬盘数/2

RAID 1E

3579

(硬盘数–1/2

 

7.2.12 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     动态扩盘

l     完全初始化或后台初始化

l     一致性校验

7.2.13 自动SMART扫描

S.M.A.R.TSelfMonitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免电脑数据受到损失。

RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,便会记录日志。

7.3 初始配置

文档中描述的关于LSI SAS3008IR的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“SAS3IRCU”命令行工具。

7.3.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

重启服务器。当出现如7-3所示界面时,按“F11”键。

图7-3 BIOS启动界面(1

 

                                步骤 2     输入密码,并按“Enter”。

进入如7-4所示界面。

图7-4 BIOS启动界面(2

 

                                步骤 3     选择“Device Manager”并按“Enter”。

显示当前存在的RAID控制卡列表,如7-5所示。

图7-5 RAID控制卡列表

 

                                步骤 4     选择要操作的LSI SAS3008IR控制卡,按“Enter”。

打开“LSI SAS3 MPT Controller Configuration”界面,如7-6所示界面。

图7-6 “LSI SAS3 MPT Controller Configuration”界面

 

                                步骤 5     按“Enter”进入LSI SAS3008IR的配置界面。

Configuration Options”界面如7-7所示,界面参数如7-3所示。

图7-7 “Configuration Options”界面

 

表7-3 操作项说明

参数

参数说明

Controller Management

配置管理RAID控制卡属性。

Virtual Disk Management

配置管理虚拟磁盘。

Physical Disk Management

配置管理物理硬盘。

 

----结束

7.3.2 创建RAID 0

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     LSI SAS3008IR支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看7.2.11 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

对系统的影响

加入到RAID的硬盘数据将会丢失,请提前备份硬盘上的数据。

必备事项

前提条件

已登录管理界面,具体方法请参见7.3.1 登录管理界面

数据

该操作无需准备数据。

操作步骤

进入“Configuration Options”界面。

1.     在主界面中选择“Controller Management”并按“Enter”。

2.     选择“Create Configuration”并按“Enter”。

                                步骤 1     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID level”并按“Enter”。

显示当前可配置的RAID级别,如7-8所示。

图7-8 选择RAID级别

 

2.     选择要配置的RAID级别“RAID 0”并按“Enter”。

                                步骤 2     选择成员盘。

1.     通过“↑”、“↓”选择“Select Physical Disks”并按“Enter”。

打开硬盘选择界面,如7-9所示,界面中参数说明如7-4所示。

图7-9 选择硬盘

 

表7-4 参数说明

参数

说明

Selected RAID Level

已配置的RAID级别。

Select Interface Type

选择硬盘接口类型,若RAID控制卡下挂载多种接口类型的硬盘,可通过该选项过滤。

Select Media Type

选择硬盘类型,若RAID控制卡下挂载多种容量的硬盘,可通过该选项过滤。

0:2:0 SATA HDD-512b 1863GB

可选择的硬盘。

Check All

选中列出的所有硬盘。

Uncheck All

取消选中硬盘。

 

2.     7-4所述选中RAID成员盘。

                                步骤 3     保存配置。

1.     通过“↑”、“↓”选择“Apply Changes”并按“Enter”。

打开操作确认界面,如7-10所示。

图7-10 操作确认界面

 

2.     通过“↑”、“↓”选择“Confirm”并按“Enter”。

3.     通过“↑”、“↓”选择“Yes”并按“Enter”。

提示Operation completed successfully

4.     通过“↓”选择“OK”并按“Enter”。

配置完成。

                                步骤 4     检查配置结果。

1.     7-7中选择“Virtual Disk Management”并按“Enter”。

2.     选择“Manage Virtual Disk Properties”并按“Enter”。

显示当前存在的RAID信息。

----结束

7.3.3 创建RAID 1

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     LSI SAS3008IR支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看7.2.11 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

对系统的影响

加入到RAID的硬盘数据将会丢失,请提前备份硬盘上的数据。

必备事项

前提条件

已登录管理界面,具体方法请参见7.3.1 登录管理界面

数据

该操作无需准备数据。

操作步骤

进入“Configuration Options”界面。

1.     在主界面中选择“Controller Management”并按“Enter”。

2.     选择“Create Configuration”并按“Enter”。

                                步骤 1     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID level”并按“Enter”。

显示当前可配置的RAID级别,如7-11所示。

图7-11 选择RAID级别

 

2.     选择要配置的RAID级别“RAID 1”并按“Enter”。

                                步骤 2     选择成员盘。

1.     通过“↑”、“↓”选择“Select Physical Disks”并按“Enter”。

打开硬盘选择界面,如7-12所示,界面中参数说明如7-5所示。

图7-12 选择硬盘

 

表7-5 参数说明

参数

说明

Selected RAID Level

已配置的RAID级别。

Select Interface Type

选择硬盘接口类型,若RAID控制卡下挂载多种接口类型的硬盘,可通过该选项过滤。

Select Media Type

选择硬盘类型,若RAID控制卡下挂载多种容量的硬盘,可通过该选项过滤。

0:2:0 SATA HDD-512b 1863GB

可选择的硬盘。

Check All

选中列出的所有硬盘。

配置方法:选中该操作项并按“Enter”。

Uncheck All

取消选中硬盘。

配置方法:选中该操作项并按“Enter”。

 

2.     7-5所述选中RAID成员盘。

                                步骤 3     保存配置。

1.     通过“↑”、“↓”选择“Apply Changes”并按“Enter”。

打开操作确认界面,如7-13所示。

图7-13 操作确认界面

 

2.     通过“↑”、“↓”选择“Confirm”并按“Enter”。

3.     通过“↑”、“↓”选择“Yes”并按“Enter”。

提示Operation completed successfully

4.     通过“↓”选择“OK”并按“Enter”。

配置完成。

                                步骤 4     检查配置结果。

1.     7-7中选择“Virtual Disk Management”并按“Enter”。

2.     选择“Manage Virtual Disk Properties”并按“Enter”。

显示当前存在的RAID信息。

----结束

7.3.4 创建RAID 1E

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     LSI SAS3008IR支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看7.2.11 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

对系统的影响

加入到RAID的硬盘数据将会丢失,请提前备份硬盘上的数据。

必备事项

前提条件

已登录管理界面,具体方法请参见7.3.1 登录管理界面

数据

该操作无需准备数据。

操作步骤

进入“Configuration Options”界面。

1.     在主界面中选择“Controller Management”并按“Enter”。

2.     选择“Create Configuration”并按“Enter”。

                                步骤 1     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID level”并按“Enter”。

显示当前可配置的RAID级别,如7-14所示。

图7-14 选择RAID级别

 

2.     选择要配置的RAID级别“RAID 1E”并按“Enter”。

                                步骤 2     选择成员盘。

1.     通过“↑”、“↓”选择“Select Physical Disks”并按“Enter”。

打开硬盘选择界面,如7-15所示,界面中参数说明如7-6所示。

图7-15 选择硬盘

 

表7-6 参数说明

参数

说明

Selected RAID Level

已配置的RAID级别。

Select Interface Type

选择硬盘接口类型,若RAID控制卡下挂载多种接口类型的硬盘,可通过该选项过滤。

Select Media Type

选择硬盘类型,若RAID控制卡下挂载多种容量的硬盘,可通过该选项过滤。

0:2:0 SATA HDD-512b 1863GB

可选择的硬盘。

Check All

选中列出的所有硬盘。

配置方法:选中该操作项并按“Enter”。

Uncheck All

取消选中硬盘。

配置方法:选中该操作项并按“Enter”。

 

2.     7-6所述选中RAID成员盘。

                                步骤 3     保存配置。

1.     通过“↑”、“↓”选择“Apply Changes”并按“Enter”。

打开操作确认界面,如7-16所示。

图7-16 操作确认界面

 

2.     通过“↑”、“↓”选择“Confirm”并按“Enter”。

3.     通过“↑”、“↓”选择“Yes”并按“Enter”。

提示Operation completed successfully

4.     通过“↓”选择“OK”并按“Enter”。

配置完成。

                                步骤 4     检查配置结果。

1.     7-7中选择“Virtual Disk Management”并按“Enter”。

2.     选择“Manage Virtual Disk Properties”并按“Enter”。

显示当前存在的RAID信息。

----结束

7.3.5 创建RAID 10

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     LSI SAS3008IR支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看7.2.11 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

对系统的影响

加入到RAID的硬盘数据将会丢失,请提前备份硬盘上的数据。

必备事项

前提条件

已登录管理界面,具体方法请参见7.3.1 登录管理界面

数据

该操作无需准备数据。

操作步骤

进入“Configuration Options”界面。

1.     在主界面中选择“Controller Management”并按“Enter”。

2.     选择“Create Configuration”并按“Enter”。

                                步骤 1     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID level”并按“Enter”。

显示当前可配置的RAID级别,如7-17所示。

图7-17 选择RAID级别

 

2.     选择要配置的RAID级别“RAID 10”并按“Enter”。

                                步骤 2     选择成员盘。

1.     通过“↑”、“↓”选择“Select Physical Disks”并按“Enter”。

打开硬盘选择界面,如7-18所示,界面中参数说明如7-7所示。

图7-18 选择硬盘

 

表7-7 参数说明

参数

说明

Selected RAID Level

已配置的RAID级别。

Select Interface Type

选择硬盘接口类型,若RAID控制卡下挂载多种接口类型的硬盘,可通过该选项过滤。

Select Media Type

选择硬盘类型,若RAID控制卡下挂载多种容量的硬盘,可通过该选项过滤。

0:2:0 SATA HDD-512b 1863GB

可选择的硬盘。

Check All

选中列出的所有硬盘。

Uncheck All

取消选中硬盘。

 

2.     7-7所述选中RAID成员盘。

                                步骤 3     保存配置。

1.     通过“↑”、“↓”选择“Apply Changes”并按“Enter”。

打开操作确认界面,如7-19所示。

图7-19 操作确认界面

 

2.     通过“↑”、“↓”选择“Confirm”并按“Enter”。

3.     通过“↑”、“↓”选择“Yes”并按“Enter”。

提示Operation completed successfully

4.     通过“↓”选择“OK”并按“Enter”。

配置完成。

                                步骤 4     检查配置结果。

1.     7-7中选择“Virtual Disk Management”并按“Enter”。

2.     选择“Manage Virtual Disk Properties”并按“Enter”。

显示当前存在的RAID信息。

----结束

7.3.6 配置启动项

同一台服务器配置了单个LSI SAS3008IR卡或者多种芯片硬盘控制卡的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。

设置启动项的操作方法请参见 BIOS 参数参考的“设置服务器启动设备”章节。

7.4 常用配置

7.4.1 配置热备盘

操作场景

该任务指导用户配置LSI SAS3008IR控制卡的全局热备盘。

LSI SAS3008IR控制卡上创建完RAID 1/1E/10后,最多可以配置2个全局热备盘,提升数据安全性。

l     机械盘与固态盘不能互相作为热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID组的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID组成员盘最大容量。

l     RAID 0外,其他类型的RAID组均支持热备盘。

对系统的影响

用作热备盘的硬盘数据将会丢失,请提前备份硬盘上的数据。

必备事项

配置热备盘之前,需具备如下条件:

l     服务器存在空闲硬盘。

l     已登录管理界面,具体方法请参见7.3.1 登录管理界面

数据

该操作无需准备数据。

操作步骤

进入虚拟磁盘管理界面。

1.     在主界面中选择“Virtual Disk Management”并按“Enter”。

2.     选择“Manage Virtual Disk Properties”并按“Enter”。

打开虚拟磁盘属性管理界面,如7-20所示。

图7-20 管理虚拟磁盘属性

 

                                步骤 2     配置热备盘。

1.     选择“Manage Global Hotspare Disks”并按“Enter”。

打开热备盘设置界面,如7-21所示。

图7-21 设置热备盘

 

2.     通过“↑”、“↓”选择要配置的硬盘并按“Enter”。

3.     通过“↑”、“↓”选择“Assign Global Hotspare Disk”并按“Enter”。

显示Operation complete successfully

4.     通过“↓”选择“OK”并按“Enter”。

完成配置。

----结束

7.4.2 删除热备盘

操作场景

该任务指导用户删除LSI SAS3008IR控制卡的全局热备盘。

必备事项

前提条件

已登录管理界面,具体方法请参见7.3.1 登录管理界面

数据

该操作无需准备数据。

操作步骤

进入虚拟磁盘管理界面。

1.     在主界面中选择“Virtual Disk Management”并按“Enter”。

2.     选择“Manage Virtual Disk Properties”并按“Enter”。

打开虚拟磁盘属性管理界面,如7-22所示。

图7-22 管理虚拟磁盘属性

 

                                步骤 2     删除热备盘。

1.     选择“Manage Global Hotspare Disks”并按“Enter”。

打开热备盘设置界面,如7-23所示。

图7-23 删除热备盘

 

2.     通过“↑”、“↓”选择要删除的热备盘并按“Enter”。

3.     通过“↑”、“↓”选择“Unassign Global Hotspare Disk”并按“Enter”。

显示Operation complete successfully

4.     通过“↓”选择“OK”并按“Enter”。

完成配置。

----结束

7.4.3 导入和清除外部配置

操作场景

l     对于新安装到服务器系统中的物理硬盘可能已经存在一个存储配置。对于这种外部配置,用户可以运用WebBIOS将其引入到当前RAID控制卡中。

l     当服务器更换RAID控制卡后,用户可以通过该操作将原有的配置信息导入新的RAID控制卡中。

 

l     为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

导入外部配置

登录管理界面,具体方法请参见7.3.1 登录管理界面

                                步骤 1     在主界面中选择“Controller Management”并按“Enter”。

                                步骤 2     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如7-24所示。

图7-24 管理外部配置

 

                                步骤 3     选择“Select Foreign Configuration”并按“Enter”。

                                步骤 4     在打开的列表中选择要导入的外部配置并按“Enter”。

                                步骤 5     选择“View Foreign Configuration”并按“Enter”。

打开查看外部配置的界面,如7-25所示。

图7-25 查看外部配置

 

                                步骤 6     选择“Import Foreign Configuration”并按“Enter”。

进入操作确认界面,如7-26所示。

图7-26 操作确认

 

                                步骤 7     通过“↑”、“↓”选择“Confirm”并按“Enter”。

                                步骤 8     通过“↑”、“↓”选择“Yes”并按“Enter”。

提示Operation completed successfully

                                步骤 9     通过“↓”选择“OK”并按“Enter”。

配置完成。

----结束

清除外部配置

登录管理界面,具体方法请参见7.3.1 登录管理界面

                                步骤 1     在主界面中选择“Controller Management”并按“Enter”。

                                步骤 2     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如7-27所示。

图7-27 管理外部配置

 

                                步骤 3     选择“Select Foreign Configuration”并按“Enter”。

                                步骤 4     在打开的列表中选择要导入的外部配置并按“Enter”。

                                步骤 5     选择“View Foreign Configuration”并按“Enter”。

打开查看外部配置的界面,如7-28所示。

图7-28 查看外部配置

 

                                步骤 6     通过“↑”、“↓”选择“Clear Foreign Configuration”并按“Enter”。

进入操作确认界面。

                                步骤 7     按“Enter”打开操作确认选项。

                                步骤 8     通过“↑”、“↓”选择“Yes”并按“Enter”。

提示Operation completed successfully

                                步骤 9     通过“↓”选择“OK”并按“Enter”。

配置完成。

----结束

7.4.4 删除RAID

操作场景

该任务指导用户删除RAID

当服务器不需要某个RAID时,可以将其删除以释放硬盘。

 

RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。

对系统的影响

该操作对系统正常运行无影响。

必备事项

前提条件

已登录管理界面,具体方法请参见7.3.1 登录管理界面

数据

该操作无需准备数据。

操作步骤

进入虚拟磁盘操作界面。

1.     在主界面中选择“Virtual Disk Management”并按“Enter”。

2.     选择“Select Virtual Disk Operations”并按“Enter”。

进入虚拟磁盘操作界面,如7-29所示。

图7-29 操作虚拟磁盘

 

                                步骤 2     删除指定RAID

1.     选择“Select Virtual Disk”并按“Enter”。

2.     在列表中选择要删除的RAID并按“Enter”。

3.     通过“↑”、“↓”选择“Delete Virtual Disk”并按“Enter”。

进入操作确认界面

4.     通过“↑”、“↓”选择“Confirm”并按“Enter”。

5.     通过“↑”、“↓”选择“Yes”并按“Enter”。

显示Operation complete successfully

6.     通过“↓”选择“OK”并按“Enter”。

完成配置。

----结束

7.4.5 查询RAID控制卡固件版本

查询RAID控制卡固件版本的方法有如下几种:

l     服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见7.7.2.2 查看所有信息

回显信息中的“Firmware version”字段即为RAID控制卡的固件版本。

l     RAID控制卡管理界面进行查询,具体方法为:

a.     登录RAID控制卡的管理界面,具体操作请参见7.3.1 登录管理界面

b.     在主界面中选择“Controller Management”并按“Enter”。

c.     选择“View Controller Properties”并按“Enter”。

显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如7-30所示。

图7-30 View Controller Properties页面

 

7.5 故障处理

介绍了硬盘故障、RAID控制卡故障的常用处理方法。

更多故障案例请联系技术支持获取。

7.5.1 硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

确认故障硬盘槽位。

直通模式下的硬盘发生故障后,硬盘Fault指示灯不会被点亮且iBMC不会对其进行告警。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考7.6.4.1 View Physical Disk Properties

l     通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考7.7.2.2 查看所有信息

                                步骤 1     更换新硬盘。

 

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考7.4.3 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在7-2查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组为冗余RAID且已配置热备盘,全局热备盘会自动替换故障硬盘进行数据同步和恢复。在故障硬盘槽位插入新硬盘后,新硬盘会自动变成热备盘。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0

     UEFI模式下创建RAID0的方法请参见7.3.2 创建RAID 0

     通过命令行方式创建RAID0的方法请参见7.7.2.3 创建和删除RAID

----结束

7.5.2 控制卡故障

问题描述

当服务器出现如下现象时,说明控制卡故障。

l     数据无法写入控制卡控制的硬盘。

l     服务器上报控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     查询兼容性查询助手或者联系技术支持处理。

----结束

7.6 管理界面介绍

7.6.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

重启服务器。当出现如7-31所示界面时,按“F11”键。

图7-31 BIOS启动界面(1

 

                                步骤 2     输入密码,并按“Enter”。

进入如7-32所示界面。

图7-32 BIOS启动界面(2

 

                                步骤 3     选择“Device Manager”并按“Enter”。

显示当前存在的RAID控制卡列表,如7-33所示。

图7-33 RAID控制卡列表

 

                                步骤 4     选择要操作的LSI SAS3008IR控制卡,按“Enter”。

打开“LSI SAS3 MPT Controller Configuration”界面,如7-34所示界面。

图7-34 “LSI SAS3 MPT Controller Configuration”界面

 

                                步骤 5     按“Enter”进入LSI SAS3008IR的配置界面。

Configuration Options”界面如7-35所示,界面参数如7-8所示。

图7-35 “Configuration Options”界面

 

表7-8 操作项说明

参数

参数说明

Controller Management

配置管理RAID控制卡属性。

Virtual Disk Management

配置管理虚拟磁盘。

Physical Disk Management

配置管理物理硬盘。

 

----结束

7.6.2 Controller Management

界面显示如7-36所示,操作说明如7-9所示。

图7-36 Controller Management

 

表7-9 操作说明

操作项

说明

View Controller Properties

查看LSI SAS3008IR属性。

操作方法:选中该操作项并按“Enter”。

Change Controller Properties

修改LSI SAS3008IR属性。

操作方法:选中该操作项并按“Enter”。

Create Configuration

创建并管理RAID

操作方法:选中该操作项并按“Enter”。

Clear Configuration

清除当前配置。

操作方法:选中该操作项并按“Enter”。

Manage Foreign Configuration

管理外部配置。

仅当LSI SAS3008IR中存在外部配置时,会显示该操作项。

操作方法:选中该操作项并按“Enter”。

Save Controller Events

保存LSI SAS3008IR日志信息。

操作方法:选中该操作项并按“Enter”。

 

7.6.2.1 View Controller Properties

该界面显示LSI SAS3008IR控制卡属性。

界面介绍

界面显示如7-37所示,参数说明如7-10所示。

图7-37 Controller Properties

 

表7-10 Controller Properties参数说明

参数

说明

Chip Name

RAID控制卡名称。

Chip Version

RAID控制卡版本信息。

PCI ID

当前控制卡的PCI地址,格式为:总线号:设备号:功能号。

PCI Slot Number

控制卡的PCI槽位号。

Host Interface

RAID控制卡接口类型。

Physical Disk Count

RAID控制卡下挂载的物理磁盘数。

Virtual Disk Count

RAID控制卡下挂载的虚拟磁盘数。

Firmware Type

RAID控制卡固件类型。

Firmware Version

RAID控制卡的固件版本号。

Default NVData Version

默认的RAID配置信息版本号。

Persistent NVData Version

永久性RAID配置信息版本号。

 

7.6.2.2 Change Controller Properties

OS的处理能力不足时,您可以通过该界面设置RAID重构任务在系统资源中的占用率。

界面介绍

界面显示如7-38所示。

图7-38 Change Controller Properties

 

修改重构速率

按“Enter”打开可修改的速率列表。

                                步骤 1     通过“↑”、“↓”选择要配置的速率并按“Enter”。

                                步骤 2     通过“↑”、“↓”选择“Apply Changes”并按“Enter”。

返回changes were applied

----结束

7.6.2.3 Create Configuration

您可以通过该界面配置RAID

界面介绍

界面显示如7-39所示。

图7-39 Create Configuration

 

配置RAID

选择RAID级别

1.     通过“↑”、“↓”选择“Select RAID level”并按“Enter”。

显示当前可配置的RAID级别,如7-40所示。

图7-40 选择RAID级别

 

2.     选择要配置的RAID级别并按“Enter”。

                                步骤 2     选择成员盘

1.     通过“↑”、“↓”选择“Select Physical Disks”并按“Enter”。

打开硬盘选择界面,如7-41所示,界面中参数说明如7-11所示。

图7-41 选择硬盘

 

表7-11 参数说明

参数

说明

Selected RAID Level

已配置的RAID级别。

Select Interface Type

选择硬盘接口类型,若RAID控制卡下挂载多种接口类型的硬盘,可通过该选项过滤。

Select Media Type

选择硬盘类型,若RAID控制卡下挂载多种容量的硬盘,可通过该选项过滤。

0:2:0 SATA HDD-512b 1863GB

可选择的硬盘。

Check All

选中列出的所有硬盘。

Uncheck All

取消选中硬盘。

 

2.     7-11所述选中RAID成员盘。

                                步骤 3     保存配置

1.     通过“↑”、“↓”选择“Apply Changes”并按“Enter”。

打开操作确认界面,如7-42所示。

图7-42 操作确认界面

 

2.     通过“↑”、“↓”选择“Confirm”并按“Enter”。

3.     通过“↑”、“↓”选择“Yes”并按“Enter”。

提示Operation completed successfully

4.     通过“↓”选择“OK”并按“Enter”。

配置完成。

----结束

7.6.2.4 Clear Configuration

您可以通过该选项删除当前RAID配置。

删除RAID配置

在“Controller Management”界面通过“↑”、“↓”选择“Clear Configuration”并按“Enter”。

打开操作确认界面,如7-43所示。

图7-43 操作确认界面

 

                                步骤 2     通过“↑”、“↓”选择“Confirm”并按“Enter”。

                                步骤 3     通过“↑”、“↓”选择“Yes”并按“Enter”。

提示Operation completed successfully

                                步骤 4     通过“↓”选择“OK”并按“Enter”。

配置完成。

----结束

7.6.2.5 Manage Foreign Configuration

您可以通过该界面查看、导入或清除外部配置。

仅当LSI SAS3008IR中存在外部配置时,会显示该操作项。

界面介绍

界面显示如7-44所示,界面参数如7-12所示。

图7-44 Manage Foreign Configuration

 

表7-12 参数说明

参数

说明

Select Foreign Configuration

选择要操作的外部配置。

View Foreign Configuration

查看外部配置的详细信息。

Clear Foreign Configuration

清除外部配置。

 

导入外部配置

7-44中选择“View Foreign Configuration”并按“Enter”。

界面显示如7-45所示,界面参数如7-13所示。

图7-45 View Foreign Configuration

 

表7-13 参数说明

参数

说明

Selected Foreign Configuration

已选定的外部配置。

Import Foreign Configuration

导入当前外部配置。

Clear Foreign Configuration

清除当前外部配置。

Last Known Volume State

当前外部配置最近的已知状态。

该参数缺失时,此外部配置无法导入。

 

                                步骤 2     通过“↑”、“↓”选择“Import Foreign Configuration”并按“Enter”。

进入操作确认界面,如7-46所示。

图7-46 操作确认

 

                                步骤 3     按“Enter”打开操作确认选项。

                                步骤 4     选择“Enabled”并按“Enter”。

                                步骤 5     通过“↑”、“↓”选择“Yes”并按“Enter”。

提示Operation completed successfully

                                步骤 6     通过“↓”选择“OK”并按“Enter”。

配置完成。

----结束

清除外部配置

通过“↑”、“↓”选择“Clear Foreign Configuration”并按“Enter”。

进入操作确认界面。

                                步骤 1     按“Enter”打开操作确认选项。

                                步骤 2     通过“↑”、“↓”选择“Yes”并按“Enter”。

提示Operation completed successfully

                                步骤 3     通过“↓”选择“OK”并按“Enter”。

配置完成。

----结束

7.6.2.6 Save Controller Events

您可以通过该界面保存控制卡的事件日志。

界面介绍

界面显示如7-47所示,界面参数如7-14所示。

图7-47 Save Controller Events

 

表7-14 参数说明

参数

说明

Available File Systems

可用的文件系统。

Available Directories

可用的文件路径。

Enter File Name

输入文件名。

说明

事件日志文件格式为“*.bin”

 

保存事件日志

按照7-14所述配置文件系统、文件路径及文件名。

                                步骤 1     通过“↑”、“↓”选择“Save Events”并按“Enter”。

提示Operation completed successfully

                                步骤 2     通过“↓”选择“OK”并按“Enter”。

配置完成。

----结束

7.6.3 Virtual Disk Management

界面显示如7-48所示,操作说明如7-15所示。

图7-48 Virtual Disk Management

 

表7-15 操作说明

操作项

说明

Manage Virtual Disk Properties

查看并修改指定虚拟磁盘属性,并提供热备盘配置接口。

Select Virtual Disk Operations

查看或删除指定虚拟磁盘。

 

7.6.3.1 Manage Virtual Disk Properties

界面显示如7-49所示,参数说明如7-16所示。

图7-49 Manage Virtual Disk Properties

 

表7-16 参数说明

操作项

说明

Select Virtual Disk

选择要操作的虚拟磁盘。

Virtual Disk ID

虚拟磁盘的ID

RAID Level

虚拟磁盘的RAID级别。

Virtual Disk Status

虚拟磁盘的状态。

Virtual Disk Capacity

虚拟磁盘的容量。

Virtual Disk Policies

虚拟磁盘的读写策略。

View Associated Physical Disks

查看关联硬盘的属性。

Manage Global Hotspare Disks

管理热备盘。

 

查看成员盘属性

7-49中选择“View Associated Physical Disks”并按“Enter”。

界面显示如7-50所示,参数说明如7-17所示。

图7-50 View Associated Physical Disks

 

表7-17 参数说明

操作项

说明

Selected Virtual Disk

选定的虚拟磁盘。

Associated Physical Disks

成员盘列表。

 

                                步骤 2     通过“↑”、“↓”选择要查询的成员盘并按“Enter”。

                                步骤 3     通过“↑”、“↓”选择“View Physical Disk Properties”并按“Enter”。

打开硬盘属性界面,如7-51所示。

图7-51 硬盘属性

 

                                步骤 4     通过“↑”、“↓”选择“View More Physical Disk Properties”并按“Enter”。

可查看到更多的硬盘属性,如7-52所示。硬盘属性界面参数如7-18所示。

图7-52 硬盘属性

 

表7-18 硬盘属性参数说明

操作项

说明

Select Physical Disk

选定要查询的硬盘。

Physical Disk ID

物理硬盘的ID

State

物理硬盘的状态。

Revision

物理硬盘的版本。

Device Type

设备类型。

SAS Address

物理硬盘的SAS地址。

Disk Cache Setting

物理硬盘的Cache使能状态。

Size

物理硬盘的容量。

Disk Protocol

硬盘类型。

Serial Number of Disk

物理硬盘序列号。

Hardware Vendor

物理硬盘的生产厂商。

Model Number

物理硬盘的模块序号。

Hard Disk Drive RPM

物理硬盘转速。

Neg. Disk Transfer Speed

物理硬盘接口速率。

View More Physical Disk Properties

物理硬盘的更多属性。

SMART Status

SMART检测结果。

Hotspare

该物理硬盘是否为热备盘。

Associated Virtual Disk

该物理硬盘所在的虚拟磁盘。

 

----结束

配置热备盘

7-49中选择“Manage Global Hotspare Disks”并按“Enter”。

界面显示如7-53所示,参数说明如7-19所示。

图7-53 Manage Global Hotspare Disks

 

表7-19 参数说明

操作项

说明

Selected Virtual Disk

选定的虚拟磁盘。

Compatible Bare Disks

可设置为热备盘的硬盘列表。

Global Hotspare Disks

当前存在的热备盘列表。

Assign Global Hotspare Disk

配置全局热备盘。

Unassign Global Hotspare Disk

取消选中的全局热备盘。

 

                                步骤 2     通过“↑”、“↓”选择要配置的硬盘并按“Enter”。

                                步骤 3     通过“↑”、“↓”选择“Assign Global Hotspare Disk”并按“Enter”。

显示“Operation complete successfully”。

                                步骤 4     通过“↓”选择“OK”并按“Enter”。

完成配置。

----结束

删除热备盘

7-53中通过“↑”、“↓”选择要删除的热备盘并按“Enter”。

                                步骤 1     通过“↑”、“↓”选择“Unassign Global Hotspare Disk”并按“Enter”。

显示Operation complete successfully

                                步骤 2     通过“↓”选择“OK”并按“Enter”。

完成配置。

----结束

7.6.3.2 Select Virtual Disk Operations

界面显示如7-54所示,参数说明如7-20所示。

图7-54 Select Virtual Disk Operations

 

表7-20 参数说明

操作项

说明

Select Virtual Disk

选择要操作的虚拟磁盘。

Start Locate / Blink

点亮虚拟磁盘中成员盘的定位指示灯。

Stop Locate / Blink

熄灭虚拟磁盘中成员盘的定位指示灯。

Delete Virtual Disk

删除虚拟磁盘。

Operation in Progress

当前正在处理的操作。

Operation Pending

等待执行的操作。

Allowed Operations

允许执行的操作。

Operation Progress (%)

任务处理进度。

Is Operation in Progress

当前有任务正在处理中。

Start Operation

开始操作。

 

点亮定位指示灯

通过“↑”、“↓”选择“Start Locate / Blink”并按“Enter”。

----结束

删除虚拟磁盘

通过“↑”、“↓”选择“Delete Virtual Disk”并按“Enter”。

进入操作确认界面。

                                步骤 1     通过“↑”、“↓”选择“Confirm”并按“Enter”。

                                步骤 2     通过“↑”、“↓”选择“Yes”并按“Enter”。

显示Operation complete successfully

                                步骤 3     通过“↓”选择“OK”并按“Enter”。

完成配置。

----结束

7.6.4 Physical Disk Management

界面显示如7-55所示,参数说明如7-21所示。

图7-55 Physical Disk Management

 

表7-21 参数说明

操作项

说明

View Physical Disk Properties

查看硬盘属性。

Select Physical Disk Operations

对硬盘进行操作。

 

7.6.4.1 View Physical Disk Properties

界面显示如7-56所示,参数说明如7-22所示。

图7-56 View Physical Disk Properties

 

表7-22 硬盘属性参数说明

操作项

说明

Select Physical Disk

选定要查询的硬盘。

Physical Disk ID

物理硬盘的ID

State

物理硬盘的状态。

Revision

物理硬盘的版本。

Device Type

设备类型。

SAS Address

物理硬盘的SAS地址。

Disk Cache Setting

物理硬盘的Cache使能状态。

Size

物理硬盘的容量。

Disk Protocol

硬盘类型。

Serial Number of Disk

物理硬盘序列号。

Unit Serial Number(UPD)

物理硬盘的单位序号。

Hardware Vendor

物理硬盘的生产厂商。

Model Number

物理硬盘的模块序号。

Hard Disk Drive RPM

物理硬盘转速。

 

7.6.4.2 Select Physical Disk Operations

界面显示如7-57所示。

图7-57 Select Physical Disk Operations

 

点亮硬盘定位指示灯

通过“↓”、“↑”选择“Select Physical Disk”并按“Enter”。

                                步骤 1     在硬盘列表中选择待操作的硬盘并按“Enter”。

                                步骤 2     通过“↓”、“↑”选择“Start Locate / Blink”并按“Enter”。

----结束

7.6.5 Exit

退出配置界面。

退出配置界面

LSI SAS3008IR主界面按“ESC”,显示如7-58所示“Device Manager”界面。

图7-58 Device Manager

 

                                步骤 2     按“F10”退出BIOS配置界面。

弹出操作确认对话框。

                                步骤 3     选择“OK”并按“Enter”。

退出BIOS界面,并提示“Press Control+Alt+Delete to reboot”。

----结束

7.7 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

7.7.1 下载和安装SAS3IRCU工具

下载工具

登录BROADCOM网站上RAID控制卡的页面

                                步骤 1     单击“Management Software and Tools”。

打开管理软件和工具列表。

                                步骤 2     下载最新版本的“SAS3IRCU”工具。

                                步骤 3     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统。

                                步骤 1     Shell界面中进入SAS3IRCU工具所在目录。

Linux下的SAS3IRCU工具不需安装,此时可执行RAID控制卡命令。

----结束

7.7.2 常用命令

7.7.2.1 查看所有控制卡

命令功能

查看所有控制卡。

命令格式

sas3ircu list

参数说明

使用实例

# 查看所有控制卡

domino:~# ./sas3ircu list

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

        Adapter       Vendor  Device                      SubSys  SubSys

Index    Type           ID      ID    Pci Address         Ven ID  Dev ID

 -----  ------------  ------  ------  -----------------   ------  ------

  0     SAS3008        1000h   97h    00h:01h:00h:00h     1000h   3090h

SAS3IRCU: Utility Completed Successfully.    

7.7.2.2 查看所有信息

命令功能

查看RAID、虚拟磁盘、物理硬盘的详细信息。

命令格式

sas3ircu controller_id display

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

 

使用实例

# 查看RAID、虚拟磁盘、物理硬盘的详细信息。

l     2个硬盘分别设置为第一启动项和第二启动项时,display命令可查询到相关信息,例如:

domino:~# ./sas3ircu 0 display

l     硬盘和RAID组和分别被设置为第一启动项和第二启动项时,display命令可查询到相关信息,例如:

domino:~# ./sas3ircu 0 display

7.7.2.3 创建和删除RAID

命令功能

创建和删除RAID

删除命令会删除所有RAID组。

命令格式

sas3ircu controller_id create RAIDlevel capacity enclosure_id:slot_id name noprompt

sas3ircu controller_id delete noprompt

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

level

要配置的RAID级别

capacity

要配置的RAID组容量

可以为MAX,表示配置RAID组容量最大容量。

enclosure_id

硬盘所在EnclosureID

slot_id

硬盘槽位号

name

RAID组的名字

用户自拟

 

使用实例

# 创建RAID

domino:~# ./sas3ircu 0 create RAID1 MAX 1:0 1:1 Test01 noprompt

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

Please wait, may take up to a minute...

SAS3IRCU: Volume created successfully.

SAS3IRCU: Command CREATE Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

# 创建RAID

domino:~# ./sas3ircu 0 create RAID1 MAX 1:2 1:3 Test01 noprompt

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

Please wait, may take up to a minute...

SAS3IRCU: Volume created successfully.

SAS3IRCU: Command CREATE Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

# 删除RAID

domino:~# ./sas3ircu 0 delete noprompt

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

Please wait, may take up to a minute...

SAS3IRCU: Volume deleted successfully.

SAS3IRCU: Command DELETE Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

7.7.2.4 删除指定的RAID

命令功能

删除指定的RAID组。

命令格式

sas3ircu controller_id deletevolume volume_id noprompt

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

volume_id

RAIDID

 

使用实例

# 删除ID322RAID

domino:~# ./sas3ircu 0 deletevolume 322 noprompt

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

Please wait, may take up to a minute...

SAS3IRCU: Volume deleted successfully.

SAS3IRCU: Command DELETEVOLUME Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

7.7.2.5 模拟硬盘故障

命令功能

模拟硬盘故障。

命令格式

sas3ircu controller_id action enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

action

要执行的操作

l     setonline:上线

l     setoffline:下线

enclosure_id

硬盘所在EnclosureID

slot_id

硬盘槽位号

 

使用实例

# 模拟硬盘下线故障。

domino:~# ./sas3ircu 0 setoffline 1:2

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

SAS3IRCU: Physical disk set to Offline successfully.

SAS3IRCU: Command SETOFFLINE Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

# 模拟硬盘上线故障。

domino:~# ./sas3ircu 0 setonline 1:2

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

SAS3IRCU: Physical disk set to Online successfully.

SAS3IRCU: Command SETONLINE Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

7.7.2.6 热备盘的创建和删除

命令功能

创建、删除热备盘。

命令格式

sas3ircu controller_id hotspare enclosure_id:slot_id

sas3ircu controller_id hotspare delete enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

硬盘槽位号

 

使用实例

# 创建热备盘。

domino:~# ./sas3ircu 0 hotspare 1:2

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

WARNING: Proceeding with this operation may cause data loss or data 

         corruption. Are you sure you want to proceed (YES/NO)?yes

WARNING: This is your last chance to abort this operation. Do you wish 

         to abort (YES/NO)?no

Please wait,may take up to a minute...

SAS3IRCU: Hot Spare disk created successfully.

SAS3IRCU: Command HOTSPARE Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

# 删除热备盘。

domino:~# ./sas3ircu 0 hotspare delete 1:2

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

WARNING: Proceeding with this operation may cause data loss or data 

         corruption. Are you sure you want to proceed (YES/NO)?yes

WARNING: This is your last chance to abort this operation. Do you wish 

         to abort (YES/NO)?no

Please wait,may take up to a minute...

SAS3IRCU: Hot Spare disk deleted successfully.

SAS3IRCU: Command HOTSPARE Completed Successfully.

SAS3IRCU: Utility Completed Successfully.    

7.7.2.7 查看虚拟磁盘状态

命令功能

查看虚拟磁盘状态。

命令格式

sas3ircu controller_id status

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

 

使用实例

# 查看虚拟磁盘状态。

domino:~# ./sas3ircu 0 status

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

Background command progress status for controller 0...

IR volume 1

  Volume ID                              : 323

  Current operation                      : Background Init

  volume Status                          : Enabled

  Volume state                           : Optimal

  Volume wwid                            : 0307b565aa18c1fb

  Physical disk I/Os                     : Not quiesced

  Volume size (in sectors)               : 1560545280

  Number of remaining sectors            : 1558128640

  Percentage complete                    : 0.15%

IR volume 2

  Volume ID                              : 323

  Current operation                      : none

  volume Status                          : Enabled

  Volume state                           : Optimal

  Volume wwid                            : 09fb6da3d1048925

  Physical disk I/Os                     : Not quiesced

SAS3IRCU: Command STATUS Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

7.7.2.8 一致性校验

命令功能

可对指定组做一致性校验。

命令格式

sas3ircu controller_id constchk volume_id noprompt

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

volume_id

RAID组的ID

 

使用实例

# 一致性校验

domino:~# ./sas3ircu 0 constchk 322 noprompt

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

SAS3IRCU: Consistency Check Operation started on IR Volume.

SAS3IRCU: Command CONSTCHK Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

7.7.2.9 激活RAID

命令功能

当有外部配置时,可通过激活RAID组使其生效。

命令格式

sas3ircu controller_id activate volume_id

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

volume_id

待激活RAID组的ID

 

使用实例

# 激活ID322RAID组。

domino:~# ./sas3ircu 0 activate 322

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

SAS3IRCU: ACTIVATE Volume 322 Passed!

SAS3IRCU: Command ACTIVATE Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

7.7.2.10 点亮硬盘指示灯

命令功能

点亮指定硬盘的指示灯。

命令格式

sas3ircu controller_id locate enclosure_id:slot_id on

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

硬盘槽位号

 

使用实例

# 点亮指定硬盘的指示灯。

domino:~# ./sas3ircu 0 locate 1:0 on

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

SAS3IRCU: LOCATE command completed successfully.

SAS3IRCU: Command LOCATE Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

7.7.2.11 收集和清除RAID组事件日志

命令功能

收集和清除RAID组事件日志。

命令格式

sas3ircu controller_id logir upload name

sas3ircu controller_id logir clear

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

name

日志文件名

用户自拟

 

使用实例

# 收集RAID组事件日志并存储到本地文件FW.log

domino:~# ./sas3ircu 0 logir upload FW.log

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

SAS3IRCU: LogIR command successful.

SAS3IRCU: Command LOGIR Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

# 清除RAID组事件日志。

domino:~# ./sas3ircu 0 logir clear

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

WARNING: proceeding with this operation will erase all log information

         stored in th controller. Are you sure you want to proceed (YES/NO)? yes

SAS3IRCU: LogIR command successful.

SAS3IRCU: Command LOGIR Completed Successfully.

SAS3IRCU: Utility Completed Successfully.


8 LSI SAS3108

关于本章

本章节主要介绍LSI SAS3108 RAID控制卡的外观、特性、以及配置方法。

本章节涉及的截图以4.660.00-8140 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

7.1  概述

7.2  功能

7.3  初始配置

7.4  常用配置

7.5  故障处理

7.6  管理界面介绍

7.7  OS命令行工具

8.1 概述

LSI SAS3108 RAID 控制卡(以下简称LSI SAS3108)是基于MegaRAID架构的8端口12Gbit/s SAS控制卡,并采用PCIe3.0 x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

LSI SAS3108用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

LSI SAS3108自带的CacheRAID控制卡性能的提升有非常重要的作用,主要体现在:

l     在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

l     在读数据时,如果可以直接在Cache中命中的话,将减少硬盘寻道操作,降低响应时间,提升了数据读速度。

l     Cache数据的掉电保护依赖于与RAID控制卡相连的超级电容。超级电容的外形、连接方式、安装方式可参考各服务器的用户指南。

l     配套超级电容使用的TFM扣卡的指示灯说明如8-1所示。

LSI SAS3108的结构如8-1所示。

图8-1 LSI SAS3108外观

 

1

TFM扣卡状态指示灯

2

TFM扣卡故障指示灯

3

TFM扣卡电源指示灯

4

TFM扣卡(配套超级电容使用)

5

超级电容接口

6

超级电容

7

Xcede连接器

8

RAID控制卡

9

miniSAS接口(port ASFF-8643

10

miniSAS接口(port BSFF-8643

 

表8-1 TFM扣卡指示灯说明

指示灯

颜色

说明

TFM扣卡电源指示灯

绿色

l     亮:服务器主板掉电时,超级电容激活并为Cache供电。

l     灭:超级电容不供电。

TFM扣卡状态指示灯

蓝色

l     亮:Cache处于读写状态。

l     灭:Cache无数据读写操作。

TFM扣卡故障指示灯

橙色

l     亮:超级电容故障。

l     灭:超级电容正常。

 

RAID控制卡指示灯

LSI SAS3108扣卡包含两种类型,分别如8-28-3所示。

图8-2 LSI SAS3108扣卡(1

 

表8-2 指示灯说明

序号

位置

指示灯

颜色

说明

指示灯异常处理策略

1

D8

VCC_1V5 电源指示灯

绿色

灯亮:电压正常

灯灭:电压异常

如果灯灭,需要更换RAID控制卡

2

D7

心跳指示灯

绿色

闪烁:RAID控制卡心跳正常

灯灭:RAID控制卡心跳异常

如果灯灭,需要更换RAID控制卡

3

D4

SYS_ERR1 指示灯

红色

灯亮:RAID控制卡出现ERR1告警

灯灭:RAID控制卡工作正常

如果灯亮,需要更换RAID控制卡

4

D1

SYS_ERR0 指示灯

红色

灯亮:RAID控制卡出现ERR0告警

灯灭:RAID控制卡工作正常

如果灯亮,需要更换RAID控制卡

5

D6

Global drive fault 指示灯

红色

灯亮:RAID控制卡FW工作异常

灯灭:RAID控制卡FW工作正常

如果灯亮,需要更换RAID控制卡

6

D5

Write Pending指示灯

红色

灯亮:RAID控制卡当前Cache中有数据

灯灭:RAID控制卡当前Cache中无数据

不涉及

 

图8-3 LSI SAS3108扣卡(2

 

表8-3 指示灯说明

序号

位置

指示灯

颜色

说明

指示灯异常处理策略

1

D8

VCC_1V5 电源指示灯

绿色

灯亮:电压正常

灯灭:电压异常

如果灯灭,需要更换RAID控制卡

2

D7

心跳指示灯

绿色

闪烁:RAID控制卡心跳正常

灯灭:RAID控制卡心跳异常

如果灯灭,需要更换RAID控制卡

3

D2

SYS_ERR1 指示灯

红色

灯亮:RAID控制卡出现ERR1告警

灯灭:RAID控制卡工作正常

如果灯亮,需要更换RAID控制卡

4

D1

SYS_ERR0 指示灯

红色

灯亮:RAID控制卡出现ERR0告警

灯灭:RAID控制卡工作正常

如果灯亮,需要更换RAID控制卡

5

D4

Global drive fault 指示灯

红色

灯亮:RAID控制卡FW工作异常

灯灭:RAID控制卡FW工作正常

如果灯亮,需要更换RAID控制卡

6

D3

Write Pending指示灯

红色

灯亮:RAID控制卡当前Cache中有数据

灯灭:RAID控制卡当前Cache中无数据

不涉及

 

8.2 功能

8.2.1 支持多种RAID类型

LSI SAS3108支持的硬盘、虚拟磁盘、硬盘组数量分别为:

l     最多支持32240个硬盘(LSI SAS3108支持2种规格的RAID Key,分别支持32盘和240盘)。

该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

l     最多支持64个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

l     最多支持64个硬盘组(即配置界面中看到的“Drive Group”),每个硬盘组最多支持32240个硬盘。

l     每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

LSI SAS3108支持的RAID类型及对应的硬盘个数如8-4所示。

表8-4 RAID-硬盘参数

RAID级别

支持硬盘数

支持子组数

子组支持硬盘数

允许坏盘数

RAID 0

132

不涉及

不涉及

0

RAID 1

2~32(偶数)

硬盘数÷2

RAID 5

332

1

RAID 6

332

2

RAID 10

4~32/240(偶数)

28RAID 1

2~16/32(偶数)

子组数

RAID 50

632/240

28RAID 5

316/32

子组数

RAID 60

832/240

28RAID 6

316/32

子组数x2

 

l     不支持RAID 00级别。

l     子组数:子RAID的个数,例如RAID 50由两个RAID 5组成,则子组数为2

l     RAID 10RAID 50每个子组中最多允许1个坏盘。

l     RAID 60每个子组中最多允许2个坏盘。

l     根据配置的RAID Key类型不同,RAID 105060支持的硬盘数有所不同。

l     Windows硬盘管理界面中,LSI SAS3108的虚拟磁盘(Virtual Drive)和JBOD盘的“Bus Type”均显示为“RAID”。

l     RAID105060包含的总硬盘数由子组数和子组支持的硬盘数共同决定。

8.2.2 硬盘热备份

LSI SAS3108的热备功能分为两种:热备盘和紧急备份。

热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     Global HSP:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的硬盘故障时,全局热备盘均可自动替代。

配置方法请参见8.4.1.1 配置全局热备盘

l     Dedicated HSP:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的硬盘故障时,局部热备盘可自动替换。

配置方法请参见8.4.1.2 配置局部热备盘

热备盘容量需大于等于成员盘容量。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

紧急备份

使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的空闲盘会自动替代故障成员盘并进行重构,避免数据丢失。

l     紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。

l     在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。

l     紧急备份的硬盘生效次序:相同类型硬盘 > 相同接口不同介质类型硬盘 > 不同接口相同介质类型硬盘 > 不同接口不同介质类型硬盘。

紧急备份有两种情况,对应了两种设置:

l     当成员盘fail时,空闲盘替代成员盘作为紧急备份。

l     当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。

具体配置方法请参见8.4.2 设置紧急热备功能

8.2.3 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考8.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

8.2.4 回拷

具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。

l     不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:

l     RAID组状态保持“Optimal”不变。

l     热备盘状态由“Online”变为“Hot Spare”。

l     新加入硬盘状态由“Copyback/Copybacking”变为“Online”。

l     可使用命令行工具暂停或继续回拷。

l     若回拷时重启服务器,进度将保存。

l     局部热备以及全局热备,更换故障盘后,均会产生回拷。

8.2.5 硬盘分条

条带化

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待。

条带化技术是一种自动的将I/O的负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

影响条带化效果的因素有:

l     条带宽度:指同时可以并发读或写的条带数量。

这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。在其他条件一样的前提下,一个由818G硬盘组成的阵列相比一个由436G硬盘组成的阵列具有更高的传输性能。

l     条带大小:指写在每块硬盘上的条带数据块的大小。

分条

硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。

LSI SAS3108支持多种条带大小,包括64KB128KB256KB512KB1MB,默认配置为256KB

配置RAID时一般采用默认值。

8.2.6 RAID级别迁移

RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见8.4.5 迁移RAID级别

当前支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1RAID 5RAID 6

l     RAID 1迁移到RAID 0RAID 5RAID 6

l     RAID 5迁移到RAID 0RAID 6

l     RAID 6迁移到RAID 0RAID 5

RAID迁移对硬盘数量的要求如8-5所示。

表8-5 RAID迁移的硬盘数量说明

迁移RAID级别

原始硬盘组硬盘数量

迁移后的硬盘组硬盘数量

RAID 0迁移到RAID 1

132

2~32(偶数)

RAID 0迁移到RAID 5

132

332

RAID 0迁移到RAID 6

132

332

RAID 1迁移到RAID 0

2~32(偶数)

2~32

RAID 1迁移到RAID 5

2~32(偶数)

332

RAID 1迁移到RAID 6

2~32(偶数)

332

RAID 5迁移到RAID 0

332

332

RAID 5迁移到RAID 6

332

332

RAID 6迁移到RAID 0

332

332

RAID 6迁移到RAID 5

332

332

 

8.2.7 初始化

VD初始化

创建VDVirtual Drive)后,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。LSI SAS3108提供了多种相应的初始化方式:

l     前台初始化:

     快速初始化:Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。

     完全初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。

l     后台初始化:

     对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。

     对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。

l     一致性校验和后台初始化通常会对性能造成一定损失,直至该操作完成。

l     一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。

硬盘初始化

硬盘可执行的初始化包括:

l     Initialize Drive:对前100MByte空间进行全写0操作。

l     Drive Erase:对全部空间进行写0操作。

不支持停止SATA SSD的擦除和初始化过程。

8.2.8 可用容量扩展

LSI SAS3108支持的容量扩展方式有两种:

l     通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。

详细操作方法可参考8.4.4 添加新硬盘到RAID

l     通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。

详细操作方法可参考8.4.3 扩展Virtual Drives可用空间

l     只有RAID 0RAID 1RAID 5RAID 6支持增加硬盘扩容。

l     RAID10RAID 50RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0RAID 5RAID 6每次只能增加1块硬盘。

l     当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见8.7.2.31 通过增加成员盘可用容量扩容RAID

8.2.9 安全数据擦除

安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘和硬盘的安全擦除功能:

l     Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。

l     Normal:对虚拟磁盘或硬盘进行三轮擦除动作。

l     Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。

全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。

LSI SAS3108支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。

8.2.10 写洞保护

系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况,称之为写洞。

将写失败的数据备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:

l     RAID  1RAID 5RAID 6RAID 10RAID 50RAID 60支持写洞保护,Write hole数据都保存在掉电保护区,不需要开关控制。

     掉电保护装置可用时,Write hole数据异常掉电重启后会进入恢复流程。

     掉电保护装置不可用时,记录在掉电保护区的Write hole数据异常掉电后丢失,不做Write hole恢复。

l     RAID 1RAID 5掉线盘时不可做写洞保护。

l     RAID 6掉线一块盘时可做写洞保护。

l     RAID 10RAID 50RAID 60部分降级时可做写洞保护,按子组恢复数据。完全降级时不可做写洞保护。

l     不对RAID 0做写洞保护。

8.2.11 读写高速缓存

LSI SAS3108支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:

l     Read:读策略选择“Read Ahead”或“Ahead”模式,LSI SAS3108在读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,提升了数据读速度。

l     Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,LSI SAS3108就向HOST发出数据传输完成的信号。

在写数据时,直接写入Cache,当写入的数据积累到一定程度,LSI SAS3108才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

8.2.12 数据掉电保护

数据写入高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用高速缓存来提升系统性能。

l     开启高速缓存可提升整机写性能,当服务器写压力减小或高速缓存将写满时,数据再由高速缓存写入硬盘。

l     开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。

为了提升整机的高读写性能和高速缓存中数据的安全,可为LSI SAS3108配置超级电容。

超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将高速缓存中的数据写入超级电容模块中的NAND Flash中。

8.2.13 CacheCade

LSI SAS3108在配置了特定的RAID Key后,支持CacheCade Pro 2.0特性。

CacheCade允许RAID控制卡使用SSD硬盘创建一个CacheCade专用的虚拟磁盘作为二级Cache,为当前存在的RAID提供更好的I/O性能。

8.2.14 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     动态扩盘

l     完全初始化或后台初始化

l     一致性校验

8.2.15 自动SMART扫描

S.M.A.R.TSelfMonitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免电脑数据受到损失。

RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,便会记录日志。

8.2.16 硬盘节能

RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SASSATA机械硬盘均支持此功能。

默认情况下,硬盘节能功能处于开启状态。

当硬盘节能功能开启且在指定时间内没有I/O访问时,RAID控制卡下挂载的“Uncongfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。

8.2.17 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

LSI SAS3108可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在LSI SAS3108下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。

LSI SAS3108支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

如果需要使能硬盘直通功能,请在8-101所示界面的“JBOD Mode”参数进行设置。

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

8.2.18 硬盘漫游

硬盘漫游是指在同一控制卡下移动物理硬盘。控制卡将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行磁盘漫游。

要使用硬盘漫游,按以下步骤操作:

1.     关闭操作系统。

2.     将服务器下电。

3.     将物理硬盘移动到背板所需位置。

4.     执行安全检查。确保正确插入物理硬盘。

5.     将服务器上电。

6.     控制卡从物理硬盘上的配置数据中检测到RAID配置。

8.2.19 导入外部配置

如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。

此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置的漫游。

8.2.20 硬盘故障记录

LSI SAS3108提供硬盘故障记录功能:

l     使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。

l     禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,LSI SAS3108会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回烤),此时可能会覆盖新硬盘上原有的数据。

维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。

l     使能该功能后,当硬盘故障时,会点亮Fault指示灯。

l     禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。

默认情况下,LSI SAS3108使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。

8.2.21 一致性校验

针对有冗余功能的RAID 156105060RAID控制卡可以对RAID组的硬盘数据进行一致性校验,对硬盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。

由于RAID 0不具备冗余性,因此不支持一致性校验。

建议每月至少进行一次一致性校验。

8.3 初始配置

文档中描述的关于LSI SAS3108的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。

8.3.1 进入管理界面

操作场景

该任务指导用户登录LSI SAS3108的配置管理界面。

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

重启服务器。当出现如8-4所示界面时,按“F11”键。

图8-4 BIOS启动界面(1

 

                                步骤 2     输入密码,并按“Enter”。

进入如8-5所示界面。

图8-5 BIOS启动界面(2

 

                                步骤 3     选择“Device Manager”并按“Enter”。

显示当前存在的RAID控制卡列表,如8-6所示。

图8-6 RAID控制卡列表

 

如果Device Manager界面显示“Some drivers are not healthy”,请参见8.5.4 Device ManagerRAID控制卡状态显示Not Healthy进行修复。

                                步骤 4     选择要操作的LSI SAS3108控制卡,按“Enter”。

进入如8-78-8所示主界面,界面参数如8-6所示。

图8-7 LSI SAS3108主界面(1

 

图8-8 LSI SAS3108主界面(2

 

表8-6 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

说明

LSI SAS3108不支持在此界面升级FW

Silence Alarm

板载蜂鸣器的使能状态。

LSI SAS3108未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

8.3.2 创建RAID 0

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     LSI SAS3108支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看8.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见8.3.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如8-98-10所示,参数说明如8-7所示。

图8-9 Create Virtual Drive1

 

图8-10 Create Virtual Drive2

 

表8-7 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。默认配置为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认取值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接受到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     默认取值为“Write Back”

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认取值为Direct

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

默认取值为Read/Write

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

默认取值为Unchanged

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

在打开的列表中选择“Unconfigured Capacity”并按“Enter”。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”打开添加成员盘的界面,如8-11所示,界面参数如8-8所示。

图8-11 添加成员盘

 

表8-8 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     8-8所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

硬盘后的“[X]”表示该硬盘已选择。

6.     选择“Apply Changes”按“Enter”保存配置。

界面提示“The operation has been performed successfully.

7.     通过“↓”选择“OK”并按“Enter”,完成成员盘配置。

                                步骤 4     按照8-7所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照8.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     通过“↓”选择“OK”完成配置。

                                步骤 6     检查配置结果。

1.     按“ESC”返回上级界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

                                步骤 7     退出配置界面。

1.     连续按“ESC”返回BIOS的“Advanced”界面。

2.     按“F10”退出BIOS配置界面。

弹出操作确认框。

3.     选择“Yes”。

提示重启系统。

4.     重启服务器。

----结束

8.3.3 创建RAID 1

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     LSI SAS3108支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看8.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见8.3.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如8-128-13,参数说明如8-9所示。

图8-12 Create Virtual Drive1

 

图8-13 Create Virtual Drive2

 

表8-9 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。默认配置为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认取值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接受到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     默认取值为“Write Back”

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认取值为Direct

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

默认取值为Read/Write

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

默认取值为Unchanged

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

在打开的列表中选择“Unconfigured Capacity”并按“Enter”。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”打开添加成员盘的界面,如8-14所示,界面参数如8-10所示。

图8-14 添加成员盘

 

表8-10 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     8-10所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

硬盘后的“[X]”表示该硬盘已选择。

6.     选择“Apply Changes”按“Enter”保存配置。

界面提示“The operation has been performed successfully.

7.     通过“↓”选择“OK”并按“Enter”,完成成员盘配置。

                                步骤 4     按照8-9所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照8.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     通过“↓”选择“OK”完成配置。

                                步骤 6     检查配置结果。

1.     按“ESC”返回上级界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

                                步骤 7     退出配置界面。

1.     连续按“ESC”返回BIOS的“Advanced”界面。

2.     按“F10”退出BIOS配置界面。

弹出操作确认框。

3.     选择“Yes”。

提示重启系统。

4.     重启服务器。

----结束

8.3.4 创建RAID 5

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     LSI SAS3108支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看8.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见8.3.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如8-158-16所示,参数说明如8-11所示。

图8-15 Create Virtual Drive1

 

图8-16 Create Virtual Drive2

 

表8-11 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。默认配置为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认取值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接受到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     默认取值为“Write Back”

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认取值为Direct

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

默认取值为Read/Write

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

默认取值为Unchanged

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中通过“↑”、“↓”选择要配置的RAID级别“RAID 5”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

在打开的列表中选择“Unconfigured Capacity”并按“Enter”。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”打开添加成员盘的界面,如8-17所示,界面参数如8-12所示。

图8-17 添加成员盘

 

表8-12 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     8-12所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

硬盘后的“[X]”表示该硬盘已选择。

6.     选择“Apply Changes”按“Enter”保存配置。

界面提示“The operation has been performed successfully.

7.     通过“↓”选择“OK”并按“Enter”,完成成员盘配置。

                                步骤 4     按照8-11所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照8.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     通过“↓”选择“OK”完成配置。

                                步骤 6     检查配置结果。

1.     按“ESC”返回上级界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

                                步骤 7     退出配置界面。

1.     连续按“ESC”返回BIOS的“Advanced”界面。

2.     按“F10”退出BIOS配置界面。

弹出操作确认框。

3.     选择“Yes”。

提示重启系统。

4.     重启服务器。

----结束

8.3.5 创建RAID 6

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     LSI SAS3108支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看8.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见8.3.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如8-188-19所示,参数说明如8-13所示。

图8-18 Create Virtual Drive1

 

图8-19 Create Virtual Drive2

 

表8-13 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。默认配置为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认取值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接受到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     默认取值为“Write Back”

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认取值为Direct

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

默认取值为Read/Write

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

默认取值为Unchanged

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 6”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

在打开的列表中选择“Unconfigured Capacity”并按“Enter”。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”打开添加成员盘的界面,如8-20所示,界面参数如8-14所示。

图8-20 添加成员盘

 

表8-14 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     8-14所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

硬盘后的“[X]”表示该硬盘已选择。

6.     选择“Apply Changes”按“Enter”保存配置。

界面提示“The operation has been performed successfully.

7.     通过“↓”选择“OK”并按“Enter”,完成成员盘配置。

                                步骤 4     按照8-13所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照8.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     通过“↓”选择“OK”完成配置。

                                步骤 6     检查配置结果。

1.     按“ESC”返回上级界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

                                步骤 7     退出配置界面。

1.     连续按“ESC”返回BIOS的“Advanced”界面。

2.     按“F10”退出BIOS配置界面。

弹出操作确认框。

3.     选择“Yes”。

提示重启系统。

4.     重启服务器。

----结束

8.3.6 创建RAID 10

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     LSI SAS3108支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看8.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见8.3.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如8-218-22所示,参数说明如8-15所示。

图8-21 Create Virtual Drive1

 

图8-22 Create Virtual Drive2

 

表8-15 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。默认配置为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认取值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接受到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     默认取值为“Write Back”

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认取值为Direct

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

默认取值为Read/Write

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

默认取值为Unchanged

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

在打开的列表中选择“Unconfigured Capacity”并按“Enter”。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”打开添加成员盘的界面,如8-23所示,界面参数如8-16所示。

图8-23 添加成员盘

 

表8-16 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     8-16所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

l     硬盘后的“[X]”表示该硬盘已选择。

l     RAID 10支持28Span,每个Span支持的硬盘数为2~16/32(偶数),且各个Span的硬盘数量必须保持一致。

l     RAID 10支持的硬盘总数为4~32/240(偶数)。

l     RAID控制卡下面所有RAID组中的硬盘总数超过32240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

界面提示“The operation has been performed successfully.

7.     通过“↓”选择“OK”并按“Enter”,完成成员盘配置。

                                步骤 4     创建第2Span

当配置的级别为RAID10时,需要配置多个Span,此时配置界面如8-24所示。

图8-24 创建RAID 10的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

在打开的列表中选择第2Span的成员盘。

各个Span的硬盘数量必须保持一致。

3.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

4.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

RAID10至少需要创建2Span,最多可以创建8Span

                                步骤 6     按照8-15所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照8.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     通过“↓”选择“OK”完成配置。

                                步骤 8     检查配置结果。

1.     按“ESC”返回上级界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

                                步骤 9     退出配置界面。

1.     连续按“ESC”返回BIOS的“Advanced”界面。

2.     按“F10”退出BIOS配置界面。

弹出操作确认框。

3.     选择“Yes”。

提示重启系统。

4.     重启服务器。

----结束

8.3.7 创建RAID 50

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     LSI SAS3108支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看8.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见8.3.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如8-258-26所示,参数说明如8-17所示。

图8-25 Create Virtual Drive1

 

图8-26 Create Virtual Drive2

 

表8-17 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。默认配置为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认取值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接受到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     默认取值为“Write Back”

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认取值为Direct

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

默认取值为Read/Write

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

默认取值为Unchanged

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 50”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

在打开的列表中选择“Unconfigured Capacity”并按“Enter”。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”打开添加成员盘的界面,如8-27所示,界面参数如8-18所示。

图8-27 添加成员盘

 

表8-18 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     8-18所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

l     硬盘后的“[X]”表示该硬盘已选择。

l     RAID 50支持28Span,每个Span支持的硬盘数为316/32(取决于RAID Key的规格),且各个Span的硬盘数量必须保持一致。

l     RAID 50支持的硬盘总数为6~32/240(取决于RAID Key的规格)。

l     RAID控制卡下面所有RAID组中的硬盘总数超过32240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

界面提示“The operation has been performed successfully.

7.     通过“↓”选择“OK”并按“Enter”,完成成员盘配置。

                                步骤 4     创建第2Span

当配置的级别为RAID50时,需要配置多个Span,此时配置界面如8-28所示。

图8-28 创建RAID 50的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

在打开的列表中选择第2Span的成员盘。

各个Span的硬盘数量必须保持一致。

3.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

4.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

RAID50至少需要创建2Span,最多可以创建8Span

                                步骤 6     按照8-17所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照8.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     通过“↓”选择“OK”完成配置。

                                步骤 8     检查配置结果。

1.     按“ESC”返回上级界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

                                步骤 9     退出配置界面。

1.     连续按“ESC”返回BIOS的“Advanced”界面。

2.     按“F10”退出BIOS配置界面。

弹出操作确认框。

3.     选择“Yes”。

提示重启系统。

4.     重启服务器。

----结束

8.3.8 创建RAID 60

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     LSI SAS3108支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看8.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见8.3.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如8-298-30所示,参数说明如8-19所示。

图8-29 Create Virtual Drive1

 

图8-30 Create Virtual Drive2

 

表8-19 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。默认配置为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认取值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接受到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     默认取值为“Write Back”

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认取值为Direct

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

默认取值为Read/Write

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

默认取值为Unchanged

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 60”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

在打开的列表中选择“Unconfigured Capacity”并按“Enter”。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”打开添加成员盘的界面,如8-31所示,界面参数如8-20所示。

图8-31 添加成员盘

 

表8-20 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     8-20所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

l     硬盘后的“[X]”表示该硬盘已选择。

l     RAID 60支持28Span,每个Span支持的硬盘数为316/32(取决于RAID Key的规格),且各个Span的硬盘数量必须保持一致。

l     RAID 60支持的硬盘总数为6~32/240(取决于RAID Key的规格)。

l     RAID控制卡下面所有RAID组中的硬盘总数超过32240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

7.     界面提示“The operation has been performed successfully.”,通过“↓”选择“OK”并按“Enter,完成成员盘配置。

                                步骤 4     创建第2Span

当配置的级别为RAID60时,需要配置多个Span,此时配置界面如8-32所示。

图8-32 创建RAID 60的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

在打开的列表中选择第2Span的成员盘。

各个Span的硬盘数量必须保持一致。

3.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

4.     单击“OK”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

RAID60至少需要创建2Span,最多可以创建8Span

                                步骤 6     按照8-19所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照8.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     通过“↓”选择“OK”完成配置。

                                步骤 8     检查配置结果。

1.     按“ESC”返回上级界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

                                步骤 9     退出配置界面。

1.     连续按“ESC”返回BIOS的“Advanced”界面。

2.     按“F10”退出BIOS配置界面。

弹出操作确认框。

3.     选择“Yes”。

提示重启系统。

4.     重启服务器。

----结束

8.3.9 配置启动项

同一台服务器配置了单个LSI SAS3108卡或者多种芯片硬盘控制卡的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。

设置启动项的操作方法请参见 BIOS 参数参考 的“设置服务器启动设备”章节。

8.4 常用配置

8.4.1 管理热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

LSI SAS3108控制卡支持2种类型的热备盘:

l     Global Hotspare:即全局热备盘,为控制卡上所有已配置的RAID所共有,1块控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

l     Dedicated Hotspare:即局部热备盘,为控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

8.4.1.1 配置全局热备盘

操作步骤

登录管理界面,具体方法请参见8.3.1 进入管理界面

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如8-33所示。

图8-33 Drive Management

 

                                步骤 2     配置全局热备盘

1.     将“Operation”设置为“Assign Global Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返还上级界面。

----结束

8.4.1.2 配置局部热备盘

操作步骤

RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

登录管理界面,具体操作方法请参见8.3.1 进入管理界面

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如8-34所示。

图8-34 Drive Management

 

                                步骤 2     配置局部热备盘

1.     将“Operation”设置为“Assign Dedicated Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

打开当前存在的虚拟磁盘列表。

3.     选择要关联的虚拟磁盘并按“Enter”。

显示The operation has been performed successfully

4.     选择“OK”按“Enter”完成配置并返还上级界面。

----结束

8.4.1.3 删除热备盘

操作场景

该任务指导用户删除热备盘。

当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

必备事项

前提条件

已登录管理界面,具体方法请参见8.3.1 进入管理界面

数据

该操作无需准备数据。

操作步骤

进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如8-35所示。

图8-35 Drive Management

 

                                步骤 2     删除热备盘

1.     将“Operation”设置为“Unassign Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     将“Confirm”设置为“Enable”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返还上级界面。

----结束

8.4.2 设置紧急热备功能

操作步骤

登录管理界面,具体操作方法请参见8.3.1 进入管理界面

                                步骤 1     进入“Advanced Controller Properties”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

3.     选择“Advanced Controller Properties”并按“Enter”。

进入“Advanced Controller Properties”界面,如8-36所示。

图8-36 Advanced Controller Properties1

 

                                步骤 2     设置紧急热备。

1.     选择“Spare”并按“Enter”。

2.     将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如8-37所示。

图8-37 Advanced Controller Properties2

 

3.     选择“Apply Changes”并按“Enter”。

4.     选择“OK”并按“Enter”,完成配置。

----结束

8.4.3 扩展Virtual Drives可用空间

操作场景

Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

该任务指导安装调测工程师扩大Virtual Drives的可用空间。

必备事项

前提条件

已登录管理界面,具体方法请参见8.3.1 进入管理界面

数据

操作之前请备份数据。

操作步骤

进入要操作的虚拟磁盘界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如8-38所示。

图8-38 Virtual Drive Management

 

                                步骤 2     扩容虚拟磁盘

1.     将“Operation”设置为“Expand Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入虚拟磁盘扩容界面,如8-39界面所示,界面参数如8-21所示。

图8-39 Expand Virtual Drive

 

表8-21 参数说明

参数

参数说明

Current Capacity

虚拟磁盘当前容量。

Available Capacity

可用于扩展的容量。

Enter a Percentage of Available Capacity

输入扩容比例。

操作方法:

1.     选择该配置项并按“Enter”。

2.     输入要配置的百分比并按“Enter”。

Capacity of Virtual Drive after Expansion

扩容后虚拟磁盘容量。

 

3.     设置扩容百分比。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully

5.     按“OK”完成配置并返还上级界面。

----结束

8.4.4 添加新硬盘到RAID

操作场景

该任务指导用户添加新硬盘到RAID中。

RAID的扩容方式有如下2种:

l     通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。

l     通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。

 

l     只有RAID 0RAID 1RAID 5RAID 6支持增加硬盘扩容。

l     RAID10RAID 50RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

对系统的影响

增加硬盘扩容过程中,如果出现硬盘故障,会导致:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID

请谨慎执行增加硬盘扩容操作。

必备事项

前提条件

添加硬盘扩容之前,需具备如下条件:

l     服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     已登录管理界面,具体方法请参见8.3.1 进入管理界面

数据

操作之前建议先备份数据。

操作步骤

进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”。

进入虚拟磁盘选项界面,如8-40所示。

图8-40 虚拟磁盘选项界面

 

                                步骤 2     添加新硬盘

1.     选择要进行扩容的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如8-41所示。

图8-41 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Go”。

4.     选择要扩容的RAID级别。

 

增加硬盘扩容时,请保证该处的RAID级别与原级别一致。

5.     选择“Choose the Operation”,并按“Go”。

进入硬盘选择界面,如8-42所示。

图8-42 Select Drives

 

6.     选择要增加的硬盘,并按“Apply Changes”。

进入确认操作界面。

l     增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0RAID 5RAID 6每次只能增加1块硬盘。

l     RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。

7.     选择“Confirm”并按“Yes”。

8.     选择“OK”并按“Enter”。

返回到如8-43所示界面。

图8-43 Reconfigure Virtual Drives

 

9.     选择“Start Operation”并按“Enter”。

进入如8-44所示界面,提示操作完成。

图8-44 操作成功

 

10.     选择“OK”并按“Enter”。

按“Esc”返回虚拟磁盘选项界面,验证扩容结果,如8-45所示,表示RAID正在进行扩容。

图8-45 Virtual Drive Management

 

----结束

8.4.5 迁移RAID级别

操作场景

随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。

在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。

对系统的影响

RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID

请谨慎执行RAID级别迁移操作。

必备事项

前提条件

迁移RAID级别之前,需具备如下条件:

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     当前存在的硬盘个数满足目标RAID级别要求。

l     已登录管理界面,具体方法请参见8.3.1 进入管理界面

LSI SAS3108RAID控制卡支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1RAID 5RAID 6

l     RAID 1迁移到RAID 0RAID 5RAID 6

l     RAID 5迁移到RAID 0RAID 6

l     RAID 6迁移到RAID 0RAID 5

RAID迁移对硬盘数量的要求如8-5所示。

l     RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     迁移只支持增加与RAID组成员盘同类型同规格的硬盘。

l     为防止数据丢失,请在该操作之前备份当前RAID组的数据。

l     只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。

l     迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。

数据

为防止数据丢失,请在该操作之前备份当前RAID的数据。

操作步骤

进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”并按“Enter”。

进入虚拟磁盘选项界面,如8-46所示。

图8-46 虚拟磁盘选项界面

 

                                步骤 2     选择RAID迁移的目标级别。

下面以将RAID 0迁移到RAID 1为例进行说明。

1.     选择要进行迁移的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如8-47所示。

图8-47 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”。

4.     选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如8-48所示。不设置时默认与原RAID组配置一致。

图8-48 Advanced...

 

5.     选择“Go”,并按“Enter”。

进入RAID配置界面,如8-49所示。

图8-49 Reconfigure Virtual Drives

 

6.     选择“New RAID Level”并按“Enter”。

打开RAID迁移的目标级别选择窗口,如8-50所示。

图8-50 选择新的RAID级别

 

7.     选择“RAID 1”并按“Enter”。

                                步骤 3     添加硬盘。

1.     选择“Choose the operation”并按“Enter”。

打开硬盘选择窗口。

2.     选择要增加的硬盘并按“Enter”。

l     RAID迁移对硬盘数量的要求请参见8-5

l     增加的硬盘要与RAID组的成员盘同类型同规格。

3.     选择“Apply Changes”并按“Enter”。

弹出操作确认会话框。

4.     选择“Confirm”并按“Enter”。

5.     选择“Yes”并按“Enter”。

提示操作成功。

6.     选择“OK”并按“Enter”返回8-49界面。

                                步骤 4     RAID级别迁移。

1.     选择“Start Operation”并按“Enter”。

提示操作成功。

                                步骤 5     查看迁移结果。

1.     进入Virtual Drive Management界面,检查迁移结果,如8-51所示,表示RAID正在进行迁移。

图8-51 查看迁移结果

 

l     迁移过程中若重启服务器,该任务将在重启后继续进行。

l     迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。

2.     选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 0”变成“RAID 1”,RAID组容量增大,且“Status”状态显示为“Optimal”,表示RAID迁移成功。

----结束

8.4.6 删除RAID

操作场景

该任务指导安装调测工程师如何删除RAID

必备事项

前提条件

已登录管理界面,具体方法请参见8.3.1 进入管理界面

数据

操作之前请备份数据。

操作步骤

进入“Virtual Dashboard View”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如8-52所示。

图8-52 Virtual Drive Management

 

                                步骤 2     删除虚拟磁盘

1.     将“Operation”设置为“Delete Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     将“Confirm”设置为“Enable”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返还上级界面。

----结束

8.4.7 重构RAID

RAID中成员硬盘故障时,无论是更换新硬盘还是使用热备盘替代故障硬盘,都需要进行RAID重构。

默认情况下,当RAID有重构需求,并且有满足同步条件的硬盘存在时,系统自动启动重构操作。但当控制卡的“Auto Rebuild”属性为“Disable”时,则需要手动重构。

该任务指导安装调测工程师进行RAID重构操作。

界面介绍

在“Main Menu”界面中选择“Drive Management”节点下具体的硬盘,并按“Enter”可打开该硬盘的操作菜单,如8-53,可执行的操作如8-22所示。

图8-53 “Drive Management”操作菜单

 

表8-22 Drive Group”节点可操作接口

操作

说明

Select operation

选择以下操作。

Star Locate

点亮硬盘定位指示灯。

Stop Locate

熄灭硬盘定位指示灯。

Rebuild

重构RAID

l     Suspend

l     Resume

l     Stop

Place drive Online

将硬盘上线。

Mark drive as Missing

将离线的硬盘脱离RAID组。

 

重构RAID

在菜单中选择“Rebuild”并按“Enter”。

打开Rebuild菜单。

                                步骤 1     选择操作类型,并按“Enter”。

弹出操作确认对话框。

                                步骤 2     选择“YES”并按“Enter”。

----结束

当出现硬盘离线情况时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

8.4.8 查看RAID控制卡属性

操作场景

用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。

该任务指导安装调测工程师查看RAID控制卡属性。

必备事项

前提条件

已登录管理界面,具体方法请参见8.3.1 进入管理界面

数据

该操作无需准备数据。

操作步骤

进入“Controller Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息,如8-54所示,参数说明如8-23所示。

图8-54 Controller Management

 

表8-23 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Select Boot Device

当前启动项。

说明

EFI模式下,该配置项不生效。

PCI ID

RAID控制卡的PCI ID

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Connector Count

RAID控制卡与主板的接口个数。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制卡操作。

操作方法:选中该操作项并按“Enter”进入详细配置界面。

Advanced Controller Properties

查看和修改控制卡的高级属性。

操作方法:选中该操作项并按“Enter”进入详细配置界面。

 

                                步骤 2     查看控制卡高级属性

1.     选择“Advanced Controller Properties”并按“Enter”。

进入控制卡高级属性界面,如8-55所示,参数说明如8-24所示。

在该界面下,可查看并修改RAID控制卡的高级属性。

图8-55 Advanced Controller Properties

 

表8-24 参数说明

参数

说明

Cache and Memory

查看控制卡CacheMemory信息。

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

Spare

设置控制卡热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

LSI SAS3108 RAID控制卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。

Controller BIOS

控制卡BIOS的使能情况。

ROC Temperature

控制卡温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Expanded Virtual Drive Support

是否支持扩容虚拟磁盘的功能。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见8.4.9 导入和清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验

JBOD Mode

是否使能硬盘直通功能。

 

----结束

8.4.9 导入和清除外部配置

操作场景

l     服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。

 

l     如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!

l     为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

导入外部配置

登录管理界面,具体方法请参见8.3.1 进入管理界面

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如8-56所示。

图8-56 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如8-57所示。

图8-57 外部配置

 

                                步骤 5     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 8     单击“OK”完成配置返回上级界面。

----结束

清除外部配置

登录管理界面,具体方法请参见8.3.1 进入管理界面

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如8-58所示。

图8-58 Manage Foreign Configuration

 

                                步骤 4     选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 5     选择“Confirm”并按“Enter”。

                                步骤 6     在列表中选择“Enable”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 8     单击“OK”完成配置返回上级界面。

----结束

8.4.10 管理CacheCade

LSI SAS3108通过特殊的RAID Key,提供CacheCade功能,扩展Read Caching容量,并引入Write Caching。使用SSD硬盘创建一个CacheCade专用的RAID作为二级Cache,为当前存在的RAID提供更好的I/O性能。

8.4.10.1 创建CacheCade虚拟磁盘

操作场景

该任务指导用户创建CacheCade虚拟磁盘。

LSI SAS3108配置CacheCadeRAID Key后,可在CU界面创建CacheCade虚拟磁盘,为当前存在的RAID提供二级Cache

必备事项

前提条件

已登录管理界面,具体方法请参见8.3.1 进入管理界面

数据

硬件

存在空闲的SSD硬盘。

操作步骤

确认RAID Key已激活。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     按照“Controller Management > Advanced Controller Management > Manage MegaRAID Advanced Software Options”路径打开“Manage MegaRAID Advanced Software Options”界面。

当界面中存在“CacheCade Pro 2.0”且状态为“Unlimited”时,表明支持CacheCadeKey已激活。

3.     按“ESC”返回“Main Menu”菜单。

确认空闲SSD硬盘已存在。

4.     选择“Drive Management”进入硬盘列表。

5.     确认当前存在空闲的SSD硬盘。

6.     按“ESC”返回“Main Menu”菜单。

                                步骤 1     配置CacheCade虚拟磁盘

1.     按照“Configuration Management > Create CacheCade Virtual Drive”路径打开“Create CacheCade Virtual Drive”界面。

打开“Create CacheCade Virtual Drive”界面如8-59所示,界面参数如8-25所示。

图8-59 “Create CacheCade Virtual Drive”界面

 

表8-25 参数说明

参数

说明

CacheCade Virtual Drive Name

用户自定义的CacheCade虚拟磁盘名称。

设置方法:

1.     将光标移至该配置项并按“Enter”。

2.     输入用户自定义的名称并按“Enter”。

Logical Sector Size

CacheCade虚拟磁盘的扇区大小。该参数不可手动修改,系统会根据后续选择的SSD硬盘自动适配。

RAID Level

CacheCade虚拟磁盘的RAID级别。

设置方法:

1.     将光标移至该配置项并按“Enter”。

2.     在菜单中选择要配置的RAID级别并按“Enter”。

说明

CacheCade虚拟磁盘仅支持RAID 0RAID 1

Write Cache Policy

CacheCade虚拟磁盘的读写策略,默认为“Write Through”。

l     Write Back:该模式下,CacheCade虚拟磁盘同时用作读写Cache。当由于硬盘故障等原因导致RAID降级时,该CacheCade仅作为Read Cache

l     Write Through:该模式下,CacheCade虚拟磁盘仅用作Read Cache

设置方法:

1.     将光标移至该配置项并按“Enter”。

2.     在菜单中选择要配置的读写策略并按“Enter”。

 

2.     按照8-25所述配置CacheCade虚拟磁盘的名称、RAID级别以及读写策略。

3.     在“SELECT SSD DRIVES”列表中按“Enter”选中要加入CacheCade虚拟磁盘的SSD硬盘。

SSD硬盘前显示“[X]”时,表示该硬盘已选中。

4.     将光标移至“Create CacheCade Virtual Drive”并按“Enter”。

界面提示The operation has been performed successfully

5.     将光标移至“OK”并按“Enter”。

----结束

8.4.10.2 删除CacheCade虚拟磁盘

操作场景

该任务指导用户删除CacheCade虚拟磁盘。

必备事项

前提条件

已登录管理界面,具体方法请参见8.3.1 进入管理界面

数据

操作步骤

在主界面中选择“Main Menu”并按“Enter”。

                                步骤 1     选择“Virtual Drive Management”进入虚拟磁盘列表。

                                步骤 2     选择要删除的CacheCade虚拟磁盘并按“Enter”。

进入虚拟磁盘界面,如8-60所示,界面参数如8-26所示。

图8-60 虚拟磁盘属性

 

表8-26 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:定位虚拟磁盘的所有硬盘。

l     Stop Locate:取消定位。

l     Delete Virtual Drive:删除虚拟磁盘。

操作方法:

1.     选择该配置项并按“Enter”。

2.     在列表中选择要执行的操作并按“Enter”。

Name

CacheCade虚拟磁盘名称。

操作方法:

1.     将光标移至该配置项并按“Enter”。

2.     输入用户自定义的名称并按“Enter”。

Raid Level

CacheCade虚拟磁盘RAID级别。

Status

CacheCade虚拟磁盘当前运行状态。

Size

CacheCade虚拟磁盘容量。

View Associated Drives

查看CacheCade虚拟磁盘的成员盘属性。

操作方法:选择该配置项并按“Enter”进入详细的操作界面。

Current Write Cache Policy

CacheCade虚拟磁盘的当前读写策略。

l     Write Back:该模式下,CacheCade虚拟磁盘同时用作读写Cache。当由于硬盘故障等原因导致RAID降级时,该CacheCade仅作为Read Cache

l     Write Through:该模式下,CacheCade虚拟磁盘仅用作Read Cache

设置方法:

1.     将光标移至该配置项并按“Enter”。

2.     在菜单中选择要配置的读写策略并按“Enter”。

Default Write Cache Policy

CacheCade虚拟磁盘默认的读写策略。

 

                                步骤 3     在“Operation”菜单中选择“Delete Virtual Drive”并按“Enter”。

                                步骤 4     将光标移至“Go”并按“Enter”。

显示操作确认界面。

                                步骤 5     将光标移至“Confirm”并按“Enter”。

使其状态变为“[X]”。

                                步骤 6     选择“Yes”并按“Enter”。

提示CacheCade虚拟磁盘已删除。

                                步骤 7     将光标移“OK”并按“Enter”。

----结束

8.4.10.3 在普通虚拟磁盘上启用SSD Caching

操作场景

有两种方式可以在普通虚拟磁盘上使能SSD Caching

l     配置CacheCadeRAID Key后,在创建普通虚拟磁盘过程中会提示是否启用SSD Caching功能。

l     配置CacheCadeRAID Key后,可通过修改普通虚拟磁盘的属性来启用SSD Caching功能。

该任务指导用户通过修改普通虚拟磁盘的属性来启用SSD Caching功能。

必备事项

前提条件

已登录管理界面,具体方法请参见8.3.1 进入管理界面

数据

操作步骤

在主界面中选择“Main Menu”并按“Enter”。

                                步骤 1     选择“Virtual Drive Management”进入虚拟磁盘列表。

                                步骤 2     选择要启用SSD Caching功能的虚拟磁盘并按“Enter”。

进入虚拟磁盘界面,如8-61所示,界面参数如8-27所示。

图8-61 Virtual Drive Management

 

表8-27 参数说明

参数

参数说明

Operation

可执行的操作。

Name

虚拟磁盘名称。

Raid Level

虚拟磁盘RAID级别。

Status

虚拟磁盘当前运行状态。

Size

虚拟磁盘容量。

View Associated Drives

查看虚拟磁盘的成员盘属性。

Advanced

查看虚拟磁盘高级属性。

 

                                步骤 3     在“Operation”菜单中选择“Enable SSD Caching”并按“Enter”。

                                步骤 4     将光标移至“Go”并按“Enter”。

显示操作确认界面。

                                步骤 5     将光标移至“Confirm”并按“Enter”。

使其状态变为“[X]”。

                                步骤 6     选择“Yes”并按“Enter”。

提示The operation has been started successfully

                                步骤 7     将光标移“OK”并按“Enter”。

----结束

8.4.11 创建多个VDVirtual Drive

该场景为使用已存在一个或多个VDRAID组的空闲容量创建多个VD,以RAID0存在一个VD为例,详细操作方法如下:

按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如8-62所示。

图8-62 Create Virtual Drive

 

                                步骤 2     将“Select Drives From”设置为“Free Capacity”,如8-63所示。

图8-63 Create Virtual Drive

 

                                步骤 3     选择“Select Drive Groups”并按“Enter”。

显示当前存在的RAID组(Drive Group),如8-64所示。

图8-64 Select Drive Groups

 

                                步骤 4     选择要创建多个VDRAID组并按“Enter”,如8-65所示。

图8-65 Select Drive Groups

 

                                步骤 5     选择“Apply Changes”并按“Enter”。

提示操作成功。

                                步骤 6     选择“OK”并按“Enter”返回VD配置界面,如8-66所示,参数说明如8-28所示。

图8-66 Create Virtual Drive

 

表8-28 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drive Groups

选择硬盘组。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。默认配置为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认取值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接受到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     默认取值为“Write Back”

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认取值为Direct

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

默认取值为Read/Write

Drive Cache

物理硬盘Cache策略。可配置的状态有:

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。

l     Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。

默认取值为Unchanged

Disable Background Initialization

使能或禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 7     按照8-28所述配置VD的相关属性。

                                步骤 8     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

                                步骤 9     选择“Confirm”并按“Enter”。

                             步骤 10     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                             步骤 11     选择“OK”并按“Enter”完成配置。

可进入Virtual Drive Management界面,查看当前存在的所有VD,如8-67所示。

图8-67 Virtual Drive Management

 

----结束

每个RAID组最多支持创建16VD,如需要继续创建VD,请重复执行步骤1~步骤11

8.4.12 设置JBOD模式

LSI SAS3108支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     LSI SAS3108Firmware版本为6121及以上时,方可配置JBOD模式,且服务器必须已安装对应版本的驱动。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

登录管理界面,具体操作方法请参见8.3.1 进入管理界面

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Properties界面,如8-68所示。

图8-68 Advanced Controller Properties

 

                                步骤 2     选择“JBOD Mode”并按Enter

                                步骤 3     选择“Enabled”并按“Enter”。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

8.4.13 查询RAID控制卡固件版本

查询RAID控制卡固件版本的方法有如下几种:

l     iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。

l     服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见8.7.2.1 查询RAID控制卡配置信息

回显信息中的“FW Version”字段即为RAID控制卡的固件版本。

l     RAID控制卡管理界面查询,具体方法为:

a.     登录RAID控制卡的管理界面,具体操作请参见8.3.1 进入管理界面

b.     在主界面中选择“Main Menu”并按“Enter”。

进入“Main Menu”页面,如8-69所示。

图8-69 Main Menu页面

 

c.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如8-70所示。

图8-70 Controller Management界面

 

8.5 故障处理

介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

8.5.1 硬盘相关故障

8.5.1.1 硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

确认故障硬盘槽位。

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考8.6.2.4 Drive Management

l     通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考8.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

                                步骤 1     更换新硬盘。

 

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考8.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在8.2.1 支持多种RAID类型查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0

     UEFI模式下创建RAID0的方法请参见8.3.2 创建RAID 0

     通过命令行方式创建RAID0的方法请参见8.7.2.2 创建和删除RAID

----结束

8.5.1.2 硬盘状态为failprefail

问题描述

正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代failprefail状态的成员盘并进行重构,避免数据丢失。

但当RAID控制卡未设置紧急热备时,成员盘状态显示为failprefail时,可使用以下方法处理。

处理方法

使用StorCLI工具,具体操作请参考8.7.1 下载和安装StorCLI工具

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考8.7.2.17 设置硬盘状态

storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在EnclosureID

l     slot_id:物理硬盘槽位ID

                                步骤 2     更换离线硬盘。

                                步骤 3     RAID组自动执行重构。

等待重构完成。

----结束

8.5.1.3 硬盘状态为Unconfigured BadUBad

问题描述

硬盘状态显示为Unconfigured BadUBad

处理方法

使用StorCLI工具,具体操作请参见8.7.1 下载和安装StorCLI工具

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见8.7.2.17 设置硬盘状态

storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在EnclosureID

l     slot_id:物理硬盘槽位ID

                                步骤 2     重新查看硬盘状态是否更改为Unconfigured GoodUgood。具体操作请参见8.6.2.4 Drive Management界面或8.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤4

                                步骤 3     查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见8.4.9 导入和清除外部配置8.7.2.37 查看/导入/清除外部配置

l     问题解决 => 处理完毕。

l     问题未解决 => 联系技术支持处理。

----结束

8.5.2 电容故障

问题描述

RAID控制卡电容故障时,可能导致服务器出现如下情况:

l     服务器读写速度显著降低。

l     RAID控制卡的CU界面中显示电容状态异常。

处理方法

进入RAID控制卡的CU界面,查看电容状态是否为“Optimal”。

电容状态可查询“Properties”界面的“Battery Status”参数。

l      => 处理完毕。

l      => 步骤2

                                步骤 1     将服务器下电,打开机箱,并查看RAID控制卡电容是否在位。

l      => 步骤4

l      => 步骤3

                                步骤 2     检查整机配置,为服务器安装电容,查看电容状态是否为“Optimal”。

l      => 处理完毕。

l      => 步骤6

                                步骤 3     重新安装RAID控制卡电容,查看电容状态是否为“Optimal”。

l      => 处理完毕。

l      => 步骤5

                                步骤 4     更换RAID控制卡电容,查看电容状态是否为“Optimal”,且“问题描述”所述的异常状态是否消失。

l      => 处理完毕

l      => 步骤6

                                步骤 5     联系技术支持处理。

----结束

8.5.3 控制卡故障

问题描述

当服务器出现如下现象时,说明控制卡故障。

l     数据无法写入控制卡控制的硬盘。

l     服务器上报控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     查询兼容性查询助手或者联系技术支持处理。

----结束

8.5.4 Device ManagerRAID控制卡状态显示Not Healthy

问题描述

8-71所示,进入“Device Manager”界面后,显示“Some drivers are not healthy”。

图8-71 状态显示

 

处理方法

选择“Some drivers are not healthy”并按“Enter”。

进入健康状态查询界面,如8-72所示。

图8-72 健康状态查询界面

 

                                步骤 2     选择“Repair the whole platform”,并按“Enter”。

进入“Critical Message”界面。

                                步骤 3     查看“Critical Message”界面的打印信息。

l     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone=> 请参见8.5.4.1 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

l     显示“There are offline or missing virtual drives with preserved cache. => 请参见8.5.4.2 There are offline or missing virtual drives with preserved cache

l     显示“The following VDs have missing disks. => 请参见8.5.4.3 The following VDs have missing disks

l     显示“Number of disks exceeded the maximum supported count of 32 disks=> 请参见8.5.4.4 Number of disks exceeded the maximum supported count of 32 disks

l     显示“Memory/battery problems were detected / Unexpected power-loss occurred=> 请参见8.5.4.5 Memory/battery problems were detected / Unexpected power-loss occurred

----结束

RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见0RAID控制卡启动中出现的常见的错误消息及处理方法

8.5.4.1 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

问题描述

8-73所示,选择“Repair the whole platform”,进入“Critical Message”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”。

图8-73 状态显示

 

处理建议

该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:

l     下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。

l     忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:

a.     8-73中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

b.     输入“c”并按“Enter”。

c.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

d.     输入“y”并按“Enter”。

提示Critical Message handling completed. Please exit

e.     按“Esc”退出当前界面。

弹出确认保存配置会话框,如8-74所示。

图8-74 提示保存会话框

 

f.     按“Y”保存配置,操作完成。

g.     Esc键返回“Device Manager”界面。

h.     选择3108RAID控制卡,并按“Enter”,进入RAID控制卡管理界面。

8.5.4.2 There are offline or missing virtual drives with preserved cache

问题描述

8-75所示,进入“Critical Message”界面后,显示There are offline or missing virtual drives with preserved cache

图8-75 状态显示

 

处理方法

8-75中选择“Enter Your Input Here”并按“Enter”。

弹出输入框,如8-76所示。

图8-76 状态显示

 

                                步骤 2     输入任意内容,并按“Enter”。

提示Critical Message handling completed. Please exit

                                步骤 3     按“Esc”键。

弹出操作确认对话框,如8-77所示。

图8-77 “Critical Message”界面

 

                                步骤 4     按“Y”保存配置。

                                步骤 5     按“Esc”键返回“Dashboard View”界面,如8-78所示。

图8-78 “Dashboard View”界面

 

                                步骤 6     选择“Discard Preserved Cache”并按“Enter”。

弹出操作确认对话框,如8-79所示。

图8-79 “Discard Preserved Cache”界面

 

                                步骤 7     选择“Confirm”并按“Enter”。

                                步骤 8     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 9     选择“OK”并按“Enter”。

                             步骤 10     重启服务器。

                             步骤 11     进入“Device Manager”界面,检查界面是否显示The platform is healthy

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

8.5.4.3 The following VDs have missing disks

问题描述

进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。

处理方法

修复RAID控制卡。

1.     选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

2.     输入“c”并按“Enter”。

返回“Driver Healthy Protocol Utility”界面。

3.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

4.     输入“y”并按“Enter”。

提示Critical Message handling completed. Please exit。修复完成。

                                步骤 1     按“Esc”退出当前界面。

弹出操作确认对话框。

                                步骤 2     按“Y”保存配置。

                                步骤 3     重启服务器,进入“Device Manager”界面,检查界面是否显示“The platform is healthy”。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

8.5.4.4 Number of disks exceeded the maximum supported count of 32 disks

问题描述

8-80所示,进入“Driver Healthy Protocol Utility”界面后,显示“Number of disks exceeded the maximum supported count of 32 disks”。

图8-80 状态显示

 

处理方法

出现该打印信息表示当前LSI SAS3108RAID控制卡配置的RAID Key仅支持32个硬盘,请将服务器下电,拔出多余的硬盘,再上电,即会在“Advanced”页签正常显示RAID控制卡信息。如未修复,请联系技术工程师处理。

8.5.4.5 Memory/battery problems were detected / Unexpected power-loss occurred

问题描述

8-81所示,进入“Driver Healthy Protocol Utility”界面后,显示“Memory/battery problems were detected / Unexpected power-loss occurred”。

图8-81 状态显示

 

处理方法

选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

                                步骤 1     输入任意内容,并按“Enter”。

提示Critical Message handling completed. Please exit。修复完成。

                                步骤 2     重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

8.5.5 Controller Mode恢复为RAID

问题描述

RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD modeRAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如8-82所示,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。

图8-82 问题描述

 

当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。

处理方法

(可选)登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Management界面,如8-83所示。

图8-83 Advanced Controller Management界面

 

                                步骤 2     选择“Switch to RAID mode”并按“Enter”。

提示操作成功,如8-84所示。

图8-84 操作成功

 

                                步骤 3     选择“OK”并按“Enter”。

返回到“Advanced Controller Management”界面,显示正在切换模式,如8-85所示。

图8-85 Advanced Controller Management界面

 

                                步骤 4     按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面

                                步骤 5     依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如8-86所示。

图8-86 Advanced Controller Management界面

 

l      => 处理完毕。

l      => 请联系技术支持。

----结束

8.5.6 删除Preserved Cache

问题描述

l     无法创建RAID组。

l     进入控制卡主界面后,显示“Discard Preserved Cache”,如8-87所示。

图8-87 控制卡主界面

 

处理方法

进入控制卡主界面。

                                步骤 1     选择“Discard Preserved Cache”并按Enter

弹出操作确认界面,如8-88所示。

图8-88 操作确认窗口

 

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示“The operation has been performed successfully”即操作成功。

----结束

8.6 管理界面介绍

8.6.1 进入管理界面

操作场景

该任务指导用户登录LSI SAS3108的配置管理界面。

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

重启服务器。当出现如8-89所示界面时,按“F11”键。

图8-89 BIOS启动界面(1

 

                                步骤 2     输入密码,并按“Enter”。

进入如8-90所示界面。

图8-90 BIOS启动界面(2

 

                                步骤 3     选择“Device Manager”并按“Enter”。

显示当前存在的RAID控制卡列表,如8-91所示。

图8-91 RAID控制卡列表

 

如果Device Manager界面显示“Some drivers are not healthy”,请参见8.5.4 Device ManagerRAID控制卡状态显示Not Healthy进行修复。

                                步骤 4     选择要操作的LSI SAS3108控制卡,按“Enter”。

进入如8-928-93所示主界面,界面参数如8-29所示。

图8-92 LSI SAS3108主界面(1

 

图8-93 LSI SAS3108主界面(2

 

表8-29 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

说明

LSI SAS3108不支持在此界面升级FW

Silence Alarm

板载蜂鸣器的使能状态。

LSI SAS3108未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

8.6.2 Main Menu

RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。

界面介绍

Main Menu”界面如8-94,参数说明如8-30所示。

图8-94 Main Menu

 

表8-30 参数说明

参数

参数说明

Configuration Management

配置管理RAID

操作方法:选中该操作项并按“Enter”进入详细配置界面。

Controller Management

管理RAID控制卡。

操作方法:选中该操作项并按“Enter”进入详细配置界面。

Virtual Drive Management

管理虚拟磁盘。

操作方法:选中该操作项并按“Enter”进入详细配置界面。

Drive Management

管理硬盘。

操作方法:选中该操作项并按“Enter”进入详细配置界面。

Hardware Components

查询部件信息。

操作方法:选中该操作项并按“Enter”进入详细配置界面。

 

8.6.2.1 Configuration Management

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

Configuration Management”界面如8-95,参数说明如8-31所示。

图8-95 Configuration Management

 

表8-31 参数说明

参数

参数说明

Create Virtual Drive

创建RAID

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Make JBOD

将硬盘设置为JBOD盘。

Clear Configuration

清除当前所有RAID配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时会显示该参数。

 

快速创建RAID

8-95中选择“Create Profile Based Virtual Drive”并按“Enter”。

                                步骤 1     通过“↑”、“↓”选择要创建的RAID(以“Generic RAID 6”为例)并按“Enter”。

打开RAID配置界面,如8-96,参数说明如8-32所示。

图8-96 RAID配置界面

 

表8-32 参数说明

参数

说明

Drive Selection Criteria

系统自动选择的成员盘。

Virtual Drive Name

系统自定义的RAID组名称。

RAID Level

当前配置的RAID组的级别。

Virtual Drive Size

RAID组的容量。

Power Save Mode

数据掉电保护模式。

Strip Size

RAID组扇区大小。

Read Policy

RAID组的数据读策略。

Write Policy

RAID组的数据写策略。

IO Policy

RAIDI/O策略。

Access Policy

数据读写的策略。

Drive Cache

硬盘Cache策略。

Default Initialization

RAID组默认的初始化方式。

Create Dedicated Hot Spare

是否为RAID组创建局部热备盘。

 

                                步骤 2     8-32所示查看或配置相关参数。

                                步骤 3     选择“Save Configuration”并按“Enter”。

弹出操作成功提示界面。

                                步骤 4     按“Enter”。

----结束

查看虚拟磁盘属性

8-95中选择“View Drive Group Properties”并按“Enter”。

打开的界面如8-97,参数说明如8-33所示。

图8-97 View Drive Group Properties

 

表8-33 参数说明

参数

参数说明

Drive Group

硬盘组名称。

Capacity Allocation

硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。

Protected

硬盘组数据保护功能的使能状态。

 

----结束

将硬盘设置为JBOD

8-95中选择“Make JBOD”并按“Enter”。

                                步骤 1     选中要设置成JBOD盘的硬盘,并按“Enter”。

                                步骤 2     选择“Enabled”并按“Enter”。

                                步骤 3     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

清除RAID配置

8-95中选择“Clear Configuration”并按“Enter”。

进入操作确认界面。

                                步骤 1     选中“Confirm”并按“Enter”。

                                步骤 2     在打开的列表中选择“Enabled”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 4     按“Enter”。

配置完成。

----结束

8.6.2.2 Controller Management

该界面提供控制卡管理接口,可查看并修改控制卡的详细参数。

界面介绍

Controller Management”界面如8-98,参数说明如8-34所示。

图8-98 Controller Management

 

表8-34 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Select Boot Device

当前启动项。

说明

EFI模式下,该配置项不生效。

PCI ID

RAID控制卡的PCI ID

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Connector Count

RAID控制卡与主板的接口个数。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制卡操作。

操作方法:选中该操作项并按“Enter”进入详细配置界面。

Advanced Controller Properties

查看和修改控制卡的高级属性。

操作方法:选中该操作项并按“Enter”进入详细配置界面。

 

更多控制卡操作

8-98中选择“Advanced Controller Management”并按“Enter”。

界面如8-99所示,界面中参数说明如8-35所示。

图8-99 Advanced Controller Management

 

表8-35 参数说明

参数

说明

Clear Controller Events

清除控制卡的事件日志。

Save Controller Events

保存控制卡的事件日志。

操作方法:选择该操作项并按“Enter”进入详细的配置界面。

Save TTY Log

保存终端操作日志。

操作方法:选择该操作项并按“Enter”进入详细的配置界面。

Manage Link Speed

管理接口速率。

操作方法:选择该操作项并按“Enter”进入详细的配置界面。

Manage MegaRAID Advanced Software Options

管理高级软件功能。

操作方法:选择该操作项并按“Enter”进入详细的配置界面。

Schedule Consistency Check

设置一致性校验参数。

操作方法:选择该操作项并按“Enter”进入详细的配置界面。

Set Factory Defaults

恢复为出厂配置。

Switch to JBOD mode

当前暂不支持该功能,请勿进行选择。如果需要使能JBOD,请在8-101所示界面的“JBOD Mode”选项进行设置。

 

----结束

查看并修改控制卡高级属性

8-98中选择“Advanced Controller Properties”并按“Enter”。

界面如8-1008-101所示,界面中参数说明如8-36所示。

图8-100 Advanced Controller Properties1

 

图8-101 Advanced Controller Properties2

 

表8-36 参数说明

参数

说明

Cache and Memory

查看控制卡CacheMemory信息。

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

选中该选项并按“Enter”后,会显示“Power Save Setting”界面。界面参数说明如下:

l     Spin Down Unconfigured Good:开启或关闭Unconfigured Good状态的硬盘的休眠功能,默认为关闭状态。

l     Spin Down Hot Spare Drives:开启或关闭热备盘的休眠功能,默认为关闭状态。

l     Drive Standby Time:设置硬盘的空闲时间。

l     Spinup Drive Count:设置同时工作的最大硬盘数。

l     Spinup DelayRAID控制卡下各硬盘之间进入工作状态的间隔时间(单位为秒)。通过设置该参数,可避免因RAID控制卡下所有硬盘同时进入工作状态导致可能产生设备供电不足的问题。默认值为12

l     Apply Changes:保存设置。

Spare

设置控制卡热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

LSI SAS3108控制卡卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制卡BIOS的使能情况。

ROC Temperature

控制卡温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Expanded Virtual Drive Support

是否支持扩容虚拟磁盘的功能。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见8.4.9 导入和清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

JBOD Mode

硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。

说明

LSI SAS3108Firmware版本为6121及以上时,方可配置JBOD模式,且服务器必须已安装对应版本的驱动。

Write Verify

写校验。

Large IO Support

启用或禁用大型I/O支持功能。

Apply Changes

保存配置。

 

                                步骤 2     8-100中选择“Task Rates”并按“Enter”。界面如8-102所示,界面中参数说明如8-37所示。

图8-102 Task Rates

 

表8-37 参数说明

参数

说明

Background Initialization <BGI> Rate

设置执行后台初始化的速率。

说明

数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Consistency Check Rate

设置执行一致性校验的速率。

说明

数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Patrol Read Rate

设置执行巡检读取的速率。

说明

数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Rebuild Rate

设置硬盘发生故障时在新硬盘上执行重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Reconstruction Rate

设置执行RAID级别迁移或在线容量扩展时重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Apply Changes

保存配置。

 

                                步骤 3     按照8-36所述修改控制卡的高级属性参数。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     单击“OK”完成配置。

----结束

配置JBOD模式

8-100中选中“JBOD Mode”并按“Enter”,选择“Enable”并按“Enter”。

                                步骤 1     通过“↓”选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 2     单击“OK”完成配置。

返回“Drive Management ”界面,如8-103所示,Unconfigured Good状态下的硬盘自动配置成JBOD模式。

图8-103 Drive Management界面

 

选中配置成JBOD模式的硬盘,并按“Enter”,在“Select operation”中选择“Make Unconfigured Good”并按“Go”,硬盘可再次切换成Unconfigured Good状态,如8-104所示。

图8-104 Drive Management界面

 

----结束

8.6.2.3 Virtual Drive Management

该界面提供虚拟磁盘的查询和管理接口。

界面介绍

Virtual Drive Management”界面如8-105,显示虚拟磁盘列表。

图8-105 Virtual Drive Management

 

选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如8-106所示,参数说明如8-38所示。

图8-106 Virtual Drive List

 

表8-38 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:定位虚拟磁盘的所有硬盘。

l     Stop Locate:取消定位。

l     Delete Virtual Drive:删除虚拟磁盘。

l     Expand Virtual Drive:扩展虚拟磁盘容量。

l     Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。

l     Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。

l     Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。

l     Fast Initialization:快速初始化虚拟磁盘。

l     Slow Initialization:安全初始化虚拟磁盘。

l     Check Consistency:一致性校验。

l     Virtual Drive Erase:格式化虚拟磁盘。

Progress

当前任务进度。

l     仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。

l     当前界面不会自动刷新,需退出后重新进入查看当前进度。

Stop

停止当前任务。

仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。

Name

虚拟磁盘名称。

Raid Level

虚拟磁盘RAID级别。

Status

虚拟磁盘当前运行状态。

Size

虚拟磁盘容量。

View Associated Drives

查看成员盘属性。

Advanced...

查看虚拟磁盘高级属性。

 

查看成员盘属性

8-106中选择“View Associated Drives”并按“Enter”。

界面如8-107,显示成员盘列表。

图8-107 View Associated Drives

 

                                步骤 2     选择要查看的成员盘,将其设置为“Enabled”。

                                步骤 3     选择“View Drive Properties”并按“Enter”。

进入硬盘属性界面,如8-108界面所示,界面参数如8-39所示。

图8-108 View Drive Properties

 

表8-39 参数说明

参数

参数说明

Operation

该成员盘可执行的操作,包括:

l     Start Locate

l     Stop Locate

l     Place Drive Offline/Online

Drive ID

成员盘的ID

Status

成员盘的当前工作状态。

Size

成员盘的容量。

Type

成员盘类型。

Model

成员盘的模块类型。

Hardware Vendor

成员盘的生产厂商。

Associated Virtual Drive

成员盘所在的虚拟磁盘。

Advanced...

查询成员盘更多属性。

操作方法:选择该配置项并按“Enter”进入详细的操作界面。

 

----结束

查看和修改虚拟磁盘高级属性

8-106中选择“Advanced”并按“Enter”。

界面如8-1098-110,界面参数如8-40所示。

图8-109 Advanced1

 

图8-110 Advanced2

 

表8-40 参数说明

参数

参数说明

Logical Sector Size

逻辑扇区大小。

Segment Size

条带大小。

Starting Logical Block Addressing

逻辑单元起始地址。

Protected

是否支持硬盘保护。

Bad Blocks

是否支持坏块处理。

SSD Caching

是否支持SSD Caching

Access

是否支持Access

Current Write Cache Policy

当前写Cache策略,包括:

l     Write Through:当硬盘子系统接受到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。

l     Write Back:当RAID控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Always Write Back:当未配置超级电容或超级电容故障时,RAID控制卡将不会自动切换到Write Through模式。

操作方法:

1.     选择该配置项并按“Enter”。

2.     在列表中选择要配置的参数并按“Enter”。

说明

“Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR的写数据将会丢失。不推荐使用该模式。

Default Write Cache Policy

默认的写Cache策略。

Disable Background Initialization

是否禁用后台初始化。

操作方法:

1.     选择该配置项并按“Enter”。

2.     在列表中选择要配置的参数并按“Enter”。

Read Cache Policy

当前读Cache策略,包括:

l     No Read Ahend:关闭预读取功能。

l     Read Ahend:使能预读取功能。RAID控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

操作方法:

1.     选择该配置项并按“Enter”。

2.     在列表中选择要配置的参数并按“Enter”。

Drive Cache

是否支持cache

Input/Output

I/O读取策略,包括:

l     Direct:直接从硬盘读取数据,不经过Cache缓存。

l     Cached:从Cache缓存中读取数据。

操作方法:

1.     选择该配置项并按“Enter”。

2.     在列表中选择要配置的参数并按“Enter”。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Apply Changes

保存配置。

 

                                步骤 2     按照8-40所述配置“Advanced”的参数。

                                步骤 3     选择“Apply Changes”并按“Enter”。

显示The operation has been performed successfully

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

8.6.2.4 Drive Management

该界面显示硬盘基本属性,提供硬盘操作接口。

界面介绍

Drive Management”界面如8-111所示,显示硬盘列表。

图8-111 Drive List

 

选定要操作的硬盘并按“Enter”进入详细操作界面,如8-112所示,参数说明如8-41所示。

图8-112 Drive Management

 

表8-41 参数说明

参数

参数说明

Operation

执行的操作。包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Initialize Drive:硬盘初始化。

l     Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。

     Simple:仅对硬盘进行一轮擦除动作。

     Normal:对硬盘进行三轮擦除动作。

     Thorough:对硬盘进行九轮擦除动作。

     Stop Erase:停止数据擦除操作。

l     Make Unconfigured Good/Bad:修改硬盘状态。

l     Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。

l     Assign Global Hot Spare Drive:设置全局热备盘。

l     Assign Dedicated Hot Spare Drive:设置局部热备盘。

l     Unassign Hot Spare Drive:删除热备盘。

l     Place Drive Online:将Offline状态的硬盘设置为Online

说明

l     Place Drive Online操作只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。

l     对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。

Drive ID

硬盘的ID

Status

硬盘的当前工作状态。

Size

硬盘的容量。

Type

硬盘的类型。

Model

硬盘型号。

Hardware Vendor

硬盘的生产厂商。

Associated Virtual Drive

表示硬盘已加入虚拟磁盘,此处显示虚拟磁盘信息。

Advanced...

查询更多硬盘属性。

 

查看硬盘属性

选择“Advanced...”并按“Enter”。

打开硬盘属性界面,如8-113所示,参数说明如8-42所示。

图8-113 Drive Properties

 

表8-42 参数说明

参数

参数说明

Certified

是否通过认证。

Logical Sector Size

逻辑扇区大小。

Physical Sector Size

物理扇区大小。

SMART Status

SMART功能是否使能。

Revision

硬盘Firmware版本。

Media Error

Media error个数。

Predicted Fail Count

Pred fail个数。

SAS Address

硬盘SAS地址。

Drive Power State

硬盘上电状态。

Emergency Spare

是否支持紧急备份功能更,即是否可以选空闲盘或者热备做备份盘。

Commissioned Hot Spare

是否指定了备份盘,即把一个热备盘指定给一个RAID组使用。

Cache Setting

是否可设置Cache

Available Size

硬盘可用空间。

Used Space

已使用的硬盘空间。

Disk Protocol

硬盘支持的协议。

Negotiated Drive Transfer Speed

硬盘数据传输速率。

Number of Connections

连接器个数。

FDE Capable

硬盘是否支持FDEFull Disk Encryption)技术。

Protection Capable

硬盘是否支持数据保护。

Temperature

硬盘温度。

 

----结束

8.6.2.5 Hardware Components

该界面主要提供RAID控制卡传感器信息。

界面介绍

Hardware Components”界面如8-114,参数说明如8-43所示。

图8-114 Hardware Components

 

表8-43 参数说明

参数

参数说明

Temperature Sensors

当前温度传感器状态。

Fans

当前风扇模块工作状态。

Power Supplies

当前供电模块工作状态。

Enclosure Management

部件管理。

 

查看更多传感器信息

选择“Enclosure Management”并按“Enter”。

进入部件选择界面,如8-115所示。

图8-115 选择部件

 

                                步骤 2     选择“Select Enclosure”并按Enter

                                步骤 3     选择要查看的传感器并按Enter

                                步骤 4     选择“View Enclosure Status”并按Enter

显示传感器的详细信息,如8-116所示。

图8-116 传感器信息

 

                                步骤 5     TEMPERATUR SENSOR下通过“Select Temperature Sensor”选择要查询的温度传感器。

Temperature Sensor Status”显示所查询的传感器的状态。

                                步骤 6     FAN下通过“Select Fan”选择要查询的风扇传感器。

Fan Status”显示所查询的传感器的状态。

                                步骤 7     POWER SUPPLY下通过“Select Power Supply”选择要查询的供电模块传感器。

Power Supply Status”显示所查询的传感器的状态。

----结束

8.6.3 View Server Profile

提供RAID控制卡操作管理接口。

界面介绍

View Server Profile”界面如8-117所示,参数说明如8-44所示。

图8-117 View Server Profile

 

表8-44 参数说明

参数

参数说明

UEFI Spec Version

服务器支持的UEFI Spec版本。

Controller Management

提供控制卡管理接口,详细情况请参见8.6.2.2 Controller Management

Hardware Components

提供控制卡部件查询接口,详细情况请参见8.6.2.5 Hardware Components

Drive Management

提供硬盘管理接口,详细情况请参见8.6.2.4 Drive Management

Virtual Drive Management

提供虚拟磁盘管理接口,详细情况请参见8.6.2.3 Virtual Drive Management

 

8.6.4 View Foreign Configuration

该界面可查看、导入、清空外部配置。

界面介绍

View Foreign Configuration”界面如8-118所示。

图8-118 View Foreign Configuration

 

查看并导入外部配置

选择“Preview Foreign Configuration”并按“Enter”。

                                步骤 1     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     在列表中选择“Enable”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     单击“OK”完成配置。

----结束

清除外部配置

选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     在列表中选择“Enable”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 4     单击“OK”完成配置。

----结束

8.6.5 Configure

该界面可清除当前所有配置。

界面介绍

Configure”界面如8-119所示。

图8-119 Configure

 

清除当前配置

选择“Clear Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     在列表中选择“Enable”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 4     单击“OK”完成配置。

----结束

8.6.6 Set Factory Defaults

恢复出厂配置

在主界面选择“Set Factory Defaults”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     在列表中选择“Enable”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 4     单击“OK”完成配置。

----结束

8.6.7 Manage MegaRAID Advanced Software Options

该界面提供RAID控制卡高级软件特性查看和导入接口。

界面介绍

Manage MegaRAID Advanced Software Options”界面如8-120所示,界面中参数说明如8-45所示。

图8-120 Manage MegaRAID Advanced Software Options

 

表8-45 参数说明

参数

说明

SAFE ID

RAID控制卡的安全编码。

Serial Number

RAID控制卡序列号。

Activation Key

待激活的高级特性的Key

操作方法:

1.     选择该操作项并按“Enter”。

2.     在文本框中输入Key按“Enter”。

Active

激活高级特性。

LSI SAS3108不支持高级特性的激活操作,该功能无效。

Deactive All Trail Software

注销当前所有高级特性。

 

8.6.8 Exit

退出配置界面。

退出配置界面

LSI SAS3108主界面按“ESC”,显示如8-121所示界面。

图8-121 BIOS Setup Utility

 

                                步骤 2     F10保存配置。

弹出操作确认窗口。

                                步骤 3     选择“OK”并按Enter

退出BIOS,显示“ Press Control+Alt+Delete to reboot”。

----结束

8.7 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

8.7.1 下载和安装StorCLI工具

下载工具

登录BROADCOM网站上RAID控制卡的页面

                                步骤 1     在“DOWNLOADS”页签中单击“Management Software and Tools”。

打开管理软件和工具列表。

                                步骤 2     下载最新版本的“StorCLI”工具。

                                步骤 3     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 1     Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。

StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

8.7.2 常用命令

8.7.2.1 查询RAID控制卡配置信息

命令功能

查询LSI SAS3108的基本配置信息。

命令格式

storcli64 /ccontroller_id show

参数说明

参数

参数说明

取值

controller_id

控制卡ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

 

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡配置信息。

[root@localhost ~]# ./storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
Controller = 0
Status = Success
Description = None
 
Product Name = SAS3108
Serial Number =
SAS Address =  50030130f0900000
PCI Address = 00:01:00:00
System Time = 07/07/2018 22:06:42
Mfg. Date = 00/00/00
Controller Time = 07/07/2018 14:06:41
FW Package Build = 24.16.0-0093
BIOS Version = 6.32.02.0_4.17.08.00_0x06150500
FW Version = 4.660.00-8140
Driver Name = megaraid_sas 
Driver Version = 06.811.02.00-rh1
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x5D
SubVendor Id = 0x19E5
SubDevice Id = 0xD207
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Drive Groups = 1
 
TOPOLOGY :
========
 
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace TR
-----------------------------------------------------------------------------
 0 -   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 0 0   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 0 0   0   252:1    18  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
 0 0   1   252:0    48  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
-----------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 1
 
VD LIST :
=======
 
---------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC       Size Name
---------------------------------------------------------------
0/0   RAID1 Optl  RW     Yes     RWBD  -   ON  744.125 GB
---------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 6
 
PD LIST :
=======
 
---------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model               Sp Type
---------------------------------------------------------------------------------
252:0    48 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:1    18 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:2    19 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BA800G4 U  -
252:3    20 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BA800G4 U  -
252:4    49 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:5    47 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
---------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Cachevault_Info :
===============
 
------------------------------------
Model  State   Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 28C  -    2016/11/04
------------------------------------

8.7.2.2 创建和删除RAID

命令功能

创建、删除RAID

命令格式

命令

说明

storcli64 /ccontroller_id add vd rlevel[0|1|5|6|10|50|60] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [wt|*wb|awb] [nora|*ra] [*direct|cached] [Strip=<8|16|32|64|128|256|1024>] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid]

创建RAID

storcli64 /ccontroller_id/vraid_id del

删除RAID

 

*表示默认值。

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

rlevel

要配置的RAID组级别

level可为0156105060,数字分别代表对应的RAID组级别。

size

要配置的RAID组容量

默认值为all,即所有成员盘的容量之和。

name

要配置的RAID组名称

-

drives

要加入RAID组的硬盘

-

startid-endid

硬盘的起始和结束ID

-

slot_id

硬盘ID

-

pdperarray

子组中的硬盘数

创建RAID10RAID50RAID60时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。

-

pdcache

设置RAID的成员盘的Cache状态

l     on

l     off

l     default

pi

使能数据保护

-

wrcache

设置RAID组的写Cache属性,完整的命令为wrcache=wt|wb|awb,这里“wrcache=”可省略

l     wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”模式。

rdcache

设置RAID组的读Cache属性,完整的命令为rdcache=ra|nora,这里“rdcache=”可省略。

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     noraRAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

iopolicy

设置RAID组的I/O策略,完整的命令为iopolicy=direct|cached,这里“iopolicy=”可省略。

说明

Cache IO的规格后续不再支持,默认为Direct IO,具体信息请查看RAID控制卡固件版本说明书。

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

Strip

设置RAID组条带大小

MR卡:64, 128, 256, 512, 1024

iMR卡:只能为64

单位为KB

EmulationType

控制逻辑盘在OS中上报的扇区

l     0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     1: Disable,即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     2Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Spares

指定RAID组的热备盘

-

raid_id

要删除的RAID组的ID

-

 

使用指南

使用实例

# 创建RAID 0

domino:~# ./storcli64 /c0 add vd r0 size=100GB drives=252:0-3
Controller = 0 
Status = Success 
Description = Add VD Succeeded

# 删除RAID

domino:~# ./storcli64 /c0/v0 del
Controller = 0 
Status = Success 
Description = Delete VD Succeeded

8.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

命令功能

查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。

命令格式

storcli64 /ccontroller_id show

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

storcli64 /ccontroller_id/vvd_id show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

enclosure_id

硬盘所在EnclosureID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡连接的硬盘背板的ID

slot_id

物理硬盘槽位编号

可以将该参数设置为all,表示查询所有硬盘的ID

vd_id

虚拟磁盘ID

可以为all,表示查询所有虚拟磁盘信息。

 

使用指南

回显中主要字段的含义如8-46所示。

表8-46 回显说明

命令格式

字段

含义

举例

storcli64 /ccontroller_id show

Product Name

RAID控制卡的型号

sas3108

FW Version

RAID控制卡的FW版本

4.660.00-8140

Driver Name

RAID控制卡的驱动名称

megaraid_sas

Driver Version

RAID控制卡的驱动版本

06.811.02.00-rh1

Current Personality

RAID控制卡的工作模式

RAID-Mode

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

SN

物理硬盘的序列号

PHWL517601YR800RGN

Manufacturer Id

物理硬盘的供应商ID

ATA

Model Number

物理硬盘的模块序号

INTEL SSDSC2BB800G4

Firmware Revision

物理硬盘的FW版本

D2010370

Raw size

物理硬盘的容量

745.211 GB [0x5d26ceb0 Sectors]

Logical Sector Size

物理硬盘逻辑分区大小

512B

Physical Sector Size

物理扇区大小

4 KB

storcli64 /ccontroller_id/vvd_id show all

TYPE

RAID组的级别

RAID1

State

RAID组的状态

Optl

Access

RAID组数据的访问策略

RW

Cache

RAID组当前的读写策略与I/O Policy

RWTD

Size

RAID组的大小

100.0 GB

PDs for VD0

RAID组下的物理硬盘

-

Strip Size

RAID组的条带大小

256KB

Write Cache(initial setting)

RAIDCache的写策略

Write Through

Disk Cache Policy

RAID组成员盘的Cache策略

Disk's Default

 

使用实例

#查询RAID控制卡的详细信息。

[root@localhost ~]# ./storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
Controller = 0
Status = Success
Description = None
 
Product Name = SAS3108
Serial Number =
SAS Address =  50030130f0900000
PCI Address = 00:01:00:00
System Time = 07/07/2018 22:06:42
Mfg. Date = 00/00/00
Controller Time = 07/07/2018 14:06:41
FW Package Build = 24.16.0-0093
BIOS Version = 6.32.02.0_4.17.08.00_0x06150500
FW Version = 4.660.00-8140
Driver Name = megaraid_sas 
Driver Version = 06.811.02.00-rh1
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x5D
SubVendor Id = 0x19E5
SubDevice Id = 0xD207
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Drive Groups = 1
 
TOPOLOGY :
========
 
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace TR
-----------------------------------------------------------------------------
 0 -   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 0 0   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 0 0   0   252:1    18  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
 0 0   1   252:0    48  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
-----------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 1
 
VD LIST :
=======
 
---------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC       Size Name
---------------------------------------------------------------
0/0   RAID1 Optl  RW     Yes     RWBD  -   ON  744.125 GB
---------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 6
 
PD LIST :
=======
 
---------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model               Sp Type
---------------------------------------------------------------------------------
252:0    48 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:1    18 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:2    19 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BA800G4 U  -
252:3    20 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BA800G4 U  -
252:4    49 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:5    47 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
---------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Cachevault_Info :
===============
 
------------------------------------
Model  State   Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 28C  -    2016/11/04
------------------------------------

#查询slot0的物理硬盘的信息。

[root@localhost ~]# ./storcli64 /c0/e252/s0 show all
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
 
 
Drive /c0/e252/s0 :
=================
 
---------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model               Sp Type
---------------------------------------------------------------------------------
252:0    48 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
---------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Drive /c0/e252/s0 - Detailed Information :
========================================
 
Drive /c0/e252/s0 State :
=======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature =  20C (68.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
 
 
Drive /c0/e252/s0 Device attributes :
===================================
SN = PHWL517601YR800RGN
Manufacturer Id = ATA
Model Number = INTEL SSDSC2BB800G4
NAND Vendor = NA
WWN = 55cd2e404c533246
Firmware Revision = D2010370
Raw size = 745.211 GB [0x5d26ceb0 Sectors]
Coerced size = 744.125 GB [0x5d040800 Sectors]
Non Coerced size = 744.711 GB [0x5d16ceb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 6.0Gb/s
NCQ setting = Enabled
Write cache = N/A
Logical Sector Size = 512B
Physical Sector Size = 4 KB
Connector Name = Port A x1
 
 
Drive /c0/e252/s0 Policies/Settings :
===================================
Drive position = DriveGroup:0, Span:0, Row:1
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = No
Wide Port Capable = No
 
Port Information :
================
 
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
   0 Active 6.0Gb/s   0x4433221100000000
-----------------------------------------
 
 
Inquiry Data =
40 00 ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 48 50 4c 57 31 35 36 37 31 30 52 59
30 38 52 30 4e 47 20 20 00 00 00 00 00 00 32 44
31 30 33 30 30 37 4e 49 45 54 20 4c 53 53 53 44
32 43 42 42 30 38 47 30 20 34 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 01 80
00 40 00 2f 00 40 00 00 00 00 07 00 ff 3f 10 00
3f 00 10 fc fb 00 01 bf ff ff ff 0f 00 00 07 00

# 查询VD 0的信息。

[root@rhel6u5 ~]# /opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
 
 
/c0/v0 :
======
 
---------------------------------------------------------
DG/VD TYPE  State Access Consist Cache sCC     Size Name
---------------------------------------------------------
1/0   RAID1 Optl  RW     Yes     RWTD  -   1.089 TB
---------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|B=Blocked|Consist=Consistent|
R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
 
PDs for VD 0 :
============
 
-----------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model            Sp
-----------------------------------------------------------------------
25:22    14 Onln   1 1.089 TB SAS  HDD N   N  512B ST1200MM0007     U
25:23    26 Onln   1 1.089 TB SAS  HDD N   N  512B ST1200MM0007     U
-----------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded
 
 
VD0 Properties :
==============
Strip Size = 256 KB
Number of Blocks = 2341795840
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 2
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = Disabled
Active Operations = None
Exposed to OS = Yes
Creation Date = 04-01-2018
Creation Time = 12:38:35 PM
Emulation type = None

8.7.2.4 查询超级电容的相关信息

命令功能

查询超级电容的名称及TFM Flash卡缓存容量的大小等信息。

命令格式

storcli64 /ccontroller_id/cv show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以为all,表示所有控制卡。

 

查看RAID控制卡ID的方法请参见8.7.2.1 查询RAID控制卡配置信息

使用实例

#查询超级电容的相关信息。

[root@localhost ~]# ./storcli64 /c0/cv show all
Controller = 0
Status = Success
Description = None
 
 
Cachevault_Info :
===============
 
--------------------
Property    Value
--------------------
Type        CVPM02
Temperature 28 C
State       Optimal
--------------------
 
 
Firmware_Status :
===============
 
---------------------------------------
Property                         Value
---------------------------------------
Replacement required             No
No space to cache offload        No
Module microcode update required No
---------------------------------------
 
 
GasGaugeStatus :
==============
 
------------------------------
Property                Value
------------------------------
Pack Energy             294 J
Capacitance             108 %
Remaining Reserve Space 0
------------------------------
 
 
Design_Info :
===========
 
------------------------------------
Property                 Value
------------------------------------
Date of Manufacture      04/11/2016
Serial Number            22417
Manufacture Name         LSI
Design Capacity          288 J
Device Name              CVPM02
tmmFru                   N/A
CacheVault Flash Size    8.0 GB
tmmBatversionNo          0x05
tmmSerialNo              0xee7d
tmm Date of Manufacture  09/12/2016
tmmPcbAssmNo             022544412A
tmmPCBversionNo          0x03
tmmBatPackAssmNo         49571-13A
scapBatversionNo         0x00
scapSerialNo             0x5791
scap Date of Manufacture 04/11/2016
scapPcbAssmNo            1700134483
scapPCBversionNo          A
scapBatPackAssmNo        49571-13A
Module Version           6635-02A
------------------------------------
 
 
Properties :
==========
 
--------------------------------------------------------------
Property             Value
--------------------------------------------------------------
Auto Learn Period    27d (2412000 seconds)
Next Learn time      2018/08/03  17:48:38 (586633718 seconds)
Learn Delay Interval 0 hour(s)
Auto-Learn Mode      Transparent
--------------------------------------------------------------

l     上述回显信息中,“Device Name  CVPM02”表示超级电容的名称为 CVPM02”,“CacheVault Flash Size   8.0GB”表示TFM Flash卡缓存容量为“8.0GB”。

l     当回显信息的“State”显示为“FAILED”时,需要更换超级电容。

8.7.2.5 查询和设置Patrolread参数

命令功能

查询和设置系统巡检的相关参数。

命令格式

storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number

storcli64 /ccontroller_id set patrolread delay=delaytime

storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}

storcli64 /ccontroller_id show patrolread

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

系统巡检起始时间

例如:2016/07/15 23

说明

起始时间单位为

number

可同时巡检的硬盘数量

delaytime

系统巡检周期

单位为hour

 

使用指南

使用实例

# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。

domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

---------------------------------------

Ctrl_Prop          Value

---------------------------------------

PR Starttime       2016/07/15 23:00:00

PR MaxConcurrentPd 2

---------------------------------------

# 使能patrolread并设置为自动模式。

domino:~# ./storcli64 /c0 set patrolread=on mode=auto
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
--------------------------------------- 
Ctrl_Prop        Value 
--------------------------------------- 
Patrol Read Mode auto 
---------------------------------------

# 查询patrolread信息。

domino:~# ./storcli64 /c0 show patrolread

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

--------------------------------------------

Ctrl_Prop          Value

--------------------------------------------

PR Mode       2016/07/15 23:00:00

PR Execution Delay

PR iterations completed 0

PR Next Start time      07/16/2016,00:00:00

PR on SSD               Disabled

PR Current State        Stopped

--------------------------------------------

8.7.2.6 查询和设置Spinup参数

命令功能

查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。

命令格式

storcli64 /ccontroller_id show spinupdelay

storcli64 /ccontroller_id show spinupdrivecount

storcli64 /ccontroller_id set spinupdelay=time

storcli64 /ccontroller_id set spinupdrivecount=count

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

每组起转硬盘间的时间间隔

默认为2,单位为s

count

上电时允许同时起转的硬盘数量

默认为4

 

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡Spinup参数。

domino:~# ./storcli64 /c0 show spinupdelay

Controller = 0

Status = Success

Description = None

Controller Properties:

=====================

--------------------------

Ctrl_Prop     Value

--------------------------

Spin Up Delay 2 second(s)

--------------------------

domino:~# ./storcli64 /c0 show spinupdrivecount

Controller = 0

Status = Success

Description = None

Controller Properties:

=====================

--------------------------

Ctrl_Prop           Value

--------------------------

Spin Up Drive Count 4

--------------------------    

# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。

domino:~# ./storcli64 /c0 set spinupdelay=20

Controller = 0

Status = Success

Description = None

Controller Properties:

=====================

--------------------------

Ctrl_Prop     Value

--------------------------

Spin Up Delay 20 second(s)

--------------------------

domino:~# ./storcli64 /c0 set spinupdrivecount=5

Controller = 0

Status = Success

Description = None

Controller Properties:

=====================

--------------------------

Ctrl_Prop           Value

--------------------------

Spin Up Drive Count 5

--------------------------    

8.7.2.7 查询和设置硬盘数据擦除功能

命令功能

设置物理硬盘数据擦除模式,查询擦除进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

硬盘槽位号

mode

数据擦除模式

l     simple:对硬盘进行一轮擦除动作。

l     normal:对硬盘进行三轮擦除动作。

l     thorough:对硬盘进行九轮擦除动作。

 

使用指南

使用实例

# slot 3硬盘进行simple数据擦除,并查询擦除进度。

domino:~# ./storcli64 /c0/e252/s3 start erase simple

Controller = 0

Status = Success

Description = Start Drive Erase Succeeded.

domino:~# ./storcli64 /c0/e252/s3 show erase

Controller = 0

Status = Success

Description = Show Drive Erse Status Succeeded.

------------------------------------------------------

Drive-ID    Progress% Status      Estimated Time Left

------------------------------------------------------

/c0/e252/s3         0 In progress 0 Seconds

------------------------------------------------------    

domino:~# ./storcli64 /c0/e252/s3 stop erase

Controller = 0

Status = Success

Description = Stop Drive Erase Succeeded.

8.7.2.8 查询和设置RAID后台初始化

命令功能

暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。

命令格式

storcli64 /ccontroller_id/vraid_id action bgi

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

action

后台初始化的操作

l     show:查看后台初始化进度

l     pause:暂停后台初始化

l     resume:继续后台初始化

l     stop:停止后台初始化

 

使用指南

使用实例

# 查看后台初始化进度。

domino:~# ./storcli64 /c0/v0 show bgi

Controller = 0

Status = Success

Description = Noe

VD Operation Status :

===================

------------------------------------------------------

VD Operation Progress% Staus      Estimated Time Left

------------------------------------------------------

 0 BGI               3 In progress 53 Minutes

------------------------------------------------------

8.7.2.9 查询和设置CacheFlush参数

命令功能

查询和设置Cache的刷新周期。

命令格式

storcli64 /ccontroller_id show cacheflushint

storcli64 /ccontroller_id set cacheflushint time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

Cache的刷新周期

单位为s

 

使用指南

使用实例

# 设置Cache的刷新周期为“10”。

domino:~# ./storcli64 /c0 set cacheflushint=10

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

---------------------------

Ctrl_Prop            Value

---------------------------

Cache Flush Interval 10 sec

---------------------------

# 查询Cache的刷新周期。

domino:~# ./storcli64 /c0 show cacheflushint

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

---------------------------

Ctrl_Prop            Value

---------------------------

Cache Flush Interval 10

---------------------------

8.7.2.10 查询和设置物理硬盘初始化功能

命令功能

设置物理硬盘初始化功能,查询初始化进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

硬盘槽位号

action

要执行的操作

l     show:查看初始化进度

l     start:开始初始化

l     stop:结束初始化

 

使用指南

使用实例

# 初始化slot3硬盘,并查询初始化进度。

domino:~# ./storcli64 /c0/e252/s3 start initialization

Controller = 0

Status = Success

Description = Start Drive Initialization Succeeded.

domino:~# ./storcli64 /c0/e252/s3 show initialization

Controller = 0

Status = Success

Description = Show Drive Initialization Status Succeeded.

------------------------------------------------------

Drive-ID    Progress% Status      Estimated Time Left

------------------------------------------------------

/c0/e252/s3         0 In progress 0 Seconds

------------------------------------------------------    

8.7.2.11 查询和设置RAID重构

命令功能

开始、暂停、继续、停止RAID重构,并查询进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

action

要执行的操作

l     start:开始重构

l     show:查看重构进度

l     pause:暂停重构

l     resume:继续重构

l     stop:停止重构

 

查看RAID控制卡ID的方法请参见8.7.2.1 查询RAID控制卡配置信息

使用指南

使用实例

# 手动开始重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

# 查看硬盘当前重构状态。

[root@localhost ~]# ./storcli64 /c0/e70/s7 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e70/s7         5 In progress 26 Minutes
-----------------------------------------------------

# 暂停硬盘重构进程。

[root@localhost ~]# ./storcli64 /c0/e70/s7 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Succeeded.

# 继续重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 resume rebuild
Controller = 0
Status = Success
Description = Resume Drive Rebuild Succeeded.

# 停止重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 stop rebuild
Controller = 0
Status = Success
Description = Stop Drive Rebuild Succeeded.

8.7.2.12 查询和设置回拷

命令功能

开始、暂停、继续、停止回拷,并查询进度。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id start copyback target=target_enclosure_id:target_slot_id

开始回拷。

storcli64 /ccontroller_id/eenclosure_id/sslot_id action copyback

暂停、继续、查看、停止回拷。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

target_enclosure_id

执行回拷的目标硬盘所在EnclosureID

-

target_slot_id

执行回拷的目标物理硬盘槽位编号。

-

action

要执行的操作

l     show:查看回拷进度

l     pause:暂停回拷

l     resume:继续回拷

l     stop:停止回拷

 

查看RAID控制卡ID的方法请参见8.7.2.1 查询RAID控制卡配置信息

使用指南

使用实例

# 手动开始回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s7 start copyback target=70:3
Controller = 0
Status = Success
Description = Start Drive Copyback Succeeded.

# 查看硬盘当前回拷状态。

[root@localhost ~]# ./storcli64 /c0/e70/s3 show copyback
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e70/s3        17 In progress 16 Minutes
-----------------------------------------------------

# 暂停硬盘回拷进程。

[root@localhost ~]# ./storcli64 /c0/e70/s3 pause copyback
Controller = 0
Status = Success
Description = Pause Drive Copyback Succeeded.

# 继续回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s3 resume copyback
Controller = 0
Status = Success
Description = Resume Drive Copyback Succeeded.

# 停止回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s3 stop copyback
Controller = 0
Status = Success
Description = Stop Drive Copyback Succeeded.

8.7.2.13 查询和设置Smart扫描周期

命令功能

查询、设置Smart扫描周期。

命令格式

命令

说明

storcli64 /ccontroller_id set smartpollinterval=value

设置Smart扫描周期。

storcli64 /ccontroller_id show smartpollinterval

查询Smart扫描周期。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

value

Smart扫描周期

单位为s

 

使用指南

使用实例

# 设置Smart扫描周期为“60s”。

domino:~# ./storcli64 /c0 set smartpollinterval=60

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

-------------------------------

Ctrl_Prop         Value

-------------------------------

SmartPollInterval 60 second(s)

-------------------------------

8.7.2.14 查询和设置一致性校验参数

命令功能

查询、设置一致性检查参数。

命令格式

命令

说明

storcli64 /ccontroller_id[/vvd_id]show cc

查询一致性检查参数。

storcli64 /ccontroller_id/vvd_id start cc force

开始进行一致性检查。

storcli64 /ccontroller_id/vvd_id action cc

暂停/停止/继续执行一致性检查。

storcli64 /ccontroller_id set consistencycheck|cc=[off|seq|conc] [delay=value] starttime=time excludevd=evd_id

设置一致性自动检查参数。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

要操作的RAIDID

-

action

要执行的操作

l     pause:暂停

l     resume:继续执行

l     stop:停止

cc

将一致性检查设置为顺序模式或并行模式,或关闭一致性检查。

l     off:关闭一致性检查

l     seq:顺序模式

l     conc:并行模式

value

一致性检查周期

-

time

一致性检查起始时间

例如:2016/07/14 22

说明

起始时间单位为

evd_id

不进行一致性检查的虚拟磁盘ID

-

 

使用指南

show命令中不带/vvd_id时,表示查询自动CC参数。

show命令中带/vvd_id时,表示查询CC进度。

使用实例

# 设置一致性自动检查参数。

domino:~# ./storcli64 /c0 set cc=conc delay=1 starttime=2016/07/14 22 excludevd=0

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

------------------------------------

Ctrl_Prop      Value

------------------------------------

CC Mode         CONC

CC delay        1

CC Starttime    2016/07/14 22:00:00

CC ExcludeVD(0) Success

------------------------------------

# 查询CC进度。

domino:~# ./storcli64 /c0/v1 show cc

Controller = 0

Status = Success

Description = None

VD Operation Status :

===================

-----------------------------------------------------------

VD Operation Progress% Status          Estimited Time Left

-----------------------------------------------------------

 0 CC        -         Not in progress -

-----------------------------------------------------------

8.7.2.15 设置热备盘

命令功能

设置全局热备盘和局部热备盘。

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

dgs

硬盘组的ID

l     不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘

l     0,1,2..:硬盘组ID

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

dgs

硬盘组的ID

l     不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘

l     0,1,2..:硬盘组ID

 

使用指南

使用实例

# 设置slot 3硬盘为全局热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive

Controller = 0

Status = Success

Description = Add Hot Spare Succeeded.    

# 设置slot 3硬盘为vd0的局部热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive dgs=0

Controller = 0

Status = Success

Description = Add Hot Spare Succeeded.    

8.7.2.16 设置启动项

命令功能

设置虚拟磁盘或物理硬盘为启动项。

命令格式

storcli64 /ccontroller_id/vvd_id set bootdrive=on

storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

vd_id

待设置的虚拟磁盘的ID

enclosure_id

硬盘所在EnclosureID

slot_id

硬盘槽位号

 

使用指南

使用实例

# 查看VD0为启动项。

domino:~# ./storcli64 /c0/v0 set bootdrive=on

Controller = 0

Status = Success

Description = Noe

Detailed Status :

===============

----------------------------------------

VD Property   Value Staus  ErrCd ErrMsg

----------------------------------------

 0 Boot Drive On    Success    0 -

----------------------------------------

# 查看slot 7硬盘为启动项。

domino:~# ./storcli64 /c0/e252/s7 set bootdrive=on

Controller = 0

Status = Success

Description = Noe

Controller Properties :

=====================

-------------------

Ctrl_Prop Value

-------------------

BootDrive PD:252_7

-------------------

8.7.2.17 设置硬盘状态

命令功能

设置硬盘状态。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

硬盘槽位号

state

要设置的硬盘状态

l     online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。

l     offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。

l     jbod:通过该参数可以将硬盘设置为直通硬盘。

l     good

     ubad状态的硬盘,使用该参数可将硬盘设为ugoodforeign)状态,此时可选择导入或清除外来配置;

     JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。

force

强制设置硬盘状态,为可选参数。

如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force

-

 

使用指南

使用实例

# 设置slot 7硬盘为JBOD盘。

domino:~# ./storcli64 /c0/e252/s7 set JBOD
Controller = 0 
Status = Success 
Description = Set Drive JBOD Succeeded.

8.7.2.18 设置RAID组访问策略

命令功能

设置RAID的读写策略。

命令格式

storcli64 /ccontroller_id/vraid_id set accesspolicy=mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

mode

RAID读写策略

l     rw:可读可写

l     blocked:禁止访问

l     ro:只读访问

 

使用指南

使用实例

# 设置RAID读写策略为“rw”。

domino:~# ./storcli64 /c0/v0 set accesspolicy=rw

Controller = 0

Status = Success

Description = None

Details Status :

==============

---------------------------------------

VD Property  Value Status  ErrCd ErrMsg

---------------------------------------

 0 AccPolicy RW    Success     0 -

---------------------------------------

8.7.2.19 设置RAID组的I/O策略

命令功能

设置RAID组的I/O策略。

命令格式

storcli64 /ccontroller_id/vraid_id set iopolicy=mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAIDID

-

mode

设置RAID组的I/O策略

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

 

以上涉及的各个ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置RAID组的I/O策略为“direct”。

[root@linux ~]# storcli64 /c0/v1 set iopolicy=direct
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.14.0-115.el7a.0.1.aarch64
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
----------------------------------------
VD Property Value  Status  ErrCd ErrMsg
----------------------------------------
 1 IoPolicy Direct Success     0 -
----------------------------------------

8.7.2.20 设置硬盘Cache状态

命令功能

设置RAID组成员盘的Cache状态。

命令格式

storcli64 /ccontroller_id/vvd_id set pdcache=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

RAID组的ID

action

要执行的操作

l     on:打开硬盘Cache

l     off:关闭硬盘Cache

l     default:将硬盘Cache设置为默认状态

 

以上涉及的各个ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 打开ID0RAID组的硬盘Cache

./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
---------------------------------------
VD Property Value Status  ErrCd ErrMsg
---------------------------------------
 0 PdCac    On    Success     0 -
---------------------------------------

8.7.2.21 设置RAID组的Cache读写策略

命令功能

设置RAID组的Cache读写策略。

命令格式

命令

说明

storcli64 /ccontroller_id/vraid_id set wrcache=wrmode

设置Cache写策略

storcli64 /ccontroller_id/vraid_id set rdcache=rdmode

设置Cache读策略

 

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAID组的ID

可以为all,表示所有RAID

wrmode

设置Cache写策略

l     wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”策略。

rdmode

设置Cache读策略

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     noraRAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

 

查看RAID控制卡ID的方法请参见8.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置Cache写模式为“wt”。

domino:~# ./storcli64 /c0/v0 set wrcache=wt
Controller = 0 
Status = Success 
Description = None 
Details Status : 
============== 
--------------------------------------- 
VD Property Value Status  ErrCd ErrMsg 
--------------------------------------- 
 0 wrCache  WT    Success     0 - 
---------------------------------------

8.7.2.22 设置紧急热备功能

命令功能

设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。

命令格式

storcli64 /ccontroller_id set eghs eug=state

storcli64 /ccontroller_id set eghs smarter=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

state

紧急热备功能的启用状态

l     on:启用

l     off:禁用

 

使用指南

使用实例

# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。

domino:~# ./storcli64 /c0 set eghs eug=on
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
------------------ 
Ctrl_Prop   Value 
------------------ 
EmergencyUG ON 
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
----------------------- 
Ctrl_Prop        Value 
----------------------- 
EmergencySmarter ON 
-----------------------

8.7.2.23 设置RAID前台初始化

命令功能

设置RAID前台初始化模式。

命令格式

storcli64 /ccontroller_id/vraid_id start mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

mode

前台初始化模式

l     init:只把RAID的首尾10MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。

l     init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。

 

使用指南

使用实例

# 快速初始化RAID

domino:~# ./storcli64 /c0/v0 start init

Controller = 0

Status = Success

Description = Start INIT Operation Success

8.7.2.24 设置硬盘直通功能

命令功能

设置RAID控制卡的硬盘直通功能的使能情况,并指定直通硬盘。

命令格式

storcli64 /ccontroller_id set jbod=state

storcli64 /ccontroller_id/eenclosure_id/sslot_id set JBOD

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

硬盘槽位号

state

RAID控制卡JBOD功能的使能情况

l     on

l     off

 

使用指南

使用实例

# 使能RAID控制卡的硬盘直通功能,并设置slot 7硬盘为直通盘。

domino:~# ./storcli64 /c0 set jbod=on

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

----------------

Ctrl_Prop Value

----------------

JBOD      ON

----------------

domino:~# ./storcli64 /c0/e252/s7 set JBOD

Controller = 0

Status = Success

Description = Set Drive JBOD Succeeded.

8.7.2.25 设置硬盘定位指示灯状态

命令功能

点亮和熄灭指定硬盘的定位指示灯。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。

slot_id

硬盘槽位号

可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。

action

要执行的操作

l     start

l     stop

 

使用指南

使用实例

# 点亮slot 7硬盘的定位指示灯。

domino:~# ./storcli64 /c0/e252/s7 start locate

Controller = 0

Status = Success

Description = Start Drive Locate Succeeded.

8.7.2.26 设置硬盘PowerSave功能

命令功能

设置空闲硬盘和热备盘的省电模式。

命令格式

storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

state

省电模式的启用状态。

l     on:启用

l     off:禁用

disktype

硬盘类型。

l     1:空闲硬盘

l     2:热备盘

time

等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。

单位为minutes

 

使用指南

使用实例

# 设置空闲硬盘的省电模式。

domino:~# ./storcli64 /c0 set ds=on type=1 spindowntime=30

Controller = 0

Status = Success

Description = None

Controller Properties:

=====================

--------------------------

Ctrl_Prop    Value

--------------------------

SpnDwnUncDrv Enable

SpnDwnTm     30 minutes

--------------------------    

8.7.2.27 设置后台资源占用率

命令功能

设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。

命令格式

storcli64 /ccontroller_id set action=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

mode

要设置的项目

l     bgirate:后台初始化速率

l     ccrate:一致性校验速率

l     prrate:硬盘巡检速率

l     rebuildrateRAID重构速率

l     reconrateRAID扩容和迁移速率

 

使用指南

使用实例

# 设置硬盘巡检速率为“30%”。

domino:~# ./storcli64 /c0 set prrate=30

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

-----------------------

Ctrl_Prop        Value

-----------------------

Patrol Read Rate 30%

-----------------------    

8.7.2.28 设置自动恢复热备盘状态

命令功能

对热备盘进行插拔后,热备盘状态变为Ubad,设置自动恢复热备盘状态后,热备盘状态会自动恢复成hotspare,若不设置自动恢复热备盘状态,则需要手动恢复热备盘状态。

命令格式

storcli64 /ccontroller_id set restorehotspare=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

state

设置启用或禁用自动恢复热备盘状态

on:启用自动恢复热备盘状态

off:禁用自动恢复热备盘状态

 

查看RAID控制卡ID的方法请参见8.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 启用热备盘状态自动恢复

# 关闭热备盘状态自动恢复

8.7.2.29 设置BIOS Stop on Error功能

命令功能

设置控制卡BIOS在检测到异常时停止继续启动的功能。

命令格式

storcli64 /ccontroller_id set bios mode=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要执行的操作

l     soe:控制卡BIOS在检测到异常时停止启动

l     be:忽略检测到的异常

 

使用指南

使用实例

# 开启Stop on error功能。

domino:~# ./storcli64 /c0 set bios mode=soe

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

----------------

Ctrl_Prop Value

----------------

BIOS Mode SOE

----------------

8.7.2.30 查询和清除PreservedCache数据

命令功能

查询和清除PreservedCache数据。

命令格式

storcli64 /ccontroller_id show preservedcache

storcli64 /ccontroller_id/vvd_id delete preservedcache force

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要操作的RAIDID

 

使用指南

使用实例

# 查询PreservedCache

domino:~# ./storcli64 /c0 show preservedcache

Controller = 0

Status = Success

Description = No Virtual Drive has Preserved Cache Data.    

8.7.2.31 通过增加成员盘可用容量扩容RAID

命令功能

RAID2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

命令格式

storcli64 /ccontroller_id/vvd_id exoand size=capacity [expandarray]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

要扩容的RAIDID

-

capacity

扩容后的容量

-

expandarray

当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。

-

 

使用指南

使用实例

# 查询VD的可扩展容量。

[root@localhost ~]# storcli64 /c0/v1 show expansion
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
EXPANSION INFORMATION :
=====================
 
--------------------------------------------
VD      Size OCE NoArrExp WithArrExp Status
--------------------------------------------
 1 10.000 GB Y   3.627 TB 5.447 TB   -
--------------------------------------------
 
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion
 VD=Virtual Drive | NoArrExp - Without Array Expansion

如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。

# VD0的容量扩大“200GB”。

domino:~# ./storcli64 /c0/v0 expand size=200GB
Controller = 0 
Status = Success 
Description = expansion operation succeeded. 
EXPANSION RESULT : 
================ 
-------------------------------------------------------------------------------- 
VD     Size FreSpc     ReqSize  AbsUsrSz   %FreSpc NewSize    Statsu NoArrExp 
-------------------------------------------------------------------------------- 
 0 100.0 GB 457.861 GB 200.0 GB 201.458 GB      44 301.458 GB -      457.861 GB 
-------------------------------------------------------------------------------- 
Size - Current VD size|FreSpc - Freespace available before expansion 
%FreSpc - Requested expansion size in % of available free space 
AbsUsrSz - User size rounded to nearest %

RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。

8.7.2.32 通过增加新盘扩容或迁移RAID

命令功能

RAID2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

当增加新盘后,可进行RAID级别迁移。

命令格式

storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

vd_id

要操作的RAIDID

slot_id

要加入RAID的新硬盘的槽位号

level

增加硬盘后RAID的级别

l     与原RAID级别相同时,该命令为扩大RAID容量。

l     与原RAID级别不同时,该命令为RAID级别迁移。

 

使用指南

使用实例

# RAID 0中增加slot 2硬盘扩容。

domino:~# ./storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2

Controller = 0

Status = Success

Description = Start MIGRATE Operation Success.    

domino:~# ./storcli64 /c0/v0 show migrate

Controller = 0

Status = Success

Description = None

VD Operation Status :

===================

-------------------------------------------------------

VD Operation Progress% Status      Estimated Time Left

-------------------------------------------------------

 0 Migrate           1 In progress 13 Minutes

-------------------------------------------------------    

# 单盘RAID 0加盘迁移至RAID 1

domino:~# ./storcli64 /c0/v0 start migrate type=r1 option=add drives=252:3

Controller = 0

Status = Success

Description = Start MIGRATE Operation Success.    

domino:~# ./storcli64 /c0/v0 show migrate

Controller = 0

Status = Success

Description = None

VD Operation Status :

===================

-------------------------------------------------------

VD Operation Progress% Status      Estimated Time Left

-------------------------------------------------------

 0 Migrate           1 In progress 14 Minutes

-------------------------------------------------------    

8.7.2.33 配置CacheCade虚拟磁盘

命令功能

可使用SSD硬盘创建CacheCade虚拟磁盘。

命令格式

storcli64 /ccontroller_id add vd cc raidlevel drives=enclosure_id:disk

storcli64 /ccontroller_id/vvd_id del cachecade

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

level

RAID级别

用于CacheCadeRAID可配置为RAID 0RAID 1

disk

成员盘的槽位号

当配置多个成员盘时,参数为槽位范围,例如03

vd_id

待删除的CacheCade RAIDID

 

使用指南

使用实例

# 配置单盘CacheCade RAID 0

domino:~# ./storcli64 /c0/ add vd cc raid0 drives=252:0

Controller = 0

Status = Success

Description = Add VD Succeeded    

# 删除CacheCade RAID 0

domino:~# ./storcli64 /c0/v0 del cachecade

Controller = 0

Status = Success

Description = Disassociation of the Cachecade virtual drive is in progress and can take a few minutes to complete.

The Cachecade virtual drive is deleted after the disassociation is complete.    

8.7.2.34 升级硬盘FW

命令功能

升级硬盘的FW

命令格式

./storcli64 /ccontroller_id /eenclosure_id/sslot_id download src=FW_name.bin

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

FW_name

硬盘FW的名称

 

以上涉及的各个ID的查询方法请参见8.7.2.1 查询RAID控制卡配置信息

使用实例

#升级硬盘FW

[root@localhost ~]# ./storcli64 /c0/e64/s5 download src=5200_D1MU004_Releasefullconcatenatedbinary.bin
Starting microcode update  .....please wait...
Flashing PD image  ..... please wait...
Controller = 0 
Status = Success 
Description = Firmware Download succeeded. 
 
Drive Firmware Download : 
======================== 
-------------------------------------------------------------------------------- 
Drive     Status  ErrCd    ErrMsg 
-------------------------------------------------------------------------------- 
/c0/e64/s5 Success   0        -
--------------------------------------------------------------------------------

8.7.2.35 手动重构RAID

命令功能

手动重构RAID组。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row

storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

要加入Array的物理硬盘槽位编号

DG

硬盘发生故障的DGID

Arr

硬盘发生故障的ArrayID

Row

硬盘发生故障的Arrayrow number

 

以上涉及的各个ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

重构RAID3个步骤进行:

1.通过./storcli64 /c0 show 命令,查询故障硬盘的DGArrRow所对应的数字。

2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。

3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID

使用实例

# 将硬盘加入RAID组。

[root@localhost ~]# storcli64 /c0/e252/s1 insert dg=0 array=0 row=0
Controller = 0
Status = Success
Description = Insert Drive Succeeded.

# 手动重构RAID

[root@localhost ~]# storcli64 /c0/e252/s1 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

8.7.2.36 收集和清除RAID控制卡日志

命令功能

收集和清除RAID控制卡的日志。

命令格式

命令

说明

storcli64 /ccontroller_id show termlog [type=logtype] [logfile[=filename]]

收集RAID控制卡的日志。

storcli64 /ccontroller_id delete termlog

删除RAID控制卡的日志。

storcli64 /ccontroller_id show alilog [logfile[=filename]]

收集控制卡属性信息、TTY日志和事件到指定文件。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

logtype

查询日志类型。

l     config:查询TTY BBU缓存设置。

l     content:查询日志信息。

缺省值:content

filename

文件名称,将保存日志到此文件。

可自定义文件名称,缺省时将默认保存至“StorSAS.log”文件中。

 

查询RAID控制卡ID的查询方法请参见8.7.2.1 查询RAID控制卡配置信息

使用指南

使用实例

# 收集RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19  6:48:11: C0:TTY History buffer cleared
 
Controller = 0
Status = Success
Description = None

# 删除RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 delete termlog
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------------------
Ctrl Method Result
----------------------------
   0 Delete Termlog deleted
----------------------------

8.7.2.37 查看/导入/清除外部配置

命令功能

指导用户查看、导入或者清除RAID控制卡的外部配置。

命令格式

storcli64 /ccontroller_id/fall action

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

action

要执行的操作

l     import preview:查看外部配置

l     import:导入外部配置

l     delete:清除外部配置

 

使用指南

使用实例

# 查看RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall import preview
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
 
 
FOREIGN PREVIEW :
===============
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Total foreign drive groups = 0

# 删除RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall delete
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration

8.7.2.38 升级控制卡FW

命令功能

升级控制卡FW

命令格式

命令格式

说明

storcli64 /cController_ID download file=xxx.rom [noverchk]

升级控制卡FW

 

参数说明

参数

参数说明

取值

controller_id

控制卡ID

-

xxx.rom

固件包的名称

-

 

使用指南

l     使用noverchk参数时将不检查固件包,降级版本时必须使用此参数。

l     升级完成后,需重新上下电服务器使固件包生效。

使用实例

#升级控制卡FW

[root@localhost fw]# ./storcli64_arm /c0 download file =FW4.rom noverchk
Download Completed.
Flashing image to adapter...
Controller = 0
Status = Success
Description = F/W Flash Completed.Please reboot the system for the changes to take effect.


9 Avago SAS3508

关于本章

本章节主要介绍Avago SAS3508 RAID控制卡的外观、特性、以及配置方法。

本章节涉及的截图以5.060.00-2262 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

8.1  概述

8.2  功能

8.3  初始配置

8.4  常用配置

8.5  故障处理

8.6  管理界面介绍

8.7  OS命令行工具

9.1 概述

Avago SAS3508 RAID 控制卡(以下简称Avago SAS3508)是基于MegaRAID架构的8端口12Gbit/s SAS控制卡,并采用PCIe3.0 x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

Avago SAS3508用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

Avago SAS3508支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考9.2.16 硬盘直通

Avago SAS3508自带的CacheRAID控制卡性能的提升有非常重要的作用,主要体现在:

l     在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

l     在读数据时,如果可以直接在Cache中命中的话,将减少硬盘寻道操作,降低响应时间,提升了数据读速度。

l     Cache数据的掉电保护依赖于与RAID控制卡相连的超级电容。超级电容的外形、连接方式、安装方式可参考各服务器的用户指南。

l     Avago SAS3508分为支持配置超级电容与不支持配置超级电容两种形态,只有支持配置超级电容的RAID控制卡具有Cache数据的掉电保护功能。

l     Avago SAS3508不支持flush write verify功能。

Avago SAS3508包含PCIe标卡与扣卡两种形态:

l     Avago SAS3508扣卡与主板通过1Xcede连接器互连,与硬盘背板通过2miniSAS线缆互联。

l     Avago SAS3508扣卡包含两种类型,分别如9-19-2所示。

l     Avago SAS3508PCIe标卡安装在服务器的PCIe槽位上,结构如9-39-4所示。

图9-1 Avago SAS3508扣卡(1

 

图9-2 Avago SAS3508扣卡(2

 

图9-3 Avago SAS3508标卡(带超级电容)

 

图9-4 Avago SAS3508标卡(不带超级电容)

 

1

超级电容

2

miniSAS接口(port BSFF-8643

3

超级电容接口

4

RAID控制卡

5

超级电容错误状态指示灯

6

Avago SAS3508 RAID控制卡写入/读出NAND Flash的状态指示灯

7

单板电源指示灯

8

系统心跳灯

9

Xcede连接器

10

miniSAS接口(port ASFF-8643

 

Avago SAS3508单板指示灯说明如9-1所示。

表9-1 RAID控制卡单板指示灯说明

指示灯

颜色

说明

单板电源指示灯

绿色

l     亮:电源正常

l     灭:电源关闭或异常。

超级电容错误状态指示灯

红色

l     亮:超级电容状态异常。

l     灭:超级电容正常或不在位。

Avago SAS3508写入/读出NAND Flash的状态指示灯

绿色

l     亮:Avago SAS3508 RAID控制卡当前处于写入/读出NAND Flash的状态。

l     灭:Avago SAS3508 RAID控制卡当前不处于写入/读出NAND Flash的状态。

系统心跳灯

绿色

l     灯以2s周期闪烁:Avago SAS3508 RAID控制卡正在工作。

l     灯灭:Avago SAS3508 RAID控制卡未开始运行或FW运行异常。

 

9.2 功能

9.2.1 支持多种RAID类型

Avago SAS3508支持的硬盘、虚拟磁盘、硬盘组数量分别为:

l     最多支持32240个硬盘(Avago SAS3508支持2种规格的RAID Key,分别支持32盘和240盘)。

该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

l     最多支持64个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

l     最多支持64个硬盘组(即配置界面中看到的“Drive Group”),每个硬盘组最多支持32240个硬盘。

l     每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

Avago SAS3508支持的RAID类型及对应的硬盘个数如9-2所示。

表9-2 RAID-硬盘参数

RAID级别

支持硬盘数

支持子组数

子组支持硬盘数

允许坏盘数

RAID 0

132

不涉及

不涉及

0

RAID 1

2~32(偶数)

硬盘数÷2

RAID 5

332

1

RAID 6

332

2

RAID 10

4~32/240(偶数)

28RAID 1

2~16/32(偶数)

子组数

RAID 50

632/240

28RAID 5

316/32

子组数

RAID 60

632/240

28RAID 6

316/32

子组数x2

 

l     不支持RAID 00级别。

l     子组数:子RAID的个数,例如RAID 50由两个RAID 5组成,则子组数为2

l     RAID 10RAID 50每个子组中最多允许1个坏盘。

l     RAID 60每个子组中最多允许2个坏盘。

l     根据配置的key类型不同,RAID 105060支持的硬盘数有所不同。

l     RAID105060包含的总硬盘数由子组数和子组支持的硬盘数共同决定。

9.2.2 硬盘热备份

Avago SAS3508的热备功能分为两种:热备盘和紧急备份。

热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     Global HSP:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

配置方法请参见9.4.1.1 配置全局热备盘

l     Dedicated HSP:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

配置方法请参见9.4.1.2 配置局部热备盘

热备盘容量需大于等于成员盘容量。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须是SATA硬盘或SAS硬盘,容量不小于RAID成员盘最大容量。

l     RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

紧急备份

使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代failprefail状态的成员盘并进行重构,避免数据丢失。

l     紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。

l     在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。

l     紧急备份的硬盘生效次序:相同类型硬盘 > 相同接口不同介质类型硬盘 > 不同接口相同介质类型硬盘 > 不同接口不同介质类型硬盘。

紧急备份有两种情况,对应了两种设置:

l     当成员盘fail时,空闲盘替代成员盘作为紧急备份。

l     当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。

具体配置方法请参见9.4.2 设置紧急热备功能

9.2.3 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考9.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

9.2.4 回拷

具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。

l     不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:

l     RAID组状态保持Optimal不变。

l     热备盘状态由Online变为Hot Spare

l     新加入硬盘状态由Copyback/Copybacking变为Online

l     可使用命令行工具暂停或继续回拷,具体请参见9.7.2.12 查询和设置回拷

l     若回拷时重启服务器,进度将保存。

l     局部热备以及全局热备,更换故障盘后,均会产生回拷。

9.2.5 硬盘分条

条带化

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待。

条带化技术是一种自动的将I/O的负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

影响条带化效果的因素有:

l     条带宽度:指同时可以并发读或写的条带数量。

这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。在其他条件一样的前提下,一个由818G硬盘组成的阵列相比一个由436G硬盘组成的阵列具有更高的传输性能。

l     条带大小:指写在每块硬盘上的条带数据块的大小。

分条

硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。

Avago SAS3508支持多种条带大小,包括64KB128KB256KB512KB1MB,默认条带大小为256KB

配置RAID时一般采用默认值。

9.2.6 RAID级别迁移

RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见9.4.5 迁移RAID级别

当前支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1RAID 5RAID 6

l     RAID 1迁移到RAID 0RAID 5RAID 6

l     RAID 5迁移到RAID 0RAID 6

l     RAID 6迁移到RAID 0RAID 5

RAID迁移对硬盘数量的要求如9.2.6 RAID级别迁移所示。

表9-3 RAID迁移的硬盘数量说明

迁移RAID级别

原始硬盘组硬盘数量

迁移后的硬盘组硬盘数量

RAID 0迁移到RAID 1

132

2~32(偶数)

RAID 0迁移到RAID 5

132

332

RAID 0迁移到RAID 6

132

332

RAID 1迁移到RAID 0

2~32(偶数)

2~32

RAID 1迁移到RAID 5

2~32(偶数)

332

RAID 1迁移到RAID 6

2~32(偶数)

332

RAID 5迁移到RAID 0

332

332

RAID 5迁移到RAID 6

332

332

RAID 6迁移到RAID 0

332

332

RAID 6迁移到RAID 5

332

332

 

9.2.7 初始化

VD初始化

创建VDVirtual Drive)后,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。Avago SAS3508提供了多种相应的初始化方式:

l     前台初始化:

     快速初始化:Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。

     完全初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。

l     后台初始化:

     对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。

     对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。

一致性校验和后台初始化通常会对性能造成一定损失,直至该操作完成。

一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。

硬盘初始化

硬盘可执行的初始化包括:

l     Initialize Drive:对前100MByte空间进行全写0操作。

l     Drive Erase:对全部空间进行写0操作。

不支持停止SATA SSD的擦除和初始化过程。

9.2.8 可用容量扩展

Avago SAS3508支持的容量扩展方式有两种:

l     通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。

详细操作方法可参考9.4.3 添加新硬盘到RAID

l     通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。

详细操作方法可参考9.4.4 扩展Virtual Drives可用空间

l     只有RAID 0RAID 1RAID 5RAID 6支持增加硬盘扩容。

l     RAID10RAID 50RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0RAID 5RAID 6每次只能增加1块硬盘。

l     当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见9.7.2.30 通过增加成员盘可用容量扩容RAID

9.2.9 安全数据擦除

安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘和硬盘的安全擦除功能:

l     Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。

l     Normal:对虚拟磁盘或硬盘进行三轮擦除动作。

l     Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。

安全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。

Avago SAS3508支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。

9.2.10 写洞保护

系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况,称之为写洞。

将写失败的数据备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:

l     RAID  1RAID 5RAID 6RAID 10RAID 50RAID 60支持写洞保护,Write hole数据都保存在掉电保护区,不需要开关控制。

     掉电保护装置可用时,Write hole数据异常掉电重启后会进入恢复流程。

     掉电保护装置不可用时,记录在掉电保护区的Write hole数据异常掉电后丢失,不做Write hole恢复。

l     RAID 1RAID 5掉线盘时不可做写洞保护。

l     RAID 6掉线一块盘时可做写洞保护。

l     RAID 10RAID 50RAID 60部分降级时可做写洞保护,按子组恢复数据。完全降级时不可做写洞保护。

l     不对RAID 0做写洞保护。

9.2.11 读写高速缓存

Avago SAS3508支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:

l     Read:读策略选择“Read Ahead”模式,Avago SAS3508在读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,提升了数据读速度。

l     Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,Avago SAS3508就向HOST发出数据传输完成的信号。

在写数据时,直接写入Cache,当写入的数据积累到一定程度,Avago SAS3508才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

9.2.12 数据掉电保护

数据写入高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用高速缓存来提升系统性能。

l     开启高速缓存可提升整机写性能,当服务器写压力减小或高速缓存将写满时,数据再由高速缓存写入硬盘。

l     开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。

为了提升整机的高读写性能和高速缓存中数据的安全,可为Avago SAS3508配置超级电容。

超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将高速缓存中的数据写入超级电容模块中的NAND Flash中。

Avago SAS3508分为支持配置超级电容与不支持配置超级电容两种形态,只有支持配置超级电容的RAID控制卡可以启用数据掉电保护功能。

超级电容电量校准

由于数据保护需要超级电容的配合,为了记录超级电容的放电曲线,以便RAID控制卡了解超级电容的状态,例如最大和最小电压等,同时为了延长超级电容的寿命,RAID控制卡默认启动超级电容自动校准模式。

RAID控制卡通过如下所述的三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。

1.     RAID控制卡将超级电容的电量充到最大值。

2.     自动启动校准进程,将超级电容完全放电。

3.     重新开始充电,直至达到最大电量。

超级电容电量校准过程中,RAID控制卡写策略自动调整为“WT”模式以保证数据完整性,此时RAID控制卡性能会降低。电量校准的时间取决于超级电容充放电速度。

9.2.13 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     动态扩盘

l     完全初始化或后台初始化

l     一致性校验

9.2.14 自动SMART扫描

S.M.A.R.TSelfMonitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据受到损失。

RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。

9.2.15 硬盘节能

RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SASSATA机械硬盘均支持此功能。

默认情况下,硬盘节能功能处于开启状态。

当硬盘节能功能开启且在指定时间内没有I/O访问时,RAID控制卡下挂载的“Uncongfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。

9.2.16 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

Avago SAS3508可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在Avago SAS3508下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。

Avago SAS3508支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

如果需要使能硬盘直通功能,请在9-62所示界面的“JBOD Mode”参数进行设置。

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

9.2.17 硬盘漫游

硬盘漫游是指在同一控制卡下移动物理硬盘。控制卡将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。

要使用硬盘漫游,按以下步骤操作:

1.     关闭操作系统。

2.     将服务器下电。

3.     将物理硬盘移动到背板所需位置。

4.     执行安全检查。确保正确插入物理硬盘。

5.     将服务器上电。

6.     控制卡从物理硬盘上的配置数据中检测到RAID配置。

9.2.18 导入外部配置

如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。

此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。

9.2.19 硬盘故障记录

Avago SAS3508提供硬盘故障记录功能:

l     使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。

l     禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,Avago SAS3508会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。

维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。

l     使能该功能后,当硬盘故障时,会点亮Fault指示灯。

l     禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。

默认情况下,Avago SAS3508使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。

9.2.20 一致性校验

针对有冗余功能的RAID 156105060RAID控制卡可以对RAID组的硬盘数据进行一致性校验,对硬盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。

由于RAID 0不具备冗余性,因此不支持一致检查。

建议每月至少进行一次一致性校验。

9.3 初始配置

文档中描述的关于Avago SAS3508的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。

9.3.1 进入管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如9-5所示界面时,按“Delete”,进入输入密码界面。

图9-5 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如9-6所示界面。

图9-6 Setup Utility界面

 

                                步骤 4     通过“”或“→ ”进入“Advanced”页签,如9-7所示。

图9-7 “Advanced”页签

 

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见9.5.4 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择“Avago <SAS3508> Configuration Utility”,按“Enter”。

进入Avago SAS3508主界面,如9-89-9所示,界面参数如9-4所示。

图9-8 Avago SAS3508主界面(1

 

图9-9 Avago SAS3508主界面(2

 

表9-4 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

说明

Avago SAS3508不支持在此界面升级FW

Silence Alarm

板载蜂鸣器的使能状态。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

9.3.2 创建RAID 0

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3508支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见9.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见9.3.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如9-109-11所示,参数说明如9-5所示。

图9-10 Create Virtual Drive1

 

图9-11 Create Virtual Drive2

 

表9-5 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照9.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认值为Direct

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如9-12所示,界面参数如9-6所示。

图9-12 添加成员盘

 

表9-6 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 0支持的硬盘个数为1~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

5.     9-6所述配置过滤条件。

6.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

7.     选择“OK”并按“Enter”返回上级界面。

                                步骤 4     按照9-5所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照9.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

9.3.3 创建RAID 1

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3508支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见9.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见9.3.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如9-139-14所示,参数说明如9-7所示。

图9-13 Create Virtual Drive1

 

图9-14 Create Virtual Drive2

 

表9-7 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照9.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认值为Direct

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如9-15所示,界面参数如9-8所示。

图9-15 添加成员盘

 

表9-8 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 1支持的硬盘个数为2~32(偶数)。

l     RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

5.     9-8所述配置过滤条件。

6.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

7.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     按照9-7所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照9.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

9.3.4 创建RAID 5

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3508支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见9.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见9.3.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如9-169-17所示,参数说明如9-9所示。

图9-16 Create Virtual Drive1

 

图9-17 Create Virtual Drive2

 

表9-9 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照9.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认值为Direct

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 5”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如9-18所示,界面参数如9-10所示。

图9-18 添加成员盘

 

表9-10 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 5支持的硬盘个数为3~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

5.     9-10所述配置过滤条件。

6.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

7.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     按照9-9所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照9.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

9.3.5 创建RAID 6

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3508支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见9.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见9.3.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如9-199-20所示,参数说明如9-11所示。

图9-19 Create Virtual Drive1

 

图9-20 Create Virtual Drive2

 

表9-11 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照9.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认值为Direct

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 6”,并按“Enter”。

                                步骤 3     添加成员盘

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如9-21所示,界面参数如9-12所示。

图9-21 添加成员盘

 

表9-12 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 6支持的硬盘个数为3~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

5.     9-12所述配置过滤条件。

6.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

7.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     按照9-11所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照9.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

9.3.6 创建RAID 10

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3508支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见9.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见9.3.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如9-229-23所示,参数说明如9-13所示。

图9-22 Create Virtual Drive1

 

图9-23 Create Virtual Drive2

 

表9-13 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照9.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认值为Direct

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如9-24所示,界面参数如9-14所示。

图9-24 添加成员盘

 

表9-14 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     9-14所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 10支持28Span,每个Span支持的硬盘数为2~16/32(偶数),且各个Span的硬盘数量必须保持一致。

l     RAID 10支持的硬盘总数为4~32/240(偶数)。

l     RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

7.     单击“OK”完成成员盘配置。

                                步骤 4     创建第2Span

当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如9-25所示。

图9-25 RAID 10的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

3.     在打开的列表中选择第2Span的成员盘。

各个Span的硬盘数量必须保持一致。

4.     选择完成后,选择“Apply Changes”并“Enter”。

提示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

RAID10至少需要创建2Span,最多可以创建8Span

                                步骤 6     按照9-13所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照9.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

9.3.7 创建RAID 50

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3508支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见9.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见9.3.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如9-269-27所示,参数说明如9-15所示。

图9-26 Create Virtual Drive1

 

图9-27 Create Virtual Drive2

 

表9-15 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照9.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认值为Direct

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 50”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如9-28所示,界面参数如9-16所示。

图9-28 添加成员盘

 

表9-16 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     9-16所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 50支持28Span,每个Span支持的硬盘数为316/32(取决于RAID Key的规格),各个Span的硬盘数量必须保持一致。

l     RAID 50支持的硬盘总数为6~32/240(取决于RAID Key的规格)。

l     RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully

7.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     创建第2Span

当配置的级别为RAID 50时,需要配置多个Span,此时配置界面如9-29所示。

图9-29 RAID 50的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

3.     在打开的列表中选择第2Span的成员盘。

各个Span的硬盘数量必须保持一致。

4.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

RAID50至少需要创建2Span,最多可以创建8Span

                                步骤 6     按照9-15所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照9.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

9.3.8 创建RAID 60

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3508支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见9.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见9.3.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如9-309-31所示,参数说明如9-17所示。

图9-30 Create Virtual Drive1

 

图9-31 Create Virtual Drive2

 

表9-17 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照9.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认值为Direct

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 60”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如9-32所示,界面参数如9-18所示。

图9-32 添加成员盘

 

表9-18 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     9-18所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 60支持28Span,每个Span支持的硬盘数为316/32(取决于RAID Key的规格),且各个Span的硬盘数量必须保持一致。

l     RAID 60支持的硬盘总数为6~32/240(取决于RAID Key的规格)。

l     RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully

7.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     创建第2Span

当配置的级别为RAID 60时,需要配置多个Span,此时配置界面如9-33所示。

图9-33 RAID 60的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

3.     在打开的列表中选择第2Span的成员盘。

各个Span的硬盘数量必须保持一致。

4.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

RAID60至少需要创建2Span,最多可以创建8Span

                                步骤 6     按照9-17所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照9.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

9.3.9 配置启动项

同一台服务器配置了单个Avago SAS3508卡或者多种芯片硬盘控制卡的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。

设置启动项的操作方法请参见BIOS主板参数参考的“设置启动设备”章节。

9.4 常用配置

9.4.1 管理热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

Avago SAS3508支持2种类型的热备盘:

l     Global Hotspare:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

l     Dedicated Hotspare:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

9.4.1.1 配置全局热备盘

操作步骤

登录管理界面,具体操作方法请参见9.3.1 进入管理界面

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如9-34所示。

图9-34 Drive Management

 

                                步骤 2     配置全局热备盘。

1.     将“Operation”设置为“Assign Global Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

显示The operation has been performed successfully

3.     按“ESC”完成配置并返回上级界面。

----结束

9.4.1.2 配置局部热备盘

操作步骤

RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

登录管理界面,具体操作方法请参见9.3.1 进入管理界面

                                步骤 1     进入“Drive Management”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如9-35所示。

图9-35 Drive Management

 

                                步骤 2     配置局部热备盘。

1.     将“Operation”设置为“Assign Dedicated Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

打开当前存在的虚拟磁盘列表,如9-36所示。

图9-36 虚拟磁盘列表

 

3.     选择要关联的虚拟磁盘并按“Enter”。

4.     选择“OK”按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

9.4.1.3 删除热备盘

操作场景

当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

操作步骤

登录管理界面,具体操作方法请参见9.3.1 进入管理界面

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如9-37所示。

图9-37 Drive Management

 

                                步骤 2     删除热备盘。

1.     将“Operation”设置为“Unassign Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

5.     按“ESC”完成配置并返回上级界面。

----结束

9.4.2 设置紧急热备功能

操作步骤

登录管理界面,具体操作方法请参见9.3.1 进入管理界面

                                步骤 1     进入“Advanced Controller Properties”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

3.     选择“Advanced Controller Properties”并按“Enter”。

进入“Advanced Controller Properties”界面,如9-38所示。

图9-38 Advanced Controller Properties1

 

                                步骤 2     设置紧急热备。

1.     选择“Spare”并按“Enter”。

2.     将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如9-39所示。

图9-39 Advanced Controller Properties2

 

3.     选择“Apply Changes”并按“Enter”。

显示The operation has been performed successfully

4.     选择“OK”并按“Enter”,完成配置。

----结束

9.4.3 添加新硬盘到RAID

操作场景

 

l     只有RAID 0RAID 1RAID 5RAID 6支持增加硬盘扩容。

l     RAID10RAID 50RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。

l     执行添加新硬盘到RAID操作之前,建议先备份数据。

增加硬盘扩容过程中,如果出现硬盘故障,会导致:

l     若出现故障盘后,RAID组中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID组失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID组。

l     请谨慎执行增加硬盘扩容操作。

操作步骤

登录管理界面。具体操作方法请参见9.3.1 进入管理界面

                                步骤 1     进入“Virtual Drive Management”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”。

进入虚拟磁盘选项界面,如9-40所示。

图9-40 虚拟磁盘选项界面

 

                                步骤 2     添加新硬盘。

1.     选择要进行扩容的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如9-41所示。

图9-41 Operation

 

3.     选择“Reconfigure Virtual Drives”并按“Enter

4.     选择“Go”并按“Enter”。

5.     选择要扩容的RAID级别。

 

增加硬盘扩容时,请保证该处的RAID级别与原级别一致。

6.     选择“Choose the Operation”,并按“Enter”。

进入硬盘选择界面,如9-42所示。

图9-42 Choose the Operation

 

7.     选择要增加的硬盘,并按“Apply Changes”。

进入确认操作界面。

l     增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0RAID 5RAID 6每次只能增加1块硬盘。

l     RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。

8.     选择“Confirm”并按“Enter”。

9.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

10.     选择“OK”并按“Enter”。

返回到如9-43所示界面。

图9-43 选择操作

 

11.     选择“Start Operation”并按“Enter”。

显示操作成功。返回虚拟磁盘选项界面,验证扩容结果,如9-44所示,表示RAID正在进行扩容。

图9-44 虚拟磁盘选项界面

 

----结束

9.4.4 扩展Virtual Drives可用空间

操作场景

Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见9.3.1 进入管理界面

                                步骤 1     进入要操作的虚拟磁盘界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如9-45所示。

图9-45 Virtual Drive Management

 

                                步骤 2     扩容虚拟磁盘。

1.     将“Operation”设置为“Expand Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入虚拟磁盘扩容界面,如9-46界面所示,界面参数如9-19所示。

图9-46 Expand Virtual Drive

 

表9-19 参数说明

参数

参数说明

Current Capacity

虚拟磁盘当前容量。

Available Capacity

可用于扩展的容量。

Enter a Percentage of Available Capacity

输入扩容比例。

Capacity of Virtual Drive after Expansion

扩容后虚拟磁盘容量。

 

3.     设置扩容百分比。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

返回虚拟磁盘选项界面,验证扩容结果,如9-47所示。

图9-47 查看扩容结果

 

----结束

9.4.5 迁移RAID级别

操作场景

随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。

在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。

Avago SAS3508RAID控制卡支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1RAID 5RAID 6

l     RAID 1迁移到RAID 0RAID 5RAID 6

l     RAID 5迁移到RAID 0RAID 6

l     RAID 6迁移到RAID 0RAID 5

RAID迁移对硬盘数量的要求如9-3所示。

l     RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     迁移只支持增加与RAID组成员盘同类型同规格的硬盘。

l     为防止数据丢失,请在该操作之前备份当前RAID组的数据。

l     只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。

l     迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。

RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:

l     若出现故障盘后,RAID组中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID组中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID

请谨慎执行RAID级别迁移操作。

操作步骤

登录管理界面。具体操作方法请参见9.3.1 进入管理界面

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”并按“Enter”。

进入虚拟磁盘选项界面,如9-48所示。

图9-48 虚拟磁盘选项界面

 

                                步骤 2     选择RAID迁移的目标级别。

下面以将RAID 1迁移到RAID 5为例进行说明。

1.     选择要进行迁移的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如9-49所示。

图9-49 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”。

4.     选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如9-50所示。不设置时默认与原RAID组配置一致。

图9-50 Advanced...

 

5.     选择“Go”,并按“Enter”。

进入RAID配置界面,如9-51所示。

图9-51 Reconfigure Virtual Drives

 

6.     选择“New RAID Level”并按“Enter”。

打开RAID迁移的目标级别选择窗口,如9-52所示。

图9-52 选择新的RAID级别

 

7.     选择“RAID 5”并按“Enter”。

                                步骤 3     添加硬盘。

1.     选择“Choose the operation”并按“Enter”。

打开硬盘选择窗口。

2.     选择要增加的硬盘并按“Enter”。

l     RAID迁移对硬盘数量的要求请参见9-3

l     增加的硬盘要与RAID组的成员盘同类型同规格。

3.     选择“Apply Changes”并按“Enter”。

弹出操作确认会话框。

4.     选择“Confirm”并按“Enter”。

5.     选择“Yes”并按“Enter”。

提示操作成功。

6.     选择“OK”并按“Enter”返回9-51界面。

                                步骤 4     RAID级别迁移。

1.     选择“Start Operation”并按“Enter”。

提示操作成功。

                                步骤 5     查看迁移结果。

1.     进入Virtual Drive Management界面,检查迁移结果,如9-53所示,表示RAID正在进行迁移。

图9-53 查看迁移结果

 

l     迁移过程中若重启服务器,该任务将在重启后继续进行。

l     迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。

2.     选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 1”变成“RAID 5”,RAID组容量增大,且“Status”状态显示为“Optimal”,表示RAID迁移成功。

----结束

9.4.6 删除RAID

操作场景

 

RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见9.3.1 进入管理界面

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如9-54所示。

图9-54 Virtual Drive Management

 

                                步骤 2     删除虚拟磁盘。

1.     将“Operation”设置为“Delete Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

9.4.7 重构RAID

操作场景

介绍将带有外部配置的硬盘进行重构的操作方法,不带外部配置硬盘的重构方法请参见9.5.1.1 硬盘故障

操作步骤

在“Main Menu”界面中选择“Drive Management”并按“Enter”。

                                步骤 1     选中要进行重构的硬盘,按“Enter”。

                                步骤 2     将“Operation”设置为“Make Unconfigured Good”。

                                步骤 3     选择“Go”并按“Enter”。

提示The operation has been performed successfully

                                步骤 4     按“Enter”完成配置。

硬盘状态变为“(Foreign,Unconfigured Good”。

                                步骤 5     清除外部配置,具体操作请参见9.4.9 导入和清除外部配置

RAID组开始进行重构。

----结束

当出现硬盘离线情况时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

9.4.8 查看RAID控制卡属性

操作场景

用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。

操作步骤

登录管理界面,具体操作方法请参见9.3.1 进入管理界面

                                步骤 1     进入“Controller Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息,如9-55所示,参数说明如9-20所示。

图9-55 Controller Management

 

表9-20 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见9.3.9 配置启动项

PCI ID

RAID控制卡的PCI ID

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Connector Count

RAID控制卡与主板的接口个数。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制卡操作。

Advanced Controller Properties

查看和修改控制卡的高级属性。

 

                                步骤 2     查看控制卡高级属性。

选择“Advanced Controller Properties”并按“Enter”。

进入控制卡高级属性界面,如9-569-57所示,参数说明如9-21所示。

在该界面下,可查看并修改RAID控制卡的高级属性。

图9-56 Advanced Controller Properties (1)

 

图9-57 Advanced Controller Properties (2)

 

表9-21 参数说明

参数

说明

Profile Management

管理快速RAID

Cache and Memory

查看控制卡CacheMemory信息。

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

Spare

设置控制卡热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

Avago SAS3508 RAID控制卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

容量对齐的模式。包括:

l     None

l     128MB

l     1GB

默认为“1GB”。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制卡BIOS的使能情况。

ROC Temperature

控制卡温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见9.4.9 导入和清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验

JBOD Mode

是否使能硬盘直通功能。

Write Verify

写校验。

Drive Detection Type

随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制卡属性。

可用选项为:

l     Disabled

l     High Latency

l     Aggressive

l     Default

Drive Corrective Action

随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致I/O延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。

l     Disabled:禁用该功能

l     Enabled:开启该功能

Drive Error Threshold

通过该选项设置适当的控制卡属性。

l     Every 8 hours

l     Every1 hours

l     Every 15 mins

l     Every 5 mins

 

----结束

9.4.9 导入和清除外部配置

操作场景

l     服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。

 

l     如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!

l     为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

导入外部配置。

登录管理界面,具体操作方法请参见9.3.1 进入管理界面

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如9-58所示。

图9-58 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如9-59所示。

图9-59 外部配置

 

                                步骤 5     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 8     按“ESC”完成配置返回上级界面。

----结束

清除外部配置。

登录管理界面,具体操作方法请参见9.3.1 进入管理界面

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如9-60所示。

图9-60 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如9-61所示。

图9-61 外部配置

 

                                步骤 5     选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 8     按“ESC”完成配置返回上级界面。

----结束

9.4.10 设置JBOD模式

Avago SAS3508支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

登录管理界面,具体操作方法请参见9.3.1 进入管理界面

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Properties界面,如9-62所示。

图9-62 Advanced Controller Properties

 

                                步骤 2     选择“JBOD Mode”并按Enter

                                步骤 3     选择“Enabled”并按“Enter”。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

9.4.11 创建多个VDVirtual Drive

该场景为使用已存在一个或多个VDRAID组的空闲容量创建多个VD,以RAID0存在一个VD为例,详细操作方法如下:

按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如9-63所示。

图9-63 Create Virtual Drive

 

                                步骤 2     将“Select Drives From”设置为“Free Capacity”,如9-64所示。

图9-64 Create Virtual Drive

 

                                步骤 3     选择“Select Drive Groups”并按“Enter”。

显示当前存在的RAID组(Drive Group),如9-65所示。

图9-65 Select Drive Groups

 

                                步骤 4     选择要创建多个VDRAID组并按“Enter”,如9-66所示。

图9-66 Select Drive Groups

 

                                步骤 5     选择“Apply Changes”并按“Enter”。

提示操作成功。

                                步骤 6     选择“OK”并按“Enter”返回VD配置界面,如9-67所示,参数说明如9-22所示。

图9-67 Create Virtual Drive

 

表9-22 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drive Groups

选择硬盘组。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照9.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当磁盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认值为Direct

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略。可配置的状态有:

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。

l     Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 7     按照9-22所述配置VD的相关属性。

                                步骤 8     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

                                步骤 9     选择“Confirm”并按“Enter”。

                             步骤 10     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                             步骤 11     选择“OK”并按“Enter”完成配置。

可进入Virtual Drive Management界面,查看当前存在的所有VD,如9-68所示。

图9-68 Virtual Drive Management

 

----结束

每个RAID组最多支持创建16VD,如需要继续创建VD,请重复执行步骤1~步骤11

9.4.12 查询RAID控制卡固件版本

查询RAID控制卡固件版本的方法有如下几种:

l     iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。

l     服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见9.7.2.1 查询RAID控制卡配置信息

回显信息中的“FW Version”字段即为RAID控制卡的固件版本。

l     RAID控制卡管理界面进行查询,具体方法为:

a.     登录RAID控制卡的管理界面,具体操作请参见9.3.1 进入管理界面

b.     在主界面中选择“Main Menu”并按“Enter”。

进入“Main Menu”页面,如9-69所示。

图9-69 Main Menu页面

 

c.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如9-70所示。

图9-70 Controller Management界面

 

9.5 故障处理

介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

9.5.1 硬盘相关故障

9.5.1.1 硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

确认故障硬盘槽位。

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考9.6.2.4 Drive Management

l     通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

                                步骤 1     更换新硬盘。

 

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考9.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在9-2查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0

     UEFI模式下创建RAID0的方法请参见9.3.2 创建RAID 0

     通过命令行方式创建RAID0的方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

----结束

9.5.1.2 硬盘状态为failprefail

问题描述

正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代failprefail状态的成员盘并进行重构,避免数据丢失。

但当RAID控制卡未设置紧急热备时,成员盘状态显示为failprefail时,可使用以下方法处理。

处理方法

使用StorCLI工具,具体操作请参考9.7.1 下载和安装StorCLI工具

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考9.7.2.17 设置硬盘状态

storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在EnclosureID

l     slot_id:物理硬盘槽位ID

                                步骤 2     更换离线硬盘。

                                步骤 3     RAID组自动执行重构。

等待重构完成。

----结束

9.5.1.3 硬盘状态为Unconfigured BadUBad

问题描述

硬盘状态显示为Unconfigured BadUBad

处理方法

使用StorCLI工具,具体操作请参见9.7.1 下载和安装StorCLI工具

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见9.7.2.17 设置硬盘状态

storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在EnclosureID

l     slot_id:物理硬盘槽位ID

                                步骤 2     重新查看硬盘状态是否更改为Unconfigured GoodUgood。具体操作请参见9.6.2.4 Drive Management界面或9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤4

                                步骤 3     查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见9.4.9 导入和清除外部配置9.7.2.36 查看/导入/清除外部配置

l     问题解决 => 处理完毕。

l     问题未解决 => 联系技术支持处理。

----结束

9.5.2 电容故障

问题描述

RAID控制卡电容故障时,可能导致服务器出现如下情况:

l     服务器读写速度显著降低。

l     RAID控制卡的CU界面中显示电容状态异常。

处理方法

确认当前使用的RAID控制卡是否支持配置电容。

l      => 步骤2

l      => 步骤7

                                步骤 1     进入RAID控制卡的CU界面,查看电容状态是否为“Optimal”。

电容状态可查询9.6.2.5 Hardware Components界面的“Battery Status”参数。

l      => 处理完毕

l      => 步骤3

                                步骤 2     将服务器下电,打开机箱,并查看RAID控制卡电容是否在位。

l      => 步骤5

l      => 步骤4

                                步骤 3     检查整机配置,为服务器安装电容,查看电容状态是否为“Optimal”。

l      => 处理完毕

l      => 步骤7

                                步骤 4     重新安装RAID控制卡电容,查看电容状态是否为“Optimal”。

l      => 处理完毕

l      => 步骤6

                                步骤 5     更换RAID控制卡电容,查看电容状态是否为“Optimal”,且“问题描述”所述的异常状态是否消失。

l      => 处理完毕

l      => 步骤7

                                步骤 6     联系技术支持处理。

----结束

9.5.3 控制卡故障

问题描述

当服务器出现如下现象时,说明控制卡故障。

l     数据无法写入控制卡控制的硬盘。

l     服务器上报控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     查询兼容性查询助手或者联系技术支持处理。

----结束

9.5.4 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy

问题描述

正常情况下,当服务器配置了RAID控制卡且RAID控制卡状态正常时,进入BIOSAdvanced页签后,会显示RAID控制卡的信息,如9-71所示。

如果Advanced页签不显示RAID控制卡的信息,如9-72所示,则:

l     如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:

     如果不显示驱动打印信息,可尝试下电后重新拔插RAID控制卡再上电、下电后更换RAID控制卡再上电或者联系技术支持。

     如果显示“AVAGO EFI SAS Driver SAS3508”,如9-73所示,则可以通过本章节的指导修复RAID控制卡。

l     如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,如9-74所示,则可以通过本章节的指导修复RAID控制卡;如果不显示,可尝试下电后重新拔插RAID控制卡再上电、下电更换RAID控制卡再上电或者联系技术支持。

图9-71 Advanced页签(1

 

图9-72 Advanced页签(2

 

图9-73 Driver Health Manager

 

图9-74 Advanced页签(3

 

处理方法

l     BIOS的版本为0.98之前版本(不包含0.98版本)时:

a.     Advanced页签选择“Driver Health Manager”并按Enter

进入“Driver Health Manager”界面。

b.     选择要进行修复的RAID控制卡驱动,如“AVAGO EFI SAS Driver SAS3508”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息:

n     显示“The following VDs have missing disks. => 请参见9.5.4.1 The following VDs have missing disks

n     显示“There are offline or missing virtual drives with preserved cache. => 请参见9.5.4.2 There are offline or missing virtual drives with preserved cache

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone=> 请参见9.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

n     显示“Number of disks exceeded the maximum supported count of 32 disks=> 请参见9.5.4.4 Number of disks exceeded the maximum supported count of 32 disks

n     显示“Memory/battery problems were detected / Unexpected power-loss occurred=> 请参见9.5.4.5 Memory/battery problems were detected / Unexpected power-loss occurred

l     BIOS的版本为0.98及以上版本时:

a.     在“Advanced”页签选择“Some drivers are not healthy”。

进入健康状态查询界面。

b.     选择“Repair the whole platform”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息。

n     显示“The following VDs have missing disks. => 请参见9.5.4.1 The following VDs have missing disks

n     显示“There are offline or missing virtual drives with preserved cache. => 请参见9.5.4.2 There are offline or missing virtual drives with preserved cache

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone=> 请参见9.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

n     显示“Number of disks exceeded the maximum supported count of 32 disks=> 请参见9.5.4.4 Number of disks exceeded the maximum supported count of 32 disks

n     显示“Memory/battery problems were detected / Unexpected power-loss occurred=> 请参见9.5.4.5 Memory/battery problems were detected / Unexpected power-loss occurred

RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见0RAID控制卡启动中出现的常见的错误消息及处理方法

9.5.4.1 The following VDs have missing disks

问题描述

9-75所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。

图9-75 状态显示

 

处理方法

修复RAID控制卡。

1.     9-75中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

2.     输入“C”并按“Enter”。

3.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

4.     输入“y”并按“Enter”。

提示“Critical Message handling completed. Please exit”。修复完成。

                                步骤 1     重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

9.5.4.2 There are offline or missing virtual drives with preserved cache

问题描述

9-76所示,进入“Driver Healthy Protocol Utility”界面后,显示“There are offline or missing virtual drives with preserved cache”。

图9-76 状态显示

 

处理方法

选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

                                步骤 1     输入任意内容,并按“Enter”。

提示Critical Message handling completed. Please exit。修复完成。

                                步骤 2     Esc

进入RAID控制卡界面,如9-77所示。

图9-77 RAID控制卡界面

 

                                步骤 3     选择“Discard Preserved Cache”并按Enter

弹出操作确认界面,如9-78所示。

图9-78 操作确认窗口

 

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示操作成功。

                                步骤 6     重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

9.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

问题描述

9-79所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”

图9-79 状态显示

 

处理建议

该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:

l     下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。

l     忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:

a.     9-79中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

b.     输入“c”并按“Enter”。

c.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

d.     输入“y”并按“Enter”。

提示Critical Message handling completed. Please exit

e.     按“Esc”退出当前界面。

弹出确认保存配置会话框,如9-80所示。

图9-80 提示保存会话框

 

f.     按“Y”保存配置,操作完成。

g.     Esc键返回“Device Manager”界面。

h.     选择3508RAID控制卡,并按“Enter”,进入RAID控制卡管理界面。

9.5.4.4 Number of disks exceeded the maximum supported count of 32 disks

问题描述

9-81所示,进入“Driver Healthy Protocol Utility”界面后,显示“Number of disks exceeded the maximum supported count of 32 disks”。

图9-81 状态显示

 

处理方法

出现该打印信息表示当前Avago SAS3508RAID控制卡配置的RAID Key仅支持32个硬盘,请将服务器下电,拔出多余的硬盘,再上电,即会在“Advanced”页签正常显示RAID控制卡信息。如未修复,请联系技术工程师处理。

9.5.4.5 Memory/battery problems were detected / Unexpected power-loss occurred

问题描述

9-82所示,进入“Driver Healthy Protocol Utility”界面后,显示“Memory/battery problems were detected / Unexpected power-loss occurred”。

图9-82 状态显示

 

处理方法

选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

                                步骤 1     输入任意内容,并按“Enter”。

提示Critical Message handling completed. Please exit。修复完成。

                                步骤 2     重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

9.5.4.6 Disabling writes to flash as the flash part has gone bad

问题描述

9-83所示,进入“Driver Healthy Protocol Utility”界面后,显示“Disabling writes to flash as the flash part has gone bad”。

图9-83 状态显示

 

处理方法

将服务器下电。

                                步骤 1     更换RAID控制卡。

                                步骤 2     将服务器上电,导入外部配置恢复原来的RAID配置,请参见9.4.9 导入和清除外部配置9.7.2.36 查看/导入/清除外部配置

检查提示是否清除。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

9.5.5 Controller Mode恢复为RAID

问题描述

RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD modeRAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如9-84所示,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。

图9-84 问题描述

 

当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。

处理方法

(可选)登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Management界面,如9-85所示。

图9-85 Advanced Controller Management界面

 

                                步骤 2     选择“Switch to RAID mode”并按“Enter”。

提示操作成功,如9-86所示。

图9-86 操作成功

 

                                步骤 3     选择“OK”并按“Enter”。

返回到“Advanced Controller Management”界面,显示正在切换模式,如9-87所示。

图9-87 Advanced Controller Management界面

 

                                步骤 4     按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面

                                步骤 5     依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如9-88所示。

图9-88 Advanced Controller Management界面

 

l      => 处理完毕。

l      => 请联系技术支持。

----结束

9.5.6 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死

问题描述

硬盘响应命令超时,控制卡会对硬盘进行复位。3次复位后尚未恢复时将可能耗尽控制卡TMTask Management)资源,触发Fatal error,此时会通过OCROnline Controller Reset)自愈恢复,期间将有短时间业务中断(约30s60s),控制卡复位后会完成踢盘,将故障硬盘置为Ubad状态。

控制卡自愈恢复,需要开启OCR开关。

触发条件

当下发到硬盘的I/O出现超时不响应的情况时,RAID控制卡会通过reset硬盘来恢复,正常情况下,硬盘会重新接入或者多次reset之后会进行踢盘。

当出现reset之后硬盘仍然无法响应RAID控制卡指令且无法踢盘时,RAID控制卡会再次reset进行复位,每次reset会占用RAID控制卡资源,短时间内多次reset会导致RAID控制卡资源耗尽,该场景下,RAID控制卡会通过重新加载FW进行恢复。

该机制为此类卡的正常处理机制,由于架构限制,无法进行优化。

识别方法

l     已安装OS

当遇到短时间业务中断,恢复后查看有被置为Ubad状态的硬盘时,可以查看控制卡日志,搜索dm.c并查看其发生时间,如与业务中断时间节点接近,即可断定为触发了该机制。

注意控制卡与OS时间差。

l     未安装OS

OS时,触发该机制的操作为:从“Advanced”页签进入控制卡界面。若触发该机制,进入控制卡卡操作界面时将会卡住,无法恢复。

处理方法

定位故障硬盘。

l     已安装OS

     如确认触发了该机制并且已经完成了踢盘,需要更换Ubad状态的硬盘。

     如无Ubad状态的硬盘,查看日志并搜索“indicates critical condition”,目标行的“element xx indicates critical condition”中,“xx”即为问题硬盘的槽位号。

已安装OS,但是进入“Advanced”页签的控制卡操作界面卡住,需要重新上下电进入OS,按照以上方式定位故障硬盘。

l     未安装OS

系统未安装OS,出现该异常时,保留预安装OS RAID组数目的硬盘,将其他硬盘拔出并记录槽位号,如成功安装OS进入系统后,按照已安装OS的操作来确认问题硬盘。

                                步骤 1     更换故障硬盘。

l      => 处理完毕。

l      => 请联系技术支持。

----结束

9.5.7 删除Preserved Cache

问题描述

l     无法创建RAID组。

l     进入控制卡主界面后,显示“Discard Preserved Cache”,如9-89所示。

图9-89 控制卡主界面

 

处理方法

进入控制卡主界面。

                                步骤 1     选择“Discard Preserved Cache”并按Enter

弹出操作确认界面,如9-90所示。

图9-90 操作确认窗口

 

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示“The operation has been performed successfully”即操作成功。

----结束

9.6 管理界面介绍

9.6.1 进入管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如9-91所示界面时,按“Delete”,进入输入密码界面。

图9-91 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如9-92所示界面。

图9-92 Setup Utility界面

 

                                步骤 4     通过“”或“→ ”进入“Advanced”页签,如9-93所示。

图9-93 “Advanced”页签

 

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见9.5.4 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择“Avago <SAS3508> Configuration Utility”,按“Enter”。

进入Avago SAS3508主界面,如9-949-95所示,界面参数如9-23所示。

图9-94 Avago SAS3508主界面(1

 

图9-95 Avago SAS3508主界面(2

 

表9-23 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

说明

Avago SAS3508不支持在此界面升级FW

Silence Alarm

板载蜂鸣器的使能状态。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

9.6.2 Main Menu

RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。

界面介绍

Main Menu”界面如9-96,参数说明如9-24所示。

图9-96 Main Menu

 

表9-24 参数说明

参数

参数说明

Configuration Management

配置管理RAID

Controller Management

管理RAID控制卡。

Virtual Drive Management

管理虚拟磁盘。

Drive Management

管理硬盘。

Hardware Components

查询部件信息。

 

9.6.2.1 Configuration Management

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

Configuration Management”界面如9-97,参数说明如9-25所示。

图9-97 Configuration Management

 

表9-25 参数说明

参数

参数说明

Auto Configure RAID 0

自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0

Create Virtual Drive

创建RAID

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Clear Configuration

清除当前所有RAID配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时会显示该参数。

 

查看虚拟磁盘属性

9-97中选择“View Drive Group Properties”并按“Enter”。

打开的界面如9-98,参数说明如9-26所示。

图9-98 View Drive Group Properties

 

表9-26 参数说明

参数

参数说明

Drive Group

硬盘组名称。

Capacity Allocation

硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。

 

清除RAID配置

选择“Clear Configuration”并按“Enter”。

进入操作确认界面。

                                步骤 1     选中“Confirm”并按“Enter”。

                                步骤 2     在打开的列表中选择“Enabled”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 4     按“Enter”。

配置完成。

----结束

查看并导入外部配置

9-97中选择“Manage Foreign Configuration”并按“Enter”。

界面如9-99所示。

图9-99 Manage Foreign Configuration

 

                                步骤 2     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如9-100所示。

图9-100 外部配置

 

                                步骤 3     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     在列表中选择“Enable”并按“Enter”。

                                步骤 6     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 7     选择“OK”并按“Enter”完成配置。

----结束

清除外部配置

选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     在列表中选择“Enable”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

9.6.2.2 Controller Management

该界面提供控制卡管理接口,可查看并修改控制卡的详细参数。

界面介绍

Controller Management”界面如9-101,参数说明如9-27所示。

图9-101 Controller Management

 

表9-27 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见9.3.9 配置启动项

PCI ID

RAID控制卡的PCI ID

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Connector Count

RAID控制卡与主板的接口个数。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制卡操作。

Advanced Controller Properties

查看和修改控制卡的高级属性。

 

更多控制卡操作

9-101中选择“Advanced Controller Management”并按“Enter”。

界面如9-102所示,界面中参数说明如9-28所示。

图9-102 Advanced Controller Management

 

表9-28 参数说明

参数

说明

Clear Controller Events

清除控制卡的事件日志。

Save Controller Events

保存控制卡的事件日志。

Save TTY Log

保存终端操作日志。

Manage SAS Storage Link Speed

管理接口速率。

Manage MegaRAID Advanced Software Options

管理高级软件功能。

Schedule Consistency Check

设置一致性校验参数。

Set Factory Defaults

恢复为出厂配置。

Switch to JBOD mode

切换RAID控制卡的工作模式,默认为RAID模式。当RAID控制卡当前的工作模式为RAID时,显示为“Switch to JBOD mode”;当RAID控制卡当前的工作模式为JBOD时,显示为“Switch to RAID mode”。

RAID控制卡的工作模式仅支持设置为“RAID”,请勿修改为“JBOD”。

如已设置为JBOD,请参见9.5.5 Controller Mode恢复为RAID进行恢复;如需要开启JBOD功能,请参见9.4.10 设置JBOD模式进行设置。

Controller Mode

RAID控制卡当前的工作模式。

 

查看并修改控制卡高级属性

9-101中选择“Advanced Controller Properties”并按“Enter”。

界面如9-1039-104所示,界面中参数说明如9-29所示。

图9-103 Advanced Controller Properties1

 

图9-104 Advanced Controller Properties2

 

表9-29 参数说明

参数

说明

Profile Management

管理快速RAID

Cache and Memory

查看控制卡CacheMemory信息。

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

Spare

设置控制卡热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

Avago SAS3508 RAID控制卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

容量对齐的模式。包括:

l     None

l     128MB

l     1GB

默认为“1GB”。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制卡BIOS的使能情况。

ROC Temperature

控制卡温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见9.4.9 导入和清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验

JBOD Mode

是否使能硬盘直通功能。

Write Verify

写校验。

Drive Detection Type

随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制卡属性。

可用选项为:

l     Disabled

l     High Latency

l     Aggressive

l     Default

Drive Corrective Action

随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致I/O延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。

l     Disabled:禁用该功能

l     Enabled:开启该功能

Drive Error Threshold

通过该选项设置适当的控制卡属性。

l     Every 8 hours

l     Every1 hours

l     Every 15 mins

l     Every 5 mins

 

                                步骤 2     9-103中选择“Task Rates”并按“Enter”。界面如9-105所示,界面中参数说明如9-30所示。

图9-105 Task Rates

 

表9-30 参数说明

参数

说明

Background Initialization <BGI> Rate

设置执行后台初始化的速率。

说明

数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Consistency Check Rate

设置执行一致性校验的速率。

说明

数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Patrol Read Rate

设置执行巡检读取的速率。

说明

数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Rebuild Rate

设置硬盘发生故障时在新硬盘上执行重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Reconstruction Rate

设置执行RAID级别迁移或在线容量扩展时重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Apply Changes

保存配置。

 

                                步骤 3     按照9-29所述修改控制卡的高级属性参数。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     单击“OK”完成配置。

----结束

9.6.2.3 Virtual Drive Management

该界面提供虚拟磁盘的查询和管理接口。

界面介绍

Virtual Drive Management”界面如9-106,显示虚拟磁盘列表。

图9-106 Virtual Drive List

 

选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如9-107所示,参数说明如9-31所示。

图9-107 Virtual Drive Management

 

表9-31 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:定位虚拟磁盘的所有硬盘。

l     Stop Locate:取消定位。

l     Delete Virtual Drive:删除虚拟磁盘。

l     Expand Virtual Drive:扩展虚拟磁盘容量。

l     Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。

l     Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。

l     Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。

l     Fast Initialization:快速初始化虚拟磁盘。

l     Slow Initialization:安全初始化虚拟磁盘。

l     Check Consistency:一致性校验。

l     Virtual Drive Erase:格式化虚拟磁盘。

Progress

当前任务进度。

l     仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。

l     当前界面不会自动刷新,需退出后重新进入查看当前进度。

Stop

停止当前任务。

仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。

Name

虚拟磁盘名称。

Raid Level

虚拟磁盘RAID级别。

Status

虚拟磁盘当前运行状态。

Size

虚拟磁盘容量。

View Associated Drives

查看成员盘属性。

Advanced...

查看虚拟磁盘高级属性。

 

扩展虚拟磁盘容量

将“Operation”设置为“Expand Virtual Drive”。

                                步骤 1     选择“Go”并按“Enter”。

进入虚拟磁盘扩容界面,如9-108界面所示,界面参数如9-32所示。

图9-108 Expand Virtual Drive

 

表9-32 参数说明

参数

参数说明

Current Capacity

虚拟磁盘当前容量。

Available Capacity

可用于扩展的容量。

Enter a Percentage of Available Capacity

输入扩容比例。

Capacity of Virtual Drive after Expansion

扩容后虚拟磁盘容量。

 

                                步骤 2     设置扩容百分比。

                                步骤 3     选择“OK”并按“Enter”。

显示The operation has been performed successfully

                                步骤 4     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

查看成员盘属性

9-107中选择“View Associated Drives”并按“Enter”。

界面如9-109,显示成员盘列表。

图9-109 View Associated Drives

 

                                步骤 2     选择要查看的成员盘,并按“Enter”。

                                步骤 3     选择“View Drive Properties”并按“Enter”。

进入硬盘属性界面,如9-110界面所示,界面参数如9-33所示。

图9-110 View Drive Properties

 

表9-33 参数说明

参数

参数说明

Operation

该成员盘可执行的操作,包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Place Drive Online/Offline:将硬盘上线/离线。

Drive ID

成员盘的ID

Status

成员盘的当前工作状态。

Size

成员盘的容量。

Type

成员盘类型。

Model

成员盘的模块类型。

Hardware Vendor

成员盘的生产厂商。

Associated Virtual Drive

成员盘所在的虚拟磁盘。

Advanced...

查询成员盘更多属性。

 

----结束

查看和修改虚拟磁盘高级属性

9-107中选择“Advanced”并按“Enter”。

界面如9-1119-112所示,界面参数如9-34所示。

图9-111 Advanced 1

 

图9-112 Advanced 2

 

表9-34 参数说明

参数

参数说明

Logical Sector Size

逻辑扇区大小。

Strip Size

条带大小。

Starting Logical Block Addressing

逻辑单元起始地址。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Bad Blocks

是否支持坏块处理。

SSD Caching

是否支持SSD Caching

Access

是否支持Access

Current Write Cache Policy

当前写Cache策略,包括:

l     Write Through:当硬盘子系统接收到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。

l     Write Back:当RAID控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Always Write Back:当未配置超级电容或超级电容故障时,RAID控制卡将不会自动切换到Write Through模式。

说明

“Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR的写数据将会丢失。不推荐使用该模式。

Default Write Cache Policy

默认的写Cache策略。

Disable Background Initialization

是否禁用后台初始化。

Read Cache Policy

当前读Cache策略,包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。RAID控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

Drive Cache

是否支持cache

Input/Output

I/O读取策略,包括:

l     Direct:直接从硬盘读取数据,不经过Cache缓存。

l     Cached:从Cache缓存中读取数据。

Apply Changes

保存配置。

 

                                步骤 2     按照9-34所述配置“Advanced”的参数。

                                步骤 3     选择“Apply Changes”并按“Enter”。

显示The operation has been performed successfully

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

9.6.2.4 Drive Management

该界面显示硬盘基本属性,提供硬盘操作接口。

界面介绍

Drive Management”界面如9-113所示,显示硬盘列表。

图9-113 Drive List

 

选定要操作的硬盘并按“Enter”进入详细操作界面,如9-114所示,参数说明如9-35所示。

图9-114 Drive Management

 

表9-35 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Initialize Drive:硬盘初始化。

l     Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。

     Simple:仅对硬盘进行一轮擦除动作。

     Normal:对硬盘进行三轮擦除动作。

     Thorough:对硬盘进行九轮擦除动作。

     Stop Erase:停止数据擦除操作。

l     Make Unconfigured Good/Bad:修改硬盘状态。

l     Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。

l     Assign Global Hot Spare Drive:设置全局热备盘。

l     Assign Dedicated Hot Spare Drive:设置局部热备盘。

l     Unassign Hot Spare Drive:删除热备盘。

l     Cryptographic Erase:对加密硬盘进行数据擦除。

l     Place Drive Online:将Offline状态的硬盘设置为Online

说明

l     Place Drive Online操作只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。

l     对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。

Drive ID

硬盘的ID

Status

硬盘的当前工作状态。

Size

硬盘的容量。

Type

硬盘的类型。

Model

硬盘型号。

Hardware Vendor

硬盘的生产厂商。

Associated Virtual Drive

表示硬盘已加入虚拟磁盘,此处显示虚拟磁盘信息。

Advanced...

查询更多硬盘属性。

 

安全擦除硬盘数据

该操作会删除硬盘上的数据,请谨慎执行。

将“Operation”设置为“Drive Erase”。

                                步骤 1     选择“Erase Mode”并按“Enter”。

                                步骤 2     在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。

                                步骤 3     选择“OK”并按“Enter”。

进入操作确认界面。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示操作成功。

----结束

查看硬盘属性

选择“Advanced...”并按“Enter”。

打开硬盘属性界面,如9-1159-116所示,参数说明如9-36所示。

图9-115 Drive Properties 1

 

图9-116 Drive Properties 2

 

表9-36 参数说明

参数

参数说明

Logical Sector Size

逻辑扇区大小。

Physical Sector Size

物理扇区大小。

SMART Status

SMART功能是否使能。

Revision

硬盘Firmware版本。

Media Error

Media error个数。

Predicted Fail Count

Pred fail个数。

SAS Address

硬盘SAS地址。

Drive Power State

硬盘上电状态。

Emergency Spare

是否支持紧急备份功能,即是否可以选空闲盘或者热备做备份盘。

Commissioned Hot Spare

是否指定了备份盘,即把一个热备盘指定给一个RAID组使用。

Cache Setting

是否可设置Cache

Available Size

硬盘可用空间。

Used Space

已使用的硬盘空间。

Disk Protocol

硬盘支持的协议。

Device Speed

设备的速率。

Negotiated Drive Transfer Speed

硬盘数据传输速率。

Number of Connections

连接器个数。

FDE Capable

硬盘是否支持FDEFull Disk Encryption)技术。

Protection Capable

硬盘是否支持数据保护。

Temperature

硬盘温度。

 

9.6.2.5 Hardware Components

该界面主要提供RAID控制卡传感器信息。

界面介绍

Hardware Components”界面如9-117,参数说明如9-37所示。

图9-117 Hardware Components

 

表9-37 参数说明

参数

参数说明

Battery Status

电容状态。

Temperature Sensors

当前温度传感器状态。

Fans

当前风扇模块工作状态。

Power Supplies

当前供电模块工作状态。

Battery Management

电容管理。

Enclosure Management

查看更多传感器信息。

 

查看更多传感器信息

选择“Enclosure Management”并按“Enter”。

进入部件选择界面,如9-118所示。

图9-118 选择部件

 

                                步骤 2     选择“Select Enclosure”并按“Enter”。

                                步骤 3     选择要操作的部件并按“Enter”。

                                步骤 4     选择“View Enclosure Status”并按“Enter”。

显示传感器的详细信息。

                                步骤 5     TEMPERATUR SENSOR下通过“Select Temperature Sensor”选择要查询的温度传感器。

Temperature Sensor Status”显示所查询的传感器的状态。

                                步骤 6     FAN下通过“Select Fan”选择要查询的风扇传感器。

Fan Status”显示所查询的传感器的状态。

                                步骤 7     POWER SUPPLY下通过“Select Power Supply”选择要查询的供电模块传感器。

Power Supply Status”显示所查询的传感器的状态。

----结束

9.6.3 View Server Profile

提供RAID控制卡操作管理接口。

界面介绍

View Server Profile”界面如9-119所示,参数说明如9-38所示。

图9-119 View Server Profile

 

表9-38 参数说明

参数

参数说明

UEFI Spec Version

服务器支持的UEFI Spec版本。

Controller Management

提供控制卡管理接口,详细情况请参见9.6.2.2 Controller Management

Hardware Components

提供控制卡部件查询接口,详细情况请参见9.6.2.5 Hardware Components

Drive Management

提供硬盘管理接口,详细情况请参见9.6.2.4 Drive Management

Virtual Drive Management

提供虚拟磁盘管理接口,详细情况请参见9.6.2.3 Virtual Drive Management

 

9.6.4 View Foreign Configuration

该界面可查看、导入、清空外部配置。

界面介绍

View Foreign Configuration”界面如9-120所示。

图9-120 View Foreign Configuration

 

查看并导入外部配置

选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如9-121所示。

图9-121 外部配置

 

                                步骤 2     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     单击“OK”完成配置。

----结束

清除外部配置

选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     单击“OK”完成配置。

----结束

9.6.5 Configure

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

Configure”界面如9-122所示,参数说明如9-39所示。

图9-122 Configure

 

表9-39 参数说明

参数

参数说明

Auto Configure RAID 0

自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0

Create Virtual Drive

创建RAID

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Clear Configuration

清除当前所有RAID配置。

Manage Foreign Configuration

管理外部配置。

 

自动创建RAID0

选择“Auto Configure RAID 0”并按“Enter”。

打开操作确认界面,如9-123所示。

图9-123 Warning

 

自动创建RAID0会导致加入RAID组的硬盘数据丢失,请谨慎操作。

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 4     单击“OK”完成配置。

----结束

快速创建RAID

Create Profile Based Virtual Drive”界面如9-124所示。

图9-124 Create Profile Based Virtual Drive

 

快速创建RAID会导致加入RAID组的硬盘数据丢失,请谨慎操作。

选择要创建的RAID级别(如RAID0),并按“Enter”。

打开RAID组信息界面,如9-125所示。

图9-125 RAID组信息界面

 

                                步骤 2     在“Drive Selection Criteria”中选择加入RAID组的硬盘类型。

                                步骤 3     选择“Save Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 6     选择“OK”并按“Enter”完成配置。

----结束

查看虚拟磁盘属性

选择“View Drive Group Properties”并按“Enter”。

打开的界面如9-126,参数说明如9-40所示。

图9-126 View Drive Group Properties

 

表9-40 参数说明

参数

参数说明

Drive Group

硬盘组名称。

Capacity Allocation

硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。

 

清除当前配置

选择“Clear Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     单击“OK”完成配置。

----结束

9.6.6 Set Factory Defaults

恢复出厂配置

在主界面选择“Set Factory Defaults”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     单击“OK”完成配置。

----结束

9.6.7 Manage MegaRAID Advanced Software Options

该界面提供RAID控制卡高级软件特性查看和导入接口。

界面介绍

Manage MegaRAID Advanced Software Options”界面如9-127所示,界面中参数说明如9-41所示。

图9-127 Manage MegaRAID Advanced Software Options

 

表9-41 参数说明

参数

说明

SAFE ID

RAID控制卡的安全编码。

Serial Number

RAID控制卡序列号。

Activation Key

待激活的高级特性的Key

Active

激活高级特性。

Avago SAS3508不支持高级特性的激活操作,该功能无效。

Deactive All Trail Software

注销当前所有高级特性。

Avago SAS3508不支持高级特性的激活操作,该功能无效。

 

9.6.8 Exit

退出配置界面。

退出配置界面

Avago SAS3508主界面按“ESC”,显示如9-128所示界面。

图9-128 BIOS Setup Utility

 

                                步骤 2     F10退出BIOS

弹出操作确认窗口。

                                步骤 3     选择“OK”并按Enter

退出BIOS,显示“ Press Control+Alt+Delete to reboot”。

----结束

9.7 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

9.7.1 下载和安装StorCLI工具

下载工具

登录BROADCOM网站上RAID控制卡的页面

                                步骤 1     在“DOWNLOADS”页签中单击“Management Software and Tools”。

打开管理软件和工具列表。

                                步骤 2     下载最新版本的“StorCLI”工具。

                                步骤 3     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 1     Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。

StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

9.7.2 常用命令

9.7.2.1 查询RAID控制卡配置信息

命令功能

查询Avago SAS3508的基本配置信息。

命令格式

storcli64 /ccontroller_id show

参数说明

参数

参数说明

取值

controller_id

控制卡ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

 

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡配置信息。

domino:~# ./storcli64 /c0 show
Controller = 0 
Status = Success
Description = None
Product Name = SAS3508
Serial Number = FW-00000000
SAS Address = 3202017050235207
PCI Address = 00:1b:00:00
System Time = 02/12/2016 18:53:00
Mfg. Date = 00/00/00
Controller Time = 02/12/2016 23:53:00
FW Package Build = 50.1.0-0426
BIOS Version = 07.01.04.0_4.17.08.00_0x0701060
FW Version = 5.010.00-0426
Driver Name = megaraid_sas
Driver Version = 07.701.17.00
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x16
SubVendor Id = 0x19E5
SubDevice Id = 0xD215
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 27
Device Number = 0
Function Number = 0
Drive Groups = 4
TOPOLOGY :
========
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size PDC PI SED DS3 FSpace TR
-----------------------------------------------------------------------------
0 - - - - RAID0 Optl N 278.464 GB dflt N N none N N
0 0 - - - RAID0 Optl N 278.464 GB dflt N N none N N
0 0 0 66:18 12 DRIVE Onln N 278.464 GB dflt N N none - N
1 - - - - RAID1 Dgrd N 893.137 GB dflt N N dflt N N
1 0 - - - RAID1 Dgrd N 893.137 GB dflt N N dflt N N
1 0 0 66:3 19 DRIVE Onln N 893.137 GB dflt N N dflt - N
1 0 1 - - DRIVE Msng - 893.137 GB - - - - - N
2 - - - - RAID0 Optl N 1.744 TB dflt N N none N N
2 0 - - - RAID0 Optl N 1.744 TB dflt N N none N N
2 0 0 66:4 20 DRIVE Onln N 893.137 GB dflt N N none - N
2 0 1 66:5 21 DRIVE Onln N 893.137 GB dflt N N none - N
3 - - - - RAID5 Optl N 1.087 TB dflt N N dflt N N
3 0 - - - RAID5 Optl N 1.087 TB dflt N N dflt N N
3 0 0 66:19 13 DRIVE Onln N 371.597 GB dflt N N dflt - N
3 0 1 66:20 14 DRIVE Onln N 371.597 GB dflt N N dflt - N
3 0 2 66:21 16 DRIVE Onln N 371.597 GB dflt N N dflt - N
3 0 3 66:22 15 DRIVE Onln N 371.597 GB dflt N N dflt - N
-----------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Missing Drives Count = 1
Missing Drives :
==============
---------------------
Array Row Size
---------------------
1 1 893.137 GB
---------------------
 
Virtual Drives = 4
VD LIST :
=======
---------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC Size Name
---------------------------------------------------------------
0/1 RAID0 Optl RW Yes RWBD - ON 278.464 GB
1/2 RAID1 Dgrd RW No RWBD - ON 893.137 GB
2/3 RAID0 Optl RW No RWBD - ON 1.744 TB
3/0 RAID5 Optl RW No RWBD - ON 1.087 TB
---------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 21
PD LIST :
=======
-----------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp
-----------------------------------------------------------------------------------
66:2 10 JBOD - 837.256 GB SAS HDD N N 4 KB HUC101890CS4200 U
66:3 19 Onln 1 893.137 GB SATA SSD N N 512B SAMSUNG MZ7KM960HAHP-00005 U
66:4 20 Onln 2 893.137 GB SATA SSD N N 512B SAMSUNG MZ7KM960HAHP-00005 U
66:5 21 Onln 2 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U
66:6 23 JBOD - 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U
66:7 25 JBOD - 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U
66:8 24 JBOD - 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U
66:9 26 JBOD - 744.125 GB SATA SSD N N 512B SAMSUNG MZ7LM800HCHP-00005 U
66:10 27 JBOD - 744.125 GB SATA SSD N N 512B SAMSUNG MZ7LM800HCHP-00005 U
66:11 22 UGood - 384.0 MB SATA SSD N N 512B SAMSUNG MZ7GE480HMHP-00003 U
66:12 28 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7WD480HAGM-00003 U
66:13 30 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7LM480HCHP-00003 U
66:14 29 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7WD480HAGM-00003 U
66:15 31 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7LM480HCHP-00005 U
66:16 32 JBOD - 222.585 GB SATA SSD N N 512B SAMSUNG MZ7KM240HAGR-00005 U
66:17 11 JBOD - 1.089 TB SAS HDD N N 512B HUC101812CSS200 U
66:18 12 Onln 0 278.464 GB SAS HDD N N 512B ST300MM0006 U
66:19 13 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U
66:20 14 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U
66:21 16 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U
66:22 15 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U
-----------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Cachevault_Info :
===============
------------------------------------
Model State Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 28C - 2016/12/06
------------------------------------

9.7.2.2 创建和删除RAID

命令功能

创建、删除RAID

命令格式

命令

说明

storcli64 /ccontroller_id add vd rlevel[0|1|5|6|10|50|60] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [wt|*wb|awb] [nora|*ra] [*direct|cached] [Strip=<8|16|32|64|128|256|1024>] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid]

创建RAID

storcli64 /ccontroller_id/vraid_id del

删除RAID

 

*表示默认值。

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

rlevel

要配置的RAID组级别

level可为0156105060,数字分别代表对应的RAID组级别。

size

要配置的RAID组容量

默认值为all,即所有成员盘的容量之和。

name

要配置的RAID组名称

-

drives

要加入RAID组的硬盘

-

startid-endid

硬盘的起始和结束ID

-

slot_id

硬盘ID

-

pdperarray

子组中的硬盘数

创建RAID10RAID50RAID60时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。

-

pdcache

设置RAID的成员盘的Cache状态

l     on

l     off

l     default

pi

使能数据保护

-

wrcache

设置RAID组的写Cache属性,完整的命令为wrcache=wt|wb|awb,这里“wrcache=”可省略

l     wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”模式。

rdcache

设置RAID组的读Cache属性,完整的命令为rdcache=ra|nora,这里“rdcache=”可省略。

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     noraRAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

iopolicy

设置RAID组的I/O策略,完整的命令为iopolicy=direct|cached,这里“iopolicy=”可省略。

说明

Cache IO的规格后续不再支持,默认为Direct IO,具体信息请查看RAID控制卡固件版本说明书。

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

Strip

设置RAID组条带大小

MR卡:64, 128, 256, 512, 1024

iMR卡:只能为64

单位为KB

EmulationType

控制逻辑盘在OS中上报的扇区

l     0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     1: Disable,即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     2Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Spares

指定RAID组的热备盘

-

raid_id

要删除的RAID组的ID

-

 

l     以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

l     当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid

使用指南

使用实例

# 创建RAID 0

domino:~# ./storcli64 /c0 add vd r0 size=100GB drives=252:0-3
Controller = 0
Status = Success
Description = Add VD Succeeded

# 删除RAID

domino:~# ./storcli64 /c0/v0 del
Controller = 0
Status = Success
Description = Delete VD Succeeded

9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

命令功能

查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。

命令格式

storcli64 /ccontroller_id show

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

storcli64 /ccontroller_id/vvd_id show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

enclosure_id

硬盘所在EnclosureID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡连接的硬盘背板的ID

slot_id

物理硬盘槽位编号

可以将该参数设置为all,表示查询所有硬盘的ID

vd_id

虚拟磁盘ID

可以为all,表示查询所有虚拟磁盘信息。

 

使用指南

回显中主要字段的含义如9-42所示。

表9-42 回显说明

命令格式

字段

含义

举例

storcli64 /ccontroller_id show

Product Name

RAID控制卡的型号

sas3108

FW Version

RAID控制卡的FW版本

4.660.00-8140

Driver Name

RAID控制卡的驱动名称

megaraid_sas

Driver Version

RAID控制卡的驱动版本

06.811.02.00-rh1

Current Personality

RAID控制卡的工作模式

RAID-Mode

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

SN

物理硬盘的序列号

PHWL517601YR800RGN

Manufacturer Id

物理硬盘的供应商ID

ATA

Model Number

物理硬盘的模块序号

INTEL SSDSC2BB800G4

Firmware Revision

物理硬盘的FW版本

D2010370

Raw size

物理硬盘的容量

745.211 GB [0x5d26ceb0 Sectors]

Logical Sector Size

物理硬盘逻辑分区大小

512B

Physical Sector Size

物理扇区大小

4 KB

storcli64 /ccontroller_id/vvd_id show all

TYPE

RAID组的级别

RAID1

State

RAID组的状态

Optl

Access

RAID组数据的访问策略

RW

Cache

RAID组当前的读写策略与I/O Policy

RWTD

Size

RAID组的大小

100.0 GB

PDs for VD0

RAID组下的物理硬盘

-

Strip Size

RAID组的条带大小

256KB

Write Cache(initial setting)

RAIDCache的写策略

Write Through

Disk Cache Policy

RAID组成员盘的Cache策略

Disk's Default

 

使用实例

#查询RAID控制卡的详细信息。

[root@localhost ~]# ./storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
Controller = 0
Status = Success
Description = None
 
Product Name = SAS3508
Serial Number =
SAS Address =  50030130f0900000
PCI Address = 00:01:00:00
System Time = 07/07/2018 22:06:42
Mfg. Date = 00/00/00
Controller Time = 07/07/2018 14:06:41
FW Package Build = 24.16.0-0093
BIOS Version = 6.32.02.0_4.17.08.00_0x06150500
FW Version = 4.660.00-8140
Driver Name = megaraid_sas 
Driver Version = 06.811.02.00-rh1
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x5D
SubVendor Id = 0x19E5
SubDevice Id = 0xD207
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Drive Groups = 1
 
TOPOLOGY :
========
 
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace TR
-----------------------------------------------------------------------------
 0 -   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 0 0   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 0 0   0   252:1    18  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
 0 0   1   252:0    48  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
-----------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 1
 
VD LIST :
=======
 
---------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC       Size Name
---------------------------------------------------------------
0/0   RAID1 Optl  RW     Yes     RWBD  -   ON  744.125 GB
---------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 6
 
PD LIST :
=======
 
---------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model               Sp Type
---------------------------------------------------------------------------------
252:0    48 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:1    18 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:2    19 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BA800G4 U  -
252:3    20 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BA800G4 U  -
252:4    49 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:5    47 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
---------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Cachevault_Info :
===============
 
------------------------------------
Model  State   Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 28C  -    2016/11/04
------------------------------------

#查询slot0的物理硬盘的信息。

[root@localhost ~]# ./storcli64 /c0/e252/s0 show all
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
 
 
Drive /c0/e252/s0 :
=================
 
---------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model               Sp Type
---------------------------------------------------------------------------------
252:0    48 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
---------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Drive /c0/e252/s0 - Detailed Information :
========================================
 
Drive /c0/e252/s0 State :
=======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature =  20C (68.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
 
 
Drive /c0/e252/s0 Device attributes :
===================================
SN = PHWL517601YR800RGN
Manufacturer Id = ATA
Model Number = INTEL SSDSC2BB800G4
NAND Vendor = NA
WWN = 55cd2e404c533246
Firmware Revision = D2010370
Raw size = 745.211 GB [0x5d26ceb0 Sectors]
Coerced size = 744.125 GB [0x5d040800 Sectors]
Non Coerced size = 744.711 GB [0x5d16ceb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 6.0Gb/s
NCQ setting = Enabled
Write cache = N/A
Logical Sector Size = 512B
Physical Sector Size = 4 KB
Connector Name = Port A x1
 
 
Drive /c0/e252/s0 Policies/Settings :
===================================
Drive position = DriveGroup:0, Span:0, Row:1
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = No
Wide Port Capable = No
 
Port Information :
================
 
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
   0 Active 6.0Gb/s   0x4433221100000000
-----------------------------------------
 
 
Inquiry Data =
40 00 ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 48 50 4c 57 31 35 36 37 31 30 52 59
30 38 52 30 4e 47 20 20 00 00 00 00 00 00 32 44
31 30 33 30 30 37 4e 49 45 54 20 4c 53 53 53 44
32 43 42 42 30 38 47 30 20 34 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 01 80
00 40 00 2f 00 40 00 00 00 00 07 00 ff 3f 10 00
3f 00 10 fc fb 00 01 bf ff ff ff 0f 00 00 07 00

# 查询VD 0的信息。

[root@rhel6u5 ~]# /opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
 
 
/c0/v0 :
======
 
---------------------------------------------------------
DG/VD TYPE  State Access Consist Cache sCC     Size Name
---------------------------------------------------------
1/0   RAID1 Optl  RW     Yes     RWTD  -   1.089 TB
---------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|B=Blocked|Consist=Consistent|
R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
 
PDs for VD 0 :
============
 
-----------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model            Sp
-----------------------------------------------------------------------
25:22    14 Onln   1 1.089 TB SAS  HDD N   N  512B ST1200MM0007     U
25:23    26 Onln   1 1.089 TB SAS  HDD N   N  512B ST1200MM0007     U
-----------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded
 
 
VD0 Properties :
==============
Strip Size = 256 KB
Number of Blocks = 2341795840
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 2
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = Disabled
Active Operations = None
Exposed to OS = Yes
Creation Date = 04-01-2018
Creation Time = 12:38:35 PM
Emulation type = None

9.7.2.4 查询超级电容的相关信息

命令功能

查询超级电容的名称及TFM Flash卡缓存容量的大小等信息。

命令格式

storcli64 /ccontroller_id/cv show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以为all,表示所有控制卡。

 

查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用实例

#查询超级电容的相关信息。

[root@localhost ~]# ./storcli64 /c0/cv show all
Controller = 0
Status = Success
Description = None
 
 
Cachevault_Info :
===============
 
--------------------
Property    Value
--------------------
Type        CVPM02
Temperature 28 C
State       Optimal
--------------------
 
 
Firmware_Status :
===============
 
---------------------------------------
Property                         Value
---------------------------------------
Replacement required             No
No space to cache offload        No
Module microcode update required No
---------------------------------------
 
 
GasGaugeStatus :
==============
 
------------------------------
Property                Value
------------------------------
Pack Energy             294 J
Capacitance             108 %
Remaining Reserve Space 0
------------------------------
 
 
Design_Info :
===========
 
------------------------------------
Property                 Value
------------------------------------
Date of Manufacture      04/11/2016
Serial Number            22417
Manufacture Name         LSI
Design Capacity          288 J
Device Name              CVPM02
tmmFru                   N/A
CacheVault Flash Size    8.0 GB
tmmBatversionNo          0x05
tmmSerialNo              0xee7d
tmm Date of Manufacture  09/12/2016
tmmPcbAssmNo             022544412A
tmmPCBversionNo          0x03
tmmBatPackAssmNo         49571-13A
scapBatversionNo         0x00
scapSerialNo             0x5791
scap Date of Manufacture 04/11/2016
scapPcbAssmNo            1700134483
scapPCBversionNo          A
scapBatPackAssmNo        49571-13A
Module Version           6635-02A
------------------------------------
 
 
Properties :
==========
 
--------------------------------------------------------------
Property             Value
--------------------------------------------------------------
Auto Learn Period    27d (2412000 seconds)
Next Learn time      2018/08/03  17:48:38 (586633718 seconds)
Learn Delay Interval 0 hour(s)
Auto-Learn Mode      Transparent
--------------------------------------------------------------

l     上述回显信息中,“Device Name  CVPM02”表示超级电容的名称为 CVPM02”,“CacheVault Flash Size   8.0GB”表示TFM Flash卡缓存容量为“8.0GB”。

l     当回显信息的“State”显示为“FAILED”时,需要更换超级电容。

9.7.2.5 查询和设置Patrolread参数

命令功能

查询和设置系统巡检的相关参数。

命令格式

storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number

storcli64 /ccontroller_id set patrolread delay=delaytime

storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}

storcli64 /ccontroller_id show patrolread

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

系统巡检起始时间

例如:2016/07/15 23

说明

起始时间单位为

number

可同时巡检的硬盘数量

delaytime

系统巡检周期

单位为hour

 

查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。

domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

---------------------------------------

Ctrl_Prop          Value

---------------------------------------

PR Starttime       2016/07/15 23:00:00

PR MaxConcurrentPd 2

---------------------------------------

# 使能patrolread并设置为自动模式。

domino:~# ./storcli64 /c0 set patrolread=on mode=auto
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
--------------------------------------- 
Ctrl_Prop        Value 
--------------------------------------- 
Patrol Read Mode auto 
---------------------------------------

# 查询patrolread信息。

domino:~# ./storcli64 /c0 show patrolread

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

--------------------------------------------

Ctrl_Prop          Value

--------------------------------------------

PR Mode       2016/07/15 23:00:00

PR Execution Delay

PR iterations completed 0

PR Next Start time      07/16/2016,00:00:00

PR on SSD               Disabled

PR Current State        Stopped

--------------------------------------------

9.7.2.6 查询和设置Spinup参数

命令功能

查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。

命令格式

storcli64 /ccontroller_id show spinupdelay

storcli64 /ccontroller_id show spinupdrivecount

storcli64 /ccontroller_id set spinupdelay=time

storcli64 /ccontroller_id set spinupdrivecount=count

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

每组起转硬盘间的时间间隔

默认为2,单位为s

count

上电时允许同时起转的硬盘数量

默认为4

 

查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡Spinup参数。

domino:~# ./storcli64 /c0 show spinupdelay
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
domino:~# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 4
--------------------------

# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。

domino:~# ./storcli64 /c0 set spinupdelay=20
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 20 second(s)
--------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 5
--------------------------

9.7.2.7 查询和设置硬盘数据擦除功能

命令功能

设置物理硬盘数据擦除模式,查询擦除进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

硬盘槽位号

mode

数据擦除模式

l     simple:对硬盘进行一轮擦除动作。

l     normal:对硬盘进行三轮擦除动作。

l     thorough:对硬盘进行九轮擦除动作。

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# slot 3硬盘进行simple数据擦除,并查询擦除进度。

domino:~# ./storcli64 /c0/e252/s3 start erase simple
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.

9.7.2.8 查询和设置RAID后台初始化

命令功能

暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。

命令格式

storcli64 /ccontroller_id/vraid_id action bgi

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

action

后台初始化的操作

l     show:查看后台初始化进度

l     pause:暂停后台初始化

l     resume:继续后台初始化

l     stop:停止后台初始化

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查看后台初始化进度。

domino:~# ./storcli64 /c0/v0 show bgi
Controller = 0
Status = Success
Description = Noe
VD Operation Status :
===================
------------------------------------------------------
VD Operation Progress% Staus Estimated Time Left
------------------------------------------------------
0 BGI 3 In progress 53 Minutes
------------------------------------------------------

9.7.2.9 查询和设置CacheFlush参数

命令功能

查询和设置Cache的刷新周期。

命令格式

storcli64 /ccontroller_id show cacheflushint

storcli64 /ccontroller_id set cacheflushint time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

Cache的刷新周期

单位为s

 

查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置Cache的刷新周期为“10”。

domino:~# ./storcli64 /c0 set cacheflushint=10
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10 sec
---------------------------

# 查询Cache的刷新周期。

domino:~# ./storcli64 /c0 show cacheflushint
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10
---------------------------

9.7.2.10 查询和设置物理硬盘初始化功能

命令功能

设置物理硬盘初始化功能,查询初始化进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看初始化进度

l     start:开始初始化

l     stop:结束初始化

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 初始化slot3硬盘,并查询初始化进度。

domino:~# ./storcli64 /c0/e252/s3 start initialization
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show initialization
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------

9.7.2.11 查询和设置RAID重构

命令功能

开始、暂停、继续、停止RAID重构,并查询进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

action

要执行的操作

l     start:开始重构

l     show:查看重构进度

l     pause:暂停重构

l     resume:继续重构

l     stop:停止重构

 

查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 手动开始重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

# 查看硬盘当前重构状态。

[root@localhost ~]# ./storcli64 /c0/e70/s7 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e70/s7         5 In progress 26 Minutes
-----------------------------------------------------

# 暂停硬盘重构进程。

[root@localhost ~]# ./storcli64 /c0/e70/s7 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Succeeded.

# 继续重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 resume rebuild
Controller = 0
Status = Success
Description = Resume Drive Rebuild Succeeded.

# 停止重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 stop rebuild
Controller = 0
Status = Success
Description = Stop Drive Rebuild Succeeded.

9.7.2.12 查询和设置回拷

命令功能

开始、暂停、继续、停止回拷,并查询进度。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id start copyback target=target_enclosure_id:target_slot_id

开始回拷。

storcli64 /ccontroller_id/eenclosure_id/sslot_id action copyback

暂停、继续、查看、停止回拷。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

target_enclosure_id

执行回拷的目标硬盘所在EnclosureID

-

target_slot_id

执行回拷的目标物理硬盘槽位编号。

-

action

要执行的操作

l     show:查看回拷进度

l     pause:暂停回拷

l     resume:继续回拷

l     stop:停止回拷

 

查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 手动开始回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s7 start copyback target=70:3
Controller = 0
Status = Success
Description = Start Drive Copyback Succeeded.

# 查看硬盘当前回拷状态。

[root@localhost ~]# ./storcli64 /c0/e70/s3 show copyback
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e70/s3        17 In progress 16 Minutes
-----------------------------------------------------

# 暂停硬盘回拷进程。

[root@localhost ~]# ./storcli64 /c0/e70/s3 pause copyback
Controller = 0
Status = Success
Description = Pause Drive Copyback Succeeded.

# 继续回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s3 resume copyback
Controller = 0
Status = Success
Description = Resume Drive Copyback Succeeded.

# 停止回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s3 stop copyback
Controller = 0
Status = Success
Description = Stop Drive Copyback Succeeded.

9.7.2.13 查询和设置Smart扫描周期

命令功能

查询、设置Smart扫描周期。

命令格式

命令

说明

storcli64 /ccontroller_id set smartpollinterval=value

设置Smart扫描周期。

storcli64 /ccontroller_id show smartpollinterval

查询Smart扫描周期。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

value

Smart扫描周期

单位为s

 

查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置Smart扫描周期为“60s”。

domino:~# ./storcli64 /c0 set smartpollinterval=60
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------

9.7.2.14 查询和设置一致性校验参数

命令功能

查询、设置一致性检查参数。

命令格式

命令

说明

storcli64 /ccontroller_id[/vvd_id]show cc

查询一致性检查参数。

storcli64 /ccontroller_id/vvd_id start cc force

开始进行一致性检查。

storcli64 /ccontroller_id/vvd_id action cc

暂停/停止/继续执行一致性检查。

storcli64 /ccontroller_id set consistencycheck|cc=[off|seq|conc] [delay=value] starttime=time excludevd=evd_id

设置一致性自动检查参数。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

要操作的RAIDID

-

action

要执行的操作

l     pause:暂停

l     resume:继续执行

l     stop:停止

cc

将一致性检查设置为顺序模式或并行模式,或关闭一致性检查。

l     off:关闭一致性检查

l     seq:顺序模式

l     conc:并行模式

value

一致性检查周期

-

time

一致性检查起始时间

例如:2016/07/14 22

说明

起始时间单位为

evd_id

不进行一致性检查的虚拟磁盘ID

-

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

show命令中不带/vvd_id时,表示查询自动CC参数。

show命令中带/vvd_id时,表示查询CC进度。

使用实例

# 设置一致性自动检查参数。

domino:~# ./storcli64 /c0 set cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------
Ctrl_Prop Value
------------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2016/07/14 22:00:00
CC ExcludeVD(0) Success
------------------------------------

# 查询CC进度。

domino:~# ./storcli64 /c0/v1 show cc
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimited Time Left
-----------------------------------------------------------
0 CC - Not in progress -
-----------------------------------------------------------

9.7.2.15 设置热备盘

命令功能

设置全局热备盘和局部热备盘。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive

设置全局热备盘。

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=<N|0,1,2..>]

设置局部热备盘。

storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive

删除热备盘。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

dgs

硬盘组的ID

l     不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘

l     0,1,2..:硬盘组ID

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置slot 3硬盘为全局热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.

# 设置slot 3硬盘为vd0的局部热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive dgs=0
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.

9.7.2.16 设置启动项

命令功能

设置虚拟磁盘或物理硬盘为启动项。

命令格式

storcli64 /ccontroller_id/vvd_id set bootdrive=on

storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

vd_id

待设置的虚拟磁盘的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置VD0为启动项。

domino:~# ./storcli64 /c0/v0 set bootdrive=on
Controller = 0
Status = Success
Description = Noe
Detailed Status :
===============
----------------------------------------
VD Property Value Staus ErrCd ErrMsg
----------------------------------------
0 Boot Drive On Success 0 -
----------------------------------------

# 设置slot 7硬盘为启动项。

domino:~# ./storcli64 /c0/e252/s7 set bootdrive=on
Controller = 0 
Status = Success
Description = Noe
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
BootDrive PD:252_7
-------------------

9.7.2.17 设置硬盘状态

命令功能

设置硬盘状态。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

state

要设置的硬盘状态

l     online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。

l     offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。

l     jbod:通过该参数可以将硬盘设置为直通硬盘。

l     good

     ubad状态的硬盘,使用该参数可将硬盘设为ugoodforeign)状态,此时可选择导入或清除外来配置;

     JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。

l     good:将硬盘设为空闲盘

force

强制设置硬盘状态,为可选参数。

如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force

-

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。

domino:~# ./storcli64 /c0/e0/s1 set good
Controller = 0
Status = Success
Description = Set Drive Good Succeeded.

9.7.2.18 设置RAID组访问策略

命令功能

设置RAID的读写策略。

命令格式

storcli64 /ccontroller_id/vraid_id set accesspolicy=mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

mode

RAID读写策略

l     rw:可读可写

l     blocked:禁止访问

l     ro:只读访问

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置RAID读写策略为“rw”。

domino:~# ./storcli64 /c0/v0 set accesspolicy=rw
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 AccPolicy RW Success 0 -
---------------------------------------

9.7.2.19 设置RAID组的I/O策略

命令功能

设置RAID组的I/O策略。

命令格式

storcli64 /ccontroller_id/vraid_id set iopolicy=mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAIDID

-

mode

设置RAID组的I/O策略

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。

使用实例

# 设置RAID组的I/O策略为“direct”。

[root@linux ~]# storcli64 /c0/v1 set iopolicy=direct
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.14.0-115.el7a.0.1.aarch64
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
----------------------------------------
VD Property Value  Status  ErrCd ErrMsg
----------------------------------------
 1 IoPolicy Direct Success     0 -
----------------------------------------

9.7.2.20 设置硬盘Cache状态

命令功能

设置RAID组成员盘的Cache状态。

命令格式

storcli64 /ccontroller_id/vvd_id set pdcache=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

RAID组的ID

-

action

要执行的操作

l     on:打开硬盘Cache

l     off:关闭硬盘Cache

l     default:将硬盘Cache设置为默认状态

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 打开ID0RAID组的硬盘Cache

./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
---------------------------------------
VD Property Value Status  ErrCd ErrMsg
---------------------------------------
 0 PdCac    On    Success     0 -
---------------------------------------

9.7.2.21 设置RAID组的Cache读写策略

命令功能

设置RAID组的Cache读写策略。

命令格式

命令

说明

storcli64 /ccontroller_id/vraid_id set wrcache=wrmode

设置Cache写策略

storcli64 /ccontroller_id/vraid_id set rdcache=rdmode

设置Cache读策略

 

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAID组的ID

可以为all,表示所有RAID

wrmode

设置Cache写策略

l     wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”策略。

rdmode

设置Cache读策略

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     noraRAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

 

以上涉及的各个ID的方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置Cache读写模式为“wt”。

domino:~# ./storcli64 /c0/v0 set wrcache=wt
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 wrCache WT Success 0 -
---------------------------------------

9.7.2.22 设置紧急热备功能

命令功能

设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。

命令格式

storcli64 /ccontroller_id set eghs eug=state

storcli64 /ccontroller_id set eghs smarter=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

state

紧急热备功能的启用状态

l     on:启用

l     off:禁用

 

查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。

domino:~# ./storcli64 /c0 set eghs eug=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------
Ctrl_Prop Value
------------------
EmergencyUG ON
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
EmergencySmarter ON
-----------------------

9.7.2.23 设置RAID前台初始化模式

命令功能

设置RAID前台初始化模式。

命令格式

storcli64 /ccontroller_id/vraid_id start mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

mode

前台初始化模式

l     init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。

l     init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 快速初始化RAID

domino:~# ./storcli64 /c0/v0 start init
Controller = 0
Status = Success
Description = Start INIT Operation Success

9.7.2.24 设置硬盘直通功能

命令功能

设置RAID控制卡的硬盘直通功能的使能情况,并指定直通硬盘。

命令格式

storcli64 /ccontroller_id set jbod=state

storcli64 /ccontroller_id/eenclosure_id/sslot_id set JBOD

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

state

RAID控制卡JBOD功能的使能情况

l     on

l     off

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 使能RAID控制卡的硬盘直通功能,并设置slot 7硬盘为直通盘。

domino:~# ./storcli64 /c0 set jbod=on
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
---------------- 
Ctrl_Prop Value 
---------------- 
JBOD      ON 
----------------
domino:~# ./storcli64 /c0/e252/s7 set JBOD
Controller = 0 
Status = Success 
Description = Set Drive JBOD Succeeded.

9.7.2.25 设置硬盘定位指示灯状态

命令功能

点亮和熄灭指定硬盘的定位指示灯。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。

slot_id

物理硬盘槽位编号

可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。

action

要执行的操作

l     start:点亮硬盘的定位指示灯。

l     stop:熄灭硬盘的定位指示灯。

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 点亮slot 7硬盘的定位指示灯。

domino:~# ./storcli64 /c0/e252/s7 start locate
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.

9.7.2.26 设置硬盘PowerSave功能

命令功能

设置空闲硬盘和热备盘的省电模式。

命令格式

storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

state

省电模式的启用状态。

l     on:启用

l     off:禁用

disktype

硬盘类型。

l     1:空闲硬盘

l     2:热备盘

time

等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。

单位为minutes

 

查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置空闲硬盘的省电模式。

domino:~# ./storcli64 /c0 set ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
SpnDwnUncDrv Enable
SpnDwnTm 30 minutes
--------------------------

9.7.2.27 设置后台资源占用率

命令功能

设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。

命令格式

storcli64 /ccontroller_id set action=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要设置的项目

l     bgirate:后台初始化速率

l     ccrate:一致性校验速率

l     prrate:硬盘巡检速率

l     rebuildrateRAID重构速率

l     reconrateRAID扩容和迁移速率

value

后台任务资源占用率

1100

 

查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置硬盘巡检速率为“30%”。

domino:~# ./storcli64 /c0 set prrate=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
Patrol Read Rate 30%
-----------------------

9.7.2.28 设置自动恢复热备盘状态

命令功能

对热备盘进行插拔后,热备盘状态变为Ubad,设置自动恢复热备盘状态后,热备盘状态会自动恢复成hotspare,若不设置自动恢复热备盘状态,则需要手动恢复热备盘状态。

命令格式

storcli64 /ccontroller_id set restorehotspare=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

state

设置启用或禁用自动恢复热备盘状态

on:启用自动恢复热备盘状态

off:禁用自动恢复热备盘状态

 

查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 启用热备盘状态自动恢复

# 关闭热备盘状态自动恢复

9.7.2.29 设置BIOS Stop on Error功能

命令功能

设置控制卡BIOS在检测到异常时停止继续启动的功能。

命令格式

storcli64 /ccontroller_id set bios mode=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要执行的操作

l     soe:控制卡BIOS在检测到异常时停止启动

l     ie:忽略检测到的异常

 

查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 开启Stop on error功能。

domino:~# ./storcli64 /c0 set bios mode=soe
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------

9.7.2.30 通过增加成员盘可用容量扩容RAID

命令功能

RAID2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

命令格式

storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要扩容的RAIDID

capacity

扩容后的容量

expandarray

当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查询VD的可扩展容量。

[root@localhost ~]# storcli64 /c0/v1 show expansion 
CLI Version = 007.1416.0000.0000 July 24, 2020 
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64 
Controller = 0 
Status = Success 
Description = None 
 
 
EXPANSION INFORMATION : 
===================== 
 
-------------------------------------------- 
VD      Size OCE NoArrExp WithArrExp Status 
-------------------------------------------- 
 1 10.000 GB Y   3.627 TB 5.447 TB   - 
-------------------------------------------- 
 
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion 
 VD=Virtual Drive | NoArrExp - Without Array Expansion

如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。

# VD0的容量扩大“200GB”。

domino:~# ./storcli64 /c0/v0 expand size=200GB
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
0 100.0 GB 457.861 GB 200.0 GB 201.458 GB 44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %

RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。

9.7.2.31 通过增加新盘扩容或迁移RAID

命令功能

RAID2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

当增加新盘后,可进行RAID级别迁移。

命令格式

storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

vd_id

要操作的RAIDID

slot_id

要加入RAID的新硬盘的槽位号

level

增加硬盘后RAID的级别

l     与原RAID级别相同时,该命令为扩大RAID容量。

l     与原RAID级别不同时,该命令为RAID级别迁移。

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# RAID 0中增加slot 2硬盘扩容。

domino:~# ./storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 13 Minutes
-------------------------------------------------------

# 单盘RAID 0加盘迁移至RAID 1

domino:~# ./storcli64 /c0/v0 start migrate type=r1 option=add drives=252:3
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 14 Minutes
-------------------------------------------------------

9.7.2.32 查询和清除PreservedCache数据

命令功能

查询和清除PreservedCache数据。

命令格式

storcli64 /ccontroller_id show preservedcache

storcli64 /ccontroller_id/vvd_id delete preservedcache force

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要操作的RAIDID

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查询PreservedCache

domino:~# ./storcli64 /c0 show preservedcache
Controller = 0
Status = Success
Description = No Virtual Drive has Preserved Cache Data.

9.7.2.33 升级硬盘FW

命令功能

升级硬盘的FW

命令格式

./storcli64 /ccontroller_id /eenclosure_id/sslot_id download src=FW_name.bin

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

FW_name

硬盘FW的名称

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用实例

#升级硬盘FW

[root@localhost ~]# ./storcli64 /c0/e64/s5 download src=5200_D1MU004_Releasefullconcatenatedbinary.bin
Starting microcode update  .....please wait...
Flashing PD image  ..... please wait...
Controller = 0 
Status = Success 
Description = Firmware Download succeeded. 
 
Drive Firmware Download : 
======================== 
-------------------------------------------------------------------------------- 
Drive     Status  ErrCd    ErrMsg 
-------------------------------------------------------------------------------- 
/c0/e64/s5 Success   0        -
--------------------------------------------------------------------------------

9.7.2.34 手动重构RAID

命令功能

手动重构RAID组。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row

storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

要加入Array的物理硬盘槽位编号

DG

硬盘发生故障的DGID

Arr

硬盘发生故障的ArrayID

Row

硬盘发生故障的Arrayrow number

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

重构RAID3个步骤进行:

1.通过./storcli64 /c0 show 命令,查询故障硬盘的DGArrRow所对应的数字。

2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。

3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID

使用实例

# 将硬盘加入RAID组。

[root@localhost ~]# storcli64 /c0/e252/s1 insert dg=0 array=0 row=0
Controller = 0
Status = Success
Description = Insert Drive Succeeded.

# 手动重构RAID

[root@localhost ~]# storcli64 /c0/e252/s1 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

9.7.2.35 收集和清除RAID控制卡日志

命令功能

收集和清除RAID控制卡的日志。

命令格式

命令

说明

storcli64 /ccontroller_id show termlog [type=logtype] [logfile[=filename]]

收集RAID控制卡的日志。

storcli64 /ccontroller_id delete termlog

删除RAID控制卡的日志。

storcli64 /ccontroller_id show alilog [logfile[=filename]]

收集控制卡属性信息、TTY日志和事件到指定文件。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

logtype

查询日志类型。

l     config:查询TTY BBU缓存设置。

l     content:查询日志信息。

缺省值:content

filename

文件名称,将保存日志到此文件。

可自定义文件名称,缺省时将默认保存至“StorSAS.log”文件中。

 

查询RAID控制卡ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 收集RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19  6:48:11: C0:TTY History buffer cleared
 
Controller = 0
Status = Success
Description = None

# 删除RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 delete termlog
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------------------
Ctrl Method Result
----------------------------
   0 Delete Termlog deleted
----------------------------

9.7.2.36 查看/导入/清除外部配置

命令功能

指导用户查看、导入或者清除RAID控制卡的外部配置。

命令格式

storcli64 /ccontroller_id/fall action

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

action

要执行的操作

l     import preview:查看外部配置

l     import:导入外部配置

l     delete:清除外部配置

 

使用指南

使用实例

# 查看RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall import preview
 
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
 
FOREIGN PREVIEW :
===============
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Total foreign drive groups = 0

# 删除RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall delete
 
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration

9.7.2.37 Snapdump相关操作

命令功能

介绍Snapdump相关操作。

命令格式

命令格式

说明

storcli64 /ccontroller_id  show snapdump

查询snapdump功能是否打开,是否有自动生成的snapdump文件。

storcli64 /ccontroller_id  get snapdump id=all

获取历史生成的snapdump文件。

storcli64 /ccontroller_id  get snapdump

获取历史生成的snapdump文件和当前再生成一个snapdump文件。

storcli64 /ccontroller_id  set snapdump state=on|off

打开和关闭snapdump功能。

storcli64 /ccontroller_id  delete snapdump force

删除历史snapdump日志功能。

 

参数说明

参数

参数说明

取值

controller_id

控制卡ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

state=on|off

Snapdump状态

on为开启,off为关闭

 

使用指南

l     Snapdump文件是一个日志文件,在一些RAID控制卡异常场景下可以自动生成的日志,也可以主动获取当前RAID控制卡的snapdump日志。

l     使用前可以先查询snapdump功能是否打开,是否有自动生成的snapdump文件,再去收集snapdump

l     获取历史生成的snapdump文件和当前再生成一个snapdump文件会影响业务,建议离线使用。

l     打开和关闭snapdump功能,如果无法打开注意看提示,请确认当前RAID控制卡固件版本是否支持。

l     收集snapdump文件在当前命令执行目录下,文件格式为snapdump_**************.zip

使用实例

#查询snapdump功能是否打开,是否有自动生成的snapdump文件。

[root@localhost ~]# storcli64 /c0 show snapdump
Controller = 0
Status = Success
Description = None
 
SnapDump Properties :
===================
 
----------------------------------
Ctrl_Prop              Value
----------------------------------
Snapdump               ON
Snapdump Save Count    N/A
Snapdump Delay OCR     15
Snapdump properties    Read-Write
Snapdump Current Count 2
----------------------------------
 
SnapDump Details :
================
 
----------------------------------------------
ID Snapdump Size Snapdump time       OnDemand
----------------------------------------------
0       2649396 08-06-2021 07:23:43 Yes
1       2070406 08-07-2021 06:59:24 Yes
----------------------------------------------

#获取历史生成的snapdump文件。

[root@localhost ~]# storcli64 /c0 get snapdump id=all
Controller = 0
Status = Success
Description = None

#获取历史生成的snapdump文件和当前再生成一个snapdump文件。

[root@localhost ~]# storcli64 /c0 get snapdump
Controller = 0
Status = Success
Description = Download Support Log

#打开和关闭snapdump功能。

打开:

[root@localhost ~]# storcli64 /c0 set snapdump state=on
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-------------------
Ctrl_Prop    Value
-------------------
Set Snapdump on
-------------------

关闭:

[root@localhost ~]# storcli64 /c0 set snapdump state=off
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-------------------
Ctrl_Prop    Value
-------------------
Set Snapdump off
-------------------

#删除历史snapdump日志功能。

[root@localhost ~]# storcli64 /c0 delete snapdump force
Controller = 0
Status = Success
Description = Snapdump delete

9.7.2.38 升级控制卡FW

命令功能

升级控制卡FW

命令格式

命令格式

说明

storcli64 /cController_ID download file=xxx.rom [noverchk]

升级控制卡FW

 

参数说明

参数

参数说明

取值

controller_id

控制卡ID

-

xxx.rom

固件包的名称

-

 

使用指南

l     使用noverchk参数时将不检查固件包,降级版本时必须使用此参数。

l     升级完成后,需重新上下电服务器使固件包生效。

使用实例

#升级控制卡FW

[root@localhost fw]# ./storcli64_arm /c0 download file =FW4.rom noverchk
Download Completed.
Flashing image to adapter...
Controller = 0
Status = Success
Description = F/W Flash Completed.Please reboot the system for the changes to take effect.


10 Avago SAS3516

关于本章

介绍Avago SAS3516的外观、特性以及配置方法。

本章节涉及的截图以5.140.00-3515 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

9.1  概述

9.2  功能

9.3  初始配置

9.4  常用配置

9.5  故障处理

9.6  管理界面介绍

9.7  OS命令行工具

10.1 概述

AVAGO MegaRAID SAS3516 RAID 控制标卡(以下简称Avago SAS3516)是基于MegaRAID架构的16端口12Gbit/s SAS控制卡,并采用PCIe3.0x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

Avago SAS3516用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

Avago SAS3516支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考10.2.16 硬盘直通

Avago SAS3516自带的Cache对标卡性能的提升有非常重要的作用,主要体现在:

l     在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

l     在读数据时,如果可以直接在Cache中命中的话,将减少硬盘寻道操作,降低响应时间,提升了数据读速度。

l     Cache数据的掉电保护依赖于与RAID控制卡相连的超级电容。超级电容的外形、连接方式、安装方式可参考各服务器的用户指南。

l     Avago SAS3516不支持flush write verify功能。

Avago SAS3516结构如10-1所示。

图10-1 Avago SAS3516标卡

 

1

超级电容接口

2

单板电源指示灯

3

系统心跳灯

4

Avago SAS3516 RAID控制卡写入/读出NAND Flash的状态指示灯

5

超级电容错误状态指示灯

6

miniSAS接口(port ASFF-8643

7

miniSAS接口(port BSFF-8643

8

miniSAS接口(port CSFF-8643

9

miniSAS接口(port DSFF-8643

-

-

 

Avago SAS3516单板指示灯说明如10-1所示。

表10-1 RAID控制卡单板指示灯说明

指示灯

颜色

说明

单板电源指示灯

绿色

l     亮:电源正常

l     灭:电源关闭或异常。

超级电容错误状态指示灯

红色

l     亮:超级电容状态异常。

l     灭:超级电容正常或不在位。

Avago SAS3516写入/读出NAND Flash的状态指示灯

绿色

l     亮:Avago SAS3516 RAID控制卡当前处于写入/读出NAND Flash的状态。

l     灭:Avago SAS3516 RAID控制卡当前不处于写入/读出NAND Flash的状态。

系统心跳灯

绿色

l     灯以2s周期闪烁:Avago SAS3516 RAID控制卡正在工作。

l     灯灭:Avago SAS3516 RAID控制卡未开始运行或FW运行异常。

 

10.2 功能

10.2.1 支持多种RAID类型

AvagoSAS3516支持的硬盘、虚拟磁盘、硬盘组数量分别为:

l     最多支持32240个硬盘(Avago SAS3516支持2种规格的RAID Key,分别支持32盘和240盘)。

该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

l     最多支持64个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

l     最多支持64个硬盘组(即配置界面中看到的“Drive Group”),每个硬盘组最多支持32240个硬盘。

l     每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

AvagoSAS3516支持的RAID类型及对应的硬盘个数如10-2所示。

表10-2 RAID-硬盘参数

RAID级别

支持硬盘数

支持子组数

子组支持硬盘数

允许坏盘数

RAID 0

132

不涉及

不涉及

0

RAID 1

2~32(偶数)

硬盘数÷2

RAID 5

332

1

RAID 6

332

2

RAID 10

4~32/240(偶数)

28RAID 1

2~16/32(偶数)

子组数

RAID 50

632/240

28RAID 5

316/32

子组数

RAID 60

632/240

28RAID 6

316/32

子组数x2

 

l     不支持RAID 00级别。

l     子组数:子RAID的个数,例如RAID 50由两个RAID 5组成,则子组数为2

l     RAID 10RAID 50每个子组中最多允许1个坏盘。

l     RAID 60每个子组中最多允许2个坏盘。

l     根据配置的key类型不同,RAID 105060支持的硬盘数有所不同。

l     RAID105060包含的总硬盘数由子组数和子组支持的硬盘数共同决定。

10.2.2 硬盘热备份

Avago SAS3516标卡的热备功能分为两种:热备盘和紧急备份。

热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     Global HSP:即全局热备盘,为控制标卡上所有已配置的RAID所共有,1块控制标卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

配置方法请参看10.4.1.1 配置全局热备盘

l     Dedicated HSP:即局部热备盘,为控制标卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。配置方法请参看10.4.1.2 配置局部热备盘

热备盘容量需大于等于成员盘容量。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

紧急备份

使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代failprefail状态的成员盘并进行重构,避免数据丢失。

l     紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。

l     在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。

l     紧急备份的硬盘生效次序:相同类型硬盘 > 相同接口不同介质类型硬盘 > 不同接口相同介质类型硬盘 > 不同接口不同介质类型硬盘。

紧急备份有两种情况,对应了两种设置:

l     当成员盘fail时,空闲盘替代成员盘作为紧急备份。

l     当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。

具体配置方法请参看10.4.2 设置紧急热备功能

10.2.3 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考10.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

10.2.4 回拷

具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。

l     不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:

l     RAID组状态保持“Optimal”不变。

l     热备盘状态由“Online”变为“Hot Spare”。

l     新加入硬盘状态由“Copyback/Copybacking”变为“Online”。

l     可使用命令行工具暂停或继续回拷。

l     若回拷时重启服务器,进度将保存。

l     局部热备以及全局热备,更换故障盘后,均会产生回拷。

10.2.5 硬盘分条

条带化

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待。

条带化技术是一种自动的将I/O的负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

影响条带化效果的因素有:

l     条带宽度:指同时可以并发读或写的条带数量。

这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。在其他条件一样的前提下,一个由818G硬盘组成的阵列相比一个由436G硬盘组成的阵列具有更高的传输性能。

l     条带大小:指写在每块硬盘上的条带数据块的大小。

分条

硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。

Avago SAS3516支持多种条带大小,包括64KB128KB256KB512KB1MB,默认条带大小为256KB

配置RAID时一般采用默认值。

10.2.6 RAID级别迁移

RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见10.2.6 RAID级别迁移

当前支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1RAID 5RAID 6

l     RAID 1迁移到RAID 0RAID 5RAID 6

l     RAID 5迁移到RAID 0RAID 6

l     RAID 6迁移到RAID 0RAID 5

RAID迁移对硬盘数量的要求如10-3所示。

表10-3 RAID迁移的硬盘数量说明

迁移RAID级别

原始硬盘组硬盘数量

迁移后的硬盘组硬盘数量

RAID 0迁移 RAID 1

132

2~32(偶数)

RAID 0迁移到RAID 5

132

332

RAID 0迁移到RAID 6

132

332

RAID 1迁移到RAID 0

2~32(偶数)

2~32

RAID 1迁移到RAID 5

2~32(偶数)

332

RAID 1迁移到RAID 6

2~32(偶数)

332

RAID 5迁移到RAID 0

332

332

RAID 5迁移到RAID 6

332

332

RAID 6迁移到RAID 0

332

332

RAID 6迁移到RAID 5

332

332

 

10.2.7 初始化

VD初始化

创建VDVirtual Drive)后,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。Avago SAS3516提供了多种相应的初始化方式:

l     前台初始化:

     快速初始化:Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。

     完全初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。

l     后台初始化:

     对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。

     对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。

l     一致性校验和后台初始化通常会对性能造成一定损失,直至该操作完成。

l     一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。

硬盘初始化

硬盘可执行的初始化包括:

l     Initialize Drive:对前100MByte空间进行全写0操作。

l     Drive Erase:对全部空间进行写0操作。

不支持停止SATA SSD的擦除和初始化过程。

10.2.8 可用容量扩展

Avago SAS3516支持的容量扩展方式有两种:

l     通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。

详细操作方法可参考10.4.3 添加新硬盘到RAID

l     通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。

详细操作方法可参考10.4.4 扩展Virtual Drives可用空间

l     只有RAID 0RAID 1RAID 5RAID 6支持增加硬盘扩容。

l     RAID10RAID 50RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0RAID 5RAID 6每次只能增加1块硬盘。

l     当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见10.7.2.28 通过增加成员盘可用容量扩容RAID

10.2.9 安全数据擦除

安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘和硬盘的安全擦除功能:

l     Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。

l     Normal:对虚拟磁盘或硬盘进行三轮擦除动作。

l     Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。

安全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。

Avago SAS3516支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。

10.2.10 写洞保护

系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况,称之为写洞。

将写失败的数据备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:

l     RAID  1RAID 5RAID 6RAID 10RAID 50RAID 60支持写洞保护,Write hole数据都保存在掉电保护区,不需要开关控制。

     掉电保护装置可用时,Write hole数据异常掉电重启后会进入恢复流程。

     掉电保护装置不可用时,记录在掉电保护区的Write hole数据异常掉电后丢失,不做Write hole恢复。

l     RAID 1RAID 5掉线盘时不可做写洞保护。

l     RAID 6掉线一块盘时可做写洞保护。

l     RAID 10RAID 50RAID 60部分降级时可做写洞保护,按子组恢复数据。完全降级时不可做写洞保护。

l     不对RAID 0做写洞保护。

10.2.11 读写高速缓存

Avago SAS3516支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:

l     Read:读策略选择“Read Ahead”模式,Avago SAS3516在读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,提升了数据读速度。

l     Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,Avago SAS3516就向HOST发出数据传输完成的信号。

在写数据时,直接写入Cache,当写入的数据积累到一定程度,Avago SAS3516才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

10.2.12 数据掉电保护

数据写入高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用高速缓存来提升系统性能。

l     开启高速缓存可提升整机写性能,当服务器写压力减小或高速缓存将写满时,数据再由高速缓存写入硬盘。

l     开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。

为了提升整机的高读写性能和高速缓存中数据的安全,可为Avago SAS3516配置超级电容。

超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将高速缓存中的数据写入超级电容模块中的NAND Flash中。

超级电容电量校准

由于数据保护需要超级电容的配合,为了记录超级电容的放电曲线,以便RAID控制卡了解超级电容的状态,例如最大和最小电压等,同时为了延长超级电容的寿命,RAID控制卡默认启动超级电容自动校准模式。

RAID控制卡通过如下所述的三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。

1.     RAID控制卡将超级电容的电量充到最大值。

2.     自动启动校准进程,将超级电容完全放电。

3.     重新开始充电,直至达到最大电量。

超级电容电量校准过程中,RAID控制卡写策略自动调整为“WT”模式以保证数据完整性,此时RAID控制卡性能会降低。电量校准的时间取决于超级电容充放电速度。

10.2.13 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     动态扩盘

l     完全初始化或后台初始化

l     一致性校验

10.2.14 自动SMART扫描

S.M.A.R.TSelfMonitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据受到损失。

RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。

10.2.15 硬盘节能

RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SASSATA机械硬盘均支持此功能。

默认情况下,硬盘节能功能处于开启状态。

当硬盘节能功能开启且在指定时间内没有I/O访问时,RAID控制卡下挂载的“Uncongfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。

10.2.16 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

Avago SAS3516可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在Avago SAS3516下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。

Avago SAS3516支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

如果需要使能硬盘直通功能,请参见10.4.11 设置JBOD模式

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

10.2.17 硬盘漫游

硬盘漫游是指在同一控制卡下移动物理硬盘。控制卡将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。

要使用硬盘漫游,按以下步骤操作:

1.     关闭操作系统。

2.     将服务器下电。

3.     将物理硬盘移动到背板所需位置。

4.     执行安全检查。确保正确插入物理硬盘。

5.     将服务器上电。

6.     控制卡从物理硬盘上的配置数据中检测到RAID配置。

10.2.18 导入外部配置

如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。

此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。

10.2.19 硬盘故障记录

Avago SAS3516提供硬盘故障记录功能:

l     使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。

l     禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,Avago SAS3516会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。

维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。

l     使能该功能后,当硬盘故障时,会点亮Fault指示灯。

l     禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。

默认情况下,Avago SAS3516使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。具体操作方法请参见查看并修改控制卡高级属性

10.3 初始配置

BIOS中“Boot Type”设置为“EFI Boot Type”模式时,打开的管理界面如下所述。

文档中描述的关于Avago SAS3516的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。

如果服务器已经在Legacy或者UEFI模式下安装OS,切换启动方式后将无法进入操作系统,需要切换为安装时的启动方式再进入,如操作系统需要重装,请根据实际情况选择UEFILegacy模式安装OS

当服务器配置了较多的可启动设备时,在Legacy模式下可能出现部分设备无法正常启动,建议使用UEFI模式启动,UEFI模式较Legacy模式可以支持更多可启动设备;如需要使用Legacy模式,建议根据实际业务场景禁用串口重定向或网卡PXE等,确保操作系统可以正常启动,具体操作请参考BIOS参数参考的设置网卡的PXE和设置串口重定向章节。

10.3.1 进入管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器

                                步骤 2     重启过程中,当出现如10-2所示界面时,按“Delete”,进入输入密码界面。

图10-2 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如10-3所示界面。

图10-3 Setup Utility界面

 

                                步骤 4     通过“”或“→ ”进入“Advanced”页签,如10-4所示。

图10-4 “Advanced”页签

 

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见10.5.4 Device ManagerRAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择“Avago <SAS3516> Configuration Utility”,按“Enter”。

进入Avago SAS3516主界面,如10-510-6所示,界面参数如10-4所示。

图10-5 Avago SAS3516主界面(1

 

图10-6 Avago SAS3516主界面(2

 

表10-4 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

说明

Avago SAS3516不支持在此界面升级FW

Silence Alarm

板载蜂鸣器的使能状态。

说明

Avago SAS3516未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

10.3.2 创建RAID 0

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3516支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看10.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见10.3.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如10-710-8所示,参数说明如10-5所示。

图10-7 Create Virtual Drive1

 

图10-8 Create Virtual Drive2

 

表10-5 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

解除映射能力。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照10.4.10 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如10-9所示,界面参数如10-6所示。

图10-9 添加成员盘

 

表10-6 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 0支持的硬盘个数为1~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

4.     10-6所述配置过滤条件。

5.     选择“Apply Changes”并按“Enter”。

6.     选择“Confirm”并按“Enter”。

7.     选择“Yes”并按“Enter”。

8.     按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照10-5所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照10.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

10.3.3 创建RAID 1

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3516支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看10.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见10.3.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如10-1010-11所示,参数说明如10-7所示。

图10-10 Create Virtual Drive1

 

图10-11 Create Virtual Drive2

 

表10-7 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

解除映射能力。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照10.4.10 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如10-12所示,界面参数如10-8所示。

图10-12 添加成员盘

 

表10-8 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 1支持的硬盘个数为2~32(偶数)。

l     RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

4.     10-8所述配置过滤条件。

5.     选择“Apply Changes”并按“Enter”。

6.     选择“Confirm”并按“Enter”。

7.     选择“Yes”并按“Enter”。

8.     按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照10-7所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照10.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

10.3.4 创建RAID 5

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3516支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看10.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见10.3.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如10-1310-14所示,参数说明如10-9所示。

图10-13 Create Virtual Drive1

 

图10-14 Create Virtual Drive2

 

表10-9 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

解除映射能力。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照10.4.10 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 5”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如10-15所示,界面参数如10-10所示。

图10-15 添加成员盘

 

表10-10 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 5支持的硬盘个数为3~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

4.     10-10所述配置过滤条件。

5.     选择“Apply Changes”并按“Enter”。

6.     选择“Confirm”并按“Enter”。

7.     选择“Yes”并按“Enter”。

8.     按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照10-9所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照10.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

10.3.5 创建RAID 6

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3516支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看10.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见10.3.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如10-1610-17所示,参数说明如10-11所示。

图10-16 Create Virtual Drive1

 

图10-17 Create Virtual Drive2

 

表10-11 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

解除映射能力。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照10.4.10 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 6”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如10-18所示,界面参数如10-12所示。

图10-18 添加成员盘

 

表10-12 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 6支持的硬盘个数为3~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

4.     10-12所述配置过滤条件。

5.     选择“Apply Changes”并按“Enter”。

6.     选择“Confirm”并按“Enter”。

7.     选择“Yes”并按“Enter”。

8.     按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照10-11所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照10.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

10.3.6 创建RAID 10

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3516支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看10.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见10.3.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如10-1910-20所示,参数说明如10-13所示。

图10-19 Create Virtual Drive1

 

图10-20 Create Virtual Drive2

 

表10-13 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

解除映射能力。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照10.4.10 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如10-21所示,界面参数如10-14所示。

图10-21 Span1添加成员盘

 

表10-14 添加成员盘的参数说明

参数

参数说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     10-14所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 10支持28Span,每个Span支持的硬盘数为2~16/32(偶数),且各个Span的硬盘数量必须保持一致。

l     RAID 10支持的硬盘总数为4~32/240(偶数)。(取决于RAID Key的规格。)

l     RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     选择“Confirm”并按“Enter”。

7.     选择“Yes”并按“Enter”。

8.     按“Enter”完成成员盘配置。

                                步骤 4     创建第2Span

1.     当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如10-22所示。

图10-22 RAID 10的配置界面

 

2.     选择“Add More Spans”并按“Enter”。

3.     选择“Select Drives”并按“Enter”。

4.     在打开的列表中选择第2Span的成员盘。

5.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

6.     按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

RAID10至少需要创建2Span,最多可以创建8Span

                                步骤 6     配置虚拟磁盘属性。

按照10-13所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照10.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

使此处的状态变为“Enabled”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

10.3.7 创建RAID 50

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3516支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看10.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见10.3.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如10-2310-24所示,参数说明如10-15所示。

图10-23 Create Virtual Drive1

 

图10-24 Create Virtual Drive2

 

表10-15 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

解除映射能力。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照10.4.10 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 50”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如10-25所示,界面参数如10-16所示。

图10-25 添加成员盘

 

表10-16 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     10-16所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 50支持28Span,每个Span支持的硬盘数为316/32(取决于RAID Key的规格),且各个Span的硬盘数量必须保持一致。

l     RAID 50支持的硬盘总数为6~32/240(取决于RAID Key的规格)。

l     RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     创建第2Span

1.     当配置的级别为RAID 50时,需要配置多个Span,此时配置界面如10-26所示。

图10-26 RAID 50的配置界面

 

2.     选择“Add More Spans”并按“Enter”。

3.     选择“Select Drives”并按“Enter”。

4.     在打开的列表中选择第2Span的成员盘。

5.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

RAID50至少需要创建2Span,最多可以创建8Span

                                步骤 6     配置虚拟磁盘属性。

按照10-15所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照10.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

10.3.8 创建RAID 60

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3516支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看10.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见10.3.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如10-2710-28所示,参数说明如10-17所示。

图10-27 Create Virtual Drive1

 

图10-28 Create Virtual Drive2

 

表10-17 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

解除映射能力。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照10.4.10 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 60”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如10-29所示,界面参数如10-18所示。

图10-29 添加成员盘

 

表10-18 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     10-18所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 60支持28Span,每个Span支持的硬盘数为316/32(取决于RAID Key的规格),且各个Span的硬盘数量必须保持一致。

l     RAID 60支持的硬盘总数为6~32/240(取决于RAID Key的规格)。

l     RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     创建第2Span

1.     当配置的级别为RAID 60时,需要配置多个Span,此时配置界面如10-30所示。

图10-30 RAID 60的配置界面

 

2.     选择“Add More Spans”并按“Enter”。

3.     选择“Select Drives”并按“Enter”。

4.     在打开的列表中选择第2Span的成员盘。

5.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

RAID60至少需要创建2Span,最多可以创建8Span

                                步骤 6     配置虚拟磁盘属性。

按照10-17所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照10.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

10.3.9 设置启动项

10.3.9.1 设置RAID控制卡下的启动项

请通过10.6.2.2 Controller Management的“Select Boot Device”选项设置启动项。

10.3.9.2 设置服务器的启动项

当一台服务器配置了单张RAID控制卡时,RAID控制卡下的硬盘启动项即为该服务器的硬盘启动项,具体设置方法请参见10.3.9.1 设置RAID控制卡下的启动项

当服务器配置了多张RAID控制卡时,硬盘启动项需要在BIOS中进行设置,具体设置方法请参见BIOS主板参数参考的“设置服务器启动设备”章节。

10.4 常用配置

10.4.1 管理热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

Avago SAS3516控制标卡支持2种类型的热备盘:

l     Global Hotspare:即全局热备盘,为控制标卡上所有已配置的RAID所共有,1块控制标卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

l     Dedicated Hotspare:即局部热备盘,为控制标卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

10.4.1.1 配置全局热备盘

操作步骤

登录管理界面,具体操作方法请参见10.3.1 进入管理界面

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如10-31所示。

图10-31 Drive Management

 

                                步骤 2     配置全局热备盘。

1.     选择“Operation ”并按“ Enter

2.     选择“Assign Global Hot Spare Drive ”并按“ Enter

3.     选择“Go”并按“Enter”。

4.     进入操作确认界面。

5.     选择“Confirm”并按“ Enter

6.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

7.     按“Enter”完成配置并返回上级界面。

----结束

10.4.1.2 配置局部热备盘

操作步骤

RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

登录管理界面,具体操作方法请参见10.3.1 进入管理界面

                                步骤 1     进入“Drive Management”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如10-32所示。

图10-32 Drive Management

 

                                步骤 2     配置局部热备盘。

1.     将“Operation”设置为“Assign Dedicated Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

打开当前存在的虚拟磁盘列表。

3.     选择要关联的虚拟磁盘并按“Enter”。

4.     选择“OK”按“Enter”。

5.     按“Enter”完成配置并返回上级界面。

----结束

10.4.1.3 删除热备盘

操作场景

当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

操作步骤

登录管理界面,具体操作方法请参见10.3.1 进入管理界面

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如10-33所示。

图10-33 Drive Management

 

                                步骤 2     删除热备盘。

1.     将“Operation”设置为“Unassign Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

5.     按“Enter”完成配置并返回上级界面。

----结束

10.4.2 设置紧急热备功能

操作步骤

登录管理界面,具体操作方法请参见10.3.1 进入管理界面

                                步骤 1     进入“Advanced Controller Properties”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

3.     选择“Advanced Controller Properties”并按“Enter”。

进入“Advanced Controller Properties”界面,如10-3410-35所示。

图10-34 Advanced Controller Properties1

 

图10-35 Advanced Controller Properties2

 

                                步骤 2     设置紧急热备。

1.     选择“Spare”并按“Enter”。

2.     将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如10-34所示。

图10-36 Advanced Controller Properties

 

3.     选择“Apply Changes”并按“Enter”。

4.     选择“OK”并按“Enter”,完成配置。

----结束

10.4.3 添加新硬盘到RAID

操作场景

 

l     只有RAID 0RAID 1RAID 5RAID 6支持增加硬盘扩容。

l     RAID10RAID 50RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

对系统的影响

增加硬盘扩容过程中,如果出现硬盘故障,会导致:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID

请谨慎执行增加硬盘扩容操作。

必备事项

前提条件

添加硬盘扩容之前,需具备如下条件:

l     服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     已登录管理界面,具体操作请参见10.3.1 进入管理界面

数据

操作之前建议先备份数据。

操作步骤

进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”并按“Enter”。

进入虚拟磁盘选项界面,如10-37所示。

图10-37 虚拟磁盘选项界面

 

                                步骤 2     添加新硬盘。

1.     选择要进行扩容的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如10-38所示。

图10-38 Operation

 

3.     选择“Reconfigure Virtual Drives”并按“Enter

4.     选择“Go”并按“Enter”。

5.     选择要扩容的RAID级别。

 

增加硬盘扩容时,请保证该处的RAID级别与原级别一致。

6.     选择“Choose the Operation”,并按“Enter”。

进入硬盘选择界面,如10-39所示。

图10-39 Choose the Operation

 

7.     选择要增加的硬盘,并按“Apply Changes”。

进入确认操作界面。

l     增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0RAID 5RAID 6每次只能增加1块硬盘。

l     RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。

8.     选择“Confirm”并按“Enter”。

9.     选择“OK”并按“Enter”。

进入如10-40所示界面。

图10-40 选择操作

 

10.     选择“Start Operation”并按“Enter”。

显示操作成功。返回虚拟磁盘选项界面,验证扩容结果,如10-41所示,表示RAID正在进行扩容。

图10-41 Virtual Drive Management

 

----结束

10.4.4 扩展Virtual Drives可用空间

操作场景

Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见10.3.1 进入管理界面

                                步骤 1     进入要操作的虚拟磁盘界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如10-42所示。

图10-42 Virtual Drive Management

 

                                步骤 2     扩容虚拟磁盘。

1.     将“Operation”设置为“Expand Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入虚拟磁盘扩容界面,如10-43界面所示,界面参数如10-19所示。

图10-43 Expand Virtual Drive

 

表10-19 参数说明

参数

参数说明

Current Capacity

虚拟磁盘当前容量。

Available Capacity

可用于扩展的容量。

Enter a Percentage of Available Capacity

输入扩容比例。

Capacity of Virtual Drive after Expansion

扩容后虚拟磁盘容量。

 

3.     设置扩容百分比。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully

5.     按“Enter”完成配置并返还上级界面。

返回虚拟磁盘选项界面,验证扩容结果。

图10-44 查看扩容结果

 

----结束

10.4.5 迁移RAID级别

操作场景

随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。

在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。

对系统的影响

RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID

请谨慎执行RAID级别迁移操作。

必备事项

前提条件

迁移RAID级别之前,需具备如下条件:

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     当前存在的硬盘个数满足目标RAID级别要求。

l     已登录管理界面,具体操作请参见10.3.1 进入管理界面

Avago SAS3516RAID控制卡支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1RAID 5RAID 6

l     RAID 1迁移到RAID 0RAID 5RAID 6

l     RAID 5迁移到RAID 0RAID 6

l     RAID 6迁移到RAID 0RAID 5

RAID迁移对硬盘数量的要求如10-3所示。

l     RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     迁移只支持增加与RAID组成员盘同类型同规格的硬盘。

l     为防止数据丢失,请在该操作之前备份当前RAID组的数据。

l     只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。

l     迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。

操作步骤

进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”并按“Enter”。

进入虚拟磁盘选项界面,如10-45所示。

图10-45 虚拟磁盘选项界面

 

                                步骤 2     选择RAID迁移的目标级别。

下面以将RAID 1迁移到RAID 5为例进行说明。

1.     选择要进行迁移的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如10-46所示。

图10-46 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”。

4.     选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如10-47所示。不设置时默认与原RAID组配置一致。

图10-47 Advanced...

 

5.     选择“Go”,并按“Enter”。

进入RAID配置界面,如10-48所示。

图10-48 Reconfigure Virtual Drives1

 

6.     选择“New RAID Level”并按“Enter”。

打开RAID迁移的目标级别选择窗口,如10-49所示。

图10-49 选择新的RAID级别

 

7.     选择“RAID 5”并按“Enter”。

                                步骤 3     添加硬盘。

1.     选择“Choose the operation”并按“Enter”。

打开硬盘选择窗口。

2.     选择要增加的硬盘并按“Enter”。

RAID迁移对硬盘数量的要求请参见10-3

3.     选择“Apply Changes”并按“Enter”。

弹出操作确认会话框。

4.     选择“Confirm”并按“Enter”。

5.     选择“Yes”并按“Enter”。

提示操作成功。

6.     按“Esc”返回10-50界面。

图10-50 Reconfigure Virtual Drives2

 

                                步骤 4     RAID级别迁移。

1.     选择“Start Operation”并按“Enter”。

提示操作成功。

                                步骤 5     查看迁移结果。

1.     进入Virtual Drive Management界面,检查迁移结果,如10-51所示,表示RAID正在进行迁移。

图10-51 查看迁移结果

 

l     迁移过程中若重启服务器,该任务将在重启后继续进行。

l     迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。

2.     选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 1”变成“RAID 5”,RAID组容量增大,且“Status”状态显示为“Optimal”时,表示RAID迁移成功。

----结束

10.4.6 删除RAID

操作场景

 

RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见10.3.1 进入管理界面

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如10-52所示。

图10-52 Virtual Drive Management

 

                                步骤 2     删除虚拟磁盘。

1.     将“Operation”设置为“Delete Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

5.     按“Enter”完成配置并返回上级界面。

----结束

10.4.7 重构RAID

操作场景

介绍将带有外部配置的硬盘进行重构的操作方法,不带外部配置硬盘的重构方法请参见10.5.1.1 硬盘故障

操作步骤

在“Main Menu”界面中选择“Drive Management”并按“Enter”。

                                步骤 1     选中要进行重构的硬盘,按“Enter”。

                                步骤 2     将“Operation”设置为“Make Unconfigured Good”。

                                步骤 3     选择“Go”并按“Enter”。

提示The operation has been performed successfully

                                步骤 4     按“Enter”完成配置。

硬盘状态变为“(Foreign,Unconfigured Good”。

                                步骤 5     清除外部配置,具体操作请参见10.4.9 导入和清除外部配置

RAID组开始进行重构。

----结束

当出现硬盘离线且RAID组可用时,为避免RAID组数据不一致,不能将离线的成员盘直接“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

10.4.8 查看RAID控制卡属性

操作场景

用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。

操作步骤

登录管理界面,具体操作方法请参见10.3.1 进入管理界面

                                步骤 1     进入“Controller Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息,如10-5310-54所示,参数说明如10-20所示。

图10-53 Controller Management1

 

图10-54 Controller Management2

 

表10-20 参数说明

参数

参数说明

Product Name

控制标卡名称。

Serial Number

控制标卡序列号。

Controller Status

控制标卡的工作状态。

Personality Mode

控制标卡的模式。

Select Device For Boot Order

设置控制标卡的启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。

PCI ID

控制标卡的PCI ID

PCI Segment:Bus:Device:Fuction

控制标卡的PCI设备索引。

PCI Slot Number

控制标卡的PCI槽位号。

Package Version

控制标卡的套件版本。

Firmware Version

控制标卡的固件版本号。

NVDATA Version

控制标卡配置信息的版本号。

Supported Device Interfaces

控制标卡支持的设备接口。

Drive Count

控制标卡下挂载的硬盘个数。

Virtual Drive Count

控制标卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制卡操作。

Advanced Controller Properties

查看和修改控制卡的高级属性。

 

                                步骤 2     查看控制卡高级属性。

1.     选择“Advanced Controller Properties”并按“Enter”。

进入控制卡高级属性界面,如10-5510-56所示,参数说明如10-21所示。

在该界面下,可查看并修改RAID控制卡的高级属性。

图10-55 Advanced Controller Properties 1

 

图10-56 Advanced Controller Properties 2

 

表10-21 参数说明

参数

说明

Cache and Memory

查看控制卡CacheMemory信息。

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

Spare

设置控制卡热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

Avago SAS3516控制卡标卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

容量对齐的模式。包括:

l     None

l     128MB

l     1GB

默认为“1GB”。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制卡BIOS的使能情况。

ROC Temperature

控制卡温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见10.4.9 导入和清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验

JBOD Mode

是否使能硬盘直通功能。

Write Verify

写校验。

Large IO Support

启用或禁用大型I/O支持功能。

Unmap Capability

解除映射能力。

Firmware Device Order

该功能开启后,设置为启动项的RAID组盘符为sda

说明

开启该功能前,请先确认控制卡驱动与固件配套。

Apply Changes

保存配置。

 

----结束

10.4.9 导入和清除外部配置

操作场景

l     服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。

 

l     如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!

l     为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

导入外部配置

登录管理界面,具体操作方法请参见10.3.1 进入管理界面

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如10-57所示。

图10-57 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如10-58所示。

图10-58 外部配置

 

                                步骤 5     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 8     按“Enter”完成配置返回上级界面。

----结束

清除外部配置

登录管理界面,具体操作方法请参见10.3.1 进入管理界面

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如10-59所示。

图10-59 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如10-60所示。

图10-60 外部配置

 

                                步骤 5     选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 8     单击“OK”完成配置返回上级界面。

----结束

10.4.10 创建多个VDVirtual Drive

该场景为使用已存在一个或多个VDRAID组的空闲容量创建多个VD,以RAID0存在一个VD为例(如10-61所示),详细操作方法如下:

图10-61 Virtual Drive Management

 

按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如10-62所示。

图10-62 Create Virtual Drive

 

                                步骤 2     将“Select Drives From”设置为“Free Capacity”,如10-63所示。

图10-63 Create Virtual Drive

 

                                步骤 3     选择“Select Drive Groups”并按“Enter”。

显示当前存在的RAID组(Drive Group),如10-64所示。

图10-64 Select Drive Groups

 

                                步骤 4     选择要创建多个VDRAID组,并按“Enter”,如10-65所示。

图10-65 Select Drive Groups

 

                                步骤 5     选择“Apply Changes”并按“Enter”。

提示操作成功。

                                步骤 6     选择“OK”并按“Enter”返回VD配置界面,如10-6610-67所示,参数说明如10-22所示。

图10-66 Create Virtual Drive1

 

图10-67 Create Virtual Drive2

 

表10-22 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

解除映射能力。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drive Group

选择硬盘组。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照10.4.10 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略。可配置的状态有:

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,数据会丢失。

l     Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 7     按照10-22所述配置VD的相关属性。

                                步骤 8     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

                                步骤 9     选择“Confirm”并按“Enter”。

                             步骤 10     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                             步骤 11     选择“OK”并按“Enter”完成配置。

可进入Virtual Drive Management界面,查看当前存在的所有VD,如10-68所示。

图10-68 Virtual Drive Management

 

----结束

每个RAID组最多支持创建16VD,如需要继续创建VD,请重复执行步骤1~步骤11

10.4.11 设置JBOD模式

Avago SAS3516支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

登录管理界面,具体操作方法请参见10.6.1 进入管理界面

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Properties界面,如10-69所示。

图10-69 Advanced Controller Properties

 

                                步骤 2     选择“JBOD Mode”并按Enter

                                步骤 3     选择“Enabled”并按“Enter”。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

10.5 故障处理

介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

10.5.1 硬盘相关故障

10.5.1.1 硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

确认故障硬盘槽位。

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考10.6.2.4 Drive Management

l     通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

                                步骤 1     更换新硬盘。

 

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考10.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在10.2.1 支持多种RAID类型查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0

     UEFI模式下创建RAID0的方法请参见10.3.2 创建RAID 0

     通过命令行方式创建RAID0的方法请参见10.7.2.2 创建和删除RAID

----结束

10.5.1.2 硬盘状态为failprefail

问题描述

正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代failprefail状态的成员盘并进行重构,避免数据丢失。

但当RAID控制卡未设置紧急热备时,成员盘状态显示为failprefail时,可使用以下方法处理。

处理方法

使用StorCLI工具,具体操作请参考10.7.1 下载和安装StorCLI工具

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考10.7.2.16 设置硬盘状态

storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在EnclosureID

l     slot_id:物理硬盘槽位ID

                                步骤 2     更换离线硬盘。

                                步骤 3     RAID组自动执行重构。

等待重构完成。

----结束

10.5.1.3 硬盘状态为Unconfigured BadUBad

问题描述

硬盘状态显示为Unconfigured BadUBad

处理方法

使用StorCLI工具,具体操作请参见10.7.1 下载和安装StorCLI工具

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见10.7.2.16 设置硬盘状态

storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在EnclosureID

l     slot_id:物理硬盘槽位ID

                                步骤 2     重新查看硬盘状态是否更改为Unconfigured GoodUgood。具体操作请参见10.6.2.4 Drive Management界面或10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤4

                                步骤 3     查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见10.4.9 导入和清除外部配置10.7.2.33 查看/导入/清除外部配置

l     问题解决 => 处理完毕。

l     问题未解决 => 联系技术支持处理。

----结束

10.5.2 电容故障

问题描述

RAID控制卡电容故障时,可能导致服务器出现如下情况:

l     服务器读写速度显著降低。

l     RAID控制卡的CU界面中显示电容状态异常。

处理方法

进入RAID控制卡的CU界面,查看电容状态是否为“Optimal”。

电容状态可查询10.6.2.5 Hardware Components界面的“Battery Status”参数。

l      => 处理完毕

l      => 步骤2

                                步骤 1     将服务器下电,打开机箱,并查看RAID控制卡电容是否在位。

l      => 步骤4

l      => 步骤3

                                步骤 2     检查整机配置,为服务器安装电容,查看电容状态是否为“Optimal”。

l      => 处理完毕

l      => 步骤6

                                步骤 3     重新安装RAID控制卡电容,查看电容状态是否为“Optimal”。

l      => 处理完毕

l      => 步骤5

                                步骤 4     更换RAID控制卡电容,查看电容状态是否为“Optimal”,且“问题描述”所述的异常状态是否消失。

l      => 处理完毕

l      => 步骤6

                                步骤 5     联系技术支持处理。

----结束

10.5.3 控制卡故障

问题描述

当服务器出现如下现象时,说明控制卡故障。

l     数据无法写入控制卡控制的硬盘。

l     服务器上报控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     查询兼容性查询助手或者联系技术支持处理。

----结束

10.5.4 Device ManagerRAID控制卡状态显示Not Healthy

问题描述

进入“Advanced”界面后,显示“Some drivers are not healthy”。

处理方法

选择“Some drivers are not healthy”。

进入健康状态查询界面。

                                步骤 1     选择“Repair the whole platform”,并按“Enter”。

进入“Driver Healthy Protocol Utility”界面。

                                步骤 2     查看“Driver Healthy Protocol Utility”界面的打印信息。

l     显示“The following VDs have missing disks. => 请参见10.5.4.1 The following VDs have missing disks

l     显示“There are offline or missing virtual drives with preserved cache. => 请参见10.5.4.2 There are offline or missing virtual drives with preserved cache

l     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone=> 请参见10.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

l     显示“Memory/battery problems were detected. => 请参见10.5.4.4 Memory/battery problems were detected

----结束

RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见0RAID控制卡启动中出现的常见的错误消息及处理方法

10.5.4.1 The following VDs have missing disks

问题描述

进入“Driver Healthy Protocol Utility”界面后,显示The following VDs have missing disks.

处理方法

修复RAID控制卡。

1.     选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

2.     输入“c”,选择“Yes”并按“Enter”。

返回“Driver Healthy Protocol Utility”界面。

3.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

4.     输入“y”,选择“Yes”并按“Enter”。

提示Critical Message handling completed. Please exit。修复完成。

                                步骤 1     重启服务器,进入“Advanced”界面,检查界面是否显示“The platform is healthy”。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

10.5.4.2 There are offline or missing virtual drives with preserved cache

问题描述

进入“Driver Healthy Protocol Utility”界面后,显示“There are offline or missing virtual drives with preserved cache”。

处理方法

选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

                                步骤 1     输入任意内容,选择“Yes”并按“Enter”。

提示Critical Message handling completed. Please exit

                                步骤 2     按“Esc”键返回到“Device Manager”界面。

                                步骤 3     选择“AVAGO MegaRAID<SAS3516> driver Health Protocol Utility”并按“Enter”。

进入“Configuration Utility”界面。

                                步骤 4     选择“Discard Preserved Cache”并按“Enter”。

弹出操作确认对话框。

                                步骤 5     选择“Confirm”并按“Enter”。

                                步骤 6     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 7     选择“OK”并按“Enter”。

                                步骤 8     重启服务器。

                                步骤 9     进入“Advanced”界面,检查界面是否显示The platform is healthy

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

10.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

问题描述

10-70所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”

图10-70 状态显示

 

处理建议

该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:

l     下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。

l     忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:

a.     10-70中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

b.     输入“c”并按“Enter”。

c.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

d.     输入“y”并按“Enter”。

提示Critical Message handling completed. Please exit

e.     按“Esc”退出当前界面。

弹出确认保存配置会话框,如10-71所示。

图10-71 提示保存会话框

 

f.     按“Y”保存配置,操作完成。

g.     Esc键返回“Device Manager”界面。

h.     选择3516RAID控制卡,并按“Enter”,进入RAID控制卡管理界面。

10.5.4.4 Memory/battery problems were detected

问题描述

进入“Driver Healthy Protocol Utility”界面后,显示“Memory/battery problems were detected. The adapter has recovered, but cached data was lost”。

处理方法

选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

                                步骤 1     输入任意内容,选择“Yes”并按“Enter”。

提示“Critical Message handling completed. Please exit”。

                                步骤 2     重启服务器,进入“Advanced”界面,检查界面是否显示“The platform is healthy”。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

10.5.4.5 Disabling writes to flash as the flash part has gone bad

问题描述

10-72所示,进入“Driver Healthy Protocol Utility”界面后,显示“Disabling writes to flash as the flash part has gone bad”。

图10-72 状态显示

 

处理方法

将服务器下电。

                                步骤 1     更换RAID控制卡。

                                步骤 2     将服务器上电,导入外部配置恢复原来的RAID配置,请参见10.4.9 导入和清除外部配置10.7.2.33 查看/导入/清除外部配置

检查提示是否清除。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

10.5.5 Controller Mode恢复为RAID

问题描述

RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD modeRAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。

当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。

处理方法

(可选)登录RAID控制卡管理界面,具体操作请参见10.3.1 进入管理界面

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Management界面。

                                步骤 2     选择“Switch to RAID mode”并按“Enter”。

提示操作成功。

                                步骤 3     选择“OK”并按“Enter”。

返回到“Advanced Controller Management”界面,显示正在切换模式。

                                步骤 4     按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见10.3.1 进入管理界面

                                步骤 5     依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”。

l      => 处理完毕

l      => 请联系技术支持

----结束

10.5.6 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死

问题描述

硬盘响应命令超时,控制卡会对硬盘进行复位。3次复位后尚未恢复时将可能耗尽控制卡TMTask Management)资源,触发Fatal error,此时会通过OCROnline Controller Reset)自愈恢复,期间将有短时间业务中断(约30s60s),控制卡复位后会完成踢盘,将故障硬盘置为Ubad状态。

控制卡自愈恢复,需要开启OCR开关。

触发条件

当下发到硬盘的I/O出现超时不响应的情况时,RAID控制卡会通过reset硬盘来恢复,正常情况下,硬盘会重新接入或者多次reset之后会进行踢盘。

当出现reset之后硬盘仍然无法响应RAID控制卡指令且无法踢盘时,RAID控制卡会再次reset进行复位,每次reset会占用RAID控制卡资源,短时间内多次reset会导致RAID控制卡资源耗尽,该场景下,RAID控制卡会通过重新加载FW进行恢复。

该机制为此类卡的正常处理机制,由于架构限制,无法进行优化。

识别方法

l     已安装OS

当遇到短时间业务中断,恢复后查看有被置为Ubad状态的硬盘时,可以查看控制卡日志,搜索dm.c并查看其发生时间,如与业务中断时间节点接近,即可断定为触发了该机制。

注意控制卡与OS时间差。

l     未安装OS

OS时,触发该机制的操作为:从“Advanced”页签进入控制卡界面。若触发该机制,进入控制卡卡操作界面时将会卡住,无法恢复。

处理方法

定位故障硬盘。

l     已安装OS

     如确认触发了该机制并且已经完成了踢盘,需要更换Ubad状态的硬盘。

     如无Ubad状态的硬盘,查看日志并搜索“indicates critical condition”,目标行的“element xx indicates critical condition”中,“xx”即为问题硬盘的槽位号。

已安装OS,但是进入“Advanced”页签的控制卡操作界面卡住,需要重新上下电进入OS,按照以上方式定位故障硬盘。

l     未安装OS

系统未安装OS,出现该异常时,保留预安装OS RAID组数目的硬盘,将其他硬盘拔出并记录槽位号,如成功安装OS进入系统后,按照已安装OS的操作来确认问题硬盘。

                                步骤 1     更换故障硬盘。

l      => 处理完毕。

l      => 请联系技术支持。

----结束

10.5.7 删除Preserved Cache

问题描述

l     无法创建RAID组。

l     进入控制卡主界面后,显示“Discard Preserved Cache”,如10-73所示。

图10-73 控制卡主界面

 

处理方法

进入控制卡主界面。

                                步骤 1     选择“Discard Preserved Cache”并按Enter

弹出操作确认界面,如10-74所示。

图10-74 操作确认窗口

 

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示“The operation has been performed successfully”即操作成功。

----结束

10.6 管理界面介绍

10.6.1 进入管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器

                                步骤 2     重启过程中,当出现如10-75所示界面时,按“Delete”,进入输入密码界面。

图10-75 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如10-76所示界面。

图10-76 Setup Utility界面

 

                                步骤 4     通过“”或“→ ”进入“Advanced”页签,如10-77所示。

图10-77 “Advanced”页签

 

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见10.5.4 Device ManagerRAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择“Avago <SAS3516> Configuration Utility”,按“Enter”。

进入Avago SAS3516主界面,如10-7810-79所示,界面参数如10-23所示。

图10-78 Avago SAS3516主界面(1

 

图10-79 Avago SAS3516主界面(2

 

表10-23 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

说明

Avago SAS3516不支持在此界面升级FW

Silence Alarm

板载蜂鸣器的使能状态。

说明

Avago SAS3516未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

10.6.2 Main Menu

RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。

界面介绍

Main Menu”界面如10-80,参数说明如10-24所示。

图10-80 Main Menu

 

表10-24 参数说明

参数

参数说明

Configuration Management

配置管理RAID

Controller Management

管理RAID控制卡。

Virtual Drive Management

管理虚拟磁盘。

Drive Management

管理硬盘。

Hardware Components

查询部件信息。

 

10.6.2.1 Configuration Management

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

Configuration Management”界面如10-81,参数说明如10-25所示。

图10-81 Configuration Management

 

表10-25 参数说明

参数

参数说明

Auto Configure RAID 0

自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0

Create Virtual Drive

创建RAID

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Clear Configuration

清除当前所有RAID配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时会显示该参数。

 

清除RAID配置

选择“Clear Configuration”并按“Enter”。

进入操作确认界面。

                                步骤 1     选中“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     选择“OK”并按“Enter”。

操作完成。

----结束

快速创建RAID

选择"Create Profile Based Virtual Drive"并按“Enter”。

                                步骤 1     选择要创建的RAID(以“Generic RAID 0”为例)并按“Enter”。

打开RAID配置界面,如10-82,参数说明如10-26所示。

图10-82 RAID配置界面

 

表10-26 参数说明

参数

说明

Drive Selection Criteria

系统自动选择的成员盘。

Virtual Drive Name

系统自定义的RAID组名称。

RAID Level

当前配置的RAID组的级别。

Virtual Drive Size

RAID组的容量。

Power Save Mode

数据掉电保护模式。

Strip Size

RAID组扇区大小。

Read Policy

RAID组的数据读策略。

Write Policy

RAID组的数据写策略。

IO Policy

RAIDI/O策略。

Access Policy

数据读写的策略。

Drive Cache

硬盘Cache策略。

Default Initialization

RAID组默认的初始化方式。

说明

快速创建RAID 0时,出现该选项。初始化类型默认为Fast且不可更改。

Create Dedicated Hot Spare

是否为RAID组创建一块局部热备盘。

说明

快速创建RAID156时,出现该选项

Save Configuration

保存当前配置。

 

                                步骤 2     10-26所示查看或配置相关参数。

                                步骤 3     选择“Save Configuration”并按“Enter”。

弹出操作成功提示界面。

                                步骤 4     按“Enter”。

----结束

查看硬盘组属性

10-81中选择“View Drive Group Properties”并按“Enter”。

打开的界面如10-83,参数说明如10-27所示。

图10-83 View Drive Group Properties

 

表10-27 参数说明

参数

参数说明

Drive Group

硬盘组名称。

Capacity Allocation

硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。

 

----结束

10.6.2.2 Controller Management

该界面提供控制卡管理接口,可查看并修改控制卡的详细参数。

界面介绍

Controller Management”界面如10-8410-85所示,参数说明如10-28所示。

图10-84 Controller Management1

 

图10-85 Controller Management2

 

表10-28 参数说明

参数

参数说明

Product Name

控制标卡名称。

Serial Number

控制标卡序列号。

Controller Status

控制标卡的工作状态。

Personality Mode

控制标卡的模式。

Select Device For Boot Order

设置控制标卡的启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。

PCI ID

控制标卡的PCI ID

PCI Segment:Bus:Device:Fuction

控制标卡的PCI设备索引。

PCI Slot Number

控制标卡的PCI槽位号。

Package Version

控制标卡的套件版本。

Firmware Version

控制标卡的固件版本号。

NVDATA Version

控制标卡配置信息的版本号。

Supported Device Interfaces

控制标卡支持的设备接口。

Drive Count

控制标卡下挂载的硬盘个数。

Virtual Drive Count

控制标卡下已有虚拟磁盘数量。

Advanced Controller Management

管理控制卡高级功能。

Advanced Controller Properties

查看和修改控制卡的高级属性。

 

更多控制卡操作

10-84中选择“Advanced Controller Management”并按“Enter”。

界面如10-86所示,界面中参数说明如10-29所示。

图10-86 Advanced Controller Management

 

表10-29 参数说明

参数

说明

Clear Controller Events

清除控制卡的事件日志。

Save Controller Events

保存控制卡的事件日志。

Save TTY Log

保存终端操作日志。

Manage SAS Storage  Link Speed

管理RAID控制卡接口速率。

Manage MegaRAID Advanced Software Options

管理高级软件功能。

Schedule Consistency Check

设置一致性校验参数。

Set Factory Defaults

恢复为出厂配置。

Manage Personality Mode

切换RAID控制卡的工作模式。

选择该选项并按“Enter”后,可进入设置RAID控制卡工作模式的界面。

RAID控制卡工作模式默认为RAID模式。当RAID控制卡当前的工作模式为RAID时,“Manage Personality Mode”界面中显示为“Switch to JBOD mode”;当RAID控制卡当前的工作模式为JBOD时,“Manage Personality Mode”界面中显示为“Switch to RAID mode”。

RAID控制卡的工作模式仅支持设置为“RAID”,请勿修改为“JBOD”。

如已设置为“JBOD”,请参见10.5.5 Controller Mode恢复为RAID进行恢复;如需要开启JBOD功能,请参见10.4.11 设置JBOD模式进行设置。

Controller Mode

RAID控制卡当前的工作模式。

 

----结束

查看并修改控制卡高级属性

10-84中选择“Advanced Controller Properties”并按“Enter”。

界面如10-8710-88所示,界面中参数说明如10-30所示。

图10-87 Advanced Controller Properties1

 

图10-88 Advanced Controller Properties2

 

表10-30 参数说明

参数

说明

Cache and Memory

查看控制卡CacheMemory信息。

Patrol Read

系统巡检。

Power Save Setting

设置节能功能。

Spare

热备属性设置。

Task Rates

设置各种任务占用系统比率。

Alarm Control

Avago SAS3516控制卡标卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

容量对齐的模式。包括:

l     None

l     128MB

l     1GB

默认为“1GB”。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errrors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制卡BIOS的使能情况。

ROC Temperature

控制卡温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见10.4.9 导入和清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

JBOD Mode

硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。

Write Verify

写校验。

Large IO Support

启用或禁用大型I/O支持功能。

Unmap Capability

解除映射能力。

Firmware Device Order

该功能开启后,设置为启动项的RAID组盘符为sda

说明

开启该功能前,请先确认控制卡驱动与固件配套。

Preboot Trace Buffer

启用或禁用RAID控制卡对本次启动过程中的调试信息的收集。

Apply Changes

保存配置。

 

                                步骤 2     10-87中选择“Task Rates”并按“Enter”。界面如10-89所示,界面中参数说明如10-31所示。

图10-89 Task Rates

 

表10-31 参数说明

参数

说明

Background Initialization <BGI> Rate

设置执行后台初始化的速率。

说明

数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Consistency Check Rate

设置执行一致性校验的速率。

说明

数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Patrol Read Rate

设置执行巡检读取的速率。

说明

数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Rebuild Rate

设置硬盘发生故障时在新硬盘上执行重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Reconstruction Rate

设置执行RAID级别迁移或在线容量扩展时重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Apply Changes

保存配置。

 

                                步骤 3     按照10-30所述修改控制卡的高级属性参数。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     单击“OK”完成配置。

----结束

10.6.2.3 Virtual Drive Management

该界面提供虚拟磁盘的查询和管理接口。

界面介绍

Virtual Drive Management”界面如10-90,显示虚拟磁盘列表。

图10-90 Virtual Drive Management

 

选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如10-91所示,参数说明如10-32所示。

图10-91 虚拟磁盘操作界面

 

表10-32 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:定位虚拟磁盘的所有硬盘。

l     Stop Locate:取消定位。

l     Delete Virtual Drive:删除虚拟磁盘。

l     Expand Virtual Drive:扩展虚拟磁盘容量。

l     Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。

l     Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。

l     Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。

l     Fast Initialization:快速初始化虚拟磁盘。

l     Slow Initialization:安全初始化虚拟磁盘。

l     Check Consistency:一致性校验。

l     Virtual Drive Erase:格式化虚拟磁盘。

Progress

当前任务进度。

l     仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。

l     当前界面不会自动刷新,需退出后重新进入查看当前进度。

Stop

停止当前任务。

仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。

Name

虚拟磁盘名称。

Raid Level

虚拟磁盘RAID级别。

Status

虚拟磁盘当前运行状态。

Size

虚拟磁盘容量。

View Associated Drives

查看成员盘属性。

Advanced...

查看虚拟磁盘高级属性。

 

查看成员盘属性

10-91中选择“View Associated Drives”并按“Enter”。

界面如10-92,显示成员盘列表。

图10-92 View Associated Drives

 

                                步骤 2     选择要查看的成员盘,并按“Enter”。

                                步骤 3     选择“View Drive Properties”并按“Enter”。

进入硬盘属性界面,如10-93界面所示,界面参数如10-33所示。

图10-93 View Drive Properties

 

表10-33 参数说明

参数

参数说明

Operation

该成员盘可执行的操作,包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Place Drive Online/Offline:将硬盘上线/离线。

Drive ID

成员盘的ID

Connection

硬盘接口。

Enclosure Position

机箱或背板的位置。

Slot Number

硬盘的槽位号。

Status

成员盘的当前工作状态。

Size

成员盘的容量。

Type

成员盘类型。

Model

成员盘的模块类型。

Hardware Vendor

成员盘的生产厂商。

Associated Virtual Drive

成员盘所在的虚拟磁盘。

Advanced...

查询成员盘更多属性。

 

----结束

查看和修改虚拟磁盘高级属性

10-91中选择“Advanced...”并按“Enter”。

界面如10-9410-95所示,界面参数如10-34所示。

图10-94 Advanced 1

 

图10-95 Advanced 2

 

表10-34 参数说明

参数

参数说明

Logical Sector Size

逻辑扇区大小。

Segment Size

条带大小。

Starting Logical Block Addressing

逻辑单元起始地址。

Emulation Type

控制逻辑盘在OS中上报的扇区。

当成员盘为512B/512B时:

l     Default:逻辑盘扇区为512B/512B

l     None:逻辑盘扇区为512B/512B

l     Force:逻辑盘扇区为512B/4KB

当成员盘为512B/4KB时:

l     Default:逻辑盘扇区为512B/4KB

l     None:逻辑盘扇区为512B/512B

l     Force:逻辑盘扇区为512B/4KB

Protected

是否支持硬盘保护。

Bad Blocks

是否支持坏块处理。

SSD Caching

是否支持SSD Caching

Access

是否支持Access

Current Write Cache Policy

当前写Cache策略,包括:

l     Write Through:当硬盘子系统接收到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。

l     Write Back:当RAID控制标卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Always Write Back:当未配置超级电容或超级电容故障时,RAID控制卡将不会自动切换到Write Through模式。

说明

“Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR的写数据将会丢失。不推荐使用该模式。

Default Write Cache Policy

默认的写Cache策略。

Disable Background Initialization

是否禁用后台初始化。

Read Cache Policy

当前读Cache策略,包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。RAID控制标卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

Drive Cache

设置硬盘cache状态。

Input/Output

I/O读取策略,包括:

l     Direct:直接从硬盘读取数据,不经过Cache缓存。

l     Cached:从Cache缓存中读取数据。

Apply Changes

保存配置。

 

                                步骤 2     按照10-34所述配置“Advanced”的参数。

                                步骤 3     选择“Apply Changes”并按“Enter”。

显示The operation has been performed successfully

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

10.6.2.4 Drive Management

该界面显示硬盘基本属性,提供硬盘操作接口。

界面介绍

Drive Management”界面如10-96所示,显示硬盘列表。

图10-96 Drive List

 

硬盘的标识信息说明如下:

l     ①表示RAID控制卡的Port口编号,其中Drive C0/Drive Port A表示RAID控制卡的Port A口,Drive C1/Drive Port B表示RAID控制卡的Port B口。

l     ②表示机箱或背板的位置ID

l     ③表示硬盘槽位号。

l     ④表示硬盘类型。

l     ⑤表示硬盘的容量。

l     ⑥表示硬盘的状态。

l     ⑦表示硬盘的扇区大小。

选定要操作的硬盘并按“Enter”进入详细操作界面,如10-97所示,参数说明如10-35所示。

图10-97 Drive Management

 

表10-35 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Initialize Drive:硬盘初始化。

l     Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。

     Simple:仅对硬盘进行一轮擦除动作。

     Normal:对硬盘进行三轮擦除动作。

     Thorough:对硬盘进行九轮擦除动作。

     Stop Erase:停止数据擦除操作。

l     Make Unconfigured Good/Bad:修改硬盘状态。

l     Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。

l     Assign Global Hot Spare Drive:设置全局热备盘。

l     Assign Dedicated Hot Spare Drive:设置局部热备盘。

l     Unassign Hot Spare Drive:删除热备盘。

l     Place Drive Online:将Offline状态的硬盘设置为Online

说明

l     Place Drive Online操作仅仅只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。

l     对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。

Drive ID

硬盘的ID

Connection

硬盘接口。

Enclosure Position

机箱或背板的位置。

Slot Number

硬盘的槽位号。

Status

硬盘的当前工作状态。

Size

硬盘的容量。

Type

硬盘的类型。

Model

硬盘型号。

Hardware Vendor

硬盘的生产厂商。

Advanced...

查询更多硬盘属性。

 

安全擦除硬盘数据

该操作会删除硬盘上的数据,请谨慎执行。

将“Operation”设置为“Drive Erase”。

                                步骤 1     选择“Erase Mode”并按“Enter”。

                                步骤 2     在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。

                                步骤 3     选择“Go”并按“Enter”。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示操作成功。

----结束

查看硬盘属性

选择“Advanced...”并按“Enter”。

打开硬盘属性界面,如10-9810-99所示,参数说明如10-36所示。

图10-98 Drive Properties 1

 

图10-99 Drive Properties 2

 

表10-36 参数说明

参数

参数说明

Certified

硬盘是否通过认证。

Logical Sector Size

逻辑扇区大小。

Physical Sector Size

物理扇区大小。

SMART Status

SMART功能是否使能。

Revision

硬盘Firmware版本。

Media Error

Media error个数。

Predicted Fail Count

Pred fail个数。

SAS Address

硬盘SAS地址。

Multipath

该功能为支持检测和使用从RAID控制卡到盘柜中的SAS设备的多条路径,连接到盘柜的设备有多条路径。到设备同一端口的冗余路径,可以保障当其中一条路径发生故障时,控制卡和设备之间可以使用另一条路径进行通信。同时使用具有负载平衡的多条路径,而不是单条路径,可以通过冗余来提高可靠性。

当前服务器暂不支持多路径的方式。

Drive Power State

硬盘上电状态。

Cache Setting

是否可设置Cache

Disk Protocol

硬盘支持的协议。

Capable Speed

设备速率。

Negotiated Speed

硬盘数据传输速率。

Number of Connections

连接器个数。

FDE Capable

硬盘是否支持FDEFull Disk Encryption)技术。

Cryptographic Erase Capable

硬盘的加密擦除能力。

Unmap Capable

解除映射能力。

Temperature

硬盘温度。

 

10.6.2.5 Hardware Components

该界面主要提供RAID控制卡传感器信息。

界面介绍

Hardware Components”界面如10-100,参数说明如10-37所示。

图10-100 Hardware Components

 

表10-37 参数说明

参数

参数说明

Battery Status

电容的工作状态。

Battery Management

电容管理。

Enclosure Management

查看更多传感器信息。

 

查看更多传感器信息

选择“Enclosure Management”并按“Enter”。

进入部件选择界面。

                                步骤 1     选择“Select Enclosure”并按“Enter”。

                                步骤 2     选择要操作的部件并按“Enter”。

                                步骤 3     选择“View Enclosure Status”并按“Enter”。

显示传感器的详细信息。

----结束

10.6.3 View Server Profile

提供RAID控制卡操作管理接口。

界面介绍

View Server Profile”界面如10-101所示,参数说明如10-38所示。

图10-101 View Server Profile

 

表10-38 参数说明

参数

参数说明

UEFI Spec Version

服务器支持的UEFI Spec版本。

Controller Management

提供控制卡管理接口,详细情况请参见10.6.2.2 Controller Management

Hardware Components

提供控制卡部件查询接口,详细情况请参见10.6.2.5 Hardware Components

Drive Management

提供硬盘管理接口,详细情况请参见10.6.2.4 Drive Management

Virtual Drive Management

提供虚拟磁盘管理接口,详细情况请参见10.6.2.3 Virtual Drive Management

 

10.6.4 View Foreign Configuration

该界面可查看、导入、清空外部配置。

界面介绍

View Foreign Configuration”界面如10-102所示。

图10-102 View Foreign Configuration

 

查看并导入外部配置

选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如10-103所示。

图10-103 外部配置

 

                                步骤 2     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     单击“OK”完成配置。

----结束

清除外部配置

选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     单击“OK”完成配置。

----结束

10.6.5 Configure

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

Configure”界面如10-104所示,参数说明如10-39所示。

图10-104 Configure

 

表10-39 参数说明

参数

参数说明

Auto Configure RAID 0

自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0

Create Virtual Drive

创建RAID

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Clear Configuration

清除当前所有RAID配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置的时候会显示该参数。

 

清除当前配置

选择“Clear Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     单击“OK”完成配置。

----结束

10.6.6 Set Factory Defaults

恢复出厂配置

在主界面选择“Set Factory Defaults”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     单击“OK”完成配置。

----结束

10.6.7 Update Firmware

该界面提供固件升级接口。

界面介绍

Update Firmware”界面如10-105所示,参数说明如10-40所示。

图10-105 Update Firmware界面

 

表10-40 参数说明

参数

参数说明

Select File System

选择使用的文件系统。

Select Directory

选择文件存放路径。可选路径包括:

Current Dir:当前路径

EFI:自适应路径

Select Image

选择要加载的文件。

 

升级固件

l     进行固件升级时,必须使用FAT12FAT16FAT32格式的介质。

l     仅检查支持EFI_SIMPLE_FILE_SYSTEM_PROTOCOL的文件系统。

l     FW镜像文件必须位于根目录或根目录的下一个级别才能进行访问。

按照10-40所述配置升级参数。

                                步骤 1     选择“Update”并按“Enter”。

打开操作确认界面。

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     在列表中选择“Enable”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     单击“OK”完成配置。

----结束

10.6.8 Manage MegaRAID Advanced Software Options

该界面提供RAID控制卡高级软件特性查看和导入接口。

界面介绍

Manage MegaRAID Advanced Software Options”界面如10-106所示,界面中参数说明如10-41所示。

图10-106 Manage MegaRAID Advanced Software Options

 

表10-41 参数说明

参数

说明

SAFE ID

RAID控制卡的安全编码。

Serial Number

RAID控制卡序列号。

Activation Key

待激活的高级特性的Key

Active

激活高级特性。

Avago SAS3516不支持高级特性的激活操作,该功能无效。

Deactive All Trail Software

注销当前所有高级特性。

Avago SAS3516不支持高级特性的激活操作,该功能无效。

 

10.6.9 Exit

退出配置界面。

退出配置界面

1.     Avago SAS3516主界面按“ESC”,显示如10-107所示“Advanced”界面。

图10-107 Advanced界面

 

2.     按“Esc”退出配置界面。

10.7 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

10.7.1 下载和安装StorCLI工具

下载工具

登录BROADCOM网站上RAID控制卡的页面

                                步骤 1     在“DOWNLOADS”页签中单击“Management Software and Tools”。

打开管理软件和工具列表。

                                步骤 2     下载最新版本的“StorCLI”工具。

                                步骤 3     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 1     Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。

StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

10.7.2 常用命令

10.7.2.1 查询RAID控制卡配置信息

命令功能

查询Avago SAS3516的基本配置信息。

命令格式

storcli64 /ccontroller_id show

参数说明

参数

参数说明

取值

controller_id

控制卡ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

 

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡配置信息。

[root@localhost ~]# ./storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
Controller = 0
Status = Success
Description = None
 
Product Name = SAS3516
Serial Number = FW-00000000
SAS Address =  5000000012345678
PCI Address = 00:3b:00:00
System Time = 03/22/2018 06:26:17
Mfg. Date = 00/00/00
Controller Time = 03/22/2018 10:26:15
FW Package Build = 50.3.0-1100
BIOS Version = 7.03.02.1_4.17.08.00_0x07030402
FW Version = 5.030.00-1280
Driver Name = megaraid_sas
Driver Version = 07.703.05.00
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x14
SubVendor Id = 0x19E5
SubDevice Id = 0xD216
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 59
Device Number = 0
Function Number = 0
Drive Groups = 4
 
TOPOLOGY :
========
 
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace TR
-----------------------------------------------------------------------------
 0 -   -   -        -   RAID0 OfLn  N    2.179 TB dflt N  N   none N      N
 0 0   -   -        -   RAID0 Dgrd  N    2.179 TB dflt N  N   none N      N
 0 0   0   -        -   DRIVE Msng  -  744.125 GB -    -  -   -    -      N
 0 0   1   -        -   DRIVE Msng  -  744.125 GB -    -  -   -    -      N
 0 0   2   64:5     4   DRIVE Onln  N  744.125 GB dflt N  N   none -      N
 1 -   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 1 0   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 1 0   0   64:6     23  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
 1 0   1   64:7     22  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
 1 -   -   64:8     21  DRIVE DHS   -  744.125 GB -    -  -   -    -      N
 2 -   -   -        -   RAID0 OfLn  N  445.171 GB dflt N  N   none Y      N
 2 0   -   -        -   RAID0 Dgrd  N  445.171 GB dflt N  N   none Y      N
 2 0   0   -        -   DRIVE Msng  -  222.585 GB -    -  -   -    -      N
 2 0   1   64:2     0   DRIVE Onln  N  222.585 GB dflt N  N   none -      N
 3 -   -   -        -   RAID1 Optl  N  446.102 GB dflt N  N   none N      N
 3 0   -   -        -   RAID1 Optl  N  446.102 GB dflt N  N   none N      N
 3 0   0   64:0     27  DRIVE Onln  N  446.102 GB dflt N  N   none -      N
 3 0   1   64:1     28  DRIVE Onln  N  446.102 GB dflt N  N   none -      N
-----------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Missing Drives Count = 3
 
Missing Drives :
==============
 
---------------------
Array Row       Size
---------------------
    0   0 744.125 GB
    0   1 744.125 GB
    2   0 222.585 GB
---------------------
 
Virtual Drives = 4
 
VD LIST :
=======
 
---------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC       Size Name
---------------------------------------------------------------
0/0   RAID0 OfLn  RW     No      RWBD  -   ON    2.179 TB
1/1   RAID1 Optl  RW     No      RWBD  -   ON  744.125 GB
2/2   RAID0 OfLn  RW     No      RWBD  -   ON  347.102 GB B
3/3   RAID1 Optl  RW     No      RWBD  -   ON  446.102 GB OS
---------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 12
 
PD LIST :
=======
 
----------------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model                      Sp Type
----------------------------------------------------------------------------------------
64:0     27 Onln   3 446.102 GB SATA SSD N   N  512B SAMSUNG MZ7KM480HAHP-00005 U  -
64:1     28 Onln   3 446.102 GB SATA SSD N   N  512B SAMSUNG MZ7KM480HAHP-00005 U  -
64:2      0 Onln   0 222.585 GB SATA SSD N   N  512B INTEL SSDSC2BB240G4        U  -
64:3      2 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4        U  -
64:4      3 UBad   - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4        U  -
64:5      4 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4        U  -
64:6     23 Onln   1 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BA800G4        U  -
64:7     22 Onln   1 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G6        U  -
64:8     21 DHS    1 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G6        U  -
64:9     25 UGood  - 185.333 GB SATA SSD N   N  512B INTEL SSDSC2BA200G4        U  -
64:10    26 UGood  - 185.333 GB SATA SSD N   N  512B INTEL SSDSC2BA200G4        U  -
64:11    24 UGood  - 185.333 GB SATA SSD N   N  512B INTEL SSDSC2BA200G4        U  -
----------------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Cachevault_Info :
===============
 
------------------------------------
Model  State   Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 24C  -    2016/12/06
------------------------------------

10.7.2.2 创建和删除RAID

命令功能

创建、删除RAID

命令格式

命令

说明

storcli64 /ccontroller_id add vd rlevel[0|1|5|6|10|50|60] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [wt|*wb|awb] [nora|*ra] [*direct|cached] [Strip=<8|16|32|64|128|256|1024>] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid]

创建RAID

storcli64 /ccontroller_id/vraid_id del

删除RAID

 

*表示默认值。

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

rlevel

要配置的RAID组级别

level可为0156105060,数字分别代表对应的RAID组级别。

size

要配置的RAID组容量

默认值为all,即所有成员盘的容量之和。

name

要配置的RAID组名称

-

drives

要加入RAID组的硬盘

-

startid-endid

硬盘的起始和结束ID

-

slot_id

硬盘ID

-

pdperarray

子组中的硬盘数

创建RAID10RAID50RAID60时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。

-

pdcache

设置RAID的成员盘的Cache状态

l     on

l     off

l     default

pi

使能数据保护

-

wrcache

设置RAID组的写Cache属性,完整的命令为wrcache=wt|wb|awb,这里“wrcache=”可省略

l     wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”模式。

rdcache

设置RAID组的读Cache属性,完整的命令为rdcache=ra|nora,这里“rdcache=”可省略。

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     noraRAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

iopolicy

设置RAID组的I/O策略,完整的命令为iopolicy=direct|cached,这里“iopolicy=”可省略。

说明

Cache IO的规格后续不再支持,默认为Direct IO,具体信息请查看RAID控制卡固件版本说明书。

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

Strip

设置RAID组条带大小

MR卡:64, 128, 256, 512, 1024

iMR卡:只能为64

单位为KB

EmulationType

控制逻辑盘在OS中上报的扇区

l     0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     1: Disable,即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     2Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Spares

指定RAID组的热备盘

-

raid_id

要删除的RAID组的ID

-

 

l     以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

l     当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid

使用指南

使用实例

# 创建RAID 0

[root@localhost ~]# ./storcli64 /c0 add vd r0 size=100GB drives=64:9,10
 
Controller = 0
Status = Success
Description = Add VD Succeeded

# 删除RAID

domino:~# ./storcli64 /c0/v0 del
Controller = 0
Status = Success
Description = Delete VD Succeeded

10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

查询RAID控制卡/RAID/物理硬盘信息

命令功能

查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。

命令格式

storcli64 /ccontroller_id show

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

storcli64 /ccontroller_id/vvd_id show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

enclosure_id

硬盘所在EnclosureID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡连接的硬盘背板的ID

slot_id

物理硬盘槽位编号

可以将该参数设置为all,表示查询所有硬盘的ID

vd_id

虚拟磁盘ID

可以为all,表示查询所有虚拟磁盘信息。

 

使用指南

使用实例

# 查询VD 0的信息。

domino:~# ./storcli64 /c0/v0 show
Controller = 0
Status = Success
Description = None
Virtual Drives :
==============
---------------------------------------------------------
DG/VD TYPE State Access Consist Cache sCC Size Name
---------------------------------------------------------
0/0 RAID1 Optl RW Yes RWBD - 100.0 GB
---------------------------------------------------------
Cac=CacheCad|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded Optl=Optimal|RO=Read
OnlyRW=Read Write|HD=Hidden|B=Blocked|Consist=Consistent|AWB=Always WriteBack|WT=WriteThrough|
C=Cached IOID=Direct IO|sCC=Scheduled Check Consistency

10.7.2.4 查询和设置Patrolread参数

命令功能

查询和设置系统巡检的相关参数。

命令格式

storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number

storcli64 /ccontroller_id set patrolread delay=delaytime

storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}

storcli64 /ccontroller_id show patrolread

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

系统巡检起始时间

例如:2016/07/15 23

说明

起始时间单位为

number

可同时巡检的硬盘数量

delaytime

系统巡检周期

单位为hour

 

查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。

domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
---------------------------------------  
Ctrl_Prop          Value 
--------------------------------------- 
PR Starttime       2016/07/15 23:00:00 
PR MaxConcurrentPd 2 
---------------------------------------

# 使能patrolread并设置为自动模式。

domino:~# ./storcli64 /c0 set patrolread=on mode=auto
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
--------------------------------------- 
Ctrl_Prop        Value 
--------------------------------------- 
Patrol Read Mode auto 
---------------------------------------

# 查询patrolread信息。

domino:~# ./storcli64 /c0 show patrolread
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
-------------------------------------------- 
Ctrl_Prop          Value 
-------------------------------------------- 
PR Mode       2016/07/15 23:00:00 
PR Execution Delay 
PR iterations completed 0 
PR Next Start time      07/16/2016,00:00:00 
PR on SSD               Disabled 
PR Current State        Stopped 
--------------------------------------------

10.7.2.5 查询和设置Spinup参数

命令功能

查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。

命令格式

storcli64 /ccontroller_id show spinupdelay

storcli64 /ccontroller_id show spinupdrivecount

storcli64 /ccontroller_id set spinupdelay=time

storcli64 /ccontroller_id set spinupdrivecount=count

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

每组起转硬盘间的时间间隔

默认为2,单位为s

count

上电时允许同时起转的硬盘数量

默认为4

 

查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡Spinup参数。

[root@localhost ~]# ./storcli64 /c0 show spinupdelay
Controller = 0
Status = Success
Description = None
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop     Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
 
 
 
[root@localhost ~]# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop           Value
--------------------------
Spin Up Drive Count 2
--------------------------

# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。

domino:~# ./storcli64 /c0 set spinupdelay=20
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 20 second(s)
--------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 5
--------------------------

10.7.2.6 查询和设置硬盘数据擦除功能

命令功能

设置物理硬盘数据擦除模式,查询擦除进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

mode

数据擦除模式

l     simple:对硬盘进行一轮擦除动作。

l     normal:对硬盘进行三轮擦除动作。

l     thorough:对硬盘进行九轮擦除动作。

 

以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# slot 3硬盘进行simple数据擦除,并查询擦除进度。

domino:~# ./storcli64 /c0/e252/s3 start erase simple
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.

10.7.2.7 查询和设置RAID后台初始化

命令功能

暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。

命令格式

storcli64 /ccontroller_id/vraid_id action bgi

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

action

后台初始化的操作

l     show:查看后台初始化进度

l     pause:暂停后台初始化

l     resume:继续后台初始化

l     stop:停止后台初始化

 

以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查看后台初始化进度。

[root@localhost ~]# ./storcli64 /c0/v0 show bgi
Controller = 0
Status = Success
Description = Noe
 
VD Operation Status :
===================
 
------------------------------------------------------
VD Operation Progress% Staus      Estimated Time Left
------------------------------------------------------
 0 BGI               3 In progress 53 Minutes
------------------------------------------------------

10.7.2.8 查询和设置CacheFlush参数

命令功能

查询和设置Cache的刷新周期。

命令格式

storcli64 /ccontroller_id show cacheflushint

storcli64 /ccontroller_id set cacheflushint time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

Cache的刷新周期

单位为s

 

查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置Cache的刷新周期为“10”。

domino:~# ./storcli64 /c0 set cacheflushint=10
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10 sec
---------------------------

# 查询Cache的刷新周期。

domino:~# ./storcli64 /c0 show cacheflushint
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10
---------------------------

10.7.2.9 查询和设置物理硬盘初始化功能

命令功能

设置物理硬盘初始化功能,查询初始化进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看初始化进度

l     start:开始初始化

l     stop:结束初始化

 

以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 初始化slot3硬盘,并查询初始化进度。

[root@localhost ~]# ./storcli64 /c0/e64/s3 start initialization
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
 
[root@localhost ~]# ./storcli64 /c0/e64/s3 show initialization
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e64/s3         0 In progress 0 Seconds
-----------------------------------------------------
 
 
[root@localhost ~]#

10.7.2.10 查询和设置RAID重构

命令功能

开始、暂停、继续、停止RAID重构,并查询进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

action

要执行的操作

l     start:开始重构

l     show:查看重构进度

l     pause:暂停重构

l     resume:继续重构

l     stop:停止重构

 

查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 手动开始重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

# 查看硬盘当前重构状态。

[root@localhost ~]# ./storcli64 /c0/e70/s7 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e70/s7         5 In progress 26 Minutes
-----------------------------------------------------

# 暂停硬盘重构进程。

[root@localhost ~]# ./storcli64 /c0/e70/s7 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Succeeded.

# 继续重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 resume rebuild
Controller = 0
Status = Success
Description = Resume Drive Rebuild Succeeded.

# 停止重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 stop rebuild
Controller = 0
Status = Success
Description = Stop Drive Rebuild Succeeded.

10.7.2.11 查询和设置回拷

命令功能

开始、暂停、继续、停止回拷,并查询进度。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id start copyback target=target_enclosure_id:target_slot_id

开始回拷。

storcli64 /ccontroller_id/eenclosure_id/sslot_id action copyback

暂停、继续、查看、停止回拷。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

target_enclosure_id

执行回拷的目标硬盘所在EnclosureID

-

target_slot_id

执行回拷的目标物理硬盘槽位编号。

-

action

要执行的操作

l     show:查看回拷进度

l     pause:暂停回拷

l     resume:继续回拷

l     stop:停止回拷

 

查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 手动开始回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s7 start copyback target=70:3
Controller = 0
Status = Success
Description = Start Drive Copyback Succeeded.

# 查看硬盘当前回拷状态。

[root@localhost ~]# ./storcli64 /c0/e70/s3 show copyback
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e70/s3        17 In progress 16 Minutes
-----------------------------------------------------

# 暂停硬盘回拷进程。

[root@localhost ~]# ./storcli64 /c0/e70/s3 pause copyback
Controller = 0
Status = Success
Description = Pause Drive Copyback Succeeded.

# 继续回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s3 resume copyback
Controller = 0
Status = Success
Description = Resume Drive Copyback Succeeded.

# 停止回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s3 stop copyback
Controller = 0
Status = Success
Description = Stop Drive Copyback Succeeded.

10.7.2.12 查询和设置Smart扫描周期

命令功能

查询、设置Smart扫描周期。

命令格式

命令

说明

storcli64 /ccontroller_id set smartpollinterval=value

设置Smart扫描周期。

storcli64 /ccontroller_id show smartpollinterval

查询Smart扫描周期。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

value

Smart扫描周期

单位为s

 

查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置Smart扫描周期为“60s”。

domino:~# ./storcli64 /c0 set smartpollinterval=60
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------

10.7.2.13 查询和设置一致性校验参数

命令功能

查询、设置一致性检查参数。

命令格式

命令

说明

storcli64 /ccontroller_id[/vvd_id]show cc

查询一致性检查参数。

storcli64 /ccontroller_id/vvd_id start cc force

开始进行一致性检查。

storcli64 /ccontroller_id/vvd_id action cc

暂停/停止/继续执行一致性检查。

storcli64 /ccontroller_id set consistencycheck|cc=[off|seq|conc] [delay=value] starttime=time excludevd=evd_id

设置一致性自动检查参数。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

要操作的RAIDID

-

action

要执行的操作

l     pause:暂停

l     resume:继续执行

l     stop:停止

cc

将一致性检查设置为顺序模式或并行模式,或关闭一致性检查。

l     off:关闭一致性检查

l     seq:顺序模式

l     conc:并行模式

value

一致性检查周期

-

time

一致性检查起始时间

例如:2016/07/14 22

说明

起始时间单位为

evd_id

不进行一致性检查的虚拟磁盘ID

-

 

以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

show命令中不带/vvd_id时,表示查询自动CC参数。

show命令中带/vvd_id时,表示查询CC进度。

使用实例

# 设置一致性自动检查参数。

domino:~# ./storcli64 /c0 set cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------
Ctrl_Prop Value
------------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2016/07/14 22:00:00
CC ExcludeVD(0) Success
------------------------------------

# 查询CC进度。

domino:~# ./storcli64 /c0/v1 show cc
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimited Time Left
-----------------------------------------------------------
0 CC - Not in progress -
-----------------------------------------------------------

10.7.2.14 设置热备盘

命令功能

设置全局热备盘和局部热备盘。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive

设置全局热备盘。

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=<N|0,1,2..>]

设置局部热备盘。

storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive

删除热备盘。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

dgs

硬盘组的ID

l     不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘

l     0,1,2..:硬盘组ID

 

以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置slot 3硬盘为全局热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.

# 设置slot 3硬盘为vd0的局部热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive dgs=0
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.

10.7.2.15 设置启动项

命令功能

设置虚拟磁盘或物理硬盘为启动项。

命令格式

storcli64 /ccontroller_id/vvd_id set bootdrive=on

storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

vd_id

待设置的虚拟磁盘的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

 

以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置VD0为启动项。

[root@localhost ~]# ./storcli64 /c0/v0 set bootdrive=on
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
-----------------------------------------
VD Property   Value Status  ErrCd ErrMsg
-----------------------------------------
 0 Boot Drive On    Success     0 -
-----------------------------------------
 
 
 
[root@localhost ~]#

# 设置slot 7硬盘为启动项。

omino:~# ./storcli64 /c0/e252/s7 set bootdrive=on
Controller = 0 
Status = Success 
Description = Noe 
 
Controller Properties : 
===================== 
 
------------------- 
Ctrl_Prop Value 
------------------- 
BootDrive PD:252_7 
-------------------

10.7.2.16 设置硬盘状态

命令功能

设置硬盘状态。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

state

要设置的硬盘状态

l     online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。

l     offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。

l     jbod:通过该参数可以将硬盘设置为直通硬盘。

l     good

     ubad状态的硬盘,使用该参数可将硬盘设为ugoodforeign)状态,此时可选择导入或清除外来配置;

     JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。

l     good:将硬盘设为空闲盘

force

强制设置硬盘状态,为可选参数。

如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force

-

 

以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。

domino:~# ./storcli64 /c0/e0/s1 set good
Controller = 0 
Status = Success 
Description = Set Drive Good Succeeded.

# 设置slot 7硬盘为直通盘。

domino:~# ./storcli64 /c0/e252/s7 set JBOD
Controller = 0 
Status = Success 
Description = Set Drive JBOD Succeeded.

10.7.2.17 设置RAID组访问策略

命令功能

设置RAID的读写策略。

命令格式

storcli64 /ccontroller_id/vraid_id set accesspolicy=mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

mode

RAID读写策略

l     rw:可读可写

l     blocked:禁止访问

l     ro:只读访问

 

以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置RAID读写策略为“rw”。

[root@localhost ~]# ./storcli64 /c0/v0 set accesspolicy=rw
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
----------------------------------------
VD Property  Value Status  ErrCd ErrMsg
----------------------------------------
 0 AccPolicy RW    Success     0 -
----------------------------------------
 
 
 
[root@localhost ~]#

10.7.2.18 设置RAID组的I/O策略

命令功能

设置RAID组的I/O策略。

命令格式

storcli64 /ccontroller_id/vraid_id set iopolicy=mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAIDID

-

mode

设置RAID组的I/O策略

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

 

以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。

使用实例

# 设置RAID组的I/O策略为“direct”。

[root@linux ~]# storcli64 /c0/v1 set iopolicy=direct
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.14.0-115.el7a.0.1.aarch64
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
----------------------------------------
VD Property Value  Status  ErrCd ErrMsg
----------------------------------------
 1 IoPolicy Direct Success     0 -
----------------------------------------

10.7.2.19 设置硬盘Cache状态

命令功能

设置RAID组成员盘的Cache状态。

命令格式

storcli64 /ccontroller_id/vvd_id set pdcache=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

RAID组的ID

-

action

要执行的操作

l     on:打开硬盘Cache

l     off:关闭硬盘Cache

l     default:将硬盘Cache设置为默认状态

 

以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 打开ID0RAID组的硬盘Cache

./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
---------------------------------------
VD Property Value Status  ErrCd ErrMsg
---------------------------------------
 0 PdCac    On    Success     0 -
---------------------------------------

10.7.2.20 设置RAID组的Cache读写策略

命令功能

设置RAID组的Cache读写策略。

命令格式

命令

说明

storcli64 /ccontroller_id/vraid_id set wrcache=wrmode

设置Cache写策略

storcli64 /ccontroller_id/vraid_id set rdcache=rdmode

设置Cache读策略

 

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAID组的ID

可以为all,表示所有RAID

wrmode

设置Cache写策略

l     wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”策略。

rdmode

设置Cache读策略

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     noraRAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

 

以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置Cache读写模式为“wt”。

[root@localhost ~]# ./storcli64 /c0/v0 set wrcache=wt
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
---------------------------------------
VD Property Value Status  ErrCd ErrMsg
---------------------------------------
 0 wrCache  WT    Success     0 -
---------------------------------------
 
 
 
[root@localhost ~]#

10.7.2.21 设置紧急热备功能

命令功能

设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。

命令格式

storcli64 /ccontroller_id set eghs eug=state

storcli64 /ccontroller_id set eghs smarter=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

state

紧急热备功能的启用状态

l     on:启用

l     off:禁用

 

查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。

[root@localhost ~]# ./storcli64 /c0 set eghs eug=on
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
------------------
Ctrl_Prop   Value
------------------
EmergencyUG ON
------------------
 
 
 
[root@localhost ~]# ./storcli64 /c0 set eghs smarter=on
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-----------------------
Ctrl_Prop        Value
-----------------------
EmergencySmarter ON
-----------------------
 
 
 
[root@localhost ~]#

10.7.2.22 设置RAID前台初始化模式

命令功能

设置RAID前台初始化模式。

命令格式

storcli64 /ccontroller_id/vraid_id start mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

mode

前台初始化模式

l     init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。

l     init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。

 

以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 快速初始化RAID

[root@localhost ~]# ./storcli64 /c0/v4 start init
Controller = 0
Status = Success
Description = Start INIT Operation Success

10.7.2.23 设置硬盘定位指示灯状态

命令功能

点亮和熄灭指定硬盘的定位指示灯。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。

slot_id

物理硬盘槽位编号

可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。

action

要执行的操作

l     start:点亮硬盘的定位指示灯。

l     stop:熄灭硬盘的定位指示灯。

 

以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 点亮slot 7硬盘的定位指示灯。

domino:~# ./storcli64 /c0/e252/s7 start locate
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.

10.7.2.24 设置硬盘PowerSave功能

命令功能

设置空闲硬盘和热备盘的省电模式。

命令格式

storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

state

省电模式的启用状态。

l     on:启用

l     off:禁用

disktype

硬盘类型。

l     1:空闲硬盘

l     2:热备盘

time

等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。

单位为minutes

 

查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置空闲硬盘的省电模式。

[root@localhost ~]# ./storcli64 /c0 set ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
------------------------
Ctrl_Prop    Value
------------------------
SpnDwnUncDrv Enabled
SpnDwnTm     30 minutes
------------------------
 
 
 
[root@localhost ~]#

10.7.2.25 设置后台资源占用率

命令功能

设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。

命令格式

storcli64 /ccontroller_id set action=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要设置的项目

l     bgirate:后台初始化速率

l     ccrate:一致性校验速率

l     prrate:硬盘巡检速率

l     rebuildrateRAID重构速率

l     reconrateRAID扩容和迁移速率

value

后台任务资源占用率

1100

 

查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置硬盘巡检速率为“30%”。

[root@localhost ~]#  ./storcli64 /c0 set prrate=30
Controller = 0
Status = Success
Description = None
 
Controller Properties :
=====================
 
-----------------------
Ctrl_Prop        Value
-----------------------
Patrol Read Rate 30%
-----------------------

10.7.2.26 设置BIOS Stop on Error功能

命令功能

设置控制卡BIOS在检测到异常时停止继续启动的功能。

命令格式

storcli64 /ccontroller_id set bios mode=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要执行的操作

l     soe:控制卡BIOS在检测到异常时停止启动

l     ie:忽略检测到的异常

 

查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 开启Stop on error功能。

[root@localhost ~]# ./storcli64 /c0 set bios mode=soe
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------
 
 
 
[root@localhost ~]#

10.7.2.27 查询和清除PreservedCache数据

命令功能

查询和清除PreservedCache数据。

命令格式

storcli64 /ccontroller_id show preservedcache

storcli64 /ccontroller_id/vvd_id delete preservedcache force

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要操作的RAIDID

 

以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查询PreservedCache

domino:~# ./storcli64 /c0 show preservedcache
Controller = 0
Status = Success
Description = No Virtual Drive has Preserved Cache Data.

10.7.2.28 通过增加成员盘可用容量扩容RAID

命令功能

RAID2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

命令格式

storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要扩容的RAIDID

capacity

扩容后的容量

expandarray

当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。

 

以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查询VD的可扩展容量。

[root@localhost ~]# storcli64 /c0/v1 show expansion 
CLI Version = 007.1416.0000.0000 July 24, 2020 
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64 
Controller = 0 
Status = Success 
Description = None 
 
 
EXPANSION INFORMATION : 
===================== 
 
-------------------------------------------- 
VD      Size OCE NoArrExp WithArrExp Status 
-------------------------------------------- 
 1 10.000 GB Y   3.627 TB 5.447 TB   - 
-------------------------------------------- 
 
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion 
 VD=Virtual Drive | NoArrExp - Without Array Expansion

如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。

# VD0的容量扩大“200GB”。

domino:~# ./storcli64 /c0/v0 expand size=200GB
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
0 100.0 GB 457.861 GB 200.0 GB 201.458 GB 44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %

RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。

10.7.2.29 通过增加新盘扩容或迁移RAID

命令功能

RAID2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

当增加新盘后,可进行RAID级别迁移。

命令格式

storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

vd_id

要操作的RAIDID

slot_id

要加入RAID的新硬盘的槽位号

level

增加硬盘后RAID的级别

l     与原RAID级别相同时,该命令为扩大RAID容量。

l     与原RAID级别不同时,该命令为RAID级别迁移。

 

以上涉及的所有ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# RAID 0中增加slot 2硬盘扩容。

domino:~# ./storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 13 Minutes
-------------------------------------------------------

# 单盘RAID 0加盘迁移至RAID 1

domino:~# ./storcli64 /c0/v0 start migrate type=r1 option=add drives=252:3
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 14 Minutes
-------------------------------------------------------

10.7.2.30 升级硬盘FW

命令功能

升级硬盘的FW

命令格式

./storcli64 /ccontroller_id /eenclosure_id/sslot_id download src=FW_name.bin

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

FW_name

硬盘FW的名称

 

以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用实例

#升级硬盘FW

[root@localhost ~]# ./storcli64 /c0/e64/s5 download src=5200_D1MU004_Releasefullconcatenatedbinary.bin
Starting microcode update  .....please wait...
Flashing PD image  ..... please wait...
Controller = 0 
Status = Success 
Description = Firmware Download succeeded. 
 
Drive Firmware Download : 
======================== 
-------------------------------------------------------------------------------- 
Drive     Status  ErrCd    ErrMsg 
-------------------------------------------------------------------------------- 
/c0/e64/s5 Success   0        -
--------------------------------------------------------------------------------

10.7.2.31 手动重构RAID

命令功能

手动重构RAID组。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row

storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

要加入Array的物理硬盘槽位编号

DG

硬盘发生故障的DGID

Arr

硬盘发生故障的ArrayID

Row

硬盘发生故障的Arrayrow number

 

以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

重构RAID3个步骤进行:

1.通过./storcli64 /c0 show 命令,查询故障硬盘的DGArrRow所对应的数字。

2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。

3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID

使用实例

# 将硬盘加入RAID组。

[root@localhost ~]# storcli64 /c0/e252/s1 insert dg=0 array=0 row=0
Controller = 0
Status = Success
Description = Insert Drive Succeeded.

# 手动重构RAID

[root@localhost ~]# storcli64 /c0/e252/s1 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

10.7.2.32 收集和清除RAID控制卡日志

命令功能

收集和清除RAID控制卡的日志。

命令格式

命令

说明

storcli64 /ccontroller_id show termlog [type=logtype] [logfile[=filename]]

收集RAID控制卡的日志。

storcli64 /ccontroller_id delete termlog

删除RAID控制卡的日志。

storcli64 /ccontroller_id show alilog [logfile[=filename]]

收集控制卡属性信息、TTY日志和事件到指定文件。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

logtype

查询日志类型。

l     config:查询TTY BBU缓存设置。

l     content:查询日志信息。

缺省值:content

filename

文件名称,将保存日志到此文件。

可自定义文件名称,缺省时将默认保存至“StorSAS.log”文件中。

 

查询RAID控制卡ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 收集RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19  6:48:11: C0:TTY History buffer cleared
 
Controller = 0
Status = Success
Description = None

# 删除RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 delete termlog
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------------------
Ctrl Method Result
----------------------------
   0 Delete Termlog deleted
----------------------------

10.7.2.33 查看/导入/清除外部配置

命令功能

指导用户查看、导入或者清除RAID控制卡的外部配置。

命令格式

storcli64 /ccontroller_id/fall import preview

storcli64 /ccontroller_id/fall import

storcli64 /ccontroller_id/fall delete

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

 

使用指南

使用实例

# 查看RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall import preview
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
 
 
FOREIGN PREVIEW :
===============
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Total foreign drive groups = 0

# 删除RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall delete
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration

10.7.2.34 Snapdump相关操作

命令功能

介绍Snapdump相关操作。

命令格式

命令格式

说明

storcli64 /ccontroller_id  show snapdump

查询snapdump功能是否打开,是否有自动生成的snapdump文件。

storcli64 /ccontroller_id  get snapdump id=all

获取历史生成的snapdump文件。

storcli64 /ccontroller_id  get snapdump

获取历史生成的snapdump文件和当前再生成一个snapdump文件。

storcli64 /ccontroller_id  set snapdump state=on|off

打开和关闭snapdump功能。

storcli64 /ccontroller_id  delete snapdump force

删除历史snapdump日志功能。

 

参数说明

参数

参数说明

取值

controller_id

控制卡ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

state=on|off

Snapdump状态

on为开启,off为关闭

 

使用指南

l     Snapdump文件是一个日志文件,在一些RAID控制卡异常场景下可以自动生成的日志,也可以主动获取当前RAID控制卡的snapdump日志。

l     使用前可以先查询snapdump功能是否打开,是否有自动生成的snapdump文件,再去收集snapdump

l     获取历史生成的snapdump文件和当前再生成一个snapdump文件会影响业务,建议离线使用。

l     打开和关闭snapdump功能,如果无法打开注意看提示,请确认当前RAID控制卡固件版本是否支持。

l     收集snapdump文件在当前命令执行目录下,文件格式为snapdump_**************.zip

使用实例

#查询snapdump功能是否打开,是否有自动生成的snapdump文件。

[root@localhost ~]# storcli64 /c0 show snapdump
Controller = 0
Status = Success
Description = None
 
SnapDump Properties :
===================
 
----------------------------------
Ctrl_Prop              Value
----------------------------------
Snapdump               ON
Snapdump Save Count    N/A
Snapdump Delay OCR     15
Snapdump properties    Read-Write
Snapdump Current Count 2
----------------------------------
 
SnapDump Details :
================
 
----------------------------------------------
ID Snapdump Size Snapdump time       OnDemand
----------------------------------------------
0       2649396 08-06-2021 07:23:43 Yes
1       2070406 08-07-2021 06:59:24 Yes
----------------------------------------------

#获取历史生成的snapdump文件。

[root@localhost ~]# storcli64 /c0 get snapdump id=all
Controller = 0
Status = Success
Description = None

#获取历史生成的snapdump文件和当前再生成一个snapdump文件。

[root@localhost ~]# storcli64 /c0 get snapdump
Controller = 0
Status = Success
Description = Download Support Log

#打开和关闭snapdump功能。

打开:

[root@localhost ~]# storcli64 /c0 set snapdump state=on
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-------------------
Ctrl_Prop    Value
-------------------
Set Snapdump on
-------------------

关闭:

[root@localhost ~]# storcli64 /c0 set snapdump state=off
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-------------------
Ctrl_Prop    Value
-------------------
Set Snapdump off
-------------------

#删除历史snapdump日志功能。

[root@localhost ~]# storcli64 /c0 delete snapdump force
Controller = 0
Status = Success
Description = Snapdump delete

10.7.2.35 升级控制卡FW

命令功能

升级控制卡FW

命令格式

命令格式

说明

storcli64 /cController_ID download file=xxx.rom [noverchk]

升级控制卡FW

 

参数说明

参数

参数说明

取值

controller_id

控制卡ID

-

xxx.rom

固件包的名称

-

 

使用指南

l     使用noverchk参数时将不检查固件包,降级版本时必须使用此参数。

l     升级完成后,需重新上下电服务器使固件包生效。

使用实例

#升级控制卡FW

[root@localhost fw]# ./storcli64_arm /c0 download file =FW4.rom noverchk
Download Completed.
Flashing image to adapter...
Controller = 0
Status = Success
Description = F/W Flash Completed.Please reboot the system for the changes to take effect.


11 Avago SAS3408iMR

关于本章

主要介绍Avago SAS3408iMR RAID控制卡的外观、特性、以及配置方法。

本章节涉及的截图以5.060.01-2262 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

10.1  概述

10.2  功能

10.3  初始配置

10.4  常用配置

10.5  故障处理

10.6  管理界面介绍

10.7  OS命令行工具

11.1 概述

Avago SAS3408iMR RAID 控制卡(以下简称Avago SAS3408iMR)是基于MegaRAID架构的8端口12Gbit/s SAS控制卡,并采用PCIex8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

Avago SAS3408iMR用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

Avago SAS3408iMR RAID控制卡不支持虚拟化场景,在安装操作系统前,需要在BIOS中将“Advanced > MISC Config”界面中的参数“Support Smmu”设置为“Disabled”。

Avago SAS3408iMR支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考11.2.13 硬盘直通

Avago SAS3408iMR包含PCIe标卡与扣卡两种形态:

l     Avago SAS3408iMR扣卡与主板通过1Xcede连接器互连,与硬盘背板通过2miniSAS线缆互连,结构如11-1所示。

l     Avago SAS3408iMRPCIe标卡安装在服务器的PCIe槽位上,结构如11-2所示。

图11-1 Avago SAS3408iMR扣卡

 

图11-2 Avago SAS3408iMR标卡

 

1

系统错误灯

2

单板电源指示灯

3

系统心跳灯

4

Xcede连接器

5

miniSAS接口(port ASFF-8643

6

miniSAS接口(port BSFF-8643

 

Avago SAS3408iMR单板指示灯说明如11-1所示。

表11-1 RAID控制卡单板指示灯说明

指示灯

颜色

说明

单板电源指示灯

绿色

l     亮:电源正常。

l     灭:电源关闭或异常。

系统错误灯

红色

l     亮:系统运行异常。

l     灭:系统运行正常。

系统心跳灯

绿色

l     灯以2s周期闪烁:Avago SAS3408iMR RAID控制卡正在工作。

l     灯灭:Avago SAS3408iMR RAID控制卡未开始运行或FW运行异常。

 

11.2 功能

11.2.1 支持多种RAID类型

AvagoSAS3408iMR支持硬盘以直通方式和加入RAID组两种方式混合使用,其中:

l     硬盘直通模式支持的最大硬盘数量为63

l     直通模式的硬盘和加入RAID组中的硬盘数量最多为63

l     所有RAID组包含的最大硬盘数量为32

该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

l     每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

l     最多支持32个虚拟磁盘(即配置界面中看到的“Virtual Drive”),每个虚拟磁盘最多包含32个硬盘。

AvagoSAS3408iMR支持的RAID类型及对应的硬盘个数如11-2所示。

表11-2 RAID-硬盘参数

RAID级别

支持硬盘数

支持子组数

子组支持硬盘数

允许坏盘数

RAID 0

132

不涉及

不涉及

0

RAID 1

2~32(偶数)

硬盘数÷2

RAID 10

432(偶数)

28RAID 1

2~16(偶数)

子组数

 

l     不支持RAID 00级别。

l     子组数:子RAID的个数。

l     RAID 10每个子组中最多允许1个坏盘。

l     RAID 10包含的总硬盘数由子组数和子组支持的硬盘数共同决定。

11.2.2 硬盘热备份

Avago SAS3408iMR的热备功能分为两种:热备盘和紧急备份。

热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     Global HSP:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

配置方法请参见11.4.1.1 配置全局热备盘

l     Dedicated HSP:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

配置方法请参见11.4.1.2 配置局部热备盘

热备盘容量需大于等于成员盘容量。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

紧急备份

使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代failprefail状态的成员盘并进行重构,避免数据丢失。

l     紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。

l     在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。

l     紧急备份的硬盘生效次序:相同类型硬盘 > 相同接口不同介质类型硬盘 > 不同接口相同介质类型硬盘 > 不同接口不同介质类型硬盘。

紧急备份有两种情况,对应了两种设置:

l     当成员盘fail时,空闲盘替代成员盘作为紧急备份。

l     当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。

配置方法请参见11.4.2 设置紧急热备功能

11.2.3 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考11.2.15 导入外部配置章节恢复RAID组,无需更换硬盘。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

11.2.4 回拷

具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。

l     不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:

l     RAID组状态保持“Optimal”不变。

l     热备盘状态由“Online”变为“Hot Spare”。

l     新加入硬盘状态由“Copyback/Copybacking”变为“Online”。

l     可使用命令行工具暂停或继续回拷。

l     若回拷时重启服务器,进度将保存。

l     局部热备以及全局热备,更换故障盘后,均会产生回拷。

11.2.5 硬盘分条

条带化

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数和数据传输率有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待,这时就是所谓的硬盘冲突。

条带化技术是一种自动将I/O负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

影响条带化效果的因素有:

l     条带宽度:指同时可以并发读或写的条带数量。

这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。

在其他条件一样的前提下,一个由818G硬盘组成的阵列相比一个由436G硬盘组成的阵列具有更高的传输性能。

l     条带大小:指写在每块硬盘上的条带数据块的大小。

分条

硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。

Avago SAS3408iMR不支持设置条带大小,默认为64KB

11.2.6 初始化

VD初始化

创建虚拟磁盘后,需要将其初始化,使其可以被操作系统使用,且使具有冗余功能的虚拟磁盘中各成员盘的数据关系满足相应的RAID级别要求。

Avago SAS3408iMR提供了多种相应的初始化方式:

l     前台初始化:

     快速初始化:Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。

     完全初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。

l     后台初始化:对于RAID 1/RAID 10,如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。

l     一致性校验和后台初始化通常会对性能造成一定损失,直至该操作完成。

l     一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。

硬盘初始化

硬盘可执行的初始化包括:

l     Initialize Drive:对前100MByte空间进行全写0操作。

l     Drive Erase:对全部空间进行写0操作。

不支持停止SATA SSD的擦除和初始化过程。

11.2.7 RAID级别迁移

RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见11.4.5 迁移RAID级别

当前支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1

l     RAID 1迁移到RAID 0

RAID迁移对硬盘数量的要求如11-3所示。

表11-3 RAID迁移的硬盘数量说明

迁移RAID级别

原始硬盘组硬盘数量

迁移后的硬盘组硬盘数量

RAID 0迁移 RAID 1

132

2~32(偶数)

RAID 1迁移到RAID 0

2~32(偶数)

2~32

 

11.2.8 可用容量扩展

Avago SAS3408iMR支持的容量扩展方式有两种:

l     通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。

详细操作方法可参考11.4.3 添加新硬盘到RAID

l     通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。

详细操作方法可参考11.4.4 扩展Virtual Drives可用空间

l     只有RAID 0RAID1支持增加硬盘扩容。

l     RAID 10不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。

l     当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见 11.7.2.24 通过增加成员盘可用容量扩容RAID

11.2.9 安全数据擦除

安全擦除即将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘安全擦除功能:

l     Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。

l     Normal:对虚拟磁盘或硬盘进行三轮擦除动作。

l     Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。

安全数据擦除过程中,主机无法访问该虚拟磁盘。

Avago SAS3408iMR支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。

11.2.10 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     动态扩盘

l     完全初始化或后台初始化

l     一致性校验

11.2.11 自动SMART扫描

S.M.A.R.TSelfMonitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T 监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据丢失。

RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描。扫描周期可通过S.M.A.R.T Polling设置,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。

11.2.12 硬盘节能

RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SASSATA机械硬盘均支持此功能。

默认情况下,硬盘节能功能处于开启状态。

当硬盘节能功能开启时,RAID控制卡下挂载的“Unconfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)需要唤醒正处于节能状态的硬盘,该操作会有一定程度的延迟。

11.2.13 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

Avago SAS3408iMR可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在Avago SAS3408iMR下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。

Avago SAS3408iMR支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

如果需要使能硬盘直通功能,请在11-78所示界面的“JBOD Mode”参数进行设置。

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

11.2.14 硬盘漫游

硬盘漫游是指在同一控制卡下移动物理硬盘。控制卡将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。

要使用硬盘漫游,按以下步骤操作:

1.     关闭操作系统。

2.     将服务器下电。

3.     将物理硬盘移动到背板所需位置。

4.     执行安全检查。确保正确插入物理硬盘。

5.     将服务器上电。

6.     控制卡从物理硬盘上的配置数据中检测到RAID配置。

11.2.15 导入外部配置

如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。

此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。

11.2.16 硬盘故障记录

Avago SAS3408iMR提供硬盘故障记录功能:

l     使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。

l     禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,Avago SAS3408iMR会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。

维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。

l     使能该功能后,当硬盘故障时,会点亮Fault指示灯。

l     禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。

默认情况下,Avago SAS3408iMR使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。

11.2.17 一致性校验

针对有冗余功能的RAID 1RAID10RAID控制卡可以对RAID组的硬盘数据进行一致性校验,对硬盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。

由于RAID 0不具备冗余性,因此不支持一致性校验。

建议每月至少进行一次一致性校验。

11.3 初始配置

文档中描述的关于Avago SAS3408iMR的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。

11.3.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如11-3所示界面时,按“Delete”。

图11-3 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如11-4所示界面。

图11-4 Setup Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如11-5所示。

图11-5 “Advanced”页签

 

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见11.5.3 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择要操作的Avago SAS3408iMR控制卡,按“Enter”。

进入如11-611-7所示主界面,界面参数如11-4所示。

图11-6 Avago SAS3408iMR主界面(1

 

图11-7 Avago SAS3408iMR主界面(2

 

表11-4 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

说明

Avago SAS3408iMR不支持超级电容,该选项显示为“No”

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

说明

仅当Avago SAS3408iMR存在外部配置时,会显示该选项。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

Silence Alarm

板载蜂鸣器的使能状态。

说明

Avago SAS3408iMR未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

11.3.2 创建RAID 0

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3408iMR支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见11.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见11.3.1 登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如11-811-9所示,参数说明如11-5所示。

图11-8 “Create Virtual Drive”界面(1

 

图11-9 “Create Virtual Drive”界面(2

 

表11-5 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照11.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,Avago SAS3408iMR当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

Avago SAS3408iMR当前不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

Avago SAS3408iMR当前不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

Avago SAS3408iMR当前不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如11-10所示,界面参数如11-6所示。

图11-10 添加成员盘

 

表11-6 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     11-6所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 0支持的硬盘个数为1~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。

5.     选择“Apply Changes”并按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照11-5所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照11.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

弹出操作确认界面。

2.     通过“Enter”键把“Confirm”状态切换成“Enabled”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

11.3.3 创建RAID 1

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3408iMR支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见11.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见11.3.1 登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如11-1111-12所示,参数说明如11-7所示。

图11-11 “Create Virtual Drive”界面(1

 

图11-12 “Create Virtual Drive”界面(2

 

表11-7 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照11.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,Avago SAS3408iMR当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

Avago SAS3408iMR当前不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

Avago SAS3408iMR当前不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

Avago SAS3408iMR当前不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如11-13所示,界面参数如11-8所示。

图11-13 添加成员盘

 

表11-8 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     11-8所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 1支持的硬盘个数为2~32(偶数)。

l     RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。

5.     选择“Apply Changes”并按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照11-7所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照11.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

弹出操作确认界面。

2.     通过“Enter”键把“Confirm”状态切换成“Enabled”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

11.3.4 创建RAID 10

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3408iMR支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见11.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见11.3.1 登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如11-1411-15所示,参数说明如11-9所示。

图11-14 Create Virtual Drive (1)

 

图11-15 “Create Virtual Drive” (2)

 

表11-9 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照11.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,Avago SAS3408iMR当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

Avago SAS3408iMR当前不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

Avago SAS3408iMR当前不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

Avago SAS3408iMR当前不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如11-16所示,界面参数如11-10所示。

图11-16 添加成员盘

 

表11-10 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     11-10所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 10支持28Span,每个Span支持的硬盘数为2~16(偶数),且各个Span的硬盘数量必须保持一致。

l     RAID 10支持的硬盘总数为4~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     创建第2Span

当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如11-17所示。

图11-17 RAID 10的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

3.     在打开的列表中选择第2Span的成员盘。

各个Span的硬盘数量必须保持一致。

4.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

5.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

RAID10至少需要创建2Span,最多可以创建8Span

                                步骤 6     配置虚拟磁盘属性。

按照11-9所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照11.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     选择“Save Configuration”并按“Enter”。

弹出操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”界面并按“Enter”。

显示当前存在的RAID信息。

----结束

11.3.5 配置启动项

同一台服务器配置了单个Avago SAS3408iMR卡或者多种芯片硬盘控制卡的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。

设置启动项的操作方法请参见BIOS参数参考的“设置启动设备”章节。

11.4 常用配置

11.4.1 管理热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

Avago SAS3408RAID控制卡支持2种类型的热备盘:

l     Global Hotspare:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

l     Dedicated Hotspare:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

11.4.1.1 配置全局热备盘

操作步骤

登录管理界面,具体操作方法请参见11.3.1 登录管理界面

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如11-18所示。

图11-18 Drive Management界面

 

                                步骤 2     配置全局热备盘。

1.     将“Operation”设置为“Assign Global Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

显示The operation has been performed successfully

3.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

11.4.1.2 配置局部热备盘

操作步骤

RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

登录管理界面,具体操作方法请参见11.3.1 登录管理界面

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如11-19所示。

图11-19 Drive Management

 

                                步骤 2     配置局部热备盘。

1.     将“Operation”设置为“Assign Dedicated Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

打开当前存在的虚拟磁盘列表。

3.     选择要关联的虚拟磁盘并按“Enter”。

4.     选择“OK”按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”,完成配置并返回上级界面。

----结束

11.4.1.3 删除热备盘

操作场景

当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

操作步骤

登录管理界面,具体操作方法请参见11.3.1 登录管理界面

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如11-20所示。

图11-20 Drive Management

 

                                步骤 2     删除热备盘。

1.     将“Operation”设置为“Unassign Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

11.4.2 设置紧急热备功能

操作步骤

登录管理界面,具体操作方法请参见11.3.1 登录管理界面

                                步骤 1     进入“Advanced Controller Properties”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

3.     选择“Advanced Controller Properties”并按“Enter”。

                                步骤 2     设置紧急热备。

1.     选择“Spare”并按“Enter”。

2.     将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如11-21所示。

图11-21 “Spare”界面

 

3.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

----结束

11.4.3 添加新硬盘到RAID

操作场景

 

l     只有RAID 0RAID 1支持增加硬盘扩容。

l     RAID 10不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

对系统的影响

增加硬盘扩容过程中,如果出现硬盘故障,会导致:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID

请谨慎执行增加硬盘扩容操作。

必备事项

前提条件

添加硬盘扩容之前,需具备如下条件:

l     服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     已登录管理界面,具体方法请参见11.3.1 登录管理界面

数据

操作之前建议先备份数据。

操作步骤

进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”。

进入虚拟磁盘选项界面,如11-22所示。

图11-22 虚拟磁盘选项界面

 

                                步骤 2     添加新硬盘。

1.     选择要进行扩容的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如11-23所示。

图11-23 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter

4.     选择“Go”并按“Enter”。

5.     选择要扩容的RAID级别。

 

增加硬盘扩容时,请保证该处的RAID级别与原级别一致。

6.     选择“Choose the Operation”,并按“Enter”。

进入硬盘选择界面,如11-24所示。

图11-24 Choose the Operation

 

7.     选择要增加的硬盘,并按“Enter”。

l     硬盘状态为“【×】”时表示该硬盘已选择。

l     增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。

l     RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。

8.     选择“Apply Changes”并按“Enter”。

进入操作确认界面。

9.     选择“Confirm”并按“Enter”。

10.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

11.     选择“OK”并按“Enter”。

返回到如11-25所示界面。

图11-25 操作界面

 

12.     选择“Start Operation”并按“Enter”。

显示操作成功。

13.     选择“OK”并按“Enter”。

重新进入虚拟磁盘选项界面,验证扩容结果,如11-26所示,表示RAID正在进行扩容。

图11-26 Reconfigure Virtual Drives

 

扩容属于后台动作,在HII界面只能触发而不能正式开始扩容,所以扩容的进度条一直显示为0%。当进入OS后,扩容才会开始进行。

----结束

11.4.4 扩展Virtual Drives可用空间

操作场景

Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见11.3.1 登录管理界面

                                步骤 1     进入要操作的虚拟磁盘界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如11-27所示。

图11-27 Virtual Drive Management

 

                                步骤 2     扩容虚拟磁盘。

1.     将“Operation”设置为“Expand Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入虚拟磁盘扩容界面,如11-28界面所示,界面参数如11-11所示。

图11-28 Expand Virtual Drive

 

表11-11 参数说明

参数

参数说明

Current Capacity

虚拟磁盘当前容量。

Available Capacity

可用于扩展的容量。

Enter a Percentage of Available Capacity

输入扩容比例。

Capacity of Virtual Drive after Expansion

扩容后虚拟磁盘容量。

 

3.     设置扩容百分比。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

11.4.5 迁移RAID级别

操作场景

随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。

在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。

对系统的影响

RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID

请谨慎执行RAID级别迁移操作。

必备事项

前提条件

迁移RAID级别之前,需具备如下条件:

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     当前存在的硬盘个数满足目标RAID级别要求。

l     已登录管理界面,具体方法请参见11.3.1 登录管理界面

Avago SAS3408iMR RAID控制卡支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1

l     RAID 1迁移到RAID 0

RAID迁移对硬盘数量的要求如11-3所示。

l     RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     迁移只支持增加与RAID组成员盘同类型同规格的硬盘。

l     为防止数据丢失,请在该操作之前备份当前RAID组的数据。

l     只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。

l     迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。

操作步骤

进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”并按“Enter”。

进入虚拟磁盘选项界面,如11-29所示。

图11-29 虚拟磁盘选项界面

 

                                步骤 2     选择RAID迁移的目标级别。

下面以将RAID 1迁移到RAID 0为例进行说明。

1.     选择要进行迁移的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如11-30所示。

图11-30 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”。

4.     选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如11-31所示。不设置时默认与原RAID组配置一致。

图11-31 Advanced...

 

5.     选择“Go”,并按“Enter”。

进入RAID配置界面,如11-32所示。

图11-32 Reconfigure Virtual Drives

 

6.     选择“New RAID Level”并按“Enter”。

打开RAID迁移的目标级别选择窗口,如11-33所示。

图11-33 选择新的RAID级别

 

7.     选择“RAID 0”并按“Enter”。

                                步骤 3     添加硬盘。

1.     选择“Choose the operation”并按“Enter”。

打开硬盘选择窗口。

2.     选择要增加的硬盘并按“Enter”。

RAID迁移对硬盘数量的要求请参见11-3

3.     选择“Apply Changes”并按“Enter”。

弹出操作确认会话框。

4.     选择“Confirm”并按“Enter”。

5.     选择“Yes”并按“Enter”。

提示操作成功。

6.     按“Esc”返回11-32界面。

                                步骤 4     RAID级别迁移。

1.     选择“Start Operation”并按“Enter”。

提示操作成功。

2.     选择“OK”并按“Enter”。

                                步骤 5     查看迁移结果。

1.     进入Virtual Drive Management界面,检查迁移结果,如11-34所示,表示RAID正在进行迁移。

图11-34 查看迁移结果

 

l     迁移过程中若重启服务器,该任务将在重启后继续进行。

l     迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。

2.     选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 1”变成“RAID 0”,且“Status”状态显示为“Optimal”时,表示RAID迁移成功。

----结束

迁移属于后台动作,在HII界面只能触发而不能正式开始,所以迁移的进度条一直显示为0%。当进入OS后,迁移才会开始进行。

11.4.6 删除RAID

操作场景

 

RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见11.3.1 登录管理界面

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如11-35所示。

图11-35 Virtual Drive Management

 

                                步骤 2     删除虚拟磁盘。

1.     将“Operation”设置为“Delete Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

11.4.7 重构RAID

l     当出现硬盘离线情况时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     rebuild属于后台动作,在HII界面只能触发而不能正式开始rebuild,所以rebuild的进度条一直显示为0%。当进入OS后,rebuild才会开始进行。

重构RAID(含外部配置)

在“Main Menu”界面中选择“Drive Management”,并按“Enter”。

                                步骤 1     选择要进行重构的硬盘,并按“Enter”。

                                步骤 2     选择“Operation”并按“Enter”。

显示该硬盘的操作菜单,如11-36所示。

                                步骤 3     选择“Make Unconfigured Good”并按“Enter”。

                                步骤 4     选择“Go”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     选择“OK”并按“Enter”。

硬盘状态变为“(ForeignUnconfigured Good”。

                                步骤 6     导入外部配置,具体操作请参见11.4.9 导入和清除外部配置

RAID组开始进行重构。

                                步骤 7     重新进入该硬盘操作界面可查看重构进度。

----结束

重构RAID(无外部配置)

在“Main Menu”界面中选择“Drive Management”,并按“Enter”。

                                步骤 1     选择要进行重构的硬盘,并按“Enter”。

                                步骤 2     选择“Operation”并按“Enter”。

显示该硬盘的操作菜单。

图11-36 Select Operation

 

                                步骤 3     选择“Replace Missing Drive”并按“Enter”。

                                步骤 4     选择“Go”并按“Enter”。

进入“Replace Missing Drive”界面,如11-37所示。

图11-37 Replace Missing Drive

 

                                步骤 5     选择“Drive Group”并按“Enter”。

选择需替换硬盘的RAID

                                步骤 6     选择“Row Index”并按“Enter”。

选择需要替换的硬盘索引,推荐使用默认配置。

                                步骤 7     选择“Replace Drive”并按“Enter”。

提示“The operation has been performed successfully”。

                                步骤 8     选择“OK”并按“Enter”完成硬盘替换。

                                步骤 9     重新进入该硬盘操作界面,选择“Operation”并按“Enter”。

显示该硬盘的操作菜单,如11-38所示。

图11-38 硬盘操作菜单

 

                             步骤 10     选择“Rebuild”并按“Enter”。

                             步骤 11     选择“Go”并按“Enter”。

提示“The operation has been started successfully...”,硬盘开始重构。

                             步骤 12     重新进入该硬盘操作界面可查看重构进度。

----结束

11.4.8 查看RAID控制卡属性

操作场景

用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。

操作步骤

登录管理界面,具体操作方法请参见11.3.1 登录管理界面

                                步骤 1     进入“Controller Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息,如11-39所示,参数说明如11-12所示。

图11-39 Controller Management

 

表11-12 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见11.3.5 配置启动项

PCI ID

RAID控制卡的PCI ID

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Connector Count

RAID控制卡与主板的接口个数。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制卡操作。

Advanced Controller Properties

查看和修改控制卡的高级属性。

 

                                步骤 2     查看控制卡高级属性。

选择“Advanced Controller Properties”并按“Enter”。

进入控制卡高级属性界面,如11-40所示,参数说明如11-13所示。

在该界面下,可查看并修改RAID控制卡的高级属性。

图11-40 Advanced Controller Properties界面(1

 

图11-41 Advanced Controller Properties界面(2

 

表11-13 参数说明

参数

说明

Profile Management

管理快速RAID

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

Spare

设置控制卡热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

Avago SAS3408iMR控制卡卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制卡BIOS的使能情况。

ROC Temperature

控制卡温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见11.4.9 导入和清除外部配置章节。

SMART Polling

SMART轮巡检测周期。默认值为“300”。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

JBOD Mode

硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。

Drive Detection Type

随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制卡属性。

可用选项为:

l     Disabled

l     High Latency

l     Aggressive

l     Default

Drive Corrective Action

随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致I/O延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。

l     Disabled:禁用该功能

l     Enabled:开启该功能

Drive Error Threshold

通过该选项设置适当的控制卡属性。

l     Every 8 hours

l     Every1 hours

l     Every 15 mins

l     Every 5 mins

Large IO Support

启用或禁用大型I/O支持功能。

Apply Changes

保存配置。

 

----结束

11.4.9 导入和清除外部配置

操作场景

l     服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。

 

l     如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!

l     为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

导入外部配置

登录管理界面,具体操作方法请参见11.3.1 登录管理界面

                                步骤 1     在主界面中“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如11-42所示。

图11-42 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

进入外部配置管理界面,如11-43所示。

图11-43 Preview Foreign Configuration

 

                                步骤 5     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully

                                步骤 8     选择“OK”并按“Enter”完成配置返回上级界面。

----结束

清除外部配置

登录管理界面,具体操作方法请参见11.3.1 登录管理界面

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如11-44所示。

图11-44 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

进入外部配置管理界面,如11-45所示。

图11-45 Preview Foreign Configuration

 

                                步骤 5     选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 8     选择“OK”并按“Enter”完成配置返回上级界面。

----结束

11.4.10 设置JBOD模式

Avago SAS3408iMR支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

登录管理界面,具体操作方法请参见11.3.1 登录管理界面

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Properties界面,如11-46所示。

图11-46 Advanced Controller Properties

 

                                步骤 2     选择“JBOD Mode”并按Enter

                                步骤 3     选择“Enabled”并按“Enter”。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

11.4.11 创建多个VDVirtual Drive

该场景为使用已存在一个或多个VDRAID组的空闲容量创建多个VD,以RAID1存在一个VD为例(如11-47所示),详细操作方法如下:

图11-47 Virtual Drive Management

 

按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如11-48所示。

图11-48 Create Virtual Drive

 

                                步骤 2     将“Select RAID Level”设置为“RAID1”。

                                步骤 3     将“Select Drives From”设置为“Free Capacity”,如11-49所示。

图11-49 Create Virtual Drive

 

                                步骤 4     选择“Select Drive Groups”并按“Enter”。

显示当前存在的RAID组(Drive Group),如11-50所示。

图11-50 Select Drive Groups

 

                                步骤 5     选择要创建多个VDRAID组,并按“Enter”,如11-51所示。

图11-51 Select Drive Groups

 

                                步骤 6     选择“Apply Changes”并按“Enter”。

提示操作成功。

                                步骤 7     选择“OK”并按“Enter”返回VD配置界面,如11-52所示,参数说明如11-14所示。

图11-52 Create Virtual Drive

 

表11-14 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drive Groups

选择硬盘组。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照11.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,Avago SAS3408iMR当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

Avago SAS3408iMR当前不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

Avago SAS3408iMR当前不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

Avago SAS3408iMR当前不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略。可配置的状态有:

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。

l     Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 8     按照11-14所述配置VD的相关属性。

                                步骤 9     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

                             步骤 10     选择“Confirm”并按“Enter”。

                             步骤 11     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                             步骤 12     选择“OK”并按“Enter'”完成配置。

可进入Virtual Drive Management界面,查看当前存在的所有VD,如11-53所示。

图11-53 Virtual Drive Management

 

----结束

每个RAID组最多支持创建16VD,如需要继续创建VD,请重复执行步骤1~步骤12

11.4.12 查询RAID控制卡固件版本

查询RAID控制卡固件版本的方法有如下几种:

l     iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。

l     服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见11.7.2.1 查询RAID控制卡配置信息

回显信息中的“FW Version”字段即为RAID控制卡的固件版本。

l     RAID控制卡管理界面进行查询,具体方法为:

a.     登录RAID控制卡的管理界面,具体操作请参见11.3.1 登录管理界面

b.     在主界面中选择“Main Menu”并按“Enter”。

进入“Main Menu”页面,如11-54所示。

图11-54 Main Menu页面

 

c.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如11-55所示。

图11-55 Controller Management界面

 

11.5 故障处理

介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

11.5.1 硬盘相关故障

11.5.1.1 硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

确认故障硬盘槽位。

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考11.6.2.4 Drive Management

l     通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

                                步骤 1     更换新硬盘。

 

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考11.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在11-2查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成。新插入硬盘后确认rebuild操作是否已经启动,如rebuild操作未启动,需手动启动硬盘重构,操作请参见重构RAID(无外部配置)

RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0

     UEFI模式下创建RAID0的方法请参见11.3.2 创建RAID 0

     通过命令行方式创建RAID0的方法请参见11.7.2.2 创建和删除RAID

----结束

11.5.1.2 硬盘状态为failprefail

问题描述

正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代failprefail状态的成员盘并进行重构,避免数据丢失。

但当RAID控制卡未设置紧急热备时,成员盘状态显示为failprefail时,可使用以下方法处理。

处理方法

使用StorCLI工具,具体操作请参考11.7.1 下载和安装StorCLI工具

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考11.7.2.15 设置硬盘状态

storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在EnclosureID

l     slot_id:物理硬盘槽位ID

                                步骤 2     更换离线硬盘。

                                步骤 3     RAID组自动执行重构。

等待重构完成。

----结束

11.5.1.3 硬盘状态为Unconfigured BadUBad

问题描述

硬盘状态显示为Unconfigured BadUBad

处理方法

使用StorCLI工具,具体操作请参见11.7.1 下载和安装StorCLI工具

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见11.7.2.15 设置硬盘状态

storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在EnclosureID

l     slot_id:物理硬盘槽位ID

                                步骤 2     重新查看硬盘状态是否更改为Unconfigured GoodUgood。具体操作请参见11.6.2.4 Drive Management界面或11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤4

                                步骤 3     查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见11.4.9 导入和清除外部配置11.7.2.28 查看/导入/清除外部配置

l     问题解决 => 处理完毕。

l     问题未解决 => 联系技术支持处理。

----结束

11.5.2 控制卡故障

问题描述

当服务器出现如下现象时,说明控制卡故障。

l     数据无法写入控制卡控制的硬盘。

l     服务器上报控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     查询兼容性查询助手或者联系技术支持处理。

----结束

11.5.3 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy

问题描述

正常情况下,当服务器配置了RAID控制卡且RAID控制卡状态正常时,进入BIOSAdvanced页签后,会显示RAID控制卡的信息,如11-56所示。

如果Advanced页签不显示RAID控制卡的信息,如11-57所示,则:

l     如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:

     如果不显示驱动打印信息,可尝试下电后重新拔插RAID控制卡再上电、下电后更换RAID控制卡再上电或者联系技术支持。

     如果显示“AVAGO EFI SAS Driver SAS3408”,则可以通过本章节的指导修复RAID控制卡。

l     如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,则可以通过本章节的指导修复RAID控制卡;如果不显示,可尝试下电后重新拔插RAID控制卡再上电、下电更换RAID控制卡再上电或者联系技术支持。

图11-56 Advanced页签(1

 

图11-57 Advanced页签(2

 

处理方法

l     BIOS的版本为0.98之前版本(不包含0.98版本)时:

a.     Advanced页签选择“Driver Health Manager”并按Enter

进入“Driver Health Manager”界面。

b.     选择要进行修复的RAID控制卡驱动,如“AVAGO EFI SAS Driver SAS3408”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息:

n     显示“The following VDs have missing disks. => 请参见11.5.3.1 The following VDs have missing disks

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone=> 请参见11.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

l     BIOS的版本为0.98及以上版本时:

a.     在“Advanced”页签选择“Some drivers are not healthy”。

进入健康状态查询界面。

b.     选择“Repair the whole platform”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息。

n     显示“The following VDs have missing disks. => 请参见11.5.3.1 The following VDs have missing disks

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone=> 请参见11.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见0RAID控制卡启动中出现的常见的错误消息及处理方法

11.5.3.1 The following VDs have missing disks

问题描述

11-58所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。

图11-58 状态显示

 

处理方法

修复RAID控制卡。

1.     11-58中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

2.     输入“C”并按“Enter”。

3.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

4.     输入“y”并按“Enter”。

提示“Critical Message handling completed. Please exit”。修复完成。

                                步骤 1     重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

11.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

问题描述

11-59所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”

图11-59 状态显示

 

处理建议

该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:

l     下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。

l     忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:

a.     11-59中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

b.     输入“c”并按“Enter”。

c.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

d.     输入“y”并按“Enter”。

提示Critical Message handling completed. Please exit

e.     按“Esc”退出当前界面。

弹出确认保存配置会话框,如11-60所示。

图11-60 提示保存会话框

 

f.     按“Y”保存配置,操作完成。

g.     Esc键返回“Device Manager”界面。

h.     选择3408iMR RAID控制卡,并按“Enter”,进入RAID控制卡管理界面。

11.5.3.3 Disabling writes to flash as the flash part has gone bad

问题描述

11-61所示,进入“Driver Healthy Protocol Utility”界面后,显示“Disabling writes to flash as the flash part has gone bad”。

图11-61 状态显示

 

处理方法

将服务器下电。

                                步骤 1     更换RAID控制卡。

                                步骤 2     将服务器上电,导入外部配置恢复原来的RAID配置,请参见11.4.9 导入和清除外部配置11.7.2.28 查看/导入/清除外部配置

检查提示是否清除。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

11.5.4 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死

问题描述

硬盘响应命令超时,控制卡会对硬盘进行复位。3次复位后尚未恢复时将可能耗尽控制卡TMTask Management)资源,触发Fatal error,此时会通过OCROnline Controller Reset)自愈恢复,期间将有短时间业务中断(约30s60s),控制卡复位后会完成踢盘,将故障硬盘置为Ubad状态。

控制卡自愈恢复,需要开启OCR开关。

触发条件

当下发到硬盘的I/O出现超时不响应的情况时,RAID控制卡会通过reset硬盘来恢复,正常情况下,硬盘会重新接入或者多次reset之后会进行踢盘。

当出现reset之后硬盘仍然无法响应RAID控制卡指令且无法踢盘时,RAID控制卡会再次reset进行复位,每次reset会占用RAID控制卡资源,短时间内多次reset会导致RAID控制卡资源耗尽,该场景下,RAID控制卡会通过重新加载FW进行恢复。

该机制为此类卡的正常处理机制,由于架构限制,无法进行优化。

识别方法

l     已安装OS

当遇到短时间业务中断,恢复后查看有被置为Ubad状态的硬盘时,可以查看控制卡日志,搜索dm.c并查看其发生时间,如与业务中断时间节点接近,即可断定为触发了该机制。

注意控制卡与OS时间差。

l     未安装OS

OS时,触发该机制的操作为:从“Advanced”页签进入控制卡界面。若触发该机制,进入控制卡卡操作界面时将会卡住,无法恢复。

处理方法

定位故障硬盘。

l     已安装OS

     如确认触发了该机制并且已经完成了踢盘,需要更换Ubad状态的硬盘。

     如无Ubad状态的硬盘,查看日志并搜索“indicates critical condition”,目标行的“element xx indicates critical condition”中,“xx”即为问题硬盘的槽位号。

已安装OS,但是进入“Advanced”页签的控制卡操作界面卡住,需要重新上下电进入OS,按照以上方式定位故障硬盘。

l     未安装OS

系统未安装OS,出现该异常时,保留预安装OS RAID组数目的硬盘,将其他硬盘拔出并记录槽位号,如成功安装OS进入系统后,按照已安装OS的操作来确认问题硬盘。

                                步骤 1     更换故障硬盘。

l      => 处理完毕。

l      => 请联系技术支持。

----结束

11.5.5 Controller Mode恢复为RAID

问题描述

RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD modeRAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如11-62所示,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。

图11-62 问题描述

 

当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。

处理方法

(可选)登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Management界面,如11-63所示。

图11-63 Advanced Controller Management界面

 

                                步骤 2     选择“Switch to RAID mode”并按“Enter”。

提示操作成功,如11-64所示。

图11-64 操作成功

 

                                步骤 3     选择“OK”并按“Enter”。

返回到“Advanced Controller Management”界面,显示正在切换模式,如11-65所示。

图11-65 Advanced Controller Management界面

 

                                步骤 4     按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面

                                步骤 5     依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如11-66所示。

图11-66 Advanced Controller Management界面

 

l      => 处理完毕。

l      => 请联系技术支持。

----结束

11.6 管理界面介绍

11.6.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如11-67所示界面时,按“Delete”。

图11-67 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如11-68所示界面。

图11-68 Setup Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如11-69所示。

图11-69 “Advanced”页签

 

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见11.5.3 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择要操作的Avago SAS3408iMR控制卡,按“Enter”。

进入如11-7011-71所示主界面,界面参数如11-15所示。

图11-70 Avago SAS3408iMR主界面(1

 

图11-71 Avago SAS3408iMR主界面(2

 

表11-15 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

说明

Avago SAS3408iMR不支持超级电容,该选项显示为“No”

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

说明

仅当Avago SAS3408iMR存在外部配置时,会显示该选项。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

Silence Alarm

板载蜂鸣器的使能状态。

说明

Avago SAS3408iMR未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

11.6.2 Main Menu

RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。

界面介绍

Main Menu”界面如11-72,参数说明如11-16所示。

图11-72 Main Menu

 

表11-16 参数说明

参数

参数说明

Configuration Management

配置管理RAID

Controller Management

管理RAID控制卡。

Virtual Drive Management

管理虚拟磁盘。

Drive Management

管理硬盘。

Hardware Components

查询部件信息。

 

11.6.2.1 Configuration Management

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

Configuration Management”界面如11-73,参数说明如11-17所示。

图11-73 Configuration Management

 

表11-17 参数说明

参数

参数说明

Create Virtual Drive

创建RAID

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Clear Configuration

清除配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时会显示该参数。

 

快速创建RAID

11-73中选择“Create Profile Based Virtual Drive”并按“Enter”。

                                步骤 1     通过“↑”、“↓”选择要创建的RAID(以“Generic RAID 1”为例)并按“Enter”。

打开RAID配置界面,如11-74,参数说明如11-18所示。

图11-74 RAID配置界面

 

表11-18 参数说明

参数

参数说明

Drive Selection Criteria

系统自动选择的成员盘。

Virtual Drive Name

系统自定义的RAID组名称。

RAID Level

当前配置的RAID组的级别。

Virtual Drive Size

RAID组的容量。

Power Save Mode

数据掉电保护模式。

Strip Size

RAID组扇区大小。

Read Policy

RAID组的数据读策略。

Write Policy

RAID组的数据写策略。

IO Policy

RAIDI/O策略。

Access Policy

数据读写的策略。

Drive Cache

硬盘Cache策略。

Create Dedicated Hot Spare

是否为RAID组创建局部热备盘。

Save Configuration

保存当前配置。

 

                                步骤 2     11-18所示查看或配置相关参数。

                                步骤 3     选择“Save Configuration”并按“Enter”。

弹出操作确认界面。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 6     选择“OK”并按“Enter”完成配置。

----结束

查看虚拟磁盘属性

11-73中选择“View Drive Group Properties”并按“Enter”。

打开的界面如11-75,参数说明如11-19所示。

图11-75 View Drive Group Properties

 

表11-19 参数说明

参数

参数说明

Drive Group

硬盘组名称。

Capacity Allocation

硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。

 

11.6.2.2 Controller Management

该界面提供控制卡管理接口,可查看并修改控制卡的详细参数。

界面介绍

Controller Management”界面如11-76,参数说明如11-20所示。

图11-76 Controller Management

 

表11-20 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见11.3.5 配置启动项

PCI ID

RAID控制卡的PCI ID

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Connector Count

RAID控制卡与主板的接口个数。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制卡操作。

Advanced Controller Properties

查看和修改控制卡的高级属性。

 

查看并修改控制卡高级属性

11-76中选择“Advanced Controller Properties”并按“Enter”。

界面如11-7711-78所示,界面中参数说明如11-21所示。

图11-77 Advanced Controller Properties界面(1

 

图11-78 Advanced Controller Properties界面(2

 

表11-21 参数说明

参数

说明

Profile Management

管理快速RAID

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

Spare

设置控制卡热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

Avago SAS3408iMR控制卡卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制卡BIOS的使能情况。

ROC Temperature

控制卡温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见11.4.9 导入和清除外部配置章节。

SMART Polling

SMART轮巡检测周期。默认值为“300”。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

JBOD Mode

硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。

Drive Detection Type

随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制卡属性。

可用选项为:

l     Disabled

l     High Latency

l     Aggressive

l     Default

Drive Corrective Action

随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致I/O延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。

l     Disabled:禁用该功能

l     Enabled:开启该功能

Drive Error Threshold

通过该选项设置适当的控制卡属性。

l     Every 8 hours

l     Every1 hours

l     Every 15 mins

l     Every 5 mins

Large IO Support

启用或禁用大型I/O支持功能。

Apply Changes

保存配置。

 

                                步骤 2     11-77中选择“Task Rates”并按“Enter”。界面如11-79所示,界面中参数说明如11-22所示。

图11-79 Task Rates

 

表11-22 参数说明

参数

说明

Background Initialization <BGI> Rate

设置执行后台初始化的速率。

说明

数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Consistency Check Rate

设置执行一致性校验的速率。

说明

数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Patrol Read Rate

设置执行巡检读取的速率。

说明

数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Rebuild Rate

设置硬盘发生故障时在新硬盘上执行重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Reconstruction Rate

设置执行RAID级别迁移或在线容量扩展时重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Apply Changes

保存配置。

 

                                步骤 3     按照11-21所述修改控制卡的高级属性参数。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

11.6.2.3 Virtual Drive Management

该界面提供虚拟磁盘的查询和管理接口。

界面介绍

Virtual Drive Management”界面如11-80,显示虚拟磁盘列表。

图11-80 Virtual Drive List

 

选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如11-81所示,参数说明如11-23所示。

图11-81 Virtual Drive Management

 

表11-23 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:定位虚拟磁盘的所有硬盘。

l     Stop Locate:取消定位。

l     Delete Virtual Drive:删除虚拟磁盘。

l     Expand Virtual Drive:扩展虚拟磁盘容量。

l     Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。

l     Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。

l     Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。

l     Fast Initialization:快速初始化虚拟磁盘。

l     Slow Initialization:安全初始化虚拟磁盘。

l     Check Consistency:一致性校验。

l     Virtual Drive Erase:格式化虚拟磁盘。

Progress

当前任务进度。

l     仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。

l     当前界面不会自动刷新,需退出后重新进入查看当前进度。

Stop

停止当前任务。

仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。

Name

虚拟磁盘名称。

Raid Level

虚拟磁盘RAID级别。

Status

虚拟磁盘当前运行状态。

Size

虚拟磁盘容量。

View Associated Drives

查看成员盘属性。

Advanced...

查看虚拟磁盘高级属性。

 

查看成员盘属性

11-81中选择“View Associated Drives”并按“Enter”。

界面如11-82,显示成员盘列表。

图11-82 View Associated Drives

 

                                步骤 2     选择要查看的成员盘,并按“Enter”。

                                步骤 3     选择“View Drive Properties”并按“Enter”。

进入硬盘属性界面,如11-83界面所示,界面参数如11-24所示。

图11-83 View Drive Properties

 

表11-24 参数说明

参数

参数说明

Operation

该成员盘可执行的操作,包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Place Drive Online/Offline:将硬盘上线/离线。

Drive ID

成员盘的ID

Status

成员盘的当前工作状态。

Size

成员盘的容量。

Type

成员盘类型。

Model

成员盘的模块类型。

Hardware Vendor

成员盘的生产厂商。

Associated Virtual Drive

成员盘所在的虚拟磁盘。

Advanced...

查询成员盘更多属性。

 

----结束

查看和修改虚拟磁盘高级属性

11-81中选择“Advanced”并按“Enter”。

界面如11-8411-85所示,界面参数如11-25所示。

图11-84 Advanced界面(1

 

图11-85 Advanced界面(2

 

表11-25 参数说明

参数

参数说明

Mirror Data Size

镜像数据大小。

Logical Sector Size

逻辑扇区大小。

Strip Size

条带大小。

Starting Logical Block Addressing

逻辑单元起始地址。

Emulation Type

控制逻辑盘在OS中上报的扇区。

当成员盘为512B/512B时:

l     Default:逻辑盘扇区为512B/512B

l     None:逻辑盘扇区为512B/512B

l     Force:逻辑盘扇区为512B/4KB

当成员盘为512B/4KB时:

l     Default:逻辑盘扇区为512B/4KB

l     None:逻辑盘扇区为512B/512B

l     Force:逻辑盘扇区为512B/4KB

Bad Blocks

是否支持坏块处理。

SSD Caching

是否支持SSD Caching

Access

数据读取的策略,分以下三种:

l     Read Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Current Write Cache Policy

当前写Cache策略。默认为“Write Through”。

说明

“Write Through”表示当硬盘子系统接收到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。

Default Write Cache Policy

默认的写Cache策略。

Disable Background Initialization

是否禁用后台初始化。

Read Cache Policy

当前读Cache策略,默认为“No Read Ahead”,即关闭预读取功能。

说明

Avago SAS3408iMR不支持在该界面设置读Cache策略。

Drive Cache

是否支持cache

Input/Output

I/O读取策略,默认为“Direct”,即直接从硬盘读取数据,不经过Cache缓存。

说明

Avago SAS3408iMR不支持在该界面设置I/O读取策略。

Apply Changes

保存配置。

 

                                步骤 2     按照11-25所述配置“Advanced”的参数。

                                步骤 3     选择“Apply Changes”并按“Enter”。

显示The operation has been performed successfully

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

11.6.2.4 Drive Management

该界面显示硬盘基本属性,提供硬盘操作接口。

界面介绍

Drive Management”界面如11-86所示,显示硬盘列表。

图11-86 Drive List

 

选定要操作的硬盘并按“Enter”进入详细操作界面,如11-87所示,参数说明如11-26所示。

图11-87 Drive Management

 

表11-26 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Initialize Drive:硬盘初始化。

l     Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。

     Simple:仅对硬盘进行一轮擦除动作。

     Normal:对硬盘进行三轮擦除动作。

     Thorough:对硬盘进行九轮擦除动作。

     Stop Erase:停止数据擦除操作。

l     Make Unconfigured Good/Bad:修改硬盘状态。

l     Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。

l     Assign Global Hot Spare Drive:设置全局热备盘。

l     Assign Dedicated Hot Spare Drive:设置局部热备盘。

l     Unassign Hot Spare Drive:删除热备盘。

l     Prepare for Removal:硬盘拔出前的准备工作。

l     Place Drive Online:将Offline状态的硬盘设置为Online

说明

l     Place Drive Online操作只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。

l     对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。

Drive ID

硬盘的ID

Status

硬盘的当前工作状态。

Size

硬盘的容量。

Type

硬盘的类型。

Model

硬盘型号。

Hardware Vendor

硬盘的生产厂商。

Advanced...

查询更多硬盘属性。

 

安全擦除硬盘数据

该操作会删除硬盘上的数据,请谨慎执行。

将“Operation”设置为“Drive Erase”。

                                步骤 1     选择“Erase Mode”并按“Enter”。

                                步骤 2     在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。

                                步骤 3     选择“Go”并按“Enter”。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示操作成功。

----结束

查看硬盘属性

选择“Advanced...”并按“Enter”。

打开硬盘属性界面,如11-8811-89所示,参数说明如11-27所示。

图11-88 Drive Properties 界面(1

 

图11-89 “Drive Properties”界面(2

 

表11-27 参数说明

参数

参数说明

Logical Sector Size

逻辑扇区大小。

Physical Sector Size

物理扇区大小。

SMART Status

SMART功能是否使能。

Revision

硬盘Firmware版本。

Media Error

Media error个数。

Predicted Fail Count

Pred fail个数。

SAS Address

硬盘SAS地址。

Drive Power State

硬盘上电状态。

Cache Setting

是否可设置Cache

Available Size

硬盘可用空间。

Used Space

已使用的硬盘空间。

Disk Protocol

硬盘支持的协议。

Device Speed

设备的速率。

Negotiated Drive Transfer Speed

硬盘数据传输速率。

Number of Connections

连接器个数。

FDE Capable

硬盘是否支持FDEFull Disk Encryption)技术。

Cryptographic Erase Capable

硬盘是否支持加密擦除功能。

Temperature

硬盘温度。

 

11.6.2.5 Hardware Components

该界面主要提供RAID控制卡传感器信息。

界面介绍

Hardware Components”界面如11-90,参数说明如11-28所示。

图11-90 Hardware Components

 

表11-28 参数说明

参数

参数说明

Temperature Sensors

当前温度传感器状态。

Fans

当前风扇模块工作状态。

Power Supplies

当前供电模块工作状态。

Enclosure Management

部件管理。

 

11.6.3 View Server Profile

提供RAID控制卡操作管理接口。

界面介绍

View Server Profile”界面如11-91所示,参数说明如11-29所示。

图11-91 View Server Profile

 

表11-29 参数说明

参数

参数说明

UEFI Spec Version

服务器支持的UEFI Spec版本。

Controller Management

提供控制卡管理接口,详细情况请参见11.6.2.2 Controller Management

Hardware Components

提供控制卡部件查询接口,详细情况请参见11.6.2.5 Hardware Components

Drive Management

提供硬盘管理接口,详细情况请参见11.6.2.4 Drive Management

Virtual Drive Management

提供虚拟磁盘管理接口,详细情况请参见11.6.2.3 Virtual Drive Management

 

11.6.4 Manage Foreign Configuration

该界面可查看、导入、清空外部配置。

界面介绍

Manage Foreign Configuration”界面如11-92所示。

图11-92 Manage Foreign Configuration

 

查看并导入外部配置

选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如11-93所示。

图11-93 View Foreign Configuration

 

                                步骤 2     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

清除外部配置

选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     选择“OK”并按“Enter”完成配置。

----结束

11.6.5 Configure

该界面可清除当前所有配置。

界面介绍

Configure”界面如11-94所示,参数说明如11-30所示。

图11-94 Configure

 

表11-30 参数说明

Parameter

Description

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

View Global HotSpare Drives

查看全局热备盘。

Clear Configuration

清除当前配置。

 

清除当前配置

选择“Clear Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     选择“OK”并按“Enter”完成配置。

----结束

11.6.6 Set Factory Defaults

恢复出厂配置

在主界面选择“Set Factory Defaults”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     选择“OK”并按“Enter”完成配置。

----结束

11.6.7 Manage MegaRAID Advanced Software Options

该界面提供RAID控制卡高级软件特性查看和导入接口。

界面介绍

Manage MegaRAID Advanced Software Options”界面如11-95所示,界面中参数说明如11-31所示。

图11-95 Manage MegaRAID Advanced Software Options

 

表11-31 参数说明

参数

说明

SAFE ID

RAID控制卡的安全编码。

Serial Number

RAID控制卡序列号。

Activation Key

待激活的高级特性的Key

Active

激活高级特性。

Avago SAS3408iMR不支持高级特性的激活操作,该功能无效。

Deactive All Trail Software

注销当前所有高级特性。

Avago SAS3408iMR不支持高级特性的激活操作,该功能无效。

 

11.6.8 Exit

退出配置界面

Avago SAS3408iMR主界面按“ESC”,显示如11-96所示界面。

图11-96 BIOS Setup Utility

 

                                步骤 2     F10退出BIOS

弹出操作确认窗口。

                                步骤 3     选择“OK”并按Enter

退出BIOS,显示“ Press Control+Alt+Delete to reboot”。

----结束

11.7 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

11.7.1 下载和安装StorCLI工具

下载工具

登录BROADCOM网站上RAID控制卡的页面

                                步骤 1     在“DOWNLOADS”页签中单击“Management Software and Tools”。

打开管理软件和工具列表。

                                步骤 2     下载最新版本的“StorCLI”工具。

                                步骤 3     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 1     Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。

StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

11.7.2 常用命令

11.7.2.1 查询RAID控制卡配置信息

命令功能

查询Avago SAS3408iMR的基本配置信息。

命令格式

storcli64 /ccontroller_id  show

参数说明

参数

参数说明

取值

controller_id

控制卡ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

 

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡配置信息。

[root@localhost ~]# storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
Controller = 0
Status = Success
Description = None
 
Product Name = SAS3408
Serial Number = 024JNF10J2000256
SAS Address =  53ce8246afb3f000
PCI Address = 00:1c:00:00
System Time = 08/06/2019 09:24:12
Mfg. Date = 00/00/00
Controller Time = 08/06/2019 13:24:12
FW Package Build = 50.6.3-0109
BIOS Version = 7.06.02.2_0x07060502
FW Version = 5.060.01-2262
Driver Name = megaraid_sas
Driver Version = 07.709.08.00
Vendor Id = 0x1000
Device Id = 0x17
SubVendor Id = 0x19E5
SubDevice Id = 0xD213
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 28
Device Number = 0
Function Number = 0
Drive Groups = 1
 
TOPOLOGY :
========
 
---------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT     Size PDC  PI SED DS3  FSpace TR
---------------------------------------------------------------------------
 0 -   -   -        -   RAID0 Optl  N  1.089 TB dflt N  N   dflt N      N
 0 0   -   -        -   RAID0 Optl  N  1.089 TB dflt N  N   dflt N      N
 0 0   0   69:0     0   DRIVE Onln  N  1.089 TB dflt N  N   dflt -      N
---------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 1
 
VD LIST :
=======
 
-------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC     Size Name
-------------------------------------------------------------
0/0   RAID0 Optl  RW     Yes     NRWTD -   ON  1.089 TB
-------------------------------------------------------------
 
EID=Enclosure Device ID| VD=Virtual Drive| DG=Drive Group|Rec=Recovery
Cac=CacheCade|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 1
 
PD LIST :
=======
 
--------------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model          Sp Type
--------------------------------------------------------------------------
69:0      0 Onln   0 1.089 TB SATA SSD N   N  512B SSDSC2BB012T7H U  -
--------------------------------------------------------------------------
 
EID=Enclosure Device ID|Slt=Slot No.|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=Unsupported|UGShld=UnConfigured shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported

11.7.2.2 创建和删除RAID

命令功能

创建、删除RAID

命令格式

命令

说明

storcli64 /ccontroller_id add vd rlevel[0|1|10] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid]

创建RAID

storcli64 /ccontroller_id/vraid_id del

删除RAID

 

*表示默认值。

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

rlevel

要配置的RAID组级别

level可为0110,数字分别代表对应的RAID组级别。

size

要配置的RAID组容量

默认值为all,即所有成员盘的容量之和。

name

要配置的RAID组名称

-

drives

要加入RAID组的硬盘

-

startid-endid

硬盘的起始和结束ID

-

slot_id

硬盘ID

-

pdperarray

子组中的硬盘数

创建RAID10时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。

-

pdcache

设置RAID的成员盘的Cache状态

l     on

l     off

l     default

pi

使能数据保护

-

EmulationType

控制逻辑盘在OS中上报的扇区

l     0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     1: Disable,即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     2Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Spares

指定RAID组的热备盘

-

raid_id

要删除的RAID组的ID

-

 

l     以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

l     当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid

使用指南

使用实例

# 创建RAID 0

domino:~# ./storcli64 /c0 add vd r0 size=100GB drives=252:0-3
Controller = 0 
Status = Success 
Description = Add VD Succeeded

# 删除RAID

domino:~# ./storcli64 /c0/v0 del
Controller = 0 
Status = Success 
Description = Delete VD Succeeded

11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

命令功能

查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。

命令格式

storcli64 /ccontroller_id show

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

storcli64 /ccontroller_id/vvd_id show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

enclosure_id

硬盘所在EnclosureID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡连接的硬盘背板的ID

slot_id

物理硬盘槽位编号

可以将该参数设置为all,表示查询所有硬盘的ID

vd_id

虚拟磁盘ID

可以将该参数设置为all,表示查询所有虚拟磁盘的ID

 

使用指南

回显中主要字段的含义如11-32所示。

表11-32 回显说明

命令格式

字段

含义

举例

storcli64 /ccontroller_id show

Product Name

RAID控制卡的型号

sas3408

FW Version

RAID控制卡的FW版本

5.060.01-2262

Driver Name

RAID控制卡的驱动名称

megaraid_sas

Driver Version

RAID控制卡的驱动版本

06.811.02.00-rh1

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

SN

物理硬盘的序列号

PHWL517601YR800RGN

Manufacturer Id

物理硬盘的供应商ID

ATA

Model Number

物理硬盘的模块序号

INTEL SSDSC2BB800G4

Firmware Revision

物理硬盘的FW版本

D2010370

Raw size

物理硬盘的容量

745.211 GB [0x5d26ceb0 Sectors]

Logical Sector Size

物理硬盘逻辑分区大小

512B

Physical Sector Size

物理扇区大小

4 KB

storcli64 /ccontroller_id/vvd_id show all

TYPE

RAID组的级别

RAID1

State

RAID组的状态

Optl

Access

RAID组数据的访问策略

RW

Size

RAID组的大小

100.0 GB

PDs for VD0

RAID组下的物理硬盘

-

Strip Size

RAID组的条带大小

64KB

Write Cache(initial setting)

RAIDCache的写策略

Write Through

Disk Cache Policy

RAID组成员盘的Cache策略

Disk's Default

 

使用实例

#查询RAID控制卡的详细信息。

domino:~# ./storcli64 /c0 show
Controller = 0
Status = Success
Description = None
 
Product Name = SAS3408
Serial Number = 024JNFCNK2000314
SAS Address =  58cfd18f55442000
PCI Address = 00:03:00:00
System Time = 07/18/2019 14:55:54
Mfg. Date = 00/00/00
Controller Time = 07/18/2019 06:55:53
FW Package Build = 50.6.3-0109
BIOS Version = 7.06.02.2_0x07060502
FW Version = 5.060.01-2262
Driver Name = megaraid_sas
Driver Version = 07.709.08.00
Vendor Id = 0x1000
Device Id = 0x17
SubVendor Id = 0x19E5
SubDevice Id = 0xD213
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 3
Device Number = 0
Function Number = 0
Drive Groups = 1
 
TOPOLOGY :
========
 
---------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT     Size PDC  PI SED DS3  FSpace TR
---------------------------------------------------------------------------
 0 -   -   -        -   RAID0 Optl  N  3.637 TB dflt N  N   dflt N      N
 0 0   -   -        -   RAID0 Optl  N  3.637 TB dflt N  N   dflt N      N
 0 0   0   65:0     41  DRIVE Onln  N  3.637 TB dflt N  N   dflt -      N
---------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 1
 
VD LIST :
=======
 
-------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC     Size Name
-------------------------------------------------------------
0/0   RAID0 Optl  RW     Yes     NRWTD -   ON  3.637 TB
-------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 39
 
PD LIST :
=======
 
------------------------------------------------------------------------------
EID:Slt DID State  DG       Size Intf Med SED PI SeSz Model                Sp
------------------------------------------------------------------------------
65:0     41 Onln    0   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  U
65:1     45 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:2     33 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:3     40 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM115-1YZ107   D
65:4     39 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:5     38 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:6     46 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:7     53 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:8     61 UGUnsp  -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  U
65:9      0 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM115-1YZ107   D
65:10     1 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:11    62 UGUnsp  -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  U
65:12    51 UGood   -   9.094 TB SATA HDD N   N  512B ST10000NM0478-2H7100 D
65:13    52 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:14    50 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:16    57 UGUnsp  -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 U
65:17    58 UGUnsp  -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 U
65:18    42 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:19    44 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:20    49 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:21    43 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:22    48 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:23    47 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  D
65:24     3 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  D
65:25     5 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:26     4 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:27     2 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  D
65:28    59 UGUnsp  -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  U
65:29     6 UGood   - 837.258 GB SAS  HDD N   N  512B ST900MM0168          D
65:30    55 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  D
65:31    60 UGUnsp  -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  U
65:32    56 UGUnsp  -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  U
65:33    35 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:34    34 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:35    37 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:36    36 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:37    30 UGood   - 278.464 GB SAS  HDD N   N  512B AL15SEB030N          D
65:38    32 UGood   -   1.745 TB SATA SSD N   N  512B INTEL SSDSC2KG019T8  U
65:39    31 UGood   - 222.585 GB SATA SSD N   N  512B INTEL SSDSC2KG240G8  U
------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded

#查询slot0的物理硬盘的信息。

[root@localhost ~]# ./storcli64 /c0/e65/s0 show all
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
 
 
Drive /c0/e65/s0 :
================
 
--------------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model               Sp
--------------------------------------------------------------------------
65:0     41 Onln   0 3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 U
--------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Drive /c0/e65/s0 - Detailed Information :
=======================================
 
Drive /c0/e65/s0 State :
======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature =  30C (86.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
 
 
Drive /c0/e65/s0 Device attributes :
==================================
SN = ZC18JNP4
Manufacturer Id = ATA
Model Number = ST4000NM0035-1V4107
NAND Vendor = NA
WWN = 5000c500b3297aee
Firmware Revision = TNA5
Raw size = 3.638 TB [0x1d1c0beb0 Sectors]
Coerced size = 3.637 TB [0x1d1a94800 Sectors]
Non Coerced size = 3.637 TB [0x1d1b0beb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 12.0Gb/s
NCQ setting = Enabled
Write Cache = Disabled
Logical Sector Size = 512B
Physical Sector Size = 512B
Connector Name = C0   & C1
 
 
Drive /c0/e65/s0 Policies/Settings :
==================================
Drive position = DriveGroup:0, Span:0, Row:0
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = Yes
Wide Port Capable = No
 
Port Information :
================
 
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
   0 Active 12.0Gb/s  0x500605b000027380
-----------------------------------------
 
 
Inquiry Data =
5a 0c ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 20 20 20 20 20 20 20 20 20 20 20 20
43 5a 38 31 4e 4a 34 50 00 00 00 00 00 00 4e 54
35 41 20 20 20 20 54 53 30 34 30 30 4d 4e 30 30
35 33 31 2d 34 56 30 31 20 37 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 10 80
00 40 00 2f 00 40 00 02 00 02 07 00 ff 3f 10 00
3f 00 10 fc fb 00 10 5c ff ff ff 0f 00 00 07 00

# 查询VD 0的信息。

[root@rhel6u5 ~]# /opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
 
 
/c0/v0 :
======
 
-------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC     Size Name
-------------------------------------------------------------
0/0   RAID0 Optl  RW     Yes     NRWTD -   ON  3.637 TB
-------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
 
PDs for VD 0 :
============
 
--------------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model               Sp
--------------------------------------------------------------------------
65:0     41 Onln   0 3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 U
--------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
VD0 Properties :
==============
Strip Size = 64 KB
Number of Blocks = 7812499456
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 1
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = None
Active Operations = None
Exposed to OS = Yes
Creation Date = 06-07-2025
Creation Time = 08:44:04 AM
Emulation type = default
Cachebypass size = Cachebypass-64k
Cachebypass Mode = Cachebypass Intelligent
Is LD Ready for OS Requests = Yes
SCSI NAA Id = 68cfd18f554420002ffcf3d4ce5e8046

11.7.2.4 查询和设置Patrolread参数

命令功能

查询和设置系统巡检的相关参数。

命令格式

storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number

storcli64 /ccontroller_id set patrolread delay=delaytime

storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}

storcli64 /ccontroller_id show patrolread

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

系统巡检起始时间

例如:2016/07/15 23

说明

起始时间单位为

number

可同时巡检的硬盘数量

delaytime

系统巡检周期

单位为hour

 

查看RAID控制卡ID的方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。

domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

---------------------------------------

Ctrl_Prop          Value

---------------------------------------

PR Starttime       2016/07/15 23:00:00

PR MaxConcurrentPd 2

---------------------------------------

# 使能patrolread并设置为自动模式。

domino:~# ./storcli64 /c0 set patrolread=on mode=auto
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
--------------------------------------- 
Ctrl_Prop        Value 
--------------------------------------- 
Patrol Read Mode auto 
---------------------------------------

# 查询patrolread信息。

domino:~# ./storcli64 /c0 show patrolread

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

--------------------------------------------

Ctrl_Prop          Value

--------------------------------------------

PR Mode       2016/07/15 23:00:00

PR Execution Delay

PR iterations completed 0

PR Next Start time      07/16/2016,00:00:00

PR on SSD               Disabled

PR Current State        Stopped

--------------------------------------------

11.7.2.5 查询和设置Spinup参数

命令功能

查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。

命令格式

storcli64 /ccontroller_id show spinupdelay

storcli64 /ccontroller_id show spinupdrivecount

storcli64 /ccontroller_id set spinupdelay=time

storcli64 /ccontroller_id set spinupdrivecount=count

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

每组起转硬盘间的时间间隔

默认为2,单位为s

count

上电时允许同时起转的硬盘数量

默认为4

 

查看RAID控制卡ID的方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡Spinup参数。

domino:~# ./storcli64 /c0 show spinupdelay
[root@localhost ~]# ./storcli64_arm /c0 show spinupdelay
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop     Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
 
domino:~# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop           Value
--------------------------
Spin Up Drive Count 2
--------------------------

# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。

domino:~# ./storcli64 /c0 set spinupdelay=20
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
---------------------------
Ctrl_Prop     Value
---------------------------
Spin Up Delay 20 second(s)
---------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop           Value
--------------------------
Spin Up Drive Count 5
--------------------------

11.7.2.6 查询和设置硬盘数据擦除功能

命令功能

设置物理硬盘数据擦除模式,查询擦除进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

mode

数据擦除模式

l     simple:对硬盘进行一轮擦除动作。

l     normal:对硬盘进行三轮擦除动作。

l     thorough:对硬盘进行九轮擦除动作。

 

以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# slot 3硬盘进行simple数据擦除,并查询擦除进度。

domino:~# ./storcli64 /c0/e252/s3 start erase simple
Controller = 0 
Status = Success 
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0 
Status = Success 
Description = Show Drive Erse Status Succeeded. 
------------------------------------------------------ 
Drive-ID    Progress% Status      Estimated Time Left 
------------------------------------------------------ 
/c0/e252/s3         0 In progress 0 Seconds 
------------------------------------------------------     
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0 
Status = Success 
Description = Stop Drive Erase Succeeded.

11.7.2.7 查询和设置RAID后台初始化

命令功能

暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。

命令格式

storcli64 /ccontroller_id/vraid_id action bgi

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

action

后台初始化的操作

l     show:查看后台初始化进度

l     pause:暂停后台初始化

l     resume:继续后台初始化

l     stop:停止后台初始化

 

以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查看后台初始化进度。

domino:~# ./storcli64 /c0/v0 show bgi
Controller = 0 
Status = Success 
Description = Noe 
VD Operation Status : 
=================== 
------------------------------------------------------ 
VD Operation Progress% Staus      Estimated Time Left 
------------------------------------------------------ 
 0 BGI               3 In progress 53 Minutes 
------------------------------------------------------

11.7.2.8 查询和设置物理硬盘初始化功能

命令功能

设置物理硬盘初始化功能,查询初始化进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看初始化进度

l     start:开始初始化

l     stop:结束初始化

 

以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 初始化slot3硬盘,并查询初始化进度。

domino:~# ./storcli64 /c0/e252/s3 start initialization
Controller = 0 
Status = Success 
Description = Start Drive Initialization Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show initialization
Controller = 0 
Status = Success 
Description = Show Drive Initialization Status Succeeded. 
------------------------------------------------------ 
Drive-ID    Progress% Status      Estimated Time Left 
------------------------------------------------------ 
/c0/e252/s3         0 In progress 0 Seconds 
------------------------------------------------------  

11.7.2.9 查询和设置RAID重构

命令功能

开始、暂停、继续、停止RAID重构,并查询进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

action

要执行的操作

l     start:开始重构

l     show:查看重构进度

l     pause:暂停重构

l     resume:继续重构

l     stop:停止重构

 

查看RAID控制卡ID的方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 手动开始重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

# 查看硬盘当前重构状态。

[root@localhost ~]# ./storcli64 /c0/e70/s7 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e70/s7         5 In progress 26 Minutes
-----------------------------------------------------

# 暂停硬盘重构进程。

[root@localhost ~]# ./storcli64 /c0/e70/s7 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Succeeded.

# 继续重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 resume rebuild
Controller = 0
Status = Success
Description = Resume Drive Rebuild Succeeded.

# 停止重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 stop rebuild
Controller = 0
Status = Success
Description = Stop Drive Rebuild Succeeded.

11.7.2.10 查询和设置回拷

命令功能

开始、暂停、继续、停止回拷,并查询进度。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id start copyback target=target_enclosure_id:target_slot_id

开始回拷。

storcli64 /ccontroller_id/eenclosure_id/sslot_id action copyback

暂停、继续、查看、停止回拷。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

target_enclosure_id

执行回拷的目标硬盘所在EnclosureID

-

target_slot_id

执行回拷的目标物理硬盘槽位编号。

-

action

要执行的操作

l     show:查看回拷进度

l     pause:暂停回拷

l     resume:继续回拷

l     stop:停止回拷

 

查看RAID控制卡ID的方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 手动开始回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s7 start copyback target=70:3
Controller = 0
Status = Success
Description = Start Drive Copyback Succeeded.

# 查看硬盘当前回拷状态。

[root@localhost ~]# ./storcli64 /c0/e70/s3 show copyback
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e70/s3        17 In progress 16 Minutes
-----------------------------------------------------

# 暂停硬盘回拷进程。

[root@localhost ~]# ./storcli64 /c0/e70/s3 pause copyback
Controller = 0
Status = Success
Description = Pause Drive Copyback Succeeded.

# 继续回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s3 resume copyback
Controller = 0
Status = Success
Description = Resume Drive Copyback Succeeded.

# 停止回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s3 stop copyback
Controller = 0
Status = Success
Description = Stop Drive Copyback Succeeded.

11.7.2.11 查询和设置Smart扫描周期

命令功能

查询、设置Smart扫描周期。

命令格式

命令

说明

storcli64 /ccontroller_id set smartpollinterval=value

设置Smart扫描周期。

storcli64 /ccontroller_id show smartpollinterval

查询Smart扫描周期。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

value

Smart扫描周期

单位为s

 

查看RAID控制卡ID的方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置Smart扫描周期为“60s”。

domino:~# ./storcli64 /c0 set smartpollinterval=60
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
------------------------------- 
Ctrl_Prop         Value 
------------------------------- 
SmartPollInterval 60 second(s) 
-------------------------------

11.7.2.12 查询和设置一致性校验参数

命令功能

查询、设置一致性检查参数。

命令格式

命令

说明

storcli64 /ccontroller_id[/vvd_id]show cc

查询一致性检查参数。

storcli64 /ccontroller_id/vvd_id start cc force

开始进行一致性检查。

storcli64 /ccontroller_id/vvd_id action cc

暂停/停止/继续执行一致性检查。

storcli64 /ccontroller_id set consistencycheck|cc=[off|seq|conc] [delay=value] starttime=time excludevd=evd_id

设置一致性自动检查参数。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

要操作的RAIDID

-

action

要执行的操作

l     pause:暂停

l     resume:继续执行

l     stop:停止

cc

将一致性检查设置为顺序模式或并行模式,或关闭一致性检查。

l     off:关闭一致性检查

l     seq:顺序模式

l     conc:并行模式

value

一致性检查周期

-

time

一致性检查起始时间

例如:2016/07/14 22

说明

起始时间单位为

evd_id

不进行一致性检查的虚拟磁盘ID

-

 

以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

show命令中不带/vvd_id时,表示查询自动CC参数。

show命令中带/vvd_id时,表示查询CC进度。

使用实例

# 设置一致性自动检查参数。

domino:~# ./storcli64 /c0 set cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
------------------------------------ 
Ctrl_Prop      Value 
------------------------------------ 
CC Mode         CONC 
CC delay        1 
CC Starttime    2016/07/14 22:00:00 
CC ExcludeVD(0) Success 
------------------------------------

# 查询CC进度。

domino:~# ./storcli64 /c0/v1 show cc
Controller = 0 
Status = Success 
Description = None 
VD Operation Status : 
=================== 
----------------------------------------------------------- 
VD Operation Progress% Status          Estimited Time Left 
----------------------------------------------------------- 
 0 CC        -         Not in progress - 
-----------------------------------------------------------

11.7.2.13 设置热备盘

命令功能

设置全局热备盘和局部热备盘。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive

设置全局热备盘。

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=<N|0,1,2..>]

设置局部热备盘。

storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive

删除热备盘。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

dgs

硬盘组的ID

l     不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘

l     0,1,2..:硬盘组ID

 

以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置slot 3硬盘为全局热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive
Controller = 0 
Status = Success 
Description = Add Hot Spare Succeeded.    

# 设置slot 3硬盘为vd0的局部热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive dgs=0
Controller = 0 
Status = Success 
Description = Add Hot Spare Succeeded.   

11.7.2.14 设置启动项

命令功能

设置虚拟磁盘或物理硬盘为启动项。

命令格式

storcli64 /ccontroller_id/vvd_id set bootdrive=on

storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

vd_id

待设置的虚拟磁盘的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

 

以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置VD0为启动项。

domino:~# ./storcli64 /c0/v0 set bootdrive=on
Controller = 0 
Status = Success 
Description = Noe 
Detailed Status : 
=============== 
---------------------------------------- 
VD Property   Value Staus  ErrCd ErrMsg 
---------------------------------------- 
 0 Boot Drive On    Success    0 - 
----------------------------------------

# 设置slot 7硬盘为启动项。

domino:~# ./storcli64 /c0/e252/s7 set bootdrive=on
Controller = 0 
Status = Success 
Description = Noe 
Controller Properties : 
===================== 
------------------- 
Ctrl_Prop Value 
------------------- 
BootDrive PD:252_7 
-------------------

11.7.2.15 设置硬盘状态

命令功能

设置硬盘状态。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

state

要设置的硬盘状态

l     online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。

l     offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。

l     jbod:通过该参数可以将硬盘设置为直通硬盘。

l     good

     ubad状态的硬盘,使用该参数可将硬盘设为ugoodforeign)状态,此时可选择导入或清除外来配置;

     JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。

l     good:将硬盘设为空闲盘

force

强制设置硬盘状态,为可选参数。

如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force

-

 

以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。

domino:~# ./storcli64 /c0/e0/s1 set good
Controller = 0 
Status = Success 
Description = Set Drive Good Succeeded.

# 设置slot 7硬盘为直通盘。

domino:~# ./storcli64 /c0/e252/s7 set JBOD
Controller = 0 
Status = Success 
Description = Set Drive JBOD Succeeded.

11.7.2.16 设置RAID组访问策略

命令功能

设置RAID组的访问策略。

命令格式

storcli64 /ccontroller_id/vraid_id set accesspolicy=mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAIDID

-

mode

RAID访问策略

l     rw:可读可写

l     blocked:禁止访问

l     ro:只读访问

 

以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置RAID读写策略为“rw”。

domino:~# ./storcli64 /c0/v0 set accesspolicy=rw
Controller = 0 
Status = Success 
Description = None 
Details Status : 
============== 
--------------------------------------- 
VD Property  Value Status  ErrCd ErrMsg 
--------------------------------------- 
 0 AccPolicy RW    Success     0 - 
---------------------------------------

11.7.2.17 设置硬盘Cache状态

命令功能

设置RAID组成员盘的Cache状态。

命令格式

storcli64 /ccontroller_id/vvd_id set pdcache=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

RAID组的ID

-

action

要执行的操作

l     on:打开硬盘Cache

l     off:关闭硬盘Cache

l     default:将硬盘Cache设置为默认状态

 

以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 打开ID0RAID组的硬盘Cache

./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
---------------------------------------
VD Property Value Status  ErrCd ErrMsg
---------------------------------------
 0 PdCac    On    Success     0 -
---------------------------------------

11.7.2.18 设置紧急热备功能

命令功能

设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。

命令格式

storcli64 /ccontroller_id set eghs eug=state

storcli64 /ccontroller_id set eghs smarter=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

state

紧急热备功能的启用状态

l     on:启用

l     off:禁用

 

查看RAID控制卡ID的方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。

domino:~# ./storcli64 /c0 set eghs eug=on
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
------------------ 
Ctrl_Prop   Value 
------------------ 
EmergencyUG ON 
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
----------------------- 
Ctrl_Prop        Value 
----------------------- 
EmergencySmarter ON 
-----------------------

11.7.2.19 设置RAID前台初始化模式

命令功能

设置RAID前台初始化模式。

命令格式

storcli64 /ccontroller_id/vraid_id start mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

mode

前台初始化模式

l     init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。

l     init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。

 

以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 快速初始化RAID

domino:~# ./storcli64 /c0/v0 start init
Controller = 0 
Status = Success 
Description = Start INIT Operation Success

11.7.2.20 设置硬盘定位指示灯状态

命令功能

点亮和熄灭指定硬盘的定位指示灯。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。

slot_id

物理硬盘槽位编号

可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。

action

要执行的操作

l     start:点亮硬盘的定位指示灯。

l     stop:熄灭硬盘的定位指示灯。

 

以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 点亮slot 7硬盘的定位指示灯。

domino:~# ./storcli64 /c0/e252/s7 start locate
Controller = 0 
Status = Success 
Description = Start Drive Locate Succeeded.

11.7.2.21 设置硬盘PowerSave功能

命令功能

设置空闲硬盘和热备盘的省电模式。

命令格式

storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

state

省电模式的启用状态。

l     on:启用

l     off:禁用

disktype

硬盘类型。

l     1:空闲硬盘

l     2:热备盘

time

等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。

单位为minutes

 

查看RAID控制卡ID的方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置空闲硬盘的省电模式。

domino:~# ./storcli64 /c0 set ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
------------------------
Ctrl_Prop    Value
------------------------
SpnDwnUncDrv Enabled
SpnDwnTm     30 minutes
------------------------

11.7.2.22 设置后台资源占用率

命令功能

设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。

命令格式

storcli64 /ccontroller_id set action=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要设置的项目

l     bgirate:后台初始化速率

l     ccrate:一致性校验速率

l     prrate:硬盘巡检速率

l     rebuildrateRAID重构速率

l     reconrateRAID扩容和迁移速率

value

后台任务资源占用率

1100

 

查看RAID控制卡ID的方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置硬盘巡检速率为“30%”。

domino:~# ./storcli64 /c0 set prrate=30
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
----------------------- 
Ctrl_Prop        Value 
----------------------- 
Patrol Read Rate 30% 
-----------------------  

11.7.2.23 设置BIOS Stop on Error功能

命令功能

设置控制卡BIOS在检测到异常时停止继续启动的功能。

命令格式

storcli64 /ccontroller_id set bios mode=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要执行的操作

l     soe:控制卡BIOS在检测到异常时停止启动

l     ie:忽略检测到的异常

 

查看RAID控制卡ID的方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 开启Stop on error功能。

domino:~# ./storcli64 /c0 set bios mode=soe
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
---------------- 
Ctrl_Prop Value 
---------------- 
BIOS Mode SOE 
----------------

11.7.2.24 通过增加成员盘可用容量扩容RAID

命令功能

在虚拟磁盘未占用成员硬盘全部容量时,可通过调整虚拟磁盘的可用空间,扩大虚拟磁盘容量。

命令格式

命令

说明

storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]

扩大虚拟磁盘容量。

storcli64 /ccontroller_id/vvd_id show expansion

查询虚拟磁盘扩容后的容量。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

要扩容的RAIDID

-

capacity

扩容容量

-

expandarray

当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。

-

 

以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查询VD的可扩展容量。

[root@localhost ~]# storcli64 /c0/v1 show expansion 
CLI Version = 007.1416.0000.0000 July 24, 2020 
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64 
Controller = 0 
Status = Success 
Description = None 
 
 
EXPANSION INFORMATION : 
===================== 
 
-------------------------------------------- 
VD      Size OCE NoArrExp WithArrExp Status 
-------------------------------------------- 
 1 10.000 GB Y   3.627 TB 5.447 TB   - 
-------------------------------------------- 
 
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion 
 VD=Virtual Drive | NoArrExp - Without Array Expansion

如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。

# VD0的容量扩大“200GB”。

domino:~# ./storcli64 /c0/v0 expand size=200GB
Controller = 0 
Status = Success 
Description = expansion operation succeeded. 
EXPANSION RESULT : 
================ 
-------------------------------------------------------------------------------- 
VD     Size FreSpc     ReqSize  AbsUsrSz   %FreSpc NewSize    Statsu NoArrExp 
-------------------------------------------------------------------------------- 
 0 100.0 GB 457.861 GB 200.0 GB 201.458 GB      44 301.458 GB -      457.861 GB 
-------------------------------------------------------------------------------- 
Size - Current VD size|FreSpc - Freespace available before expansion 
%FreSpc - Requested expansion size in % of available free space 
AbsUsrSz - User size rounded to nearest %

RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。

11.7.2.25 通过增加新盘扩容或迁移RAID

命令功能

RAID2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

当增加新盘后,可进行RAID级别迁移。

命令格式

storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

vd_id

要操作的RAIDID

slot_id

要加入RAID的新硬盘的槽位号

level

增加硬盘后RAID的级别

l     与原RAID级别相同时,该命令为扩大RAID容量。

l     与原RAID级别不同时,该命令为RAID级别迁移。

 

以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# RAID 0中增加slot 2硬盘扩容。

domino:~# ./storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2
Controller = 0 
Status = Success 
Description = Start MIGRATE Operation Success.     
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0 
Status = Success 
Description = None 
VD Operation Status : 
=================== 
------------------------------------------------------- 
VD Operation Progress% Status      Estimated Time Left 
------------------------------------------------------- 
 0 Migrate           1 In progress 13 Minutes 
-------------------------------------------------------  

# 单盘RAID 0加盘迁移至RAID 1

domino:~# ./storcli64 /c0/v0 start migrate type=r1 option=add drives=252:3
Controller = 0 
Status = Success 
Description = Start MIGRATE Operation Success.     
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0 
Status = Success 
Description = None 
VD Operation Status : 
=================== 
------------------------------------------------------- 
VD Operation Progress% Status      Estimated Time Left 
------------------------------------------------------- 
 0 Migrate           1 In progress 14 Minutes 
-------------------------------------------------------    

11.7.2.26 手动重构RAID

命令功能

手动重构RAID组。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row

storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

要加入Array的物理硬盘槽位编号

DG

硬盘发生故障的DGID

Arr

硬盘发生故障的ArrayID

Row

硬盘发生故障的Arrayrow number

 

以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

重构RAID3个步骤进行:

1.通过./storcli64 /c0 show 命令,查询故障硬盘的DGArrRow所对应的数字。

2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。

3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID

使用实例

# 将硬盘加入RAID组。

[root@localhost ~]# storcli64 /c0/e252/s1 insert dg=0 array=0 row=0
Controller = 0
Status = Success
Description = Insert Drive Succeeded.

# 手动重构RAID

[root@localhost ~]# storcli64 /c0/e252/s1 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

11.7.2.27 收集和清除RAID控制卡日志

命令功能

收集和清除RAID控制卡的日志。

命令格式

命令

说明

storcli64 /ccontroller_id show termlog [type=logtype] [logfile[=filename]]

收集RAID控制卡的日志。

storcli64 /ccontroller_id delete termlog

删除RAID控制卡的日志。

storcli64 /ccontroller_id show alilog [logfile[=filename]]

收集控制卡属性信息、TTY日志和事件到指定文件。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

logtype

查询日志类型。

l     config:查询TTY BBU缓存设置。

l     content:查询日志信息。

缺省值:content

filename

文件名称,将保存日志到此文件。

可自定义文件名称,缺省时将默认保存至“StorSAS.log”文件中。

 

查询RAID控制卡ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 收集RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19  6:48:11: C0:TTY History buffer cleared
 
Controller = 0
Status = Success
Description = None

# 删除RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 delete termlog
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------------------
Ctrl Method Result
----------------------------
   0 Delete Termlog deleted
----------------------------

11.7.2.28 查看/导入/清除外部配置

命令功能

指导用户查看、导入或者清除RAID控制卡的外部配置。

命令格式

storcli64 /ccontroller_id/fall action

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

action

要执行的操作

l     import preview:查看外部配置

l     import:导入外部配置

l     delete:清除外部配置

 

以上涉及的各个ID的查询方法请参见11.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查看RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall import preview
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
 
 
FOREIGN PREVIEW :
===============
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Total foreign drive groups = 0

# 删除RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall delete
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration

11.7.2.29 Snapdump相关操作

命令功能

介绍Snapdump相关操作。

命令格式

命令格式

说明

storcli64 /ccontroller_id  show snapdump

查询snapdump功能是否打开,是否有自动生成的snapdump文件。

storcli64 /ccontroller_id  get snapdump id=all

获取历史生成的snapdump文件。

storcli64 /ccontroller_id  get snapdump

获取历史生成的snapdump文件和当前再生成一个snapdump文件。

storcli64 /ccontroller_id  set snapdump state=on|off

打开和关闭snapdump功能。

storcli64 /ccontroller_id  delete snapdump force

删除历史snapdump日志功能。

 

参数说明

参数

参数说明

取值

controller_id

控制卡ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

state=on|off

Snapdump状态

on为开启,off为关闭

 

使用指南

l     Snapdump文件是一个日志文件,在一些RAID控制卡异常场景下可以自动生成的日志,也可以主动获取当前RAID控制卡的snapdump日志。

l     使用前可以先查询snapdump功能是否打开,是否有自动生成的snapdump文件,再去收集snapdump

l     获取历史生成的snapdump文件和当前再生成一个snapdump文件会影响业务,建议离线使用。

l     打开和关闭snapdump功能,如果无法打开注意看提示,请确认当前RAID控制卡固件版本是否支持。

l     收集snapdump文件在当前命令执行目录下,文件格式为snapdump_**************.zip

使用实例

#查询snapdump功能是否打开,是否有自动生成的snapdump文件。

[root@localhost ~]# storcli64 /c0 show snapdump
Controller = 0
Status = Success
Description = None
 
SnapDump Properties :
===================
 
----------------------------------
Ctrl_Prop              Value
----------------------------------
Snapdump               ON
Snapdump Save Count    N/A
Snapdump Delay OCR     15
Snapdump properties    Read-Write
Snapdump Current Count 2
----------------------------------
 
SnapDump Details :
================
 
----------------------------------------------
ID Snapdump Size Snapdump time       OnDemand
----------------------------------------------
0       2649396 08-06-2021 07:23:43 Yes
1       2070406 08-07-2021 06:59:24 Yes
----------------------------------------------

#获取历史生成的snapdump文件。

[root@localhost ~]# storcli64 /c0 get snapdump id=all
Controller = 0
Status = Success
Description = None

#获取历史生成的snapdump文件和当前再生成一个snapdump文件。

[root@localhost ~]# storcli64 /c0 get snapdump
Controller = 0
Status = Success
Description = Download Support Log

#打开和关闭snapdump功能。

打开:

[root@localhost ~]# storcli64 /c0 set snapdump state=on
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-------------------
Ctrl_Prop    Value
-------------------
Set Snapdump on
-------------------

关闭:

[root@localhost ~]# storcli64 /c0 set snapdump state=off
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-------------------
Ctrl_Prop    Value
-------------------
Set Snapdump off
-------------------

#删除历史snapdump日志功能。

[root@localhost ~]# storcli64 /c0 delete snapdump force
Controller = 0
Status = Success
Description = Snapdump delete

11.7.2.30 升级控制卡FW

命令功能

升级控制卡FW

命令格式

命令格式

说明

storcli64 /cController_ID download file=xxx.rom [noverchk]

升级控制卡FW

 

参数说明

参数

参数说明

取值

controller_id

控制卡ID

-

xxx.rom

固件包的名称

-

 

使用指南

l     使用noverchk参数时将不检查固件包,降级版本时必须使用此参数。

l     升级完成后,需重新上下电服务器使固件包生效。

使用实例

#升级控制卡FW

[root@localhost fw]# ./storcli64_arm /c0 download file =FW4.rom noverchk
Download Completed.
Flashing image to adapter...
Controller = 0
Status = Success
Description = F/W Flash Completed.Please reboot the system for the changes to take effect.


12 Avago SAS3416iMR

关于本章

介绍Avago SAS3416iMR扣卡的外观、特性、以及配置方法。

本章节涉及的截图以5.160.01-3415 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

11.1  概述

11.2  功能

11.3  初始配置

11.4  常用配置

11.5  故障处理

11.6  管理界面介绍

11.7  OS命令行工具

12.1 概述

AVAGO MegaRAID SAS3416 RAID 控制卡(以下简称Avago SAS3416iMR)是基于MegaRAID架构的16端口12Gbit/s SAS控制卡,并采用PCIe3.0x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

Avago SAS3416iMR用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

Avago SAS3416iMR支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考12.2.13 硬盘直通

Avago SAS3416iMR的结构如12-1所示。

图12-1 Avago SAS3416iMR

 

1

miniSAS接口(port DSFF-8643

2

miniSAS接口(port CSFF-8643

3

miniSAS接口(port ASFF-8643

4

miniSAS接口(port BSFF-8643

5

RAID控制卡电源指示灯

6

RAID控制卡电源指示灯

7

RAID控制卡电源指示灯

8

系统错误灯

9

系统心跳指示灯

-

-

 

Avago SAS3416iMR单板指示灯说明如12-1所示。

表12-1 RAID控制卡单板指示灯说明

指示灯

颜色

说明

电源指示灯

绿色

l     亮:电源正常。

l     灭:电源关闭或异常。

系统错误灯

红色

l     亮:系统运行异常。

l     灭:系统运行正常。

系统心跳指示灯

绿色

l     灯以2s周期闪烁:Avago SAS3416iMR RAID控制卡正在工作。

l     灯灭:Avago SAS3416iMR RAID控制卡未开始运行或FW运行异常。

 

12.2 功能

12.2.1 支持多种RAID类型

Avago SAS3416iMR支持硬盘以直通方式和加入RAID组两种方式混合使用,其中:

l     硬盘直通模式支持的最大硬盘数量为63

l     直通模式的硬盘和加入RAID组中的硬盘数量最多为63

l     所有RAID组包含的最大硬盘数量为32

该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

l     每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

l     最多支持32个虚拟磁盘(即配置界面中看到的“Virtual Drive”),每个虚拟磁盘最多包含32个硬盘。

Avago SAS3416iMR支持的RAID类型及对应的硬盘个数如12-2所示。

表12-2 RAID-硬盘参数

RAID级别

支持硬盘数

支持子组数

子组支持硬盘数

允许坏盘数

RAID 0

132

不涉及

不涉及

0

RAID 1

2~32(偶数)

硬盘数÷2

RAID 10

432(偶数)

28RAID 1

2~16(偶数)

子组数

 

l     不支持RAID 00级别。

l     子组数:子RAID的个数,例如RAID 10由两个RAID 1组成,则子组数为2

l     RAID 10每个子组中最多允许1个坏盘。

l     RAID 10包含的总硬盘数由子组数和子组支持的硬盘数共同决定。

12.2.2 硬盘热备份

Avago SAS3416iMR扣卡的热备功能分为两种:热备盘和紧急备份。

热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     Global HSP:即全局热备盘,为控制扣卡上所有已配置的RAID所共有,1块控制扣卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

配置方法请参看12.4.1.1 配置全局热备盘

l     Dedicated HSP:即局部热备盘,为控制扣卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

配置方法请参看12.4.1.2 配置局部热备盘

热备盘容量需大于等于成员盘容量。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

紧急备份

使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代failprefail状态的成员盘并进行重构,避免数据丢失。

l     紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。

l     在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。

l     紧急备份的硬盘生效次序:相同类型硬盘 > 相同接口不同介质类型硬盘 > 不同接口相同介质类型硬盘 > 不同接口不同介质类型硬盘。

紧急备份有两种情况,对应了两种设置:

l     当成员盘fail时,空闲盘替代成员盘作为紧急备份。

l     当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。

配置方法请参看12.4.2 设置紧急热备功能

12.2.3 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考12.4.10 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

12.2.4 回拷

具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。

l     不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:

l     RAID组状态保持“Optimal”不变。

l     热备盘状态由“Online”变为“Hot Spare”。

l     新加入硬盘状态由“Copyback/Copybacking”变为“Online”。

l     可使用命令行工具暂停或继续回拷。

l     若回拷时重启服务器,进度将保存。

l     局部热备以及全局热备,更换故障盘后,均会产生回拷。

12.2.5 硬盘分条

条带化

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数和数据传输率有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待,这时就是所谓的硬盘冲突。

条带化技术是一种自动将I/O负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

影响条带化效果的因素有:

l     条带宽度:指同时可以并发读或写的条带数量。

这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。

在其他条件一样的前提下,一个由818G硬盘组成的阵列相比一个由436G硬盘组成的阵列具有更高的传输性能。

l     条带大小:指写在每块硬盘上的条带数据块的大小。

分条

硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。

Avago SAS3416iMR不支持设置条带大小,默认为64KB

12.2.6 RAID级别迁移

RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见2.2 RAID级别介绍

当前支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1

l     RAID 1迁移到RAID 0

RAID迁移对硬盘数量的要求如12-3所示。

表12-3 RAID迁移的硬盘数量说明

迁移RAID级别

原始硬盘组硬盘数量

迁移后的硬盘组硬盘数量

RAID 0迁移 RAID 1

132

2~32(偶数)

RAID 1迁移到RAID 0

2~32(偶数)

2~32

 

12.2.7 初始化

VD初始化

创建虚拟磁盘后,需要将其初始化,使其可以被操作系统使用,且使具有冗余功能的虚拟磁盘中各成员盘的数据关系满足相应的RAID级别要求。

Avago SAS3416iMR提供了多种相应的初始化方式:

l     前台初始化:

     快速初始化:Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。

     完全初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。

l     后台初始化:对于RAID 10,如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。

l     一致性校验和后台初始化通常会对性能造成一定损失,直至该操作完成。

l     一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。

l     初始化属于后台动作,在HII界面只能触发而不能正式开始初始化,所以初始化的进度条一直显示为0%。当进入OS后,初始化才会开始进行。

硬盘初始化

硬盘可执行的初始化包括:

l     Initialize Drive:对前100MByte空间进行全写0操作。

l     Drive Erase:对全部空间进行写0操作。

不支持停止SATA SSD的擦除和初始化过程。

12.2.8 可用容量扩展

Avago SAS3416iMR支持的容量扩展方式有两种:

l     通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。

详细操作方法可参考11.4.3 添加新硬盘到RAID

l     通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。

详细操作方法可参考11.4.4 扩展Virtual Drives可用空间

l     只有RAID 0RAID1支持增加硬盘扩容。

l     RAID 10不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。

l     当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见 12.7.2.25 通过增加成员盘可用容量扩容RAID

12.2.9 安全数据擦除

安全擦除即将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘安全擦除功能:

l     Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。

l     Normal:对虚拟磁盘或硬盘进行三轮擦除动作。

l     Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。

安全数据擦除过程中,主机无法访问该虚拟磁盘。

Avago SAS3416iMR支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。

12.2.10 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     动态扩盘

l     完全初始化或后台初始化

l     一致性校验

12.2.11 自动SMART扫描

S.M.A.R.TSelfMonitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T 监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据丢失。

RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描。扫描周期可通过S.M.A.R.T Polling设置,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。

12.2.12 硬盘节能

RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SASSATA机械硬盘均支持此功能。

默认情况下,硬盘节能功能处于开启状态。

当硬盘节能功能开启时,RAID控制卡下挂载的“Unconfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)需要唤醒正处于节能状态的硬盘,该操作会有一定程度的延迟。

12.2.13 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

Avago SAS3416iMR可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在Avago SAS3416iMR下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。

Avago SAS3416iMR支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

如果需要使能硬盘直通功能,请在12-96所示界面的“JBOD Mode”参数进行设置。

Avago SAS3416iMR默认把所有硬盘的状态设置为“JBOD”,用户需要根据实际情况先把硬盘状态设置为“Unconfigured Good”后,才能配置RAID组。设置硬盘状态为JBODUnconfigured Good的方法请参见12.4.12 设置硬盘状态为JBODUnconfigured Good

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

12.2.14 硬盘漫游

硬盘漫游是指在同一控制卡下移动物理硬盘。控制卡将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。

要使用硬盘漫游,按以下步骤操作:

1.     关闭操作系统。

2.     将服务器下电。

3.     将物理硬盘移动到背板所需位置。

4.     执行安全检查。确保正确插入物理硬盘。

5.     将服务器上电。

6.     控制卡从物理硬盘上的配置数据中检测到RAID配置。

12.2.15 导入外部配置

如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。

此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。

12.2.16 硬盘故障记录

Avago SAS3416iMR提供硬盘故障记录功能:

l     使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。

l     禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件(iBMC)不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,Avago SAS3416iMR会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。

维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。

l     使能该功能后,当硬盘故障时,会点亮Fault指示灯。

l     禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。

默认情况下,Avago SAS3416iMR使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。

12.3 初始配置

文档中描述的关于Avago SAS3416iMR的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。

如果服务器已经在Legacy或者UEFI模式下安装OS,切换启动方式后将无法进入操作系统,需要切换为安装时的启动方式再进入,如操作系统需要重装,请根据实际情况选择UEFI Legacy模式安装OS

当服务器配置了较多的可启动设备时,在Legacy模式下可能出现部分设备无法正常启动,建议使用UEFI模式启动,UEFI模式较Legacy模式可以支持更多可启动设备;如需要使用Legacy模式,建议根据实际业务场景禁用串口重定向或网卡PXE等,确保操作系统可以正常启动,具体操作请参考BIOS参数参考的设置网卡的PXE和设置串口重定向章节。

12.3.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如12-2所示界面时,按“Delete”。

进入输入密码界面。

图12-2 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如12-3所示界面。

图12-3 Setup Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如12-4所示。

图12-4 “Advanced”页签

 

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见12.5.3 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择要操作的Avago SAS3416iMR控制卡,按“Enter”。

进入Avago SAS3416iMR操作界面,如12-512-6所示,界面参数如12-4所示。

图12-5 Avago SAS3416iMR操作界面(1

 

图12-6 Avago SAS3416iMR操作界面(2

 

表12-4 Avago SAS3416iMR操作界面参数说明

参数

参数说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

CacheVault

是否支持Cache

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

说明

仅当存在外部配置时显示该参数。

Configure

提供RAID控制卡的配置接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

Silence Alarm

板载蜂鸣器的使能状态。

说明

Avago SAS3416iMR未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID FastPath

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

12.3.2 创建RAID 0

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3416iMR支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看12.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见12.3.1 登录管理界面

                                步骤 1     (可选)将要加入RAID组的硬盘设置为“Unconfigured Good”状态。

只有“Unconfigured Good”状态的硬盘可以用于创建RAID组。Avago SAS3416iMR默认把所有硬盘的状态设置为“JBOD”,用户需要根据实际情况先将硬盘状态设置为“Unconfigured Good”后,才可配置RAID组。设置硬盘状态为Unconfigured Good的方法请参见设置硬盘状态为“Unconfigured Good

                                步骤 2     进入“Create Virtual Drive”界面。

1.     Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。

打开“Main Menu”界面,如12-7所示。

图12-7 “Main Menu”界面

 

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如12-812-9所示,参数说明如12-5所示。

图12-8 Create Virtual Drive界面(1

 

图12-9 Create Virtual Drive界面(2

 

表12-5 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

说明

Avago SAS3416iMR当前不支持该功能。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照12.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,Avago SAS3416iMR当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

Avago SAS3416iMR当前不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

Avago SAS3416iMR当前不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

Avago SAS3416iMR当前不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。

                                步骤 4     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如12-1012-11所示,界面参数如12-6所示。

图12-10 添加成员盘(1

 

图12-11 添加成员盘(2

 

表12-6 添加成员盘的参数说明

参数

参数说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     12-6所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 0支持的硬盘个数为1~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     单击“OK”完成成员盘配置。

                                步骤 5     配置虚拟磁盘属性。

1.     按照12-5所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照12.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 6     保存配置

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 7     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

12.3.3 创建RAID 1

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3416iMR支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看12.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见12.3.1 登录管理界面

                                步骤 1     (可选)将要加入RAID组的硬盘设置为“Unconfigured Good”状态。

只有“Unconfigured Good”状态的硬盘可以用于创建RAID组。Avago SAS3416iMR默认把所有硬盘的状态设置为“JBOD”,用户需要根据实际情况先将硬盘状态设置为“Unconfigured Good”后,才可配置RAID组。设置硬盘状态为Unconfigured Good的方法请参见设置硬盘状态为“Unconfigured Good

                                步骤 2     进入“Create Virtual Drive”界面。

1.     Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。

打开“Main Menu”界面,如12-12所示。

图12-12 “Main Menu”界面

 

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如12-1312-14所示,参数说明如12-7所示。

图12-13 Create Virtual Drive界面(1

 

图12-14 Create Virtual Drive界面(2

 

表12-7 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

说明

Avago SAS3416iMR当前不支持该功能。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照12.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,Avago SAS3416iMR当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

Avago SAS3416iMR当前不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

Avago SAS3416iMR当前不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

Avago SAS3416iMR当前不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。

                                步骤 4     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如12-1512-16所示,界面参数如12-8所示。

图12-15 添加成员盘(1

 

图12-16 添加成员盘(2

 

表12-8 添加成员盘的参数说明

参数

参数说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     12-8所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 1支持的硬盘个数为2~32(偶数)。

l     RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     单击“OK”完成成员盘配置。

                                步骤 5     配置虚拟磁盘属性。

按照12-7所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照12.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 6     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 7     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

12.3.4 创建RAID 10

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3416iMR支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看12.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见12.3.1 登录管理界面

                                步骤 1     (可选)将要加入RAID组的硬盘设置为“Unconfigured Good”状态。

只有“Unconfigured Good”状态的硬盘可以用于创建RAID组。Avago SAS3416iMR默认把所有硬盘的状态设置为“JBOD”,用户需要根据实际情况先将硬盘状态设置为“Unconfigured Good”后,才可配置RAID组。设置硬盘状态为Unconfigured Good的方法请参见设置硬盘状态为“Unconfigured Good

                                步骤 2     进入“Create Virtual Drive”界面。

1.     Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。

打开“Main Menu”界面,如12-17所示。

图12-17 “Main Menu”界面

 

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如12-1812-19所示,参数说明如12-9所示。

图12-18 Create Virtual Drive界面(1

 

图12-19 Create Virtual Drive界面(2

 

表12-9 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

说明

Avago SAS3416iMR当前不支持该功能。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照12.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,Avago SAS3416iMR当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

Avago SAS3416iMR当前不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

Avago SAS3416iMR当前不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

Avago SAS3416iMR当前不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。

                                步骤 4     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如12-20所示,界面参数如12-10所示。

图12-20 Span1添加成员盘

 

表12-10 添加成员盘的参数说明

参数

参数说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     12-10所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 10支持28Span,每个Span支持的硬盘数为2~16(偶数),且各个Span的硬盘数量必须保持一致。

l     RAID 10支持的硬盘总数为4~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     单击“OK”完成成员盘配置。

                                步骤 5     创建第2Span

当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如12-21所示。

图12-21 RAID 10的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

3.     在打开的列表中选择第2Span的成员盘。

4.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

5.     单击“OK”完成成员盘配置。

                                步骤 6     根据业务需要重复步骤6,使用其他空闲硬盘创建多个Span

RAID10至少需要创建2Span,最多可以创建8Span

                                步骤 7     配置虚拟磁盘属性。

按照12-9所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照12.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 8     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 9     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

12.3.5 设置启动项

12.3.5.1 设置RAID控制卡下的启动项

请通过12-93的“Select Boot Device”选项设置启动项。

12.3.5.2 设置服务器的启动项

当一台服务器配置了单张RAID控制卡时,RAID控制卡下的硬盘启动项即为该服务器的硬盘启动项,具体设置方法请参见12.3.5.1 设置RAID控制卡下的启动项

当服务器配置了多张RAID控制卡时,硬盘启动项需要在BIOS中进行设置,具体设置方法请参见BIOS参数参考 的“设置服务器启动设备”章节。

12.4 常用配置

12.4.1 管理热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

Avago SAS3416iMR控制扣卡支持2种类型的热备盘:

l     Global Hotspare:即全局热备盘,为控制扣卡上所有已配置的RAID所共有,1块控制扣卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

l     Dedicated Hotspare:即局部热备盘,为控制扣卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须是SATA硬盘或SAS硬盘,容量不小于RAID成员盘最大容量。

l     RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

12.4.1.1 配置全局热备盘

操作步骤

登录管理界面,具体操作方法请参见12.3.1 登录管理界面

                                步骤 1     进入“Drive Management”界面。

1.     Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。

打开“Main Menu”界面,如12-22所示。

图12-22 “Main Menu”界面

 

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如12-23所示。

仅“Unconfigured Good”状态的硬盘,可设置为全局热备盘。

图12-23 硬盘操作界面

 

                                步骤 2     配置全局热备盘。

1.     将“Operation”设置为“Assign Global Hot Spare Drive”并按“Enter”。

2.     选择“Go”并按“Enter”。

显示The operation has been performed successfully

3.     选择“OK”并按“Enter”完成配置并返回上级界面。

                                步骤 3     检查配置结果。

1.     连续按“ESC”返回“Main Menu”界面。

2.     依次选择“Configuration Management > View Global HotSpare Drives”。

在全局热备盘列表中,可以看到前面所设置的硬盘,如12-24所示。

图12-24 全局热备盘列表

 

----结束

12.4.1.2 配置局部热备盘

操作步骤

RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

登录管理界面,具体操作方法请参见12.3.1 登录管理界面

                                步骤 1     进入“Drive Management”界面。

1.     Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。

打开“Main Menu”界面,如12-25所示。

图12-25 “Main Menu”界面

 

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如12-26所示。

仅“Unconfigured Good”状态的硬盘,可设置为局部热备盘。

图12-26 硬盘操作界面

 

                                步骤 2     配置局部热备盘。

1.     将“Operation”设置为“Assign Dedicated Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

打开当前存在的硬盘组列表,如12-27所示。

图12-27 硬盘组列表

 

3.     选择要关联的硬盘组并按“Enter”。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

                                步骤 3     检查配置结果。

在硬盘列表中,可以看到硬盘的状态变为“Hot Spare”,如12-28所示。

图12-28 硬盘列表

 

如果需要查硬盘组联的硬盘组信息,可在硬盘列表中选择要查询的硬盘并按“Enter”,在硬盘的“View Associated Drive Groups”节点下进行查看。

----结束

12.4.1.3 删除热备盘

操作场景

当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

操作步骤

登录管理界面,具体操作方法请参见12.3.1 登录管理界面

                                步骤 1     进入“Drive Management”界面。

1.     Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。

打开“Main Menu”界面。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的热备盘并按“Enter”进入详细操作界面,如12-29所示。

图12-29 热备盘操作界面

 

                                步骤 2     删除热备盘。

1.     将“Operation”设置为“Unassign Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

12.4.2 设置紧急热备功能

操作场景

使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的空闲盘会自动替代故障成员盘并进行重构,避免数据丢失。

操作步骤

登录管理界面,具体操作方法请参见12.3.1 登录管理界面

                                步骤 1     进入“Advanced Controller Properties”界面。

1.     Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。

打开“Main Menu”界面。

2.     选择“Controller Management”并按“Enter”。

3.     选择“Advanced Controller Properties”并按“Enter”。

进入“Advanced Controller Properties”界面,如12-3012-31所示。

图12-30 控制卡高级属性(1

 

图12-31 控制卡高级属性(2

 

                                步骤 2     设置紧急热备。

1.     选择“Spare”并按“Enter”。

进入“Spare”界面,如12-32所示。

图12-32 热备功能配置界面

 

2.     将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”。

3.     选择“Apply Changes”并按“Enter”。

4.     看到操作成功的提示信息后,选择“OK”并按“Enter”。

----结束

12.4.3 扩展Virtual Drives可用空间

操作场景

Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

操作步骤

备份硬盘数据并登录管理界面,具体操作方法请参见12.3.1 登录管理界面

                                步骤 1     进入要操作的虚拟磁盘界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如12-33所示。

图12-33 Virtual Drive Management

 

                                步骤 2     扩容虚拟磁盘。

1.     将“Operation”设置为“Expand Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入虚拟磁盘扩容界面,如12-34界面所示,界面参数如12-11所示。

图12-34 Expand Virtual Drive

 

表12-11 参数说明

参数

参数说明

Current Capacity

虚拟磁盘当前容量。

Available Capacity

可用于扩展的容量。

Enter a Percentage of Available Capacity

输入扩容比例。

Capacity of Virtual Drive after Expansion

扩容后虚拟磁盘容量。

 

3.     设置扩容百分比。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

12.4.4 添加新硬盘到RAID

操作场景

RAID的扩容方式有如下2种:

l     通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。

l     通过增加可用空间方式扩容:在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

 

l     只有RAID 0RAID 1支持增加硬盘扩容。

l     RAID10不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

对系统的影响

增加硬盘扩容过程中,如果出现硬盘故障,会导致:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID

请谨慎执行增加硬盘扩容操作。

必备事项

前提条件

添加硬盘扩容之前,需具备如下条件:

l     服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     已登录管理界面,具体操作请参见12.3.1 登录管理界面

数据

该操作无需准备数据。

操作步骤

进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”。

进入虚拟磁盘选项界面,如12-35所示。

图12-35 虚拟磁盘选项界面

 

                                步骤 2     添加新硬盘。

1.     选择要进行扩容的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如12-36所示。

图12-36 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter

4.     选择“Go”,并按“Enter”。

进入RAID配置界面,如12-37所示。

图12-37 Reconfigure Virtual Drives1

 

5.     选择要扩容的RAID级别。

增加硬盘扩容时,请保证该处的RAID级别与原级别一致。

6.     选择“Choose the Operation”并按“Enter”。

进入选择硬盘界面,如12-38所示。

图12-38 选择硬盘界面

 

7.     选择要增加的硬盘并按“Enter”。

l     增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。

l     RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。

8.     选择“Apply Changes”并按“Enter”。

弹出操作确认对话框。

9.     选择“Confirm”并按“Enter”。

10.     选择“Yes”并按“Enter”。

提示操作成功。

11.     选择“OK”并按“Enter”返回12-37所示界面。

图12-39 Reconfigure Virtual Drives2

 

12.     选择“Start Operation”并按“Enter”。

提示操作成功。可进入“Virtual Drive Management”界面,检查扩容结果,如12-40所示,表示RAID正在进行扩容。

图12-40 Reconfigure Virtual Drives3

 

----结束

l     扩容属于后台动作,在HII界面只能触发而不能正式开始扩容,所以扩容的进度条一直显示为0%。当进入OS后,扩容才会开始进行。

l     扩容过程中若重启服务器,该任务将在重启后继续进行。

12.4.5 迁移RAID级别

操作场景

随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。

在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。

对系统的影响

RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID

请谨慎执行RAID级别迁移操作。

必备事项

前提条件

迁移RAID级别之前,需具备如下条件:

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     当前存在的硬盘个数满足目标RAID级别要求。

l     已登录管理界面,具体操作请参见12.3.1 登录管理界面

Avago SAS3416iMR卡支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1

l     RAID 1迁移到RAID 0

RAID迁移对硬盘数量的要求如12-3所示。

l     RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     迁移只支持增加与RAID组成员盘同类型同规格的硬盘。

l     为防止数据丢失,请在该操作之前备份当前RAID组的数据。

l     只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。

l     迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。

操作步骤

进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”并按“Enter”。

进入虚拟磁盘选项界面,如12-41所示。

图12-41 虚拟磁盘选项界面

 

                                步骤 2     选择RAID迁移的目标级别。

下面以将RAID 1迁移到RAID 0为例进行说明。

1.     选择要进行迁移的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如12-42所示。

图12-42 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”。

4.     选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如12-43所示。不设置时默认与原RAID组配置一致。

图12-43 Advanced...

 

5.     选择“Go”,并按“Enter”。

进入RAID配置界面,如12-44所示。

图12-44 Reconfigure Virtual Drives1

 

6.     选择“New RAID Level”并按“Enter”。

打开RAID迁移的目标级别选择窗口,如12-45所示。

图12-45 选择新的RAID级别

 

7.     选择“RAID 0”并按“Enter”。

                                步骤 3     添加硬盘。

1.     选择“Choose the operation”并按“Enter”。

打开硬盘选择窗口。

2.     选择要增加的硬盘并按“Enter”。

RAID迁移对硬盘数量的要求请参见12-3

3.     选择“Apply Changes”并按“Enter”。

弹出操作确认会话框。

4.     选择“Confirm”并按“Enter”。

5.     选择“Yes”并按“Enter”。

提示操作成功。

6.     选择“OK”并按“Enter”返回12-46界面。

图12-46 Reconfigure Virtual Drives2

 

                                步骤 4     RAID级别迁移。

1.     选择“Start Operation”并按“Enter”。

提示操作成功。

2.     选择“OK”并按“Enter”。

                                步骤 5     查看迁移结果。

1.     进入Virtual Drive Management界面,检查迁移结果,如12-47所示,表示RAID正在进行迁移。

图12-47 查看迁移结果

 

l     迁移过程中若重启服务器,该任务将在重启后继续进行。

l     迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。

2.     选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息,如RAID的级别由“RAID 1”变成“RAID 0”,且“Status”状态显示为“Optimal”,表示RAID迁移成功。

----结束

迁移属于后台动作,在HII界面只能触发而不能正式开始,所以迁移的进度条一直显示为0%。当进入OS后,迁移才会开始进行。

12.4.6 删除RAID

操作场景

 

RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见12.3.1 登录管理界面

                                步骤 1     进入“Virtual Drive Management”界面。

1.     Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。

打开“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

打开虚拟磁盘列表。

3.     选择要操作的虚拟磁盘并按“Enter”。

进入虚拟磁盘操作界面,如12-48所示。

图12-48 虚拟磁盘操作界面

 

                                步骤 2     删除虚拟磁盘。

1.     将“Operation”设置为“Delete Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

12.4.7 重构RAID

l     当出现硬盘离线且RAID组可用时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     Rebuild属于后台动作,在HII界面只能触发而不能正式开始rebuild,所以rebuild的进度条一直显示为0%。当进入OS后,rebuild才会开始进行。

重构RAID(含外部配置)

在“Main Menu”界面中选择“Drive Management”,并按“Enter”。

                                步骤 1     选择要进行重构的硬盘,并按“Enter”。

                                步骤 2     选择“Operation”并按“Enter”。

显示该硬盘的操作菜单。

                                步骤 3     选择“Make Unconfigured Good”并按“Enter”。

                                步骤 4     选择“Go”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     选择“OK”并按“Enter”。

硬盘状态变为“(ForeignUnconfigured Good”。

                                步骤 6     导入外部配置,具体操作请参见12.4.10 导入和清除外部配置,。

RAID组开始进行重构。

                                步骤 7     重新进入该硬盘操作界面可查看重构进度。

----结束

重构RAID(无外部配置)

在“Main Menu”界面中选择“Drive Management”,并按“Enter”。

                                步骤 1     选择要进行重构的硬盘,并按“Enter”。

                                步骤 2     选择“Operation”并按“Enter”。

显示该硬盘的操作菜单。

图12-49 Select Operation

 

                                步骤 3     选择“Replace Missing Drive”并按“Enter”。

                                步骤 4     选择“Go”并按“Enter”。

进入“Replace Missing Drive”界面,如12-50所示。

图12-50 Replace Missing Drive

 

                                步骤 5     选择“Drive Group”并按“Enter”。

选择需替换硬盘的RAID

                                步骤 6     选择“Row Index”并按“Enter”。

选择需要替换的硬盘索引,推荐使用默认配置。

                                步骤 7     选择“Replace Drive”并按“Enter”。

提示“The operation has been performed successfully”。

                                步骤 8     选择“OK”并按“Enter”完成硬盘替换。

                                步骤 9     重新进入该硬盘操作界面,选择“Operation”并按“Enter”。

显示该硬盘的操作菜单,如12-51所示。

图12-51 硬盘操作菜单

 

                             步骤 10     选择“Rebuild”并按“Enter”。

                             步骤 11     选择“Go”并按“Enter”。

提示“The operation has been started successfully...”,硬盘开始重构。

                             步骤 12     重新进入该硬盘操作界面可查看重构进度。

----结束

12.4.8 查看RAID控制卡属性

操作场景

用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。

操作步骤

登录管理界面,具体操作方法请参见12.3.1 登录管理界面

                                步骤 1     进入“Controller Management”界面。

1.     Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。

打开“Main Menu”界面。

2.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息,如12-52所示,参数说明如12-12所示。

图12-52 RAID控制卡基本信息(1

 

图12-53 RAID控制卡基本信息(2

 

表12-12 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Personality Mode

RAID控制卡的工作模式。

Select Device For Boot Order

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。

PCI ID

RAID控制卡的PCI ID

PCI Segment:Bus:Device:Fuction

RAID控制卡的PCI地址,格式为:总线号:设备号:功能号。

PCI Slot Number

RAID控制卡的PCI槽位号,若RAID控制卡为扣卡,则此处显示“Integrated”。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Supported Device Interfaces

RAID控制卡支持的硬盘接口类型。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制卡操作。

Advanced Controller Properties

查看和修改控制卡的高级属性。

 

                                步骤 2     查看控制卡高级属性。

选择“Advanced Controller Properties”并按“Enter”。

进入控制卡高级属性界面,如12-5412-55所示,参数说明如12-13所示。

在该界面下,可查看并修改RAID控制卡的高级属性。

图12-54 Advanced Controller Properties界面(1

 

图12-55 Advanced Controller Properties界面(2

 

表12-13 参数说明

参数

参数说明

Patrol Read

设置系统巡检参数。

Power Save Setting

设置硬盘休眠参数。

Spare

设置控制卡热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

Avago SAS3416iMR控制卡扣卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errrors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制卡BIOS的使能情况。

ROC Temperature

控制卡温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见12.4.10 导入和清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

JBOD Mode

是否使能硬盘直通功能。

说明

Avago SAS3416iMR支持的Online状态与Unconfigured Good状态的硬盘之和最多为32个,当服务器配置的硬盘数超过32个时,请勿关闭RAID控制卡的硬盘直通功能,以免造成服务器重启导致“Online”状态下的硬盘变为“Ubad”状态的问题。

Large IO Support

启用或禁用大型I/O支持功能。

Unmap Capability

解除映射能力。

Apply Changes

保存配置。

 

----结束

12.4.9 设置JBOD模式

Avago SAS3416iMR支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

登录管理界面,具体操作方法请参见12.3.1 登录管理界面

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Properties界面,如12-56所示。

图12-56 Advanced Controller Properties

 

                                步骤 2     选择“JBOD Mode”并按Enter

                                步骤 3     选择“Enabled”并按“Enter”。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

12.4.10 导入和清除外部配置

操作场景

l     服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。

RAID控制卡的“Auto Import Foreign Configuration”参数可控制外部配置导入操作是否需要人工干涉。

l     该参数值为“Enabled”时,在系统启动过程中,会自动检测当前存在的外部配置并将其导入。

l     该参数值为“Disabled”时,存在的外部配置需要用户操作才可将其导入。

 

l     如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!

l     为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

导入外部配置

登录管理界面,具体操作方法请参见12.3.1 登录管理界面

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如12-57所示。

图12-57 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

进入外部配置管理界面,如12-58所示。

图12-58 Preview Foreign Configuration

 

                                步骤 5     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 8     单击“OK”完成配置返回上级界面。

----结束

清空外部配置

登录管理界面,具体操作方法请参见12.3.1 登录管理界面

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如12-59所示。

图12-59 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

进入外部配置管理界面,如12-60所示。

图12-60 Preview Foreign Configuration

 

                                步骤 5     选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 8     单击“OK”完成配置返回上级界面。

----结束

12.4.11 创建多个VDVirtual Drive

该场景为使用已存在一个或多个VDRAID组的空闲容量创建多个VD,以RAID0存在一个VD为例(如12-61所示),详细操作方法如下:

图12-61 Virtual Drive Management

 

按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如12-62所示。

图12-62 Create Virtual Drive

 

                                步骤 2     将“Select Drives From”设置为“Free Capacity”,如12-63所示。

图12-63 Create Virtual Drive

 

                                步骤 3     选择“Select Drive Groups”并按“Enter”。

显示当前存在的RAID组(Drive Group),如12-64所示。

图12-64 Select Drive Groups

 

                                步骤 4     选择要创建多个VDRAID组并按“Enter”,如12-65所示。

图12-65 Select Drive Groups

 

                                步骤 5     选择“Apply Changes”并按“Enter”。

提示操作成功。

                                步骤 6     选择“OK”并按“Enter”返回VD配置界面,如12-66所示,参数说明如12-5所示。

图12-66 Create Virtual Drive

 

表12-14  

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

说明

Avago SAS3416iMR当前不支持该功能。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drive Group

选择硬盘组。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照12.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,Avago SAS3416iMR当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

Avago SAS3416iMR当前不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

Avago SAS3416iMR当前不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

Avago SAS3416iMR当前不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略。可配置的状态有:

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。

l     Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 7     按照12-5所述配置VD的相关属性。

                                步骤 8     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

                                步骤 9     选择“Confirm”并按“Enter”。

                             步骤 10     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                             步骤 11     选择“OK”并按“Enter”完成配置。

可进入Virtual Drive Management界面,查看当前存在的所有VD,如12-67所示。

图12-67 Virtual Drive Management

 

每个RAID组最多支持创建16VD,如需要继续创建VD,请重复执行步骤1~步骤11

----结束

12.4.12 设置硬盘状态为JBODUnconfigured Good

设置硬盘状态为“Unconfigured Good

Avago SAS3416iMR默认把所有硬盘的状态设置为“JBOD”,用户需要根据实际情况先把硬盘状态设置为“Unconfigured Good”后,才能配置RAID组。

l     将单个JBOD硬盘设置为“Unconfigured Good”的操作方法:

a.     登录管理界面,具体操作方法请参见12.3.1 登录管理界面

b.     在主界面中依次进入“Main Menu  > Drive Management”,如12-68所示。

图12-68 Drive Management界面

 

c.     选中要进行操作的硬盘并按“Enter”。

d.     选择“Operation”并按“Enter”。

e.     选择“Make Unconfigured Good”并按“Enter”。

f.     选择“Go”并按“Enter。”

提示The operation has been performed successfully

g.     选择“OK”并按“Enter”完成配置。

l     通过“Make Unconfigured Good”选项将“JBOD”状态的硬盘设置为“Unconfigured Good”状态:

a.     登录管理界面,具体操作方法请参见12.3.1 登录管理界面

b.     在主界面中选择“Main Menu”并按“Enter”。

c.     选择“Configuration Management”并按“Enter”。

d.     选择“Make Unconfigured Good”并按“Enter”。

显示当前JBOD状态的硬盘,如12-69所示。

图12-69 Make Unconfigured Good界面

 

e.     选择要设置为“Unconfigured Good”状态的硬盘并按“Enter”。

f.     选择“OK”并按“Enter”。

弹出操作确认框。

g.     选择“Confirm”并按“Enter”。

h.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

i.     选择“OK”并按“Enter”完成配置。

l     通过关闭JBOD功能将所有JBOD状态的硬盘设置为“Unconfigured Good”状态(已加入RAID组的硬盘状态不受影响):

a.     登录管理界面,具体操作方法请参见12.3.1 登录管理界面

b.     在主界面中依次进入“Main Menu  > Controller Management > Advanced Controller Properties”,如12-70所示。

图12-70 Advanced Controller Properties界面

 

c.     选择“JBOD Mode”并按“Enter”。

d.     选择“Disabled”并按“Enter”。

e.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

f.     选择“OK”并按“Enter”。

操作成功。

设置硬盘状态为“JBOD

l     如果RAID控制卡未开启硬盘直通功能(“JBOD Mode”选项为“Disabled”状态),可通过开启硬盘直通功能,将所有“Unconfigured Good”状态的硬盘同时设置为“JBOD”状态,已加入RAID组的硬盘状态不受影响。具体操作方法:

a.     登录管理界面,具体操作方法请参见12.3.1 登录管理界面

b.     在主界面中依次进入“Main Menu  > Controller Management > Advanced Controller Properties,12-71所示。

图12-71 Advanced Controller Properties界面

 

c.     选择“JBOD Mode”并按“Enter”。

d.     选择“Enabled”并按“Enter”。

e.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

f.     选择“OK”并按“Enter”。

操作成功。

l     如果RAID控制卡已开启硬盘直通功能(“JBOD Mode”选项为“Enabled”状态):

     可通过硬盘菜单将某一个“Unconfigured Good”状态的硬盘设置为“JBOD”状态。具体操作方法:

i.     登录管理界面,具体操作方法请参见12.3.1 登录管理界面

ii.     在主界面选择“Drive Management”并按“Enter”。

iii.     选择要设置为“JBOD”状态的硬盘,并按“Enter”。

iv.     选择“Operation”并按“Enter”。

v.     在弹出的菜单中选择“Make JBOD”并按“Enter”。

vi.     选择“Go”并按“Enter”。

提示操作成功。

     通过“Make JBOD”选项将“Unconfigured Good”状态的硬盘设置为“JBOD”状态:

i.     登录管理界面,具体操作方法请参见12.3.1 登录管理界面

ii.     在主界面中选择“Main Menu”并按“Enter”。

iii.     选择“Configuration Management”并按“Enter”。

iv.     选择“Make JBOD”并按“Enter”。

显示当前“Unconfigured Good”状态的硬盘,如12-72所示。

图12-72 Make JBOD界面

 

v.     选择要设置为“Unconfigured Good”状态的硬盘并按“Enter”。

vi.     选择“OK”并按“Enter”。

vii.     选择“Confirm”并按“Enter”。

选择“Yes”并按“Enter”。

提示The operation has been performed successfully

viii.     选择“OK”并按“Enter”完成配置。

12.5 故障处理

介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

12.5.1 硬盘相关故障

12.5.1.1 硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

确认故障硬盘槽位。

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考12.6.2.4 Drive Management

l     通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

                                步骤 1     更换新硬盘。

 

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考12.4.10 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在12-2查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成。新插入硬盘后确认rebuild操作是否已经启动,如rebuild操作未启动,需手动启动硬盘重构,操作请参见重构RAID(无外部配置)

RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0

     UEFI模式下创建RAID0的方法请参见12.3.2 创建RAID 0

     通过命令行方式创建RAID0的方法请参见12.7.2.2 创建和删除RAID

----结束

12.5.1.2 硬盘状态为failprefail

问题描述

正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代failprefail状态的成员盘并进行重构,避免数据丢失。

但当RAID控制卡未设置紧急热备时,成员盘状态显示为failprefail时,可使用以下方法处理。

处理方法

使用StorCLI工具,具体操作请参考12.7.1 下载和安装StorCLI工具

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考12.7.2.15 设置硬盘状态

storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在EnclosureID

l     slot_id:物理硬盘槽位ID

                                步骤 2     更换离线硬盘。

                                步骤 3     RAID组自动执行重构。

等待重构完成。

----结束

12.5.1.3 硬盘状态为Unconfigured BadUBad

问题描述

硬盘状态显示为Unconfigured BadUBad

处理方法

使用StorCLI工具,具体操作请参见12.7.1 下载和安装StorCLI工具

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见12.7.2.15 设置硬盘状态

storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在EnclosureID

l     slot_id:物理硬盘槽位ID

                                步骤 2     重新查看硬盘状态是否更改为Unconfigured GoodUgood。具体操作请参见12.6.2.4 Drive Management界面或12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤4

                                步骤 3     查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见12.4.10 导入和清除外部配置12.7.2.29 查看/导入/清除外部配置

l     问题解决 => 处理完毕。

l     问题未解决 => 联系技术支持处理。

----结束

12.5.2 控制卡故障

问题描述

当服务器出现如下现象时,说明控制卡故障。

l     数据无法写入控制卡控制的硬盘。

l     服务器上报控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     查询兼容性查询助手或者联系技术支持处理。

----结束

12.5.3 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy

问题描述

正常情况下,当服务器配置了RAID控制卡且RAID控制卡状态正常时,进入BIOSAdvanced页签后,会显示RAID控制卡的信息,如12-73所示。

如果Advanced页签不显示RAID控制卡的信息,如12-74所示,则:

l     如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:

     如果不显示驱动打印信息,可尝试下电后重新拔插RAID控制卡再上电、下电后更换RAID控制卡再上电或者联系技术支持。

     如果显示“AVAGO EFI SAS Driver SAS3416”,则可以通过本章节的指导修复RAID控制卡。

l     如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,则可以通过本章节的指导修复RAID控制卡;如果不显示,可尝试下电后重新拔插RAID控制卡再上电、下电更换RAID控制卡再上电或者联系技术支持。

图12-73 Advanced页签(1

 

图12-74 Advanced页签(2

 

处理方法

l     BIOS的版本为0.98之前版本(不包含0.98版本)时:

a.     Advanced页签选择“Driver Health Manager”并按Enter

进入“Driver Health Manager”界面。

b.     选择要进行修复的RAID控制卡驱动,如“AVAGO EFI SAS Driver SAS3416”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息:

n     显示“The following VDs have missing disks. => 请参见12.5.3.1 The following VDs have missing disks

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone=> 请参见12.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

l     BIOS的版本为0.98及以上版本时:

a.     在“Advanced”页签选择“Some drivers are not healthy”。

进入健康状态查询界面。

b.     选择“Repair the whole platform”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息。

n     显示“The following VDs have missing disks. => 请参见12.5.3.1 The following VDs have missing disks

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone=> 请参见12.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见0RAID控制卡启动中出现的常见的错误消息及处理方法

12.5.3.1 The following VDs have missing disks

问题描述

12-75所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。

图12-75 状态显示

 

处理方法

修复RAID控制卡。

1.     12-75中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

2.     输入“c”,选择“Yes”并按“Enter”。

返回“Driver Healthy Protocol Utility”界面。

3.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

4.     输入“y”,选择“Yes”并按“Enter”。

提示Critical Message handling completed. Please exit。修复完成。

                                步骤 1     重启服务器,进入“Advanced”界面,检查界面是否显示The platform is healthy

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

12.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

问题描述

12-76所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”

图12-76 “Driver Healthy Protocol Utility”界面

 

处理建议

该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:

l     下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。

l     忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:

a.     12-76中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

b.     输入“c”并按“Enter”。

c.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

d.     输入“y”并按“Enter”。

提示Critical Message handling completed. Please exit

e.     按“Esc”退出当前界面。

弹出确认保存配置会话框,如12-77所示。

图12-77 提示保存会话框

 

f.     按“Y”保存配置,操作完成。

g.     Esc键返回“Device Manager”界面。

h.     选择3416iMR RAID控制卡,并按“Enter”,进入RAID控制卡管理界面。

12.5.3.3 Disabling writes to flash as the flash part has gone bad

问题描述

12-78所示,进入“Driver Healthy Protocol Utility”界面后,显示“Disabling writes to flash as the flash part has gone bad”。

图12-78 状态显示

 

处理方法

将服务器下电。

                                步骤 1     更换RAID控制卡。

                                步骤 2     将服务器上电,导入外部配置恢复原来的RAID配置,请参见12.4.10 导入和清除外部配置12.7.2.29 查看/导入/清除外部配置

检查提示是否清除。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

12.5.4 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死

问题描述

硬盘响应命令超时,控制卡会对硬盘进行复位。3次复位后尚未恢复时将可能耗尽控制卡TMTask Management)资源,触发Fatal error,此时会通过OCROnline Controller Reset)自愈恢复,期间将有短时间业务中断(约30s60s),控制卡复位后会完成踢盘,将故障硬盘置为Ubad状态。

控制卡自愈恢复,需要开启OCR开关。

触发条件

当下发到硬盘的I/O出现超时不响应的情况时,RAID控制卡会通过reset硬盘来恢复,正常情况下,硬盘会重新接入或者多次reset之后会进行踢盘。

当出现reset之后硬盘仍然无法响应RAID控制卡指令且无法踢盘时,RAID控制卡会再次reset进行复位,每次reset会占用RAID控制卡资源,短时间内多次reset会导致RAID控制卡资源耗尽,该场景下,RAID控制卡会通过重新加载FW进行恢复。

该机制为此类卡的正常处理机制,由于架构限制,无法进行优化。

识别方法

l     已安装OS

当遇到短时间业务中断,恢复后查看有被置为Ubad状态的硬盘时,可以查看控制卡日志,搜索dm.c并查看其发生时间,如与业务中断时间节点接近,即可断定为触发了该机制。

注意控制卡与OS时间差。

l     未安装OS

OS时,触发该机制的操作为:从“Advanced”页签进入控制卡界面。若触发该机制,进入控制卡卡操作界面时将会卡住,无法恢复。

处理方法

定位故障硬盘。

l     已安装OS

     如确认触发了该机制并且已经完成了踢盘,需要更换Ubad状态的硬盘。

     如无Ubad状态的硬盘,查看日志并搜索“indicates critical condition”,目标行的“element xx indicates critical condition”中,“xx”即为问题硬盘的槽位号。

已安装OS,但是进入“Advanced”页签的控制卡操作界面卡住,需要重新上下电进入OS,按照以上方式定位故障硬盘。

l     未安装OS

系统未安装OS,出现该异常时,保留预安装OS RAID组数目的硬盘,将其他硬盘拔出并记录槽位号,如成功安装OS进入系统后,按照已安装OS的操作来确认问题硬盘。

                                步骤 1     更换故障硬盘。

l      => 处理完毕。

l      => 请联系技术支持。

----结束

12.5.5 Controller Mode恢复为RAID

问题描述

RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD modeRAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如12-79所示,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。

图12-79 问题描述

 

当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。

处理方法

(可选)登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Management界面,如12-80所示。

图12-80 Advanced Controller Management界面

 

                                步骤 2     选择“Switch to RAID mode”并按“Enter”。

提示操作成功,如12-81所示。

图12-81 操作成功

 

                                步骤 3     选择“OK”并按“Enter”。

返回到“Advanced Controller Management”界面,显示正在切换模式,如12-82所示。

图12-82 Advanced Controller Management界面

 

                                步骤 4     按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面

                                步骤 5     依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如12-83所示。

图12-83 Advanced Controller Management界面

 

l      => 处理完毕。

l      => 请联系技术支持。

----结束

12.6 管理界面介绍

12.6.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如12-84所示界面时,按“Delete”。

进入输入密码界面。

图12-84 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如12-85所示界面。

图12-85 Setup Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如12-86所示。

图12-86 “Advanced”页签

 

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见12.5.3 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择要操作的Avago SAS3416iMR控制卡,按“Enter”。

进入Avago SAS3416iMR操作界面,如12-8712-88所示,界面参数如12-15所示。

图12-87 Avago SAS3416iMR操作界面(1

 

图12-88 Avago SAS3416iMR操作界面(2

 

表12-15 Avago SAS3416iMR操作界面参数说明

参数

参数说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

CacheVault

是否支持Cache

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

说明

仅当存在外部配置时显示该参数。

Configure

提供RAID控制卡的配置接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

Silence Alarm

板载蜂鸣器的使能状态。

说明

Avago SAS3416iMR未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID FastPath

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

12.6.2 Main Menu

RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。

界面介绍

Main Menu”界面如12-89,参数说明如12-16所示。

图12-89 Main Menu

 

表12-16 参数说明

参数

参数说明

Configuration Management

配置管理RAID

Controller Management

管理RAID控制卡。

Virtual Drive Management

管理虚拟磁盘。

Drive Management

管理硬盘。

Hardware Components

查询部件信息。

 

12.6.2.1 Configuration Management

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

Configuration Management”界面如12-90,参数说明如12-17所示。

图12-90 Configuration Management

 

表12-17 参数说明

参数

参数说明

Create Virtual Drive

创建RAID

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

View Global HotSpare Drives

查看全局热备盘属性。

Make JBOD

硬盘直通功能,硬盘不加入RAID,直接使用。

Make Unconfigured Good

配置硬盘状态。

Clear Configuration

清除配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时会显示该参数。

 

清除RAID配置

选择“Clear Configuration”并按“Enter”。

进入操作确认界面。

                                步骤 1     选中“Confirm”并按“Enter”。

                                步骤 2     在打开的列表中选择“Enabled”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 4     按“Enter”。

配置完成。

----结束

快速创建RAID

12-90中选择“Create Profile Based Virtual Drive”并按“Enter”。

                                步骤 1     通过“↑”、“↓”选择要创建的RAID(以“Generic RAID 0”为例)并按“Enter”。

打开RAID配置界面,如12-91,参数说明如12-18所示。

图12-91 RAID配置界面

 

表12-18 参数说明

参数

参数说明

Drive Selection Criteria

系统自动选择的成员盘。

Virtual Drive Name

系统自定义的RAID组名称。

RAID Level

当前配置的RAID组的级别。

Virtual Drive Size

RAID组的容量。

Power Save Mode

数据掉电保护模式。

Strip Size

RAID组扇区大小。

Read Policy

RAID组的数据读策略。

Write Policy

RAID组的数据写策略。

IO Policy

RAIDI/O策略。

Access Policy

数据读写的策略。

Drive Cache

硬盘Cache策略。

Default Initialization

RAID组默认的初始化方式。

Save Configuration

保存当前配置。

 

                                步骤 2     选择“Drive Selection Criteria”并按“Enter”。

                                步骤 3     选择快速RAID所使用的硬盘。

                                步骤 4     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

                                步骤 5     按“Enter”。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 8     单击“OK”完成配置。

----结束

查看硬盘组属性

12-90中选择“View Drive Group Properties”并按“Enter”。

打开的界面如12-92,参数说明如12-19所示。

图12-92 硬盘组属性

 

表12-19 参数说明

参数

参数说明

Drive Group

硬盘组名称。

Capacity Allocation

硬盘组关联内容,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。

Protected

硬盘组数据保护功能的使能状态。

Assigned Dedicated Hot SDpare Drive

硬盘组关联的局部热备盘。

 

12.6.2.2 Controller Management

该界面提供控制卡管理接口,可查看并修改控制卡的详细参数。

界面介绍

Controller Management”界面如12-93,参数说明如12-20所示。

图12-93 Controller Management1

 

图12-94 Controller Management2

 

表12-20 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Personality Mode

RAID控制卡的工作模式。

Select Device For Boot Order

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。

PCI ID

RAID控制卡的PCI ID

PCI Segment:Bus:Device:Fuction

RAID控制卡的PCI地址,格式为:总线号:设备号:功能号。

PCI Slot Number

RAID控制卡的PCI槽位号,若RAID控制卡为扣卡,则此处显示“Integrated”。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Supported Device Interfaces

RAID控制卡支持的硬盘接口类型。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制卡操作。

Advanced Controller Properties

查看和修改控制卡的高级属性。

 

查看并修改控制卡高级属性

12-93中选择“Advanced Controller Properties”并按“Enter”。

界面如12-9512-96所示,界面中参数说明如12-21所示。

图12-95 Advanced Controller Properties界面(1

 

图12-96 Advanced Controller Properties界面(2

 

表12-21 参数说明

参数

参数说明

Patrol Read

设置系统巡检参数。

Power Save Setting

设置硬盘休眠参数。

Spare

设置控制卡热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

Avago SAS3416iMR控制卡扣卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errrors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制卡BIOS的使能情况。

ROC Temperature

控制卡温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见12.4.10 导入和清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

JBOD Mode

是否使能硬盘直通功能。

说明

Avago SAS3416iMR支持的Online状态与Unconfigured Good状态的硬盘之和最多为32个,当服务器配置的硬盘数超过32个时,请勿关闭RAID控制卡的硬盘直通功能,以免造成服务器重启导致“Online”状态下的硬盘变为“Ubad”状态的问题。

Large IO Support

启用或禁用大型I/O支持功能。

Unmap Capability

解除映射能力。

Apply Changes

保存配置。

 

                                步骤 2     12-95中选择“Task Rates”并按“Enter”。界面如12-97所示,界面中参数说明如12-22所示。

图12-97 Task Rates

 

表12-22 参数说明

参数

说明

Background Initialization <BGI> Rate

设置执行后台初始化的速率。

说明

数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Consistency Check Rate

设置执行一致性校验的速率。

说明

数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Patrol Read Rate

设置执行巡检读取的速率。

说明

数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Rebuild Rate

设置硬盘发生故障时在新硬盘上执行重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Reconstruction Rate

设置执行RAID级别迁移或在线容量扩展时重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Apply Changes

保存配置。

 

                                步骤 3     按照12-21所述修改控制卡的高级属性参数。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     单击“OK”完成配置。

----结束

12.6.2.3 Virtual Drive Management

该界面提供虚拟磁盘的查询和管理接口。

界面介绍

Virtual Drive Management”界面如12-98,显示虚拟磁盘列表。

图12-98 虚拟磁盘列表

 

选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如12-99所示,参数说明如12-23所示。

图12-99 Virtual Drive Management界面

 

表12-23 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:定位虚拟磁盘的所有硬盘。

l     Stop Locate:取消定位。

l     Delete Virtual Drive:删除虚拟磁盘。

l     Expand Virtual Drive:扩展虚拟磁盘容量。

l     Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。

l     Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。

l     Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。

l     Fast Initialization:快速初始化虚拟磁盘。

l     Slow Initialization:安全初始化虚拟磁盘。

l     Check Consistency:一致性校验。

l     Virtual Drive Erase:格式化虚拟磁盘。

Progress

当前任务进度。

l     仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。

l     当前界面不会自动刷新,需退出后重新进入查看当前进度。

Stop

停止当前任务。

仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。

Name

虚拟磁盘名称。

Raid Level

虚拟磁盘RAID级别。

Status

虚拟磁盘当前运行状态。

Size

虚拟磁盘容量。

View Associated Drives

查看成员盘属性。

Advanced...

查看虚拟磁盘高级属性。

 

查看成员盘属性

12-99中选择“View Associated Drives”并按“Enter”。

界面如12-100,显示成员盘列表。

图12-100 成员盘列表

 

                                步骤 2     选择要查看的成员盘,并按“Enter”。

                                步骤 3     选择“View Drive Properties”并按“Enter”。

进入硬盘属性界面,如12-101界面所示,界面参数如12-24所示。

图12-101 成员盘属性

 

表12-24 参数说明

参数

参数说明

Operation

该成员盘可执行的操作,包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Place Drive Online/Offline:将硬盘上线/离线。

Drive ID

成员盘的ID

Connection

成员盘的接口。

Enclosure Position

Enclosure的位置。

Slot Number

成员盘的槽位号。

Status

成员盘的当前工作状态。

Size

成员盘的容量。

Type

成员盘类型。

Model

成员盘的模块类型。

Serial Number

成员盘的序列号。

Hardware Vendor

成员盘的生产厂商。

Associated Virtual Drive

成员盘所在的虚拟磁盘。

Advanced...

查询成员盘更多属性。

 

----结束

查看和修改虚拟磁盘高级属性

12-99中选择“Advanced”并按“Enter”。

界面如12-10212-103所示,界面参数如12-25所示。

图12-102 虚拟磁盘高级属性(1

 

图12-103 虚拟磁盘高级属性(2

 

表12-25 参数说明

参数

参数说明

Mirror Date Size

RAID中镜像空间的容量。

Logical Sector Size

逻辑扇区大小。

Strip Size

条带大小。

Starting Logical Block Addressing

逻辑单元起始地址。

Emulation Type

控制逻辑盘在OS中上报的扇区。

当成员盘为512B/512B时:

l     Default:逻辑盘扇区为512B/512B

l     None:逻辑盘扇区为512B/512B

l     Force:逻辑盘扇区为512B/4KB

当成员盘为512B/4KB时:

l     Default:逻辑盘扇区为512B/4KB

l     None:逻辑盘扇区为512B/512B

l     Force:逻辑盘扇区为512B/4KB

Bad Blocks

是否支持坏块处理。

Access

当前读写策略。

Current Write Cache Policy

当前的写Cache策略。

Default Write Cache Policy

默认的写Cache策略。

Disable Background Initialization

是否禁用后台初始化。

Read Cache Policy

当前的读Cache策略。

Drive Cache

是否支持cache

Input/Output

I/O读取策略,包括:

l     Direct:直接从硬盘读取数据,不经过Cache缓存。

l     Cached:从Cache缓存中读取数据。

Unmap Capability

虚拟磁盘解映射功能使能状态。

Apply Changes

保存配置。

 

                                步骤 2     按照12-25所述配置“Advanced”的参数。

                                步骤 3     选择“Apply Changes”并按“Enter”。

显示The operation has been performed successfully

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

12.6.2.4 Drive Management

该界面显示硬盘基本属性,提供硬盘操作接口。

界面介绍

Drive Management”界面如12-104所示,显示硬盘列表。

图12-104 硬盘列表

 

硬盘的标识信息说明如下:

l     ①表示RAID控制卡的Port口编号,其中Drive C0/Drive Port A表示RAID控制卡的Port A口,Drive C1/Drive Port B表示RAID控制卡的Port B口,Drive C2/Drive Port C表示RAID控制卡的Port C口,Drive C3/Drive Port D表示RAID控制卡的Port D口。

l     ②表示机箱或背板的位置ID

l     ③表示硬盘槽位号。

l     ④表示硬盘类型。

l     ⑤表示硬盘的容量。

l     ⑥表示硬盘的状态。

l     ⑦表示硬盘的扇区大小。

选定要操作的硬盘并按“Enter”进入详细操作界面,如12-105所示,参数说明如12-26所示。

图12-105 硬盘操作界面

 

表12-26 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Initialize Drive:硬盘初始化。

l     Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。

     Simple:仅对硬盘进行一轮擦除动作。

     Normal:对硬盘进行三轮擦除动作。

     Thorough:对硬盘进行九轮擦除动作。

     Stop Erase:停止数据擦除操作。

l     Make Unconfigured Good/Bad:修改硬盘状态。

l     Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。

l     Assign Global Hot Spare Drive:设置全局热备盘。

l     Assign Dedicated Hot Spare Drive:设置局部热备盘。

l     Unassign Hot Spare Drive:删除热备盘。

l     Prepare For Removal:准备移除硬盘。

l     Replace Missing Drive:安装硬盘。

l     Place Drive Online:将Offline状态的硬盘设置为Online

说明

l     Place Drive Online操作仅仅只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。

l     对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。

Drive ID

硬盘的ID

Connection

硬盘的接口。

Slot Number

硬盘的槽位号。

Status

硬盘的当前工作状态。

Size

硬盘的容量。

Type

硬盘的类型。

Model

硬盘型号。

Serial Number

硬盘的序列号。

Hardware Vendor

硬盘的生产厂商。

Advanced...

查询更多硬盘属性。

 

安全擦除硬盘数据

该操作会删除硬盘上的数据,请谨慎执行。

将“Operation”设置为“Drive Erase”。

                                步骤 1     选择“Erase Mode”并按“Enter”。

                                步骤 2     在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。

                                步骤 3     选择“Go”并按“Enter”。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示操作成功。

----结束

查看硬盘属性

选择“Advanced...”并按“Enter”。

打开硬盘属性界面,如12-10612-107所示,参数说明如12-27所示。

图12-106 硬盘属性(1

 

图12-107 硬盘属性(2

 

表12-27 参数说明

参数

参数说明

Certified

硬盘是否有供应商认证。

Logical Sector Size

逻辑扇区大小。

Physical Sector Size

物理扇区大小。

SMART Status

SMART功能是否使能。

Revision

硬盘Firmware版本。

Media Error

Media error个数。

Predicted Fail Count

Pred fail个数。

SAS Address

硬盘SAS地址。

Multipath

该功能为支持检测和使用从RAID控制卡到盘柜中的SAS设备的多条路径,连接到盘柜的设备有多条路径。到设备同一端口的冗余路径,可以保障当其中一条路径发生故障时,控制卡和设备之间可以使用另一条路径进行通信。同时使用具有负载平衡的多条路径,而不是单条路径,可以通过冗余来提高可靠性。

当前服务器暂不支持多路径的方式。

Drive Power State

硬盘上电状态。

Cache Setting

是否可设置Cache

Disk Protocol

硬盘支持的协议。

Capable Speed

硬盘的速率。

Negotiated Speed

硬盘协商速率。

Number of Connections

连接器个数。

FDE Capable

硬盘是否支持FDEFull Disk Encryption)技术。

Cryptographic Erase Capable

硬盘的加密擦除能力。

Unmap Capable

解除映射能力。

Temperature(C)

硬盘温度。

 

12.6.2.5 Hardware Components

该界面主要提供RAID控制卡传感器信息。

界面介绍

Hardware Components”界面如12-108,参数说明如12-28所示。

图12-108 部件信息

 

表12-28 参数说明

参数

参数说明

Temperature Sensors

当前温度传感器状态。

Fans

当前风扇模块工作状态。

Power Supplies

当前供电模块工作状态。

Enclosure Management

更多部件信息。

 

12.6.3 View Server Profile

提供RAID控制卡操作管理接口。

界面介绍

View Server Profile”界面如12-109所示,参数说明如12-29所示。

图12-109 管理接口

 

表12-29 参数说明

参数

参数说明

UEFI Spec Version

服务器支持的UEFI Spec版本。

Controller Management

提供控制卡管理接口,详细情况请参见12.6.2.2 Controller Management

Hardware Components

提供控制卡部件查询接口,详细情况请参见12.6.2.5 Hardware Components

Drive Management

提供硬盘管理接口,详细情况请参见12.6.2.4 Drive Management

Virtual Drive Management

提供虚拟磁盘管理接口,详细情况请参见12.6.2.3 Virtual Drive Management

 

12.6.4 Manage Foreign Configuration

该界面可查看、导入、清空外部配置。

界面介绍

Manage Foreign Configuration”界面如12-110所示。

图12-110 外部配置管理接口

 

查看并导入外部配置

选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如12-111所示。

图12-111 外部配置

 

                                步骤 2     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     单击“OK”完成配置。

----结束

清除外部配置

选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     单击“OK”完成配置。

----结束

12.6.5 Configure

该界面可清除当前所有配置。

界面介绍

Configure”界面如12-112所示,可执行的操作包括12-30

图12-112 配置接口

 

表12-30 参数说明

参数

参数说明

Create Virtual Drive

创建RAID

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

View Global HotSpare Drives

查看全局热备盘属性。

Make JBOD

硬盘直通功能,硬盘不加入RAID,直接使用。

Make Unconfigured Good

配置硬盘状态。

Clear Configuration

清除配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时会显示该参数。

 

清除当前配置

选择“Clear Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     单击“OK”完成配置。

----结束

12.6.6 Set Factory Defaults

恢复出厂配置

在主界面选择“Set Factory Defaults”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     单击“OK”完成配置。

----结束

12.6.7 Update Firmware

该界面提供固件升级接口。

界面介绍

Update Firmware”界面如12-113所示,参数说明如12-31所示。

图12-113 Update Firmware界面

 

表12-31 参数说明

参数

参数说明

Select File System

选择使用的文件系统。

Select Directory

选择文件存放路径。可选路径包括:

Current Dir:当前路径

EFI:自适应路径

Select Image

选择要加载的文件。

 

升级固件

l     进行固件升级时,必须使用FAT12FAT16FAT32格式的介质。

l     仅检查支持EFI_SIMPLE_FILE_SYSTEM_PROTOCOL的文件系统。

l     FW镜像文件必须位于根目录或根目录的下一个级别才能进行访问。

按照12-31所述配置升级参数。

                                步骤 1     选择“Update”并按“Enter”。

打开操作确认界面。

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     在列表中选择“Enable”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     单击“OK”完成配置。

----结束

12.6.8 Manage MegaRAID Advanced Software Options

该界面提供RAID控制卡高级软件特性查看和导入接口。

界面介绍

Manage MegaRAID Advanced Software Options”界面如12-114所示,界面中参数说明如12-32所示。

图12-114 高级软件特性管理界面

 

表12-32 参数说明

参数

参数说明

SAFE ID

RAID控制卡的安全编码。

Serial Number

RAID控制卡序列号。

Activation Key

待激活的高级特性的Key

Active

激活高级特性。

Avago SAS3416iMR不支持高级特性的激活操作,该功能无效。

Deactive All Trail Software

注销当前所有高级特性。

 

12.6.9 Exit

退出配置界面

Avago SAS3416iMR主界面按“ESC”,显示如12-115所示“界面。

图12-115 BIOS Setup Utility

 

                                步骤 2     按“Esc”退出配置界面。

----结束

12.7 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

12.7.1 下载和安装StorCLI工具

下载工具

登录BROADCOM网站上RAID控制卡的页面

                                步骤 1     在“DOWNLOADS”页签中单击“Management Software and Tools”。

打开管理软件和工具列表。

                                步骤 2     下载最新版本的“StorCLI”工具。

                                步骤 3     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 1     Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。

StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

12.7.2 常用命令

12.7.2.1 查询RAID控制卡配置信息

命令功能

查询Avago SAS3416iMR的基本配置信息。

命令格式

storcli64 /ccontroller_id show

参数说明

参数

参数说明

取值

controller_id

控制卡ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

 

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡配置信息。

domino:~# ./storcli64 /c0 show
Controller = 0 
Status = Success 
Description = None 
Product Name = SAS3416 
Serial Number = FW-00000000 
SAS Address = 3202017050235207 
PCI Address = 00:1b:00:00 
System Time = 02/12/2016 18:53:00 
Mfg. Date = 00/00/00 
Controller Time = 02/12/2016 23:53:00 
FW Package Build = 50.1.0-0426 
BIOS Version = 07.01.04.0_4.17.08.00_0x0701060 
FW Version = 5.010.00-0426 
Driver Name = megaraid_sas 
Driver Version = 07.701.17.00 
Current Personality = RAID-Mode 
Vendor Id = 0x1000 
Device Id = 0x16 
SubVendor Id = 0x19E5 
SubDevice Id = 0xD215 
Host Interface = PCI-E 
Device Interface = SAS-12G 
Bus Number = 27 
Device Number = 0 
Function Number = 0 
Drive Groups = 4 
TOPOLOGY : 
======== 
----------------------------------------------------------------------------- 
DG Arr Row EID:Slot DID Type State BT Size PDC PI SED DS3 FSpace TR  
----------------------------------------------------------------------------- 
0 - - - - RAID0 Optl N 278.464 GB dflt N N none N N  
0 0 - - - RAID0 Optl N 278.464 GB dflt N N none N N  
0 0 0 66:18 12 DRIVE Onln N 278.464 GB dflt N N none - N  
1 - - - - RAID1 Dgrd N 893.137 GB dflt N N dflt N N  
1 0 - - - RAID1 Dgrd N 893.137 GB dflt N N dflt N N  
1 0 0 66:3 19 DRIVE Onln N 893.137 GB dflt N N dflt - N  
1 0 1 - - DRIVE Msng - 893.137 GB - - - - - N  
2 - - - - RAID0 Optl N 1.744 TB dflt N N none N N  
2 0 - - - RAID0 Optl N 1.744 TB dflt N N none N N  
2 0 0 66:4 20 DRIVE Onln N 893.137 GB dflt N N none - N  
2 0 1 66:5 21 DRIVE Onln N 893.137 GB dflt N N none - N  
3 - - - - RAID5 Optl N 1.087 TB dflt N N dflt N N  
3 0 - - - RAID5 Optl N 1.087 TB dflt N N dflt N N  
3 0 0 66:19 13 DRIVE Onln N 371.597 GB dflt N N dflt - N  
3 0 1 66:20 14 DRIVE Onln N 371.597 GB dflt N N dflt - N 
3 0 2 66:21 16 DRIVE Onln N 371.597 GB dflt N N dflt - N  
3 0 3 66:22 15 DRIVE Onln N 371.597 GB dflt N N dflt - N  
----------------------------------------------------------------------------- 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID 
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded 
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active 
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign 
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present 
TR=Transport Ready 
Missing Drives Count = 1 
Missing Drives : 
============== 
--------------------- 
Array Row Size  
--------------------- 
1 1 893.137 GB  
--------------------- 
Virtual Drives = 4 
VD LIST : 
======= 
--------------------------------------------------------------- 
DG/VD TYPE State Access Consist Cache Cac sCC Size Name  
--------------------------------------------------------------- 
0/1 RAID0 Optl RW Yes RWBD - ON 278.464 GB  
1/2 RAID1 Dgrd RW No RWBD - ON 893.137 GB  
2/3 RAID0 Optl RW No RWBD - ON 1.744 TB  
3/0 RAID5 Optl RW No RWBD - ON 1.087 TB  
--------------------------------------------------------------- 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded 
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked| 
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack| 
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled 
Check Consistency 
Physical Drives = 21 
PD LIST : 
======= 
----------------------------------------------------------------------------------- 
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp  
----------------------------------------------------------------------------------- 
66:2 10 JBOD - 837.256 GB SAS HDD N N 4 KB HUC101890CS4200 U  
66:3 19 Onln 1 893.137 GB SATA SSD N N 512B SAMSUNG MZ7KM960HAHP-00005 U  
66:4 20 Onln 2 893.137 GB SATA SSD N N 512B SAMSUNG MZ7KM960HAHP-00005 U  
66:5 21 Onln 2 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U  
66:6 23 JBOD - 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U  
66:7 25 JBOD - 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U  
66:8 24 JBOD - 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U  
66:9 26 JBOD - 744.125 GB SATA SSD N N 512B SAMSUNG MZ7LM800HCHP-00005 U  
66:10 27 JBOD - 744.125 GB SATA SSD N N 512B SAMSUNG MZ7LM800HCHP-00005 U  
66:11 22 UGood - 384.0 MB SATA SSD N N 512B SAMSUNG MZ7GE480HMHP-00003 U  
66:12 28 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7WD480HAGM-00003 U  
66:13 30 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7LM480HCHP-00003 U  
66:14 29 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7WD480HAGM-00003 U  
66:15 31 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7LM480HCHP-00005 U  
66:16 32 JBOD - 222.585 GB SATA SSD N N 512B SAMSUNG MZ7KM240HAGR-00005 U  
66:17 11 JBOD - 1.089 TB SAS HDD N N 512B HUC101812CSS200 U  
66:18 12 Onln 0 278.464 GB SAS HDD N N 512B ST300MM0006 U  
66:19 13 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U  
66:20 14 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U  
66:21 16 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U  
66:22 15 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U  
----------------------------------------------------------------------------------- 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup 
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare 
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface 
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info 
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign 
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded 
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded 
Cachevault_Info : 
=============== 
------------------------------------ 
Model State Temp Mode MfgDate  
------------------------------------ 
CVPM02 Optimal 28C - 2016/12/06  
------------------------------------  

12.7.2.2 创建和删除RAID

命令功能

创建、删除RAID

命令格式

命令

说明

storcli64 /ccontroller_id add vd rlevel[0|1|10] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid]

创建RAID

storcli64 /ccontroller_id/vraid_id del

删除RAID

 

*表示默认值。

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

rlevel

要配置的RAID组级别

level可为0110,数字分别代表对应的RAID组级别。

size

要配置的RAID组容量

默认值为all,即所有成员盘的容量之和。

name

要配置的RAID组名称

-

drives

要加入RAID组的硬盘

-

startid-endid

硬盘的起始和结束ID

-

slot_id

硬盘ID

-

pdperarray

子组中的硬盘数

创建RAID10时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。

-

pdcache

设置RAID的成员盘的Cache状态

l     on

l     off

l     default

pi

使能数据保护

-

EmulationType

控制逻辑盘在OS中上报的扇区

l     0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     1: Disable,即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     2Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Spares

指定RAID组的热备盘

-

raid_id

要删除的RAID组的ID

-

 

l     以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

l     当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid

使用指南

使用实例

# 创建RAID 0

domino:~# ./storcli64 /c0 add vd r0 size=100GB drives=252:0-3
Controller = 0 
Status = Success 
Description = Add VD Succeeded

# 删除RAID

domino:~# ./storcli64 /c0/v0 del
Controller = 0 
Status = Success 
Description = Delete VD Succeeded

12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

命令功能

查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。

命令格式

storcli64 /ccontroller_id show

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

storcli64 /ccontroller_id/vvd_id show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

enclosure_id

硬盘所在EnclosureID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡连接的硬盘背板的ID

slot_id

物理硬盘槽位编号

可以将该参数设置为all,表示查询所有硬盘的ID

vd_id

虚拟磁盘ID

可以将该参数设置为all,表示查询所有虚拟磁盘的ID

 

使用指南

回显中主要字段的含义如12-33所示。

表12-33 回显说明

命令格式

字段

含义

举例

storcli64 /ccontroller_id show

Product Name

RAID控制卡的型号

sas3108

FW Version

RAID控制卡的FW版本

4.660.00-8140

Driver Name

RAID控制卡的驱动名称

megaraid_sas

Driver Version

RAID控制卡的驱动版本

06.811.02.00-rh1

Current Personality

RAID控制卡的工作模式

RAID-Mode

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

SN

物理硬盘的序列号

PHWL517601YR800RGN

Manufacturer Id

物理硬盘的供应商ID

ATA

Model Number

物理硬盘的模块序号

INTEL SSDSC2BB800G4

Firmware Revision

物理硬盘的FW版本

D2010370

Raw size

物理硬盘的容量

745.211 GB [0x5d26ceb0 Sectors]

Logical Sector Size

物理硬盘逻辑分区大小

512B

Physical Sector Size

物理扇区大小

4 KB

storcli64 /ccontroller_id/vvd_id show all

TYPE

RAID组的级别

RAID1

State

RAID组的状态

Optl

Access

RAID组数据的访问策略

RW

Cache

RAID组当前的读写策略与I/O Policy

RWTD

Size

RAID组的大小

100.0 GB

PDs for VD0

RAID组下的物理硬盘

-

Strip Size

RAID组的条带大小

256KB

Write Cache(initial setting)

RAIDCache的写策略

Write Through

Disk Cache Policy

RAID组成员盘的Cache策略

Disk's Default

 

使用实例

#查询RAID控制卡的详细信息。

[root@localhost ~]# ./storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
Controller = 0
Status = Success
Description = None
 
Product Name = SAS3416iMR
Serial Number =
SAS Address =  50030130f0900000
PCI Address = 00:01:00:00
System Time = 07/07/2018 22:06:42
Mfg. Date = 00/00/00
Controller Time = 07/07/2018 14:06:41
FW Package Build = 24.16.0-0093
BIOS Version = 6.32.02.0_4.17.08.00_0x06150500
FW Version = 4.660.00-8140
Driver Name = megaraid_sas 
Driver Version = 06.811.02.00-rh1
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x5D
SubVendor Id = 0x19E5
SubDevice Id = 0xD207
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Drive Groups = 1
 
TOPOLOGY :
========
 
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace TR
-----------------------------------------------------------------------------
 0 -   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 0 0   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 0 0   0   252:1    18  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
 0 0   1   252:0    48  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
-----------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 1
 
VD LIST :
=======
 
---------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC       Size Name
---------------------------------------------------------------
0/0   RAID1 Optl  RW     Yes     RWBD  -   ON  744.125 GB
---------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 6
 
PD LIST :
=======
 
---------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model               Sp Type
---------------------------------------------------------------------------------
252:0    48 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:1    18 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:2    19 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BA800G4 U  -
252:3    20 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BA800G4 U  -
252:4    49 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:5    47 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
---------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Cachevault_Info :
===============
 
------------------------------------
Model  State   Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 28C  -    2016/11/04
------------------------------------

#查询slot0的物理硬盘的信息。

[root@localhost ~]# ./storcli64 /c0/e252/s0 show all
 
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
 
 
Drive /c0/e252/s0 :
=================
 
---------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model               Sp Type
---------------------------------------------------------------------------------
252:0    48 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
---------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Drive /c0/e252/s0 - Detailed Information :
========================================
 
Drive /c0/e252/s0 State :
=======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature =  20C (68.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
 
 
Drive /c0/e252/s0 Device attributes :
===================================
SN = PHWL517601YR800RGN
Manufacturer Id = ATA
Model Number = INTEL SSDSC2BB800G4
NAND Vendor = NA
WWN = 55cd2e404c533246
Firmware Revision = D2010370
Raw size = 745.211 GB [0x5d26ceb0 Sectors]
Coerced size = 744.125 GB [0x5d040800 Sectors]
Non Coerced size = 744.711 GB [0x5d16ceb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 6.0Gb/s
NCQ setting = Enabled
Write cache = N/A
Logical Sector Size = 512B
Physical Sector Size = 4 KB
Connector Name = Port A x1
 
 
Drive /c0/e252/s0 Policies/Settings :
===================================
Drive position = DriveGroup:0, Span:0, Row:1
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = No
Wide Port Capable = No
 
Port Information :
================
 
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
   0 Active 6.0Gb/s   0x4433221100000000
-----------------------------------------
 
 
Inquiry Data =
40 00 ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 48 50 4c 57 31 35 36 37 31 30 52 59
30 38 52 30 4e 47 20 20 00 00 00 00 00 00 32 44
31 30 33 30 30 37 4e 49 45 54 20 4c 53 53 53 44
32 43 42 42 30 38 47 30 20 34 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 01 80
00 40 00 2f 00 40 00 00 00 00 07 00 ff 3f 10 00
3f 00 10 fc fb 00 01 bf ff ff ff 0f 00 00 07 00

# 查询VD 0的信息。

[root@rhel6u5 ~]# /opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
 
 
/c0/v0 :
======
 
---------------------------------------------------------
DG/VD TYPE  State Access Consist Cache sCC     Size Name
---------------------------------------------------------
1/0   RAID1 Optl  RW     Yes     RWTD  -   1.089 TB
---------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|B=Blocked|Consist=Consistent|
R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
 
PDs for VD 0 :
============
 
-----------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model            Sp
-----------------------------------------------------------------------
25:22    14 Onln   1 1.089 TB SAS  HDD N   N  512B ST1200MM0007     U
25:23    26 Onln   1 1.089 TB SAS  HDD N   N  512B ST1200MM0007     U
-----------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded
 
 
VD0 Properties :
==============
Strip Size = 256 KB
Number of Blocks = 2341795840
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 2
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = Disabled
Active Operations = None
Exposed to OS = Yes
Creation Date = 04-01-2018
Creation Time = 12:38:35 PM
Emulation type = None

12.7.2.4 查询和设置Patrolread参数

命令功能

查询和设置系统巡检的相关参数。

命令格式

storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number

storcli64 /ccontroller_id set patrolread delay=delaytime

storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}

storcli64 /ccontroller_id show patrolread

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

系统巡检起始时间

例如:2016/07/15 23

说明

起始时间单位为

number

可同时巡检的硬盘数量

delaytime

系统巡检周期

单位为hour

 

查看RAID控制卡ID的方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。

domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
--------------------------------------- 
Ctrl_Prop          Value 
--------------------------------------- 
PR Starttime       2016/07/15 23:00:00 
PR MaxConcurrentPd 2 
---------------------------------------

# 使能patrolread并设置为自动模式。

domino:~# ./storcli64 /c0 set patrolread=on mode=auto
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
--------------------------------------- 
Ctrl_Prop        Value 
--------------------------------------- 
Patrol Read Mode auto 
---------------------------------------

# 查询patrolread信息。

domino:~# ./storcli64 /c0 show patrolread
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
-------------------------------------------- 
Ctrl_Prop          Value 
-------------------------------------------- 
PR Mode       2016/07/15 23:00:00 
PR Execution Delay 
PR iterations completed 0 
PR Next Start time      07/16/2016,00:00:00 
PR on SSD               Disabled 
PR Current State        Stopped 
--------------------------------------------

12.7.2.5 查询和设置Spinup参数

命令功能

查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。

命令格式

storcli64 /ccontroller_id show spinupdelay

storcli64 /ccontroller_id show spinupdrivecount

storcli64 /ccontroller_id set spinupdelay=time

storcli64 /ccontroller_id set spinupdrivecount=count

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

每组起转硬盘间的时间间隔

默认为2,单位为s

count

上电时允许同时起转的硬盘数量

默认为4

 

查看RAID控制卡ID的方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡Spinup参数。

domino:~# ./storcli64 /c0 show spinupdelay
domino:~# ./storcli64 /c0 show spinupdelay
Controller = 0 
Status = Success 
Description = None 
Controller Properties: 
===================== 
-------------------------- 
Ctrl_Prop     Value 
-------------------------- 
Spin Up Delay 2 second(s) 
-------------------------- 
domino:~# ./storcli64 /c0 show spinupdrivecount
Controller = 0 
Status = Success 
Description = None 
Controller Properties: 
===================== 
-------------------------- 
Ctrl_Prop           Value 
-------------------------- 
Spin Up Drive Count 4 
--------------------------    

# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。

domino:~# ./storcli64 /c0 set spinupdelay=20
Controller = 0 
Status = Success 
Description = None 
Controller Properties: 
===================== 
-------------------------- 
Ctrl_Prop     Value 
-------------------------- 
Spin Up Delay 20 second(s) 
-------------------------- 
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0 
Status = Success 
Description = None 
Controller Properties: 
===================== 
-------------------------- 
Ctrl_Prop           Value 
-------------------------- 
Spin Up Drive Count 5 
--------------------------    

12.7.2.6 查询和设置硬盘数据擦除功能

命令功能

设置物理硬盘数据擦除模式,查询擦除进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

mode

数据擦除模式

l     simple:对硬盘进行一轮擦除动作。

l     normal:对硬盘进行三轮擦除动作。

l     thorough:对硬盘进行九轮擦除动作。

 

以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# slot 3硬盘进行simple数据擦除,并查询擦除进度。

domino:~# ./storcli64 /c0/e252/s3 start erase simple
Controller = 0 
Status = Success 
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0 
Status = Success 
Description = Show Drive Erse Status Succeeded. 
------------------------------------------------------ 
Drive-ID    Progress% Status      Estimated Time Left 
------------------------------------------------------ 
/c0/e252/s3         0 In progress 0 Seconds 
------------------------------------------------------     
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0 
Status = Success 
Description = Stop Drive Erase Succeeded.

12.7.2.7 查询和设置RAID后台初始化

命令功能

暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。

命令格式

storcli64 /ccontroller_id/vraid_id action bgi

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

action

后台初始化的操作

l     show:查看后台初始化进度

l     pause:暂停后台初始化

l     resume:继续后台初始化

l     stop:停止后台初始化

 

以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查看后台初始化进度。

domino:~# ./storcli64 /c0/v0 show bgi
Controller = 0 
Status = Success 
Description = Noe 
VD Operation Status : 
=================== 
------------------------------------------------------ 
VD Operation Progress% Staus      Estimated Time Left 
------------------------------------------------------ 
 0 BGI               3 In progress 53 Minutes 
------------------------------------------------------

12.7.2.8 查询和设置物理硬盘初始化功能

命令功能

设置物理硬盘初始化功能,查询初始化进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看初始化进度

l     start:开始初始化

l     stop:结束初始化

 

以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 初始化slot3硬盘,并查询初始化进度。

domino:~# ./storcli64 /c0/e252/s3 start initialization
Controller = 0 
Status = Success 
Description = Start Drive Initialization Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show initialization
Controller = 0 
Status = Success 
Description = Show Drive Initialization Status Succeeded. 
------------------------------------------------------ 
Drive-ID    Progress% Status      Estimated Time Left 
------------------------------------------------------ 
/c0/e252/s3         0 In progress 0 Seconds 
------------------------------------------------------   

12.7.2.9 查询和设置RAID重构

命令功能

开始、暂停、继续、停止RAID重构,并查询进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

action

要执行的操作

l     start:开始重构

l     show:查看重构进度

l     pause:暂停重构

l     resume:继续重构

l     stop:停止重构

 

查看RAID控制卡ID的方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 手动开始重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

# 查看硬盘当前重构状态。

[root@localhost ~]# ./storcli64 /c0/e70/s7 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e70/s7         5 In progress 26 Minutes
-----------------------------------------------------

# 暂停硬盘重构进程。

[root@localhost ~]# ./storcli64 /c0/e70/s7 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Succeeded.

# 继续重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 resume rebuild
Controller = 0
Status = Success
Description = Resume Drive Rebuild Succeeded.

# 停止重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 stop rebuild
Controller = 0
Status = Success
Description = Stop Drive Rebuild Succeeded.

12.7.2.10 查询和设置回拷

命令功能

开始、暂停、继续、停止回拷,并查询进度。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id start copyback target=target_enclosure_id:target_slot_id

开始回拷。

storcli64 /ccontroller_id/eenclosure_id/sslot_id action copyback

暂停、继续、查看、停止回拷。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

target_enclosure_id

执行回拷的目标硬盘所在EnclosureID

-

target_slot_id

执行回拷的目标物理硬盘槽位编号。

-

action

要执行的操作

l     show:查看回拷进度

l     pause:暂停回拷

l     resume:继续回拷

l     stop:停止回拷

 

查看RAID控制卡ID的方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 手动开始回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s7 start copyback target=70:3
Controller = 0
Status = Success
Description = Start Drive Copyback Succeeded.

# 查看硬盘当前回拷状态。

[root@localhost ~]# ./storcli64 /c0/e70/s3 show copyback
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e70/s3        17 In progress 16 Minutes
-----------------------------------------------------

# 暂停硬盘回拷进程。

[root@localhost ~]# ./storcli64 /c0/e70/s3 pause copyback
Controller = 0
Status = Success
Description = Pause Drive Copyback Succeeded.

# 继续回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s3 resume copyback
Controller = 0
Status = Success
Description = Resume Drive Copyback Succeeded.

# 停止回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s3 stop copyback
Controller = 0
Status = Success
Description = Stop Drive Copyback Succeeded.

12.7.2.11 查询和设置Smart扫描周期

命令功能

设置Smart扫描周期。

命令格式

storcli64 /ccontroller_id set smartpollinterval=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

value

Smart扫描周期

单位为s

 

查看RAID控制卡ID的方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置Smart扫描周期为“60s”。

domino:~# ./storcli64 /c0 set smartpollinterval=60
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
------------------------------- 
Ctrl_Prop         Value 
------------------------------- 
SmartPollInterval 60 second(s) 
-------------------------------

12.7.2.12 查询和设置一致性校验参数

命令功能

设置一致性校验参数。

命令格式

storcli64 /ccontroller_id[/vvd_id]show cc

storcli64 /ccontroller_id/vvd_id start cc force

storcli64 /ccontroller_id/vvd_id action cc

storcli64 /ccontroller_id set cc=conc delay=value starttime=time excludevd=evd_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要操作的RAIDID

action

要执行的操作

l     pause:暂停

l     resume:继续执行

l     stop:停止

value

一致性校验周期

time

一致性校验起始时间

例如:2016/07/14 22

说明

起始时间单位为

evd_id

不进行一致性校验的虚拟磁盘ID

 

以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

show命令中不带/vvd_id时,表示查询自动CC参数。

show命令中带/vvd_id时,表示查询CC进度。

使用实例

# 设置一致性自动检查参数。

domino:~# ./storcli64 /c0 set cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
------------------------------------ 
Ctrl_Prop      Value 
------------------------------------ 
CC Mode         CONC 
CC delay        1 
CC Starttime    2016/07/14 22:00:00 
CC ExcludeVD(0) Success  
------------------------------------

# 查询CC进度。

domino:~# ./storcli64 /c0/v1 show cc
Controller = 0 
Status = Success 
Description = None
VD Operation Status : 
=================== 
----------------------------------------------------------- 
VD Operation Progress% Status          Estimited Time Left 
----------------------------------------------------------- 
 0 CC        -         Not in progress - 
-----------------------------------------------------------

12.7.2.13 设置热备盘

命令功能

设置全局热备盘和局部热备盘。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive

设置全局热备盘。

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=<N|0,1,2..>]

设置局部热备盘。

storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive

删除热备盘。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

dgs

硬盘组的ID

l     不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘

l     0,1,2..:硬盘组ID

 

以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置slot 3硬盘为全局热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive
Controller = 0 
Status = Success 
Description = Add Hot Spare Succeeded. 

# 设置slot 3硬盘为vd0的局部热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive dgs=0
Controller = 0 
Status = Success 
Description = Add Hot Spare Succeeded.

12.7.2.14 设置启动项

命令功能

设置虚拟磁盘或物理硬盘为启动项。

命令格式

storcli64 /ccontroller_id/vvd_id set bootdrive=on

storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

vd_id

待设置的虚拟磁盘的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

 

以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置VD0为启动项。

domino:~# ./storcli64 /c0/v0 set bootdrive=on
Controller = 0 
Status = Success 
Description = Noe 
Detailed Status : 
=============== 
---------------------------------------- 
VD Property   Value Staus  ErrCd ErrMsg 
---------------------------------------- 
 0 Boot Drive On    Success    0 - 
----------------------------------------

# 设置slot 7硬盘为启动项。

domino:~# ./storcli64 /c0/e252/s7 set bootdrive=on
Controller = 0 
Status = Success 
Description = Noe 
Controller Properties : 
===================== 
------------------- 
Ctrl_Prop Value 
------------------- 
BootDrive PD:252_7 
-------------------

12.7.2.15 设置硬盘状态

命令功能

设置硬盘状态。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

state

要设置的硬盘状态

l     online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。

l     offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。

l     jbod:通过该参数可以将硬盘设置为直通硬盘。

l     good

     ubad状态的硬盘,使用该参数可将硬盘设为ugoodforeign)状态,此时可选择导入或清除外来配置;

     JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。

l     good:将硬盘设为空闲盘

force

强制设置硬盘状态,为可选参数。

如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force

-

 

以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。

domino:~# ./storcli64 /c0/e0/s1 set good
Controller = 0 
Status = Success 
Description = Set Drive Good Succeeded.

12.7.2.16 设置RAID组访问策略

命令功能

设置RAID的读写策略。

命令格式

storcli64 /ccontroller_id/vraid_id set accesspolicy=mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

mode

RAID读写策略

l     rw:可读可写

l     blocked:禁止访问

l     ro:只读访问

 

以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置RAID读写策略为“rw”。

domino:~# ./storcli64 /c0/v0 set accesspolicy=rw
Controller = 0 
Status = Success 
Description = None 
Details Status : 
============== 
--------------------------------------- 
VD Property  Value Status  ErrCd ErrMsg 
--------------------------------------- 
 0 AccPolicy RW    Success     0 - 
---------------------------------------

12.7.2.17 设置硬盘Cache状态

命令功能

设置RAID组成员盘的Cache状态。

命令格式

storcli64 /ccontroller_id/vvd_id set pdcache=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

RAID组的ID

-

action

要执行的操作

l     on:打开硬盘Cache

l     off:关闭硬盘Cache

l     default:将硬盘Cache设置为默认状态

 

以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 打开ID0RAID组的硬盘Cache

./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
---------------------------------------
VD Property Value Status  ErrCd ErrMsg
---------------------------------------
 0 PdCac    On    Success     0 -
---------------------------------------

12.7.2.18 设置紧急热备功能

命令功能

设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。

命令格式

storcli64 /ccontroller_id set eghs eug=state

storcli64 /ccontroller_id set eghs smarter=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

state

紧急热备功能的启用状态

l     on:启用

l     off:禁用

 

查看RAID控制卡ID的方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。

domino:~# ./storcli64 /c0 set eghs eug=on
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
------------------ 
Ctrl_Prop   Value 
------------------ 
EmergencyUG ON 
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
----------------------- 
Ctrl_Prop        Value 
----------------------- 
EmergencySmarter ON 
-----------------------

12.7.2.19 设置RAID前台初始化模式

命令功能

设置RAID前台初始化模式。

命令格式

storcli64 /ccontroller_id/vraid_id start mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

mode

前台初始化模式

l     init:只把RAID的首尾10MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。

l     init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。

 

以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 快速初始化RAID

domino:~# ./storcli64 /c0/v0 start init
Controller = 0 
Status = Success 
Description = Start INIT Operation Success

12.7.2.20 设置硬盘直通功能

命令功能

设置RAID控制卡的硬盘直通功能的使能情况。

Avago SAS3416iMR支持的Online状态与Unconfigured Good状态的硬盘之和最多为32个,当服务器配置的硬盘数超过32个时,请勿关闭RAID控制卡的硬盘直通功能,以免造成服务器重启导致“Online”状态下的硬盘变为“Ubad”状态的问题。

命令格式

storcli64 /ccontroller_id set jbod=state force

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

state

RAID控制卡JBOD功能的使能情况

l     on:使能RAID控制卡的硬盘直通功能。

l     off:关闭RAID控制卡的硬盘直通功能。

 

查看RAID控制卡ID的方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 使能RAID控制卡的硬盘直通功能。

domino:~# ./storcli64./c0 set jbod=on force
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
---------------- 
Ctrl_Prop Value 
---------------- 
JBOD      ON 
----------------

# 关闭RAID控制卡的硬盘直通功能。

domino:~# ./storcli64./c0 set jbod=off force
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
---------------- 
Ctrl_Prop Value 
---------------- 
JBOD      off 
----------------

12.7.2.21 设置硬盘定位指示灯状态

命令功能

点亮和熄灭指定硬盘的定位指示灯。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。

slot_id

物理硬盘槽位编号

可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。

action

要执行的操作

l     start:点亮硬盘的定位指示灯。

l     stop:熄灭硬盘的定位指示灯。

 

以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 点亮slot 7硬盘的定位指示灯。

domino:~# ./storcli64 /c0/e252/s7 start locate
Controller = 0 
Status = Success 
Description = Start Drive Locate Succeeded.

12.7.2.22 设置硬盘PowerSave功能

命令功能

设置空闲硬盘和热备盘的省电模式。

命令格式

storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

state

省电模式的启用状态。

l     on:启用

l     off:禁用

disktype

硬盘类型。

l     1:空闲硬盘

l     2:热备盘

time

等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。

单位为minutes

 

查看RAID控制卡ID的方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置空闲硬盘的省电模式。

domino:~# ./storcli64 /c0 set ds=on type=1 spindowntime=30
Controller = 0 
Status = Success 
Description = None 
Controller Properties: 
===================== 
-------------------------- 
Ctrl_Prop    Value 
-------------------------- 
SpnDwnUncDrv Enable 
SpnDwnTm     30 minutes 
--------------------------

12.7.2.23 设置后台资源占用率

命令功能

设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。

命令格式

storcli64 /ccontroller_id set action=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要设置的项目

l     bgirate:后台初始化速率

l     ccrate:一致性校验速率

l     prrate:硬盘巡检速率

l     rebuildrateRAID重构速率

l     reconrateRAID扩容和迁移速率

value

后台任务资源占用率

1100

 

查看RAID控制卡ID的方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置硬盘巡检速率为“30%”。

domino:~# ./storcli64 /c0 set prrate=30
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
----------------------- 
Ctrl_Prop        Value 
----------------------- 
Patrol Read Rate 30% 
-----------------------  

12.7.2.24 设置BIOS Stop on Error功能

命令功能

设置控制卡BIOS在检测到异常时停止继续启动的功能。

命令格式

storcli64 /ccontroller_id set bios mode=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要执行的操作

l     soe:控制卡BIOS在检测到异常时停止启动

l     ie:忽略检测到的异常

 

查看RAID控制卡ID的方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 开启Stop on error功能。

domino:~# ./storcli64 /c0 set bios mode=soe
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
---------------- 
Ctrl_Prop Value 
---------------- 
BIOS Mode SOE 
----------------

12.7.2.25 通过增加成员盘可用容量扩容RAID

命令功能

RAID2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

命令格式

storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要扩容的RAIDID

capacity

扩容后的容量

expandarray

当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。

 

以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查询VD的可扩展容量。

[root@localhost ~]# storcli64 /c0/v1 show expansion 
CLI Version = 007.1416.0000.0000 July 24, 2020 
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64 
Controller = 0 
Status = Success 
Description = None 
 
 
EXPANSION INFORMATION : 
===================== 
 
-------------------------------------------- 
VD      Size OCE NoArrExp WithArrExp Status 
-------------------------------------------- 
 1 10.000 GB Y   3.627 TB 5.447 TB   - 
-------------------------------------------- 
 
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion 
 VD=Virtual Drive | NoArrExp - Without Array Expansion

如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。

# VD0的容量扩大“200GB

domino:~# ./storcli64 /c0/v0 expand size=200GB
Controller = 0 
Status = Success 
Description = expansion operation succeeded. 
EXPANSION RESULT : 
================ 
-------------------------------------------------------------------------------- 
VD     Size FreSpc     ReqSize  AbsUsrSz   %FreSpc NewSize    Statsu NoArrExp 
-------------------------------------------------------------------------------- 
 0 100.0 GB 457.861 GB 200.0 GB 201.458 GB      44 301.458 GB -      457.861 GB 
-------------------------------------------------------------------------------- 
Size - Current VD size|FreSpc - Freespace available before expansion 
%FreSpc - Requested expansion size in % of available free space 
AbsUsrSz - User size rounded to nearest %

RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。

12.7.2.26 通过增加新盘扩容或迁移RAID

命令功能

RAID2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

当增加新盘后,可进行RAID级别迁移。

命令格式

storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

vd_id

要操作的RAIDID

slot_id

要加入RAID的新硬盘的槽位号

level

增加硬盘后RAID的级别

l     与原RAID级别相同时,该命令为扩大RAID容量。

l     与原RAID级别不同时,该命令为RAID级别迁移。

 

以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# RAID 0中增加slot 2硬盘扩容。

domino:~# ./storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2
Controller = 0 
Status = Success 
Description = Start MIGRATE Operation Success.     
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0 
Status = Success 
Description = None 
VD Operation Status : 
=================== 
------------------------------------------------------- 
VD Operation Progress% Status      Estimated Time Left 
------------------------------------------------------- 
 0 Migrate           1 In progress 13 Minutes 
-------------------------------------------------------  

# 单盘RAID 0加盘迁移至RAID 1

domino:~# ./storcli64 /c0/v0 start migrate type=r1 option=add drives=252:3
Controller = 0 
Status = Success 
Description = Start MIGRATE Operation Success.     
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0 
Status = Success 
Description = None 
VD Operation Status : 
=================== 
------------------------------------------------------- 
VD Operation Progress% Status      Estimated Time Left 
------------------------------------------------------- 
 0 Migrate           1 In progress 14 Minutes 
-------------------------------------------------------  

12.7.2.27 手动重构RAID

命令功能

手动重构RAID组。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row

storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

要加入Array的物理硬盘槽位编号

DG

硬盘发生故障的DGID

Arr

硬盘发生故障的ArrayID

Row

硬盘发生故障的Arrayrow number

 

以上涉及的各个ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

重构RAID3个步骤进行:

1.通过./storcli64 /c0 show 命令,查询故障硬盘的DGArrRow所对应的数字。

2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。

3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID

使用实例

# 将硬盘加入RAID组。

[root@localhost ~]# storcli64 /c0/e252/s1 insert dg=0 array=0 row=0
Controller = 0
Status = Success
Description = Insert Drive Succeeded.

# 手动重构RAID

[root@localhost ~]# storcli64 /c0/e252/s1 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

12.7.2.28 收集和清除RAID控制卡日志

命令功能

收集和清除RAID控制卡的日志。

命令格式

命令

说明

storcli64 /ccontroller_id show termlog [type=logtype] [logfile[=filename]]

收集RAID控制卡的日志。

storcli64 /ccontroller_id delete termlog

删除RAID控制卡的日志。

storcli64 /ccontroller_id show alilog [logfile[=filename]]

收集控制卡属性信息、TTY日志和事件到指定文件。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

logtype

查询日志类型。

l     config:查询TTY BBU缓存设置。

l     content:查询日志信息。

缺省值:content

filename

文件名称,将保存日志到此文件。

可自定义文件名称,缺省时将默认保存至“StorSAS.log”文件中。

 

查询RAID控制卡ID的查询方法请参见12.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 收集RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19  6:48:11: C0:TTY History buffer cleared
 
Controller = 0
Status = Success
Description = None

# 删除RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 delete termlog
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------------------
Ctrl Method Result
----------------------------
   0 Delete Termlog deleted
----------------------------

12.7.2.29 查看/导入/清除外部配置

命令功能

指导用户查看、导入或者清除RAID控制卡的外部配置。

命令格式

storcli64 /ccontroller_id/fall import preview

storcli64 /ccontroller_id/fall import

storcli64 /ccontroller_id/fall delete

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

 

使用指南

使用实例

# 查看RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall import preview
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
 
 
FOREIGN PREVIEW :
===============
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Total foreign drive groups = 0

# 删除RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall delete
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration

12.7.2.30 Snapdump相关操作

命令功能

介绍Snapdump相关操作。

命令格式

命令格式

说明

storcli64 /ccontroller_id  show snapdump

查询snapdump功能是否打开,是否有自动生成的snapdump文件。

storcli64 /ccontroller_id  get snapdump id=all

获取历史生成的snapdump文件。

storcli64 /ccontroller_id  get snapdump

获取历史生成的snapdump文件和当前再生成一个snapdump文件。

storcli64 /ccontroller_id  set snapdump state=on|off

打开和关闭snapdump功能。

storcli64 /ccontroller_id  delete snapdump force

删除历史snapdump日志功能。

 

参数说明

参数

参数说明

取值

controller_id

控制卡ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

state=on|off

Snapdump状态

on为开启,off为关闭

 

使用指南

l     Snapdump文件是一个日志文件,在一些RAID控制卡异常场景下可以自动生成的日志,也可以主动获取当前RAID控制卡的snapdump日志。

l     使用前可以先查询snapdump功能是否打开,是否有自动生成的snapdump文件,再去收集snapdump

l     获取历史生成的snapdump文件和当前再生成一个snapdump文件会影响业务,建议离线使用。

l     打开和关闭snapdump功能,如果无法打开注意看提示,请确认当前RAID控制卡固件版本是否支持。

l     收集snapdump文件在当前命令执行目录下,文件格式为snapdump_**************.zip

使用实例

#查询snapdump功能是否打开,是否有自动生成的snapdump文件。

[root@localhost ~]# storcli64 /c0 show snapdump
Controller = 0
Status = Success
Description = None
 
SnapDump Properties :
===================
 
----------------------------------
Ctrl_Prop              Value
----------------------------------
Snapdump               ON
Snapdump Save Count    N/A
Snapdump Delay OCR     15
Snapdump properties    Read-Write
Snapdump Current Count 2
----------------------------------
 
SnapDump Details :
================
 
----------------------------------------------
ID Snapdump Size Snapdump time       OnDemand
----------------------------------------------
0       2649396 08-06-2021 07:23:43 Yes
1       2070406 08-07-2021 06:59:24 Yes
----------------------------------------------

#获取历史生成的snapdump文件。

[root@localhost ~]# storcli64 /c0 get snapdump id=all
Controller = 0
Status = Success
Description = None

#获取历史生成的snapdump文件和当前再生成一个snapdump文件。

[root@localhost ~]# storcli64 /c0 get snapdump
Controller = 0
Status = Success
Description = Download Support Log

#打开和关闭snapdump功能。

打开:

[root@localhost ~]# storcli64 /c0 set snapdump state=on
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-------------------
Ctrl_Prop    Value
-------------------
Set Snapdump on
-------------------

关闭:

[root@localhost ~]# storcli64 /c0 set snapdump state=off
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-------------------
Ctrl_Prop    Value
-------------------
Set Snapdump off
-------------------

#删除历史snapdump日志功能。

[root@localhost ~]# storcli64 /c0 delete snapdump force
Controller = 0
Status = Success
Description = Snapdump delete

12.7.2.31 升级控制卡FW

命令功能

升级控制卡FW

命令格式

命令格式

说明

storcli64 /cController_ID download file=xxx.rom [noverchk]

升级控制卡FW

 

参数说明

参数

参数说明

取值

controller_id

控制卡ID

-

xxx.rom

固件包的名称

-

 

使用指南

l     使用noverchk参数时将不检查固件包,降级版本时必须使用此参数。

l     升级完成后,需重新上下电服务器使固件包生效。

使用实例

#升级控制卡FW

[root@localhost fw]# ./storcli64_arm /c0 download file =FW4.rom noverchk
Download Completed.
Flashing image to adapter...
Controller = 0
Status = Success
Description = F/W Flash Completed.Please reboot the system for the changes to take effect.


13 MSCC SmartRAID 3152-8i

关于本章

介绍MSCC SmartRAID 3152-8i RAID控制卡的外观、特性、以及配置方法。

本章节涉及的截图以2.93 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

12.1  概述

12.2  硬盘状态

12.3  功能

12.4  初始配置

12.5  常用任务

12.6  故障处理

12.7  管理界面介绍

12.8  OS命令行工具

13.1 概述

MSCC SmartRAID 3152-8i控制卡(以下简称3152-8i)提供212Gbit/smini SAS HD接口,支持PCIe 3.0接口,并支持最多8phy

3152-8i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

3152-8i自带的Cache对标卡性能的提升有非常重要的作用,主要体现在:

l     在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用 Cache后,整个设备的写数据速度得到提高。

l     在读数据时,如果可以直接在Cache中命中的话,将减少硬盘寻道操作,降低响应时间,提升了数据读速度。

3152-8i安装在服务器的PCIe槽位上,结构如13-1所示。

图13-1 3152-8i外观

 

13.2 硬盘状态

控制卡下属的物理硬盘有如13-1所示的状态。

表13-1 物理硬盘状态

状态

说明

Online

硬盘为某个虚拟磁盘的成员盘,可正常使用,处于在线状态。

Hot Spare

被设置为热备盘。

Failed

当“Online”状态或“Hot Spare”状态的硬盘出现不可恢复的错误时,会体现为此状态。

Rebuilding

硬盘正在进行数据重构,此时硬盘的性能会受一定程度的影响。

Not Supported

当前的控制卡不支持该硬盘,需要更换成RAID控制卡支持的硬盘。

RawPass Through

HBA模式下的裸盘。

Ready

硬盘可用于配置RAID组。

Mixed模式下的直通盘也会显示为该状态。

Predictive Failure

硬盘即将变为Failed状态,应备份硬盘上的数据,并更换硬盘。

Erase In Progress

硬盘正在进行擦除。

 

控制卡下创建的RAID组有如13-2所示的状态。

表13-2 RAID组状态

状态

说明

Optimal

RAID组状态良好,所有成员盘均在线。

Failed

故障或离线的硬盘数超过了RAID组可容忍的坏盘数。

Interim Recovery

RAID组降级,因为RAID组中存在故障盘,使得RAID组运行性能降低,数据可能丢失。要解决此问题,请检查硬盘是否正确连接设备,或更换故障的硬盘。

Rebuilding

RAID组正在从容错数据盘中进行重构。

Ready for Rebuild

准备执行重构。

 

13.3 功能

13.3.1 支持多种RAID级别

3152-8i最多支持238个硬盘,最多支持64Array,每个Array最多支持64LDLogical Drive),整张RAID控制卡所有Array最多支持64LD

Array即通常所说的硬盘组,每个Array可以包括1个或多个LD

3152-8i支持的RAID级别及对应的硬盘个数如13-3所示。

表13-3 RAID-硬盘参数

RAID级别

支持硬盘数

允许坏盘数

RAID 0

1 128

0

RAID 1

2

1

RAID 1ADM/RAID 1Triple

3

2

RAID 5

3 128a

1

RAID 6

4 128a

2

RAID 10

4 128 (偶数)

NPG数(每个NPG里最多只允许坏1个盘)

RAID 10ADM/RAID 10Triple

6 ~ 1283的倍数)

NPG x 2(每个NPG里最多只允许坏2个盘)

RAID 50

6 128b

NPG数(每个NPG里最多只允许坏1个盘)

RAID 60

8 128b

NPG x 2(每个NPG里最多只允许坏2个盘)

l     aRAID 5/6设置不同条带大小时,硬盘数量限制如下。

     当条带大小设置为1024KB时,支持的最大硬盘数为12

     当条带大小设置为512KB时,支持的最大硬盘数为24

     当条带大小设置为256KB时,支持的最大硬盘数为48

     当条带大小设置为128KB时,支持的最大硬盘数为96

l     bRAID 50/60设置不同条带大小时,硬盘数量限制如下。

     当条带大小设置为1024KB时,RAID 50支持的最大硬盘数为24

     当条带大小设置为512KB时,RAID 50支持的最大硬盘数为48

     当条带大小设置为256KB时,RAID 50支持的最大硬盘数为96

 

l     NPG数:NPG数的个数,例如RAID 50由两个RAID 5组成,则NPG数为2

l     MSCC SmartRAID 3152-8iFW版本4.72后将RAID 1ADM更名为RAID 1TripleRAID 10ADM更名为RAID 10Triple

13.3.2 支持多种工作模式

3152-8iRAID控制卡支持多种工作模式,具体如下:

l     RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS

l     HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。

l     Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。

l     Independent模式:允许Port CN0CN1使用不同的工作模式(FW版本5.32及之后版本支持,仅适用于直通背板)。

默认为“Mixed”模式。

13.3.3 硬盘热备份

热备盘用于替代Array故障成员盘的硬盘,在成员盘故障时承载故障盘中的数据。

3152-8i支持创建最多32个热备盘,使Array在有一个或多个与热备盘同类型的成员盘故障的情况下,可以由热备盘替代,防止Array的数据丢失和状态进一步恶化。

3152-8i支持dedicated spareauto replace spare两种类型的热备盘:

l     dedicated sparededicated模式的热备盘会作为Array的固定热备盘。当Array中某个硬盘发生故障,dedicated模式的热备盘会替代损坏盘并利用其他成员盘和冗余数据重构,生成损坏盘的数据。更换新的硬盘之后,新加入的硬盘会利用其它成员盘和数据继续重构,恢复Array的状态。Array的状态恢复完成后,热备盘恢复原始状态。该模式下的热备盘可以手动与所有的Array进行关联。

l     auto replace spareArray中某个硬盘发生故障时,auto replace模式的热备盘会替代故障盘并利用其他成员盘和冗余数据重构,生成故障盘的数据。当更换新的硬盘之后,原始热备盘中的数据继续作为Array的成员盘被使用,而新更换的硬盘将作为新的“热备盘”。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当Array的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为热备盘。

l     空闲硬盘可配置为热备盘,已加入Array的硬盘不能配置为热备盘。

l     热备盘必须和Array的成员盘类型相同,且容量不小于Array成员盘最大容量。

13.3.4 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

13.3.5 重构

具备冗余功能的Array的成员盘故障之后,热备盘自动替换故障数据盘并开始同步。

重构过程中如果服务器出现重启、下电再上电的情况,服务器上电后,重构将会从零重新开始。

13.3.6 硬盘分条

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数和数据传输率有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待,这时就是所谓的硬盘冲突。

条带化技术是一种自动将I/O负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

影响条带化效果的因素有:

l     条带宽度:指同时可以并发读或写的条带数量。

这个数量等于Array中的物理硬盘数量。增加条带宽度,可以增加Array的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。

在其他条件一样的前提下,一个由818G硬盘组成的阵列相比一个由436G硬盘组成的阵列具有更高的传输性能。

l     条带大小:指写在每块硬盘上的条带数据块的大小。

硬盘分条即把Array中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。

3152-8i支持多种条带大小,包括16KiB32KiB64KiB128KiB256KiB512KiB1024KiB,默认条带大小为256KiB

13.3.7 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

3152-8i可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在3152-8i下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。

直通模式下的硬盘发生故障时(通常指硬盘本身健康状态不佳),硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

13.3.8 擦除硬盘数据

3152-8i下挂载的硬盘支持安全擦除指定硬盘(Erase Disk/Secure Erase)。擦除硬盘彻底、耗时长。

数据擦除过程中,不能执行关机,重启,插拔硬盘等操作,否则会导致硬盘被损坏。

 

擦除数据完成后,所有的硬盘数据会被清除。请谨慎执行该操作。

13.3.9 容量扩展

3152-8i支持的容量扩展方式有两种:

l     通过增加硬盘方式扩容:在已存在的Array中添加新硬盘,扩大Array容量。

l     通过增加可用空间方式扩容:在LD未占用Array全部容量时,可通过调整LD的可用空间,扩大LD容量

该功能需要下载PMC官方发布的arcconf工具才可进行配置。arcconf工具的下载和安装方法请参见13.8.1 下载和安装ARCCONF工具

13.3.10 读写高速缓存

3152-8i支持三种加速方法,分别为:

l     maxCache:利用SSD盘组成的RAID组作为高速缓存,为RAID组进行加速。

l     Controller cache:利用控制卡的DDR作为高速缓存,为RAID组进行加速。

l     SSD IO Bypass:该特性只适用于由SSD组成的RAID组,数据I/O直通到RAID组,不经过RAID控制卡的Cache

推荐使用Controller cache

LD的加速方法设置为“Controller Cache”,且读写比例未设置成0:100100:0时,读Cache和写Cache同时被使用。

3152-8i支持数据Cache读写,极大提高了数据读写性能。

设置控制卡LD的读写比例的方法请参见13.7.3.1 Modify Controller Settings

13.3.11 数据掉电保护

当服务器进行大量写操作时,由于将数据写入高速缓存的速度大于数据写入硬盘的速度:

l     开启高速缓存可提升整机写性能,当服务器写压力减小或高速缓存将写满时,数据再由高速缓存写入硬盘。

l     开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。

为了提升整机的高读写性能和高速缓存中数据的安全,可为RAID控制卡配置超级电容。

服务器电源正常时,由服务器电源对高速缓存供电;服务器异常掉电时,超级电容给RAID控制卡、NAND Flash和高速缓存供电,保证高速缓存中的数据转移到NAND Flash中永久保存,数据转移完成后超级电容停止供电。这样就可以在服务器异常掉电时,确保数据安全。在服务器正常上电时,RAID控制卡对高速缓存供电,确保缓存正常使用。

13.3.12 外部配置导入

当包含RAID配置信息的硬盘插入服务器后,服务器在启动过程中识别到当前硬盘配置符合该外部配置要求时,自动导入外部配置。

13.4 初始配置

BIOS中“Boot Type”设置为“UEFI Boot”模式时,打开的管理界面如下所述。

文档中描述的关于3152-8i的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“ARCCONF”命令行工具。

13.4.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如13-2所示界面时,按“Delete”。

图13-2 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如13-3所示界面。

图13-3 Setup Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如13-4所示。

图13-4 “Advanced”页签

 

                                步骤 5     选择“MSCC SmartRAID 3152-8i”,按“Enter”。

进入如13-5所示界面,参数说明如13-4所示。

图13-5 MSCC SmartRAID 3152-8i控制卡主界面

 

表13-4 参数说明

参数

说明

Controller Information

查看控制卡相关的基本信息。

Configure Controller Settings

设置控制卡的相关属性。

Array Configuration

创建与管理Array

Disk Utilities

查看与管理控制卡的硬盘。

Set Bootable Device(s) for Legacy Boot Mode

设置控制卡在Legacy模式下的第一启动盘与第二启动盘。

Administration

控制卡的其他相关操作,包括更新Firmware,收集RAID控制卡日志,恢复RAID控制卡参数为出厂配置等。

 

----结束

13.4.2 创建RAID 0

操作场景

 

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见13.5.5 设置RAID控制卡工作模式

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     3152-8i支持的硬盘类型为SAS/SATA HDDSATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     RAID级别所需的硬盘数请参见13.3.1 支持多种RAID级别

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见13.4.1 登录管理界面

                                步骤 1     13-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create Array

进入成员盘选择界面,如13-6所示。

图13-6 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array

l     硬盘状态为“×”时表示硬盘被选中。

l     RAID 0支持的硬盘个数为1~128

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如13-7所示。

图13-7 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID0”,并选择“Proceed to next Form”。

进入Array属性配置界面,如13-8所示,参数说明如13-5所示。

图13-8 配置Array属性

 

表13-5 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size

Size

整个LD的容量大小。

Unit Size

LD的容量计算单位。

SSD Over Provisioning Optimization

设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning

l     Disabled

l     Enabled

说明

l     只有当RAID组由SSD组成时,才能设置该属性。

l     该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。

Acceleration Method

设置LD所采用的加速方法(推荐使用Controller cache)。

l     IO Bypass(只有当LDSSD组成时,该选项有效)

l     Controller cache(同时使用读Cache和写Cache

l     None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。)

Submit Changes

确认修改。

 

                                步骤 6     按照13-5所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 7     (可选)创建多个LD

Array的容量小于最大值时,才可进行此操作。

1.     13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如13-9所示。

图13-9 Manage Arrays

 

2.     选择要创建多个LDArray并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤7

此处根据实际需求,可创建多个LD

                                步骤 8     检查配置结果。具体操作请参见13.5.1 查看和修改Array属性

                                步骤 9     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见13.5.7 设置物理硬盘Cache

----结束

13.4.3 创建RAID 1

操作场景

 

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见13.5.5 设置RAID控制卡工作模式

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     3152-8i支持的硬盘类型为SAS/SATA HDDSATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     RAID级别所需的硬盘数请参见13.3.1 支持多种RAID级别

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见13.4.1 登录管理界面

                                步骤 1     13-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create Array

进入成员盘选择界面,如13-10所示。

图13-10 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array

l     硬盘状态为“×”时表示硬盘被选中。

l     RAID 1支持的硬盘个数为2

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如13-11所示。

图13-11 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID1”,并选择“Proceed to next Form”。

进入Array属性配置界面,如13-12所示,参数说明如13-6所示。

图13-12 配置Array属性

 

表13-6 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size

Size

整个LD的容量大小。

Unit Size

LD的容量计算单位。

SSD Over Provisioning Optimization

设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning

l     Disabled

l     Enabled

说明

l     只有当RAID组由SSD组成时,才能设置该属性。

l     该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。

Acceleration Method

设置LD所采用的加速方法(推荐使用Controller cache)。

l     IO Bypass(只有当LDSSD组成时,该选项有效)

l     Controller cache(同时使用读Cache和写Cache

l     None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。)

Submit Changes

确认修改。

 

                                步骤 6     按照13-6所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 7     (可选)创建多个LD

Array的容量小于最大值时,才可进行此操作。

1.     13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如13-13所示。

图13-13 Manage Arrays

 

2.     选择要创建多个LDArray并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤7

此处根据实际需求,可创建多个LD

                                步骤 8     检查配置结果。具体操作请参见13.5.1 查看和修改Array属性

                                步骤 9     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见13.5.7 设置物理硬盘Cache

----结束

13.4.4 创建RAID 1ADM

操作场景

 

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见13.5.5 设置RAID控制卡工作模式

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     3152-8i支持的硬盘类型为SAS/SATA HDDSATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     RAID级别所需的硬盘数请参见13.3.1 支持多种RAID级别

l     MSCC SmartRAID 3152-8iFW版本4.72后将RAID 1ADM更名为RAID 1Triple

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见13.4.1 登录管理界面

                                步骤 1     13-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create Array

进入成员盘选择界面,如13-14所示。

图13-14 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array

l     硬盘状态为“×”时表示硬盘被选中。

l     RAID 1ADM支持的硬盘个数为3

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如13-15所示。

图13-15 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID1(ADM)”,并选择“Proceed to next Form”。

进入Array属性配置界面,如13-16所示,参数说明如13-7所示。

图13-16 配置Array属性

 

表13-7 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size

Size

整个LD的容量大小。

Unit Size

LD的容量计算单位。

SSD Over Provisioning Optimization

设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning

l     Disabled

l     Enabled

说明

l     只有当RAID组由SSD组成时,才能设置该属性。

l     该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。

Acceleration Method

设置LD所采用的加速方法(推荐使用Controller cache)。

l     IO Bypass(只有当LDSSD组成时,该选项有效)

l     Controller cache(同时使用读Cache和写Cache

l     None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。)

Submit Changes

确认修改。

 

                                步骤 6     按照13-7所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 7     (可选)创建多个LD

Array的容量小于最大值时,才可进行此操作。

1.     13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如13-17所示。

图13-17 Manage Arrays

 

2.     选择要创建多个LDArray并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤7

此处根据实际需求,可创建多个LD

                                步骤 8     检查配置结果。具体操作请参见13.5.1 查看和修改Array属性

                                步骤 9     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见13.5.7 设置物理硬盘Cache

----结束

13.4.5 创建RAID 10

操作场景

 

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见13.5.5 设置RAID控制卡工作模式

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     3152-8i支持的硬盘类型为SAS/SATA HDDSATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     RAID级别所需的硬盘数请参见13.3.1 支持多种RAID级别

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见13.4.1 登录管理界面

                                步骤 1     13-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create Array

进入成员盘选择界面,如13-18所示。

图13-18 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array

l     硬盘状态为“×”时表示硬盘被选中。

l     RAID 10支持的硬盘个数为4~128(偶数)。

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如13-19所示。

图13-19 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID1+0”,并选择“Proceed to next Form”。

进入Array属性配置界面,如13-20所示,参数说明如13-8所示。

图13-20 配置Array属性

 

表13-8 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size

Size

整个LD的容量大小。

Unit Size

LD的容量计算单位。

SSD Over Provisioning Optimization

设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning

l     Disabled

l     Enabled

说明

l     只有当RAID组由SSD组成时,才能设置该属性。

l     该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。

Acceleration Method

设置LD所采用的加速方法(推荐使用Controller cache)。

l     IO Bypass(只有当LDSSD组成时,该选项有效)

l     Controller cache(同时使用读Cache和写Cache

l     None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。)

Submit Changes

确认修改。

 

                                步骤 6     按照13-8所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 7     (可选)创建多个LD

Array的容量小于最大值时,才可进行此操作。

1.     13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如13-21所示。

图13-21 Manage Arrays

 

2.     选择要创建多个LDArray并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤7

此处根据实际需求,可创建多个LD

                                步骤 8     检查配置结果。具体操作请参见13.5.1 查看和修改Array属性

                                步骤 9     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见13.5.7 设置物理硬盘Cache

----结束

13.4.6 创建RAID 10ADM

操作场景

 

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见13.5.5 设置RAID控制卡工作模式

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     3152-8i支持的硬盘类型为SAS/SATA HDDSATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     RAID级别所需的硬盘数请参见13.3.1 支持多种RAID级别

l     MSCC SmartRAID 3152-8iFW版本4.72后将RAID 10ADM更名为RAID 10Triple

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见13.4.1 登录管理界面

                                步骤 1     13-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create Array

进入成员盘选择界面,如13-22所示。

图13-22 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array

l     硬盘状态为“×”时表示硬盘被选中。

l     RAID 10ADM支持的硬盘个数为6~128

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如13-23所示。

图13-23 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID10(ADM)”,并选择“Proceed to next Form”。

进入Array属性配置界面,如13-24所示,参数说明如13-9所示。

图13-24 配置Array属性

 

表13-9 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size

Size

整个LD的容量大小。

Unit Size

LD的容量计算单位。

SSD Over Provisioning Optimization

设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning

l     Disabled

l     Enabled

说明

l     只有当RAID组由SSD组成时,才能设置该属性。

l     该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。

Acceleration Method

设置LD所采用的加速方法(推荐使用Controller cache)。

l     IO Bypass(只有当LDSSD组成时,该选项有效)

l     Controller cache(同时使用读Cache和写Cache

l     None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。)

Submit Changes

确认修改。

 

                                步骤 6     按照13-9所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 7     (可选)创建多个LD

Array的容量小于最大值时,才可进行此操作。

1.     13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如13-25所示。

图13-25 Manage Arrays

 

2.     选择要创建多个LDArray并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤7

此处根据实际需求,可创建多个LD

                                步骤 8     检查配置结果。具体操作请参见13.5.1 查看和修改Array属性

                                步骤 9     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见13.5.7 设置物理硬盘Cache

----结束

13.4.7 创建RAID 5

操作场景

 

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见13.5.5 设置RAID控制卡工作模式

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     3152-8i支持的硬盘类型为SAS/SATA HDDSATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     RAID级别所需的硬盘数请参见13.3.1 支持多种RAID级别

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见13.4.1 登录管理界面

                                步骤 1     13-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create Array

进入成员盘选择界面,如13-26所示。

图13-26 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array

l     硬盘状态为“×”时表示硬盘被选中。

l     RAID 5支持的硬盘个数为3~128

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如13-27所示。

图13-27 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID5”,并选择“Proceed to next Form”。

进入Array属性配置界面,如13-28所示,参数说明如13-10所示。

图13-28 配置Array属性

 

表13-10 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size

Size

整个LD的容量大小。

Unit size

LD的容量计算单位。

Parity Initialization Method

设置校验初始化的方法。

l     Default:在线进行后台校验初始化,选择该模式的LD会立即上报给OS,在后台进行校验初始化,对性能有一定程度的影响。

l     Rapid:离线进行快速初始化,初始化完成后才会上报给OS

说明

该选项只在创建RAID5/50/6/60的时候出现。

SSD Over Provisioning optimization

设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning

l     Disabled

l     Enabled

说明

l     只有当RAID组由SSD组成时,才能设置该属性。

l     该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。

Acceleration method

设置LD所采用的加速方法(推荐使用Controller cache)。

l     IO Bypass(只有当LDSSD组成时,该选项有效)

l     Controller cache(同时使用读Cache和写Cache

l     None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。)

Submit Changes

确认修改。

 

                                步骤 6     按照13-10所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 7     (可选)创建多个LD

Array的容量小于最大值时,才可进行此操作。

1.     13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如13-29所示。

图13-29 Manage Arrays

 

2.     选择要创建多个LDArray并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤7

此处根据实际需求,可创建多个LD

                                步骤 8     检查配置结果。具体操作请参见13.5.1 查看和修改Array属性

                                步骤 9     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见13.5.7 设置物理硬盘Cache

----结束

13.4.8 创建RAID 50

操作场景

 

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见13.5.5 设置RAID控制卡工作模式

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     3152-8i支持的硬盘类型为SAS/SATA HDDSATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     RAID级别所需的硬盘数请参见13.3.1 支持多种RAID级别

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见13.4.1 登录管理界面

                                步骤 1     13-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create Array

进入成员盘选择界面,如13-30所示。

图13-30 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array

l     硬盘状态为“×”时表示硬盘被选中。

l     RAID 50支持的硬盘个数为6~128

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如13-31所示。

图13-31 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID50”,并选择“Proceed to next Form”。

进入NPG设置界面,如13-32所示。

图13-32 设置NPG

 

NPGLD包含的子组数,如设置为“2”时表示RAID 50包含两个RAID 5

RAID50的每个NPG中需要包含3个或3个以上硬盘,且每个NPG中包含的硬盘数必须一致。

                                步骤 6     设置RAID 50NPG个数,选择“Proceed to next Form”并按“Enter”。

进入Array属性配置界面,如13-33所示,参数说明如13-11所示。

图13-33 配置Array属性

 

表13-11 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size

Size

整个LD的容量大小。

Unit size

LD的容量计算单位。

Parity Initialization Method

设置校验初始化的方法。

l     Default:在线进行后台校验初始化,选择该模式的LD会立即上报给OS,在后台进行校验初始化,对性能有一定程度的影响。

l     Rapid:离线进行快速初始化,初始化完成后才会上报给OS

说明

该选项只在创建RAID5/50/6/60的时候出现。

SSD Over Provisioning optimization

设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning

l     Disabled

l     Enabled

说明

l     只有当RAID组由SSD组成时,才能设置该属性。

l     该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。

Acceleration method

设置LD所采用的加速方法(推荐使用Controller cache)。

l     IO Bypass(只有当LDSSD组成时,该选项有效)

l     Controller cache(同时使用读Cache和写Cache

l     None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。)

Submit Changes

确认修改。

 

                                步骤 7     按照13-11所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 8     (可选)创建多个LD

Array的容量小于最大值时,才可进行此操作。

1.     13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如13-34所示。

图13-34 Manage Arrays

 

2.     选择要创建多个LDArray并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤8

此处根据实际需求,可创建多个LD

                                步骤 9     检查配置结果。具体操作请参见13.5.1 查看和修改Array属性

                             步骤 10     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见13.5.7 设置物理硬盘Cache

----结束

13.4.9 创建RAID 6

操作场景

 

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见13.5.5 设置RAID控制卡工作模式

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     3152-8i支持的硬盘类型为SAS/SATA HDDSATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     RAID级别所需的硬盘数请参见13.3.1 支持多种RAID级别

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见13.4.1 登录管理界面

                                步骤 1     13-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create Array

进入成员盘选择界面,如13-35所示。

图13-35 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array

l     硬盘状态为“×”时表示硬盘被选中。

l     RAID 6支持的硬盘个数为4~128

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如13-36所示。

图13-36 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID6ADG)”,并选择“Proceed to next Form”。

进入Array属性配置界面,如13-37所示,参数说明如13-12所示。

图13-37 配置Array属性

 

表13-12 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size

Size

整个LD的容量大小。

Unit size

LD的容量计算单位。

Parity Initialization Method

设置校验初始化的方法。

l     Default:在线进行后台校验初始化,选择该模式的LD会立即上报给OS,在后台进行校验初始化,对性能有一定程度的影响。

l     Rapid:离线进行快速初始化,初始化完成后才会上报给OS

说明

该选项只在创建RAID5/50/6/60的时候出现。

SSD Over Provisioning optimization

设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning

l     Disabled

l     Enabled

说明

l     只有当RAID组由SSD组成时,才能设置该属性。

l     该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。

Acceleration method

设置LD所采用的加速方法(推荐使用Controller cache)。

l     IO Bypass(只有当LDSSD组成时,该选项有效)

l     Controller cache(同时使用读Cache和写Cache

l     None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。)

Submit Changes

确认修改。

 

                                步骤 6     按照13-12所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 7     (可选)创建多个LD

Array的容量小于最大值时,才可进行此操作。

1.     13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如13-38所示。

图13-38 Manage Arrays

 

2.     选择要创建多个LDArray并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤7

此处根据实际需求,可创建多个LD

                                步骤 8     检查配置结果。具体操作请参见13.5.1 查看和修改Array属性

                                步骤 9     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见13.5.7 设置物理硬盘Cache

----结束

13.4.10 创建RAID 60

操作场景

 

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见13.5.5 设置RAID控制卡工作模式

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     3152-8i支持的硬盘类型为SAS/SATA HDDSATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     RAID级别所需的硬盘数请参见13.3.1 支持多种RAID级别

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见13.4.1 登录管理界面

                                步骤 1     13-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create Array

进入成员盘选择界面,如13-39所示。

图13-39 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array

l     硬盘状态为“×”时表示硬盘被选中。

l     RAID 60支持的硬盘个数为8~128

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如13-40所示。

图13-40 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID60”,并选择“Proceed to next Form”。

进入NPG设置界面,如13-41所示。

图13-41 设置NPG

 

l     NPGLD包含的子组数,如设置为“2”时表示RAID 60包含两个RAID 6

l     RAID60的每个NPG中需要包含4个或4个以上硬盘,且每个NPG中包含的硬盘数必须一致。

                                步骤 6     设置RAID 60NPG个数,选择“Proceed to next Form”并按“Enter”。

进入Array属性配置界面,如13-42所示,参数说明如13-13所示。

图13-42 配置Array属性

 

表13-13 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size

Size

整个LD的容量大小。

Unit size

LD的容量计算单位。

Parity Initialization Method

设置校验初始化的方法。

l     Default:在线进行后台校验初始化,选择该模式的LD会立即上报给OS,在后台进行校验初始化,对性能有一定程度的影响。

l     Rapid:离线进行快速初始化,初始化完成后才会上报给OS

说明

该选项只在创建RAID5/50/6/60的时候出现。

SSD Over Provisioning optimization

设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning

l     Disabled

l     Enabled

说明

l     只有当RAID组由SSD组成时,才能设置该属性。

l     该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。

Acceleration method

设置LD所采用的加速方法(推荐使用Controller cache)。

l     IO Bypass(只有当LDSSD组成时,该选项有效)

l     Controller cache(同时使用读Cache和写Cache

l     None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。)

Submit Changes

确认修改。

 

                                步骤 7     按照13-13所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 8     (可选)创建多个LD

Array的容量小于最大值时,才可进行此操作。

1.     13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如13-43所示。

图13-43 Manage Arrays

 

2.     选择要创建多个LDArray并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤8

此处根据实际需求,可创建多个LD

                                步骤 9     检查配置结果。具体操作请参见13.5.1 查看和修改Array属性

                             步骤 10     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见13.5.7 设置物理硬盘Cache

----结束

13.5 常用任务

13.5.1 查看和修改Array属性

操作步骤

13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入

进入“Manage Arrays”界面,如13-44所示。

图13-44 “Manage Arrays”界面

 

                                步骤 2     选择要进行查看的Array,并按“Enter”。

进入Array操作界面,如13-45所示,参数说明如13-14所示。

图13-45 Array相关操作

 

表13-14 参数说明

参数

说明

Array Type

Array的类型。

List Logical Drives

逻辑盘相关的接口,可查看、修改逻辑盘的属性,删除逻辑盘等。

Create Logical Drive

创建逻辑盘。

IO Bypass Settings

设置SSD在不使用Controller Cache时的逻辑盘加速方法。

说明

l     该特性即为13.3.10 读写高速缓存所述的“SSD IO Bypass”

l     SSD组成的RAID组在使能Controller cache的情况下无法使能IO Bypass功能。如需使能IO Bypass,需要先禁用RAID组的Controller Cache,再使能IO Bypass

Manage Spare Drives

热备盘相关的接口,可创建,删除热备盘等。

Identify Device

点亮/熄灭硬盘locate灯。

Delete Array

删除Array

 

----结束

查看LD的属性

13-45中选择“List Logical Drive”并按“Enter”。

进入LD列表。

                                步骤 1     选择要进行查看的LD并按“Enter”。

进入LD相关操作界面,如13-46所示,参数说明如13-15所示。

图13-46 LD相关操作

 

表13-15 参数说明

参数

说明

Logical Drive Details

查看LD的相关属性。

Edit Logical Drive

修改LD的相关属性。

Delete Logical Drive

删除LD

 

                                步骤 2     选择“Logical Drive Details”并按“Enter”。

显示LD的相关属性,如13-47所示,界面参数如13-16所示。

图13-47 LD相关属性

 

表13-16 参数说明

参数

说明

Status

当前LD的状态。

Size

整个LD的容量大小。

RAID level

当前LDRAID级别。

Legacy disk geometryC/H/S

当前LD所处的硬盘几何位置。

Strip Size

整个LD的单个NPG条带大小。

说明

NPGLD包含的子组数,如RAID 50包含两个RAID 5时,则RAID 50NPG2

Full Stripe Size

整个LD的分条大小。

Number of Parity GroupsNPG

整个LDNPG数量。

说明

LD的级别为“RAID 50”“RAID 60”时,显示该参数。

Logical Drive Label

LD的自定义标签。

Acceleration Method

LD的加速方法。

Logical Drive Members

LD的物理成员盘。

 

----结束

修改LD的属性

13-45中选择“Edit Logical Drive”并按“Enter”。

进入LD列表。

                                步骤 1     选择要修改属性的LD并按“Enter”。

进入LD相关操作界面,如13-48所示,参数说明如13-17所示。

图13-48 LD相关操作

 

表13-17 参数说明

参数

说明

Acceleration Method

修改LD所采用的加速方法。

l     IO Bypass(只有当LDSSD组成时,该选项有效)

l     Controller cache(同时使用读Cache和写Cache

l     None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。)

Logical Drive Label

修改LD的自定义标签。

Submit Changes

确认修改。

 

                                步骤 2     依照13-17说明修改LD的相关属性。

                                步骤 3     选择“Submit Changes”并按“Enter”。

----结束

13.5.2 配置热备盘

操作场景

对服务器的硬盘进行Array分组后,一般会配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     3152-8i支持dedicated spareauto replace spare两种类型的热备盘,具体介绍请参见13.3.3 硬盘热备份

l     只有当“Spare Activation Mode”(热备盘的激活模式)设置为“Predictive Spare Activation”时,RAID0才支持配置热备盘。具体方法请参见13.7.3.1 Modify Controller Settings

必备事项

前提条件

l     服务器存在空闲硬盘。

l     已登录管理界面,具体操作请参见13.4.1 登录管理界面

数据

该操作无需准备数据。

操作步骤

13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入

进入“Manage Arrays”界面,如13-49所示。

图13-49 “Manage Arrays”界面

 

                                步骤 2     选择要创建热备盘的Array并按“Enter”。

                                步骤 3     选择“Manage Spare Drives”并按“Enter”。

进入热备盘类型选择界面,如13-50所示,参数说明如13-18所示。

图13-50 选择热备盘类型

 

表13-18 参数说明

参数

说明

Assign Dedicated Spare

设置硬盘为dedicated spare drive

dedicated模式的热备盘会作为Array的固定热备盘。当Array中某个硬盘发生故障,dedicated模式的热备盘会替代损坏盘并利用其他成员盘和冗余数据重构,生成损坏盘的数据。新加入的硬盘会利用其它成员盘和数据继续重构,恢复Array的状态。Array的状态恢复完成后,热备盘恢复原始状态。

该模式下的热备盘可以手动与所有的Array进行关联。

Assign Auto Replace Spare

设置硬盘为auto replace drives

该模式下,Array中某个硬盘发生故障时,auto replace模式的热备盘会替代故障盘并利用其他成员盘和冗余数据重构,生成故障盘的数据。当更换新的硬盘之后,原始热备盘中的数据继续作为Array的成员盘被使用,而新更换的硬盘将作为新的“热备盘”。

该模式下的热备盘只能作为某一个Array的热备盘。

 

                                步骤 4     按照13-18所述,选择要设置的热备盘类型,并按“Enter”。

进入硬盘选择界面。

                                步骤 5     选择要设置的硬盘并按“Enter”。

没有加入Array且与Array成员盘类型一致的硬盘可设置为热备盘。建议使用与Array的成员盘型号、容量一致的硬盘作为热备盘。

                                步骤 6     选择“Assign Dedicated Spare”或“Assign Auto Replace Spare”并按“Enter”。

提示操作成功。

----结束

13.5.3 删除热备盘

操作场景

当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

操作步骤

13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入

进入“Manage Arrays”界面,如13-51所示。

图13-51 “Manage Arrays”界面

 

                                步骤 2     选择要进行操作的Array并按“Enter”。

                                步骤 3     选择“Manage Spare Drives”并按“Enter”。

进入“Manage Spare Drives”界面,如13-52所示。

图13-52 Manage Spare Drives

 

                                步骤 4     选择“Delete Spare Drives”并按“Enter”。

进入硬盘选择界面,如13-53所示。

图13-53 选择硬盘

 

                                步骤 5     选择要删除的热备盘并按“Enter”。

                                步骤 6     选择“Delete Spare Drives”并按“Enter”。

提示操作成功。

----结束

13.5.4 删除Array

操作场景

当服务器不需要Array或重新配置Array时,要先删除当前Array配置来释放硬盘。

 

删除Array后,Array上的所有数据和Array下的所有LD都将被删除,请谨慎执行删除Array操作。

必备事项

前提条件

l     已创建Array

l     已登录管理界面,具体操作请参见13.4.1 登录管理界面

数据

待删除Array中的数据已备份。

操作步骤

13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入“Manage Arrays”界面,如13-54所示。

图13-54 “Manage Arrays”界面

 

                                步骤 2     选择要删除的Array并按“Enter”。

                                步骤 3     选择“Delete Array”并按“Enter”。

进入操作确认界面。

                                步骤 4     按“Enter”。

提示操作成功。

----结束

13.5.5 设置RAID控制卡工作模式

l     当背板类型为直通背板时,可通过本章节的指导,分别设置Connector 0Connector 1的工作模式,也可通过设置“Configure Controller Port Mode”参数,将所有Connector的工作模式同时设置为同一模式。具体操作请参见13.7.3.8 Configure Controller Port Mode

l     当背板类型为Expander时,只能通过设置“Configure Controller Port Mode”参数,将RAID控制卡的工作模式同时设置为同一模式。具体操作请参见13.7.3.8 Configure Controller Port Mode

操作步骤

进入“Modify Controller Settings”界面。

1.     13-5界面中,按照“Configure Controller Settings>Modify Controller Settings”的顺序进入“Modify Controller Settings”界面,如13-55所示。

图13-55 Modify Controller Settings”界面

 

                                步骤 2     设置Connector 0的工作模式。

1.     选择“Port CN0 Mode”并按“Enter”。

弹出工作模式选择菜单。

RAID控制卡支持多种工作模式,分别为:

l     RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS

l     Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。

l     HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。

默认为“Mixed”模式。

2.     根据实际需要选择要设置的工作模式,并按“Enter”。

                                步骤 3     设置Connector 1的工作模式。

1.     选择“Port CN1 Mode”并按“Enter”。

2.     根据实际需要选择要设置的工作模式,并按“Enter”。

两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。

                                步骤 4     选择“Submit Changes”并按“Enter”。

提示操作成功。

----结束

13.5.6 管理maxCache Array

13.5.6.1 创建maxcache Array

 

l     maxcache支持的RAID级别为RAID 0/1/10/5

l     创建之前请确认服务器已存在RAID组。

l     创建之前请确认RAID控制卡已配置超级电容且超级电容状态正常。查看超级电容状态的方法请参见13.7.3.5 Backup Power Source

l     加入到maxCache Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     必须使用同类型同规格的硬盘创建maxCache Array

l     RAID级别所需的硬盘数请参见13.3.1 支持多种RAID级别

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见13.4.1 登录管理界面

                                步骤 1     13-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create MaxCache Array

进入成员盘选择界面,如13-56所示。

图13-56 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array

硬盘状态为“×”时表示硬盘被选中。

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如13-57所示。

图13-57 选择RAID级别

 

                                步骤 5     选择要配置的Array级别,并选择“Proceed to next Form”。

进入Array属性配置界面,如13-58所示,参数说明如13-19所示。

图13-58 配置Array属性

 

表13-19 参数说明

参数

说明

Size

整个LD的容量大小。

说明

创建Array时,会默认为Array创建一个LD。此处指创建的LD容量大小。

Unit size

LD的容量计算单位。

l     TiB

l     GiB

l     MiB

Cache Write Policy

LDCache写策略。

l     Write-Back:当SSD组成的maxCache LD收到所有传输数据后,将给主机返回数据传输完成信号。

l     Write-Through:当硬盘子系统接收到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。

说明

只有Cache的写策略设置为“Write-Back”时,maxCache才能为Array加速。

Cache Line Size

maxcahce创建时的参数之一,该参数可以设置的值有64/128/256,默认值为64,该值越大,maxcache LD能够创建的容量上限越大。

Submit Changes

确认修改。

 

                                步骤 6     按照13-19所述配置Array属性,选择“Submit Changes”并按“Enter”。

进入Array选择界面,如13-59所示。

图13-59 选择目标Array

 

此处显示服务器当前存在的所有由HDD组成的Array

                                步骤 7     选择maxCache Array加速的目标Array,并按“Enter”。

提示操作成功,如13-60所示。

图13-60 操作成功

 

                                步骤 8     按“Enter”返回主菜单。

----结束

13.5.6.2 修改maxCache Array属性

13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入“Manage Arrays”界面,如13-61所示。

图13-61 Manage Arrays

 

                                步骤 2     选择要修改属性的maxCache Array,并按“Enter”。

                                步骤 3     选择“List Logical Drives”,并按“Enter”。

进入LD选择界面,如13-62所示。

图13-62 LD选择界面

 

                                步骤 4     选择要修改属性的maxCacheLD,并按“Enter”。

进入LD相关操作界面,如13-63所示。

图13-63 LD操作界面

 

                                步骤 5     选择“Edit Logical Drive”,并按“Enter”。

进入“Edit Logical Drive”界面。在此界面可以修改maxCachecache写策略。

                                步骤 6     选择“Modify Caching Write Policy”,并按“Enter”。

弹出可设置的写策略菜单。

                                步骤 7     选择要设置的写策略,并按“Enter”。

                                步骤 8     选择“Submit Changes”,并按“Enter”。

提示操作成功。

----结束

13.5.6.3 删除maxCache Array

maxCache Array的“Cache Write Policy”设置为“Write-Back”时,maxCache Array无法进行删除。需要把maxCache Array的“Cache Write Policy”修改为“Write-Through”后,才可删除maxCache Array

13-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入“Manage Arrays”界面,如13-64所示。

图13-64 Manage Arrays

 

                                步骤 2     选择要删除的maxCache Array,并按“Enter”。

                                步骤 3     选择“List Logical Drives”,并按“Enter”。

进入LD选择界面,如13-65所示。

图13-65 LD选择界面

 

                                步骤 4     选择要删除maxCacheLD,并按“Enter”。

进入LD相关操作界面,如13-66所示。

图13-66 LD操作界面

 

                                步骤 5     选择“Delete maxCache”,并按“Enter”。

弹出操作确认框。

                                步骤 6     按“Enter”。

----结束

13.5.7 设置物理硬盘Cache

操作步骤

13-5界面中,按照“Configure Controller Settings>Modify Controller Settings>的顺序进入“Modify Controller Settings”界面,如13-67所示,参数说明如13-20所示。

图13-67 Modify Controller Settings

 

表13-20 参数说明

参数

说明

Transformation Priority

设置Array扩展、逻辑盘扩展、逻辑盘迁移、Array收缩/迁移等操作的优先级,分为High/Medium/Low三个选项。

说明

该选项设置为“high”时,会抢占I/O资源,影响读写I/O性能,建议用户保持默认取值。

Rebuild Priority

设置逻辑盘重构的优先级,分为Low/Medium/Medium High/High四个选项。

Surface Scan Analysis Priority

设置两次硬盘表面扫描的时间间隔,硬盘表面扫描主要是检查硬盘健康状态。

可选项为0~31,默认值为3,数字表示controller在下一次surface scan analysis之前的延迟时间,单位为秒。0表示禁用硬盘表面扫描功能。

Current Parallel Surface Scan Count

设置同时启动硬盘表面扫描进程的数量,取值范围为1~16,默认值为1。设置为1时表示禁用硬盘表面扫描功能。

Controller Cache

设置是否使用控制卡缓存

Enabled:使用控制卡缓存

Disabled:不使用控制卡缓存

Spare Activation Mode

设置热备盘的激活模式,可选模式有:

l     Failure Spare Activation:当硬盘出现故障时才触发热备盘重构。

l     Predictive Spare Activation:当硬盘出现预失效就触发热备盘重构。

默认取值为:Failure Spare Activation

Unconfigured Physical Drive Write Cache State

设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

HBA Physical Drive Write Cache State

设置HBA模式下硬盘的写Cache状态

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

Configured Physical Drive Write Cache State

设置RAID/Mixed模式下RAID组成员盘的写Cache状态。

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

Port CN0 Mode

设置Connector 0端口的模式,有以下三种模式:

l     RAID:控制卡所有的RAID功能都被启用,但直通盘不会报送给OS

l     MixedRAID逻辑盘和直通盘都会报送给OS

l     HBAcontroller所有的RAID功能都被禁用,控制卡下所有硬盘被视为直通盘。

说明

l     当背板类型为直通背板时,才会显示该参数。

l     两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。

Port CN1 Mode

设置Connector 1端口的模式,有以下三种模式:

l     RAID:控制卡所有的RAID功能都被启用,但直通盘不会报送给OS

l     MixedRAID逻辑盘和直通盘都会报送给OS

l     HBAcontroller所有的RAID功能都被禁用,控制卡下所有硬盘均被视为直通盘。

说明

l     当背板类型为直通背板时,才会显示该参数。

l     两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。

Submit Changes

确认修改。

 

l     如果要设置RAID/Mixed模式下非RAID组成员盘的写Cache状态,请执行步骤2

l     如果要设置HBA模式下硬盘的写Cache状态,请执行步骤3

l     如果要设置RAID/Mixed模式下RAID组成员盘的写Cache状态,请执行步骤4

                                步骤 2     设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。

1.     选择“Unconfigured Physical Drive Write Cache State”并按“Enter”。

2.     参考13-20的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。

3.     选择“Submit Changes”并按“Enter”。

提示操作成功。

                                步骤 3     设置HBA模式下硬盘的写Cache状态。

1.     选择“HBA Physical Drive Write Cache State”并按“Enter”。

2.     参考13-20的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。

3.     选择“Submit Changes”并按“Enter”。

提示操作成功。

                                步骤 4     设置RAID/Mixed模式下RAID组成员盘的写Cache状态。

1.     选择“Configured Physical Drive Write Cache State”并按“Enter”。

2.     参考13-20的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。

3.     选择“Submit Changes”并按“Enter”。

提示操作成功。

----结束

13.5.8 查询RAID控制卡固件版本

查询RAID控制卡固件版本的方法有如下几种:

l     iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。

l     服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见13.8.2.3 查询控制卡的FW和驱动版本

回显信息中的“Firmware”字段即为RAID控制卡的固件版本。

l     RAID控制卡管理界面进行查询,具体方法为:

a.     登录RAID控制卡的管理界面,具体操作请参见13.4.1 登录管理界面

b.     在主界面中选择“Controller Information”并按“Enter”。

显示RAID控制卡基本信息。界面中的“Firmware version”即为RAID控制卡的固件版本,如13-68所示。

图13-68 Controller Information界面

 

13.5.9 擦除硬盘

 

l     擦除硬盘耗时长,所有数据都将被清除,请谨慎执行该操作。

l     擦除期间请勿执行关机,重启,插拔硬盘等操作,否则会导致硬盘被损坏。

登录管理界面。具体操作方法请参见13.4.1 登录管理界面

                                步骤 1     在主界面中选择“Disk Utilities”并按“Enter”。

显示硬盘列表,如13-69所示。

图13-69 硬盘列表

 

                                步骤 2     选择要执行擦除操作的硬盘,并按“Enter”。

显示硬盘操作界面,如13-70所示。

图13-70 硬盘操作界面

 

                                步骤 3     选择“Erase Disk”并按“Enter”。

进入选择擦除模式界面,如13-71所示。

图13-71 选择擦除模式(1

 

                                步骤 4     选择“Erase Pattern”并按“Enter”。

显示可选择的擦除模式。

l     Three-passes: Random + Random +All zeroes:对硬盘写入随机数两次,第三次全盘写0

l     Two-passes: Random +All zeroes:对硬盘写入随机数一次,第二次全盘写0

l     One-pass: Write All zeroes:对硬盘全盘写0

l     Restricted Sanitize Overwrite:受限的硬盘擦除,擦除失败后需要重新做擦除。

l     Unrestricted Sanitize Overwrite:不受限制的硬盘擦除,如果擦除失败,对于可恢复的硬盘,则不影响使用。

                                步骤 5     选择擦除的模式,并按“Enter”。

                                步骤 6     选择“Start Erase”,并按“Enter”。

开始进行擦除。

                                步骤 7     (可选)重新进入“Erase Disk”界面,可查看擦除进度,如13-72所示。

图13-72 查看擦除进度

 

擦除时选择“Abort Erase”并按“Enter”后,将终止擦除。下一次进行擦除时将重新开始。

----结束

13.5.10 设置带外管理接口为MCTP

l     使用iBMC带外管理时需将带外管理接口设置为MCTP

l     OS下使用命令行工具更改带外管理接口请参见13.8.2.6 设置RAID控制卡带外管理接口

登录管理界面。具体操作方法请参见13.4.1 登录管理界面

                                步骤 1     在主界面中根据路径“Configure Controller Settings > Out of Band Messaging Settings”进入“Out of Band Messaging Settings”界面,如13-73所示。

图13-73 Out of Band Messaging Settings

 

                                步骤 2     选择“Change Settings”并按“Enter”。

进入“Select Out of Band Messaging Interface”界面,如13-74所示。

图13-74 Select Out of Band Messaging Interface

 

                                步骤 3     选择“OOB Interface”并按“Enter”。

进入带外管理接口选择界面,如13-75所示。

图13-75 选择带外管理接口

 

                                步骤 4     选择“MCTP”并按“Enter”。

                                步骤 5     选择“Proceed to next Form”,并按“Enter”。

进入MCTP参数设置界面,如13-76所示,参数说明如13-21所示。

图13-76 MCTP参数设置

 

表13-21 参数说明

参数

说明

SMBus Device Type

系统管理总线设备类型。

l     Default

l     Fixed

l     ARP

SMBus Physical Channel

系统管理总线物理通道。

VDM Discovery Notify

VDM 发现通知。

Use Static EIDs during initialization

在初始化期间使用静态EID

SMBus Slave Address

系统管理总线从机地址。

 

                                步骤 6     设置MCTP相关参数。

                                步骤 7     选择“Submit Changes”并按“Enter”完成配置,如13-77所示。

图13-77 完成配置

 

                                步骤 8     (可选)在主界面中根据路径“Configure Controller Settings > Out of Band Messaging Settings”重新进入“Out of Band Messaging Settings”界面可查看下次生效设置,如13-78所示。

图13-78 Out of Band Messaging Settings

 

                                步骤 9     按“F10”退出BIOS,重启系统后即可使用iBMC进行带外管理。

----结束

13.6 故障处理

介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

13.6.1 硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘Fault指示灯点亮。

l     硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

直通模式下的硬盘发生故障时(通常指硬盘本身健康状态不佳),硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

处理方法

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

拔掉故障硬盘。

                                步骤 1     判断硬盘故障后,数据是否可恢复。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则数据不可恢复。直接安装新硬盘,重新配置RAID,操作完成。

     EFI/UEFI模式下创建RAID 0的操作请参见13.4.2 创建RAID 0

     通过命令行创建RAID 0 的操作请参见13.8.2.19 创建和删除RAID

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在13.3.1 支持多种RAID级别查看RAID组支持的最大故障硬盘数量。

l     RAID组存在热备盘,则热备盘自动补充坏盘,进入rebuild状态同步数据。

l     RAID组为冗余RAID但不存在热备盘,则需要安装新硬盘进行数据恢复。

                                步骤 2     插入新硬盘。

l     若插入的硬盘无数据,则根据原RAID情况有如下工作方式:

     若原RAID组存在热备盘,热备盘数据自动拷贝至新插入的硬盘中。原热备盘恢复热备状态,操作完成。

     若原RAID组为冗余RAID且不存在热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成。

l     若插入的硬盘存在RAID信息,请执行步骤4

                                步骤 3     对插入的硬盘执行安全擦除操作。

                                步骤 4     手动重构RAID

----结束

13.6.2 电容故障

问题描述

RAID控制卡电容故障时,会导致Cache不可用,从而降低读写速度。

处理方法

进入OS,查询设备信息。具体操作请参见12.8.2.1 查询控制卡的基本信息

                                步骤 1     查看回显信息中的“Bettery Power Status”信息,如所13-79所示,根据电容状态进行不同的操作。

图13-79 回显信息

 

l     Failed:电容故障,请更换电容。

l     Ok:表示电容充电完成,状态正常,

l     Not Battery charged:表示电容不在位,请安装电容。

l     No fully charged:表示电容正在充电,请等待15min后操作RAID控制卡。

                                步骤 2     如果仍然存在异常,请联系技术支持处理。

----结束

13.6.3 控制卡故障

问题描述

当服务器出现如下现象时,说明控制卡故障。

l     数据无法写入控制卡控制的硬盘。

l     服务器上报控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     查询兼容性查询助手或者联系技术支持处理。

----结束

13.6.4 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy

问题描述

正常情况下,当服务器配置了RAID控制卡且RAID控制卡状态正常时,进入BIOSAdvanced页签后,会显示RAID控制卡的信息,如13-80所示。

如果Advanced页签不显示RAID控制卡的信息,如13-81所示,则:

l     如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:

     如果不显示驱动打印信息,可尝试下电后重新拔插RAID控制卡再上电、下电后更换RAID控制卡再上电或者联系技术支持。

     如果显示“MSCC SmartRAID 3152-8i”,如13-82所示,则可以通过本章节的指导修复RAID控制卡。

l     如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,如13-83所示,则可以通过本章节的指导修复RAID控制卡;如果不显示,可尝试下电后重新拔插RAID控制卡再上电、下电更换RAID控制卡再上电或者联系技术支持。

图13-80 Advanced页签(1

 

图13-81 Advanced页签(2

 

图13-82 Driver Health Manager

 

图13-83 Advanced页签(3

 

处理方法

l     BIOS的版本为0.98之前版本(不包含0.98版本)时:

a.     Advanced页签选择“Driver Health Manager”并按Enter

进入“Driver Health Manager”界面。

b.     选择要进行修复的RAID控制卡驱动,如“MSCC UEFI Driver v****”,并按“Enter”。

c.     选择“Repair. Erase data held in Write-Back Cache”,并按“Enter”开始修复。

d.     修复完成后重启服务器,进入“Advanced”界面,检查RAID控制卡信息是否正常。

n      => 处理完毕。

n      => 请联系技术支持处理。

l     BIOS的版本为0.98及以上版本时:

a.     在“Advanced”页签选择“Some drivers are not healthy”。

进入健康状态查询界面。

b.     选择“Repair the whole platform”,并按“Enter”。

c.     选择“Repair. Erase data held in Write-Back Cache”,并按“Enter”开始修复。

d.     修复完成后重启服务器,进入“Advanced”界面,检查RAID控制卡信息是否正常。

n      => 处理完毕。

n      => 请联系技术支持处理。

13.6.5 重新激活状态为FailedRAID

问题描述

登录控制卡主界面,根据路径“Manage Arrays > Array >  List Logical Drives >  Logical 1 >  Logical Drive Details”进入RAID组详细信息界面,确认RAID组的状态“Status”为“Failed”。

其中“Array”根据实际情况选择Array A/B等。

处理方法

登录控制卡主界面,具体操作请参见13.4.1 登录管理界面

                                步骤 1     根据路径“Manage Arrays > Array >  List Logical Drives >  Logical 1”进入RAID组配置界面。

                                步骤 2     选择“Re-Enable Logical Drive”重新激活RAID组。

                                步骤 3     根据路径“Manage Arrays > Array >  List Logical Drives >  Logical 1 >  Logical Drive Details”进入RAID组详细信息界面。查看RAID组的状态“Status”是否恢复为“Optimal”或者“Ok”。

l      => 处理完毕。

l      => 步骤5

                                步骤 4     收集和查看日志信息以及其它必要的故障信息。

联系技术支持处理。

----结束

13.7 管理界面介绍

13.7.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如13-84所示界面时,按“Delete”。

图13-84 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如13-85所示界面。

图13-85 Setup Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如13-86所示。

图13-86 “Advanced”页签

 

                                步骤 5     选择“MSCC SmartRAID 3152-8i”,按“Enter”。

进入如13-87所示界面,参数说明如13-22所示。

图13-87 MSCC SmartRAID 3152-8i控制卡主界面

 

表13-22 参数说明

参数

说明

Controller Information

查看控制卡相关的基本信息。

Configure Controller Settings

设置控制卡的相关属性。

Array Configuration

创建与管理Array

Disk Utilities

查看与管理控制卡的硬盘。

Set Bootable Device(s) for Legacy Boot Mode

设置控制卡在Legacy模式下的第一启动盘与第二启动盘。

Administration

控制卡的其他相关操作,包括更新Firmware,收集RAID控制卡日志,恢复RAID控制卡参数为出厂配置等。

 

----结束

13.7.2 Controller Information

在“Controller Information”界面中,可以查看控制卡相关的基本信息。

界面介绍

在如13-5所示的主界面中选择“Controller Information”,打开“Controller Information”界面,如13-8813-89所示,参数说明如13-23所示。

图13-88 “Controller Information”界面(1

 

图13-89 “Controller Information”界面(2

 

表13-23 参数说明

参数

说明

Controller

控制卡的名称。

Device Id

设备编号。

PCI AddressSegment:Bus:Device:Function)

BIOS分配给控制卡的PCI总线地址。

Hardware Revision

硬件修订版本。

Negotiated PCIe Data Rate

PCIe协商速率

Serial Number

控制卡序列号。

WWID

world wide name,控制卡的唯一标识号。

Firmware version

Firmware的版本号。

Firmware release date

Firmware的发布日期。

UEFI Driver version

UEFI驱动版本号。

UEFI Driver release date

UEFI驱动版本发布日期。

Controller Memory Module Size

控制卡的cache大小。

Controller Status

控制卡的状态。

Cache Status

Cache的状态。

Controller Mode

RAID控制卡的当前的使用模式,有多种工作模式。

l     RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS

l     HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。

l     Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。

l     Independent模式:允许Port CN0CN1使用不同的工作模式(FW版本5.32及之后版本支持,仅适用于直通背板)。

默认为“Mixed”模式。

Supported Modes

控制卡Port口的支持模式。

l     Port CN0:RAID HBA Mixed

l     Port CN1:RAID HBA Mixed

 

13.7.3 Configure Controller Settings

在“Configure Controller Settings”界面中,可以设置控制卡的相关属性。

界面介绍

在如13-5所示的配置工具主界面中选择“Configure Controller Settings”,打开“Configure Controller Settings”界面,如13-90所示,参数说明如13-24所示。

图13-90 Configure Controller Settings

 

表13-24 参数说明

参数

说明

Modify Controller Settings

修改控制卡的相关属性。

Modify Cache Settings

修改Cache的设置。

Advanced Controller Settings

修改控制卡的高级属性。

Clear Configuration

清除控制卡当前所有的ArrayRAID组配置。

Backup Power Source

超级电容(提供超级电容状态信息)。

Manage Power Settings

管理电源设置(修改控制卡的电源模式、启用/禁用控制卡的生存模式)。

Out of Band Messaging Settings

控制卡带外管理。

Configure Controller Port Mode

设置RAID控制卡的使用模式。

 

13.7.3.1 Modify Controller Settings

界面说明

Modify Controller Settings”界面如13-91所示,参数说明如13-25所示。

图13-91 Modify Controller Settings

 

表13-25 参数说明

参数

说明

Transformation Priority

设置Array扩展、逻辑盘扩展、逻辑盘迁移、Array收缩/迁移等操作的优先级,分为High/Medium/Low三个选项。

说明

该选项设置为“high”时,会抢占I/O资源,影响读写I/O性能,建议用户保持默认取值。

Rebuild Priority

设置逻辑盘重构的优先级,分为Low/Medium/Medium High/High四个选项。

Surface Scan Analysis Priority

设置两次硬盘表面扫描的时间间隔,硬盘表面扫描主要是检查硬盘健康状态。

可选项为0~31,默认值为3,数字表示controller在下一次surface scan analysis之前的延迟时间,单位为秒。0表示禁用硬盘表面扫描功能。

Current Parallel Surface Scan Count

设置同时启动硬盘表面扫描进程的数量,取值范围为1~16,默认值为1。设置为1时表示禁用硬盘表面扫描功能。

Spare Activation Mode

设置热备盘的激活模式,可选模式有:

l     Failure Spare Activation:当硬盘出现故障时才触发热备盘重构。

l     Predictive Spare Activation:当硬盘出现预失效就触发热备盘重构。

默认取值为:Failure Spare Activation

Unconfigured Physical Drive Write Cache State

设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

HBA Physical Drive Write Cache State

设置HBA模式下硬盘的写Cache状态

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

Configured Physical Drive Write Cache State

设置RAID/Mixed模式下RAID组成员盘的写Cache状态。

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

Port CN0 Mode

设置Connector 0端口的模式,有以下三种模式:

l     RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS

l     Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。

l     HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。

说明

l     当背板类型为直通背板时,才会显示该参数。

l     两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。

Port CN1 Mode

设置Connector 1端口的模式,有以下三种模式:

l     RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS

l     Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。

l     HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。

说明

l     当背板类型为直通背板时,才会显示该参数。

l     两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。

Submit Changes

确认修改。

 

当“Surface Scan Analysis priority”选项设置为0或“Current Parallel Surface Scan Count”选项设置为1时,硬盘表面扫描功能(Surface Scan)会被禁用。

13.7.3.2 Modify Cache Settings

界面说明

Modify Cache Settings”界面如13-92所示,参数说明如13-26所示。

图13-92 Modify Cache Settings

 

表13-26 参数说明

参数

说明

No Battery Write Cache

当电池/电容不在位或未完全充电时,启用写缓存。

l     Disabled:禁用此功能(默认)

l     Enabled:开启此功能

须知

在没有充分充电的备份电源的前提下开启这个选项,可能会在电源故障时导致数据丢失,请谨慎启用该功能。

Cache Ratio (Read)

调整预读Cache与写Cache的内存量,输入范围:0-100(增量为5)。

Submit Changes

保存设置

 

13.7.3.3 Advanced Controller Settings

界面说明

Advanced Controller Settings”界面如13-93所示,参数说明如13-27所示。

图13-93 Advanced Controller Settings

 

表13-27 参数说明

参数

说明

Degraded Mode Performance Optimization

对于降级的RAID5,启用此设置,将指示RAID控制卡通过硬盘缓存,提高大规模读请求的性能;禁用此设置,将强制RAID控制卡从相同的硬盘中多次读取数据。

Physical Drive Request Elevator Sort

设置硬盘的写入电梯排序算法的行为。这种调度优化将I/O请求按优先级排序,使硬盘取数臂和磁头运动继续沿同一方向进行。启用电梯排序功能将优化寻道时间;禁用电梯排序功能将增加吞吐量。

RAID6/60 Alternate Inconsistent Repair Policy

禁用该修复策略时,若RAID控制卡检测到奇偶校验信息与硬盘数据不匹配,将指示RAID控制卡更新奇偶校验信息,保持数据不变;启用该修复策略时,若RAID控制卡检测到奇偶校验信息与硬盘数据不匹配,将指示RAID控制卡根据奇偶校验信息更新硬盘上的数据。

Maximum Drive Request Queue Depth

设置RAID控制卡的队列深度,有效取值自动设置为2481632

Monitor and Performance Analysis Delay

以分钟为单位,设置RAID的监控和性能分析延迟参数。默认参数值为60分钟。若将该值设置为0,将禁用监控和性能分析功能。

HDD Flexible Latency Optimization

为硬盘提供灵活时延优化功能。启用灵活时延优化功能,RAID控制卡会检测I/O请求,设置时延阈值。如果检测到的I/O请求时延满足该阈值,则即时禁用电梯排序功能和业务请求,执行满足阈值的I/O请求,减少高时延I/O请求数量。阈值的有效取值范围如下:

l     Disabled:禁用

l     Low:低值

l     Middle(100ms):中等值

l     High:高值

l     Very High(30ms):较高值

l     Very High(10ms):极高值

Submit Changes

确认修改。

 

13.7.3.4 Clear Configuration

界面说明

Clear Configuration”界面如13-94所示,参数说明如13-28所示。

图13-94 Clear Configuration

 

表13-28 参数说明

参数

说明

Delete All Array Configurations

清除所有Array的配置信息。

Delete Configuration metadata on all physical drives

清除所有不属于Array,但带有Array信息的物理硬盘数据。

 

13.7.3.5 Backup Power Source

界面说明

Backup Power Source”界面如13-95所示,参数说明如13-29所示。

图13-95 Backup Power Source

 

表13-29 参数说明

参数

说明

Backup Power Status

超级电容当前状态。

l     charging:超级电容正在充电。

l     charged:超级电容充电完成。

l     Not Present:未接入超级电容。

 

13.7.3.6 Manage Power Settings

界面说明

Manage Power Settings”界面如13-96所示,参数说明如13-30所示。

图13-96 Manage Power Settings

 

表13-30 参数说明

参数

说明

Power Mode

设置控制卡的power mode

l     Minimum Power:将static设置设为最低级。

l     Balancedstatic设置随配置而定。

l     Maximum Performance:将static设置设为最高级。

默认为“Maximum Performance”。

Survival Mode

RAID控制卡的温度超过阈值时,Survival Mode将允许控制卡将所有的功耗配置设置为最小值,选择该模式后,服务器将继续在这种环境下工作,但性能可能会下降。

l     Enabled:启动该特性。

l     Disabled:关闭该特性。

默认取值为“Enabled”。

Submit Changes

确认修改。

 

13.7.3.7 Out of Band Messaging Settings

界面说明

Out of Band Messaging Settings”界面如13-97所示,参数说明如13-31所示。

图13-97 Out of Band Messaging Settings

 

表13-31 参数说明

参数

说明

Active Settings

当前设置。

OOB Interface

带外管理数据接口。

l     MCTP:通过MCTPManagement Component Transport Protocol)管理接口进行带外管理。

l     PBSI:通过PBSI管理接口进行带外管理。

l     Disabled OOB Interface:禁用带外管理。

可通过在13-97选择“Changes Settings”界面进行更改。

SMBus Device Type

系统管理总线设备类型。

l     Default

l     Fixed

l     ARP

SMBus Physical Channel

系统管理总线物理通道。

VDM Discovery Notify

VDM 发现通知。

Use Static EIDs during initialization

在初始化期间使用静态EID

SMBus Slave Address

系统管理总线从机地址。

 

13.7.3.8 Configure Controller Port Mode

界面说明

Configure Controller Port Mode”界面如13-98所示,参数说明如13-32所示。

图13-98 Configure Controller Port Mode

 

表13-32 参数说明

参数

说明

Current Controller Port Mode

控制卡当前的端口模式。

Set Controller Port Mode

设置控制卡的端口模式,有以下几种:

l     RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS

l     HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。

l     Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。

l     Independent模式:允许Port CN0CN1使用不同的工作模式(FW版本5.32及之后版本支持,仅适用于直通背板)。

默认为“Mixed”模式。

Submit Changes

确认修改。

 

设置控制卡的端口模式

通过该操作,可将所有Connector的工作模式同时设置为同一模式。

13-98中选择“Set Controller Port Mode”,并按“Enter”。

弹出端口模式菜单。

                                步骤 1     选择要设置的控制卡端口模式,并按“Enter”。

                                步骤 2     选择“Submit Changes”,并按“Enter”。

提示操作成功。

----结束

13.7.4 Array Configuration

界面说明

Array Configuration”界面如13-99所示,参数说明如13-33所示。

图13-99 Array Configuration

 

表13-33 参数说明

参数

说明

Create Array

创建Array

详细介绍可参见13.4.2 创建RAID 0~13.4.10 创建RAID 60

Create maxCache Array

创建maxCache Array

详细介绍可参见13.5.6.1 创建maxcache Array

Manage Arrays

管理Array

详细介绍可参见13.5.1 查看和修改Array属性

 

13.7.5 Disk Utilities

界面说明

Disk Utilities”界面如13-100所示,显示硬盘列表。

图13-100 Disk Utilities界面(1

 

硬盘的标识信息说明如下:

l     ①表示RAID控制卡的Port口编号,其中CN0表示RAID控制卡的Port A口,CN1表示RAID控制卡的Port B口。

l     ②表示机箱或背板的位置ID

l     ③表示硬盘槽位号。

l     ④表示硬盘的容量。

l     ⑤表示硬盘的类型。

l     ⑥表示硬盘的型号。

选定要操作的硬盘,并按“Enter”,显示操作菜单,如13-101所示,参数说明如13-34所示。

图13-101 硬盘操作菜单

 

表13-34 参数说明

参数

说明

Device Information

查看硬盘相关信息。

Identify Device

开启/关闭硬盘定位指示灯。

Erase Disk

安全擦除硬盘。

通过该选项可擦除非RAID组成员盘的数据。

说明

l     硬盘擦除耗时长,执行完成后,数据会被清除。

l     硬盘擦除过程中执行上下电,插拔硬盘等操作会导致硬盘数据损坏。

l     请谨慎使用该功能。

Update Device Firmware

升级硬盘的Firmware

说明

该功能暂不可用。

 

如果当前配置的硬盘背板是Expander类型时,“Disk Utilities”界面还会显示Expander的相关信息,如13-102所示。

图13-102 Disk Utilities界面(2

 

查看硬盘属性

13-100中选择“Device Information”并按“Enter”后,显示硬盘的详细信息,如13-103所示,参数说明如13-35所示。

图13-103 Device Information界面

 

表13-35 参数说明

参数

说明

Device Type

硬盘的类型

Model

硬盘型号

Drive Encryption Capability

硬盘加密功能

Serial Number

硬盘序列号

Port:Box:Bay

当前硬盘的物理位置

Firmware version

硬盘固件版本

Logical Sector Size

硬盘的逻辑分区大小

Physical Sector Size

硬盘的物理分区大小

Size

硬盘容量

Speed(rpm)

硬盘转速

Negotiated Link Rate

硬盘链路协商速率

Maximum Link Rate

硬盘链路最大速率

Write Cache Status

硬盘的写Cache状态

Mode

硬盘的工作模式

Temperature

硬盘温度

Associated to Array

硬盘是否已加入Array

 

打开/关闭硬盘定位指示灯

1.     13-100中选择“Identify Device”并按“Enter”。

进入如13-104所示界面。

图13-104 Identify Device界面

 

2.     在“Identification Duration(seconds)”中输入定位指示灯的闪烁时长(范围为1~86400,单位为秒,不设置时默认为86400s)。

3.     选择“Start”并按“Enter”。

定位指示灯开始闪烁。

4.     (可选)选择“Stop”并按“Enter”。

定位指示灯停止闪烁。

安全擦除硬盘数据

具体操作步骤请见13.5.9 擦除硬盘

13.7.6 Set Bootable Device(s) for Legacy Boot Mode

界面说明

因服务器不支持Legacy模式,该界面的设置无效。

Set Bootable Device(s) for Legacy Boot Mode”界面如13-105所示,参数说明如13-36所示。

图13-105 Set Bootable Device(s) for Legacy Boot Mode

 

表13-36 参数说明

参数

说明

Primary Bootable Device

第一启动盘。

Secondary Bootable Device

第二启动盘。

Select Bootable Logical Drive

设置逻辑盘为第一启动盘或第二启动盘。

Select Bootable Physical Drive

设置物理硬盘为第一启动盘或第二启动盘。

Number of OS bootable drives

设置系统启动盘的数量。

Clear Bootable Device(s)

清除启动盘。

l     Select Boot Precedence:选择将要清除的启动盘。

l     Clear Bootable Device(s):确认清除启动盘。

 

13.7.7 Administration

界面说明

Administration”界面如13-106所示,参数说明如13-37所示。

图13-106 Administration

 

表13-37 参数说明

参数

说明

Flash Controller Firmware

更新RAID控制卡的Firmware

该接口暂不可用。

Save Support Archive

收集RAID控制卡日志。

该接口暂不可用。

Reset controller settings to factory defaults

RAID控制卡恢复出厂配置。

 

13.8 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

13.8.1 下载和安装ARCCONF工具

下载工具

登录Microsemi网站上RAID控制卡的页面,如13-107所示。

图13-107 Storage Manager Downloads

 

                                步骤 2     单击“Adaptec ARCCONF Command Line Utility*”跳转至ARCCONF工具详细界面。

                                步骤 3     单击

                                步骤 4     按照提示信息下载ARCCONF工具。

                                步骤 5     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

使用文件传输工具(例如Winscp)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 1     Linux命令行执行rpm -ivh Arcconfxxx.aarch64.rpm命令安装ARCCONF工具。

ARCCONF工具的安装路径为/usr/Arcconf,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

13.8.2 常用命令

l     为快速获取命令结果,建议在每条命令之后增加nodiskinfo参数,如arcconf list controller_id nodiskinfo

l     ARCCONF工具在23168及以后版本支持nodiskinfo参数。

13.8.2.1 查询控制卡的基本信息

命令功能

查询控制卡的基本信息。

命令格式

arcconf list controller_id

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

 

使用指南

使用实例

# 查询ID1的控制卡属性。

[root@localhost ~]# arcconf list 1
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
   Controller ID             : Status, Slot, Mode, Name, SerialNumber, WWN
----------------------------------------------------------------------
   Controller 1:             : Optimal, Slot 1, Mixed, MSCC Adaptec SmartRAID 3152-8i, 7A45F30016A, 50000D1E00189F30
 
----------------------------------------------------------------------
Array Information
----------------------------------------------------------------------
   Array ID                  : Status (Interface, TotalSize MB, FreeSpace MB)
----------------------------------------------------------------------
   Array 0                   : Ok (SATA SSD, 305152 MB, 0 MB)
 
----------------------------------------------------------------------
Logical device information
----------------------------------------------------------------------
   Logical ID                : Status (RAID, Interface, Size MB) Name
----------------------------------------------------------------------
   Logical 0                 : Optimal (0, Data, 305190 MB) LogicalDrv 0
 
----------------------------------------------------------------------
maxCache information
----------------------------------------------------------------------
 
----------------------------------------------------------------------
Physical Device information
----------------------------------------------------------------------
   Physical ID               : State (Interface, BlockSize, SizeMB, Vendor, Model, Type) WWN, [Location]
----------------------------------------------------------------------
   Physical 0,0              : Online (SATA, 512 Bytes, 152627MB, ATA     , INTEL SSDSA2BW16, Solid State Drive) 30000D1E00189F30, [Enclosure Direct Attached, Slot 0(Connector 0:CN0)]
   Physical 0,1              : Online (SATA, 512 Bytes, 1526185MB, ATA     , SSDSC2BB016T7H  , Solid State Drive) 30000D1E00189F32, [Enclosure Direct Attached, Slot 1(Connector 0:CN0)]
   Physical 0,4              : Ready (SAS, 512 Bytes, 1716957MB, TOSHIBA , AL14SEB18EQ     , Hard Drive) 500003969812C842, [Enclosure Direct Attached, Slot 4(Connector 1:CN1)]
   Physical 0,5              : Ready (SAS, 512 Bytes, 858483MB, HGST    , HUC101890CSS200 , Hard Drive) 5000CCA0361C09C1, [Enclosure Direct Attached, Slot 5(Connector 1:CN1)]
   Physical 0,6              : Ready (SATA, 512 Bytes, 457862MB, ATA     , MTFDDAK480TDC-1A, Solid State Drive) 30000D1E00189F39, [Enclosure Direct Attached, Slot 6(Connector 1:CN1)]
   Physical 0,7              : Ready (SATA, 512 Bytes, 915715MB, ATA     , MTFDDAK960TDC-1A, Solid State Drive) 30000D1E00189F3B, [Enclosure Direct Attached, Slot 7(Connector 1:CN1)]
   Physical 2,2              : Ready (SES2, Not Applicable, Not Applicable, MSCC    , Virtual SGPIO, Enclosure Services Device) 50000D1E00189F30, [Not Applicable]
 
 
Command completed successfully.

13.8.2.2 查询物理硬盘、ArrayLDmaxCache等相关信息

命令功能

查询控制卡的基本信息。

命令格式

命令格式

功能

arcconf getconfig controller_id AD

查询适配器信息

arcconf getconfig controller_id LD

查询所有LD的信息

arcconf getconfig controller_id LD LD_id

查询特定LD的信息

arcconf getconfig controller_id PD

查询所有物理硬盘的信息

arcconf getconfig controller_id PD physical_id

查询特定物理硬盘的信息

arcconf getconfig controller_id AR

查询所有Array的信息

arcconf getconfig controller_id AR AR_id

查询特定Array的信息

arcconf getconfig controller_id MC

查询maxCached的信息

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

LD_id

LDID

physical_id

硬盘的physical编号

slot_id

物理硬盘槽位编号

AR_id

ArrayID

 

使用指南

使用实例

# 查询所有Array的信息。

[root@localhost ~]# ./arcconf getconfig 1 ar
Controllers found: 1
----------------------------------------------------------------------
Array Information
----------------------------------------------------------------------
Array Number 0
   Name                                     : A
   Status                                   : Ok
   Interface                                : SATA SSD
   Total Size                               : 305152 MB
   Unused Size                              : 204800 MB
   Block Size                               : 512 Bytes
   Array Utilization                        : 32.77% Used, 67.23% Unused
   Type                                     : Data
   Transformation Status                    : Not Applicable
   Spare Rebuild Mode                       : Dedicated
   SSD I/O Bypass                           : Disabled
   --------------------------------------------------------
   Array Logical Device Information
   --------------------------------------------------------
   Logical 0                                : Optimal (1, Data, 49999 MB) LogicalDrv 0
   --------------------------------------------------------
   Array Physical Device Information
   --------------------------------------------------------
   Device 0                                 : Present (915715MB, SATA, SSD, Channel:0, Device:0)         18031A983BCA
   Device 1                                 : Present (152627MB, SATA, SSD, Channel:0, Device:1) CVPR1461036N160DGN
 
   --------------------------------------------------------
   Array Hotspare Information
   --------------------------------------------------------
   Device 3                                 : Dedicated Hot-Spare (457862MB, SATA, SSD, Channel:0, Device:3)             2029E247
 
 
 
Command completed successfully.
[root@localhost ~]#

# 查询所有LD的基本信息。

[root@localhost ~]# ./arcconf getconfig 1 ld
Controllers found: 1
----------------------------------------------------------------------
Logical device information
----------------------------------------------------------------------
Logical Device number 0
   Logical Device name                      : LogicalDrv 0
   Disk Name                                : /dev/sdd
   Block Size of member drives              : 512 Bytes
   Array                                    : 0
   RAID level                               : 1
   Status of Logical Device                 : Optimal
   Size                                     : 49999 MB
   Stripe-unit size                         : 256 KB
   Full Stripe Size                         : 256 KB
   Interface Type                           : SATA SSD
   Device Type                              : Data
   Boot Type                                : None
   Heads                                    : 255
   Sectors Per Track                        : 32
   Cylinders                                : 12549
   Caching                                  : Enabled
   Mount Points                             : Not Applicable
   LD Acceleration Method                   : Controller Cache
   Volume Unique Identifier                 : 600508B1001C329D07A9BDA053FF081B
   --------------------------------------------------------
   Array Physical Device Information
   --------------------------------------------------------
   Device 0                                 : Present (915715MB, SATA, SSD, Channel:0, Device:0)         18031A983BCA
   Device 1                                 : Present (152627MB, SATA, SSD, Channel:0, Device:1) CVPR1461036N160DGN
 
   --------------------------------------------------------
   Array Hotspare Information
   --------------------------------------------------------
   Device 3                                 : Dedicated Hot-Spare (457862MB, SATA, SSD, Channel:0, Device:3)             2029E247
 
 
 
Command completed successfully.
[root@localhost ~]#

13.8.2.3 查询控制卡的FW和驱动版本

命令功能

查询控制卡的FW和驱动的版本信息。

命令格式

arcconf getversion

使用实例

# 查询控制卡FW和驱动的版本信息。

[root@localhost ~]# ./arcconf getversion
Controllers found: 1
Controller #1
==============
Firmware                               : 1.43[0] (0)
Driver                                 : 0.9.14-100 (0)
 
 
Command completed successfully.
[root@localhost ~]#

13.8.2.4 升级控制卡FW

命令功能

通过该命令可以升级控制卡的Firmware

命令格式

arcconf romupdate controller_id fwfile

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

-

fwfile

Firmware升级所需的.bin文件名

-

 

使用实例

# 升级控制卡FW

[root@linux 2.93]# arcconf romupdate 1 SmartFWx100.bin
Controllers found: 1
 
 
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
Updating controller 1 firmware...
Succeeded
You must restart the system for firmware updates to take effect.
 
 
Command completed successfully.

13.8.2.5 设置控制卡工作模式

命令功能

设置控制卡工作模式。

控制卡工作模式默认为“Mixed”。

命令格式

arcconf setcontrollermode controller_id mode

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

mode

控制卡工作模式

l     2:设置为HBA模式。

l     3:设置为RAID模式。

l     5:设置为Mixed模式。

说明

3152-8i的工作模式的介绍请参见12.3.2 支持多种工作模式

 

使用指南

使用实例

# 设置控制卡工作模式为“Mixed”。

[root@localhost ~]# ./arcconf setcontrollermode 1 5
Controllers found: 1
 
Command completed successfully.

# 查询控制卡工作模式。

[root@localhost ~]# arcconf getconfig 1
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
   Controller Status                        : Optimal
   Controller Mode                          : Mixed
   Channel description                      : SCSI
   Controller Model                         : MSCC Adaptec SmartRAID 3152-8i
   Controller Serial Number                 : 7A45F30016A
   Controller World Wide Name               : 50000D1E00189F30
   Physical Slot                            : 1
   Temperature                              : 48 C/ 118 F (Normal)
   Host bus type                            : PCIe 3.0
   Host bus speed                           : 7880 MBps
   Host bus link width                      : 8 bit(s)/link(s)
   PCI Address (Bus:Device:Function)        : 0:3b:0:0
   Number of Ports                          : 2
   Internal Port Count                      : 2
   External Port Count                      : 0
   Defunct disk drive count                 : 0
   NCQ status                               : Enabled
   Queue Depth                              : Automatic
   Monitor and Performance Delay            : 60 minutes
   Elevator Sort                            : Enabled
   Degraded Mode Performance Optimization   : Disabled
   Latency                                  : Disabled
   Statistics data collection mode          : Disabled
   Post Prompt Timeout                      : 0 seconds
   Boot Controller                          : False
   Primary Boot Volume                      : None
   Secondary Boot Volume                    : ADDD8BE3B85736315B553DAF0D36B31E
   Driver Name                              : smartpqi
   Driver Supports SSD I/O Bypass           : Yes
   Manufacturing Part Number                : Not Applicable
   Manufacturing Spare Part Number          : Not Applicable
   Manufacturing Wellness Log               : Not Applicable
   NVRAM Checksum Status                    : Passed
   Sanitize Lock Setting                    : None
 
......

回显信息中的“Controller Mode”即为控制卡的工作模式。

13.8.2.6 设置RAID控制卡带外管理接口

命令功能

设置RAID控制卡带外管理接口。

命令格式

命令

说明

arcconf setcontrollerparam controller_id oobinterface parameter

设置RAID控制卡带外管理接口协议类型。

arcconf setcontrollerparam controller_id oobinterface PBSI I2CADDRESS i2cAddress I2CCLOCKSPEED i2cClockSpeed I2CCLOCKSTRETCH i2cClockStretch

设置RAID控制卡带外管理接口为PBSI和相关参数。

arcconf setcontrollerparam controller_id oobinterface MCTP I2CADDRESS i2cAddress SMBUSDEVICETYPE SMBusDeviceType SMBUSCHANNEL SMBusChannel STATICEID StaticEID VDMNOTIFICATION VDMNotification

设置RAID控制卡带外管理接口为MCTP和相关参数。

 

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

parameter

设置RAID控制卡的带外管理接口。

l     PBSI:设置RAID控制卡的带外管理接口为PBSI

l     MCTP:设置RAID控制卡的带外管理接口为MCTP

l     Disabled:禁用RAID控制卡的带外管理接口。

l     Reset:重置RAID控制卡的带外管理接口,默认为MCTP

i2cAddress

设置RAID控制卡的I2C地址。

十六进制。范围:0x00-0xFF

i2cClockSpeed

设置RAID控制卡的I2C时钟速率。

l     0:保持默认值。

l     110 kHz

l     2100 kHz

l     3400 kHz

l     4800 kHz

i2cClockStretch

设置RAID控制卡的I2C时钟延展。

Enable:开启I2C时钟延展。

Disable:禁用I2C时钟延展。

SMBusDeviceType

设置SMBus设备类型。

l     0:默认

l     1I2C地址保持固定,无法通过ARPAddress Resolution Protocol)进行分配。

l     2:主设备通过ARP协议将I2C地址分配给从设备,从而避免地址冲突。

SMBusChannel

设置SMBus通道状态。

l     Enable:开启SMBus通道。

l     Disable:关闭SMBus通道。

StaticEID

设置静态EIDEnd Point Identifier)状态。

l     Enable:开启静态EID

l     Disable:关闭静态EID

VDMNotification

设置VDMVendor Defined Message)发现通知。

l     Enable:开启VDM发现通知。

l     Disable:关闭VDM发现通知。

 

使用指南

更改设置后需重启服务器生效。

使用实例

# 重置RAID控制卡带外管理接口。

[root@localhost ~]# arcconf setcontrollerparam 1 oobinterface reset
Controllers found: 1
You must restart the system for out-of-band setting updates to take effect.
 
Command completed successfully.

# 设置RAID控制卡带外管理接口为MCTP和相关参数。

[root@localhost ~]# arcconf SETCONTROLLERPARAM 1 OOBINTERFACE MCTP I2CAddress 0xDE SMBUSDEVICETYPE 0 SMBUSCHANNEL Enable STATICEID Enable VDMNotification Enable
Controllers found: 1
You must restart the system for out-of-band setting updates to take effect.
 
Command completed successfully.

# 设置RAID控制卡带外管理接口为PBSI和相关参数。

[root@localhost ~]# arcconf setcontrollerparam 1 oobinterface PBSI i2caddress 0xde i2cclockspeed 0 i2cclockstretch enable
Controllers found: 1
You must restart the system for out-of-band setting updates to take effect.
 
Command completed successfully.

13.8.2.7 查询所有适用arcconf工具的控制卡

命令功能

查询所有适用arcconf工具的控制卡。

命令格式

arcconf list

使用实例

# 查询所有适用arcconf工具的控制卡。

[root@localhost ~]# ./arcconf list
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
   Controller ID             : Status, Slot, Mode, Name, SerialNumber, WWN
----------------------------------------------------------------------
   Controller 1:             : Optimal, Slot 1, Mixed, MSCC Adaptec SmartRAID 3152-8i, 7A45F30016A, 50000D1E00189F30
 
Command completed successfully.
[root@localhost ~]#

13.8.2.8 设置启动盘

命令功能

通过该命令可以将PDLD设置成启动设备,其中,PD在控制卡的工作模式为HBAMIX时生效,LD在控制卡的工作模式为MIXRAID时生效。

命令格式

arcconf setboot controller_id  logicaldrive LD_id type boot_type

arcconf setboot controller_id  device physical_id type boot_type

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

LD_id

LDID

boot_type

启动项的类型

Primary :将LDPD设置为第一启动设备。

Secondary :将LDPD设置为第二启动设备。

physical_id

硬盘的physical ID

 

使用实例

# 设置LD0为第一启动设备。

[root@localhost ~]# arcconf setboot 1 logicaldrive 0 type primary
Controllers found: 1
Do you wish to change the boot type of the selected device.
Press y, then ENTER to continue or press ENTER to abort: y
 
 
Command completed successfully.

13.8.2.9 设置热备模式

命令功能

设置热备盘的模式。

命令格式

arcconf setarrayparam controller_id  array_id sparetype mode

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

array_id

arrayID

mode

热备盘的类型

l     1Dedicated

l     2Autoreplace

说明

热备盘相关介绍请参见12.3.3 硬盘热备份

 

使用实例

# 设置Array的热备盘模式为:Dedicated

[root@localhost ~]# arcconf setarrayparam 1 0 sparetype 1
Controllers found: 1
 
Command completed successfully.
[root@localhost ~]#

13.8.2.10 设置硬盘定位指示灯

命令功能

点亮、熄灭控制卡的硬盘定位指示灯。

命令格式

命令

功能

arcconf identify controller_id device physical_id time time

对特定的物理硬盘进行点灯,time为可选项表示点灯持续的时间,单位为秒。

arcconf identify controller_id device physical_id

对特定的物理硬盘持续点灯,按任意键会停止点灯。

arcconf identify controller_id all time time

对所有的物理硬盘进行点灯,time为可选项表示点灯持续的时间,单位为秒。

arcconf identify controller_id all stop

对所有的物理硬盘停止点灯

arcconf identify controller_id logicaldrive LD_id time time

对特定的LD进行点灯,time为可选项表示点灯持续的时间,单位为秒。

arcconf identify controller_id logicaldrive LD_id

对特定的LD停止点灯

arcconf identify controller_id array array_id

time time

对特定的Array进行点灯,time为可选项表示点灯持续的时间,单位为秒。

arcconf identify controller_id array array_id

对特定的Array停止点灯

arcconf identify controller_id maxcache

time time

maxCache进行点灯,time为可选项表示点灯持续的时间,单位为秒。

arcconf identify controller_id maxcache

maxCache停止点灯

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

LD_id

LDID

physical_id

硬盘的physical ID

time

硬盘指示灯点亮的时间。

为可选项表示点灯持续的时间,单位为秒。

array_id

arrayID

 

使用实例

# slot 0硬盘的停止指示灯。

[root@localhost ~]# ./arcconf identify 1 device 0 0
Controllers found: 1
Only devices managed by an enclosure processor may be identified
The specified device(s) is/are blinking.
Press any key to stop the blinking.

# 设置所有的盘进行点灯60秒。

[root@localhost ~]# ./arcconf identify 1 all time 60
Controllers found: 1
Only devices managed by an enclosure processor may be identified
 
Command completed successfully.

# 熄灭所有的硬盘指示灯。

[root@localhost ~]# ./arcconf identify 1 all stop
Controllers found: 1
 
Command completed successfully.

13.8.2.11 修改条带大小

命令功能

修改LD的条带大小。

命令格式

arcconf modify controller_id  from LD_id to stripesize size LD_size LD_level physical_id physical_id......

 

为准确修改LD的条带大小,执行该命令前,请提前确认并正确输入LD的容量大小,级别以及成员盘的physical ID

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

size

修改后的条带大小

16/32/64/128/256/512/1024,单位为KB

LD_size

LD的容量大小

单位为MB

LD_level

LDRAID级别

physical_id

LD成员盘的physical ID

 

使用实例

# LD的条带大小设置为256KB

[root@localhost ~]# arcconf modify 1 from 0 to stripesize 256 49999 1 0 0 0 1
Controllers found: 1
Reconfiguration of a logical device is a long process.  Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
Reconfiguring logical device: LogicalDrv 0
 
Command completed successfully.

13.8.2.12 通过增加成员盘可用容量扩容RAID

命令功能

Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

命令格式

arcconf modify controller_id from LD_id to LD_size LD_level physical_id physical_id......

 

l     为准确进行扩容,执行该命令前,请提前确认并正确输入RAID级别以及成员盘的physical ID

l     扩容时需要保证所增加的容量不大于当前LD所在Array剩余容量。

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

LD_id

LDID

LD_size

扩容后LD的容量大小

单位为MB

LD_level

LDRAID级别

physical_id

LD成员盘的physical ID

 

使用实例

# LD的容量扩展为89999MB

[root@localhost ~]# arcconf modify 1 from 0 to  89999 1 0 0 0 1
Controllers found: 1
Reconfiguration of a logical device is a long process.  Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
Reconfiguring logical device: LogicalDrv 0
 
Command completed successfully.

13.8.2.13 通过增加新盘进行扩容

命令功能

在已存在的RAID中添加新硬盘,扩大RAID容量。

通过增加新盘进行扩容分两步进行,先给Array添加硬盘,再进行扩容。

l     RAID1/1ADM/10在加盘扩充中会导致RAID级别升高(依据加入的硬盘数量)。

l     加盘扩容时,RAID0/RAID5/RAID6每次只能增加1个硬盘,RAID50/RAID60每次只能增加2个硬盘,RAID10ADM每次只能增加3个硬盘。

命令格式

arcconf modify controller_id array array_id expand physical_id physical_id......

arcconf modify controller_id from LD_id to LD_size LD_level physical_id physical_id......

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

array_id

Arrayid

LD_size

扩容后的RAID容量

physical_id

成员盘的physical ID

 

使用实例

# Array添加硬盘。

[root@localhost ~]# arcconf modify 1 array 0 expand 0 2
Controllers found: 1
This will modify the array 0.
 
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
Modifying array: 0
 
Command completed successfully.

# LD进行扩容。

[root@localhost ~]# arcconf modify 1 from 0 to  109996 0 0 0 0 1 0 2
Controllers found: 1
Reconfiguration of a logical device is a long process.  Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
Reconfiguring logical device: LogicalDrv 0
 
Command completed successfully.
[root@localhost ~]#

13.8.2.14 迁移RAID级别

命令功能

RAID级别进行迁移。

l     RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     迁移只支持增加与RAID组成员盘同类型同规格的硬盘。

l     为防止数据丢失,请在该操作之前备份当前RAID组的数据。

l     只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。

l     迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。

命令格式

arcconf modify controller_id from LD_id to LD_size LD_level physical_id physical_id......

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

LD_id

LDID

LD_size

LD迁移前的容量

LD_level

迁移后的LD级别

physical_id

LD成员盘的physical ID

 

使用实例

#RAID 0迁移到RAID 5

[root@localhost ~]# arcconf modify 1 from 0 to 305190 5 0 0 0 1 0 6 0 7
Controllers found: 1
Reconfiguration of a logical device is a long process.  Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
Reconfiguring logical device: LogicalDrv 0
 
Command completed successfully.

# 查询迁移进程。

[root@localhost ~]# arcconf getconfig 1 ld
Controllers found: 1
^[[A----------------------------------------------------------------------
Logical device information
----------------------------------------------------------------------
Logical Device number 0
   Logical Device name                      : LogicalDrv 0
   Disk Name                                : /dev/sda
   Block Size of member drives              : 512 Bytes
   Array                                    : 0
   RAID level                               : 5
   Status of Logical Device                 : Optimal(Background Parity Initialization : 51 %)
   Parity Initialization Status             : In Progress
   Size                                     : 305190 MB
   Stripe-unit size                         : 256 KB
   Full Stripe Size                         : 768 KB
   Interface Type                           : SATA SSD
   Device Type                              : Data
   Boot Type                                : None
   Heads                                    : 255
   Sectors Per Track                        : 32
   Cylinders                                : 65535
   Caching                                  : Enabled
   Mount Points                             : Not Applicable
   LD Acceleration Method                   : Controller Cache
   Volume Unique Identifier                 : 600508B1001C7B7C4BBF3ACB01F885BC
   --------------------------------------------------------
   Array Physical Device Information
   --------------------------------------------------------
   Device 0                                 : Present (152627MB, SATA, SSD, Channel:0, Device:0) CVPR1461036N160DGN
   Device 1                                 : Present (1526185MB, SATA, SSD, Channel:0, Device:1) PHDV624000FL1P6EGN
   Device 6                                 : Present (457862MB, SATA, SSD, Channel:0, Device:6)         17501B83246B
   Device 7                                 : Present (915715MB, SATA, SSD, Channel:0, Device:7)         18031A983BCA
 
 
 
 
Command completed successfully.

13.8.2.15 LD设置热备盘

命令功能

LD设置热备盘。

命令格式

arcconf setstate controller_id device physical_id hsp array array_id sparetype type

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

physical_id

硬盘的physical ID

array_id

ArrayID

type

热备盘的类型

1 : Dedicated

2 : Autoreplace

说明

热备盘相关介绍请参见12.3.3 硬盘热备份

 

使用实例

# LD设置Autoreplace热备盘。

[root@localhost ~]# arcconf setstate 1 device 0 3 hsp array 0 sparetype 2
Controllers found: 1
 
Any existing hot-spare drives of a different sparetype will be removed.
The physical drive used for this operation is connected to Mixed Mode(Smart HBA) connector. Using it will not allow operating system to use the drive contents.
 
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
 
Command completed successfully.

13.8.2.16 设置后台任务优先级

命令功能

设置后台任务优先级并使当前任务优先级生效。

后台任务包括后台初始化、RAID重构、迁移、扩容等。

命令格式

arcconf setpriority controller_id priority current

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

priority

后台任务优先级

l     high

l     medium

l     low

 

使用指南

使用实例

# 设置后台任务优先级为“high”并生效。

domino:~# ./arcconf setpriority 1 high current

Controllers found: 1

Command completed successfully.

13.8.2.17 使能和关闭LDcache功能

命令功能

使能和关闭LDcache功能。

命令格式

arcconf setcache controller_id logicaldrive LD_id con

arcconf setcache controller_id logicaldrive LD_id coff

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

LD_id

LDID

 

使用实例

# 使能LD0cache功能。

[root@localhost ~]# arcconf setcache 1 logicaldrive 0 con
Controllers found: 1
Cache mode is already set to Enabled.
 
Command aborted.
[root@localhost ~]#

# 关闭LD0cache功能。

[root@localhost ~]# arcconf setcache 1 logicaldrive 0 coff
Controllers found: 1
 
Command completed successfully.
[root@localhost ~]#

13.8.2.18 设置后台一致性校验的并行个数

命令功能

设置后台一致性校验的并行个数。

命令格式

arcconf consistencycheck controller_id  parallelcount parallelcount_number

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

parallelcount_number

后台一致性校验的并行个数

 

使用实例

# 设置后台一致性校验的并行个数为4

[root@localhost ~]# arcconf consistencycheck 1 parallelcount 4
Controllers found: 1
 
Command completed successfully.
[root@localhost ~]#
 
 
 CONSISTENCYCHECK <Controller#> PARALLELCOUNT <Count>

13.8.2.19 创建和删除RAID

命令功能

创建、删除RAID

命令格式

arcconf create controller_id logicaldrive option size level physical_id physical_id......

arcconf delete controller_id logicaldrive ld_id noprompt

参数说明

参数

参数说明

取值

controller_id

控制卡ID

请参照12.8.2.1 查询控制卡的基本信息获取控制卡的controller_id

controller_id1开始排序,如果有多张控制卡,将按照1,2,3...的方式进行排序。

option

要创建的LD的相关属性,具体请参见13-38

size

LD的容量大小。

单位为MB,设置时只输入数字即可,如数值设为“1024”,则表示虚拟磁盘的容量为1024MB

如果设置为“MAX”,表示使用硬盘的所有容量创建虚拟磁盘。

level

要创建的LD的级别。

支持的RAID级别请参照12.3.1 支持多种RAID级别

physical_id

LD成员盘的physical ID

请参照12.8.2.2 查询物理硬盘、ArrayLDmaxCache等相关信息获取物理硬盘的ID

ld_id

虚拟磁盘ID

请参照12.8.2.2 查询物理硬盘、ArrayLDmaxCache等相关信息获取虚拟磁盘的ID

 

表13-38 option

可设置属性

说明

取值

Stripesize

LD的条带大小

16/32/64/128/256/512/1024

Legs

LDNPG,只在创建RAID 50RAID 60时可设置。

Name

LD的名称。

Method

LD的初始化的方式。

l     BUILD

l     DEFAULT

Wcache

IO Bypass,只在创建maxCache时可设置。

l     WTwrite-through (Disabled)

l     WBwrite-back (Enabled)

LDcache

Controller Cache

SSDOverProvisioningOptimization

SSD的特性。

l     enable

l     disable

说明

l     只有当RAID组由SSD组成时,才能设置该属性。

l     该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。

DataLD

被加速的LDID

 

使用指南

使用实例

# 创建RAID 50

[root@localhost ~]# arcconf create 1 logicaldrive stripesize 256 legs 2 name vd1 method default ldcache lon MAX 50 0 0 0 1 0 2 0 3 0 4 0 5
Controllers found: 1
Space will be wasted as devices specified are of different sizes.
 
Do you want to add a logical device to the configuration?
Press y, then ENTER to continue or press ENTER to abort: y
 
Creating logical device: vd1
 
Command completed successfully.

# 删除ID0的虚拟磁盘。

[root@localhost ~]# arcconf delete 1 logicaldrive 0 noprompt
Controllers found: 1
 
WARNING: Deleting this logical device will automatically delete array 0 because it is the only logical device present on that array.
All data in logical device 0 will be lost.
Deleting: logical device 0 ("Logical Drive 1")
arr
Command completed successfully.

13.8.2.20 创建MaxCache

命令功能

创建MaxCache

命令格式

arcconf create controller_id maxcache wcache policy datald LD_id size level physical_id physical_id......

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

policy

maxCache的加速策略

wt:设置不为LD进行加速

wb:设置为LD进行加速

LD_id

被加速的LDID

size

maxCache 的容量

level

maxCache的级别

0/1/10/5

physical_id

硬盘的physical ID

 

使用实例

# 创建级别为RAID 1MaxCache

[root@localhost ~]# arcconf create 1 maxcache  wcache wb datald 0 17000 1 0 0  0 1
Controllers found: 1
Space will be wasted as devices specified are of different sizes.
 
After maxCache creation, the following operations are not allowed on the controller.
 MODIFY on logical device and Array
 SPLITMIRROR on array
 CACHERATIO on controller
 
Do you want to add a logical device to the configuration?
Press y, then ENTER to continue or press ENTER to abort: y
 
Creating maxCache
 
Command completed successfully.
[root@localhost ~]#

13.8.2.21 设置控制卡的读写比例

命令功能

设置控制卡的读写比例。

命令格式

arcconf setcache controller_id cacheratio read write

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

read

cache的比例

0~100

write

cache的比例

0~100

 

cache的比例与写cache的比例总和应为100

使用实例

# 设置读cache的比例与写cache的比例各为50%

[root@localhost ~]# arcconf setcache 1 cacheratio 50 50
Controllers found: 1
 
Command completed successfully.
[root@localhost ~]#

13.8.2.22 无电容状态下使用cache

命令功能

该命令允许在没有电容的状态下使用控制卡cache

 

在没有电容的状态下使用控制卡cache时,一旦掉电,会导致数据丢失,请谨慎使用该命令。

命令格式

arcconf setcache controller_id nobatterywritecache enable

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

 

使用实例

# 设置无电容状态下使用cache

[root@localhost ~]# arcconf setcache 1 nobatterywritecache enable
Controllers found: 1
WARNING : Enabling write caching on a cache module without a fully charged battery or capacitor could cause data loss in the event of a power failure.
 
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
 
Command completed successfully.
[root@localhost ~]#

13.8.2.23 使能一致性校验的修复策略

命令功能

使能一致性校验的修复策略。

命令格式

arcconf consistencycheck controller_id inconsistencyrepairpolicy enable

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

 

使用实例

# 使能一致性校验的修复策略。

[root@localhost ~]# arcconf consistencycheck 1 inconsistencyrepairpolicy enable
Controllers found: 1
 
Command completed successfully.
[root@localhost ~]#

13.8.2.24 使能一致性校验生成调试信息并发出通知

命令功能

使能一致性校验生成调试信息并发出通知。

命令格式

arcconf consistencycheck controller_id eventnotify enable

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

 

使用实例

# 使能一致性校验生成调试信息并发出通知。

[root@localhost ~]# arcconf consistencycheck 1 eventnotify enable
Controllers found: 1
 
Command completed successfully.
[root@localhost ~]#
 
 
 CONSISTENCYCHECK <Controller#> EVENTNOTIFY <Enable | Disable>

13.8.2.25 关闭一致性校验

命令功能

关闭一致性校验功能。

命令格式

arcconf consistencycheck controller_id off

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

 

使用实例

# 关闭一致性校验功能。

[root@localhost ~]# arcconf consistencycheck 1 off
Controllers found: 1
 
Command completed successfully.
 
 
 
CONSISTENCYCHECK <Controller#> <On [Delay]|Off> [noprompt] [nologs]

13.8.2.26 查询和设置硬盘写Cache策略

命令功能

查询、设置硬盘写Cache策略。

命令格式

arcconf getconfig controller_id ad

arcconf setcache controller_id drivewritecachepolicy drivetype cachepolicy drivetype cachepolicy...

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

-

drivetype

要设置写Cache策略的硬盘类型

l     Configured:设置RAID/Mixed模式下RAID组成员盘的写Cache策略。

l     Unconfigured:设置RAID/Mixed模式下非RAID组成员盘的写Cache策略。

l     HBA:设置HBA模式下硬盘的写Cache策略。

cachepolicy

硬盘写Cache策略

l     0Default(将硬盘的写Cache保持为默认状态)

l     1Enabled(打开硬盘的写Cache功能)

l     2Disabled(关闭硬盘的写Cache功能)

 

使用实例

# 设置Configured状态的硬盘Cache写策略为Enabled,设置Unconfigured状态的硬盘Cache写策略为Disabled

[root@localhost ~]# ./arcconf setcache 1 drivewritecachepolicy Configured 1 Unconfigured 2
Controllers found: 1
Enabling controller drive write cache can increase write performance but risks losing the data in the cache on sudden loss.
 
Command completed successfully.

# 查询当前的硬盘写Cache策略

[root@localhost ~]# ./arcconf getconfig 1 ad
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
   Controller Statue             : Optimal
   Controller Mode               :Mixed
   Channle description           :SCSI
  
...
----------------------------------------------------------------------
Physical Drive Write Cache Policy Information 
----------------------------------------------------------------------
Configured Drives                :Enabled
Unconfigured Drives              :Disabled
HBA Drives                       :Default
----------------------------------------------------------------------
...

13.8.2.27 收集FW日志

命令功能

收集控制卡的Firmware日志。

命令格式

arcconf SAVESUPPORTARCHIVE

使用实例

# 收集控制卡的Firmware日志。

[root@linux /]# arcconf SAVESUPPORTARCHIVE
Controllers found: 1
 
 Usage: SAVESUPPORTARCHIVE [Path] [Firmware|GUI|Arcconf|Storlib|Basecode|Redfish]
 Example: SAVESUPPORTARCHIVE C:\Adaptec\maxView Firmware
 Example: SAVESUPPORTARCHIVE /var/log/maxView Storlib
 Example: SAVESUPPORTARCHIVE
 Example: SAVESUPPORTARCHIVE .
 ===================================================================================
 
 Saves  all the logs
    Path          : directory other than default
    Firmware      : saves Firmware logs
    GUI           : saves GUI logs
    Arcconf       : saves Arcconf logs
    StorLib       : saves StorLib logs
    Basecode      : saves Basecode logs
    Redfish       : saves Redfish logs
 
The path is not specified, Using the default.
The logs are saved in relevant folders in /var/log/Support
 
Command completed successfully.

13.8.2.28 设置硬盘和LD状态

命令功能

设置硬盘、LDMaxCache的状态。

命令格式

命令格式

功能

arcconf setstate controller_id device physical_id state

设置硬盘状态。

arcconf setstate controller_id logicaldrive LD_id optimal

设置LD状态为optimal

arcconf setstate controller_id maxcache LD_id optimal

设置MaxCache状态为optimal

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

physical_id

硬盘的physical ID

state

设置硬盘状态。

l     hsp:将硬盘设置为热备盘,具体可参见12.8.2.15 LD设置热备盘

l     rdy:移除硬盘热备状态,或将硬盘状态从fail设置为ready

l     ddd:强制将硬盘状态设置为离线(故障)。

l     eed:启用擦除的硬盘。

array_id

ArrayID

type

设置热备的类型。

l     1dedicated spare(局部热备盘)

l     2auto replace spare(全局热备盘)

LD_id

LDID

 

使用指南

更换LD成员盘时,建议将LD状态设置为optimal后再进行更换,以免误插拔导致Array失效。

使用实例

# 将硬盘设置为离线。

[root@localhost ~]# arcconf setstate 1 device 0 11 ddd
Controllers found: 1
Changing state from Ready to Failed may delete any data partitions present on the drive.
 
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
 
Command completed successfully.

# LD状态设置为optimal

[root@localhost ~]# arcconf setstate 1 logicaldrive 0 optimal
Controllers found: 1
Attention: Using advanced options to force a logical device online is a dangerous operation and
requires substantial knowledge of the RAID level and the nature of the logical device failure.
Even if this operation can force the logical device online,
all data on this logical device may be lost if one or more disks contain outdated data.
 
All available disk segments that constitute this logical device will be forced online;
the data they contain will be used as valid data.
If you are not sure, abort and contact your service representative.
 
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
 
Command completed successfully.

# MaxCache的状态设置为optimal

[root@localhost ~]# arcconf setstate 1 maxcache 1 optimal
Controllers found: 1
Attention: Using advanced options to force a maxCache logical device online is a dangerous operation and
requires substantial knowledge of the RAID level and the nature of the maxCache logical device failure.
Even if this operation can force the maxCache logical device online,
all data on this maxCache logical device may be lost if one or more disks contain outdated data.
 
All available disk segments that constitute this maxCache logical device will be forced online;
the data they contain will be used as valid data.
If you are not sure, abort and contact your service representative.
 
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
Command completed successfully.

13.8.2.29 设置SSD I/O Bypass状态

命令功能

设置SSD I/O Bypass状态。

命令格式

arcconf setarrayparam controller_id  array_id ssdiobypass state

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

array_id

arrayID

state

设置SSD I/O Bypass启用状态

l     enable:启用SSD I/O Bypass

l     disable:禁用SSD I/O Bypass

 

使用指南

使用实例

# 禁用SSD I/O Bypass

[root@localhost ~]# arcconf setarrayparam 1 2 ssdiobypass disable
Controllers found: 1
 
Disabling SSD I/O bypass will impact the performance of all the logical device(s) in the array. You can enable the controller caching on logical device(s) to improve performance.
 
Command completed successfully.


14 MSCC SmartHBA 2100-8i

关于本章

介绍MSCC SmartHBA 2100-8i RAID控制卡的外观、特性、以及配置方法。

本章节涉及的截图以1.61 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

13.1  概述

13.2  硬盘状态

13.3  功能

13.4  初始配置

13.5  常用任务

13.6  故障处理

13.7  管理界面介绍

13.8  OS命令行工具

14.1 概述

MSCC SmartHBA 2100-8i控制卡(以下简称2100-8i)提供212Gbit/smini SAS HD接口,支持PCIe 3.0接口,并支持最多8phy

2100-8i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

2100-8i的结构如14-1所示。

图14-1 2100-8i外观

 

14.2 硬盘状态

控制卡下属的物理硬盘有如14-1所示的状态。

表14-1 物理硬盘状态

状态

说明

Online

硬盘为某个虚拟磁盘的成员盘,可正常使用,处于在线状态。

Hot Spare

被设置为热备盘。

Failed

当“Online”状态或“Hot Spare”状态的硬盘出现不可恢复的错误时,会体现为此状态。

Rebuilding

硬盘正在进行数据重构,此时硬盘的性能会受一定程度的影响。

Not Supported

当前的控制卡不支持该硬盘,需要更换成RAID控制卡支持的硬盘。

RawPass Through

HBA模式下的裸盘。

Ready

硬盘可用于配置RAID组。

Mixed模式下的直通盘也会显示为该状态。

Predictive Failure

硬盘即将变为Failed状态,应备份硬盘上的数据,并更换硬盘。

Erase In Progress

硬盘正在进行擦除。

 

控制卡下创建的RAID组有如14-2所示的状态。

表14-2 RAID组状态

状态

说明

Optimal

RAID组状态良好,所有成员盘均在线。

Failed

故障或离线的硬盘数超过了RAID组可容忍的坏盘数。

Interim Recovery

RAID组降级,因为RAID组中存在故障盘,使得RAID组运行性能降低,数据可能丢失。要解决此问题,请检查硬盘是否正确连接设备,或更换故障的硬盘。

Rebuilding

RAID组正在从容错数据盘中进行重构。

Ready for Rebuild

准备执行重构。

 

14.3 功能

14.3.1 支持多种RAID级别

2100-8i最多支持238个硬盘,最多支持64Array,每个Array最多支持64LDLogical Drive),整张RAID控制卡所有Array最多支持64LD

Array即通常所说的硬盘组,每个Array可以包括1个或多个LD

2100-8i支持的RAID级别及对应的硬盘个数如14-3所示。

表14-3 RAID-硬盘参数

RAID级别

支持硬盘数

允许坏盘数

RAID 0

1 128

0

RAID 1

2

1

RAID 10

4 128 (偶数)

子组数(每个子组里最多只允许坏1个盘)

 

l     子组数:子RAID的个数,例如RAID 10由两个RAID 1组成,则子组数为2

l     不支持RAID 5级别。

14.3.2 支持多种工作模式

2100-8i RAID控制卡支持多种工作模式,具体如下:

l     RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS

l     HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。

l     Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。

l     Independent模式:允许Port CN0CN1使用不同的工作模式(FW版本5.32及之后版本支持,仅适用于直通背板)。

默认为“Mixed”模式。

14.3.3 硬盘热备份

热备盘是用于替代Array故障成员盘的硬盘,在成员盘故障时承载故障盘中的数据。

2100-8i支持创建最多32个热备盘,一个Array下最多支持创建4个热备盘,使Array在有一个或多个与热备盘同类型的成员盘故障的情况下,可以由热备盘替代,防止Array的数据丢失和状态进一步恶化。

2100-8i支持dedicated spareauto replace spare两种类型的热备盘:

l     dedicated sparededicated模式的热备盘会作为Array的固定热备盘。当Array中某个硬盘发生故障,dedicated模式的热备盘会替代损坏盘并利用其他成员盘和冗余数据重构,生成损坏盘的数据。更换新的硬盘之后,新加入的硬盘会利用其它成员盘和数据继续重构,恢复Array的状态。Array的状态恢复完成后,热备盘恢复原始状态。该模式下的热备盘可以手动与所有的Array进行关联。

l     auto replace spareArray中某个硬盘发生故障时,auto replace模式的热备盘会替代故障盘并利用其他成员盘和冗余数据重构,生成故障盘的数据。当更换新的硬盘之后,原始热备盘中的数据继续作为Array的成员盘被使用,而新更换的硬盘将作为新的“热备盘”。该模式下的热备盘只能作为某一个Array的热备盘。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当Array的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为热备盘。

l     空闲硬盘可配置为热备盘,已加入Array的硬盘不能配置为热备盘。

l     热备盘必须和Array的成员盘类型相同,且容量不小于Array成员盘最大容量。

14.3.4 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下取出和更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

14.3.5 重构

具备冗余功能的Array的成员盘故障之后,热备盘自动替换故障数据盘并开始同步。

重构过程中如果服务器出现重启、下电再上电的情况,服务器上电后,重构将会从零重新开始。

14.3.6 硬盘分条

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数和数据传输率有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待,这时就是所谓的硬盘冲突。

条带化技术是一种自动将I/O负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

影响条带化效果的因素有:

l     条带宽度:指同时可以并发读或写的条带数量。

这个数量等于Array中的物理硬盘数量。增加条带宽度,可以增加Array的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。

在其他条件一样的前提下,一个由818G硬盘组成的阵列相比一个由436G硬盘组成的阵列具有更高的传输性能。

l     条带大小:指写在每块硬盘上的条带数据块的大小。

硬盘分条即把Array中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。

2100-8i支持多种条带大小,包括16KiB32KiB64KiB128KiB256KiB512KiB1024KiB,默认条带大小为256KiB

14.3.7 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

2100-8i可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在2100-8i下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。

直通模式下的硬盘发生故障时(通常指硬盘本身健康状态不佳),硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

14.3.8 擦除硬盘数据

2100-8i下挂载的硬盘支持“Erase Disk”,即安全擦除指定硬盘。Erase Disk格式化彻底、耗时长。

数据擦除过程中,不能执行关机,重启,插拔硬盘等操作,否则会导致硬盘被损坏。

 

擦除数据完成后,所有的硬盘数据会被清除。请谨慎执行该操作。

14.3.9 外部配置导入

当包含RAID配置信息的硬盘插入服务器后,服务器在启动过程中识别到当前硬盘配置符合该外部配置要求时,自动导入外部配置。

14.4 初始配置

BIOS中“Boot Type”设置为“UEFI Boot”模式时,打开的管理界面如下所述。

文档中描述的关于2100-8i的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“ARCCONF”命令行工具。

14.4.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如14-2所示界面时,按“Delete”。

图14-2 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如14-3所示界面。

图14-3 Setup Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如14-4所示。

图14-4 “Advanced”页签

 

                                步骤 5     选择“MSCC SmartHBA 2100-8i”,按“Enter”。

进入如14-5所示界面,参数说明如14-4所示。

图14-5 MSCC SmartHBA 2100-8i控制卡主界面

 

表14-4 参数说明

参数

说明

Controller Information

查看控制卡相关的基本信息。

Configure Controller Settings

设置控制卡的相关属性。

Array Configuration

创建与管理Array

Disk Utilities

查看与管理控制卡的硬盘。

Set Bootable Device(s) for Legacy Boot Mode

设置控制卡在Legacy模式下的第一启动盘与第二启动盘。

Administration

控制卡的其他相关操作,包括更新Firmware,收集RAID控制卡日志,恢复RAID控制卡参数为出厂配置等。

 

----结束

14.4.2 创建RAID 0

操作场景

 

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见14.5.5 设置RAID控制卡工作模式

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     2100-8i支持的硬盘类型为SAS/SATA HDDSATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     RAID级别所需的硬盘数请参见14.3.1 支持多种RAID级别

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见14.4.1 登录管理界面

                                步骤 1     14-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择“Create Array”并按Enter

进入成员盘选择界面,如14-6所示。

图14-6 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array

l     硬盘状态为“×”时表示硬盘被选中。

l     创建RAID 0支持的硬盘个数为1~128

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如14-7所示。

图14-7 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID0”,并选择“Proceed to next Form”。

进入Array属性配置界面,如14-8所示,参数说明如14-5所示。

图14-8 配置Array属性

 

表14-5 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size

Size

整个LD的容量大小。

Unit size

LD的容量计算单位。

l     TiB

l     GiB

l     MiB

Acceleration method

设置LD所采用的加速方法。

l     IO Bypass(只有当LDSSD组成时,该选项有效)

l     None(禁用加速)

Submit Changes

确认修改。

 

                                步骤 6     按照14-5所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 7     (可选)创建多个LD

Array未占用成员硬盘全部容量时,才可进行此操作。

1.     14-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如14-9所示。

图14-9 Manage Arrays

 

2.     选择要创建多个LDArray并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤7

此处根据实际需求,可创建多个LD每个Array最多支持128LD

                                步骤 8     检查配置结果。具体操作请参见14.5.1 查看Array属性

                                步骤 9     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见14.5.6 设置物理硬盘Cache

----结束

14.4.3 创建RAID 1

操作场景

 

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见14.5.5 设置RAID控制卡工作模式

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     2100-8i支持的硬盘类型为SAS/SATA HDDSATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     RAID级别所需的硬盘数请参见14.3.1 支持多种RAID级别

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见14.4.1 登录管理界面

                                步骤 1     14-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create Array

进入成员盘选择界面,如14-10所示。

图14-10 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array

l     硬盘状态为“×”时表示硬盘被选中。

l     RAID 1支持的硬盘个数为2

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如14-11所示。

图14-11 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID1”,并选择“Proceed to next Form”。

进入Array属性配置界面,如14-12所示,参数说明如14-6所示。

图14-12 配置Array属性

 

表14-6 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size

Size

整个LD的容量大小。

Unit size

LD的容量计算单位。

l     TiB

l     GiB

l     MiB

Acceleration method

设置LD所采用的加速方法。

l     IO Bypass(只有当LDSSD组成时,该选项有效)

l     None(禁用加速)

Submit Changes

确认修改。

 

                                步骤 6     按照14-6所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 7     (可选)创建多个LD

Array未占用成员硬盘全部容量时,才可进行此操作。

1.     14-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如14-13所示。

图14-13 Manage Arrays

 

2.     选择要创建多个LDArray并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤7

此处根据实际需求,可创建多个LD每个Array最多支持128LD

                                步骤 8     检查配置结果。具体操作请参见14.5.1 查看Array属性

                                步骤 9     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见14.5.6 设置物理硬盘Cache

----结束

14.4.4 创建RAID 10

操作场景

 

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见14.5.5 设置RAID控制卡工作模式

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     2100-8i支持的硬盘类型为SAS/SATA HDDSATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     RAID级别所需的硬盘数请参见14.3.1 支持多种RAID级别

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见14.4.1 登录管理界面

                                步骤 1     14-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create Array

进入成员盘选择界面,如14-14所示。

图14-14 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array

l     硬盘状态为“×”时表示硬盘被选中。

l     RAID 10支持的硬盘个数为4~128且必须为偶数。

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如14-15所示。

图14-15 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID1+0”,并选择“Proceed to next Form”。

进入Array属性配置界面,如14-16所示,参数说明如14-7所示。

图14-16 配置Array属性

 

表14-7 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size

Size

整个LD的容量大小。

Unit size

LD的容量计算单位。

l     TiB

l     GiB

l     MiB

Acceleration method

设置LD所采用的加速方法。

l     IO Bypass(只有当LDSSD组成时,该选项有效)

l     None(禁用加速)

Submit Changes

确认修改。

 

                                步骤 6     按照14-7所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 7     (可选)创建多个LD

Array未占用成员硬盘全部容量时,才可进行此操作。

1.     14-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如14-17所示。

图14-17 Manage Arrays

 

2.     选择要创建多个LDArray并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤7

此处根据实际需求,可创建多个LD每个Array最多支持128LD

                                步骤 8     检查配置结果。具体操作请参见14.5.1 查看Array属性

                                步骤 9     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见14.5.6 设置物理硬盘Cache

----结束

14.5 常用任务

14.5.1 查看Array属性

操作步骤

14-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入

进入“Manage Arrays”界面,如14-18所示。

图14-18 “Manage Arrays”界面

 

                                步骤 2     选择要进行查看的Array,并按“Enter”。

进入Array操作界面,如14-19所示,参数说明如14-8所示。

图14-19 Array相关操作

 

表14-8 参数说明

参数

说明

Array Type

Array的类型,通常显示为“Data”,表示Array是数据盘。

List Logical Drives

逻辑盘相关的接口,可查看、修改逻辑盘的属性,删除逻辑盘等。

Create Logical Drive

创建逻辑盘。

Manage Spare Drives

热备盘相关的接口,可创建,删除热备盘等。

Identify Device

点亮/熄灭整个Array所有硬盘的locate灯。

Delete Array

删除Array

 

----结束

查看LD的属性

14-19中选择“List Logical Drive”并按“Enter”。

进入LD列表。

                                步骤 1     选择要进行查看的LD并按“Enter”。

进入LD相关操作界面,如14-20所示,参数说明如14-9所示。

图14-20 LD相关操作

 

表14-9 参数说明

参数

说明

Logical Drive Details

查看LD的相关属性。

Edit Logical Drive

修改LD的相关属性。

Delete Logical Drive

删除LD

 

                                步骤 2     选择“Logical Drive Details”并按“Enter”。

显示LD的相关属性,如14-21所示,界面参数如14-10所示。

图14-21 LD相关属性

 

表14-10 参数说明

参数

说明

Status

当前LD的状态。

Size

整个LD的容量大小。

RAID Level

当前LDRAID级别。

Legacy Disk GeometryC/H/S

当前LD所处的硬盘几何位置。

Strip Size

整个LD的单个子组条带大小。

Full Stripe Size

整个LD的分条大小。

Logical Drive Label

LD的自定义标签。

Acceleration Method

LD的加速方法。

l     IO Bypass(只有当LDSSD组成时,该选项有效)

l     None(禁用加速)

Logical Drive Members

LD的物理成员盘。

 

----结束

14.5.2 配置热备盘

操作场景

对服务器的硬盘进行Array分组后,一般会配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     2100-8i支持dedicated spareauto replace spare两种类型的热备盘,具体介绍请参见14.3.3 硬盘热备份

l     只有当“Spare Activation Mode”(热备盘的激活模式)设置为“Predictive Spare Activation”时,RAID0才支持配置热备盘。具体方法请参见14.7.3.1 Modify Controller Settings

必备事项

前提条件

l     服务器存在空闲硬盘。

l     已登录管理界面,具体操作请参见14.4.1 登录管理界面

数据

该操作无需准备数据。

操作步骤

14-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入

进入“Manage Arrays”界面,如14-22所示。

图14-22 “Manage Arrays”界面

 

                                步骤 2     选择要创建热备盘的Array并按“Enter”。

                                步骤 3     选择“Manage Spare Drives”并按“Enter”。

进入热备盘类型选择界面,如14-23所示,参数说明如14-11所示。

图14-23 选择热备盘类型

 

表14-11 参数说明

参数

说明

Assign Dedicated Spare

设置硬盘为dedicated spare drive

dedicated模式的热备盘会作为Array的固定热备盘。当Array中某个硬盘发生故障,dedicated模式的热备盘会替代损坏盘并利用其他成员盘和冗余数据重构,生成损坏盘的数据。更换新的硬盘之后,新加入的硬盘会利用其它成员盘和数据继续重构,恢复Array的状态。Array的状态恢复完成后,热备盘恢复原始状态。

该模式下的热备盘可以手动与所有的Array进行关联。

Assign Auto Replace Spare

设置硬盘为auto replace drives

该模式下,Array中某个硬盘发生故障时,auto replace模式的热备盘会替代故障盘并利用其他成员盘和冗余数据重构,生成故障盘的数据。当更换新的硬盘之后,原始热备盘中的数据继续作为Array的成员盘被使用,而新更换的硬盘将作为新的“热备盘”。

该模式下的热备盘只能作为某一个Array的热备盘。

 

                                步骤 4     按照14-11所述,选择要设置的热备盘类型,并按“Enter”。

进入硬盘选择界面。

                                步骤 5     选择要设置的硬盘并按“Enter”。

没有加入Array且与Array成员盘类型一致的硬盘可设置为热备盘。建议使用与Array的成员盘型号、容量一致的硬盘作为热备盘。

                                步骤 6     选择“Assign Dedicated Spare”或“Assign Auto Replace Spare”并按“Enter”。

提示操作成功。

----结束

14.5.3 删除热备盘

操作场景

当环境中硬盘个数不满足业务需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

操作步骤

14-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入

进入“Manage Arrays”界面,如14-24所示。

图14-24 “Manage Arrays”界面

 

                                步骤 2     选择要进行操作的Array并按“Enter”。

                                步骤 3     选择“Manage Spare Drives”并按“Enter”。

进入“Manage Spare Drives”界面,如14-25所示。

图14-25 Manage Spare Drives

 

                                步骤 4     选择“Delete Spare Drives”并按“Enter”。

进入硬盘选择界面,如14-26所示。

图14-26 选择硬盘

 

                                步骤 5     选择要删除的热备盘并按“Enter”。

                                步骤 6     选择“Delete Spare Drives”并按“Enter”。

提示操作成功。

----结束

14.5.4 删除Array

操作场景

当服务器不需要Array或需要重新配置Array时,要先删除当前Array配置来释放硬盘。

 

删除Array后,Array上的所有数据和Array下的所有LD都将被删除,请谨慎执行删除Array操作。

必备事项

前提条件

l     已创建Array

l     已登录管理界面,具体操作请参见14.4.1 登录管理界面

数据

待删除Array中的数据已备份。

操作步骤

14-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入“Manage Arrays”界面,如14-27所示。

图14-27 “Manage Arrays”界面

 

                                步骤 2     选择要删除的Array并按“Enter”。

                                步骤 3     选择“Delete Array”并按“Enter”。

进入操作确认界面。

 

删除Array后,Array上的所有数据和Array下的所有LD都将被删除,请谨慎执行删除Array操作。

                                步骤 4     按“Enter”。

提示操作成功。

----结束

14.5.5 设置RAID控制卡工作模式

l     当背板类型为直通背板时,可通过本章节的指导,分别设置Connector 0Connector 1的工作模式,也可通过设置“Configure Controller Port Mode”参数,将所有Connector的工作模式同时设置为同一模式。具体操作请参见14.7.3.6 Configure Controller Port Mode

l     当背板类型为Expander时,只能通过设置“Configure Controller Port Mode”参数,将RAID控制卡的工作模式同时设置为同一模式。具体操作请参见14.7.3.6 Configure Controller Port Mode

操作步骤

进入“Modify Controller Settings”界面。

14-5界面中,按照“Configure Controller Settings>Modify Controller Settings”的顺序进入“Modify Controller Settings”界面,如14-28所示。

图14-28 Modify Controller Settings”界面

 

                                步骤 2     设置Connector 0的工作模式。

1.     选择“Port CN0 Mode”并按“Enter”。

弹出工作模式选择菜单。

l     2100-8i支持多种工作模式,分别为:

l     RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS

l     Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。

l     HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。

l     当配置有RAID组时,不支持将RAID控制卡的工作模式切换成HBA模式。

l     默认为“Mixed”模式。

2.     根据实际需要选择要设置的工作模式,并按“Enter”。

                                步骤 3     设置Connector 1的工作模式。

1.     选择“Port CN1 Mode”并按“Enter”。

2.     根据实际需要选择要设置的工作模式,并按“Enter”。

两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。

                                步骤 4     选择“Submit Changes”并按“Enter”。

提示操作成功。

----结束

14.5.6 设置物理硬盘Cache

操作步骤

14-5界面中,按照“Configure Controller Settings>Modify Controller Settings>的顺序进入“Modify Controller Settings”界面,如14-29所示,参数说明如14-12所示。

图14-29 Modify Controller Settings

 

表14-12 参数说明

参数

说明

Transformation Priority

设置Array扩展、逻辑盘扩展、逻辑盘迁移、Array收缩/迁移等操作的优先级,分为High/Medium/Low三个选项。

默认取值为“Medium”。

说明

该选项设置为“high”时,会抢占I/O资源,影响读写I/O性能,建议用户保持默认取值。

Rebuild Priority

设置逻辑盘重构的优先级,分为Low/Medium/Medium High/High四个选项。

默认取值为“High”。

Surface Scan Analysis Priority

设置两次硬盘表面扫描的时间间隔,硬盘表面扫描主要是检查硬盘健康状态。

可选项为0~31,默认值为3,数字表示Controller在下一次Surface Scan Analysis之前的延迟时间,单位为秒。0表示禁用硬盘表面扫描功能。

Current Parallel Surface Scan Count

设置同时启动硬盘表面扫描进程的数量,取值范围为1~16,默认值为1。设置为1时表示禁用硬盘表面扫描功能。

Spare Activation Mode

设置热备盘的激活模式,可选模式有:

l     Failure Spare Activation

l     Predictive Spare Activation

默认取值为“Failure Spare Activation”。

Unconfigured Physical Drive Write Cache State

设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

HBA Physical Drive Write Cache State

设置HBA模式下硬盘的写Cache状态

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

Configured Physical Drive Write Cache State

设置RAID/Mixed模式下RAID组成员盘的写Cache状态。

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

Port CN0 Mode

设置Connector 0端口的模式,有以下三种模式:

l     RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS

l     Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。

l     HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。

说明

l     当背板类型为直通背板时,才会显示该参数。

l     两个Connector Port如果接在同一块Expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。

Port CN1 Mode

设置Connector 1端口的模式,有以下三种模式:

l     RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS

l     Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。

l     HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。

说明

l     当背板类型为直通背板时,才会显示该参数。

l     两个Connector Port如果接在同一块Expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。

Submit Changes

确认修改。

 

l     如果要设置RAID/Mixed模式下非RAID组成员盘的写Cache状态,请执行步骤2

l     如果要设置HBA模式下硬盘的写Cache状态,请执行步骤3

l     如果要设置RAID/Mixed模式下RAID组成员盘的写Cache状态,请执行步骤4

                                步骤 2     设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。

1.     选择“Unconfigured Physical Drive Write Cache State”并按“Enter”。

2.     参考14-12的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。

3.     选择“Submit Changes”并按“Enter”。

提示操作成功。

                                步骤 3     设置HBA模式下硬盘的写Cache状态。

1.     选择“HBA Physical Drive Write Cache State”并按“Enter”。

2.     参考14-12的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。

3.     选择“Submit Changes”并按“Enter”。

提示操作成功。

                                步骤 4     设置RAID/Mixed模式下RAID组成员盘的写Cache状态。

1.     选择“Configured Physical Drive Write Cache State”并按“Enter”。

2.     参考14-12的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。

3.     选择“Submit Changes”并按“Enter”。

提示操作成功。

----结束

14.5.7 查询RAID控制卡固件版本

查询RAID控制卡固件版本的方法有如下几种:

l     iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。

l     服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见14.8.2.3 查询控制卡的FW和驱动版本

回显信息中的“Firmware”字段即为RAID控制卡的固件版本。

l     RAID控制卡管理界面进行查询,具体方法为:

a.     登录RAID控制卡的管理界面,具体操作请参见14.4.1 登录管理界面

b.     在主界面中选择“Controller Information”并按“Enter”。

显示RAID控制卡基本信息。界面中的“Firmware version”即为RAID控制卡的固件版本,如14-30所示。

图14-30 Controller Information界面

 

14.6 故障处理

介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

14.6.1 硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘Fault指示灯点亮。

l     硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

直通模式下的硬盘发生故障时(通常指硬盘本身健康状态不佳),硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

处理方法

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位。

l     新硬盘必须与RAID组成员盘类型一致且容量不小于RAID组成员盘的容量。

l     更换RAID组的硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组(RAID0除外)重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

判断硬盘故障后,数据是否可恢复。

l     RAID组为RAID 0,则数据不可恢复。直接安装新硬盘,重新配置RAID,操作完成。

l     RAID组未失效且存在可用热备盘,则热备盘自动替代故障盘,进入Rebuild状态同步数据。

l     RAID组为冗余未失效的RAID配置且不存在可用热备盘,则需要安装新硬盘进行数据恢复。

                                步骤 1     拔掉故障硬盘。

                                步骤 2     插入新硬盘。

l     若插入的硬盘无数据,则根据原RAID情况有如下工作方式:

     若原RAID组存在热备盘且已完成了数据重构,热备盘数据自动拷贝至新插入的硬盘中。原热备盘恢复热备状态,操作完成。

     RAID组为冗余未失效的RAID配置且不存在可用热备盘,新插入的硬盘自动执行Rebuild操作重构故障硬盘数据,操作完成。

l     若插入的硬盘存在RAID信息,请执行步骤4

                                步骤 3     对插入的硬盘执行安全擦除操作。

                                步骤 4     手动重构RAID

----结束

14.6.2 控制卡故障

问题描述

当服务器出现如下现象时,说明控制卡故障。

l     数据无法写入控制卡控制的硬盘。

l     服务器上报控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     查询兼容性查询助手或者联系技术支持处理。

----结束

14.6.3 重新激活状态为FailedRAID

问题描述

登录控制卡主界面,根据路径“Manage Arrays > Array >  List Logical Drives >  Logical 1 >  Logical Drive Details”进入RAID组详细信息界面,确认RAID组的状态“Status”为“Failed”。

其中“Array”根据实际情况选择Array A/B等。

处理方法

登录控制卡主界面,具体操作请参见14.4.1 登录管理界面

                                步骤 1     根据路径“Manage Arrays > Array >  List Logical Drives >  Logical 1”进入RAID组配置界面。

                                步骤 2     选择“Re-Enable Logical Drive”重新激活RAID组。

                                步骤 3     根据路径“Manage Arrays > Array >  List Logical Drives >  Logical 1 >  Logical Drive Details”进入RAID组详细信息界面。查看RAID组的状态“Status”是否恢复为“Optimal”或者“Ok”。

l      => 处理完毕。

l      => 步骤5

                                步骤 4     收集和查看日志信息以及其它必要的故障信息。

联系技术支持处理。

----结束

14.7 管理界面介绍

14.7.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如14-31所示界面时,按“Delete”。

图14-31 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如14-32所示界面。

图14-32 Setup Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如14-33所示。

图14-33 “Advanced”页签

 

                                步骤 5     选择“MSCC SmartHBA 2100-8i”,按“Enter”。

进入如14-34所示界面,参数说明如14-13所示。

图14-34 MSCC SmartHBA 2100-8i控制卡主界面

 

表14-13 参数说明

参数

说明

Controller Information

查看控制卡相关的基本信息。

Configure Controller Settings

设置控制卡的相关属性。

Array Configuration

创建与管理Array

Disk Utilities

查看与管理控制卡的硬盘。

Set Bootable Device(s) for Legacy Boot Mode

设置控制卡在Legacy模式下的第一启动盘与第二启动盘。

Administration

控制卡的其他相关操作,包括更新Firmware,收集RAID控制卡日志,恢复RAID控制卡参数为出厂配置等。

 

----结束

14.7.2 Controller Information

在“Controller Information”界面中,可以查看控制卡相关的基本信息。

界面介绍

在如14-5所示的主界面中选择“Controller Information”,打开“Controller Information”界面,如14-35所示,参数说明如14-14所示。

图14-35 “Controller Information”界面

 

表14-14 参数说明

参数

说明

Controller

RAID控制卡的名称。

Device Id

设备编号。

PCI Address

BIOS分配给RAID控制卡的PCI总线地址。

Hardware Revision

硬件修订版本。

Serial Number

RAID控制卡序列号。

WWID

world wide nameRAID控制卡的唯一标识号。

Firmware version

Firmware的版本号。

Firmware release data

Firmware的发布日期。

UEFI Driver version

UEFI驱动版本号。

UEFI Driver release date

UEFI驱动版本发布日期。

Temperature

RAID控制卡当前温度,耐受温度上限为105度,超过80度,即为不正常。

Controller Memory Module Size

RAID控制卡的cache大小。

Controller Mode

RAID控制卡的当前的使用模式,有多种工作模式。

l     RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS

l     HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。

l     Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。

l     Independent模式:允许Port CN0CN1使用不同的工作模式(FW版本5.32及之后版本支持,仅适用于直通背板)。

默认为“Mixed”模式。

Supported Mode

RAID控制卡Port口的支持模式。

l     Port CN0:RAID HBA Mixed

l     Port CN1:RAID HBA Mixed

 

14.7.3 Configure Controller Settings

在“Configure Controller Settings”界面中,可以设置控制卡的相关属性。

界面介绍

在如14-5所示的配置工具主界面中选择“Configure Controller Settings”,打开“Configure Controller Settings”界面,如14-36所示,参数说明如14-15所示。

图14-36 Configure Controller Settings

 

表14-15 参数说明

参数

说明

Modify Controller Settings

修改控制卡的相关属性。

Advanced Controller Settings

修改控制卡的高级属性。

Clear Configuration

清除控制卡当前所有的ArrayRAID组配置。

Manage Power Settings

控制卡能耗设置。

BMC Settings

RAID控制卡带外管理相关的BMC设置。

Configure Controller Port Mode

设置RAID控制卡的使用模式。

 

14.7.3.1 Modify Controller Settings

界面说明

Modify Controller Settings”界面如14-37所示,参数说明如14-16所示。

图14-37 Modify Controller Settings

 

表14-16 参数说明

参数

说明

Transformation Priority

设置Array扩展、逻辑盘扩展、逻辑盘迁移、Array收缩/迁移等操作的优先级,分为High/Medium/Low三个选项。

默认取值为“Medium”。

说明

该选项设置为“high”时,会抢占I/O资源,影响读写I/O性能,建议用户保持默认取值。

Rebuild Priority

设置逻辑盘重构的优先级,分为Low/Medium/Medium High/High四个选项。

默认取值为“High”。

Surface Scan Analysis Priority

设置两次硬盘表面扫描的时间间隔,硬盘表面扫描主要是检查硬盘健康状态。

可选项为0~31,默认值为3,数字表示Controller在下一次Surface Scan Analysis之前的延迟时间,单位为秒。0表示禁用硬盘表面扫描功能。

Current Parallel Surface Scan Count

设置同时启动硬盘表面扫描进程的数量,取值范围为1~16,默认值为1。设置为1时表示禁用硬盘表面扫描功能。

Spare Activation Mode

设置热备盘的激活模式,可选模式有:

l     Failure Spare Activation

l     Predictive Spare Activation

默认取值为“Failure Spare Activation”。

Unconfigured Physical Drive Write Cache State

设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

HBA Physical Drive Write Cache State

设置HBA模式下硬盘的写Cache状态

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

Configured Physical Drive Write Cache State

设置RAID/Mixed模式下RAID组成员盘的写Cache状态。

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

Port CN0 Mode

设置Connector 0端口的模式,有以下三种模式:

l     RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS

l     Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。

l     HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。

说明

l     当背板类型为直通背板时,才会显示该参数。

l     两个Connector Port如果接在同一块Expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。

Port CN1 Mode

设置Connector 1端口的模式,有以下三种模式:

l     RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS

l     Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。

l     HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。

说明

l     当背板类型为直通背板时,才会显示该参数。

l     两个Connector Port如果接在同一块Expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。

Submit Changes

确认修改。

 

当“Surface Scan Analysis priority”选项设置为0或“Current Parallel Surface Scan Count”选项设置为1时,硬盘表面扫描功能(Surface Scan)会被禁用。

14.7.3.2 Advanced Controller Settings

界面说明

Advanced Controller Settings”界面如14-38所示,参数说明如14-17所示。

图14-38 Advanced Controller Settings

 

表14-17 参数说明

参数

说明

Degraded Mode Performance Optimization

对于降格的RAID5逻辑驱动器,启用此设置将指示控制卡通过缓冲物理驱动器请求,提高大规模读请求的性能;禁用此设置将强制控制卡从同一驱动器中多次读取数据。

Physical Drive Request Elevator Sort

设置驱动器的写入电梯排序算法的行为。这种调度优化将I/O请求按优先级排序,使硬盘取数臂和磁头运动继续沿同一方向进行。启用电梯排序功能将优化寻道时间;禁用电梯排序功能将增加吞吐量。

Maximum Drive Request Queue Depth

设置控制卡的队列深度,有效取值自动设置为2481632

Monitor and Performance Analysis Delay

以分钟为单位,设置控制卡的监控和性能分析延迟参数。默认参数值为60分钟。若将该值设置为0,将禁用监控和性能分析功能。

HDD Flexible Latency Optimization

为硬盘提供灵活时延优化功能。启用灵活时延优化功能,控制卡会检测I/O请求,设置时延阈值。如果检测到的I/O请求时延满足该阈值,则即时禁用电梯排序功能和业务请求,执行满足阈值的I/O请求,减少高时延I/O请求数量。阈值的有效取值范围如下:

l     Disabled:禁用

l     Low:低值

l     Middle(100ms):中等值

l     High:高值

l     Very High(30ms):较高值

l     Very High(10ms):极高值

Submit Changes

确认修改。

 

14.7.3.3 Clear Configuration

界面说明

Clear Configuration”界面如14-39所示,参数说明如14-18所示。

图14-39 Clear Configuration

 

表14-18 参数说明

参数

说明

Delete All Array Configurations

清除所有RAID组的配置信息。

须知

选择该参数会删除当前RAID控制卡下所有的RAID配置信息,请谨慎操作。

Delete Configuration metadata on all physical drives

清除所有不属于RAID组,但带有RAID信息的物理硬盘数据。

 

14.7.3.4 Manage Power Settings

界面说明

Manage Power Settings”界面如14-40所示,参数说明如14-19所示。

图14-40 Manage Power Settings

 

表14-19 参数说明

参数

说明

Power Mode

设置控制卡的Power Mode

l     Minimum Power:将Static设置设为最低级。

l     Maximum Performance:将Static设置设为最高级。

说明

默认为“Maximum Performance”。

Survival Mode

RAID控制卡的温度超过阈值时,Survival Mode将允许控制卡将所有的功耗配置设置为最小值,选择该模式后,服务器将继续在这种环境下工作,但性能可能会下降。

l     Enabled:启动该特性。

l     Disabled:关闭该特性。

默认取值为Enabled

Submit Changes

确认修改。

 

14.7.3.5 BMC Settings

BMC Settings”界面如14-41所示,参数说明如14-20所示。

图14-41 BMC Settings

 

表14-20 参数说明

参数

说明

I2C Slave Address(Hexadecimal)

设置ControllerI2C总线上的设备地址。

该地址为协议格式中第一个字节(称为slave address),由7位地址和一位R/W读写位(01读)组成,设置范围为0xD0~0xFF

说明

建议该选项保持默认值。

Submit Changes

确认修改。

 

14.7.3.6 Configure Controller Port Mode

界面说明

Configure Controller Port Mode”界面如14-42所示,参数说明如14-21所示。

图14-42 Configure Controller Port Mode

 

表14-21 参数说明

参数

说明

Controller Port Mode

设置控制卡的端口模式,有以下几种:

l     RAID模式:控制卡下的逻辑盘会上报OS,但直通盘不会报送给OS

l     HBA模式:控制卡的所有RAID功能都被禁用,控制卡下所有硬盘都被视为直通盘。

l     Mixed模式:RAID逻辑盘和直通盘都会报送给OS,即该模式支持以RAID和直通方式使用硬盘。未配置RAID的硬盘都将以直通盘方式使用(无需额外配置)。

l     Independent模式:允许Port CN0CN1使用不同的工作模式(FW版本5.32及之后版本支持,仅适用于直通背板)。

默认为“Mixed”模式。

Submit Changes

确认修改。

 

设置控制卡的端口模式

通过该操作,可将所有Connector的工作模式同时设置为同一模式。

14-42中选择“Controller Port Mode”,并按“Enter”。

弹出端口模式菜单。

                                步骤 1     选择要设置的控制卡端口模式,并按“Enter”。

                                步骤 2     选择“Submit Changes”,并按“Enter”。

提示操作成功。

----结束

14.7.4 Array Configuration

界面说明

Array Configuration”界面如14-43所示,参数说明如14-22所示。

图14-43 Array Configuration

 

表14-22 参数说明

参数

说明

Create Array

创建Array

详细介绍可参见14.4.2 创建RAID 0~14.4.4 创建RAID 10

Create maxCache Array

创建maxCache Array

说明

2100-8i不支持创建maxCache Array

Manage Arrays

管理已创建的Array

详细介绍可参见14.5.1 查看Array属性

 

14.7.5 Disk Utilities

界面说明

Disk Utilities”界面如14-44所示。

图14-44 Disk Utilities界面(1

 

如果当前配置的硬盘背板是Expander类型时,该界面还会显示Expander的相关信息,如14-45所示。

图14-45 Disk Utilities界面(2

 

14.7.6 Set Bootable Device(s) for Legacy Boot Mode

界面说明

在“Set Bootable Device(s) for Legacy Boot Mode”界面可设置Legacy模式下的启动盘,如14-46所示,参数说明如14-23所示。

图14-46 Set Bootable Device(s) for Legacy Boot Mode

 

表14-23 参数说明

参数

说明

Primary Bootable Device

第一启动盘。

Secondary Bootable Device

第二启动盘。

Select Bootable Logical Drive

设置逻辑盘为第一启动盘或第二启动盘。

Number of OS bootable drives

设置系统启动盘的数量。

Clear Bootable Device(s)

清除启动盘。

l     Select Boot Precedence:选择将要清除的启动盘。

l     Clear Bootable Device(s):确认清除启动盘。

 

因服务器不支持Legacy模式,该界面的设置无效。

14.7.7 Administration

界面说明

Administration”界面如14-47所示,参数说明如14-24所示。

图14-47 Administration

 

表14-24 参数说明

参数

说明

Flash Controller Firmware

更新控制卡的Firmware

该接口暂不可用。

Save Support Archive

收集控制卡日志。

该接口暂不可用。

Reset controller settings to factory defaults

将控制卡恢复出厂配置。

 

14.8 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对控制卡进行操作,不需要重启服务器。

14.8.1 下载和安装ARCCONF工具

下载工具

登录Microsemi网站上RAID控制卡的页面,如14-48所示。

图14-48 Storage Manager Downloads

 

                                步骤 2     单击“Adaptec ARCCONF Command Line Utility*”跳转至ARCCONF工具详细界面。

                                步骤 3     单击

                                步骤 4     按照提示信息下载ARCCONF工具。

                                步骤 5     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

使用文件传输工具(例如Winscp)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 1     Linux命令行执行rpm -ivh Arcconfxxx.aarch64.rpm命令安装ARCCONF工具。

ARCCONF工具的安装路径为/usr/Arcconf,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

14.8.2 常用命令

l     为快速获取命令结果,建议在每条命令之后增加nodiskinfo参数,如arcconf list controller_id nodiskinfo

l     ARCCONF工具在23168及以后版本支持nodiskinfo参数。

14.8.2.1 查询控制卡的基本信息

命令功能

查询控制卡的基本信息。

命令格式

arcconf list controller_id

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

 

使用指南

使用实例

# 查询ID1的控制卡属性。

[root@localhost ~]# arcconf list 1
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
   Controller ID             : Status, Slot, Mode, Name, SerialNumber, WWN
----------------------------------------------------------------------
   Controller 1:             : Optimal, Slot 1, RAID (Hide RAW), MSCC Adaptec SmartHBA 2100-8i, 7A4563EDE26, 50000D1703F07180
 
----------------------------------------------------------------------
Array Information
----------------------------------------------------------------------
   Array ID                  : Status (Interface, TotalSize MB, FreeSpace MB)
----------------------------------------------------------------------
   Array 0                   : Has Failed Logical Drive (SATA, 19077120 MB, 0 MB)
   Array 1                   : Ok (SATA, 9538560 MB, 5343744 MB)
 
----------------------------------------------------------------------
Logical device information
----------------------------------------------------------------------
   Logical ID                : Status (RAID, Interface, Size MB) Name
----------------------------------------------------------------------
   Logical 0                 : Failed (10, Data, 4194304 MB) A
   Logical 1                 : Optimal (10, Data, 5344246 MB) B
   Logical 2                 : Optimal (1, Data, 2097152 MB) Logical Drive 3
 
 
----------------------------------------------------------------------
Physical Device information
----------------------------------------------------------------------
   Physical ID               : State (Interface, BlockSize, SizeMB, Vendor, Model, Type) WWN, [Location]
----------------------------------------------------------------------
   Physical 0,8              : Online (SATA, 512 Bytes, 4769307MB, ATA     , HUS726050ALE610 , Hard Drive) 500E004AAAAAAA00, [Enclosure 1, Slot 0(Connector 0:CN0)]
   Physical 0,9              : Online (SATA, 512 Bytes, 4769307MB, ATA     , HGST HUS726050AL, Hard Drive) 500E004AAAAAAA01, [Enclosure 1, Slot 1(Connector 0:CN0)]
   Physical 0,10             : Online (SATA, 512 Bytes, 4769307MB, ATA     , HGST HUS726050AL, Hard Drive) 500E004AAAAAAA02, [Enclosure 1, Slot 2(Connector 0:CN0)]
   Physical 0,11             : Online (SATA, 512 Bytes, 4769307MB, ATA     , HGST HUS726050AL, Hard Drive) 500E004AAAAAAA03, [Enclosure 1, Slot 3(Connector 0:CN0)]
   Physical 0,12             : Online (SATA, 512 Bytes, 4769307MB, ATA     , HGST HUS726050AL, Hard Drive) 500E004AAAAAAA04, [Enclosure 1, Slot 4(Connector 0:CN0)]
   Physical 0,13             : Online (SATA, 512 Bytes, 4769307MB, ATA     , HGST HUS726050AL, Hard Drive) 500E004AAAAAAA05, [Enclosure 1, Slot 5(Connector 0:CN0)]
   Physical 2,0              : Ready (SES2, Not Applicable, Not Applicable, 12G SAS, Expander, Enclosure Services Device) 500E004AAAAAAA1F, [Connector 0:CN0, Enclosure 1]
   Physical 2,3              : Ready (SES2, Not Applicable, Not Applicable, MSCC    , Virtual SGPIO, Enclosure Services Device) 50000D1703F07180, [Not Applicable]
 
 
Command completed successfully.

14.8.2.2 查询物理硬盘、ArrayLD等相关信息

命令功能

查询控制卡的基本信息。

命令格式

命令格式

功能

arcconf getconfig controller_id AD

查询适配器信息

arcconf getconfig controller_id LD

查询所有LD的信息

arcconf getconfig controller_id LD LD_id

查询特定LD的信息

arcconf getconfig controller_id PD

查询所有物理硬盘的信息

arcconf getconfig controller_id PD physical_id

查询特定物理硬盘的信息

arcconf getconfig controller_id AR

查询所有Array的信息

arcconf getconfig controller_id AR AR_id

查询特定Array的信息

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

LD_id

LDID

physical_id

硬盘的physical编号

AR_id

ArrayID

 

使用指南

使用实例

# 查询所有Array的信息。

[root@localhost ~]# arcconf getconfig 1 ar
Controllers found: 1
----------------------------------------------------------------------
Array Information
----------------------------------------------------------------------
Array Number 0
   Name                                     : A
   Status                                   : Has Failed Logical Drive
   Interface                                : SATA
   Total Size                               : 19077120 MB
   Unused Size                              : 0 MB
   Block Size                               : 512 Bytes
   Array Utilization                        : 100.00% Used, 0.00% Unused
   Type                                     : Data
   Transformation Status                    : Not Applicable
   Spare Rebuild Mode                       : Dedicated
   SSD I/O Bypass                           : Not Applicable
   --------------------------------------------------------
   Array Logical Device Information
   --------------------------------------------------------
   Logical 0                                : Failed (10, Data, 4194304 MB) A
   Logical 1                                : Optimal (10, Data, 5344246 MB) B
   --------------------------------------------------------
   Array Physical Device Information
   --------------------------------------------------------
   Device 8                                 : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:0)             NAG24LBX
   Device 9                                 : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:1) NAG24N8X
   Device 10                                : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:2) NAG24L3X
   Device 11                                : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:3) NAG24L0X
 
 
Array Number 1
   Name                                     : B
   Status                                   : Ok
   Interface                                : SATA
   Total Size                               : 9538560 MB
   Unused Size                              : 5343744 MB
   Block Size                               : 512 Bytes
   Array Utilization                        : 43.97% Used, 56.03% Unused
   Type                                     : Data
   Transformation Status                    : Not Applicable
   Spare Rebuild Mode                       : Dedicated
   SSD I/O Bypass                           : Not Applicable
   --------------------------------------------------------
   Array Logical Device Information
   --------------------------------------------------------
   Logical 2                                : Optimal (1, Data, 2097152 MB) Logical Drive 3
   --------------------------------------------------------
   Array Physical Device Information
   --------------------------------------------------------
   Device 12                                : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:4) NAG24LMX
   Device 13                                : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:5) NAG24NPX
 
 
 
 
Command completed successfully.

# 查询所有LD的基本信息。

[root@localhost ~]# arcconf getconfig 1 ld
Controllers found: 1
----------------------------------------------------------------------
Logical device information
----------------------------------------------------------------------
Logical Device number 0
   Logical Device name                      : A
   Disk Name                                : Not Applicable
   Block Size of member drives              : 512 Bytes
   Array                                    : 0
   RAID level                               : 10
   Status of Logical Device                 : Failed
   Size                                     : 4194304 MB
   Stripe-unit size                         : 256 KB
   Full Stripe Size                         : 512 KB
   Interface Type                           : Serial ATA
   Device Type                              : Data
   Boot Type                                : None
   Heads                                    : 255
   Sectors Per Track                        : 32
   Cylinders                                : 65535
   Mount Points                             : Not Applicable
   LD Acceleration Method                   : None
   Volume Unique Identifier                 : 600508B1001CC135379258C5A0305DB4
   --------------------------------------------------------
   Logical Device segment information
   --------------------------------------------------------
   Group 0, Segment 0                       : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:0)             NAG24LBX
   Group 0, Segment 1                       : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:1) NAG24N8X
   Group 1, Segment 0                       : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:2) NAG24L3X
   Group 1, Segment 1                       : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:3) NAG24L0X
 
 
Logical Device number 1
   Logical Device name                      : B
   Disk Name                                : /dev/sda
   Block Size of member drives              : 512 Bytes
   Array                                    : 0
   RAID level                               : 10
   Status of Logical Device                 : Optimal
   Size                                     : 5344246 MB
   Stripe-unit size                         : 256 KB
   Full Stripe Size                         : 512 KB
   Interface Type                           : Serial ATA
   Device Type                              : Data
   Boot Type                                : None
   Heads                                    : 255
   Sectors Per Track                        : 32
   Cylinders                                : 65535
   Mount Points                             : Not Applicable
   LD Acceleration Method                   : None
   Volume Unique Identifier                 : 600508B1001C2AD867883CE2E456B2DD
   --------------------------------------------------------
   Logical Device segment information
   --------------------------------------------------------
   Group 0, Segment 0                       : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:0)             NAG24LBX
   Group 0, Segment 1                       : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:1) NAG24N8X
   Group 1, Segment 0                       : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:2) NAG24L3X
   Group 1, Segment 1                       : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:3) NAG24L0X
 
 
Logical Device number 2
   Logical Device name                      : Logical Drive 3
   Disk Name                                : /dev/sdb
   Block Size of member drives              : 512 Bytes
   Array                                    : 1
   RAID level                               : 1
   Status of Logical Device                 : Optimal
   Size                                     : 2097152 MB
   Stripe-unit size                         : 256 KB
   Full Stripe Size                         : 256 KB
   Interface Type                           : Serial ATA
   Device Type                              : Data
   Boot Type                                : None
   Heads                                    : 255
   Sectors Per Track                        : 32
   Cylinders                                : 65535
   Mount Points                             : /boot/efi 57220 MB  Partition Number 1 / 476837 MB  Partition Number 2
   LD Acceleration Method                   : None
   Volume Unique Identifier                 : 600508B1001C1B97F48F2E0DC9CC2FCA
   --------------------------------------------------------
   Array Physical Device Information
   --------------------------------------------------------
   Device 12                                : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:4) NAG24LMX
   Device 13                                : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:5) NAG24NPX
 
 
 
 
Command completed successfully.

14.8.2.3 查询控制卡的FW和驱动版本

命令功能

查询控制卡的FW和驱动的版本信息。

命令格式

arcconf getversion

使用实例

# 查询控制卡FW和驱动的版本信息。

[root@localhost ~]# arcconf getversion
Controllers found: 1
Controller #1
==============
Firmware                               : 1.43[0] (0)
Driver                                 : Linux 1.1.2-125 (0)
 
 
Command completed successfully.

14.8.2.4 升级控制卡FW

命令功能

通过该命令可以升级控制卡的Firmware

命令格式

arcconf romupdate controller_id fwfile

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

-

fwfile

Firmware升级所需的.bin文件名

-

 

使用实例

# 升级控制卡FW

[root@linux 2.93]# arcconf romupdate 1 SmartFWx100.bin
Controllers found: 1
 
 
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
Updating controller 1 firmware...
Succeeded
You must restart the system for firmware updates to take effect.
 
 
Command completed successfully.

14.8.2.5 设置控制卡工作模式

命令功能

设置控制卡工作模式。

控制卡工作模式默认为“Mixed”。

命令格式

arcconf setcontrollermode controller_id mode

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

mode

控制卡工作模式

l     2:设置为HBA模式。

l     3:设置为RAID模式。

l     5:设置为Mixed 模式。

说明

2100-8i的工作模式的介绍请参见13.3.2 支持多种工作模式

 

使用指南

使用实例

# 设置控制卡工作模式为“RAID”。

[root@localhost ~]# ./arcconf setcontrollermode 1 3
Controllers found: 1
 
Command completed successfully.

# 查询控制卡工作模式。

[root@localhost ~]# arcconf getconfig 1
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
   Controller Status                        : Optimal
   Controller Mode                          : RAID (Hide RAW)
   Channel description                      : SCSI
   Controller Model                         : MSCC Adaptec SmartHBA 2100-8i
   Controller Serial Number                 : 7A4563EDE26
   Controller World Wide Name               : 50000D1703F07180
   Physical Slot                            : 1
   Temperature                              : 48 C/ 118 F (Normal)
   Host bus type                            : PCIe 3.0
   Host bus speed                           : 7880 MBps
   Host bus link width                      : 8 bit(s)/link(s)
   PCI Address (Bus:Device:Function)        : 0:3b:0:0
   Number of Ports                          : 2
   Internal Port Count                      : 2
   External Port Count                      : 0
   Defunct disk drive count                 : 0
   NCQ status                               : Enabled
   Queue Depth                              : Automatic
   Monitor and Performance Delay            : 60 minutes
   Elevator Sort                            : Enabled
   Degraded Mode Performance Optimization   : Disabled
   Latency                                  : Disabled
   Statistics data collection mode          : Disabled
   Post Prompt Timeout                      : 0 seconds
   Boot Controller                          : False
   Primary Boot Volume                      : None
   Secondary Boot Volume                    : None
   Driver Name                              : smartpqi
   Driver Supports SSD I/O Bypass           : Yes
   Manufacturing Part Number                : Not Applicable
   Manufacturing Spare Part Number          : Not Applicable
   Manufacturing Wellness Log               : Not Applicable
   NVRAM Checksum Status                    : Passed
   Sanitize Lock Setting                    : None
   --------------------------------------------------------
   Power Settings
   --------------------------------------------------------
   Power Consumption                        : 7910 milliWatts
   Current Power Mode                       : Maximum Performance
   Pending Power Mode                       : Not Applicable
   Survival Mode                            : Enabled
   --------------------------------------------------------
   I2C Settings
   --------------------------------------------------------
   I2C Address                              : 0xDE
   I2C Clock Speed                          : 400 KHZ
   I2C Clock Stretching                     : Enabled
   --------------------------------------------------------
   Cache Properties
   --------------------------------------------------------
   Global Physical Device Write Cache Policy: Disabled
   --------------------------------------------------------
   RAID Properties
   --------------------------------------------------------
   Logical devices/Failed/Degraded          : 3/1/0
   Automatic Failover                       : Disabled
   Background consistency check             : Idle
   Consistency Check Delay                  : 3 seconds
   Parallel Consistency Check Supported     : Enabled
   Parallel Consistency Check Count         : 1
   Inconsistency Repair Policy              : Disabled
   Consistency Check Inconsistency Notify   : Disabled
   Rebuild Priority                         : High
   Expand Priority                          : Medium
   --------------------------------------------------------
   Controller Version Information
   --------------------------------------------------------
......

回显信息中的“Controller Mode”即为控制卡的工作模式。

14.8.2.6 查询所有适用arcconf工具的控制卡

命令功能

查询所有适用arcconf工具的控制卡。

命令格式

arcconf list

使用实例

# 查询所有适用arcconf工具的控制卡。

[root@localhost ~]# arcconf list
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
   Controller ID             : Status, Slot, Mode, Name, SerialNumber, WWN
----------------------------------------------------------------------
   Controller 1:             : Optimal, Slot 1, Mixed, MSCC Adaptec SmartHBA 2100-8i, 7A4563EDE26, 50000D1703F07180
 
Command completed successfully.

14.8.2.7 设置启动盘

命令功能

通过该命令可以将PDLD设置成启动设备,其中,PD在控制卡的工作模式为HBAMIX时生效,LD在控制卡的工作模式为MIXRAID时生效。

命令格式

arcconf setboot controller_id  logicaldrive LD_id type boot_type

arcconf setboot controller_id  device physical_id type boot_type

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

LD_id

LDID

boot_type

启动项的类型

Primary :将LDPD设置为第一启动设备。

Secondary :将LDPD设置为第二启动设备。

physical_id

硬盘的physical ID

 

使用实例

# 设置LD1为第一启动设备。

[root@localhost ~]# arcconf setboot 1 logicaldrive 1 type primary
Controllers found: 1
Do you wish to change the boot type of the selected device.
Press y, then ENTER to continue or press ENTER to abort: y
 
 
Command completed successfully.

14.8.2.8 设置热备模式

命令功能

设置热备盘的模式。

命令格式

arcconf setarrayparam controller_id  array_id sparetype mode

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

array_id

arrayID

mode

热备盘的类型

l     1Dedicated

l     2Autoreplace

说明

热备盘相关介绍请参见13.3.3 硬盘热备份

 

使用实例

# 设置Array的热备盘模式为:Dedicated

[root@localhost ~]# arcconf setarrayparam 1 0 sparetype 1
Controllers found: 1
 
Command completed successfully.
[root@localhost ~]#

14.8.2.9 设置硬盘定位指示灯

命令功能

点亮、熄灭控制卡的硬盘定位指示灯。

命令格式

表14-25  

命令

功能

arcconf identify controller_id device physical_id time time

对特定的物理硬盘进行点灯,time为可选项表示点灯持续的时间,单位为秒。

arcconf identify controller_id device physical_id

对特定的物理硬盘持续点灯,按任意键会停止点灯。

arcconf identify controller_id all time time

对所有的物理硬盘进行点灯,time为可选项表示点灯持续的时间,单位为秒。

arcconf identify controller_id all stop

对所有的物理硬盘停止点灯

arcconf identify controller_id logicaldrive LD_id time time

对特定的LD进行点灯,time为可选项表示点灯持续的时间,单位为秒。

arcconf identify controller_id logicaldrive LD_id

对特定的LD停止点灯

arcconf identify controller_id array array_id time time

对特定的Array进行点灯,time为可选项表示点灯持续的时间,单位为秒。

arcconf identify controller_id array array_id

对特定的Array停止点灯

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

LD_id

LDID

physical_id

硬盘的physical ID

time

硬盘指示灯点亮的时间。

为可选项表示点灯持续的时间,单位为秒。

array_id

arrayID

 

使用实例

# slot 0硬盘的停止指示灯。

[root@localhost ~]# ./arcconf identify 1 device 0 0
Controllers found: 1
Only devices managed by an enclosure processor may be identified
The specified device(s) is/are blinking.
Press any key to stop the blinking.

# 设置所有的盘进行点灯60秒。

[root@localhost ~]# ./arcconf identify 1 all time 60
Controllers found: 1
Only devices managed by an enclosure processor may be identified
 
Command completed successfully.

# 熄灭所有的硬盘指示灯。

[root@localhost ~]# ./arcconf identify 1 all stop
Controllers found: 1
 
Command completed successfully.

14.8.2.10 LD设置热备盘

命令功能

LD设置热备盘。

命令格式

arcconf setstate controller_id device physical_id hsp array array_id sparetype type

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

physical_id

硬盘的physical ID

array_id

ArrayID

type

热备盘的类型

1 : Dedicated

2 : Autoreplace

说明

热备盘相关介绍请参见13.3.3 硬盘热备份

 

使用实例

# LD设置Autoreplace热备盘。

[root@localhost ~]# arcconf setstate 1 device 0 3 hsp array 0 sparetype 2
Controllers found: 1
 
Any existing hot-spare drives of a different sparetype will be removed.
The physical drive used for this operation is connected to Mixed Mode(Smart HBA) connector. Using it will not allow operating system to use the drive contents.
 
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
 
Command completed successfully.
[root@localhost ~]#

14.8.2.11 设置后台一致性校验的并行个数

命令功能

设置后台一致性校验的并行个数。

命令格式

arcconf consistencycheck controller_id  parallelcount parallelcount_number

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

parallelcount_number

后台一致性校验的并行个数

 

使用实例

# 设置后台一致性校验的并行个数为4

[root@localhost ~]# arcconf consistencycheck 1 parallelcount 4
Controllers found: 1
 
Command completed successfully.
[root@localhost ~]#
 
 
 CONSISTENCYCHECK <Controller#> PARALLELCOUNT <Count>

14.8.2.12 创建和删除RAID

命令功能

创建、删除RAID

命令格式

arcconf create controller_id logicaldrive option size level physical_id physical_id......

arcconf delete controller_id logicaldrive ld_id noprompt

参数说明

参数

参数说明

取值

controller_id

控制卡ID

请参照13.8.2.1 查询控制卡的基本信息获取控制卡的controller_id

controller_id1开始排序,如果有多张控制卡,将按照1,2,3...的方式进行排序。

option

要创建的LD的相关属性,具体请参见14-26

size

LD的容量大小。

单位为MB,设置时只输入数字即可,如数值设为“1024”,则表示虚拟磁盘的容量为1024MB

如果设置为“MAX”,表示使用硬盘的所有容量创建虚拟磁盘。

level

要创建的LD的级别。

支持的RAID级别请参照13.3.1 支持多种RAID级别

physical_id

LD成员盘的physical ID

请参照13.8.2.2 查询物理硬盘、ArrayLD等相关信息获取物理硬盘的ID

ld_id

虚拟磁盘ID

请参照13.8.2.2 查询物理硬盘、ArrayLD等相关信息获取虚拟磁盘的ID

 

表14-26 option

可设置属性

说明

取值

Stripesize

LD的条带大小

16/32/64/128/256/512/1024

Name

LD的名称。

LDcache

Controller Cache

SSDOverProvisioningOptimization

SSD的特性。

l     enable

l     disable

说明

l     只有当RAID组由SSD组成时,才能设置该属性。

l     该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。

DataLD

被加速的LDID

 

使用指南

使用实例

# 创建RAID 0

[root@localhost ~]# ./arcconf create 1 logicaldrive max 0 0 7
Controllers found: 1
 
Do you want to add a logical device to the configuration?
Press y, then ENTER to continue or press ENTER to abort: y
 
Creating logical device: LogicalDrv 1
 
Command completed successfully.

# 删除ID1的虚拟磁盘。

[root@localhost ~]# ./arcconf delete 1 logicaldrive 1 noprompt
Controllers found: 1
 
WARNING: Deleting this logical device will automatically delete array 1 because it is the only logical device present on that array.
All data in logical device 1 will be lost.
Deleting: logical device 1 ("LogicalDrv 1")
 
Command completed successfully.

14.8.2.13 使能一致性校验的修复策略

命令功能

使能一致性校验的修复策略。

命令格式

arcconf consistencycheck controller_id inconsistencyrepairpolicy enable

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

 

使用实例

# 使能一致性校验的修复策略。

[root@localhost ~]# arcconf consistencycheck 1 inconsistencyrepairpolicy enable
Controllers found: 1
 
Command completed successfully.
[root@localhost ~]#

14.8.2.14 使能一致性校验生成调试信息并发出通知

命令功能

使能一致性校验生成调试信息并发出通知。

命令格式

arcconf consistencycheck controller_id eventnotify enable

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

 

使用实例

# 使能一致性校验生成调试信息并发出通知。

[root@localhost ~]# arcconf consistencycheck 1 eventnotify enable
Controllers found: 1
 
Command completed successfully.
[root@localhost ~]#
 
 
 CONSISTENCYCHECK <Controller#> EVENTNOTIFY <Enable | Disable>

14.8.2.15 关闭一致性校验

命令功能

关闭一致性校验功能。

命令格式

arcconf consistencycheck controller_id off

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

 

使用实例

# 关闭一致性校验功能。

[root@localhost ~]# arcconf consistencycheck 1 off
Controllers found: 1
 
Command completed successfully.
 
 
 
CONSISTENCYCHECK <Controller#> <On [Delay]|Off> [noprompt] [nologs]

14.8.2.16 查询和设置硬盘写Cache策略

命令功能

查询、设置硬盘写Cache策略。

命令格式

arcconf getconfig controller_id ad

arcconf setcache controller_id drivewritecachepolicy drivetype cachepolicy drivetype cachepolicy...

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

-

drivetype

要设置写Cache策略的硬盘类型

l     Configured:设置RAID/Mixed模式下RAID组成员盘的写Cache策略。

l     Unconfigured:设置RAID/Mixed模式下非RAID组成员盘的写Cache策略。

l     HBA:设置HBA模式下硬盘的写Cache策略。

cachepolicy

硬盘写Cache策略

l     0Default(将硬盘的写Cache保持为默认状态)

l     1Enabled(打开硬盘的写Cache功能)

l     2Disabled(关闭硬盘的写Cache功能)

 

使用实例

# 设置Configured状态的硬盘Cache写策略为Enabled,设置Unconfigured状态的硬盘Cache写策略为Disabled

[root@localhost ~]# ./arcconf setcache 1 drivewritecachepolicy Configured 1 Unconfigured 2
Controllers found: 1
Enabling controller drive write cache can increase write performance but risks losing the data in the cache on sudden loss.
 
Command completed successfully.

# 查询当前的硬盘写Cache策略

[root@localhost ~]# ./arcconf getconfig 1 ad
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
   Controller Statue             : Optimal
   Controller Mode               :Mixed
   Channle description           :SCSI
  
...
----------------------------------------------------------------------
Physical Drive Write Cache Policy Information 
----------------------------------------------------------------------
Configured Drives                :Enabled
Unconfigured Drives              :Disabled
HBA Drives                       :Default
----------------------------------------------------------------------
...

14.8.2.17 收集FW日志

命令功能

收集控制卡的Firmware日志。

命令格式

arcconf SAVESUPPORTARCHIVE

使用实例

# 收集控制卡的Firmware日志。

[root@linux /]# arcconf SAVESUPPORTARCHIVE
Controllers found: 1
 
 Usage: SAVESUPPORTARCHIVE [Path] [Firmware|GUI|Arcconf|Storlib|Basecode|Redfish]
 Example: SAVESUPPORTARCHIVE C:\Adaptec\maxView Firmware
 Example: SAVESUPPORTARCHIVE /var/log/maxView Storlib
 Example: SAVESUPPORTARCHIVE
 Example: SAVESUPPORTARCHIVE .
 ===================================================================================
 
 Saves  all the logs
    Path          : directory other than default
    Firmware      : saves Firmware logs
    GUI           : saves GUI logs
    Arcconf       : saves Arcconf logs
    StorLib       : saves StorLib logs
    Basecode      : saves Basecode logs
    Redfish       : saves Redfish logs
 
The path is not specified, Using the default.
The logs are saved in relevant folders in /var/log/Support
 
Command completed successfully.

14.8.2.18 设置硬盘和LD状态

命令功能

设置硬盘、LDMaxCache的状态。

命令格式

命令格式

功能

arcconf setstate controller_id device physical_id state

设置硬盘状态。

arcconf setstate controller_id logicaldrive LD_id optimal

设置LD状态为optimal

arcconf setstate controller_id maxcache LD_id optimal

设置MaxCache状态为optimal

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

physical_id

硬盘的physical ID

state

设置硬盘状态。

l     hsp:将硬盘设置为热备盘,具体可参见14.8.2.10 LD设置热备盘

l     rdy:移除硬盘热备状态,或将硬盘状态从fail设置为ready

l     ddd:强制将硬盘状态设置为离线(故障)。

l     eed:启用擦除的硬盘。

array_id

ArrayID

type

设置热备的类型。

l     1dedicated spare(局部热备盘)

l     2auto replace spare(全局热备盘)

LD_id

LDID

 

使用指南

更换LD成员盘时,建议将LD状态设置为optimal后再进行更换,以免误插拔导致Array失效。

使用实例

# 将硬盘设置为离线。

[root@localhost ~]# arcconf setstate 1 device 0 11 ddd
Controllers found: 1
Changing state from Ready to Failed may delete any data partitions present on the drive.
 
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
 
Command completed successfully.

# LD状态设置为optimal

[root@localhost ~]# arcconf setstate 1 logicaldrive 0 optimal
Controllers found: 1
Attention: Using advanced options to force a logical device online is a dangerous operation and
requires substantial knowledge of the RAID level and the nature of the logical device failure.
Even if this operation can force the logical device online,
all data on this logical device may be lost if one or more disks contain outdated data.
 
All available disk segments that constitute this logical device will be forced online;
the data they contain will be used as valid data.
If you are not sure, abort and contact your service representative.
 
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
 
Command completed successfully.

# MaxCache的状态设置为optimal

[root@localhost ~]# arcconf setstate 1 maxcache 1 optimal
Controllers found: 1
Attention: Using advanced options to force a maxCache logical device online is a dangerous operation and
requires substantial knowledge of the RAID level and the nature of the maxCache logical device failure.
Even if this operation can force the maxCache logical device online,
all data on this maxCache logical device may be lost if one or more disks contain outdated data.
 
All available disk segments that constitute this maxCache logical device will be forced online;
the data they contain will be used as valid data.
If you are not sure, abort and contact your service representative.
 
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
Command completed successfully.

14.8.2.19 设置SSD I/O Bypass状态

命令功能

设置SSD I/O Bypass状态。

命令格式

arcconf setarrayparam controller_id  array_id ssdiobypass state

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

array_id

arrayID

state

设置SSD I/O Bypass启用状态

l     enable:启用SSD I/O Bypass

l     disable:禁用SSD I/O Bypass

 

使用指南

使用实例

# 禁用SSD I/O Bypass

[root@localhost ~]# arcconf setarrayparam 1 2 ssdiobypass disable
Controllers found: 1
 
Disabling SSD I/O bypass will impact the performance of all the logical device(s) in the array. You can enable the controller caching on logical device(s) to improve performance.
 
Command completed successfully.


15 Avago MegaRAID SAS 9460-8i

关于本章

主要介绍Avago MegaRAID SAS 9460-8i RAID控制卡的外观、特性、以及配置方法。

本章节涉及的截图以5.120.01-2904 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

14.1  概述

14.2  功能

14.3  初始配置

14.4  常用配置

14.5  故障处理

14.6  管理界面介绍

14.7  OS命令行工具

15.1 概述

Avago MegaRAID SAS 9460-8i RAID控制卡(以下简称9460-8i)是基于MegaRAID架构的8端口12Gbit/s SAS控制卡,并采用PCIe3.0x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

9460-8i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

9460-8i支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考15.2.16 硬盘直通

9460-8i自带的CacheRAID控制卡性能的提升有非常重要的作用,主要体现在:

l     在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

l     在读数据时,如果可以直接在Cache中命中的话,将减少硬盘寻道操作,降低响应时间,提升了数据读速度。

Cache数据的掉电保护依赖于与RAID控制卡相连的超级电容。超级电容的外形、连接方式、安装方式可参考各服务器的用户指南。

9460-8i的结构如15-115-2所示。

图15-1 9460-8i1

 

图15-2 9460-8i2

 

1

超级电容错误状态指示灯

2

芯片过温指示灯

3

心跳灯

4

脏数据缓存指示灯

5

超级电容

6

miniSAS接口(port 0SFF-8643

7

miniSAS接口(port 1SFF-8643

8

散热器

 

9460-8i单板指示灯说明如15-1所示。

表15-1 RAID控制卡单板指示灯说明

指示灯

颜色

说明

芯片过温指示灯

黄色

l     常亮:设备温度传感器超过阈值。

l     灭:设备温度在正常温度范围内。

超级电容错误状态指示灯

黄色

l     常亮:超级电容电源模块故障或者过温。

l     灭:超级电容正常或不在位。

脏数据缓存指示灯

绿色

l     常亮:没有保存到存储设备中的脏缓存。

l     灭:脏数据缓存正常。

心跳灯

绿色

l     闪烁:芯片运行正常,闪烁频率为1Hz

l     灭:RAID控制卡未开始运行或FW运行异常。

 

15.2 功能

15.2.1 支持多种RAID类型

9460-8i支持的硬盘、虚拟磁盘、硬盘组数量分别为:

l     最多支持240个硬盘。

该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

l     最多支持64个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

l     最多支持64个硬盘组(即配置界面中看到的“Drive Group”),每个硬盘组最多支持240个硬盘。

l     每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

9460-8i支持的RAID类型及对应的硬盘个数如15-2所示。

表15-2 RAID-硬盘参数

RAID级别

支持硬盘数

支持子组数

子组支持硬盘数

允许坏盘数

RAID 0

132

不涉及

不涉及

0

RAID 1

2~32(偶数)

硬盘数÷2

RAID 5

332

1

RAID 6

332

2

RAID 10

4~240(偶数)

28RAID 1

2~32(偶数)

子组数

RAID 50

6240

28RAID 5

332

子组数

RAID 60

6240

28RAID 6

332

子组数x2

 

l     不支持RAID 00级别。

l     子组数:子RAID的个数,例如RAID 50由两个RAID 5组成,则子组数为2

l     RAID 10RAID 50每个子组中最多允许1个坏盘。

l     RAID 60每个子组中最多允许2个坏盘。

l     RAID105060包含的总硬盘数由子组数和子组支持的硬盘数共同决定。

15.2.2 硬盘热备份

9460-8i的热备功能分为两种:热备盘和紧急备份。

热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     Global HSP:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

配置方法请参见15.4.1.1 配置全局热备盘

l     Dedicated HSP:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

配置方法请参见15.4.1.2 配置局部热备盘

热备盘容量需大于等于成员盘容量。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

紧急备份

使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代failprefail状态的成员盘并进行重构,避免数据丢失。

l     紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。

l     在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。

l     紧急备份的硬盘生效次序:相同类型硬盘 > 相同接口不同介质类型硬盘 > 不同接口相同介质类型硬盘 > 不同接口不同介质类型硬盘。

紧急备份有两种情况,对应了两种设置:

l     当成员盘fail时,空闲盘替代成员盘作为紧急备份。

l     当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。

具体配置方法请参见15.4.2 设置紧急热备功能

15.2.3 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考15.2.18 导入外部配置章节恢复RAID组,无需更换硬盘。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

15.2.4 回拷

具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。

l     不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:

l     RAID组状态保持Optimal不变。

l     热备盘状态由Online变为Hot Spare

l     新加入硬盘状态由Copyback/Copybacking变为Online

l     可使用命令行工具暂停或继续回拷,具体请参见15.7.2.11 查询和设置RAID重构

l     若回拷时重启服务器,进度将保存。

l     局部热备以及全局热备,更换故障盘后,均会产生回拷。

15.2.5 硬盘分条

条带化

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待。

条带化技术是一种自动的将I/O的负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

影响条带化效果的因素有:

l     条带宽度:指同时可以并发读或写的条带数量。

这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。在其他条件一样的前提下,一个由818G硬盘组成的阵列相比一个由436G硬盘组成的阵列具有更高的传输性能。

l     条带大小:指写在每块硬盘上的条带数据块的大小。

分条

硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。

9460-8i支持多种条带大小,包括64KB128KB256KB512KB1MB,默认条带大小为256KB

配置RAID时一般采用默认值。

15.2.6 RAID级别迁移

RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见15.4.5 迁移RAID级别

当前支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1RAID 5RAID 6

l     RAID 1迁移到RAID 0RAID 5RAID 6

l     RAID 5迁移到RAID 0RAID 6

l     RAID 6迁移到RAID 0RAID 5

RAID迁移对硬盘数量的要求如15.2.6 RAID级别迁移所示。

表15-3 RAID迁移的硬盘数量说明

迁移RAID级别

原始硬盘组硬盘数量

迁移后的硬盘组硬盘数量

RAID 0迁移 RAID 1

132

2~32(偶数)

RAID 0迁移到RAID 5

132

332

RAID 0迁移到RAID 6

132

332

RAID 1迁移到RAID 0

2~32(偶数)

2~32

RAID 1迁移到RAID 5

2~32(偶数)

332

RAID 1迁移到RAID 6

2~32(偶数)

332

RAID 5迁移到RAID 0

332

332

RAID 5迁移到RAID 6

332

332

RAID 6迁移到RAID 0

332

332

RAID 6迁移到RAID 5

332

332

 

15.2.7 初始化

VD初始化

创建VDVirtual Drive)后,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。9460-8i提供了多种相应的初始化方式:

l     前台初始化:

     快速初始化:Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。

     完全初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。

l     后台初始化:

     对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。

     对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。

一致性校验(CC)和后台初始化通常会对性能造成一定损失,直至该操作完成。

一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。

硬盘初始化

硬盘可执行的初始化包括:

l     Initialize Drive:对前100MByte空间进行全写0操作。

l     Drive Erase:对全部空间进行写0操作。

不支持停止SATA SSD的擦除和初始化过程。

15.2.8 可用容量扩展

9460-8i支持的容量扩展方式有两种:

l     通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。

详细操作方法可参考15.4.3 添加新硬盘到RAID

l     通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。

详细操作方法可参考15.4.4 扩展Virtual Drives可用空间

l     只有RAID 0RAID 1RAID 5RAID 6支持增加硬盘扩容。

l     RAID10RAID 50RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0RAID 5RAID 6每次只能增加1块硬盘。

l     当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见 15.7.2.28 通过增加成员盘可用容量扩容RAID

15.2.9 安全数据擦除

安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘和硬盘的安全擦除功能:

l     Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。

l     Normal:对虚拟磁盘或硬盘进行三轮擦除动作。

l     Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。

安全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。

9460-8i支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。

15.2.10 写洞保护

系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况,称之为写洞。

将写失败的数据备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:

l     RAID  1RAID 5RAID 6RAID 10RAID 50RAID 60支持写洞保护,Write hole数据都保存在掉电保护区,不需要开关控制。

     掉电保护装置可用时,Write hole数据异常掉电重启后会进入恢复流程。

     掉电保护装置不可用时,记录在掉电保护区的Write hole数据异常掉电后丢失,不做Write hole恢复。

l     RAID 1RAID 5掉线盘时不可做写洞保护。

l     RAID 6掉线一块盘时可做写洞保护。

l     RAID 10RAID 50RAID 60部分降级时可做写洞保护,按子组恢复数据。完全降级时不可做写洞保护。

l     不对RAID 0做写洞保护。

15.2.11 读写高速缓存

9460-8i支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:

l     Read:读策略选择“Read Ahead”模式,9460-8i在读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,提升了数据读速度。

l     Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,9460-8i就向HOST发出数据传输完成的信号。

在写数据时,直接写入Cache,当写入的数据积累到一定程度,9460-8i才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

15.2.12 数据掉电保护

数据写入高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用高速缓存来提升系统性能。

l     开启高速缓存可提升整机写性能,当服务器写压力减小或高速缓存将写满时,数据再由高速缓存写入硬盘。

l     开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。

为了提升整机的高读写性能和高速缓存中数据的安全,可为9460-8i配置超级电容。

超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将高速缓存中的数据写入超级电容模块中的NAND Flash中。

9460-8i分为支持配置超级电容与不支持配置超级电容两种形态,只有支持配置超级电容的RAID控制卡可以启用数据掉电保护功能。

超级电容电量校准

由于数据保护需要超级电容的配合,为了记录超级电容的放电曲线,以便RAID控制卡了解超级电容的状态,例如最大和最小电压等,同时为了延长超级电容的寿命,RAID控制卡默认启动超级电容自动校准模式。

RAID控制卡通过如下所述的三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。

1.     RAID控制卡将超级电容的电量充到最大值。

2.     自动启动校准进程,将超级电容完全放电。

3.     重新开始充电,直至达到最大电量。

超级电容电量校准过程中,RAID控制卡写策略自动调整为“WT”模式以保证数据完整性,此时RAID控制卡性能会降低。电量校准的时间取决于超级电容充放电速度。

15.2.13 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     动态扩盘

l     完全初始化或后台初始化

l     一致性校验

15.2.14 自动SMART扫描

S.M.A.R.TSelfMonitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据受到损失。

RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。

15.2.15 硬盘节能

RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SASSATA机械硬盘均支持此功能。

默认情况下,硬盘节能功能处于开启状态。

当硬盘节能功能开启且在指定时间内没有I/O访问时,RAID控制卡下挂载的“Uncongfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。

15.2.16 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

9460-8i可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在9460-8i下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。

9460-8i支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

如果需要使能硬盘直通功能,请在15-100所示界面的“JBOD Mode”参数进行设置。

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

15.2.17 硬盘漫游

硬盘漫游是指在同一控制卡下移动物理硬盘。控制卡将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。

要使用硬盘漫游,按以下步骤操作:

1.     关闭操作系统。

2.     将服务器下电。

3.     将物理硬盘移动到背板所需位置。

4.     执行安全检查。确保正确插入物理硬盘。

5.     将服务器上电。

6.     控制卡从物理硬盘上的配置数据中检测到RAID配置。

15.2.18 导入外部配置

如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。

此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。

15.2.19 硬盘故障记录

9460-8i提供硬盘故障记录功能:

l     使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。

l     禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,9460-8i会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。

维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。

l     使能该功能后,当硬盘故障时,会点亮Fault指示灯。

l     禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。

默认情况下,9460-8i使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。

15.2.20 一致性校验

针对有冗余功能的RAID 156105060RAID控制卡可以对RAID组的硬盘数据进行一致性校验,对硬盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。

由于RAID 0不具备冗余性,因此不支持一致检查。

建议每月至少进行一次一致性校验。

15.3 初始配置

文档中描述的关于9460-8i的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。

15.3.1 进入管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如15-3所示界面时,按“Delete”,进入输入密码界面。

图15-3 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如15-4所示界面。

图15-4 Setup Utility界面

 

                                步骤 4     通过“”或“→ ”进入“Advanced”页签,如15-5所示。

图15-5 “Advanced”页签

 

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见15.5.4 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择“Avago MegaRAID <SAS 9460-8i> Configuration Utility”,按“Enter”。

进入9460-8i主界面,如15-615-7所示,界面参数如15-4所示。

图15-6 9460-8i主界面(1

 

图15-7 9460-8i主界面(2

 

表15-4 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

说明

9460-8i不支持在此界面升级FW

Silence Alarm

板载蜂鸣器的使能状态。

说明

9460-8i未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

15.3.2 创建RAID 0

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-8i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见15.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见15.6.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如15-815-9所示,参数说明如15-5所示。

图15-8 Create Virtual Drive1

 

图15-9 Create Virtual Drive2

 

表15-5 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如15-10所示,界面参数如15-6所示。

图15-10 添加成员盘

 

表15-6 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 0支持的硬盘个数为1~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

5.     15-6所述配置过滤条件。

6.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

7.     选择“OK”并按“Enter”返回上级界面。

                                步骤 4     按照15-5所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照15.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

15.3.3 创建RAID 1

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-8i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见15.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见15.6.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如15-1115-12所示,参数说明如15-7所示。

图15-11 Create Virtual Drive1

 

图15-12 Create Virtual Drive2

 

表15-7 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如15-13所示,界面参数如15-8所示。

图15-13 添加成员盘

 

表15-8 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 1支持的硬盘个数为2~32(偶数)。

l     RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

5.     15-8所述配置过滤条件。

6.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

7.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     按照15-7所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照15.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

15.3.4 创建RAID 5

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-8i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见15.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见15.6.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如15-1415-15所示,参数说明如15-9所示。

图15-14 Create Virtual Drive1

 

图15-15 Create Virtual Drive2

 

表15-9 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 5”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如15-16所示,界面参数如15-10所示。

图15-16 添加成员盘

 

表15-10 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 5支持的硬盘个数为3~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

5.     15-10所述配置过滤条件。

6.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

7.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     按照15-9所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照15.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

15.3.5 创建RAID 6

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-8i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见15.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见15.6.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如15-1715-18所示,参数说明如15-11所示。

图15-17 Create Virtual Drive1

 

图15-18 Create Virtual Drive2

 

表15-11 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 6”,并按“Enter”。

                                步骤 3     添加成员盘

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如15-19所示,界面参数如15-12所示。

图15-19 添加成员盘

 

表15-12 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 6支持的硬盘个数为3~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

5.     15-12所述配置过滤条件。

6.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

7.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     按照15-11所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照15.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

15.3.6 创建RAID 10

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-8i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见15.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见15.6.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如15-2015-21所示,参数说明如15-13所示。

图15-20 Create Virtual Drive1

 

图15-21 Create Virtual Drive2

 

表15-13 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如15-22所示,界面参数如15-14所示。

图15-22 添加成员盘

 

表15-14 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     15-14所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 10支持28Span,每个Span支持的硬盘数为2~32(偶数),且各个Span的硬盘数量必须保持一致。

l     RAID 10支持的硬盘总数为4~240(偶数)。

l     RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

7.     单击“OK”完成成员盘配置。

                                步骤 4     创建第2Span

当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如15-23所示。

图15-23 RAID 10的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

3.     在打开的列表中选择第2Span的成员盘。

各个Span的硬盘数量必须保持一致。

4.     选择完成后,选择“Apply Changes”并“Enter”。

提示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

RAID10至少需要创建2Span,最多可以创建8Span

                                步骤 6     按照15-13所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照15.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

15.3.7 创建RAID 50

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-8i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见15.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见15.6.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如15-2415-25所示,参数说明如15-15所示。

图15-24 Create Virtual Drive1

 

图15-25 Create Virtual Drive2

 

表15-15 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 50”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如15-26所示,界面参数如15-16所示。

图15-26 添加成员盘

 

表15-16 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     15-16所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 50支持28Span,每个Span支持的硬盘数为332,各个Span的硬盘数量必须保持一致。

l     RAID 50支持的硬盘总数为6~240

l     RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully

7.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     创建第2Span

当配置的级别为RAID 50时,需要配置多个Span,此时配置界面如15-27所示。

图15-27 RAID 50的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

3.     在打开的列表中选择第2Span的成员盘。

各个Span的硬盘数量必须保持一致。

4.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

RAID50至少需要创建2Span,最多可以创建8Span

                                步骤 6     按照15-15所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照15.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

15.3.8 创建RAID 60

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-8i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见15.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见15.6.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如15-2815-29所示,参数说明如15-17所示。

图15-28 Create Virtual Drive1

 

图15-29 Create Virtual Drive2

 

表15-17 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 60”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如15-30所示,界面参数如15-18所示。

图15-30 添加成员盘

 

表15-18 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     15-18所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 60支持28Span,每个Span支持的硬盘数为332,且各个Span的硬盘数量必须保持一致。

l     RAID 60支持的硬盘总数为6~240

l     RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully

7.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     创建第2Span

当配置的级别为RAID 60时,需要配置多个Span,此时配置界面如15-31所示。

图15-31 RAID 60的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

3.     在打开的列表中选择第2Span的成员盘。

各个Span的硬盘数量必须保持一致。

4.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

RAID60至少需要创建2Span,最多可以创建8Span

                                步骤 6     按照15-17所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照15.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

15.3.9 配置启动项

同一台服务器配置了单个9460-8i卡或者多种芯片硬盘控制卡的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。

设置启动项的操作方法请参见BIOS 参数参考的“设置启动设备”章节。

15.4 常用配置

15.4.1 管理热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

9460-8i支持2种类型的热备盘:

l     Global Hotspare:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

l     Dedicated Hotspare:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

15.4.1.1 配置全局热备盘

操作步骤

登录管理界面,具体操作方法请参见15.3.1 进入管理界面

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如15-32所示。

图15-32 Drive Management

 

                                步骤 2     配置全局热备盘。

1.     将“Operation”设置为“Assign Global Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

显示The operation has been performed successfully

3.     按“ESC”完成配置并返回上级界面。

----结束

15.4.1.2 配置局部热备盘

操作步骤

RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

登录管理界面,具体操作方法请参见15.3.1 进入管理界面

                                步骤 1     进入“Drive Management”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如15-33所示。

图15-33 Drive Management

 

                                步骤 2     配置局部热备盘。

1.     将“Operation”设置为“Assign Dedicated Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

打开当前存在的虚拟磁盘列表,如15-34所示。

图15-34 虚拟磁盘列表

 

3.     选择要关联的虚拟磁盘并按“Enter”。

4.     选择“OK”按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

15.4.1.3 删除热备盘

操作场景

当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

操作步骤

登录管理界面,具体操作方法请参见15.3.1 进入管理界面

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如15-35所示。

图15-35 Drive Management

 

                                步骤 2     删除热备盘。

1.     将“Operation”设置为“Unassign Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

5.     按“ESC”完成配置并返回上级界面。

----结束

15.4.2 设置紧急热备功能

操作步骤

登录管理界面,具体操作方法请参见15.3.1 进入管理界面

                                步骤 1     进入“Advanced Controller Properties”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

3.     选择“Advanced Controller Properties”并按“Enter”。

进入“Advanced Controller Properties”界面,如15-36所示。

图15-36 Advanced Controller Properties1

 

                                步骤 2     设置紧急热备。

1.     选择“Spare”并按“Enter”。

2.     将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如15-37所示。

图15-37 Advanced Controller Properties2

 

3.     选择“Apply Changes”并按“Enter”。

显示The operation has been performed successfully

4.     选择“OK”并按“Enter”,完成配置。

----结束

15.4.3 添加新硬盘到RAID

操作场景

 

l     只有RAID 0RAID 1RAID 5RAID 6支持增加硬盘扩容。

l     RAID10RAID 50RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

对系统的影响

增加硬盘扩容过程中,如果出现硬盘故障,会导致:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID

请谨慎执行增加硬盘扩容操作。

必备事项

前提条件

添加硬盘扩容之前,需具备如下条件:

l     服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     已登录管理界面,具体操作请参见15.3.1 进入管理界面

数据

操作之前建议先备份数据。

操作步骤

进入“Virtual Drive Management”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”。

进入虚拟磁盘选项界面,如15-38所示。

图15-38 虚拟磁盘选项界面

 

                                步骤 2     添加新硬盘。

1.     选择要进行扩容的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如15-39所示。

图15-39 Operation

 

3.     选择“Reconfigure Virtual Drives”并按“Enter

4.     选择“Go”并按“Enter”。

5.     选择要扩容的RAID级别。

 

增加硬盘扩容时,请保证该处的RAID级别与原级别一致。

6.     选择“Choose the Operation”,并按“Enter”。

进入硬盘选择界面,如15-40所示。

图15-40 Choose the Operation

 

7.     选择要增加的硬盘,并按“Apply Changes”。

进入确认操作界面。

l     增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0RAID 5RAID 6每次只能增加1块硬盘。

l     RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。

8.     选择“Confirm”并按“Enter”。

9.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

10.     选择“OK”并按“Enter”。

返回到如15-41所示界面。

图15-41 选择操作

 

11.     选择“Start Operation”并按“Enter”。

显示操作成功。返回虚拟磁盘选项界面,验证扩容结果,如15-42所示,表示RAID正在进行扩容。

图15-42 虚拟磁盘选项界面

 

----结束

15.4.4 扩展Virtual Drives可用空间

操作场景

Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见15.3.1 进入管理界面

                                步骤 1     进入要操作的虚拟磁盘界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如15-43所示。

图15-43 Virtual Drive Management

 

                                步骤 2     扩容虚拟磁盘。

1.     将“Operation”设置为“Expand Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入虚拟磁盘扩容界面,如15-44界面所示,界面参数如15-19所示。

图15-44 Expand Virtual Drive

 

表15-19 参数说明

参数

参数说明

Current Capacity

虚拟磁盘当前容量。

Available Capacity

可用于扩展的容量。

Enter a Percentage of Available Capacity

输入扩容比例。

Capacity of Virtual Drive after Expansion

扩容后虚拟磁盘容量。

 

3.     设置扩容百分比。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

返回虚拟磁盘选项界面,验证扩容结果,如15-45所示。

图15-45 查看扩容结果

 

----结束

15.4.5 迁移RAID级别

操作场景

随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。

在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。

对系统的影响

RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID

请谨慎执行RAID级别迁移操作。

必备事项

前提条件

迁移RAID级别之前,需具备如下条件:

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     当前存在的硬盘个数满足目标RAID级别要求。

l     已登录管理界面,具体操作请参见15.3.1 进入管理界面

9460-8i支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1RAID 5RAID 6

l     RAID 1迁移到RAID 0RAID 5RAID 6

l     RAID 5迁移到RAID 0RAID 6

l     RAID 6迁移到RAID 0RAID 5

RAID迁移对硬盘数量的要求如15-3所示。

l     RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     迁移只支持增加与RAID组成员盘同类型同规格的硬盘。

l     为防止数据丢失,请在该操作之前备份当前RAID组的数据。

l     只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。

l     迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。

操作步骤

进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”并按“Enter”。

进入虚拟磁盘选项界面,如15-46所示。

图15-46 虚拟磁盘选项界面

 

                                步骤 2     选择RAID迁移的目标级别。

下面以将RAID 1迁移到RAID 5为例进行说明。

1.     选择要进行迁移的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如15-47所示。

图15-47 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”。

4.     选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如15-48所示。不设置时默认与原RAID组配置一致。

图15-48 Advanced...

 

5.     选择“Go”,并按“Enter”。

进入RAID配置界面,如15-49所示。

图15-49 Reconfigure Virtual Drives

 

6.     选择“New RAID Level”并按“Enter”。

打开RAID迁移的目标级别选择窗口,如15-50所示。

图15-50 选择新的RAID级别

 

7.     选择“RAID 5”并按“Enter”。

                                步骤 3     添加硬盘。

1.     选择“Choose the operation”并按“Enter”。

打开硬盘选择窗口。

2.     选择要增加的硬盘并按“Enter”。

l     RAID迁移对硬盘数量的要求请参见15-3

l     增加的硬盘要与RAID组的成员盘同类型同规格。

3.     选择“Apply Changes”并按“Enter”。

弹出操作确认会话框。

4.     选择“Confirm”并按“Enter”。

5.     选择“Yes”并按“Enter”。

提示操作成功。

6.     选择“OK”并按“Enter”返回15-49界面。

                                步骤 4     RAID级别迁移。

1.     选择“Start Operation”并按“Enter”。

提示操作成功。

                                步骤 5     查看迁移结果。

1.     进入Virtual Drive Management界面,检查迁移结果,如15-51所示,表示RAID正在进行迁移。

图15-51 查看迁移结果

 

l     迁移过程中若重启服务器,该任务将在重启后继续进行。

l     迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。

2.     选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 1”变成“RAID 5”,RAID组容量增大,且“Status”状态显示为“Optimal”,表示RAID迁移成功。

----结束

15.4.6 删除RAID

操作场景

 

RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见15.3.1 进入管理界面

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如15-52所示。

图15-52 Virtual Drive Management

 

                                步骤 2     删除虚拟磁盘。

1.     将“Operation”设置为“Delete Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

15.4.7 重构RAID

操作场景

介绍将带有外部配置的硬盘进行重构的操作方法,不带外部配置硬盘的重构方法请参见15.5.1.1 硬盘故障

操作步骤

在“Main Menu”界面中选择“Drive Management”并按“Enter”。

                                步骤 1     选中要进行重构的硬盘,按“Enter”。

                                步骤 2     将“Operation”设置为“Make Unconfigured Good”。

                                步骤 3     选择“Go”并按“Enter”。

提示The operation has been performed successfully

                                步骤 4     按“Enter”完成配置。

硬盘状态变为“(Foreign,Unconfigured Good”。

                                步骤 5     清除外部配置,具体操作请参见15.4.9 导入和清除外部配置

RAID组开始进行重构。

----结束

当出现硬盘离线情况时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

15.4.8 查看RAID控制卡属性

操作场景

用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。

操作步骤

登录管理界面,具体操作方法请参见15.3.1 进入管理界面

                                步骤 1     进入“Controller Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息,如15-53所示,参数说明如15-20所示。

图15-53 Controller Management

 

表15-20 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见15.3.9 配置启动项

PCI ID

RAID控制卡的PCI ID

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Connector Count

RAID控制卡与主板的接口个数。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制卡操作。

Advanced Controller Properties

查看和修改控制卡的高级属性。

 

                                步骤 2     查看控制卡高级属性。

选择“Advanced Controller Properties”并按“Enter”。

进入控制卡高级属性界面,如15-5415-55所示,参数说明如15-21所示。

在该界面下,可查看并修改RAID控制卡的高级属性。

图15-54 Advanced Controller Properties (1)

 

图15-55 Advanced Controller Properties (2)

 

表15-21 参数说明

参数

说明

Cache and Memory

查看控制卡CacheMemory信息。

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

Spare

设置控制卡热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

9460-8i RAID控制卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。

默认为“pause on error”。

Controller BIOS

控制卡BIOS的使能情况。

ROC Temperature

控制卡温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见15.4.9 导入和清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验

JBOD Mode

是否使能硬盘直通功能。

Write Verify

-

 

----结束

15.4.9 导入和清除外部配置

操作场景

l     服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。

 

l     如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!

l     为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

导入外部配置

登录管理界面,具体操作方法请参见15.3.1 进入管理界面

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如15-56所示。

图15-56 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如15-57所示。

图15-57 外部配置

 

                                步骤 5     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 8     按“ESC”完成配置返回上级界面。

----结束

清除外部配置

登录管理界面,具体操作方法请参见15.3.1 进入管理界面

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如15-58所示。

图15-58 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如15-59所示。

图15-59 外部配置

 

                                步骤 5     选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 8     按“ESC”完成配置返回上级界面。

----结束

15.4.10 设置JBOD模式

9460-8i支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

登录管理界面,具体操作方法请参见15.3.1 进入管理界面

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Properties界面,如15-60所示。

图15-60 Advanced Controller Properties

 

                                步骤 2     选择“JBOD Mode”并按Enter

                                步骤 3     选择“Enabled”并按“Enter”。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

15.4.11 创建多个VDVirtual Drive

该场景为使用已存在一个或多个VDRAID组的空闲容量创建多个VD,以RAID0存在一个VD为例,详细操作方法如下:

按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如15-61所示。

图15-61 Create Virtual Drive

 

                                步骤 2     将“Select Drives From”设置为“Free Capacity”,如15-62所示。

图15-62 Create Virtual Drive

 

                                步骤 3     选择“Select Drive Groups”并按“Enter”。

显示当前存在的RAID组(Drive Group),如15-63所示。

图15-63 Select Drive Groups

 

                                步骤 4     选择要创建多个VDRAID组并按“Enter”,如15-64所示。

图15-64 Select Drive Groups

 

                                步骤 5     选择“Apply Changes”并按“Enter”。

提示操作成功。

                                步骤 6     选择“OK”并按“Enter”返回VD配置界面,如15-65所示,参数说明如15-22所示。

图15-65 Create Virtual Drive

 

表15-22 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drive Groups

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略。可配置的状态有:

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。

l     Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 7     按照15-22所述配置VD的相关属性。

                                步骤 8     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

                                步骤 9     选择“Confirm”并按“Enter”。

                             步骤 10     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                             步骤 11     选择“OK”并按“Enter”完成配置。

可进入Virtual Drive Management界面,查看当前存在的所有VD,如15-66所示。

图15-66 Virtual Drive Management

 

----结束

每个RAID组最多支持创建16VD,如需要继续创建VD,请重复执行步骤1~步骤11

15.4.12 查询RAID控制卡固件版本

查询RAID控制卡固件版本的方法有如下几种:

l     iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。

l     服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见15.7.2.1 查询RAID控制卡配置信息

回显信息中的“FW Version”字段即为RAID控制卡的固件版本。

l     RAID控制卡管理界面进行查询,具体方法为:

a.     登录RAID控制卡的管理界面,具体操作请参见15.3.1 进入管理界面

b.     在主界面中选择“Main Menu”并按“Enter”。

进入“Main Menu”页面,如15-67所示。

图15-67 Main Menu页面

 

c.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如15-68所示。

图15-68 Controller Management界面

 

15.5 故障处理

介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

15.5.1 硬盘相关故障

15.5.1.1 硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

确认故障硬盘槽位。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考15.6.2.4 Drive Management

l     通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

                                步骤 1     更换新硬盘。

 

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考15.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在15-2查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0

     UEFI模式下创建RAID0的方法请参见15.3.2 创建RAID 0

     通过命令行方式创建RAID0的方法请参见15.7.2.2 创建和删除RAID

----结束

15.5.1.2 硬盘状态为failprefail

问题描述

正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代failprefail状态的成员盘并进行重构,避免数据丢失。

但当RAID控制卡未设置紧急热备时,成员盘状态显示为failprefail时,可使用以下方法处理。

处理方法

使用StorCLI工具,具体操作请参考15.7.1 下载和安装StorCLI工具

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考15.7.2.17 设置硬盘状态

storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在EnclosureID

l     slot_id:物理硬盘槽位ID

                                步骤 2     更换离线硬盘。

                                步骤 3     RAID组自动执行重构。

等待重构完成。

----结束

15.5.1.3 硬盘状态为Unconfigured BadUBad

问题描述

硬盘状态显示为Unconfigured BadUBad

处理方法

使用StorCLI工具,具体操作请参见15.7.1 下载和安装StorCLI工具

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见15.7.2.17 设置硬盘状态

storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在EnclosureID

l     slot_id:物理硬盘槽位ID

                                步骤 2     重新查看硬盘状态是否更改为Unconfigured GoodUgood。具体操作请参见15.6.2.4 Drive Management界面或15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤4

                                步骤 3     查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见15.4.9 导入和清除外部配置15.7.2.34 查看/导入/清除外部配置

l     问题解决 => 处理完毕。

l     问题未解决 => 联系技术支持处理。

----结束

15.5.2 电容故障

问题描述

RAID控制卡电容故障时,可能导致服务器出现如下情况:

l     服务器读写速度显著降低。

l     RAID控制卡的CU界面中显示电容状态异常。

处理方法

进入RAID控制卡的CU界面,查看电容状态是否为“Optimal”。

电容状态可查询15.6.2.5 Hardware Components界面的“Battery Status”参数。

l      => 处理完毕

l      => 步骤2

                                步骤 1     将服务器下电,打开机箱,并查看RAID控制卡电容是否在位。

l      => 步骤4

l      => 步骤3

                                步骤 2     检查整机配置,为服务器安装电容,查看电容状态是否为“Optimal”。

l      => 处理完毕

l      => 步骤6

                                步骤 3     重新安装RAID控制卡电容,查看电容状态是否为“Optimal”。

l      => 处理完毕

l      => 步骤5

                                步骤 4     更换RAID控制卡电容,查看电容状态是否为“Optimal”,且“问题描述”所述的异常状态是否消失。

l      => 处理完毕

l      => 步骤6

                                步骤 5     联系技术支持处理。

----结束

15.5.3 控制卡故障

问题描述

当服务器出现如下现象时,说明控制卡故障。

l     数据无法写入控制卡控制的硬盘。

l     服务器上报控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     查询兼容性查询助手或者联系技术支持处理。

----结束

15.5.4 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy

问题描述

正常情况下,当服务器配置了RAID控制卡且RAID控制卡状态正常时,进入BIOSAdvanced页签后,会显示RAID控制卡的信息,如15-69所示。

如果Advanced页签不显示RAID控制卡的信息,如15-70所示,则:

l     如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:

     如果不显示驱动打印信息,可尝试下电后重新拔插RAID控制卡再上电、下电后更换RAID控制卡再上电或者联系技术支持。

     如果显示“AVAGO EFI SAS Driver”,则可以通过本章节的指导修复RAID控制卡。

l     如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,则可以通过本章节的指导修复RAID控制卡;如果不显示,可尝试下电后重新拔插RAID控制卡再上电、下电更换RAID控制卡再上电或者联系技术支持。

图15-69 Advanced页签(1

 

图15-70 Advanced页签(2

 

图15-71 Advanced页签(3

 

处理方法

l     BIOS的版本为0.98之前版本(不包含0.98版本)时:

a.     Advanced页签选择“Driver Health Manager”并按Enter

进入“Driver Health Manager”界面。

b.     选择要进行修复的RAID控制卡驱动,如“AVAGO EFI SAS Driver SAS3508”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息:

n     显示“The following VDs have missing disks. => 请参见15.5.4.1 The following VDs have missing disks

n     显示“There are offline or missing virtual drives with preserved cache. => 请参见15.5.4.2 There are offline or missing virtual drives with preserved cache

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone=> 请参见15.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

n     显示“Memory/battery problems were detected / Unexpected power-loss occurred=> 请参见15.5.4.4 Memory/battery problems were detected / Unexpected power-loss occurred

l     BIOS的版本为0.98及以上版本时:

a.     在“Advanced”页签选择“Some drivers are not healthy”。

进入健康状态查询界面。

b.     选择“Repair the whole platform”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息。

n     显示“The following VDs have missing disks. => 请参见15.5.4.1 The following VDs have missing disks

n     显示“There are offline or missing virtual drives with preserved cache. => 请参见15.5.4.2 There are offline or missing virtual drives with preserved cache

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone=> 请参见15.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

n     显示“Memory/battery problems were detected / Unexpected power-loss occurred=> 请参见15.5.4.4 Memory/battery problems were detected / Unexpected power-loss occurred

RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见0RAID控制卡启动中出现的常见的错误消息及处理方法

15.5.4.1 The following VDs have missing disks

问题描述

15-72所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。

图15-72 状态显示

 

处理方法

修复RAID控制卡。

1.     15-72中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

2.     输入“C”并按“Enter”。

3.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

4.     输入“y”并按“Enter”。

提示“Critical Message handling completed. Please exit”。修复完成。

                                步骤 1     重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

15.5.4.2 There are offline or missing virtual drives with preserved cache

问题描述

15-73所示,进入“Driver Healthy Protocol Utility”界面后,显示“There are offline or missing virtual drives with preserved cache”。

图15-73 状态显示

 

处理方法

选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

                                步骤 1     输入任意内容,并按“Enter”。

提示Critical Message handling completed. Please exit。修复完成。

                                步骤 2     Esc

进入RAID控制卡界面,如15-74所示。

图15-74 RAID控制卡界面

 

                                步骤 3     选择“Discard Preserved Cache”并按Enter

弹出操作确认界面,如15-75所示。

图15-75 操作确认窗口

 

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示操作成功。

                                步骤 6     重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

15.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

问题描述

15-76所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”

图15-76 状态显示

 

处理建议

该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:

l     下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。

l     忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:

a.     15-76中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

b.     输入“c”并按“Enter”。

c.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

d.     输入“y”并按“Enter”。

提示Critical Message handling completed. Please exit

e.     按“Esc”退出当前界面。

弹出确认保存配置会话框,如15-77所示。

图15-77 提示保存会话框

 

f.     按“Y”保存配置,操作完成。

g.     Esc键返回“Device Manager”界面。

h.     选择9460-8i RAID控制卡,并按“Enter”,进入RAID控制卡管理界面。

15.5.4.4 Memory/battery problems were detected / Unexpected power-loss occurred

问题描述

15-78所示,进入“Driver Healthy Protocol Utility”界面后,显示“Memory/battery problems were detected / Unexpected power-loss occurred”。

图15-78 状态显示

 

处理方法

选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

                                步骤 1     输入任意内容,并按“Enter”。

提示Critical Message handling completed. Please exit。修复完成。

                                步骤 2     重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

15.5.4.5 Disabling writes to flash as the flash part has gone bad

问题描述

15-79所示,进入“Driver Healthy Protocol Utility”界面后,显示“Disabling writes to flash as the flash part has gone bad”。

图15-79 状态显示

 

处理方法

将服务器下电。

                                步骤 1     更换RAID控制卡。

                                步骤 2     将服务器上电,导入外部配置恢复原来的RAID配置,请参见15.4.9 导入和清除外部配置15.7.2.34 查看/导入/清除外部配置

检查提示是否清除。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

15.5.5 Controller Mode恢复为RAID

问题描述

RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD modeRAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如15-80所示,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。

图15-80 问题描述

 

当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。

处理方法

(可选)登录RAID控制卡管理界面,具体操作请参见15.6.1 进入管理界面

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Management界面,如15-81所示。

图15-81 Advanced Controller Management界面

 

                                步骤 2     选择“Switch to RAID mode”并按“Enter”。

提示操作成功,如15-82所示。

图15-82 操作成功

 

                                步骤 3     选择“OK”并按“Enter”。

返回到“Advanced Controller Management”界面,显示正在切换模式,如15-83所示。

图15-83 Advanced Controller Management界面

 

                                步骤 4     按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见15.6.1 进入管理界面

                                步骤 5     依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如15-84所示。

图15-84 Advanced Controller Management界面

 

l      => 处理完毕

l      => 请联系技术支持

----结束

15.5.6 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死

问题描述

硬盘响应命令超时,控制卡会对硬盘进行复位。3次复位后尚未恢复时将可能耗尽控制卡TMTask Management)资源,触发Fatal error,此时会通过OCROnline Controller Reset)自愈恢复,期间将有短时间业务中断(约30s60s),控制卡复位后会完成踢盘,将故障硬盘置为Ubad状态。

控制卡自愈恢复,需要开启OCR开关。

触发条件

当下发到硬盘的I/O出现超时不响应的情况时,RAID控制卡会通过reset硬盘来恢复,正常情况下,硬盘会重新接入或者多次reset之后会进行踢盘。

当出现reset之后硬盘仍然无法响应RAID控制卡指令且无法踢盘时,RAID控制卡会再次reset进行复位,每次reset会占用RAID控制卡资源,短时间内多次reset会导致RAID控制卡资源耗尽,该场景下,RAID控制卡会通过重新加载FW进行恢复。

该机制为此类卡的正常处理机制,由于架构限制,无法进行优化。

识别方法

l     已安装OS

当遇到短时间业务中断,恢复后查看有被置为Ubad状态的硬盘时,可以查看控制卡日志,搜索dm.c并查看其发生时间,如与业务中断时间节点接近,即可断定为触发了该机制。

注意控制卡与OS时间差。

l     未安装OS

OS时,触发该机制的操作为:从“Advanced”页签进入控制卡界面。若触发该机制,进入控制卡卡操作界面时将会卡住,无法恢复。

处理方法

定位故障硬盘。

l     已安装OS

     如确认触发了该机制并且已经完成了踢盘,需要更换Ubad状态的硬盘。

     如无Ubad状态的硬盘,查看日志并搜索“indicates critical condition”,目标行的“element xx indicates critical condition”中,“xx”即为问题硬盘的槽位号。

已安装OS,但是进入“Advanced”页签的控制卡操作界面卡住,需要重新上下电进入OS,按照以上方式定位故障硬盘。

l     未安装OS

系统未安装OS,出现该异常时,保留预安装OS RAID组数目的硬盘,将其他硬盘拔出并记录槽位号,如成功安装OS进入系统后,按照已安装OS的操作来确认问题硬盘。

                                步骤 1     更换故障硬盘。

l      => 处理完毕。

l      => 请联系技术支持。

----结束

15.5.7 删除Preserved Cache

问题描述

l     无法创建RAID组。

l     进入控制卡主界面后,显示“Discard Preserved Cache”,如15-85所示。

图15-85 控制卡主界面

 

处理方法

进入控制卡主界面。

                                步骤 1     选择“Discard Preserved Cache”并按Enter

弹出操作确认界面,如15-86所示。

图15-86 操作确认窗口

 

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示“The operation has been performed successfully”即操作成功。

----结束

15.6 管理界面介绍

15.6.1 进入管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如15-87所示界面时,按“Delete”,进入输入密码界面。

图15-87 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如15-88所示界面。

图15-88 Setup Utility界面

 

                                步骤 4     通过“”或“→ ”进入“Advanced”页签,如15-89所示。

图15-89 “Advanced”页签

 

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见15.5.4 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择“Avago MegaRAID <SAS 9460-8i> Configuration Utility”,按“Enter”。

进入9460-8i主界面,如15-9015-91所示,界面参数如15-23所示。

图15-90 9460-8i主界面(1

 

图15-91 9460-8i主界面(2

 

表15-23 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

说明

9460-8i不支持在此界面升级FW

Silence Alarm

板载蜂鸣器的使能状态。

说明

9460-8i未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

15.6.2 Main Menu

RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。

界面介绍

Main Menu”界面如15-92,参数说明如15-24所示。

图15-92 Main Menu

 

表15-24 参数说明

参数

参数说明

Configuration Management

配置管理RAID

Controller Management

管理RAID控制卡。

Virtual Drive Management

管理虚拟磁盘。

Drive Management

管理硬盘。

Hardware Components

查询部件信息。

 

15.6.2.1 Configuration Management

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

Configuration Management”界面如15-93,参数说明如15-25所示。

图15-93 Configuration Management

 

表15-25 参数说明

参数

参数说明

Auto Configure RAID 0

自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0

Create Virtual Drive

创建RAID

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Clear Configuration

清除当前所有RAID配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时会显示该参数。

 

查看虚拟磁盘属性

15-93中选择“View Drive Group Properties”并按“Enter”。

打开的界面如15-94,参数说明如15-26所示。

图15-94 View Drive Group Properties

 

表15-26 参数说明

参数

参数说明

Drive Group

硬盘组名称。

Capacity Allocation

硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。

 

清除RAID配置

选择“Clear Configuration”并按“Enter”。

进入操作确认界面。

                                步骤 1     选中“Confirm”并按“Enter”。

                                步骤 2     在打开的列表中选择“Enabled”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 4     按“Enter”。

配置完成。

----结束

查看并导入外部配置

15-93中选择“Manage Foreign Configuration”并按“Enter”。

界面如15-95所示。

图15-95 Manage Foreign Configuration

 

                                步骤 2     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如15-96所示。

图15-96 外部配置

 

                                步骤 3     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     在列表中选择“Enable”并按“Enter”。

                                步骤 6     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 7     选择“OK”并按“Enter”完成配置。

----结束

清除外部配置

选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     在列表中选择“Enable”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

15.6.2.2 Controller Management

该界面提供控制卡管理接口,可查看并修改控制卡的详细参数。

界面介绍

Controller Management”界面如15-97,参数说明如15-27所示。

图15-97 Controller Management

 

表15-27 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。

PCI ID

RAID控制卡的PCI ID

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Connector Count

RAID控制卡与主板的接口个数。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制卡操作。

Advanced Controller Properties

查看和修改控制卡的高级属性。

 

更多控制卡操作

15-97中选择“Advanced Controller Management”并按“Enter”。

界面如15-98所示,界面中参数说明如15-28所示。

图15-98 Advanced Controller Management

 

表15-28 参数说明

参数

说明

Clear Controller Events

清除控制卡的事件日志。

Save Controller Events

保存控制卡的事件日志。

Save TTY Log

保存终端操作日志。

Manage SAS Storage Link Speed

管理接口速率。

Manage MegaRAID Advanced Software Options

管理高级软件功能。

Schedule Consistency Check

设置一致性校验参数。

Set Factory Defaults

恢复为出厂配置。

Switch to JBOD mode

切换RAID控制卡的工作模式,默认为RAID模式。当RAID控制卡当前的工作模式为RAID时,显示为“Switch to JBOD mode”;当RAID控制卡当前的工作模式为JBOD时,显示为“Switch to RAID mode”。

RAID控制卡的工作模式仅支持设置为“RAID”,请勿修改为“JBOD”。

如已设置为JBOD,请参见15.5.5 Controller Mode恢复为RAID进行恢复;如需要开启JBOD功能,请参见15.4.10 设置JBOD模式进行设置。

Controller Mode

RAID控制卡当前的工作模式。

 

查看并修改控制卡高级属性

15-97中选择“Advanced Controller Properties”并按“Enter”。

界面如15-9915-100所示,界面中参数说明如15-29所示。

图15-99 Advanced Controller Properties1

 

图15-100 Advanced Controller Properties2

 

表15-29 参数说明

参数

说明

Cache and Memory

查看控制卡CacheMemory信息。

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

Spare

设置控制卡热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

9460-8iRAID控制卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。

默认为“pause on error”。

Controller BIOS

控制卡BIOS的使能情况。

ROC Temperature

控制卡温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

磁盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Expanded Virtual Drive Support

是否支持扩容虚拟磁盘的功能。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见15.4.9 导入和清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

JBOD Mode

硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。

 

                                步骤 2     15-99中选择“Task Rates”并按“Enter”。界面如15-101所示,界面中参数说明如15-30所示。

图15-101 Task Rates

 

表15-30 参数说明

参数

说明

Background Initialization <BGI> Rate

设置执行后台初始化的速率。

说明

数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Consistency Check Rate

设置执行一致性校验的速率。

说明

数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Patrol Read Rate

设置执行巡检读取的速率。

说明

数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Rebuild Rate

设置硬盘发生故障时在新硬盘上执行重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Reconstruction Rate

设置执行RAID级别迁移或在线容量扩展时重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Apply Changes

保存配置。

 

                                步骤 3     按照15-29所述修改控制卡的高级属性参数。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     单击“OK”完成配置。

----结束

15.6.2.3 Virtual Drive Management

该界面提供虚拟磁盘的查询和管理接口。

界面介绍

Virtual Drive Management”界面如15-102,显示虚拟磁盘列表。

图15-102 Virtual Drive List

 

选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如15-103所示,参数说明如15-31所示。

图15-103 Virtual Drive Management

 

表15-31 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:定位虚拟磁盘的所有硬盘。

l     Stop Locate:取消定位。

l     Delete Virtual Drive:删除虚拟磁盘。

l     Expand Virtual Drive:扩展虚拟磁盘容量。

l     Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。

l     Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。

l     Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。

l     Fast Initialization:快速初始化虚拟磁盘。

l     Slow Initialization:安全初始化虚拟磁盘。

l     Check Consistency:一致性校验。

l     Virtual Drive Erase:格式化虚拟磁盘。

Progress

当前任务进度。

l     仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。

l     当前界面不会自动刷新,需退出后重新进入查看当前进度。

Stop

停止当前任务。

仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。

Name

虚拟磁盘名称。

Raid Level

虚拟磁盘RAID级别。

Status

虚拟磁盘当前运行状态。

Size

虚拟磁盘容量。

View Associated Drives

查看成员盘属性。

Advanced...

查看虚拟磁盘高级属性。

 

查看成员盘属性

15-103中选择“View Associated Drives”并按“Enter”。

界面如15-104,显示成员盘列表。

图15-104 View Associated Drives

 

                                步骤 2     选择要查看的成员盘,并按“Enter”。

                                步骤 3     选择“View Drive Properties”并按“Enter”。

进入硬盘属性界面,如15-105界面所示,界面参数如15-32所示。

图15-105 View Drive Properties

 

表15-32 参数说明

参数

参数说明

Operation

该成员盘可执行的操作,包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Place Drive Online/Offline:将硬盘上线/离线。

Drive ID

成员盘的ID

Status

成员盘的当前工作状态。

Size

成员盘的容量。

Type

成员盘类型。

Model

成员盘的模块类型。

Hardware Vendor

成员盘的生产厂商。

Associated Virtual Drive

成员盘所在的虚拟磁盘。

Advanced...

查询成员盘更多属性。

 

----结束

查看和修改虚拟磁盘高级属性

15-103中选择“Advanced”并按“Enter”。

界面如15-10615-107所示,界面参数如15-33所示。

图15-106 Advanced 1

 

图15-107 Advanced 2

 

表15-33 参数说明

参数

参数说明

Logical Sector Size

逻辑扇区大小。

Strip Size

条带大小。

Starting Logical Block Addressing

逻辑单元起始地址。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Protected

是否支持硬盘保护。

Bad Blocks

是否支持坏块处理。

SSD Caching

是否支持SSD Caching

Access

是否支持Access

Current Write Cache Policy

当前写Cache策略,包括:

l     Write Through:当硬盘子系统接收到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。

l     Write Back:当RAID控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Always Write Back:当未配置超级电容或超级电容故障时,RAID控制卡将不会自动切换到Write Through模式。

说明

“Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR的写数据将会丢失。不推荐使用该模式。

Default Write Cache Policy

默认的写Cache策略。

Disable Background Initialization

是否禁用后台初始化。

Read Cache Policy

当前读Cache策略,包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。RAID控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

Drive Cache

是否支持cache

Input/Output

I/O读取策略,包括:

l     Direct:直接从硬盘读取数据,不经过Cache缓存。

l     Cached:从Cache缓存中读取数据。

Apply Changes

保存配置。

 

                                步骤 2     按照15-33所述配置“Advanced”的参数。

                                步骤 3     选择“Apply Changes”并按“Enter”。

显示The operation has been performed successfully

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

15.6.2.4 Drive Management

该界面显示硬盘基本属性,提供硬盘操作接口。

界面介绍

Drive Management”界面如15-108所示,显示硬盘列表。

图15-108 Drive List

 

选定要操作的硬盘并按“Enter”进入详细操作界面,如15-109所示,参数说明如15-34所示。

图15-109 Drive Management

 

表15-34 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Initialize Drive:硬盘初始化。

l     Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。

     Simple:仅对硬盘进行一轮擦除动作。

     Normal:对硬盘进行三轮擦除动作。

     Thorough:对硬盘进行九轮擦除动作。

     Stop Erase:停止数据擦除操作。

l     Make Unconfigured Good/Bad:修改硬盘状态。

l     Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。

l     Assign Global Hot Spare Drive:设置全局热备盘。

l     Assign Dedicated Hot Spare Drive:设置局部热备盘。

l     Unassign Hot Spare Drive:删除热备盘。

l     Cryptographic Erase:对加密硬盘进行数据擦除。

l     Place Drive Online:将Offline状态的硬盘设置为Online

说明

l     Place Drive Online操作只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。

l     对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。

Drive ID

硬盘的ID

Status

硬盘的当前工作状态。

Size

硬盘的容量。

Type

硬盘的类型。

Model

硬盘型号。

Hardware Vendor

硬盘的生产厂商。

Associated Virtual Drive

表示硬盘已加入虚拟磁盘,此处显示虚拟磁盘信息。

Advanced...

查询更多硬盘属性。

 

安全擦除硬盘数据

该操作会删除硬盘上的数据,请谨慎执行。

将“Operation”设置为“Drive Erase”。

                                步骤 1     选择“Erase Mode”并按“Enter”。

                                步骤 2     在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。

                                步骤 3     选择“OK”并按“Enter”。

进入操作确认界面。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示操作成功。

----结束

查看硬盘属性

选择“Advanced...”并按“Enter”。

打开硬盘属性界面,如15-11015-111所示,参数说明如15-35所示。

图15-110 Drive Properties 1

 

图15-111 Drive Properties 2

 

表15-35 参数说明

参数

参数说明

Certified

硬盘是否有供应商认证。

Logical Sector Size

逻辑扇区大小。

Physical Sector Size

物理扇区大小。

SMART Status

SMART功能是否使能。

Revision

硬盘Firmware版本。

Media Errors

Media error个数。

Predicted Fail Count

Pred fail个数。

SAS Address

硬盘SAS地址。

Drive Power State

硬盘上电状态。

Emergency Spare

是否支持紧急备份功能,即是否可以选空闲盘或者热备做备份盘。

Commissioned Hot Spare

是否指定了备份盘,即把一个热备盘指定给一个RAID组使用。

Cache Setting

是否可设置Cache

Available Size

硬盘可用空间。

Used Space

已使用的硬盘空间。

Disk Protocol

硬盘支持的协议。

Device Speed

设备速率。

Negotiated Drive Transfer Speed

硬盘数据传输速率。

Number of Connections

连接器个数。

FDE Capable

硬盘是否支持FDEFull Disk Encryption)技术。

Cryptographic Erase Capable

硬盘是否支持加密擦除功能。

Unmap Capable

解除映射能力。

Temperature

硬盘温度。

 

15.6.2.5 Hardware Components

该界面主要提供RAID控制卡传感器信息。

界面介绍

Hardware Components”界面如15-112,参数说明如15-36所示。

图15-112 Hardware Components

 

表15-36 参数说明

参数

参数说明

Temperature Sensors

当前温度传感器状态。

Fans

当前风扇模块工作状态。

Power Supplies

当前供电模块工作状态。

Battery Management

电容管理。

Enclosure Management

查看更多传感器信息。

 

查看更多传感器信息

选择“Enclosure Management”并按“Enter”。

进入部件选择界面,如15-113所示。

图15-113 选择部件

 

                                步骤 2     选择“Select Enclosure”并按“Enter”。

                                步骤 3     选择要操作的部件并按“Enter”。

                                步骤 4     选择“View Enclosure Status”并按“Enter”。

显示传感器的详细信息。

                                步骤 5     TEMPERATUR SENSOR下通过“Select Temperature Sensor”选择要查询的温度传感器。

Temperature Sensor Status”显示所查询的传感器的状态。

                                步骤 6     FAN下通过“Select Fan”选择要查询的风扇传感器。

Fan Status”显示所查询的传感器的状态。

                                步骤 7     POWER SUPPLY下通过“Select Power Supply”选择要查询的供电模块传感器。

Power Supply Status”显示所查询的传感器的状态。

----结束

15.6.3 View Server Profile

提供RAID控制卡操作管理接口。

界面介绍

View Server Profile”界面如15-114所示,参数说明如15-37所示。

图15-114 View Server Profile

 

表15-37 参数说明

参数

参数说明

UEFI Spec Version

服务器支持的UEFI Spec版本。

Controller Management

提供控制卡管理接口,详细情况请参见15.6.2.2 Controller Management

Hardware Components

提供控制卡部件查询接口,详细情况请参见15.6.2.5 Hardware Components

Drive Management

提供硬盘管理接口,详细情况请参见15.6.2.4 Drive Management

Virtual Drive Management

提供虚拟磁盘管理接口,详细情况请参见15.6.2.3 Virtual Drive Management

 

15.6.4 View Foreign Configuration

该界面可查看、导入、清空外部配置。

界面介绍

View Foreign Configuration”界面如15-115所示。

图15-115 View Foreign Configuration

 

查看并导入外部配置

选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如15-116所示。

图15-116 外部配置

 

                                步骤 2     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     单击“OK”完成配置。

----结束

清除外部配置

选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     单击“OK”完成配置。

----结束

15.6.5 Configure

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

Configure”界面如15-117所示,参数说明如15-38所示。

图15-117 Configure

 

表15-38 参数说明

参数

参数说明

Auto Configure RAID 0

自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0

Create Virtual Drive

创建RAID

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Clear Configuration

清除当前所有RAID配置。

Manage Foreign Configuration

管理外部配置。

 

清除当前配置

选择“Clear Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     单击“OK”完成配置。

----结束

15.6.6 Set Factory Defaults

恢复出厂配置

在主界面选择“Set Factory Defaults”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     单击“OK”完成配置。

----结束

15.6.7 Manage MegaRAID Advanced Software Options

该界面提供RAID控制卡高级软件特性查看和导入接口。

界面介绍

Manage MegaRAID Advanced Software Options”界面如15-118所示,界面中参数说明如15-39所示。

图15-118 Manage MegaRAID Advanced Software Options

 

表15-39 参数说明

参数

说明

SAFE ID

RAID控制卡的安全编码。

Serial Number

RAID控制卡序列号。

Activation Key

待激活的高级特性的Key

Active

激活高级特性。

9460-8i不支持高级特性的激活操作,该功能无效。

Deactive All Trail Software

注销当前所有高级特性。

 

15.6.8 Exit

退出配置界面。

退出配置界面

9460-8i主界面按“ESC”,显示如15-119所示界面。

图15-119 BIOS Setup Utility

 

                                步骤 2     F10退出BIOS

弹出操作确认窗口。

                                步骤 3     选择“OK”并按Enter

退出BIOS,显示“ Press Control+Alt+Delete to reboot”。

----结束

15.7 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

15.7.1 下载和安装StorCLI工具

下载工具

登录BROADCOM网站上RAID控制卡的页面

                                步骤 1     在“DOWNLOADS”页签中单击“Management Software and Tools”。

打开管理软件和工具列表。

                                步骤 2     下载最新版本的“StorCLI”工具。

                                步骤 3     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 1     Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。

StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

15.7.2 常用命令

15.7.2.1 查询RAID控制卡配置信息

命令功能

查询9460-8i的基本配置信息。

命令格式

storcli64 /ccontroller_id show

参数说明

参数

参数说明

取值

controller_id

控制卡ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

 

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡配置信息。

[root@localhost]# ./storcli64_arm /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 4.19.36-vhulk1907.1.0.h453.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
Product Name = AVAGO MegaRAID SAS 9460-8i
Serial Number = SP01022668
SAS Address =  500062b206129f00
PCI Address = 00:01:00:00
System Time = 11/13/2019 04:33:58
Mfg. Date = 03/12/20
Controller Time = 11/13/2019 09:33:56
FW Package Build = 51.13.0-3223
BIOS Version = 7.13.00.0_070D0300
FW Version = 5.130.00-3059
Driver Name = megaraid_sas
Driver Version = 07.713.02.00
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x16
SubVendor Id = 0x1000
SubDevice Id = 0x9461
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Drive Groups = 2
 
TOPOLOGY :
========
 
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace TR
-----------------------------------------------------------------------------
 0 -   -   -        -   RAID0 Optl  N  372.093 GB dflt N  N   none Y      N
 0 0   -   -        -   RAID0 Optl  N  372.093 GB dflt N  N   none Y      N
 0 0   0   133:0    35  DRIVE Onln  N  372.093 GB dflt N  N   none -      N
 1 -   -   -        -   RAID0 Optl  N    3.273 TB dflt N  N   none Y      N
 1 0   -   -        -   RAID0 Optl  N    3.273 TB dflt N  N   none Y      N
 1 0   0   133:1    4   DRIVE Onln  N    3.273 TB dflt N  N   none -      N
-----------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 2
 
VD LIST :
=======
 
-------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC     Size Name
-------------------------------------------------------------
0/0   RAID0 Optl  RW     Yes     RWTD  -   ON  200.0 GB
1/3   RAID0 Optl  RW     Yes     NRWTD -   ON   50.0 GB
-------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 3
 
PD LIST :
=======
 
------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model            Sp Type
------------------------------------------------------------------------------
133:0    35 Onln   0 372.093 GB SAS  SSD N   N  512B HWE32SS3004H001N U  -
133:1     4 Onln   1   3.273 TB SAS  SSD N   N  512B HSSD-D5220AS0200 U  -
133:2     2 UGood  -   3.273 TB SAS  SSD N   N  512B HSSD-D5220AS0200 U  -
------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Cachevault_Info :
===============
 
------------------------------------
Model  State   Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 26C  -    2019/05/16
------------------------------------

15.7.2.2 创建和删除RAID

命令功能

创建、删除RAID

命令格式

命令

说明

storcli64 /ccontroller_id add vd rlevel[0|1|5|6|10|50|60] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [wt|*wb|awb] [nora|*ra] [Strip=<8|16|32|64|128|256|1024>] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid]

创建RAID

storcli64 /ccontroller_id/vraid_id del

删除RAID

 

*表示默认值。

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

rlevel

要配置的RAID组级别

level可为0156105060,数字分别代表对应的RAID组级别。

size

要配置的RAID组容量

默认值为all,即所有成员盘的容量之和。

name

要配置的RAID组名称

-

drives

要加入RAID组的硬盘

-

startid-endid

硬盘的起始和结束ID

-

slot_id

硬盘ID

-

pdperarray

子组中的硬盘数

创建RAID10RAID50RAID60时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。

-

pdcache

设置RAID的成员盘的Cache状态

l     on

l     off

l     default

pi

使能数据保护

-

wrcache

设置RAID组的写Cache属性,完整的命令为wrcache=wt|wb|awb,这里“wrcache=”可省略

l     wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”模式。

rdcache

设置RAID组的读Cache属性,完整的命令为rdcache=ra|nora,这里“rdcache=”可省略。

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     noraRAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

Strip

设置RAID组条带大小

MR卡:64, 128, 256, 512, 1024

iMR卡:只能为64

单位为KB

EmulationType

控制逻辑盘在OS中上报的扇区

l     0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     1: Disable,即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     2Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Spares

指定RAID组的热备盘

-

raid_id

要删除的RAID组的ID

-

 

l     以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

l     当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid

使用指南

使用实例

# 创建RAID 0

domino:~# ./storcli64 /c0 add vd r0 size=100GB drives=252:0-3
Controller = 0
Status = Success
Description = Add VD Succeeded

# 删除RAID

domino:~# ./storcli64 /c0/v0 del
Controller = 0
Status = Success
Description = Delete VD Succeeded

15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

命令功能

查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。

命令格式

storcli64 /ccontroller_id show

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

storcli64 /ccontroller_id/vvd_id show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

enclosure_id

硬盘所在EnclosureID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡连接的硬盘背板的ID

slot_id

物理硬盘槽位编号

可以将该参数设置为all,表示查询所有硬盘的ID

vd_id

虚拟磁盘ID

可以为all,表示查询所有虚拟磁盘信息。

 

使用指南

回显中主要字段的含义如15-40所示。

表15-40 回显说明

命令格式

字段

含义

举例

storcli64 /ccontroller_id show

Product Name

RAID控制卡的型号

sas3108

FW Version

RAID控制卡的FW版本

4.660.00-8140

Driver Name

RAID控制卡的驱动名称

megaraid_sas

Driver Version

RAID控制卡的驱动版本

06.811.02.00-rh1

Current Personality

RAID控制卡的工作模式

RAID-Mode

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

SN

物理硬盘的序列号

PHWL517601YR800RGN

Manufacturer Id

物理硬盘的供应商ID

ATA

Model Number

物理硬盘的模块序号

INTEL SSDSC2BB800G4

Firmware Revision

物理硬盘的FW版本

D2010370

Raw size

物理硬盘的容量

745.211 GB [0x5d26ceb0 Sectors]

Logical Sector Size

物理硬盘逻辑分区大小

512B

Physical Sector Size

物理扇区大小

4 KB

storcli64 /ccontroller_id/vvd_id show all

TYPE

RAID组的级别

RAID1

State

RAID组的状态

Optl

Access

RAID组数据的访问策略

RW

Cache

RAID组当前的读写策略与I/O Policy

RWTD

Size

RAID组的大小

100.0 GB

PDs for VD0

RAID组下的物理硬盘

-

Strip Size

RAID组的条带大小

256KB

Write Cache(initial setting)

RAIDCache的写策略

Write Through

Disk Cache Policy

RAID组成员盘的Cache策略

Disk's Default

 

使用实例

#查询RAID控制卡的详细信息。

[root@localhost ~]# ./storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
Controller = 0
Status = Success
Description = None
 
Product Name = SAS3508
Serial Number =
SAS Address =  50030130f0900000
PCI Address = 00:01:00:00
System Time = 07/07/2018 22:06:42
Mfg. Date = 00/00/00
Controller Time = 07/07/2018 14:06:41
FW Package Build = 24.16.0-0093
BIOS Version = 6.32.02.0_4.17.08.00_0x06150500
FW Version = 4.660.00-8140
Driver Name = megaraid_sas 
Driver Version = 06.811.02.00-rh1
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x5D
SubVendor Id = 0x19E5
SubDevice Id = 0xD207
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Drive Groups = 1
 
TOPOLOGY :
========
 
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace TR
-----------------------------------------------------------------------------
 0 -   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 0 0   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 0 0   0   252:1    18  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
 0 0   1   252:0    48  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
-----------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 1
 
VD LIST :
=======
 
---------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC       Size Name
---------------------------------------------------------------
0/0   RAID1 Optl  RW     Yes     RWBD  -   ON  744.125 GB
---------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 6
 
PD LIST :
=======
 
---------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model               Sp Type
---------------------------------------------------------------------------------
252:0    48 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:1    18 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:2    19 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BA800G4 U  -
252:3    20 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BA800G4 U  -
252:4    49 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:5    47 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
---------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Cachevault_Info :
===============
 
------------------------------------
Model  State   Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 28C  -    2016/11/04
------------------------------------

#查询slot0的物理硬盘的信息。

[root@localhost ~]# ./storcli64 /c0/e252/s0 show all
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
 
 
Drive /c0/e252/s0 :
=================
 
---------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model               Sp Type
---------------------------------------------------------------------------------
252:0    48 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
---------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Drive /c0/e252/s0 - Detailed Information :
========================================
 
Drive /c0/e252/s0 State :
=======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature =  20C (68.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
 
 
Drive /c0/e252/s0 Device attributes :
===================================
SN = PHWL517601YR800RGN
Manufacturer Id = ATA
Model Number = INTEL SSDSC2BB800G4
NAND Vendor = NA
WWN = 55cd2e404c533246
Firmware Revision = D2010370
Raw size = 745.211 GB [0x5d26ceb0 Sectors]
Coerced size = 744.125 GB [0x5d040800 Sectors]
Non Coerced size = 744.711 GB [0x5d16ceb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 6.0Gb/s
NCQ setting = Enabled
Write cache = N/A
Logical Sector Size = 512B
Physical Sector Size = 4 KB
Connector Name = Port A x1
 
 
Drive /c0/e252/s0 Policies/Settings :
===================================
Drive position = DriveGroup:0, Span:0, Row:1
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = No
Wide Port Capable = No
 
Port Information :
================
 
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
   0 Active 6.0Gb/s   0x4433221100000000
-----------------------------------------
 
 
Inquiry Data =
40 00 ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 48 50 4c 57 31 35 36 37 31 30 52 59
30 38 52 30 4e 47 20 20 00 00 00 00 00 00 32 44
31 30 33 30 30 37 4e 49 45 54 20 4c 53 53 53 44
32 43 42 42 30 38 47 30 20 34 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 01 80
00 40 00 2f 00 40 00 00 00 00 07 00 ff 3f 10 00
3f 00 10 fc fb 00 01 bf ff ff ff 0f 00 00 07 00

# 查询VD 0的信息。

[root@rhel6u5 ~]# /opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
 
 
/c0/v0 :
======
 
---------------------------------------------------------
DG/VD TYPE  State Access Consist Cache sCC     Size Name
---------------------------------------------------------
1/0   RAID1 Optl  RW     Yes     RWTD  -   1.089 TB
---------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|B=Blocked|Consist=Consistent|
R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
 
PDs for VD 0 :
============
 
-----------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model            Sp
-----------------------------------------------------------------------
25:22    14 Onln   1 1.089 TB SAS  HDD N   N  512B ST1200MM0007     U
25:23    26 Onln   1 1.089 TB SAS  HDD N   N  512B ST1200MM0007     U
-----------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded
 
 
VD0 Properties :
==============
Strip Size = 256 KB
Number of Blocks = 2341795840
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 2
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = Disabled
Active Operations = None
Exposed to OS = Yes
Creation Date = 04-01-2018
Creation Time = 12:38:35 PM
Emulation type = None

15.7.2.4 查询超级电容的相关信息

命令功能

查询超级电容的名称及TFM Flash卡缓存容量的大小等信息。

命令格式

storcli64 /ccontroller_id/cv show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以为all,表示所有控制卡。

 

查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用实例

#查询超级电容的相关信息。

[root@localhost ~]# ./storcli64 /c0/cv show all
Controller = 0
Status = Success
Description = None
 
 
Cachevault_Info :
===============
 
--------------------
Property    Value
--------------------
Type        CVPM02
Temperature 28 C
State       Optimal
--------------------
 
 
Firmware_Status :
===============
 
---------------------------------------
Property                         Value
---------------------------------------
Replacement required             No
No space to cache offload        No
Module microcode update required No
---------------------------------------
 
 
GasGaugeStatus :
==============
 
------------------------------
Property                Value
------------------------------
Pack Energy             294 J
Capacitance             108 %
Remaining Reserve Space 0
------------------------------
 
 
Design_Info :
===========
 
------------------------------------
Property                 Value
------------------------------------
Date of Manufacture      04/11/2016
Serial Number            22417
Manufacture Name         LSI
Design Capacity          288 J
Device Name              CVPM02
tmmFru                   N/A
CacheVault Flash Size    8.0 GB
tmmBatversionNo          0x05
tmmSerialNo              0xee7d
tmm Date of Manufacture  09/12/2016
tmmPcbAssmNo             022544412A
tmmPCBversionNo          0x03
tmmBatPackAssmNo         49571-13A
scapBatversionNo         0x00
scapSerialNo             0x5791
scap Date of Manufacture 04/11/2016
scapPcbAssmNo            1700134483
scapPCBversionNo          A
scapBatPackAssmNo        49571-13A
Module Version           6635-02A
------------------------------------
 
 
Properties :
==========
 
--------------------------------------------------------------
Property             Value
--------------------------------------------------------------
Auto Learn Period    27d (2412000 seconds)
Next Learn time      2018/08/03  17:48:38 (586633718 seconds)
Learn Delay Interval 0 hour(s)
Auto-Learn Mode      Transparent
--------------------------------------------------------------

l     上述回显信息中,“Device Name  CVPM02”表示超级电容的名称为 CVPM02”,“CacheVault Flash Size   8.0GB”表示TFM Flash卡缓存容量为“8.0GB”。

l     当回显信息的“State”显示为“FAILED”时,需要更换超级电容。

15.7.2.5 查询和设置Patrolread参数

命令功能

查询和设置系统巡检的相关参数。

命令格式

storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number

storcli64 /ccontroller_id set patrolread delay=delaytime

storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}

storcli64 /ccontroller_id show patrolread

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

系统巡检起始时间

例如:2016/07/15 23

说明

起始时间单位为

number

可同时巡检的硬盘数量

delaytime

系统巡检周期

单位为hour

 

查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。

domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

---------------------------------------

Ctrl_Prop          Value

---------------------------------------

PR Starttime       2016/07/15 23:00:00

PR MaxConcurrentPd 2

---------------------------------------

# 使能patrolread并设置为自动模式。

domino:~# ./storcli64 /c0 set patrolread=on mode=auto
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
--------------------------------------- 
Ctrl_Prop        Value 
--------------------------------------- 
Patrol Read Mode auto 
---------------------------------------

# 查询patrolread信息。

domino:~# ./storcli64 /c0 show patrolread

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

--------------------------------------------

Ctrl_Prop          Value

--------------------------------------------

PR Mode       2016/07/15 23:00:00

PR Execution Delay

PR iterations completed 0

PR Next Start time      07/16/2016,00:00:00

PR on SSD               Disabled

PR Current State        Stopped

--------------------------------------------

15.7.2.6 查询和设置Spinup参数

命令功能

查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。

命令格式

storcli64 /ccontroller_id show spinupdelay

storcli64 /ccontroller_id show spinupdrivecount

storcli64 /ccontroller_id set spinupdelay=time

storcli64 /ccontroller_id set spinupdrivecount=count

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

每组起转硬盘间的时间间隔

默认为2,单位为s

count

上电时允许同时起转的硬盘数量

默认为4

 

查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡Spinup参数。

domino:~# ./storcli64 /c0 show spinupdelay
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
domino:~# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 4
--------------------------

# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。

domino:~# ./storcli64 /c0 set spinupdelay=20
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 20 second(s)
--------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 5
--------------------------

15.7.2.7 查询和设置硬盘数据擦除功能

命令功能

设置物理硬盘数据擦除模式,查询擦除进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

硬盘槽位号

mode

数据擦除模式

l     simple:对硬盘进行一轮擦除动作。

l     normal:对硬盘进行三轮擦除动作。

l     thorough:对硬盘进行九轮擦除动作。

 

以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# slot 3硬盘进行simple数据擦除,并查询擦除进度。

domino:~# ./storcli64 /c0/e252/s3 start erase simple
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.

15.7.2.8 查询和设置RAID后台初始化

命令功能

暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。

命令格式

storcli64 /ccontroller_id/vraid_id action bgi

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

action

后台初始化的操作

l     show:查看后台初始化进度

l     pause:暂停后台初始化

l     resume:继续后台初始化

l     stop:停止后台初始化

 

以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查看后台初始化进度。

domino:~# ./storcli64 /c0/v0 show bgi
Controller = 0
Status = Success
Description = Noe
VD Operation Status :
===================
------------------------------------------------------
VD Operation Progress% Staus Estimated Time Left
------------------------------------------------------
0 BGI 3 In progress 53 Minutes
------------------------------------------------------

15.7.2.9 查询和设置CacheFlush参数

命令功能

查询和设置Cache的刷新周期。

命令格式

storcli64 /ccontroller_id show cacheflushint

storcli64 /ccontroller_id set cacheflushint time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

Cache的刷新周期

单位为s

 

查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置Cache的刷新周期为“10”。

domino:~# ./storcli64 /c0 set cacheflushint=10
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10 sec
---------------------------

# 查询Cache的刷新周期。

domino:~# ./storcli64 /c0 show cacheflushint
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10
---------------------------

15.7.2.10 查询和设置物理硬盘初始化功能

命令功能

设置物理硬盘初始化功能,查询初始化进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看初始化进度

l     start:开始初始化

l     stop:结束初始化

 

以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 初始化slot3硬盘,并查询初始化进度。

domino:~# ./storcli64 /c0/e252/s3 start initialization
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show initialization
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------

15.7.2.11 查询和设置RAID重构

命令功能

开始、暂停、继续、停止RAID重构,并查询进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

action

要执行的操作

l     start:开始重构

l     show:查看重构进度

l     pause:暂停重构

l     resume:继续重构

l     stop:停止重构

 

查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 手动开始重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

# 查看硬盘当前重构状态。

[root@localhost ~]# ./storcli64 /c0/e70/s7 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e70/s7         5 In progress 26 Minutes
-----------------------------------------------------

# 暂停硬盘重构进程。

[root@localhost ~]# ./storcli64 /c0/e70/s7 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Succeeded.

# 继续重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 resume rebuild
Controller = 0
Status = Success
Description = Resume Drive Rebuild Succeeded.

# 停止重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 stop rebuild
Controller = 0
Status = Success
Description = Stop Drive Rebuild Succeeded.

15.7.2.12 查询和设置回拷

命令功能

开始、暂停、继续、停止回拷,并查询进度。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id start copyback target=target_enclosure_id:target_slot_id

开始回拷。

storcli64 /ccontroller_id/eenclosure_id/sslot_id action copyback

暂停、继续、查看、停止回拷。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

target_enclosure_id

执行回拷的目标硬盘所在EnclosureID

-

target_slot_id

执行回拷的目标物理硬盘槽位编号。

-

action

要执行的操作

l     show:查看回拷进度

l     pause:暂停回拷

l     resume:继续回拷

l     stop:停止回拷

 

查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 手动开始回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s7 start copyback target=70:3
Controller = 0
Status = Success
Description = Start Drive Copyback Succeeded.

# 查看硬盘当前回拷状态。

[root@localhost ~]# ./storcli64 /c0/e70/s3 show copyback
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e70/s3        17 In progress 16 Minutes
-----------------------------------------------------

# 暂停硬盘回拷进程。

[root@localhost ~]# ./storcli64 /c0/e70/s3 pause copyback
Controller = 0
Status = Success
Description = Pause Drive Copyback Succeeded.

# 继续回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s3 resume copyback
Controller = 0
Status = Success
Description = Resume Drive Copyback Succeeded.

# 停止回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s3 stop copyback
Controller = 0
Status = Success
Description = Stop Drive Copyback Succeeded.

15.7.2.13 查询和设置Smart扫描周期

命令功能

设置Smart扫描周期。

命令格式

storcli64 /ccontroller_id set smartpollinterval=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

value

Smart扫描周期

单位为s

 

查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置Smart扫描周期为“60s”。

domino:~# ./storcli64 /c0 set smartpollinterval=60
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------

15.7.2.14 查询和设置一致性校验参数

命令功能

设置一致性校验参数。

命令格式

storcli64 /ccontroller_id[/vvd_id]show cc

storcli64 /ccontroller_id/vvd_id start cc force

storcli64 /ccontroller_id/vvd_id action cc

storcli64 /ccontroller_id set cc=conc delay=value starttime=time excludevd=evd_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要操作的RAIDID

action

要执行的操作

l     pause:暂停

l     resume:继续执行

l     stop:停止

value

一致性校验周期

time

一致性校验起始时间

例如:2016/07/14 22

说明

起始时间单位为

evd_id

不进行一致性校验的虚拟磁盘ID

 

以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

show命令中不带/vvd_id时,表示查询自动CC参数。

show命令中带/vvd_id时,表示查询CC进度。

使用实例

# 设置一致性自动检查参数。

domino:~# ./storcli64 /c0 set cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------
Ctrl_Prop Value
------------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2016/07/14 22:00:00
CC ExcludeVD(0) Success
------------------------------------

# 查询CC进度。

domino:~# ./storcli64 /c0/v1 show cc
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimited Time Left
-----------------------------------------------------------
0 CC - Not in progress -
-----------------------------------------------------------

15.7.2.15 设置热备盘

命令功能

设置全局热备盘和局部热备盘。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive

设置全局热备盘。

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=<N|0,1,2..>]

设置局部热备盘。

storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive

删除热备盘。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

dgs

硬盘组的ID

l     不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘

l     0,1,2..:硬盘组ID

 

以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置slot 3硬盘为全局热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.

# 设置slot 3硬盘为vd0的局部热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive dgs=0
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.

15.7.2.16 设置启动项

命令功能

设置虚拟磁盘或物理硬盘为启动项。

命令格式

storcli64 /ccontroller_id/vvd_id set bootdrive=on

storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

vd_id

待设置的虚拟磁盘的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

 

以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置VD0为启动项。

domino:~# ./storcli64 /c0/v0 set bootdrive=on
Controller = 0
Status = Success
Description = Noe
Detailed Status :
===============
----------------------------------------
VD Property Value Staus ErrCd ErrMsg
----------------------------------------
0 Boot Drive On Success 0 -
----------------------------------------

# 设置slot 7硬盘为启动项。

domino:~# ./storcli64 /c0/e252/s7 set bootdrive=on
Controller = 0 
Status = Success
Description = Noe
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
BootDrive PD:252_7
-------------------

15.7.2.17 设置硬盘状态

命令功能

设置硬盘状态。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

state

要设置的硬盘状态

l     online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。

l     offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。

l     jbod:通过该参数可以将硬盘设置为直通硬盘。

l     good

     ubad状态的硬盘,使用该参数可将硬盘设为ugoodforeign)状态,此时可选择导入或清除外来配置;

     JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。

l     good:将硬盘设为空闲盘

force

强制设置硬盘状态,为可选参数。

如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force

-

 

以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。

domino:~# ./storcli64 /c0/e0/s1 set good
Controller = 0
Status = Success
Description = Set Drive Good Succeeded.

15.7.2.18 设置RAID组访问策略

命令功能

设置RAID的读写策略。

命令格式

storcli64 /ccontroller_id/vraid_id set accesspolicy=mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

mode

RAID读写策略

l     rw:可读可写

l     blocked:禁止访问

l     ro:只读访问

 

以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置RAID读写策略为“rw”。

domino:~# ./storcli64 /c0/v0 set accesspolicy=rw
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 AccPolicy RW Success 0 -
---------------------------------------

15.7.2.19 设置硬盘Cache状态

命令功能

设置RAID组成员盘的Cache状态。

命令格式

storcli64 /ccontroller_id/vvd_id set pdcache=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

RAID组的ID

-

action

要执行的操作

l     on:打开硬盘Cache

l     off:关闭硬盘Cache

l     default:将硬盘Cache设置为默认状态

 

以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 打开ID0RAID组的硬盘Cache

./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
---------------------------------------
VD Property Value Status  ErrCd ErrMsg
---------------------------------------
 0 PdCac    On    Success     0 -
---------------------------------------

15.7.2.20 设置RAID组的Cache读写策略

命令功能

设置RAID组的Cache读写策略。

命令格式

命令

说明

storcli64 /ccontroller_id/vraid_id set wrcache=wrmode

设置Cache写策略

storcli64 /ccontroller_id/vraid_id set rdcache=rdmode

设置Cache读策略

 

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAID组的ID

可以为all,表示所有RAID

wrmode

设置Cache写策略

l     wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”策略。

rdmode

设置Cache读策略

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     noraRAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

 

以上涉及的各个ID的方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置Cache读写模式为“wt”。

domino:~# ./storcli64 /c0/v0 set wrcache=wt
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 wrCache WT Success 0 -
---------------------------------------

15.7.2.21 设置紧急热备功能

命令功能

设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。

命令格式

storcli64 /ccontroller_id set eghs eug=state

storcli64 /ccontroller_id set eghs smarter=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

state

紧急热备功能的启用状态

l     on:启用

l     off:禁用

 

查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。

domino:~# ./storcli64 /c0 set eghs eug=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------
Ctrl_Prop Value
------------------
EmergencyUG ON
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
EmergencySmarter ON
-----------------------

15.7.2.22 设置RAID前台初始化模式

命令功能

设置RAID前台初始化模式。

命令格式

storcli64 /ccontroller_id/vraid_id start mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

mode

前台初始化模式

l     init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。

l     init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。

 

以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 快速初始化RAID

domino:~# ./storcli64 /c0/v0 start init
Controller = 0
Status = Success
Description = Start INIT Operation Success

15.7.2.23 设置硬盘直通功能

命令功能

设置RAID控制卡的硬盘直通功能的使能情况,并指定直通硬盘。

命令格式

storcli64 /ccontroller_id set jbod=state

storcli64 /ccontroller_id/eenclosure_id/sslot_id set JBOD

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

state

RAID控制卡JBOD功能的使能情况

l     on

l     off

 

以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 使能RAID控制卡的硬盘直通功能,并设置slot 7硬盘为直通盘。

domino:~# ./storcli64 /c0 set jbod=on
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
---------------- 
Ctrl_Prop Value 
---------------- 
JBOD      ON 
----------------
domino:~# ./storcli64 /c0/e252/s7 set JBOD
Controller = 0 
Status = Success 
Description = Set Drive JBOD Succeeded.

15.7.2.24 设置硬盘定位指示灯状态

命令功能

点亮和熄灭指定硬盘的定位指示灯。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。

slot_id

物理硬盘槽位编号

可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。

action

要执行的操作

l     start:点亮硬盘的定位指示灯。

l     stop:熄灭硬盘的定位指示灯。

 

以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 点亮slot 7硬盘的定位指示灯。

domino:~# ./storcli64 /c0/e252/s7 start locate
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.

15.7.2.25 设置硬盘PowerSave功能

命令功能

设置空闲硬盘和热备盘的省电模式。

命令格式

storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

state

省电模式的启用状态。

l     on:启用

l     off:禁用

disktype

硬盘类型。

l     1:空闲硬盘

l     2:热备盘

time

等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。

单位为minutes

 

查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置空闲硬盘的省电模式。

domino:~# ./storcli64 /c0 set ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
SpnDwnUncDrv Enable
SpnDwnTm 30 minutes
--------------------------

15.7.2.26 设置后台资源占用率

命令功能

设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。

命令格式

storcli64 /ccontroller_id set action=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要设置的项目

l     bgirate:后台初始化速率

l     ccrate:一致性校验速率

l     prrate:硬盘巡检速率

l     rebuildrateRAID重构速率

l     reconrateRAID扩容和迁移速率

value

后台任务资源占用率

1100

 

查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置硬盘巡检速率为“30%”。

domino:~# ./storcli64 /c0 set prrate=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
Patrol Read Rate 30%
-----------------------

15.7.2.27 设置BIOS Stop on Error功能

命令功能

设置控制卡BIOS在检测到异常时停止继续启动的功能。

命令格式

storcli64 /ccontroller_id set bios mode=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要执行的操作

l     soe:控制卡BIOS在检测到异常时停止启动

l     ie:忽略检测到的异常

 

查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 开启Stop on error功能。

domino:~# ./storcli64 /c0 set bios mode=soe
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------

15.7.2.28 通过增加成员盘可用容量扩容RAID

命令功能

RAID2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

命令格式

storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要扩容的RAIDID

capacity

扩容后的容量

expandarray

当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。

 

以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查询VD的可扩展容量。

[root@localhost ~]# storcli64 /c0/v1 show expansion 
CLI Version = 007.1416.0000.0000 July 24, 2020 
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64 
Controller = 0 
Status = Success 
Description = None 
 
 
EXPANSION INFORMATION : 
===================== 
 
-------------------------------------------- 
VD      Size OCE NoArrExp WithArrExp Status 
-------------------------------------------- 
 1 10.000 GB Y   3.627 TB 5.447 TB   - 
-------------------------------------------- 
 
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion 
 VD=Virtual Drive | NoArrExp - Without Array Expansion

如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。

# VD0的容量扩大“200GB”。

domino:~# ./storcli64 /c0/v0 expand size=200GB
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
0 100.0 GB 457.861 GB 200.0 GB 201.458 GB 44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %

RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。

15.7.2.29 通过增加新盘扩容或迁移RAID

命令功能

RAID2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

当增加新盘后,可进行RAID级别迁移。

命令格式

storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

vd_id

要操作的RAIDID

slot_id

要加入RAID的新硬盘的槽位号

level

增加硬盘后RAID的级别

l     与原RAID级别相同时,该命令为扩大RAID容量。

l     与原RAID级别不同时,该命令为RAID级别迁移。

 

以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# RAID 0中增加slot 2硬盘扩容。

domino:~# ./storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 13 Minutes
-------------------------------------------------------

# 单盘RAID 0加盘迁移至RAID 1

domino:~# ./storcli64 /c0/v0 start migrate type=r1 option=add drives=252:3
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 14 Minutes
-------------------------------------------------------

15.7.2.30 查询和清除PreservedCache数据

命令功能

查询和清除PreservedCache数据。

命令格式

storcli64 /ccontroller_id show preservedcache

storcli64 /ccontroller_id/vvd_id delete preservedcache force

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要操作的RAIDID

 

以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查询PreservedCache

domino:~# ./storcli64 /c0 show preservedcache
Controller = 0
Status = Success
Description = No Virtual Drive has Preserved Cache Data.

15.7.2.31 升级硬盘FW

命令功能

升级硬盘的FW

命令格式

./storcli64 /ccontroller_id /eenclosure_id/sslot_id download src=FW_name.bin

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

FW_name

硬盘FW的名称

 

以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用实例

#升级硬盘FW

[root@localhost ~]# ./storcli64 /c0/e64/s5 download src=5200_D1MU004_Releasefullconcatenatedbinary.bin
Starting microcode update  .....please wait...
Flashing PD image  ..... please wait...
Controller = 0 
Status = Success 
Description = Firmware Download succeeded. 
 
Drive Firmware Download : 
======================== 
-------------------------------------------------------------------------------- 
Drive     Status  ErrCd    ErrMsg 
-------------------------------------------------------------------------------- 
/c0/e64/s5 Success   0        -
--------------------------------------------------------------------------------

15.7.2.32 手动重构RAID

命令功能

手动重构RAID组。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row

storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

要加入Array的物理硬盘槽位编号

DG

硬盘发生故障的DGID

Arr

硬盘发生故障的ArrayID

Row

硬盘发生故障的Arrayrow number

 

以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

重构RAID3个步骤进行:

1.通过./storcli64 /c0 show 命令,查询故障硬盘的DGArrRow所对应的数字。

2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。

3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID

使用实例

# 将硬盘加入RAID组。

[root@localhost ~]# storcli64 /c0/e252/s1 insert dg=0 array=0 row=0
Controller = 0
Status = Success
Description = Insert Drive Succeeded.

# 手动重构RAID

[root@localhost ~]# storcli64 /c0/e252/s1 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

15.7.2.33 收集和清除RAID控制卡日志

命令功能

收集和清除RAID控制卡的日志。

命令格式

命令

说明

storcli64 /ccontroller_id show termlog [type=logtype] [logfile[=filename]]

收集RAID控制卡的日志。

storcli64 /ccontroller_id delete termlog

删除RAID控制卡的日志。

storcli64 /ccontroller_id show alilog [logfile[=filename]]

收集控制卡属性信息、TTY日志和事件到指定文件。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

logtype

查询日志类型。

l     config:查询TTY BBU缓存设置。

l     content:查询日志信息。

缺省值:content

filename

文件名称,将保存日志到此文件。

可自定义文件名称,缺省时将默认保存至“StorSAS.log”文件中。

 

查询RAID控制卡ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 收集RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19  6:48:11: C0:TTY History buffer cleared
 
Controller = 0
Status = Success
Description = None

# 删除RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 delete termlog
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------------------
Ctrl Method Result
----------------------------
   0 Delete Termlog deleted
----------------------------

15.7.2.34 查看/导入/清除外部配置

命令功能

指导用户查看、导入或者清除RAID控制卡的外部配置。

命令格式

storcli64 /ccontroller_id/fall import preview

storcli64 /ccontroller_id/fall import

storcli64 /ccontroller_id/fall delete

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

 

使用指南

使用实例

# 查看RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall import preview
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
 
 
FOREIGN PREVIEW :
===============
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Total foreign drive groups = 0

# 删除RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall delete
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration

15.7.2.35 Snapdump相关操作

命令功能

介绍Snapdump相关操作。

命令格式

命令格式

说明

storcli64 /ccontroller_id  show snapdump

查询snapdump功能是否打开,是否有自动生成的snapdump文件。

storcli64 /ccontroller_id  get snapdump id=all

获取历史生成的snapdump文件。

storcli64 /ccontroller_id  get snapdump

获取历史生成的snapdump文件和当前再生成一个snapdump文件。

storcli64 /ccontroller_id  set snapdump state=on|off

打开和关闭snapdump功能。

storcli64 /ccontroller_id  delete snapdump force

删除历史snapdump日志功能。

 

参数说明

参数

参数说明

取值

controller_id

控制卡ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

state=on|off

Snapdump状态

on为开启,off为关闭

 

使用指南

l     Snapdump文件是一个日志文件,在一些RAID控制卡异常场景下可以自动生成的日志,也可以主动获取当前RAID控制卡的snapdump日志。

l     使用前可以先查询snapdump功能是否打开,是否有自动生成的snapdump文件,再去收集snapdump

l     获取历史生成的snapdump文件和当前再生成一个snapdump文件会影响业务,建议离线使用。

l     打开和关闭snapdump功能,如果无法打开注意看提示,请确认当前RAID控制卡固件版本是否支持。

l     收集snapdump文件在当前命令执行目录下,文件格式为snapdump_**************.zip

使用实例

#查询snapdump功能是否打开,是否有自动生成的snapdump文件。

[root@localhost ~]# storcli64 /c0 show snapdump
Controller = 0
Status = Success
Description = None
 
SnapDump Properties :
===================
 
----------------------------------
Ctrl_Prop              Value
----------------------------------
Snapdump               ON
Snapdump Save Count    N/A
Snapdump Delay OCR     15
Snapdump properties    Read-Write
Snapdump Current Count 2
----------------------------------
 
SnapDump Details :
================
 
----------------------------------------------
ID Snapdump Size Snapdump time       OnDemand
----------------------------------------------
0       2649396 08-06-2021 07:23:43 Yes
1       2070406 08-07-2021 06:59:24 Yes
----------------------------------------------

#获取历史生成的snapdump文件。

[root@localhost ~]# storcli64 /c0 get snapdump id=all
Controller = 0
Status = Success
Description = None

#获取历史生成的snapdump文件和当前再生成一个snapdump文件。

[root@localhost ~]# storcli64 /c0 get snapdump
Controller = 0
Status = Success
Description = Download Support Log

#打开和关闭snapdump功能。

打开:

[root@localhost ~]# storcli64 /c0 set snapdump state=on
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-------------------
Ctrl_Prop    Value
-------------------
Set Snapdump on
-------------------

关闭:

[root@localhost ~]# storcli64 /c0 set snapdump state=off
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-------------------
Ctrl_Prop    Value
-------------------
Set Snapdump off
-------------------

#删除历史snapdump日志功能。

[root@localhost ~]# storcli64 /c0 delete snapdump force
Controller = 0
Status = Success
Description = Snapdump delete

15.7.2.36 升级控制卡FW

命令功能

升级控制卡FW

命令格式

命令格式

说明

storcli64 /cController_ID download file=xxx.rom [noverchk]

升级控制卡FW

 

参数说明

参数

参数说明

取值

controller_id

控制卡ID

-

xxx.rom

固件包的名称

-

 

使用指南

l     使用noverchk参数时将不检查固件包,降级版本时必须使用此参数。

l     升级完成后,需重新上下电服务器使固件包生效。

使用实例

#升级控制卡FW

[root@localhost fw]# ./storcli64_arm /c0 download file =FW4.rom noverchk
Download Completed.
Flashing image to adapter...
Controller = 0
Status = Success
Description = F/W Flash Completed.Please reboot the system for the changes to take effect.


16 Avago MegaRAID SAS 9440-8i

关于本章

主要介绍Avago MegaRAID SAS 9440-8i RAID控制卡的外观、特性、以及配置方法。

本章节涉及的截图以5.160.01-3415 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

15.1  概述

15.2  功能

15.3  初始配置

15.4  常用配置

15.5  故障处理

15.6  管理界面介绍

15.7  OS命令行工具

16.1 概述

Avago MegaRAID SAS 9440-8i RAID 控制卡(以下简称9440-8i)是基于MegaRAID架构的8端口12Gbit/s SAS控制卡,并采用PCIex8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

9440-8i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

9440-8i不支持虚拟化场景,在安装操作系统前,需要在BIOS中将“Advanced > MISC Config”界面中的参数“Support Smmu”设置为“Disabled”。

9440-8i不支持flush write verify功能。

9440-8i支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考16.2.13 硬盘直通

9440-8i的结构如16-116-2所示。

图16-1 9440-8i1

 

图16-2 9440-8i2

 

1

芯片过温指示灯

2

心跳灯

3

散热器

4

miniSAS接口(port 0SFF-8643

5

miniSAS接口(port 1SFF-8643

-

-

 

9440-8i单板指示灯说明如16-1所示。

表16-1 RAID控制卡单板指示灯说明

指示灯

颜色

说明

芯片过温指示灯

黄色

l     常亮:设备温度传感器超过阈值。

l     灭:设备温度在正常温度范围内。

心跳灯

绿色

l     闪烁:芯片运行正常,闪烁频率为1Hz

l     灭:RAID控制卡未开始运行或FW运行异常。

 

16.2 功能

16.2.1 支持多种RAID类型

9440-8i支持硬盘以直通方式和加入RAID组两种方式混合使用,其中:

l     硬盘直通模式支持的最大硬盘数量为63

l     直通模式的硬盘和加入RAID组中的硬盘数量最多为63

l     所有RAID组包含的最大硬盘数量为32

该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

l     每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

l     最多支持32个虚拟磁盘(即配置界面中看到的“Virtual Drive”),每个虚拟磁盘最多包含32个硬盘。

9440-8i支持的RAID类型及对应的硬盘个数如16-2所示。

表16-2 RAID-硬盘参数

RAID级别

支持硬盘数

支持子组数

子组支持硬盘数

允许坏盘数

RAID 0

132

不涉及

不涉及

0

RAID 1

2~32(偶数)

硬盘数÷2

RAID 10

432(偶数)

28RAID 1

2~16(偶数)

子组数

 

l     不支持RAID 00RAID 5RAID 50级别。

l     子组数:子RAID的个数。

l     RAID 10每个子组中最多允许1个坏盘。

l     RAID 10包含的总硬盘数由子组数和子组支持的硬盘数共同决定。

16.2.2 硬盘热备份

9440-8i的热备功能分为两种:热备盘和紧急备份。

热备盘

对服务器的硬盘进行RAID分组后,一般会配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     Global HSP:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

配置方法请参见16.4.1.1 配置全局热备盘

l     Dedicated HSP:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

配置方法请参见16.4.1.2 配置局部热备盘

热备盘容量需大于等于成员盘容量。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

紧急备份

使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代failprefail状态的成员盘并进行重构,避免数据丢失。

l     紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。

l     在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。

l     紧急备份的硬盘生效次序:相同类型硬盘 > 相同接口不同介质类型硬盘 > 不同接口相同介质类型硬盘 > 不同接口不同介质类型硬盘。

紧急备份有两种情况,对应了两种设置:

l     当成员盘fail时,空闲盘替代成员盘作为紧急备份。

l     当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。

配置方法请参见16.4.2 设置紧急热备功能

16.2.3 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考16.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

16.2.4 回拷

具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。

l     不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:

l     RAID组状态保持“Optimal”不变。

l     热备盘状态由“Online”变为“Hot Spare”。

l     新加入硬盘状态由“Copyback/Copybacking”变为“Online”。

l     可使用命令行工具暂停或继续回拷。

l     若回拷时重启服务器,进度将保存。

l     局部热备以及全局热备,更换故障盘后,均会产生回拷。

16.2.5 硬盘分条

条带化

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数和数据传输率有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待,这时就是所谓的硬盘冲突。

条带化技术是一种自动将I/O负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

影响条带化效果的因素有:

l     条带宽度:指同时可以并发读或写的条带数量。

这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。

在其他条件一样的前提下,一个由818G硬盘组成的阵列相比一个由436G硬盘组成的阵列具有更高的传输性能。

l     条带大小:指写在每块硬盘上的条带数据块的大小。

分条

硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。

9440-8i不支持设置条带大小,默认为64KB

16.2.6 初始化

VD初始化

创建虚拟磁盘后,需要将其初始化,使其可以被操作系统使用,且使具有冗余功能的虚拟磁盘中各成员盘的数据关系满足相应的RAID级别要求。

控制卡提供了多种相应的初始化方式:

l     前台初始化:

     快速初始化:Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。

     完全初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。

l     后台初始化:对于RAID 1/RAID 10,如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。

l     一致性校验和后台初始化通常会对性能造成一定损失,直至该操作完成。

l     一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。

硬盘初始化

硬盘可执行的初始化包括:

l     Initialize Drive:对前100MByte空间进行全写0操作。

l     Drive Erase:对全部空间进行写0操作。

不支持停止SATA SSD的擦除和初始化过程。

16.2.7 RAID级别迁移

RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见16.4.5 迁移RAID级别

当前支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1

l     RAID 1迁移到RAID 0

RAID迁移对硬盘数量的要求如16-3所示。

表16-3 RAID迁移的硬盘数量说明

迁移RAID级别

原始硬盘组硬盘数量

迁移后的硬盘组硬盘数量

RAID 0迁移 RAID 1

132

2~32(偶数)

RAID 1迁移到RAID 0

2~32(偶数)

2~32

 

16.2.8 可用容量扩展

控制卡支持的容量扩展方式有两种:

l     通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。

详细操作方法可参考16.4.3 添加新硬盘到RAID

l     通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。

详细操作方法可参考16.4.4 扩展Virtual Drive可用空间

l     只有RAID 0RAID1支持增加硬盘扩容。

l     RAID 10不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。

l     当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见 16.7.2.17 通过增加成员盘可用容量扩容RAID

16.2.9 安全数据擦除

安全擦除即将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘安全擦除功能:

l     Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。

l     Normal:对虚拟磁盘或硬盘进行三轮擦除动作。

l     Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。

安全数据擦除过程中,主机无法访问该虚拟磁盘。

控制卡支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。

16.2.10 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     动态扩盘

l     完全初始化或后台初始化

l     一致性校验

16.2.11 自动SMART扫描

S.M.A.R.TSelfMonitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T 监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据丢失。

RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描。扫描周期可通过S.M.A.R.T Polling设置,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。

16.2.12 硬盘节能

RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SASSATA机械硬盘均支持此功能。

默认情况下,硬盘节能功能处于开启状态。

当硬盘节能功能开启时,RAID控制卡下挂载的“Unconfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)需要唤醒正处于节能状态的硬盘,该操作会有一定程度的延迟。

16.2.13 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

控制卡可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。

控制卡支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

如果需要使能硬盘直通功能,请参见16.4.10 设置JBOD模式

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

16.2.14 硬盘漫游

硬盘漫游是指在同一控制卡下移动物理硬盘。控制卡将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。

要使用硬盘漫游,按以下步骤操作:

1.     关闭操作系统。

2.     将服务器下电。

3.     将物理硬盘移动到背板所需位置。

4.     执行安全检查。确保正确插入物理硬盘。

5.     将服务器上电。

6.     控制卡从物理硬盘上的配置数据中检测到RAID配置。

16.2.15 导入外部配置

如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。

此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。

16.2.16 硬盘故障记录

控制卡提供硬盘故障记录功能:

l     使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。

l     禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,控制卡会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。

维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。

l     使能该功能后,当硬盘故障时,会点亮Fault指示灯。

l     禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。

默认情况下,控制卡使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。

16.2.17 一致性校验

针对有冗余功能的RAID 1RAID10RAID控制卡可以对RAID组的硬盘数据进行一致性校验,对硬盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。

由于RAID 0不具备冗余性,因此不支持一致性校验。

建议每月至少进行一次一致性校验。

16.3 初始配置

文档中描述的关于9440-8i的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。

16.3.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如16-3所示界面时,按“Delete”。

图16-3 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如16-4所示界面。

图16-4 Setup Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如16-5所示。

图16-5 “Advanced”页签

 

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见16.5.3 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择要操作的9440-8i控制卡,按“Enter”。

进入如16-616-7所示主界面,界面参数如16-4所示。

图16-6 9440-8i主界面(1

 

图16-7 9440-8i主界面(2

 

表16-4 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

CacheVault

是否支持Cache

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

说明

仅当控制卡存在外部配置时,会显示该选项。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

Silence Alarm

板载蜂鸣器的使能状态。

说明

控制卡未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

16.3.2 创建RAID 0

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9440-8i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见16.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见16.3.1 登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如16-816-9所示,参数说明如16-5所示。

图16-8 “Create Virtual Drive”界面(1

 

图16-9 “Create Virtual Drive”界面(2

 

表16-5 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如16-10所示,界面参数如16-6所示。

图16-10 添加成员盘

 

表16-6 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     16-6所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 0支持的硬盘个数为1~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。

5.     选择“Apply Changes”并按“Enter”保存配置。

提示“The operation has been performed successfully.

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照16-5所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照16.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

弹出操作确认界面。

2.     选择“Confirm”并按“Enter”确认。

3.     选择“Yes”并按“Enter”。

提示“The operation has been performed successfully”。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

16.3.3 创建RAID 1

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9440-8i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见16.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见16.3.1 登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如16-1116-12所示,参数说明如16-7所示。

图16-11 “Create Virtual Drive”界面(1

 

图16-12 “Create Virtual Drive”界面(2

 

表16-7 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如16-13所示,界面参数如16-8所示。

图16-13 添加成员盘

 

表16-8 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     16-8所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 1支持的硬盘个数为2~32(偶数)。

l     RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。

5.     选择“Apply Changes”并按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照16-7所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照16.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

弹出操作确认界面。

2.     通过“Enter”键把“Confirm”状态切换成“Enabled”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

16.3.4 创建RAID 10

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9440-8i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见16.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见16.3.1 登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如16-1416-15所示,参数说明如16-9所示。

图16-14 Create Virtual Drive (1)

 

图16-15 “Create Virtual Drive” (2)

 

表16-9 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如16-16所示,界面参数如16-10所示。

图16-16 添加成员盘

 

表16-10 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     16-10所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 10支持28Span,每个Span支持的硬盘数为2~16(偶数),且各个Span的硬盘数量必须保持一致。

l     RAID 10支持的硬盘总数为4~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     创建第2Span

当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如16-17所示。

图16-17 RAID 10的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

3.     在打开的列表中选择第2Span的成员盘。

各个Span的硬盘数量必须保持一致。

4.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

5.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

RAID10至少需要创建2Span,最多可以创建8Span

                                步骤 6     配置虚拟磁盘属性。

按照16-9所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照16.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     选择“Save Configuration”并按“Enter”。

弹出操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”界面并按“Enter”。

显示当前存在的RAID信息。

----结束

16.3.5 配置启动项

同一台服务器配置了单个9440-8i卡或者多种芯片硬盘控制卡的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。

设置启动项的操作方法请参见BIOS 参数参考的“设置启动设备”章节。

16.4 常用配置

16.4.1 管理热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

16.4.1.1 配置全局热备盘

操作步骤

登录管理界面,具体操作方法请参见16.3.1 登录管理界面

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如16-18所示。

图16-18 Drive Management界面

 

                                步骤 2     配置全局热备盘。

1.     将“Operation”设置为“Assign Global Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

显示The operation has been performed successfully

3.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

16.4.1.2 配置局部热备盘

操作步骤

RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

登录管理界面,具体操作方法请参见16.3.1 登录管理界面

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如16-19所示。

图16-19 Drive Management

 

                                步骤 2     配置局部热备盘。

1.     将“Operation”设置为“Assign Dedicated Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

打开当前存在的RAID列表。

3.     选择要关联的RAID并按“Enter”。

4.     选择“OK”按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”,完成配置并返回上级界面。

----结束

16.4.1.3 删除热备盘

操作场景

当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

操作步骤

登录管理界面,具体操作方法请参见16.3.1 登录管理界面

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如16-20所示。

图16-20 Drive Management

 

                                步骤 2     删除热备盘。

1.     将“Operation”设置为“Unassign Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

16.4.2 设置紧急热备功能

操作步骤

登录管理界面,具体操作方法请参见16.3.1 登录管理界面

                                步骤 1     进入“Advanced Controller Properties”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

3.     选择“Advanced Controller Properties”并按“Enter”。

                                步骤 2     设置紧急热备。

1.     选择“Spare”并按“Enter”。

2.     将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如16-21所示。

图16-21 “Spare”界面

 

3.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

----结束

16.4.3 添加新硬盘到RAID

操作场景

 

l     只有RAID 0RAID 1支持增加硬盘扩容。

l     RAID 10不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。

l     执行添加新硬盘到RAID操作之前,建议先备份数据。

增加硬盘扩容过程中,如果出现硬盘故障,会导致:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID

请谨慎执行增加硬盘扩容操作。

操作步骤

登录管理界面。具体操作方法请参见16.3.1 登录管理界面

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”。

进入虚拟磁盘选项界面,如16-22所示。

图16-22 虚拟磁盘选项界面

 

                                步骤 2     添加新硬盘。

1.     选择要进行扩容的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如16-23所示。

图16-23 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter

4.     选择“Go”并按“Enter”。

5.     选择要扩容的RAID级别。

 

增加硬盘扩容时,请保证该处的RAID级别与原级别一致。

6.     选择“Choose the Operation”,并按“Enter”。

进入硬盘选择界面,如16-24所示。

图16-24 Choose the Operation

 

7.     选择要增加的硬盘,并按“Enter”。

l     硬盘状态为“【×】”时表示该硬盘已选择。

l     增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。

l     RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。

8.     选择“Apply Changes”并按“Enter”。

进入操作确认界面。

9.     选择“Confirm”并按“Enter”。

10.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

11.     选择“OK”并按“Enter”。

返回到如16-25所示界面。

图16-25 操作界面

 

12.     选择“Start Operation”并按“Enter”。

显示操作成功。

13.     选择“OK”并按“Enter”。

重新进入虚拟磁盘选项界面,验证扩容结果,如16-26所示,表示RAID正在进行扩容。

图16-26 Reconfigure Virtual Drives

 

扩容属于后台动作,在HII界面只能触发而不能正式开始扩容,所以扩容的进度条一直显示为0%。当进入OS后,扩容才会开始进行。

----结束

16.4.4 扩展Virtual Drive可用空间

操作场景

Virtual Drive未占用成员硬盘全部容量时,可通过调整Virtual Drive的可用空间,扩大Virtual Drive容量。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见16.3.1 登录管理界面

                                步骤 1     进入要操作的虚拟磁盘界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如16-27所示。

图16-27 Virtual Drive Management

 

                                步骤 2     扩容虚拟磁盘。

1.     将“Operation”设置为“Expand Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入虚拟磁盘扩容界面,如16-28界面所示,界面参数如16-11所示。

图16-28 Expand Virtual Drive

 

表16-11 参数说明

参数

参数说明

Current Capacity

虚拟磁盘当前容量。

Available Capacity

可用于扩展的容量。

Enter a Percentage of Available Capacity

输入扩容比例。

Capacity of Virtual Drive after Expansion

扩容后虚拟磁盘容量。

 

3.     设置扩容百分比。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

16.4.5 迁移RAID级别

操作场景

随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。

在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。

对系统的影响

RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID

请谨慎执行RAID级别迁移操作。

必备事项

前提条件

迁移RAID级别之前,需具备如下条件:

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     当前存在的硬盘个数满足目标RAID级别要求。

l     已登录管理界面,具体操作请参见16.3.1 登录管理界面

控制卡支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1

l     RAID 1迁移到RAID 0

RAID迁移对硬盘数量的要求如16-3所示。

l     RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     迁移只支持增加与RAID组成员盘同类型同规格的硬盘。

l     为防止数据丢失,请在该操作之前备份当前RAID组的数据。

l     只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。

l     迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。

操作步骤

进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”并按“Enter”。

进入虚拟磁盘选项界面,如16-29所示。

图16-29 虚拟磁盘选项界面

 

                                步骤 2     选择RAID迁移的目标级别。

下面以将RAID 0迁移到RAID 1为例进行说明。

1.     选择要进行迁移的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如16-30所示。

图16-30 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”。

4.     选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如16-31所示。不设置时默认与原RAID组配置一致。

图16-31 Advanced...

 

5.     选择“Go”,并按“Enter”。

进入RAID配置界面,如16-32所示。

图16-32 Reconfigure Virtual Drives

 

6.     选择“New RAID Level”并按“Enter”。

打开RAID迁移的目标级别选择窗口,如16-33所示。

图16-33 选择新的RAID级别

 

7.     选择“RAID 1”并按“Enter”。

                                步骤 3     添加硬盘。

1.     选择“Choose the operation”并按“Enter”。

打开硬盘选择窗口。

2.     选择要增加的硬盘并按“Enter”。

RAID迁移对硬盘数量的要求请参见16-3

3.     选择“Apply Changes”并按“Enter”。

弹出操作确认会话框。

4.     选择“Confirm”并按“Enter”。

5.     选择“Yes”并按“Enter”。

提示操作成功。

6.     按“Esc”返回16-32界面。

                                步骤 4     RAID级别迁移。

1.     选择“Start Operation”并按“Enter”。

提示操作成功。

2.     选择“OK”并按“Enter”。

                                步骤 5     查看迁移结果。

1.     进入Virtual Drive Management界面,检查迁移结果,如16-34所示,表示RAID正在进行迁移。

图16-34 查看迁移结果

 

l     迁移过程中若重启服务器,该任务将在重启后继续进行。

l     迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。

2.     选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 0”变成“RAID 1”,且“Status”状态显示为“Optimal”时,表示RAID迁移成功。

----结束

迁移属于后台动作,在HII界面只能触发而不能正式开始,所以迁移的进度条一直显示为0%。当进入OS后,迁移才会开始进行。

16.4.6 删除RAID

操作场景

 

RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见16.3.1 登录管理界面

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如16-35所示。

图16-35 Virtual Drive Management

 

                                步骤 2     删除虚拟磁盘。

1.     将“Operation”设置为“Delete Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

16.4.7 重构RAID

操作场景

介绍将带有外部配置的硬盘进行重构的操作方法,不带外部配置硬盘的重构方法请参见16.5.1.1 硬盘故障

操作步骤

在“Main Menu”界面中选择“Drive Management”并按“Enter”。

                                步骤 1     选中要进行重构的硬盘,按“Enter”。

                                步骤 2     将“Operation”设置为“Make Unconfigured Good”。

                                步骤 3     选择“Go”并按“Enter”。

提示The operation has been performed successfully

                                步骤 4     按“Enter”完成配置。

硬盘状态变为“(Foreign,Unconfigured Good”。

                                步骤 5     清除外部配置,具体操作请参见16.4.9 导入和清除外部配置

RAID组开始进行重构。

----结束

l     当出现硬盘离线情况时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     rebuild属于后台动作,在HII界面只能触发而不能正式开始rebuild,所以rebuild的进度条一直显示为0%。当进入OS后,rebuild才会开始进行。

16.4.8 查看RAID控制卡属性

操作场景

用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。

操作步骤

登录管理界面,具体操作方法请参见16.3.1 登录管理界面

                                步骤 1     进入“Controller Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息,如16-3616-37所示,参数说明如16-12所示。

图16-36 Controller Management1

 

图16-37 Controller Management2

 

表16-12 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Personality Mode

RAID控制卡的模式。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见16.3.5 配置启动项

PCI ID

RAID控制卡的PCI ID

PCI Segment:Bus:Device:Fuction

RAID控制卡的PCI设备索引。

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Supported Device Interfaces

支持的设备接口。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制卡操作。

Advanced Controller Properties

查看和修改控制卡的高级属性。

 

                                步骤 2     选择“Advanced Controller Properties”并按“Enter”。

进入控制卡高级属性界面,如16-38所示,参数说明如16-13所示。

图16-38 Advanced Controller Properties界面(1

 

图16-39 Advanced Controller Properties界面(2

 

表16-13 参数说明

参数

说明

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

Spare

设置控制卡热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

控制卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

表示硬盘容量压缩模式,包括:

l     None

l     128MB

l     1GB

默认为“1GB”。

说明

硬盘压缩模式可以对不同厂商的相同规格硬盘的容量差异进行取整处理,使不同厂商的硬盘强制为相同的容量,以便可以在同一个RAID组中使用。取整单位可以为None128MB1GB,其中None表示RAID控制卡对不同厂商的硬盘不做取整处理。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制卡BIOS的使能情况。

ROC Temperature

控制卡温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见16.4.9 导入和清除外部配置章节。

SMART Polling

SMART轮巡检测周期。默认值为“300”。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

JBOD Mode

硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。

Large IO Support

启用或禁用大型I/O支持功能。

Unmap Capability

解除映射能力。

Firmware Device Order

该功能开启后,设置为启动项的RAID组盘符为sda

说明

开启该功能前,请先确认控制卡驱动与固件配套。

Apply Changes

保存配置。

 

----结束

16.4.9 导入和清除外部配置

操作场景

l     服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。

 

l     如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!

l     为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

导入外部配置

登录管理界面,具体操作方法请参见16.3.1 登录管理界面

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如16-40所示。

图16-40 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

进入外部配置管理界面,如16-41所示。

图16-41 Preview Foreign Configuration

 

                                步骤 5     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully

                                步骤 8     选择“OK”并按“Enter”完成配置返回上级界面。

----结束

清空外部配置

登录管理界面,具体操作方法请参见16.3.1 登录管理界面

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如16-42所示。

图16-42 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

进入外部配置管理界面,如16-43所示。

图16-43 Preview Foreign Configuration

 

                                步骤 5     选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 8     选择“OK”并按“Enter”完成配置返回上级界面。

----结束

16.4.10 设置JBOD模式

控制卡支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

登录管理界面,具体操作方法请参见16.3.1 登录管理界面

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Properties界面。

                                步骤 2     选择“JBOD Mode”并按Enter

                                步骤 3     选择“Enabled”并按“Enter”。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

16.4.11 创建多个VDVirtual Drive

该场景为使用已存在一个或多个VDRAID组的空闲容量创建多个VD,以RAID0存在一个VD为例(如16-44所示),详细操作方法如下:

图16-44 Virtual Drive Management

 

按照“Main Menu > Configuration Management > Create Virtual Drive”的路径进入“Create Virtual Drive”界面,如16-45所示。

图16-45 Create Virtual Drive

 

                                步骤 2     将“Select RAID Level”设置为“RAID0”。

                                步骤 3     将“Select Drives From”设置为“Free Capacity”,如16-46所示。

图16-46 Create Virtual Drive

 

                                步骤 4     选择“Select Drive Groups”并按“Enter”。

显示当前存在的RAID组(Drive Group),如16-47所示。

图16-47 Select Drive Groups

 

                                步骤 5     选择要创建多个VDRAID组,并按“Enter”,如16-48所示。

图16-48 Select Drive Groups

 

                                步骤 6     选择“Apply Changes”并按“Enter”。

提示操作成功。

                                步骤 7     选择“OK”并按“Enter”返回VD配置界面,如16-49所示,参数说明如16-14所示。

图16-49 Create Virtual Drive

 

表16-14 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照16.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略。可配置的状态有:

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。

l     Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 8     按照16-14所述配置VD的相关属性。

                                步骤 9     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

                             步骤 10     选择“Confirm”并按“Enter”。

                             步骤 11     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                             步骤 12     选择“OK”并按“Enter'”完成配置。

可进入Virtual Drive Management界面,查看当前存在的所有VD,如16-50所示。

图16-50 Virtual Drive Management

 

----结束

每个RAID组最多支持创建16VD,如需要继续创建VD,请重复执行步骤1~步骤12

16.4.12 查询RAID控制卡固件版本

查询RAID控制卡固件版本的方法有如下几种:

l     iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。

l     服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见16.7.2.1 查询RAID控制卡配置信息

回显信息中的“FW Version”字段即为RAID控制卡的固件版本。

l     RAID控制卡管理界面进行查询,具体方法为:

a.     登录RAID控制卡的管理界面,具体操作请参见16.3.1 登录管理界面

b.     在主界面中选择“Main Menu”并按“Enter”。

进入“Main Menu”页面,如16-51所示。

图16-51 Main Menu页面

 

c.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如16-52所示。

图16-52 Controller Management界面

 

16.5 故障处理

介绍了硬盘故障和RAID控制卡故障的常用处理方法。

更多故障案例请联系技术支持获取。

16.5.1 硬盘相关故障

16.5.1.1 硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

确认故障硬盘槽位。

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考16.6.2.4 Drive Management

l     通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

                                步骤 1     更换新硬盘。

 

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘导致,则可以将硬盘设置为Unconfig Good后,参考16.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在16-2查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0

     UEFI模式下创建RAID0的方法请参见16.3.2 创建RAID 0

     通过命令行方式创建RAID0的方法请参见16.7.2.8 创建和删除RAID

----结束

16.5.1.2 硬盘状态为failprefail

问题描述

正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代failprefail状态的成员盘并进行重构,避免数据丢失。

但当RAID控制卡未设置紧急热备时,成员盘状态显示为failprefail时,可使用以下方法处理。

处理方法

使用StorCLI工具,具体操作请参考16.7.1 下载和安装StorCLI工具

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考16.7.2.21 设置硬盘状态

storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在EnclosureID

l     slot_id:物理硬盘槽位ID

                                步骤 2     更换离线硬盘。

                                步骤 3     RAID组自动执行重构。

等待重构完成。

----结束

16.5.1.3 硬盘状态为Unconfigured BadUBad

问题描述

硬盘状态显示为Unconfigured BadUBad

处理方法

使用StorCLI工具,具体操作请参见16.7.1 下载和安装StorCLI工具

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见16.7.2.21 设置硬盘状态

storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在EnclosureID

l     slot_id:物理硬盘槽位ID

                                步骤 2     重新查看硬盘状态是否更改为Unconfigured GoodUgood。具体操作请参见16.6.2.4 Drive Management界面或16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤4

                                步骤 3     查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见16.4.9 导入和清除外部配置16.7.2.26 查看/导入/清除外部配置

l     问题解决 => 处理完毕。

l     问题未解决 => 联系技术支持处理。

----结束

16.5.2 控制卡故障

问题描述

当服务器出现如下现象时,说明控制卡故障。

l     数据无法写入控制卡控制的硬盘。

l     服务器上报控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     查询兼容性查询助手或者联系技术支持处理。

----结束

16.5.3 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy

问题描述

正常情况下,当服务器配置了RAID控制卡且RAID控制卡状态正常时,进入BIOSAdvanced页签后,会显示RAID控制卡的信息,如16-53所示。

如果Advanced页签不显示RAID控制卡的信息,如16-54所示,则:

l     如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:

     如果不显示驱动打印信息,可尝试下电后重新拔插RAID控制卡再上电、下电后更换RAID控制卡再上电或者联系技术支持。

     如果显示“AVAGO EFI SAS Driver”,则可以通过本章节的指导修复RAID控制卡。

l     如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,则可以通过本章节的指导修复RAID控制卡;如果不显示,可尝试下电后重新拔插RAID控制卡再上电、下电更换RAID控制卡再上电或者联系技术支持。

图16-53 Advanced页签(1

 

图16-54 Advanced页签(2

 

处理方法

l     BIOS的版本为0.98之前版本(不包含0.98版本)时:

a.     Advanced页签选择“Driver Health Manager”并按Enter

进入“Driver Health Manager”界面。

b.     选择要进行修复的RAID控制卡驱动,如“AVAGO EFI SAS Driver”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息:

n     显示“The following VDs have missing disks. => 请参见16.5.3.1 The following VDs have missing disks

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone=> 请参见16.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

l     BIOS的版本为0.98及以上版本时:

a.     在“Advanced”页签选择“Some drivers are not healthy”。

进入健康状态查询界面。

b.     选择“Repair the whole platform”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息。

n     显示“The following VDs have missing disks. => 请参见16.5.3.1 The following VDs have missing disks

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone=> 请参见16.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见0RAID控制卡启动中出现的常见的错误消息及处理方法

16.5.3.1 The following VDs have missing disks

问题描述

16-55所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。

图16-55 状态显示

 

处理方法

修复RAID控制卡。

1.     16-55中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

2.     输入“C”并按“Enter”。

3.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

4.     输入“y”并按“Enter”。

提示“Critical Message handling completed. Please exit”。修复完成。

                                步骤 1     重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

16.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

问题描述

16-56所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”

图16-56 状态显示

 

处理建议

该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:

l     下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。

l     忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:

a.     16-56中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

b.     输入“c”并按“Enter”。

c.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

d.     输入“y”并按“Enter”。

提示Critical Message handling completed. Please exit

e.     按“Esc”退出当前界面。

弹出确认保存配置会话框,如16-57所示。

图16-57 提示保存会话框

 

f.     按“Y”保存配置,操作完成。

g.     Esc键返回“Device Manager”界面。

h.     选择9440-8i RAID控制卡,并按“Enter”,进入RAID控制卡管理界面。

16.5.3.3 Disabling writes to flash as the flash part has gone bad

问题描述

16-58所示,进入“Driver Healthy Protocol Utility”界面后,显示“Disabling writes to flash as the flash part has gone bad”。

图16-58 状态显示

 

处理方法

将服务器下电。

                                步骤 1     更换RAID控制卡。

                                步骤 2     将服务器上电,导入外部配置恢复原来的RAID配置,请参见16.4.9 导入和清除外部配置16.7.2.26 查看/导入/清除外部配置

检查提示是否清除。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

16.5.4 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死

问题描述

硬盘响应命令超时,控制卡会对硬盘进行复位。3次复位后尚未恢复时将可能耗尽控制卡TMTask Management)资源,触发Fatal error,此时会通过OCROnline Controller Reset)自愈恢复,期间将有短时间业务中断(约30s60s),控制卡复位后会完成踢盘,将故障硬盘置为Ubad状态。

控制卡自愈恢复,需要开启OCR开关。

触发条件

当下发到硬盘的I/O出现超时不响应的情况时,RAID控制卡会通过reset硬盘来恢复,正常情况下,硬盘会重新接入或者多次reset之后会进行踢盘。

当出现reset之后硬盘仍然无法响应RAID控制卡指令且无法踢盘时,RAID控制卡会再次reset进行复位,每次reset会占用RAID控制卡资源,短时间内多次reset会导致RAID控制卡资源耗尽,该场景下,RAID控制卡会通过重新加载FW进行恢复。

该机制为此类卡的正常处理机制,由于架构限制,无法进行优化。

识别方法

l     已安装OS

当遇到短时间业务中断,恢复后查看有被置为Ubad状态的硬盘时,可以查看控制卡日志,搜索dm.c并查看其发生时间,如与业务中断时间节点接近,即可断定为触发了该机制。

注意控制卡与OS时间差。

l     未安装OS

OS时,触发该机制的操作为:从“Advanced”页签进入控制卡界面。若触发该机制,进入控制卡卡操作界面时将会卡住,无法恢复。

处理方法

定位故障硬盘。

l     已安装OS

     如确认触发了该机制并且已经完成了踢盘,需要更换Ubad状态的硬盘。

     如无Ubad状态的硬盘,查看日志并搜索“indicates critical condition”,目标行的“element xx indicates critical condition”中,“xx”即为问题硬盘的槽位号。

已安装OS,但是进入“Advanced”页签的控制卡操作界面卡住,需要重新上下电进入OS,按照以上方式定位故障硬盘。

l     未安装OS

系统未安装OS,出现该异常时,保留预安装OS RAID组数目的硬盘,将其他硬盘拔出并记录槽位号,如成功安装OS进入系统后,按照已安装OS的操作来确认问题硬盘。

                                步骤 1     更换故障硬盘。

l      => 处理完毕。

l      => 请联系技术支持。

----结束

16.5.5 Controller Mode恢复为RAID

问题描述

RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD modeRAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如16-59所示,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。

图16-59 问题描述

 

当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。

处理方法

(可选)登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Management界面,如16-60所示。

图16-60 Advanced Controller Management界面

 

                                步骤 2     选择“Switch to RAID mode”并按“Enter”。

提示操作成功,如16-61所示。

图16-61 操作成功

 

                                步骤 3     选择“OK”并按“Enter”。

返回到“Advanced Controller Management”界面,显示正在切换模式,如16-62所示。

图16-62 Advanced Controller Management界面

 

                                步骤 4     按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面

                                步骤 5     依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如16-63所示。

图16-63 Advanced Controller Management界面

 

l      => 处理完毕。

l      => 请联系技术支持。

----结束

16.6 管理界面介绍

16.6.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如16-64所示界面时,按“Delete”。

图16-64 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如16-65所示界面。

图16-65 Setup Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如16-66所示。

图16-66 “Advanced”页签

 

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见16.5.3 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择要操作的9440-8i控制卡,按“Enter”。

进入如16-6716-68所示主界面,界面参数如16-15所示。

图16-67 9440-8i主界面(1

 

图16-68 9440-8i主界面(2

 

表16-15 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

CacheVault

是否支持Cache

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

说明

仅当控制卡存在外部配置时,会显示该选项。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

Silence Alarm

板载蜂鸣器的使能状态。

说明

控制卡未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

16.6.2 Main Menu

RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。

界面介绍

Main Menu”界面如16-69,参数说明如16-16所示。

图16-69 Main Menu

 

表16-16 参数说明

参数

参数说明

Configuration Management

配置管理RAID

Controller Management

管理RAID控制卡。

Virtual Drive Management

管理虚拟磁盘。

Drive Management

管理硬盘。

Hardware Components

查询部件信息。

 

16.6.2.1 Configuration Management

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

Configuration Management”界面如16-70,参数说明如16-17所示。

图16-70 Configuration Management

 

表16-17 参数说明

参数

参数说明

Create Virtual Drive

创建RAID

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Make JBOD

硬盘直通功能,硬盘不加入RAID,直接使用。

Clear Configuration

清除配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时会显示该参数。

 

快速创建RAID

16-70中选择“Create Profile Based Virtual Drive”并按“Enter”。

                                步骤 1     通过“↑”、“↓”选择要创建的RAID(以“Generic RAID 1”为例)并按“Enter”。

打开RAID配置界面,如16-71,参数说明如16-18所示。

图16-71 RAID配置界面

 

表16-18 参数说明

参数

参数说明

Drive Selection Criteria

系统自动选择的成员盘。

Virtual Drive Name

系统自定义的RAID组名称。

RAID Level

当前配置的RAID组的级别。

Virtual Drive Size

RAID组的容量。

Power Save Mode

数据掉电保护模式。

Strip Size

RAID组扇区大小。

Read Policy

RAID组的数据读策略。

Write Policy

RAID组的数据写策略。

IO Policy

RAIDI/O策略。

Access Policy

数据读写的策略。

Drive Cache

硬盘Cache策略。

Create Dedicated Hot Spare

是否为RAID组创建局部热备盘。

Save Configuration

保存当前配置。

 

                                步骤 2     16-18所示查看或配置相关参数。

                                步骤 3     选择“Save Configuration”并按“Enter”。

弹出操作确认界面。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 6     选择“OK”并按“Enter”完成配置。

----结束

查看虚拟磁盘属性

16-70中选择“View Drive Group Properties”并按“Enter”。

打开的界面如16-72,参数说明如16-19所示。

图16-72 View Drive Group Properties

 

表16-19 参数说明

参数

参数说明

Drive Group

硬盘组名称。

Capacity Allocation

硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。

 

16.6.2.2 Controller Management

该界面提供控制卡管理接口,可查看并修改控制卡的详细参数。

界面介绍

Controller Management”界面如16-7316-74所示,参数说明如16-20所示。

图16-73 Controller Management1

 

图16-74 Controller Management2

 

表16-20 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Personality Mode

RAID控制卡的模式。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见16.3.5 配置启动项

PCI ID

RAID控制卡的PCI ID

PCI Segment:Bus:Device:Fuction

RAID控制卡的PCI设备索引。

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Supported Device Interfaces

支持的设备接口。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制卡操作。

Advanced Controller Properties

查看和修改控制卡的高级属性。

 

查看并修改控制卡高级属性

16-73中选择“Advanced Controller Properties”并按“Enter”。

界面如16-7516-76所示,界面中参数说明如16-21所示。

图16-75 Advanced Controller Properties界面(1

 

图16-76 Advanced Controller Properties界面(2

 

表16-21 参数说明

参数

说明

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

Spare

设置控制卡热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

控制卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

表示硬盘容量压缩模式,包括:

l     None

l     128MB

l     1GB

默认为“1GB”。

说明

硬盘压缩模式可以对不同厂商的相同规格硬盘的容量差异进行取整处理,使不同厂商的硬盘强制为相同的容量,以便可以在同一个RAID组中使用。取整单位可以为None128MB1GB,其中None表示RAID控制卡对不同厂商的硬盘不做取整处理。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制卡BIOS的使能情况。

ROC Temperature

控制卡温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见16.4.9 导入和清除外部配置章节。

SMART Polling

SMART轮巡检测周期。默认值为“300”。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

JBOD Mode

硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。

Large IO Support

启用或禁用大型I/O支持功能。

Unmap Capability

解除映射能力。

Firmware Device Order

该功能开启后,设置为启动项的RAID组盘符为sda

说明

开启该功能前,请先确认控制卡驱动与固件配套。

Apply Changes

保存配置。

 

                                步骤 2     16-75中选择“Task Rates”并按“Enter”。界面如16-77所示,界面中参数说明如16-22所示。

图16-77 Task Rates

 

表16-22 参数说明

参数

说明

Background Initialization <BGI> Rate

设置执行后台初始化的速率。

说明

数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Consistency Check Rate

设置执行一致性校验的速率。

说明

数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Patrol Read Rate

设置执行巡检读取的速率。

说明

数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Rebuild Rate

设置硬盘发生故障时在新硬盘上执行重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Reconstruction Rate

设置执行RAID级别迁移或在线容量扩展时重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Apply Changes

保存配置。

 

                                步骤 3     按照16-21所述修改控制卡的高级属性参数。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

16.6.2.3 Virtual Drive Management

该界面提供虚拟磁盘的查询和管理接口。

界面介绍

Virtual Drive Management”界面如16-78,显示虚拟磁盘列表。

图16-78 Virtual Drive List

 

选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如16-79所示,参数说明如16-23所示。

图16-79 Virtual Drive Management

 

表16-23 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:定位虚拟磁盘的所有硬盘。

l     Stop Locate:取消定位。

l     Delete Virtual Drive:删除虚拟磁盘。

l     Expand Virtual Drive:扩展虚拟磁盘容量。

l     Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。

l     Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。

l     Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。

l     Fast Initialization:快速初始化虚拟磁盘。

l     Slow Initialization:安全初始化虚拟磁盘。

l     Check Consistency:一致性校验。

l     Virtual Drive Erase:格式化虚拟磁盘。

Progress

当前任务进度。

l     仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。

l     当前界面不会自动刷新,需退出后重新进入查看当前进度。

Stop

停止当前任务。

仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。

Name

虚拟磁盘名称。

Raid Level

虚拟磁盘RAID级别。

Status

虚拟磁盘当前运行状态。

Size

虚拟磁盘容量。

View Associated Drives

查看成员盘属性。

Advanced...

查看虚拟磁盘高级属性。

 

查看成员盘属性

16-79中选择“View Associated Drives”并按“Enter”。

界面如16-80,显示成员盘列表。

图16-80 View Associated Drives

 

                                步骤 2     选择要查看的成员盘,并按“Enter”。

                                步骤 3     选择“View Drive Properties”并按“Enter”。

进入硬盘属性界面,如16-81界面所示,界面参数如16-24所示。

图16-81 View Drive Properties

 

表16-24 参数说明

参数

参数说明

Operation

该成员盘可执行的操作,包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Place Drive Online/Offline:将硬盘上线/离线。

Drive ID

成员盘的ID

Connection

硬盘接口。

Enclosure Position

机箱或背板的位置。

Slot Number

硬盘的槽位号。

Status

成员盘的当前工作状态。

Size

成员盘的容量。

Type

成员盘类型。

Model

成员盘的模块类型。

Serial Number

硬盘的序列号。

Hardware Vendor

成员盘的生产厂商。

Associated Virtual Drive

成员盘所在的虚拟磁盘。

Advanced...

查询成员盘更多属性。

 

----结束

查看和修改虚拟磁盘高级属性

16-79中选择“Advanced”并按“Enter”。

界面如16-8216-83所示,界面参数如16-25所示。

图16-82 Advanced界面(1

 

图16-83 Advanced界面(2

 

表16-25 参数说明

参数

参数说明

Logical Sector Size

逻辑扇区大小。

Strip Size

条带大小。

Starting Logical Block Addressing

逻辑单元起始地址。

Emulation Type

控制逻辑盘在OS中上报的扇区。

当成员盘为512B/512B时:

l     Default:逻辑盘扇区为512B/512B

l     None:逻辑盘扇区为512B/512B

l     Force:逻辑盘扇区为512B/4KB

当成员盘为512B/4KB时:

l     Default:逻辑盘扇区为512B/4KB

l     None:逻辑盘扇区为512B/512B

l     Force:逻辑盘扇区为512B/4KB

Bad Blocks

是否支持坏块处理。

Access

数据读取的策略,分以下三种:

l     Read Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Current Write Cache Policy

当前写Cache策略。默认为“Write Through”。

说明

“Write Through”表示当硬盘子系统接收到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。

Default Write Cache Policy

默认的写Cache策略。

Disable Background Initialization

是否禁用后台初始化。

Read Cache Policy

当前读Cache策略,默认为“No Read Ahead”,即关闭预读取功能。

说明

不支持在该界面设置读Cache策略。

Drive Cache

是否支持cache

Input/Output

I/O读取策略,默认为“Direct”,即直接从硬盘读取数据,不经过Cache缓存。

说明

不支持在该界面设置I/O读取策略。

Unmap Capability

虚拟磁盘解映射功能使能状态。

不支持设置该功能。

Apply Changes

保存配置。

 

                                步骤 2     按照16-25所述配置“Advanced”的参数。

                                步骤 3     选择“Apply Changes”并按“Enter”。

显示The operation has been performed successfully

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

16.6.2.4 Drive Management

该界面显示硬盘基本属性,提供硬盘操作接口。

界面介绍

Drive Management”界面如16-84所示,显示硬盘列表。

图16-84 Drive List

 

选定要操作的硬盘并按“Enter”进入详细操作界面,如16-85所示,参数说明如16-26所示。

图16-85 Drive Management

 

表16-26 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Initialize Drive:硬盘初始化。

l     Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。

     Simple:仅对硬盘进行一轮擦除动作。

     Normal:对硬盘进行三轮擦除动作。

     Thorough:对硬盘进行九轮擦除动作。

     Stop Erase:停止数据擦除操作。

l     Make Unconfigured Good/Bad:修改硬盘状态。

l     Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。

l     Assign Global Hot Spare Drive:设置全局热备盘。

l     Assign Dedicated Hot Spare Drive:设置局部热备盘。

l     Unassign Hot Spare Drive:删除热备盘。

l     Prepare for Removal:硬盘拔出前的准备工作。

l     Place Drive Online:将Offline状态的硬盘设置为Online

说明

l     Place Drive Online操作只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。

l     对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。

Drive ID

硬盘的ID

Connection

硬盘接口。

Enclosure Position

机箱或背板的位置。

Slot Number

硬盘的槽位号。

Status

硬盘的当前工作状态。

Size

硬盘的容量。

Type

硬盘的类型。

Model

硬盘型号。

Serial Number

硬盘的序列号。

Hardware Vendor

硬盘的生产厂商。

Advanced...

查询更多硬盘属性。

 

安全擦除硬盘数据

该操作会删除硬盘上的数据,请谨慎执行。

将“Operation”设置为“Drive Erase”。

                                步骤 1     选择“Erase Mode”并按“Enter”。

                                步骤 2     在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。

                                步骤 3     选择“Go”并按“Enter”。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示操作成功。

----结束

查看硬盘属性

选择“Advanced...”并按“Enter”。

打开硬盘属性界面,如16-8616-87所示,参数说明如16-27所示。

图16-86 Drive Properties 界面(1

 

图16-87 “Drive Properties”界面(2

 

表16-27 参数说明

参数

参数说明

Certified

硬盘是否有供应商认证。

Logical Sector Size

逻辑扇区大小。

Physical Sector Size

物理扇区大小。

SMART Status

SMART功能是否使能。

Revision

硬盘Firmware版本。

Media Errors

Media error个数。

Predicted Fail Count

Pred fail个数。

SAS Address

硬盘SAS地址。

Mutipath

该功能为支持检测和使用从RAID控制卡到盘柜中的SAS设备的多条路径,连接到盘柜的设备有多条路径。到设备同一端口的冗余路径,可以保障当其中一条路径发生故障时,控制卡和设备之间可以使用另一条路径进行通信。同时使用具有负载平衡的多条路径,而不是单条路径,可以通过冗余来提高可靠性。

Drive Power State

硬盘上电状态。

Cache Setting

是否可设置Cache

Disk Protocol

硬盘支持的协议。

Capable Speed

硬盘速率。

Negotiated Speed

硬盘数据传输速率。

Number of Connections

连接器个数。

FDE Capable

硬盘是否支持FDEFull Disk Encryption)技术。

Cryptographic Erase Capable

硬盘是否支持加密擦除功能。

Unmap Capable

解除映射能力。

Unmap Capability for Configuration

取消映射配置功能。

Temperature

硬盘温度。

 

16.6.2.5 Hardware Components

该界面主要提供RAID控制卡传感器信息。

界面介绍

Hardware Components”界面如16-88,参数说明如16-28所示。

图16-88 Hardware Components

 

表16-28 参数说明

参数

参数说明

Temperature Sensors

当前温度传感器状态。

Fans

当前风扇模块工作状态。

Power Supplies

当前供电模块工作状态。

Enclosure Management

部件管理。

 

16.6.3 View Server Profile

提供RAID控制卡操作管理接口。

界面介绍

View Server Profile”界面如16-89所示,参数说明如16-29所示。

图16-89 View Server Profile

 

表16-29 参数说明

参数

参数说明

UEFI Spec Version

服务器支持的UEFI Spec版本。

Controller Management

提供控制卡管理接口,详细情况请参见16.6.2.2 Controller Management

Hardware Components

提供控制卡部件查询接口,详细情况请参见16.6.2.5 Hardware Components

Drive Management

提供硬盘管理接口,详细情况请参见16.6.2.4 Drive Management

Virtual Drive Management

提供虚拟磁盘管理接口,详细情况请参见16.6.2.3 Virtual Drive Management

 

16.6.4 Manage Foreign Configuration

该界面可查看、导入、清空外部配置。

界面介绍

Manage Foreign Configuration”界面如16-90所示。

图16-90 Manage Foreign Configuration

 

查看并导入外部配置

选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如16-91所示。

图16-91 View Foreign Configuration

 

                                步骤 2     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

清除外部配置

选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     选择“OK”并按“Enter”完成配置。

----结束

16.6.5 Configure

该界面可清除当前所有配置。

界面介绍

Configure”界面如16-92所示,参数说明如16-30所示。

图16-92 Configure

 

表16-30 参数说明

参数

参数说明

Create Virtual Drive

创建RAID

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Make JBOD

硬盘直通功能,硬盘不加入RAID,直接使用。

Clear Configuration

清除当前配置。

 

清除当前配置

选择“Clear Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     选择“OK”并按“Enter”完成配置。

----结束

16.6.6 Set Factory Defaults

恢复出厂配置

在主界面选择“Set Factory Defaults”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     选择“OK”并按“Enter”完成配置。

----结束

16.6.7 Manage MegaRAID Advanced Software Options

该界面提供RAID控制卡高级软件特性查看和导入接口。

界面介绍

Manage MegaRAID Advanced Software Options”界面如16-93所示,界面中参数说明如16-31所示。

图16-93 Manage MegaRAID Advanced Software Options

 

表16-31 参数说明

参数

说明

SAFE ID

RAID控制卡的安全编码。

Serial Number

RAID控制卡序列号。

Activation Key

待激活的高级特性的Key

Active

激活高级特性。

说明

不支持高级特性的激活操作,该功能无效。

Deactive All Trail Software

注销当前所有高级特性。

 

16.6.8 Exit

退出配置界面

9440-8i主界面按“ESC”,显示如16-94所示界面。

图16-94 BIOS Setup Utility

 

                                步骤 2     F10退出BIOS

弹出操作确认窗口。

                                步骤 3     选择“OK”并按Enter

退出BIOS,显示“ Press Control+Alt+Delete to reboot”。

----结束

16.7 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

16.7.1 下载和安装StorCLI工具

下载工具

登录BROADCOM网站上RAID控制卡的页面

                                步骤 1     在“DOWNLOADS”页签中单击“Management Software and Tools”。

打开管理软件和工具列表。

                                步骤 2     下载最新版本的“StorCLI”工具。

                                步骤 3     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 1     Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。

StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

16.7.2 常用命令

16.7.2.1 查询RAID控制卡配置信息

命令功能

查询9440-8i的基本配置信息。

命令格式

storcli64 /ccontroller_id  show

参数说明

参数

参数说明

取值

controller_id

控制卡ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

 

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡配置信息。

[root@localhost ~]# storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
CLI Version = 007.0913.0000.0000 Jan 11, 2019
Operating system = Linux 4.19.36-vhulk1907.1.0.h608.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
Product Name = AVAGO MegaRAID SAS 9440-8i
Serial Number = SP93000051
SAS Address =  500605b00f3999e0
PCI Address = 00:03:00:00
System Time = 03/03/2020 16:35:38
Mfg. Date = 07/29/19
Controller Time = 03/03/2020 08:35:37
FW Package Build = 51.12.0-3097
BIOS Version = 7.12.03.0_0x070C0300
FW Version = 5.120.01-2995
Driver Name = megaraid_sas
Driver Version = 07.712.02.00
Vendor Id = 0x1000
Device Id = 0x17
SubVendor Id = 0x1000
SubDevice Id = 0x9440
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 3
Device Number = 0
Function Number = 0
Drive Groups = 1
 
TOPOLOGY :
========
 
---------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT     Size PDC  PI SED DS3  FSpace TR
---------------------------------------------------------------------------
 0 -   -   -        -   RAID0 Optl  N  1.089 TB dflt N  N   dflt N      N
 0 0   -   -        -   RAID0 Optl  N  1.089 TB dflt N  N   dflt N      N
 0 0   0   69:0     0   DRIVE Onln  N  1.089 TB dflt N  N   dflt -      N
---------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 1
 
VD LIST :
=======
 
-------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC     Size Name
-------------------------------------------------------------
0/0   RAID0 Optl  RW     Yes     NRWTD -   ON  1.089 TB
-------------------------------------------------------------
 
EID=Enclosure Device ID| VD=Virtual Drive| DG=Drive Group|Rec=Recovery
Cac=CacheCade|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 1
 
PD LIST :
=======
 
--------------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model          Sp Type
--------------------------------------------------------------------------
69:0      0 Onln   0 1.089 TB SATA SSD N   N  512B SSDSC2BB012T7H U  -
--------------------------------------------------------------------------
 
EID=Enclosure Device ID|Slt=Slot No.|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=Unsupported|UGShld=UnConfigured shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported

16.7.2.2 查询和设置Spinup参数

命令功能

查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。

命令格式

storcli64 /ccontroller_id show spinupdelay

storcli64 /ccontroller_id show spinupdrivecount

storcli64 /ccontroller_id set spinupdelay=time

storcli64 /ccontroller_id set spinupdrivecount=count

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

每组起转硬盘间的时间间隔

默认为2,单位为s

count

上电时允许同时起转的硬盘数量

默认为4

 

查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡Spinup参数。

domino:~# ./storcli64 /c0 show spinupdelay
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop     Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
 
domino:~# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop           Value
--------------------------
Spin Up Drive Count 2
--------------------------

# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。

domino:~# ./storcli64 /c0 set spinupdelay=20
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
---------------------------
Ctrl_Prop     Value
---------------------------
Spin Up Delay 20 second(s)
---------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop           Value
--------------------------
Spin Up Drive Count 5
--------------------------

16.7.2.3 设置硬盘PowerSave功能

命令功能

设置空闲硬盘和热备盘的省电模式。

命令格式

storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

state

省电模式的启用状态。

l     on:启用

l     off:禁用

disktype

硬盘类型。

l     1:空闲硬盘

l     2:热备盘

time

等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。

单位为minutes

 

查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置空闲硬盘的省电模式。

domino:~# ./storcli64 /c0 set ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
------------------------
Ctrl_Prop    Value
------------------------
SpnDwnUncDrv Enabled
SpnDwnTm     30 minutes
------------------------

16.7.2.4 查询和设置物理硬盘初始化功能

命令功能

设置物理硬盘初始化功能,查询初始化进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看初始化进度

l     start:开始初始化

l     stop:结束初始化

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 初始化slot3硬盘,并查询初始化进度。

domino:~# ./storcli64 /c0/e252/s3 start initialization
Controller = 0 
Status = Success 
Description = Start Drive Initialization Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show initialization
Controller = 0 
Status = Success 
Description = Show Drive Initialization Status Succeeded. 
------------------------------------------------------ 
Drive-ID    Progress% Status      Estimated Time Left 
------------------------------------------------------ 
/c0/e252/s3         0 In progress 0 Seconds 
------------------------------------------------------  

16.7.2.5 查询和设置硬盘数据擦除功能

命令功能

设置物理硬盘数据擦除模式,查询擦除进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

mode

数据擦除模式

l     simple:对硬盘进行一轮擦除动作。

l     normal:对硬盘进行三轮擦除动作。

l     thorough:对硬盘进行九轮擦除动作。

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# slot 3硬盘进行simple数据擦除,并查询擦除进度。

domino:~# ./storcli64 /c0/e252/s3 start erase simple
Controller = 0 
Status = Success 
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0 
Status = Success 
Description = Show Drive Erse Status Succeeded. 
------------------------------------------------------ 
Drive-ID    Progress% Status      Estimated Time Left 
------------------------------------------------------ 
/c0/e252/s3         0 In progress 0 Seconds 
------------------------------------------------------     
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0 
Status = Success 
Description = Stop Drive Erase Succeeded.

16.7.2.6 设置后台资源占用率

命令功能

设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。

命令格式

storcli64 /ccontroller_id set action=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要设置的项目

l     bgirate:后台初始化速率

l     ccrate:一致性校验速率

l     prrate:硬盘巡检速率

l     rebuildrateRAID重构速率

l     reconrateRAID扩容和迁移速率

value

后台任务资源占用率

1100

 

查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置硬盘巡检速率为“30%”。

domino:~# ./storcli64 /c0 set prrate=30
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
----------------------- 
Ctrl_Prop        Value 
----------------------- 
Patrol Read Rate 30% 
-----------------------  

16.7.2.7 设置BIOS Stop on Error功能

命令功能

设置控制卡BIOS在检测到异常时停止继续启动的功能。

命令格式

storcli64 /ccontroller_id set bios mode=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要执行的操作

l     soe:控制卡BIOS在检测到异常时停止启动

l     ie:忽略检测到的异常

 

查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 开启Stop on error功能。

domino:~# ./storcli64 /c0 set bios mode=soe
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
---------------- 
Ctrl_Prop Value 
---------------- 
BIOS Mode SOE 
----------------

16.7.2.8 创建和删除RAID

命令功能

创建、删除RAID

命令格式

命令

说明

storcli64 /ccontroller_id add vd rlevel[0|1|10] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid]

创建RAID

storcli64 /ccontroller_id/vraid_id del

删除RAID

 

*表示默认值。

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

rlevel

要配置的RAID组级别

level可为0110,数字分别代表对应的RAID组级别。

size

要配置的RAID组容量

默认值为all,即所有成员盘的容量之和。

name

要配置的RAID组名称

-

drives

要加入RAID组的硬盘

-

startid-endid

硬盘的起始和结束ID

-

slot_id

硬盘ID

-

pdperarray

子组中的硬盘数

创建RAID10时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。

-

pdcache

设置RAID的成员盘的Cache状态

l     on

l     off

l     default

pi

使能数据保护

-

EmulationType

控制逻辑盘在OS中上报的扇区

l     0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     1: Disable,即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     2Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Spares

指定RAID组的热备盘

-

raid_id

要删除的RAID组的ID

-

 

l     以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

l     当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid

使用指南

使用实例

# 创建RAID 0

domino:~# ./storcli64 /c0 add vd r0 size=100GB drives=252:0-3
Controller = 0 
Status = Success 
Description = Add VD Succeeded

# 删除RAID

domino:~# ./storcli64 /c0/v0 del
Controller = 0 
Status = Success 
Description = Delete VD Succeeded

16.7.2.9 设置RAID前台初始化

命令功能

设置RAID前台初始化模式。

命令格式

storcli64 /ccontroller_id/vraid_id start mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

mode

前台初始化模式

l     init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。

l     init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 快速初始化RAID

domino:~# ./storcli64 /c0/v0 start init
Controller = 0 
Status = Success 
Description = Start INIT Operation Success

16.7.2.10 查询和设置RAID后台初始化

命令功能

暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。

命令格式

storcli64 /ccontroller_id/vraid_id action bgi

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

action

后台初始化的操作

l     show:查看后台初始化进度

l     pause:暂停后台初始化

l     resume:继续后台初始化

l     stop:停止后台初始化

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查看后台初始化进度。

domino:~# ./storcli64 /c0/v0 show bgi
Controller = 0 
Status = Success 
Description = Noe 
VD Operation Status : 
=================== 
------------------------------------------------------ 
VD Operation Progress% Staus      Estimated Time Left 
------------------------------------------------------ 
 0 BGI               3 In progress 53 Minutes 
------------------------------------------------------

16.7.2.11 设置启动项

命令功能

设置虚拟磁盘或物理硬盘为启动项。

命令格式

storcli64 /ccontroller_id/vvd_id set bootdrive=on

storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

vd_id

待设置的虚拟磁盘的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置VD0为启动项。

domino:~# ./storcli64 /c0/v0 set bootdrive=on
Controller = 0 
Status = Success 
Description = Noe 
Detailed Status : 
=============== 
---------------------------------------- 
VD Property   Value Staus  ErrCd ErrMsg 
---------------------------------------- 
 0 Boot Drive On    Success    0 - 
----------------------------------------

# 设置slot 7硬盘为启动项。

domino:~# ./storcli64 /c0/e252/s7 set bootdrive=on
Controller = 0 
Status = Success 
Description = Noe 
Controller Properties : 
===================== 
------------------- 
Ctrl_Prop Value 
------------------- 
BootDrive PD:252_7 
-------------------

16.7.2.12 设置紧急热备功能

命令功能

设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。

命令格式

storcli64 /ccontroller_id set eghs eug=state

storcli64 /ccontroller_id set eghs smarter=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

state

紧急热备功能的启用状态

l     on:启用

l     off:禁用

 

查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。

domino:~# ./storcli64 /c0 set eghs eug=on
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
------------------ 
Ctrl_Prop   Value 
------------------ 
EmergencyUG ON 
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
----------------------- 
Ctrl_Prop        Value 
----------------------- 
EmergencySmarter ON 
-----------------------

16.7.2.13 设置热备盘

命令功能

设置全局热备盘和局部热备盘。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive

设置全局热备盘。

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=<N|0,1,2..>]

设置局部热备盘。

storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive

删除热备盘。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

dgs

硬盘组的ID

l     不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘

l     0,1,2..:硬盘组ID

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置slot 3硬盘为全局热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive
Controller = 0 
Status = Success 
Description = Add Hot Spare Succeeded.    

# 设置slot 3硬盘为vd0的局部热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive dgs=0
Controller = 0 
Status = Success 
Description = Add Hot Spare Succeeded.   

16.7.2.14 查询和设置RAID重构

命令功能

开始、暂停、继续、停止RAID重构,并查询进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

action

要执行的操作

l     start:开始重构

l     show:查看重构进度

l     pause:暂停重构

l     resume:继续重构

l     stop:停止重构

 

查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 手动开始重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

# 查看硬盘当前重构状态。

[root@localhost ~]# ./storcli64 /c0/e70/s7 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e70/s7         5 In progress 26 Minutes
-----------------------------------------------------

# 暂停硬盘重构进程。

[root@localhost ~]# ./storcli64 /c0/e70/s7 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Succeeded.

# 继续重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 resume rebuild
Controller = 0
Status = Success
Description = Resume Drive Rebuild Succeeded.

# 停止重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 stop rebuild
Controller = 0
Status = Success
Description = Stop Drive Rebuild Succeeded.

16.7.2.15 查询和设置回拷

命令功能

开始、暂停、继续、停止回拷,并查询进度。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id start copyback target=target_enclosure_id:target_slot_id

开始回拷。

storcli64 /ccontroller_id/eenclosure_id/sslot_id action copyback

暂停、继续、查看、停止回拷。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

target_enclosure_id

执行回拷的目标硬盘所在EnclosureID

-

target_slot_id

执行回拷的目标物理硬盘槽位编号。

-

action

要执行的操作

l     show:查看回拷进度

l     pause:暂停回拷

l     resume:继续回拷

l     stop:停止回拷

 

查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 手动开始回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s7 start copyback target=70:3
Controller = 0
Status = Success
Description = Start Drive Copyback Succeeded.

# 查看硬盘当前回拷状态。

[root@localhost ~]# ./storcli64 /c0/e70/s3 show copyback
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e70/s3        17 In progress 16 Minutes
-----------------------------------------------------

# 暂停硬盘回拷进程。

[root@localhost ~]# ./storcli64 /c0/e70/s3 pause copyback
Controller = 0
Status = Success
Description = Pause Drive Copyback Succeeded.

# 继续回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s3 resume copyback
Controller = 0
Status = Success
Description = Resume Drive Copyback Succeeded.

# 停止回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s3 stop copyback
Controller = 0
Status = Success
Description = Stop Drive Copyback Succeeded.

16.7.2.16 设置Smart扫描周期

命令功能

设置Smart扫描周期。

命令格式

storcli64 /ccontroller_id set smartpollinterval=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

value

Smart扫描周期

单位为s

 

查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置Smart扫描周期为“60s”。

domino:~# ./storcli64 /c0 set smartpollinterval=60
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
------------------------------- 
Ctrl_Prop         Value 
------------------------------- 
SmartPollInterval 60 second(s) 
-------------------------------

16.7.2.17 通过增加成员盘可用容量扩容RAID

命令功能

RAID2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

命令格式

storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要扩容的RAIDID

capacity

扩容后的容量

expandarray

当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查询VD的可扩展容量。

[root@localhost ~]# storcli64 /c0/v1 show expansion 
CLI Version = 007.1416.0000.0000 July 24, 2020 
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64 
Controller = 0 
Status = Success 
Description = None 
 
 
EXPANSION INFORMATION : 
===================== 
 
-------------------------------------------- 
VD      Size OCE NoArrExp WithArrExp Status 
-------------------------------------------- 
 1 10.000 GB Y   3.627 TB 5.447 TB   - 
-------------------------------------------- 
 
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion 
 VD=Virtual Drive | NoArrExp - Without Array Expansion

如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。

# VD0的容量扩大“200GB”。

domino:~# ./storcli64 /c0/v0 expand size=200GB
Controller = 0 
Status = Success 
Description = expansion operation succeeded. 
EXPANSION RESULT : 
================ 
-------------------------------------------------------------------------------- 
VD     Size FreSpc     ReqSize  AbsUsrSz   %FreSpc NewSize    Statsu NoArrExp 
-------------------------------------------------------------------------------- 
 0 100.0 GB 457.861 GB 200.0 GB 201.458 GB      44 301.458 GB -      457.861 GB 
-------------------------------------------------------------------------------- 
Size - Current VD size|FreSpc - Freespace available before expansion 
%FreSpc - Requested expansion size in % of available free space 
AbsUsrSz - User size rounded to nearest %

RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。

16.7.2.18 通过增加新盘扩容或迁移RAID

命令功能

RAID2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

当增加新盘后,可进行RAID级别迁移。

命令格式

storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

vd_id

要操作的RAIDID

slot_id

要加入RAID的新硬盘的槽位号

level

增加硬盘后RAID的级别

l     与原RAID级别相同时,该命令为扩大RAID容量。

l     与原RAID级别不同时,该命令为RAID级别迁移。

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# RAID 0中增加slot 2硬盘扩容。

domino:~# ./storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2
Controller = 0 
Status = Success 
Description = Start MIGRATE Operation Success.     
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0 
Status = Success 
Description = None 
VD Operation Status : 
=================== 
------------------------------------------------------- 
VD Operation Progress% Status      Estimated Time Left 
------------------------------------------------------- 
 0 Migrate           1 In progress 13 Minutes 
-------------------------------------------------------  

# 单盘RAID 0加盘迁移至RAID 1

domino:~# ./storcli64 /c0/v0 start migrate type=r1 option=add drives=252:3
Controller = 0 
Status = Success 
Description = Start MIGRATE Operation Success.     
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0 
Status = Success 
Description = None 
VD Operation Status : 
=================== 
------------------------------------------------------- 
VD Operation Progress% Status      Estimated Time Left 
------------------------------------------------------- 
 0 Migrate           1 In progress 14 Minutes 
-------------------------------------------------------    

16.7.2.19 设置一致性校验参数

命令功能

设置一致性校验参数。

命令格式

storcli64 /ccontroller_id[/vvd_id]show cc

storcli64 /ccontroller_id/vvd_id start cc force

storcli64 /ccontroller_id/vvd_id action cc

storcli64 /ccontroller_id set cc=conc delay=value starttime=time excludevd=evd_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要操作的RAIDID

action

要执行的操作

l     pause:暂停

l     resume:继续执行

l     stop:停止

value

一致性校验周期

time

一致性校验起始时间

例如:2016/07/14 22

说明

起始时间单位为

evd_id

不进行一致性校验的虚拟磁盘ID

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

show命令中不带/vvd_id时,表示查询自动CC参数。

show命令中带/vvd_id时,表示查询CC进度。

使用实例

# 设置一致性自动检查参数。

domino:~# ./storcli64 /c0 set cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
------------------------------------ 
Ctrl_Prop      Value 
------------------------------------ 
CC Mode         CONC 
CC delay        1 
CC Starttime    2016/07/14 22:00:00 
CC ExcludeVD(0) Success 
------------------------------------

# 查询CC进度。

domino:~# ./storcli64 /c0/v1 show cc
Controller = 0 
Status = Success 
Description = None 
VD Operation Status : 
=================== 
----------------------------------------------------------- 
VD Operation Progress% Status          Estimited Time Left 
----------------------------------------------------------- 
 0 CC        -         Not in progress - 
-----------------------------------------------------------

16.7.2.20 查询和设置Patrolread参数

命令功能

查询和设置系统巡检的相关参数。

命令格式

storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number

storcli64 /ccontroller_id set patrolread delay=delaytime

storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}

storcli64 /ccontroller_id show patrolread

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

系统巡检起始时间

例如:2016/07/15 23

说明

起始时间单位为

number

可同时巡检的硬盘数量

delaytime

系统巡检周期

单位为hour

 

查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。

domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

---------------------------------------

Ctrl_Prop          Value

---------------------------------------

PR Starttime       2016/07/15 23:00:00

PR MaxConcurrentPd 2

---------------------------------------

# 使能patrolread并设置为自动模式。

domino:~# ./storcli64 /c0 set patrolread=on mode=auto
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
--------------------------------------- 
Ctrl_Prop        Value 
--------------------------------------- 
Patrol Read Mode auto 
---------------------------------------

# 查询patrolread信息。

domino:~# ./storcli64 /c0 show patrolread

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

--------------------------------------------

Ctrl_Prop          Value

--------------------------------------------

PR Mode       2016/07/15 23:00:00

PR Execution Delay

PR iterations completed 0

PR Next Start time      07/16/2016,00:00:00

PR on SSD               Disabled

PR Current State        Stopped

--------------------------------------------

16.7.2.21 设置硬盘状态

命令功能

设置硬盘状态。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

state

要设置的硬盘状态

l     online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。

l     offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。

l     jbod:通过该参数可以将硬盘设置为直通硬盘。

l     good

     ubad状态的硬盘,使用该参数可将硬盘设为ugoodforeign)状态,此时可选择导入或清除外来配置;

     JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。

l     good:将硬盘设为空闲盘

force

强制设置硬盘状态,为可选参数。

如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force

-

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。

domino:~# ./storcli64 /c0/e0/s1 set good
Controller = 0 
Status = Success 
Description = Set Drive Good Succeeded.

# 设置slot 7硬盘为直通盘。

domino:~# ./storcli64 /c0/e252/s7 set JBOD
Controller = 0 
Status = Success 
Description = Set Drive JBOD Succeeded.

16.7.2.22 设置硬盘定位指示灯状态

命令功能

点亮和熄灭指定硬盘的定位指示灯。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。

slot_id

物理硬盘槽位编号

可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。

action

要执行的操作

l     start:点亮硬盘的定位指示灯。

l     stop:熄灭硬盘的定位指示灯。

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 点亮slot 7硬盘的定位指示灯。

domino:~# ./storcli64 /c0/e252/s7 start locate
Controller = 0 
Status = Success 
Description = Start Drive Locate Succeeded.

16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

命令功能

查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。

命令格式

storcli64 /ccontroller_id show

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

storcli64 /ccontroller_id/vvd_id show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

enclosure_id

硬盘所在EnclosureID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡连接的硬盘背板的ID

slot_id

物理硬盘槽位编号

可以将该参数设置为all,表示查询所有硬盘的ID

vd_id

虚拟磁盘ID

可以将该参数设置为all,表示查询所有虚拟磁盘的ID

 

使用指南

回显中主要字段的含义如16-32所示。

表16-32 回显说明

命令格式

字段

含义

举例

storcli64 /ccontroller_id show

Product Name

RAID控制卡的型号

sas3108

FW Version

RAID控制卡的FW版本

4.660.00-8140

Driver Name

RAID控制卡的驱动名称

megaraid_sas

Driver Version

RAID控制卡的驱动版本

06.811.02.00-rh1

Current Personality

RAID控制卡的工作模式

RAID-Mode

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

SN

物理硬盘的序列号

PHWL517601YR800RGN

Manufacturer Id

物理硬盘的供应商ID

ATA

Model Number

物理硬盘的模块序号

INTEL SSDSC2BB800G4

Firmware Revision

物理硬盘的FW版本

D2010370

Raw size

物理硬盘的容量

745.211 GB [0x5d26ceb0 Sectors]

Logical Sector Size

物理硬盘逻辑分区大小

512B

Physical Sector Size

物理扇区大小

4 KB

storcli64 /ccontroller_id/vvd_id show all

TYPE

RAID组的级别

RAID1

State

RAID组的状态

Optl

Access

RAID组数据的访问策略

RW

Cache

RAID组当前的读写策略与I/O Policy

RWTD

Size

RAID组的大小

100.0 GB

PDs for VD0

RAID组下的物理硬盘

-

Strip Size

RAID组的条带大小

256KB

Write Cache(initial setting)

RAIDCache的写策略

Write Through

Disk Cache Policy

RAID组成员盘的Cache策略

Disk's Default

 

使用实例

#查询RAID控制卡的详细信息。

domino:~# ./storcli64 /c0 show
Controller = 0
Status = Success
Description = None
 
Product Name = SAS3408
Serial Number = 024JNFCNK2000314
SAS Address =  58cfd18f55442000
PCI Address = 00:03:00:00
System Time = 07/18/2019 14:55:54
Mfg. Date = 00/00/00
Controller Time = 07/18/2019 06:55:53
FW Package Build = 50.6.3-0109
BIOS Version = 7.06.02.2_0x07060502
FW Version = 5.060.01-2262
Driver Name = megaraid_sas
Driver Version = 07.709.08.00
Vendor Id = 0x1000
Device Id = 0x17
SubVendor Id = 0x19E5
SubDevice Id = 0xD213
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 3
Device Number = 0
Function Number = 0
Drive Groups = 1
 
TOPOLOGY :
========
 
---------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT     Size PDC  PI SED DS3  FSpace TR
---------------------------------------------------------------------------
 0 -   -   -        -   RAID0 Optl  N  3.637 TB dflt N  N   dflt N      N
 0 0   -   -        -   RAID0 Optl  N  3.637 TB dflt N  N   dflt N      N
 0 0   0   65:0     41  DRIVE Onln  N  3.637 TB dflt N  N   dflt -      N
---------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 1
 
VD LIST :
=======
 
-------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC     Size Name
-------------------------------------------------------------
0/0   RAID0 Optl  RW     Yes     NRWTD -   ON  3.637 TB
-------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 39
 
PD LIST :
=======
 
------------------------------------------------------------------------------
EID:Slt DID State  DG       Size Intf Med SED PI SeSz Model                Sp
------------------------------------------------------------------------------
65:0     41 Onln    0   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  U
65:1     45 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:2     33 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:3     40 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM115-1YZ107   D
65:4     39 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:5     38 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:6     46 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:7     53 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:8     61 UGUnsp  -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  U
65:9      0 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM115-1YZ107   D
65:10     1 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:11    62 UGUnsp  -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  U
65:12    51 UGood   -   9.094 TB SATA HDD N   N  512B ST10000NM0478-2H7100 D
65:13    52 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:14    50 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:16    57 UGUnsp  -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 U
65:17    58 UGUnsp  -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 U
65:18    42 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:19    44 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:20    49 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:21    43 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:22    48 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:23    47 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  D
65:24     3 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  D
65:25     5 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:26     4 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:27     2 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  D
65:28    59 UGUnsp  -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  U
65:29     6 UGood   - 837.258 GB SAS  HDD N   N  512B ST900MM0168          D
65:30    55 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  D
65:31    60 UGUnsp  -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  U
65:32    56 UGUnsp  -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  U
65:33    35 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:34    34 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:35    37 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:36    36 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:37    30 UGood   - 278.464 GB SAS  HDD N   N  512B AL15SEB030N          D
65:38    32 UGood   -   1.745 TB SATA SSD N   N  512B INTEL SSDSC2KG019T8  U
65:39    31 UGood   - 222.585 GB SATA SSD N   N  512B INTEL SSDSC2KG240G8  U
------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded

#查询slot0的物理硬盘的信息。

[root@localhost ~]# ./storcli64 /c0/e65/s0 show all
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
 
 
Drive /c0/e65/s0 :
================
 
--------------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model               Sp
--------------------------------------------------------------------------
65:0     41 Onln   0 3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 U
--------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Drive /c0/e65/s0 - Detailed Information :
=======================================
 
Drive /c0/e65/s0 State :
======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature =  30C (86.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
 
 
Drive /c0/e65/s0 Device attributes :
==================================
SN = ZC18JNP4
Manufacturer Id = ATA
Model Number = ST4000NM0035-1V4107
NAND Vendor = NA
WWN = 5000c500b3297aee
Firmware Revision = TNA5
Raw size = 3.638 TB [0x1d1c0beb0 Sectors]
Coerced size = 3.637 TB [0x1d1a94800 Sectors]
Non Coerced size = 3.637 TB [0x1d1b0beb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 12.0Gb/s
NCQ setting = Enabled
Write Cache = Disabled
Logical Sector Size = 512B
Physical Sector Size = 512B
Connector Name = C0   & C1
 
 
Drive /c0/e65/s0 Policies/Settings :
==================================
Drive position = DriveGroup:0, Span:0, Row:0
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = Yes
Wide Port Capable = No
 
Port Information :
================
 
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
   0 Active 12.0Gb/s  0x500605b000027380
-----------------------------------------
 
 
Inquiry Data =
5a 0c ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 20 20 20 20 20 20 20 20 20 20 20 20
43 5a 38 31 4e 4a 34 50 00 00 00 00 00 00 4e 54
35 41 20 20 20 20 54 53 30 34 30 30 4d 4e 30 30
35 33 31 2d 34 56 30 31 20 37 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 10 80
00 40 00 2f 00 40 00 02 00 02 07 00 ff 3f 10 00
3f 00 10 fc fb 00 10 5c ff ff ff 0f 00 00 07 00

# 查询VD 0的信息。

[root@rhel6u5 ~]# /opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
 
 
/c0/v0 :
======
 
-------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC     Size Name
-------------------------------------------------------------
0/0   RAID0 Optl  RW     Yes     NRWTD -   ON  3.637 TB
-------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
 
PDs for VD 0 :
============
 
--------------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model               Sp
--------------------------------------------------------------------------
65:0     41 Onln   0 3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 U
--------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
VD0 Properties :
==============
Strip Size = 64 KB
Number of Blocks = 7812499456
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 1
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = None
Active Operations = None
Exposed to OS = Yes
Creation Date = 06-07-2025
Creation Time = 08:44:04 AM
Emulation type = default
Cachebypass size = Cachebypass-64k
Cachebypass Mode = Cachebypass Intelligent
Is LD Ready for OS Requests = Yes
SCSI NAA Id = 68cfd18f554420002ffcf3d4ce5e8046

16.7.2.24 手动重构RAID

命令功能

手动重构RAID组。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row

storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

要加入Array的物理硬盘槽位编号

DG

硬盘发生故障的DGID

Arr

硬盘发生故障的ArrayID

Row

硬盘发生故障的Arrayrow number

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

重构RAID3个步骤进行:

1.通过./storcli64 /c0 show 命令,查询故障硬盘的DGArrRow所对应的数字。

2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。

3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID

使用实例

# 将硬盘加入RAID组。

[root@localhost ~]# storcli64 /c0/e252/s1 insert dg=0 array=0 row=0
Controller = 0
Status = Success
Description = Insert Drive Succeeded.

# 手动重构RAID

[root@localhost ~]# storcli64 /c0/e252/s1 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

16.7.2.25 收集和清除RAID控制卡日志

命令功能

收集和清除RAID控制卡的日志。

命令格式

命令

说明

storcli64 /ccontroller_id show termlog [type=logtype] [logfile[=filename]]

收集RAID控制卡的日志。

storcli64 /ccontroller_id delete termlog

删除RAID控制卡的日志。

storcli64 /ccontroller_id show alilog [logfile[=filename]]

收集控制卡属性信息、TTY日志和事件到指定文件。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

logtype

查询日志类型。

l     config:查询TTY BBU缓存设置。

l     content:查询日志信息。

缺省值:content

filename

文件名称,将保存日志到此文件。

可自定义文件名称,缺省时将默认保存至“StorSAS.log”文件中。

 

查询RAID控制卡ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 收集RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19  6:48:11: C0:TTY History buffer cleared
 
Controller = 0
Status = Success
Description = None

# 删除RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 delete termlog
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------------------
Ctrl Method Result
----------------------------
   0 Delete Termlog deleted
----------------------------

16.7.2.26 查看/导入/清除外部配置

命令功能

指导用户查看、导入或者清除RAID控制卡的外部配置。

命令格式

storcli64 /ccontroller_id/fall import preview

storcli64 /ccontroller_id/fall import

storcli64 /ccontroller_id/fall delete

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

 

使用指南

使用实例

# 查看RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall import preview
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
 
 
FOREIGN PREVIEW :
===============
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Total foreign drive groups = 0

# 删除RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall delete
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration

16.7.2.27 Snapdump相关操作

命令功能

介绍Snapdump相关操作。

命令格式

命令格式

说明

storcli64 /ccontroller_id  show snapdump

查询snapdump功能是否打开,是否有自动生成的snapdump文件。

storcli64 /ccontroller_id  get snapdump id=all

获取历史生成的snapdump文件。

storcli64 /ccontroller_id  get snapdump

获取历史生成的snapdump文件和当前再生成一个snapdump文件。

storcli64 /ccontroller_id  set snapdump state=on|off

打开和关闭snapdump功能。

storcli64 /ccontroller_id  delete snapdump force

删除历史snapdump日志功能。

 

参数说明

参数

参数说明

取值

controller_id

控制卡ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

state=on|off

Snapdump状态

on为开启,off为关闭

 

使用指南

l     Snapdump文件是一个日志文件,在一些RAID控制卡异常场景下可以自动生成的日志,也可以主动获取当前RAID控制卡的snapdump日志。

l     使用前可以先查询snapdump功能是否打开,是否有自动生成的snapdump文件,再去收集snapdump

l     获取历史生成的snapdump文件和当前再生成一个snapdump文件会影响业务,建议离线使用。

l     打开和关闭snapdump功能,如果无法打开注意看提示,请确认当前RAID控制卡固件版本是否支持。

l     收集snapdump文件在当前命令执行目录下,文件格式为snapdump_**************.zip

使用实例

#查询snapdump功能是否打开,是否有自动生成的snapdump文件。

[root@localhost ~]# storcli64 /c0 show snapdump
Controller = 0
Status = Success
Description = None
 
SnapDump Properties :
===================
 
----------------------------------
Ctrl_Prop              Value
----------------------------------
Snapdump               ON
Snapdump Save Count    N/A
Snapdump Delay OCR     15
Snapdump properties    Read-Write
Snapdump Current Count 2
----------------------------------
 
SnapDump Details :
================
 
----------------------------------------------
ID Snapdump Size Snapdump time       OnDemand
----------------------------------------------
0       2649396 08-06-2021 07:23:43 Yes
1       2070406 08-07-2021 06:59:24 Yes
----------------------------------------------

#获取历史生成的snapdump文件。

[root@localhost ~]# storcli64 /c0 get snapdump id=all
Controller = 0
Status = Success
Description = None

#获取历史生成的snapdump文件和当前再生成一个snapdump文件。

[root@localhost ~]# storcli64 /c0 get snapdump
Controller = 0
Status = Success
Description = Download Support Log

#打开和关闭snapdump功能。

打开:

[root@localhost ~]# storcli64 /c0 set snapdump state=on
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-------------------
Ctrl_Prop    Value
-------------------
Set Snapdump on
-------------------

关闭:

[root@localhost ~]# storcli64 /c0 set snapdump state=off
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-------------------
Ctrl_Prop    Value
-------------------
Set Snapdump off
-------------------

#删除历史snapdump日志功能。

[root@localhost ~]# storcli64 /c0 delete snapdump force
Controller = 0
Status = Success
Description = Snapdump delete

16.7.2.28 升级控制卡FW

命令功能

升级控制卡FW

命令格式

命令格式

说明

storcli64 /cController_ID download file=xxx.rom [noverchk]

升级控制卡FW

 

参数说明

参数

参数说明

取值

controller_id

控制卡ID

-

xxx.rom

固件包的名称

-

 

使用指南

l     使用noverchk参数时将不检查固件包,降级版本时必须使用此参数。

l     升级完成后,需重新上下电服务器使固件包生效。

使用实例

#升级控制卡FW

[root@localhost fw]# ./storcli64_arm /c0 download file =FW4.rom noverchk
Download Completed.
Flashing image to adapter...
Controller = 0
Status = Success
Description = F/W Flash Completed.Please reboot the system for the changes to take effect.


17 Avago MegaRAID SAS 9460-16i

关于本章

介绍AVAGO MegaRAID SAS9460-16i的外观、特性以及配置方法。

本章节涉及的截图以5.130.00-3059 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

16.1  概述

16.2  功能

16.3  初始配置

16.4  常用配置

16.5  故障处理

16.6  管理界面介绍

16.7  OS命令行工具

17.1 概述

AVAGO MegaRAID SAS9460-16i RAID 控制标卡(以下简称9460-16i)是基于MegaRAID架构的16端口12Gbit/s SAS控制卡,并采用PCIe3.0x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

9460-16i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

9460-16i支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考17.2.6 RAID级别迁移

9460-16i自带的Cache对标卡性能的提升有非常重要的作用,主要体现在:

l     在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

l     在读数据时,如果可以直接在Cache中命中的话,将减少硬盘寻道操作,降低响应时间,提升了数据读速度。

l     Cache数据的掉电保护依赖于与RAID控制卡相连的超级电容。超级电容的外形、连接方式、安装方式可参考各服务器的用户指南。

l     9460-16i不支持flush write verify功能。

9460-16i的结构如17-117-2所示。

图17-1 9460-16i带散热器(1

 

图17-2 9460-16i不带散热器(2

 

1

超级电容

2

miniSAS接口(port 0SFF-8643

3

miniSAS接口(port 1SFF-8643

4

miniSAS接口(port 2SFF-8643

5

miniSAS接口(port 3SFF-8643

6

超级电容错误状态指示灯

7

芯片过温指示灯

8

心跳灯

9

脏数据缓存指示灯

-

-

 

9460-16i单板指示灯说明如17-1所示。

表17-1 RAID控制卡单板指示灯说明

指示灯

颜色

说明

芯片过温指示灯

黄色

l     常亮:设备温度传感器超过阈值。

l     灭:设备温度在正常温度范围内。

超级电容错误状态指示灯

黄色

l     常亮:超级电容电源模块故障或者过温。

l     灭:超级电容正常或不在位。

心跳灯

绿色

l     闪烁:芯片运行正常,闪烁频率为1Hz

l     灭:RAID控制卡未开始运行或FW运行异常。

脏数据缓存指示灯

绿色

l     常亮:没有保存到存储设备中的脏缓存。

l     灭:脏数据缓存正常。

 

17.2 功能

17.2.1 支持多种RAID类型

控制卡支持的硬盘、虚拟磁盘、硬盘组数量分别为:

l     最多支持240个硬盘。

该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

l     最多支持64个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

l     最多支持64个硬盘组(即配置界面中看到的“Drive Group”),每个硬盘组最多支持240个硬盘。

l     每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

控制卡支持的RAID类型及对应的硬盘个数如17-2所示。

表17-2 RAID-硬盘参数

RAID级别

支持硬盘数

支持子组数

子组支持硬盘数

允许坏盘数

RAID 0

132

不涉及

不涉及

0

RAID 1

2~32(偶数)

硬盘数÷2

RAID 5

332

1

RAID 6

332

2

RAID 10

4~240(偶数)

28RAID 1

2~32(偶数)

子组数

RAID 50

6240

28RAID 5

332

子组数

RAID 60

6240

28RAID 6

332

子组数x2

 

l     不支持RAID 00级别。

l     子组数:子RAID的个数,例如RAID 50由两个RAID 5组成,则子组数为2

l     RAID 10RAID 50每个子组中最多允许1个坏盘。

l     RAID 60每个子组中最多允许2个坏盘。

l     RAID105060包含的总硬盘数由子组数和子组支持的硬盘数共同决定。

17.2.2 硬盘热备份

控制卡的热备功能分为两种:热备盘和紧急备份。

热备盘

对服务器的硬盘进行RAID分组后,一般会配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     Global HSP:即全局热备盘,为控制标卡上所有已配置的RAID所共有,1块控制标卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

配置方法请参看17.4.1.1 配置全局热备盘

l     Dedicated HSP:即局部热备盘,为控制标卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。配置方法请参看17.4.1.2 配置局部热备盘

热备盘容量需大于等于成员盘容量。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

紧急备份

使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代failprefail状态的成员盘并进行重构,避免数据丢失。

l     紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。

l     在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。

l     紧急备份的硬盘生效次序:相同类型硬盘 > 相同接口不同介质类型硬盘 > 不同接口相同介质类型硬盘 > 不同接口不同介质类型硬盘。

紧急备份有两种情况,对应了两种设置:

l     当成员盘fail时,空闲盘替代成员盘作为紧急备份。

l     当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。

具体配置方法请参看17.4.2 设置紧急热备功能

17.2.3 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考17.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

17.2.4 回拷

具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。

l     不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:

l     RAID组状态保持Optimal不变。

l     热备盘状态由Online变为Hot Spare

l     新加入硬盘状态由Copyback/Copybacking变为Online

l     可使用命令行工具暂停或继续回拷,具体请参见17.7.2.11 查询和设置回拷

l     若回拷时重启服务器,进度将保存。

17.2.5 硬盘分条

条带化

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待。

条带化技术是一种自动的将I/O的负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

影响条带化效果的因素有:

l     条带宽度:指同时可以并发读或写的条带数量。

这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。在其他条件一样的前提下,一个由818G硬盘组成的阵列相比一个由436G硬盘组成的阵列具有更高的传输性能。

l     条带大小:指写在每块硬盘上的条带数据块的大小。

分条

硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。

控制卡支持多种条带大小,包括64KB128KB256KB512KB1MB,默认条带大小为256KB

配置RAID时一般采用默认值。

17.2.6 RAID级别迁移

RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见17.4.5 迁移RAID级别

当前支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1RAID 5RAID 6

l     RAID 1迁移到RAID 0RAID 5RAID 6

l     RAID 5迁移到RAID 0RAID 6

l     RAID 6迁移到RAID 0RAID 5

RAID迁移对硬盘数量的要求如17-3所示。

表17-3 RAID迁移的硬盘数量说明

迁移RAID级别

原始硬盘组硬盘数量

迁移后的硬盘组硬盘数量

RAID 0迁移 RAID 1

132

2~32(偶数)

RAID 0迁移到RAID 5

132

332

RAID 0迁移到RAID 6

132

332

RAID 1迁移到RAID 0

2~32(偶数)

2~32

RAID 1迁移到RAID 5

2~32(偶数)

332

RAID 1迁移到RAID 6

2~32(偶数)

332

RAID 5迁移到RAID 0

332

332

RAID 5迁移到RAID 6

332

332

RAID 6迁移到RAID 0

332

332

RAID 6迁移到RAID 5

332

332

 

17.2.7 初始化

VD初始化

创建VDVirtual Drive)后,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。控制卡提供了多种相应的初始化方式:

l     前台初始化:

     快速初始化:Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。

     完全初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。

l     后台初始化:

     对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。

     对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。

l     一致性校验(CC)和后台初始化通常会对性能造成一定损失,直至该操作完成。

l     一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。

硬盘初始化

硬盘可执行的初始化包括:

l     Initialize Drive:对前100MByte空间进行全写0操作。

l     Drive Erase:对全部空间进行写0操作。

不支持停止SATA SSD的擦除和初始化过程。

17.2.8 可用容量扩展

控制卡支持的容量扩展方式有两种:

l     通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。

详细操作方法可参考17.4.3 添加新硬盘到RAID

l     通过增加可用空间方式扩容:在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

详细操作方法可参考17.4.4 扩展Virtual Drives可用空间

l     只有RAID 0RAID 1RAID 5RAID 6支持增加硬盘扩容。

l     RAID10RAID 50RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0RAID 5RAID 6每次只能增加1块硬盘。

l     当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见 17.7.2.26 通过增加成员盘可用容量扩容RAID

17.2.9 安全数据擦除

安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘和硬盘的安全擦除功能:

l     Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。

l     Normal:对虚拟磁盘或硬盘进行三轮擦除动作。

l     Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。

安全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。

控制卡支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。

17.2.10 写洞保护

系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况,称之为写洞。

将写失败的数据备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:

l     RAID  1RAID 5RAID 6RAID 10RAID 50RAID 60支持写洞保护,Write hole数据都保存在掉电保护区,不需要开关控制。

     掉电保护装置可用时,Write hole数据异常掉电重启后会进入恢复流程。

     掉电保护装置不可用时,记录在掉电保护区的Write hole数据异常掉电后丢失,不做Write hole恢复。

l     RAID 1RAID 5掉线盘时不可做写洞保护。

l     RAID 6掉线一块盘时可做写洞保护。

l     RAID 10RAID 50RAID 60部分降级时可做写洞保护,按子组恢复数据。完全降级时不可做写洞保护。

l     不对RAID 0做写洞保护。

17.2.11 读写高速缓存

控制卡支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:

l     Read:读策略选择“Read Ahead”模式,控制卡在读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,提升了数据读速度。

l     Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,控制卡就向HOST发出数据传输完成的信号。

在写数据时,直接写入Cache,当写入的数据积累到一定程度,才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

17.2.12 数据掉电保护

数据写入高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用高速缓存来提升系统性能。

l     开启高速缓存可提升整机写性能,当服务器写压力减小或高速缓存将写满时,数据再由高速缓存写入硬盘。

l     开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。

为了提升整机的高读写性能和高速缓存中数据的安全,可为控制卡配置超级电容。

超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将高速缓存中的数据写入超级电容模块中的NAND Flash中。

超级电容电量校准

由于数据保护需要超级电容的配合,为了记录超级电容的放电曲线,以便RAID控制卡了解超级电容的状态,例如最大和最小电压等,同时为了延长超级电容的寿命,RAID控制卡默认启动超级电容自动校准模式。

RAID控制卡通过如下所述的三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。

1.     RAID控制卡将超级电容的电量充到最大值。

2.     自动启动校准进程,将超级电容完全放电。

3.     重新开始充电,直至达到最大电量。

超级电容电量校准过程中,RAID控制卡写策略自动调整为“WT”模式以保证数据完整性,此时RAID控制卡性能会降低。电量校准的时间取决于超级电容充放电速度。

17.2.13 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     动态扩盘

l     完全初始化或后台初始化

l     一致性校验

17.2.14 自动SMART扫描

S.M.A.R.TSelfMonitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据受到损失。

RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。

17.2.15 硬盘节能

RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SASSATA机械硬盘均支持此功能。

默认情况下,硬盘节能功能处于开启状态。

当硬盘节能功能开启且在指定时间内没有I/O访问时,RAID控制卡下挂载的“Uncongfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。

17.2.16 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

控制卡可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在控制卡下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。

控制卡支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

如果需要使能硬盘直通功能,请参见17.4.11 设置JBOD模式

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

17.2.17 硬盘漫游

硬盘漫游是指在同一控制卡下移动物理硬盘。控制卡将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。

要使用硬盘漫游,按以下步骤操作:

1.     关闭操作系统。

2.     将服务器下电。

3.     将物理硬盘移动到背板所需位置。

4.     执行安全检查。确保正确插入物理硬盘。

5.     将服务器上电。

6.     控制卡从物理硬盘上的配置数据中检测到RAID配置。

17.2.18 导入外部配置

如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。

此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。

17.2.19 硬盘故障记录

控制卡提供硬盘故障记录功能:

l     使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。

l     禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,控制卡会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。

维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。

l     使能该功能后,当硬盘故障时,会点亮Fault指示灯。

l     禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。

默认情况下使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。具体操作方法请参见查看并修改控制卡高级属性

17.3 初始配置

文档中描述的关于控制卡的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。

如果服务器已经在Legacy或者UEFI模式下安装OS,切换启动方式后将无法进入操作系统,需要切换为安装时的启动方式再进入,如操作系统需要重装,请根据实际情况选择UEFILegacy模式安装OS

当服务器配置了较多的可启动设备时,在Legacy模式下可能出现部分设备无法正常启动,建议使用UEFI模式启动,UEFI模式较Legacy模式可以支持更多可启动设备;如需要使用Legacy模式,建议根据实际业务场景禁用串口重定向或网卡PXE等,确保操作系统可以正常启动,具体操作请参考BIOS参数参考的设置网卡的PXE和设置串口重定向章节。

17.3.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如17-3所示界面时,按“Delete”,进入输入密码界面。

图17-3 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如17-4所示界面。

图17-4 Setup Utility界面

 

                                步骤 4     通过“”或“→ ”进入“Advanced”页签,如17-5所示。

图17-5 “Advanced”页签

 

如果Device Manager界面显示“Some drivers are not healthy”,请参见17.5.4 Device ManagerRAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择“Avago MegaRAID SAS 9460-16i Configuration Utility”,按“Enter”。

进入如17-617-7所示主界面,界面参数如17-4所示。

图17-6 9460-16i主界面(1

 

图17-7 9460-16i主界面(2

 

表17-4 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

当存在外部配置时才会显示该选项。

Configure

提供创建RAID,快速创建RAID,查看硬盘组属性,清除当前所有RAID配置,管理外部配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

Silence Alarm

板载蜂鸣器的使能状态。

说明

9460-16i未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

17.3.2 创建RAID 0

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-16i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看17.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

登录管理界面。具体操作方法请参见17.3.1 登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如17-817-9所示,参数说明如17-5所示。

图17-8 Create Virtual Drive1

 

图17-9 Create Virtual Drive2

 

表17-5 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照17.4.10 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如17-10所示,界面参数如17-6所示。

图17-10 添加成员盘

 

表17-6 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Apply Changes

保存配置。

 

3.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 0支持的硬盘个数为1~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。

4.     17-6所述配置过滤条件。

5.     选择“Apply Changes”并按“Enter”。

6.     选择“Confirm”并按“Enter”。

7.     选择“Yes”并按“Enter”。

8.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照17-5所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照17.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID组信息。

----结束

17.3.3 创建RAID 1

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-16i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看17.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见17.3.1 登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如17-1117-12所示,参数说明如17-7所示。

图17-11 Create Virtual Drive1

 

图17-12 Create Virtual Drive2

 

表17-7 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照17.4.10 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如17-13所示,界面参数如17-8所示。

图17-13 添加成员盘

 

表17-8 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Apply Changes

保存配置。

 

3.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 1支持的硬盘个数为2~32(偶数)。

l     RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。

4.     17-8所述配置过滤条件。

5.     选择“Apply Changes”并按“Enter”。

6.     选择“Confirm”并按“Enter”。

7.     选择“Yes”并按“Enter”。

8.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照17-7所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照17.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID组信息。

----结束

17.3.4 创建RAID 5

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-16i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看17.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见17.3.1 登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如17-1417-15所示,参数说明如17-9所示。

图17-14 Create Virtual Drive1

 

图17-15 Create Virtual Drive2

 

表17-9 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照17.4.10 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 5”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如17-16所示,界面参数如17-10所示。

图17-16 添加成员盘

 

表17-10 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Apply Changes

保存配置。

 

3.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 5支持的硬盘个数为3~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。

4.     17-10所述配置过滤条件。

5.     选择“Apply Changes”并按“Enter”。

6.     选择“Confirm”并按“Enter”。

7.     选择“Yes”并按“Enter”。

8.     按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照17-9所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照17.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID组信息。

----结束

17.3.5 创建RAID 6

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-16i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看17.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见17.3.1 登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如17-1717-18所示,参数说明如17-11所示。

图17-17 Create Virtual Drive1

 

图17-18 Create Virtual Drive2

 

表17-11 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照17.4.10 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 6”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如17-19所示,界面参数如17-12所示。

图17-19 添加成员盘

 

表17-12 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Apply Changes

保存配置。

 

3.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 6支持的硬盘个数为3~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。

4.     17-12所述配置过滤条件。

5.     选择“Apply Changes”并按“Enter”。

6.     选择“Confirm”并按“Enter”。

7.     选择“Yes”并按“Enter”。

8.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照17-11所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照17.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID组信息。

----结束

17.3.6 创建RAID 10

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-16i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看17.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见17.3.1 登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如17-2017-21所示,参数说明如17-13所示。

图17-20 Create Virtual Drive1

 

图17-21 Create Virtual Drive2

 

表17-13 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照17.4.10 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如17-22所示,界面参数如17-14所示。

图17-22 Span1添加成员盘

 

表17-14 添加成员盘的参数说明

参数

参数说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Apply Changes

保存配置。

 

3.     17-14所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 10支持28Span,每个Span支持的硬盘数为2~16(偶数),且各个Span的硬盘数量必须保持一致。

l     RAID 10支持的硬盘总数为4~32(偶数)。

l     RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     创建第2Span

1.     当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如17-23所示。

图17-23 RAID 10的配置界面

 

2.     选择“Add More Spans”并按“Enter”。

3.     选择“Select Drives”并按“Enter”。

4.     在打开的列表中选择第2Span的成员盘。

5.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

RAID10至少需要创建2Span,最多可以创建8Span

                                步骤 6     配置虚拟磁盘属性。

按照17-13所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照17.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID组信息。

----结束

17.3.7 创建RAID 50

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-16i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看17.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见17.3.1 登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如17-2417-25所示,参数说明如17-15所示。

图17-24 Create Virtual Drive1

 

图17-25 Create Virtual Drive2

 

表17-15 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照17.4.10 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 50”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如17-26所示,界面参数如17-16所示。

图17-26 添加成员盘

 

表17-16 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Apply Changes

保存配置。

 

3.     17-16所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 50支持28Span,每个Span支持的硬盘数为3~16,且各个Span的硬盘数量必须保持一致。

l     RAID 50支持的硬盘总数为6~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     创建第2Span

1.     当配置的级别为RAID 50时,需要配置多个Span,此时配置界面如17-27所示。

图17-27 RAID 50的配置界面

 

2.     选择“Add More Spans”并按“Enter”。

3.     选择“Select Drives”并按“Enter”。

4.     在打开的列表中选择第2Span的成员盘。

5.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

RAID50至少需要创建2Span,最多可以创建8Span

                                步骤 6     配置虚拟磁盘属性。

按照17-15所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照17.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID组信息。

----结束

17.3.8 创建RAID 60

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-16i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看17.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见17.3.1 登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如17-2817-29所示,参数说明如17-17所示。

图17-28 Create Virtual Drive1

 

图17-29 Create Virtual Drive2

 

表17-17 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照17.4.10 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 60”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如17-30所示,界面参数如17-18所示。

图17-30 添加成员盘

 

表17-18 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Apply Changes

保存配置。

 

3.     17-18所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 60支持28Span,每个Span支持的硬盘数为3~32,且各个Span的硬盘数量必须保持一致。

l     RAID 60支持的硬盘总数为6~240

l     RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     创建第2Span

1.     当配置的级别为RAID 60时,需要配置多个Span,此时配置界面如17-31所示。

图17-31 RAID 60的配置界面

 

2.     选择“Add More Spans”并按“Enter”。

3.     选择“Select Drives”并按“Enter”。

4.     在打开的列表中选择第2Span的成员盘。

5.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

RAID60至少需要创建2Span,最多可以创建8Span

                                步骤 6     配置虚拟磁盘属性。

按照17-17所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照17.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID组信息。

----结束

17.3.9 设置启动项

17.3.9.1 设置RAID控制卡下的启动项

请通过17-91的“Select Boot Device”选项设置启动项。

17.3.9.2 设置服务器的启动项

当一台服务器配置了单张RAID控制卡时,RAID控制卡下的硬盘启动项即为该服务器的硬盘启动项,具体设置方法请参见17.3.9.1 设置RAID控制卡下的启动项

当服务器配置了多张RAID控制卡时,硬盘启动项需要在BIOS中进行设置,具体设置方法请参见BIOS参数参考的“设置服务器启动设备”章节。

17.4 常用配置

17.4.1 管理热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

9460-16i支持2种类型的热备盘:

l     Global Hotspare:即全局热备盘,为控制标卡上所有已配置的RAID所共有,1块控制标卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

l     Dedicated Hotspare:即局部热备盘,为控制标卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

17.4.1.1 配置全局热备盘

操作步骤

登录管理界面,具体操作方法请参见17.3.1 登录管理界面

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如17-32所示。

图17-32 Drive Management

 

                                步骤 2     配置全局热备盘。

1.     选择“Operation ”并按“ Enter

2.     选择“Assign Global Hot Spare Drive ”并按“ Enter

3.     选择“Go”并按“Enter”。

显示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

17.4.1.2 配置局部热备盘

操作步骤

RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

登录管理界面,具体操作方法请参见17.3.1 登录管理界面

                                步骤 1     进入“Drive Management”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如17-33所示。

图17-33 Drive Management

 

                                步骤 2     配置局部热备盘。

1.     将“Operation”设置为“Assign Dedicated Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

打开当前存在的虚拟磁盘列表。

3.     选择要关联的虚拟磁盘并按“Enter”。

4.     选择“OK”并按“Enter”。

提示操作成功。

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

17.4.1.3 删除热备盘

操作场景

当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

操作步骤

登录管理界面,具体操作方法请参见17.3.1 登录管理界面

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如17-34所示。

图17-34 Drive Management

 

                                步骤 2     删除热备盘。

1.     将“Operation”设置为“Unassign Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

5.     按“Enter”完成配置并返回上级界面。

----结束

17.4.2 设置紧急热备功能

操作步骤

登录管理界面,具体操作方法请参见17.3.1 登录管理界面

                                步骤 1     进入“Advanced Controller Properties”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

3.     选择“Advanced Controller Properties”并按“Enter”。

进入“Advanced Controller Properties”界面,如17-3517-36所示。

图17-35 Advanced Controller Properties1

 

图17-36 Advanced Controller Properties2

 

                                步骤 2     设置紧急热备。

1.     选择“Spare”并按“Enter”。

2.     将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如17-37所示。

图17-37 Advanced Controller Properties

 

3.     选择“Apply Changes”并按“Enter”。

4.     选择“OK”并按“Enter”,完成配置。

----结束

17.4.3 添加新硬盘到RAID

操作场景

 

l     只有RAID 0RAID 1RAID 5RAID 6支持增加硬盘扩容。

l     RAID10RAID 50RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

对系统的影响

增加硬盘扩容过程中,如果出现硬盘故障,会导致:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID

请谨慎执行增加硬盘扩容操作。

必备事项

前提条件

添加硬盘扩容之前,需具备如下条件:

l     服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     已登录管理界面,具体操作方法请参见17.3.1 登录管理界面

数据

操作之前建议先备份数据。

操作步骤

进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”并按“Enter”。

进入虚拟磁盘选项界面,如17-38所示。

图17-38 虚拟磁盘选项界面

 

                                步骤 2     添加新硬盘。

1.     选择要进行扩容的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如17-39所示。

图17-39 Operation

 

3.     选择“Reconfigure Virtual Drives”并按“Enter

4.     选择“Go”并按“Enter”。

5.     选择要扩容的RAID级别。

 

增加硬盘扩容时,请保证该处的RAID级别与原级别一致。

6.     选择“Choose the Operation”,并按“Enter”。

进入硬盘选择界面,如17-40所示。

图17-40 Choose the Operation

 

7.     选择要增加的硬盘,并按“Apply Changes”。

进入确认操作界面。

l     增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0RAID 5RAID 6每次只能增加1块硬盘。

l     RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。

8.     选择“Confirm”并按“Enter”。

9.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

10.     选择“OK”并按“Enter”完成配置并返回上级界面,如17-41所示。

图17-41 选择操作

 

11.     选择“Start Operation”并按“Enter”。

显示操作成功。返回虚拟磁盘选项界面,验证扩容结果,如17-42所示,表示RAID正在进行扩容。

图17-42 Virtual Drive Management

 

----结束

17.4.4 扩展Virtual Drives可用空间

操作场景

Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

操作步骤

登录管理界面。具体操作方法请参见17.3.1 登录管理界面

                                步骤 1     进入要操作的虚拟磁盘界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如17-43所示。

图17-43 Virtual Drive Management

 

                                步骤 2     扩容虚拟磁盘。

1.     将“Operation”设置为“Expand Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入虚拟磁盘扩容界面,如17-44界面所示,界面参数如17-19所示。

图17-44 Expand Virtual Drive

 

表17-19 参数说明

参数

参数说明

Current Capacity

虚拟磁盘当前容量。

Available Capacity

可用于扩展的容量。

Enter a Percentage of Available Capacity

输入扩容比例。

Capacity of Virtual Drive after Expansion

扩容后虚拟磁盘容量。

 

3.     设置扩容百分比。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返还上级界面。

----结束

17.4.5 迁移RAID级别

操作场景

随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。

在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。

对系统的影响

RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID

请谨慎执行RAID级别迁移操作。

必备事项

前提条件

迁移RAID级别之前,需具备如下条件:

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     当前存在的硬盘个数满足目标RAID级别要求。

l     已登录管理界面,具体操作方法请参见17.3.1 登录管理界面

控制卡支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1RAID 5RAID 6

l     RAID 1迁移到RAID 0RAID 5RAID 6

l     RAID 5迁移到RAID 0RAID 6

l     RAID 6迁移到RAID 0RAID 5

RAID迁移对硬盘数量的要求如17-3所示。

l     RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     迁移只支持增加与RAID组成员盘同类型同规格的硬盘。

l     为防止数据丢失,请在该操作之前备份当前RAID组的数据。

l     只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。

l     迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。

操作步骤

进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”并按“Enter”。

进入虚拟磁盘选项界面,如17-45所示。

图17-45 虚拟磁盘选项界面

 

                                步骤 2     选择RAID迁移的目标级别。

下面以将RAID 1迁移到RAID 5为例进行说明。

1.     选择要进行迁移的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如17-46所示。

图17-46 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”。

4.     选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如17-4717-48所示。设置完成后按选择“Apply Changes”并按“Enter”保存配置。不设置时默认与原RAID组配置一致。

图17-47 Advanced...1

 

图17-48 Advanced...2

 

5.     选择“Go”,并按“Enter”。

进入RAID配置界面,如17-49所示。

图17-49 Reconfigure Virtual Drives

 

6.     选择“New RAID Level”并按“Enter”。

打开RAID迁移的目标级别选择窗口,如17-50所示。

图17-50 选择新的RAID级别

 

7.     选择“RAID 5”并按“Enter”。

                                步骤 3     添加硬盘。

1.     选择“Choose the operation”并按“Enter”。

打开硬盘选择窗口。

2.     选择要增加的硬盘并按“Enter”。

RAID迁移对硬盘数量的要求请参见17-3

3.     选择“Apply Changes”并按“Enter”。

弹出操作确认会话框。

4.     选择“Confirm”并按“Enter”。

5.     选择“Yes”并按“Enter”。

提示操作成功。

6.     选择“OK”并按“Enter”返回17-49界面。

                                步骤 4     RAID级别迁移。

1.     选择“Start Operation”并按“Enter”。

提示操作成功。

                                步骤 5     查看迁移结果。

1.     进入Virtual Drive Management界面,检查迁移结果,如17-51所示,表示RAID正在进行迁移。

图17-51 查看迁移结果

 

l     迁移过程中若重启服务器,该任务将在重启后继续进行。

l     迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。

2.     选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 1”变成“RAID 5”,RAID组容量增大,且“Status”状态显示为“Optimal”时,表示RAID迁移成功。

----结束

17.4.6 删除RAID

操作场景

 

RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。

操作步骤

登录管理界面。具体操作方法请参见17.3.1 登录管理界面

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如17-52所示。

图17-52 Virtual Drive Management

 

                                步骤 2     删除虚拟磁盘。

1.     将“Operation”设置为“Delete Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

17.4.7 重构RAID

下面描述将带有外部配置的硬盘进行重构的操作方法,不带外部配置硬盘的重构方法请参见17.5.1.1 硬盘故障

操作步骤

在“Main Menu”界面中选择“Drive Management”并按“Enter”。

                                步骤 1     选中要进行重构的硬盘,按“Enter”。

                                步骤 2     将“Operation”设置为“Make Unconfigured Good”。

                                步骤 3     选择“Go”并按“Enter”。

提示The operation has been performed successfully

                                步骤 4     按“Enter”完成配置。

硬盘状态变为“(Foreign,Unconfigured Good”。

                                步骤 5     清除外部配置,具体操作请参见17.4.9 导入和清除外部配置

RAID组开始进行重构。

----结束

17.4.8 查看RAID控制卡属性

操作场景

用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。

操作步骤

登录管理界面,具体操作方法请参见17.3.1 登录管理界面

                                步骤 1     进入“Controller Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息,如17-5317-54所示,参数说明如17-20所示。

图17-53 Controller Management1

 

图17-54 Controller Management2

 

表17-20 参数说明

参数

参数说明

Product Name

控制标卡名称。

Serial Number

控制标卡序列号。

Controller Status

控制标卡的工作状态。

Personality Mode

控制标卡的模式。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。

PCI ID

控制标卡的PCI ID

PCI Slot Number

控制标卡的PCI槽位号。

Package Version

控制标卡的套件版本。

Firmware Version

控制标卡的固件版本号。

NVDATA Version

控制标卡配置信息的版本号。

Drive Count

控制标卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制卡操作。

Advanced Controller Properties

查看和修改控制卡的高级属性。

 

                                步骤 2     查看控制卡高级属性。

1.     选择“Advanced Controller Properties”并按“Enter”。

进入控制卡高级属性界面,如17-5517-56所示,参数说明如17-21所示。

在该界面下,可查看并修改RAID控制卡的高级属性。

图17-55 Advanced Controller Properties 1

 

图17-56 Advanced Controller Properties 2

 

表17-21 参数说明

参数

说明

Cache and Memory

查看控制卡CacheMemory信息。

Patrol Read

系统巡检。

Power Save Settings

设置硬盘休眠。

Spare

设置控制卡热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

9460-16i控制卡标卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

容量对齐的模式。包括:

l     None

l     128MB

l     1GB

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。

默认为“Pause on Errors”。

Controller BIOS

控制卡BIOS的使能情况。

ROC Temperature

控制卡温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见17.4.9 导入和清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验

JBOD Mode

是否使能硬盘直通功能。

Write Verify

-

Drive Detection Type

随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制卡属性。

可用选项为:

l     Disabled

l     High Latency

l     Aggressive

l     Default

Drive Corrective Action

随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致I/O延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。

l     Disabled:禁用该功能

l     Enabled:开启该功能

Drive Error Threshold

通过该选项设置适当的控制卡属性。

l     Every 8 hours

l     Every1 hours

l     Every 15 mins

l     Every 5 mins

Large IO Support

启用或禁用大型I/O支持功能。

Unmap Capability

解除映射能力。

Apply changes

保存配置。

 

----结束

17.4.9 导入和清除外部配置

操作场景

l     服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。

 

l     如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!

l     为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

导入外部配置

登录管理界面,具体操作方法请参见17.3.1 登录管理界面

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如17-57所示。

图17-57 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如17-58所示。

图17-58 外部配置

 

                                步骤 5     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 8     按“Enter”完成配置返回上级界面。

----结束

清除外部配置

登录管理界面,具体操作方法请参见17.3.1 登录管理界面

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”并按“Enter”。

进入外部配置管理界面,如17-59所示。

图17-59 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如17-60所示。

图17-60 外部配置

 

                                步骤 5     选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 8     单击“OK”完成配置返回上级界面。

----结束

17.4.10 创建多个VDVirtual Drive

该场景为使用已存在一个或多个VDRAID组的空闲容量创建多个VD,以RAID50存在一个VD为例(如17-61所示),详细操作方法如下:

图17-61 Virtual Drive Management

 

按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如17-62所示。

图17-62 Create Virtual Drive

 

                                步骤 2     选择“Select RAID Level”并“Enter”。

                                步骤 3     在弹出的RAID级别菜单中选择“RAID50”并按“Enter”。

                                步骤 4     将“Select Drives From”设置为“Free Capacity”,如17-63所示。

图17-63 Create Virtual Drive

 

                                步骤 5     选择“Select Drive Groups”并按“Enter”。

显示当前存在的RAID组(Drive Group),如17-64所示。

图17-64 Select Drive Groups

 

                                步骤 6     选择要创建多个VDRAID组并按“Enter”,如17-65所示。

图17-65 Select Drive Groups

 

                                步骤 7     选择“Apply Changes”并按“Enter”。

提示操作成功。

                                步骤 8     选择“OK”并按“Enter”返回VD配置界面,如17-6617-67所示,参数说明如17-22所示。

图17-66 Create Virtual Drive1

 

图17-67 Create Virtual Drive2

 

表17-22 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drive Group

选择硬盘组。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照17.4.10 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略。可配置的状态有:

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,数据会丢失。

l     Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 9     按照17-22所述配置VD的相关属性。

                             步骤 10     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

                             步骤 11     选择“Confirm”并按“Enter”。

                             步骤 12     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                             步骤 13     选择“OK”并按“Enter”完成配置。

可进入Virtual Drive Management界面,查看当前存在的所有VD,如17-68所示。

图17-68 Virtual Drive Management

 

----结束

每个RAID组最多支持创建16VD,如需要继续创建VD,请重复执行步骤1~步骤13

17.4.11 设置JBOD模式

控制卡支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

登录管理界面,具体操作方法请参见17.3.1 登录管理界面

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Properties界面,如17-69所示。

图17-69 Advanced Controller Properties

 

                                步骤 2     选择“JBOD Mode”并按Enter

                                步骤 3     选择“Enabled”并按“Enter”。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

17.4.12 查询RAID控制卡固件版本

查询RAID控制卡固件版本的方法有如下几种:

l     iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。

l     服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见9.7.2.1 查询RAID控制卡配置信息

回显信息中的“FW Version”字段即为RAID控制卡的固件版本。

l     RAID控制卡管理界面进行查询,具体方法为:

a.     登录RAID控制卡的管理界面,具体操作请参见9.3.1 进入管理界面

b.     在主界面中选择“Main Menu”并按“Enter”。

进入“Main Menu”页面,如17-70所示。

图17-70 Main Menu页面

 

c.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如17-71所示。

图17-71 Controller Management界面

 

17.5 故障处理

介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

17.5.1 硬盘相关故障

17.5.1.1 硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

确认故障硬盘槽位。

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考17.6.2.4 Drive Management

l     通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

                                步骤 1     更换新硬盘。

 

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考17.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在17.2.1 支持多种RAID类型查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0

     UEFI模式下创建RAID0的方法请参见17.3.2 创建RAID 0

     通过命令行方式创建RAID0的方法请参见17.7.2.2 创建和删除RAID

----结束

17.5.1.2 硬盘状态为failprefail

问题描述

正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代failprefail状态的成员盘并进行重构,避免数据丢失。

但当RAID控制卡未设置紧急热备时,成员盘状态显示为failprefail时,可使用以下方法处理。

处理方法

使用StorCLI工具,具体操作请参考17.7.1 下载和安装StorCLI工具

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考17.7.2.16 设置硬盘状态

storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在EnclosureID

l     slot_id:物理硬盘槽位ID

                                步骤 2     更换离线硬盘。

                                步骤 3     RAID组自动执行重构。

等待重构完成。

----结束

17.5.1.3 硬盘状态为Unconfigured BadUBad

问题描述

硬盘状态显示为Unconfigured BadUBad

处理方法

使用StorCLI工具,具体操作请参见17.7.1 下载和安装StorCLI工具

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见17.7.2.16 设置硬盘状态

storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在EnclosureID

l     slot_id:物理硬盘槽位ID

                                步骤 2     重新查看硬盘状态是否更改为Unconfigured GoodUgood。具体操作请参见17.6.2.4 Drive Management界面或17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤4

                                步骤 3     查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见17.4.9 导入和清除外部配置17.7.2.30 查看/导入/清除外部配置

l     问题解决 => 处理完毕。

l     问题未解决 => 联系技术支持处理。

----结束

17.5.2 电容故障

问题描述

RAID控制卡电容故障时,可能导致服务器出现如下情况:

l     服务器读写速度显著降低。

l     RAID控制卡的CU界面中显示电容状态异常。

处理方法

进入RAID控制卡的CU界面,查看电容状态是否为“Optimal”。

电容状态可查询17-107界面的“Battery Status”参数。

l      => 处理完毕

l      => 步骤2

                                步骤 1     将服务器下电,打开机箱,并查看RAID控制卡电容是否在位。

l      => 步骤4

l      => 步骤3

                                步骤 2     检查整机配置,为服务器安装电容,查看电容状态是否为“Optimal”。

l      => 处理完毕

l      => 步骤6

                                步骤 3     重新安装RAID控制卡电容,查看电容状态是否为“Optimal”。

l      => 处理完毕

l      => 步骤5

                                步骤 4     更换RAID控制卡电容,查看电容状态是否为“Optimal”,且“问题描述”所述的异常状态是否消失。

l      => 处理完毕

l      => 步骤6

                                步骤 5     联系技术支持处理。

----结束

17.5.3 控制卡故障

问题描述

当服务器出现如下现象时,说明控制卡故障。

l     数据无法写入控制卡控制的硬盘。

l     服务器上报控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     查询兼容性查询助手或者联系技术支持处理。

----结束

17.5.4 Device ManagerRAID控制卡状态显示Not Healthy

问题描述

进入“Device Manager”界面后,显示“Some drivers are not healthy”。

处理方法

选择“Some drivers are not healthy”。

进入健康状态查询界面。

                                步骤 1     选择“Repair the whole platform”,并按“Enter”。

进入“Driver Healthy Protocol Utility”界面。

                                步骤 2     查看“Driver Healthy Protocol Utility”界面的打印信息。

l     显示“The following VDs have missing disks. => 请参见17.5.4.1 The following VDs have missing disks

l     显示“There are offline or missing virtual drives with preserved cache. => 请参见17.5.4.2 There are offline or missing virtual drives with preserved cache

l     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone=> 请参见17.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

l     显示“Memory/battery problems were detected / Unexpected power-loss occurred=> 请参见17.5.4.4 Memory/battery problems were detected

----结束

RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见0RAID控制卡启动中出现的常见的错误消息及处理方法

17.5.4.1 The following VDs have missing disks

问题描述

进入“Driver Healthy Protocol Utility”界面后,显示The following VDs have missing disks.

处理方法

修复RAID控制卡。

1.     选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

2.     输入“c”,选择“Yes”并按“Enter”。

返回“Driver Healthy Protocol Utility”界面。

3.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

4.     输入“y”,选择“Yes”并按“Enter”。

提示Critical Message handling completed. Please exit。修复完成。

                                步骤 1     重启服务器,进入“Device Manager”界面,检查界面是否显示“The platform is healthy”。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

17.5.4.2 There are offline or missing virtual drives with preserved cache

问题描述

进入“Driver Healthy Protocol Utility”界面后,显示“There are offline or missing virtual drives with preserved cache”。

处理方法

选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

                                步骤 1     输入任意内容,选择“Yes”并按“Enter”。

提示Critical Message handling completed. Please exit

                                步骤 2     按“Esc”键返回到“Device Manager”界面。

                                步骤 3     选择“Avago MegaRAID SAS 9460-16i Configuration Utility”并按“Enter”。

进入“Configuration Utility”界面。

                                步骤 4     选择“Discard Preserved Cache”并按“Enter”。

弹出操作确认对话框。

                                步骤 5     选择“Confirm”并按“Enter”。

                                步骤 6     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 7     选择“OK”并按“Enter”。

                                步骤 8     重启服务器。

                                步骤 9     进入“Device Manager”界面,检查界面是否显示The platform is healthy

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

17.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

问题描述

17-72所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”

图17-72 状态显示

 

处理建议

该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:

l     下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。

l     忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:

a.     17-72中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

b.     输入“c”并按“Enter”。

c.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

d.     输入“y”并按“Enter”。

提示Critical Message handling completed. Please exit

e.     按“Esc”退出当前界面。

弹出确认保存配置会话框,如17-73所示。

图17-73 提示保存会话框

 

f.     按“Y”保存配置,操作完成。

g.     Esc键返回“Device Manager”界面。

h.     选择控制卡并按“Enter”,进入控制卡管理界面。

17.5.4.4 Memory/battery problems were detected

问题描述

进入“Driver Healthy Protocol Utility”界面后,显示“Memory/battery problems were detected. The adapter has recovered, but cached data was lost”。

处理方法

选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

                                步骤 1     输入任意内容,选择“Yes”并按“Enter”。

提示“Critical Message handling completed. Please exit”。

                                步骤 2     重启服务器,进入“Device Manager”界面,检查界面是否显示“The platform is healthy”。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

17.5.4.5 Disabling writes to flash as the flash part has gone bad

问题描述

17-74所示,进入“Driver Healthy Protocol Utility”界面后,显示“Disabling writes to flash as the flash part has gone bad”。

图17-74 状态显示

 

处理方法

将服务器下电。

                                步骤 1     更换RAID控制卡。

                                步骤 2     将服务器上电,导入外部配置恢复原来的RAID配置,请参见17.4.9 导入和清除外部配置17.7.2.30 查看/导入/清除外部配置

检查提示是否清除。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

17.5.5 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死

问题描述

硬盘响应命令超时,控制卡会对硬盘进行复位。3次复位后尚未恢复时将可能耗尽控制卡TMTask Management)资源,触发Fatal error,此时会通过OCROnline Controller Reset)自愈恢复,期间将有短时间业务中断(约30s60s),控制卡复位后会完成踢盘,将故障硬盘置为Ubad状态。

控制卡自愈恢复,需要开启OCR开关。

触发条件

当下发到硬盘的I/O出现超时不响应的情况时,RAID控制卡会通过reset硬盘来恢复,正常情况下,硬盘会重新接入或者多次reset之后会进行踢盘。

当出现reset之后硬盘仍然无法响应RAID控制卡指令且无法踢盘时,RAID控制卡会再次reset进行复位,每次reset会占用RAID控制卡资源,短时间内多次reset会导致RAID控制卡资源耗尽,该场景下,RAID控制卡会通过重新加载FW进行恢复。

该机制为此类卡的正常处理机制,由于架构限制,无法进行优化。

识别方法

l     已安装OS

当遇到短时间业务中断,恢复后查看有被置为Ubad状态的硬盘时,可以查看控制卡日志,搜索dm.c并查看其发生时间,如与业务中断时间节点接近,即可断定为触发了该机制。

注意控制卡与OS时间差。

l     未安装OS

OS时,触发该机制的操作为:从“Advanced”页签进入控制卡界面。若触发该机制,进入控制卡卡操作界面时将会卡住,无法恢复。

处理方法

定位故障硬盘。

l     已安装OS

     如确认触发了该机制并且已经完成了踢盘,需要更换Ubad状态的硬盘。

     如无Ubad状态的硬盘,查看日志并搜索“indicates critical condition”,目标行的“element xx indicates critical condition”中,“xx”即为问题硬盘的槽位号。

已安装OS,但是进入“Advanced”页签的控制卡操作界面卡住,需要重新上下电进入OS,按照以上方式定位故障硬盘。

l     未安装OS

系统未安装OS,出现该异常时,保留预安装OS RAID组数目的硬盘,将其他硬盘拔出并记录槽位号,如成功安装OS进入系统后,按照已安装OS的操作来确认问题硬盘。

                                步骤 1     更换故障硬盘。

l      => 处理完毕。

l      => 请联系技术支持。

----结束

17.5.6 Controller Mode恢复为RAID

问题描述

RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD modeRAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如17-75所示,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。

图17-75 问题描述

 

当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。

处理方法

(可选)登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Management界面,如17-76所示。

图17-76 Advanced Controller Management界面

 

                                步骤 2     选择“Switch to RAID mode”并按“Enter”。

提示操作成功,如17-77所示。

图17-77 操作成功

 

                                步骤 3     选择“OK”并按“Enter”。

返回到“Advanced Controller Management”界面,显示正在切换模式,如17-78所示。

图17-78 Advanced Controller Management界面

 

                                步骤 4     按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面

                                步骤 5     依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如17-79所示。

图17-79 Advanced Controller Management界面

 

l      => 处理完毕。

l      => 请联系技术支持。

----结束

17.5.7 删除Preserved Cache

问题描述

l     无法创建RAID组。

l     进入控制卡主界面后,显示“Discard Preserved Cache”,如17-80所示。

图17-80 控制卡主界面

 

处理方法

进入控制卡主界面。

                                步骤 1     选择“Discard Preserved Cache”并按Enter

弹出操作确认界面,如17-81所示。

图17-81 操作确认窗口

 

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示“The operation has been performed successfully”即操作成功。

----结束

17.6 管理界面介绍

17.6.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如17-82所示界面时,按“Delete”,进入输入密码界面。

图17-82 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如17-83所示界面。

图17-83 Setup Utility界面

 

                                步骤 4     通过“”或“→ ”进入“Advanced”页签,如17-84所示。

图17-84 “Advanced”页签

 

如果Device Manager界面显示“Some drivers are not healthy”,请参见17.5.4 Device ManagerRAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择“Avago MegaRAID SAS 9460-16i Configuration Utility”,按“Enter”。

进入如17-8517-86所示主界面,界面参数如17-23所示。

图17-85 9460-16i主界面(1

 

图17-86 9460-16i主界面(2

 

表17-23 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

当存在外部配置时才会显示该选项。

Configure

提供创建RAID,快速创建RAID,查看硬盘组属性,清除当前所有RAID配置,管理外部配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

Silence Alarm

板载蜂鸣器的使能状态。

说明

9460-16i未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

17.6.2 Main Menu

RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。

界面介绍

Main Menu”界面如17-87,参数说明如17-24所示。

图17-87 Main Menu

 

表17-24 参数说明

参数

参数说明

Configuration Management

配置管理RAID

Controller Management

管理RAID控制卡。

Virtual Drive Management

管理虚拟磁盘。

Drive Management

管理硬盘。

Hardware Components

查询部件信息。

 

17.6.2.1 Configuration Management

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

Configuration Management”界面如17-88,参数说明如17-25所示。

图17-88 Configuration Management

 

表17-25 参数说明

参数

参数说明

Auto Configure RAID 0

自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0

Create Virtual Drive

创建RAID

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Make JBOD

硬盘直通功能,硬盘不加入RAID,直接使用。

Make Unconfigured Good

将硬盘从JBOD状态设置为“Unconfigured Good”状态。

当存在直通盘时显示该参数。

Clear Configuration

清除当前所有RAID配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时才会显示该选项。

 

清除RAID配置

选择“Clear Configuration”并按“Enter”。

进入操作确认界面。

                                步骤 1     选中“Confirm”并按“Enter”。

                                步骤 2     在打开的列表中选择“Enabled”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 4     按“Enter”。

配置完成。

----结束

快速创建RAID

通过“↑”、“↓”选择要创建的RAID(以“Generic RAID 0”为例)并按“Enter”。

打开RAID配置界面,如17-89,参数说明如17-26所示。

图17-89 RAID配置界面

 

表17-26 参数说明

参数

说明

Drive Selection Criteria

系统自动选择的成员盘。

Virtual Drive Name

系统自定义的RAID组名称。

RAID Level

当前配置的RAID组的级别。

Virtual Drive Size

RAID组的容量。

Power Save Mode

数据掉电保护模式。

Strip Size

RAID组扇区大小。

Read Policy

RAID组的数据读策略。

Write Policy

RAID组的数据写策略。

IO Policy

RAIDI/O策略。

Access Policy

数据读写的策略。

Drive Cache

硬盘Cache策略。

Default Initialization

RAID组默认的初始化方式。

说明

快速创建RAID 0时,出现该选项。初始化类型默认为Fast且不可更改。

Create Dedicated Hot Spare

是否为RAID组创建一块局部热备盘。

说明

快速创建RAID156时,出现该选项

Save Configuration

保存当前配置。

 

                                步骤 2     17-26所示查看或配置相关参数。

                                步骤 3     选择“Save Configuration”并按“Enter”。

弹出操作成功提示界面。

                                步骤 4     按“Enter”。

----结束

查看硬盘组属性

17-88中选择“View Drive Group Properties”并按“Enter”。

打开的界面如17-90,参数说明如17-27所示。

图17-90 View Drive Group Properties

 

表17-27 参数说明

参数

参数说明

Drive Group

硬盘组名称。

Capacity Allocation

硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。

 

----结束

17.6.2.2 Controller Management

该界面提供控制卡管理接口,可查看并修改控制卡的详细参数。

界面介绍

Controller Management”界面如17-9117-92所示,参数说明如17-28所示。

图17-91 Controller Management1

 

图17-92 Controller Management2

 

表17-28 参数说明

参数

参数说明

Product Name

控制标卡名称。

Serial Number

控制标卡序列号。

Controller Status

控制标卡的工作状态。

Personality Mode

RAID控制卡的模式。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。

PCI ID

控制标卡的PCI ID

PCI Slot Number

控制标卡的PCI槽位号。

Package Version

控制标卡的套件版本。

Firmware Version

控制标卡的固件版本号。

NVDATA Version

控制标卡配置信息的版本号。

Drive Count

控制标卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

管理控制卡高级功能。

Advanced Controller Properties

查看和修改控制卡的高级属性。

 

更多控制卡操作

17-91中选择“Advanced Controller Management”并按“Enter”。

界面如17-93所示,界面中参数说明如17-29所示。

图17-93 Advanced Controller Management

 

表17-29 参数说明

参数

说明

Clear Controller Events

清除控制卡的事件日志。

Save Controller Events

保存控制卡的事件日志。

Save TTY Log

保存终端操作日志。

Manage SAS Storage  Link Speed

管理RAID控制卡接口速率。

Manage MegaRAID Advanced Software Options

管理高级软件功能。

Schedule Consistency Check

设置一致性校验参数。

Set Factory Defaults

恢复为出厂配置。

Manage Personality Mode

设置RAID控制卡当前的工作模式。

Manage Controller Profiles

查看和管理控制卡的配置文件。

 

----结束

查看并修改控制卡高级属性

17-91中选择“Advanced Controller Properties”并按“Enter”。

界面如17-9417-95所示,界面中参数说明如17-30所示。

图17-94 Advanced Controller Properties1

 

图17-95 Advanced Controller Properties2

 

表17-30 参数说明

参数

说明

Cache and Memory

查看控制卡CacheMemory信息。

Patrol Read

系统巡检。

Power Save Settings

设置节能功能。

Spare

热备属性设置。

Task Rates

设置各种任务占用系统比率。

Alarm Control

9460-16i未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

容量对齐的模式。包括:

l     None

l     128MB

l     1GB

默认为“1GB”。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errrors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。

默认为“Pause on Errors”。

Controller BIOS

控制卡BIOS的使能情况。

ROC Temperature

控制卡温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见17.4.9 导入和清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

JBOD Mode

硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。

Write Verify

写校验。

Drive Detection Type

随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制卡属性。

可用选项为:

l     Disabled

l     High Latency

l     Aggressive

l     Default

Drive Corrective Action

随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致I/O延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。

l     Disabled:禁用该功能

l     Enabled:开启该功能

Drive Error Threshold

通过该选项设置适当的控制卡属性。

l     Every 8 hours

l     Every1 hours

l     Every 15 mins

l     Every 5 mins

Large IO Support

启用或禁用大型I/O支持功能。

Unmap Capability

解除映射能力。

Apply Changes

保存配置。

 

                                步骤 2     17-94中选择“Task Rates”并按“Enter”。界面如17-96所示,界面中参数说明如17-31所示。

图17-96 Task Rates

 

表17-31 参数说明

参数

说明

Background Initialization <BGI> Rate

设置执行后台初始化的速率。

说明

数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Consistency Check Rate

设置执行一致性校验的速率。

说明

数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Patrol Read Rate

设置执行巡检读取的速率。

说明

数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Rebuild Rate

设置硬盘发生故障时在新硬盘上执行重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Reconstruction Rate

设置执行RAID级别迁移或在线容量扩展时重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Apply Changes

保存配置。

 

                                步骤 3     按照17-30所述修改控制卡的高级属性参数。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     单击“OK”完成配置。

----结束

17.6.2.3 Virtual Drive Management

该界面提供虚拟磁盘的查询和管理接口。

界面介绍

Virtual Drive Management”界面如17-97,显示虚拟磁盘列表。

图17-97 Virtual Drive Management

 

选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如17-98所示,参数说明如17-32所示。

图17-98 虚拟磁盘操作界面

 

表17-32 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:定位虚拟磁盘的所有硬盘。

l     Stop Locate:取消定位。

l     Delete Virtual Drive:删除虚拟磁盘。

l     Expand Virtual Drive:扩展虚拟磁盘容量。

l     Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。

l     Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。

l     Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。

l     Fast Initialization:快速初始化虚拟磁盘。

l     Slow Initialization:安全初始化虚拟磁盘。

l     Check Consistency:一致性校验。

l     Virtual Drive Erase:格式化虚拟磁盘。

Progress

当前任务进度。

l     仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。

l     当前界面不会自动刷新,需退出后重新进入查看当前进度。

Stop

停止当前任务。

仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。

Name

虚拟磁盘名称。

Raid Level

虚拟磁盘RAID级别。

Status

虚拟磁盘当前运行状态。

Size

虚拟磁盘容量。

View Associated Drives

查看成员盘属性。

Advanced...

查看虚拟磁盘高级属性。

 

查看成员盘属性

17-98中选择“View Associated Drives”并按“Enter”。

界面如17-99,显示成员盘列表。

图17-99 View Associated Drives

 

                                步骤 2     选择要查看的成员盘并按“Enter”。

                                步骤 3     选择“View Drive Properties”并按“Enter”。

进入硬盘属性界面,如17-100界面所示,界面参数如17-33所示。

图17-100 View Drive Properties

 

表17-33 参数说明

参数

参数说明

Operation

该成员盘可执行的操作,包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Place Drive Online/Offline:将硬盘上线/离线。

Drive ID

成员盘的ID

Connection

硬盘接口。

Enclosure Position

机箱或背板的位置。

Slot Number

硬盘的槽位号。

Status

成员盘的当前工作状态。

Size

成员盘的容量。

Type

成员盘类型。

Model

成员盘的模块类型。

Serial Number

成员盘的序列号。

Associated Virtual Drive

成员盘所在的虚拟磁盘。

Advanced...

查询成员盘更多属性。

 

----结束

查看和修改虚拟磁盘高级属性

17-98中选择“Advanced...”并按“Enter”。

界面如17-10117-102所示,界面参数如17-34所示。

图17-101 Advanced 1

 

图17-102 Advanced 2

 

表17-34 参数说明

参数

参数说明

Parity Size

奇偶校验大小。

Logical Sector Size

逻辑扇区大小。

Strip Size

条带大小。

Starting Logical Block Addressing

逻辑单元起始地址。

Emulation Type

控制逻辑盘在OS中上报的扇区。

当成员盘为512B/512B时:

l     Default:逻辑盘扇区为512B/512B

l     None:逻辑盘扇区为512B/512B

l     Force:逻辑盘扇区为512B/4KB

当成员盘为512B/4KB时:

l     Default:逻辑盘扇区为512B/4KB

l     None:逻辑盘扇区为512B/512B

l     Force:逻辑盘扇区为512B/4KB

Bad Blocks

是否支持坏块处理。

SSD Caching

是否支持SSD Caching

Access

是否支持Access

Current Write Cache Policy

当前写Cache策略,包括:

l     Write Through:当硬盘子系统接收到所有传输数据后,RAID控制标卡将给主机返回数据传输完成信号。

l     Write Back:当RAID控制标卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Always Write Back:当未配置超级电容或超级电容故障时,RAID控制标卡将不会自动切换到Write Through模式。

说明

“Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR的写数据将会丢失。不推荐使用该模式。

Default Write Cache Policy

默认的写Cache策略。

Disable Background Initialization

是否禁用后台初始化。

Read Cache Policy

当前读Cache策略,包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。RAID控制标卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

Drive Cache

设置硬盘cache状态。

Input/Output

I/O读取策略,包括:

l     Direct:直接从硬盘读取数据,不经过Cache缓存。

l     Cached:从Cache缓存中读取数据。

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Apply Changes

保存配置。

 

                                步骤 2     按照17-34所述配置“Advanced”的参数。

                                步骤 3     选择“Apply Changes”并按“Enter”。

显示The operation has been performed successfully

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

17.6.2.4 Drive Management

该界面显示硬盘基本属性,提供硬盘操作接口。

界面介绍

Drive Management”界面如17-103所示,显示硬盘列表。

图17-103 Drive List

 

硬盘的标识信息说明如下:

l     ①表示RAID控制卡的Port口编号,其中Drive C0/Drive Port A表示RAID控制卡的Port A口,Drive C1/Drive Port B表示RAID控制卡的Port B口。

l     ②表示机箱或背板的位置ID

l     ③表示硬盘槽位号。

l     ④表示硬盘类型。

l     ⑤表示硬盘的容量。

l     ⑥表示硬盘的状态。

l     ⑦表示硬盘的扇区大小。

选定要操作的硬盘并按“Enter”进入详细操作界面,如17-104所示,参数说明如17-35所示。

图17-104 Drive Management

 

表17-35 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Initialize Drive:硬盘初始化。

l     Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。

     Simple:仅对硬盘进行一轮擦除动作。

     Normal:对硬盘进行三轮擦除动作。

     Thorough:对硬盘进行九轮擦除动作。

     Stop Erase:停止数据擦除操作。

l     Make Unconfigured Good/Bad:修改硬盘状态。

l     Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。

l     Assign Global Hot Spare Drive:设置全局热备盘。

l     Assign Dedicated Hot Spare Drive:设置局部热备盘。

l     Unassign Hot Spare Drive:删除热备盘。

l     Place Drive Online:将Offline状态的硬盘设置为Online

说明

l     Place Drive Online操作仅仅只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。

l     对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。

Drive ID

硬盘的ID

Connection

硬盘接口。

Enclosure Position

机箱或背板的位置。

Slot Number

硬盘的槽位号。

Status

硬盘的当前工作状态。

Size

硬盘的容量。

Type

硬盘的类型。

Model

硬盘型号。

Serial Number

硬盘的序列号。

Advanced...

查询更多硬盘属性。

 

安全擦除硬盘数据

该操作会删除硬盘上的数据,请谨慎执行。

将“Operation”设置为“Drive Erase”。

                                步骤 1     选择“Erase Mode”并按“Enter”。

                                步骤 2     在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。

                                步骤 3     选择“Go”并按“Enter”。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示操作成功。

----结束

查看硬盘属性

选择“Advanced...”并按“Enter”。

打开硬盘属性界面,如17-10517-106所示,参数说明如17-36所示。

图17-105 Drive Properties 1

 

图17-106 Drive Properties 2

 

表17-36 参数说明

参数

参数说明

Certified

是否通过认证。

Logical Sector Size

逻辑扇区大小。

Physical Sector Size

物理扇区大小。

SMART Status

SMART功能是否使能。

Revision

硬盘Firmware版本。

Media Error

Media error个数。

Predicted Fail Count

Pred fail个数。

SAS Address

硬盘SAS地址。

Drive Power State

硬盘上电状态。

Cache Setting

是否可设置Cache

Disk Protocol

硬盘支持的协议。

Device Speed

设备速率。

Negotiated Drive Transfer Speed

硬盘数据传输速率。

Number of Connections

连接器个数。

FDE Capable

硬盘是否支持FDEFull Disk Encryption)技术。

Cryptographic Erase Capable

硬盘的加密擦除能力。

Unmap Capable

解除映射能力。

Unmap Capability for Configuration

取消映射配置功能。

Temperature

硬盘温度。

 

17.6.2.5 Hardware Components

该界面主要提供RAID控制卡传感器信息。

界面介绍

Hardware Components”界面如17-107,参数说明如17-37所示。

图17-107 Hardware Components

 

表17-37 参数说明

参数

参数说明

Battery Status

电容的工作状态。

Battery Management

电容管理。

Enclosure Management

查看更多传感器信息。

 

17.6.3 View Server Profile

提供RAID控制卡操作管理接口。

界面介绍

View Server Profile”界面如17-108所示,参数说明如17-38所示。

图17-108 View Server Profile

 

表17-38 参数说明

参数

参数说明

UEFI Spec Version

服务器支持的UEFI Spec版本。

Controller Management

提供控制卡管理接口,详细情况请参见17.6.2.2 Controller Management

Hardware Components

提供控制卡部件查询接口,详细情况请参见17.6.2.5 Hardware Components

Drive Management

提供硬盘管理接口,详细情况请参见17.6.2.4 Drive Management

Virtual Drive Management

提供虚拟磁盘管理接口,详细情况请参见17.6.2.3 Virtual Drive Management

 

17.6.4 Manage Foreign Configuration

该界面可查看、导入、清空外部配置。

界面介绍

Manage Foreign Configuration”界面如17-109所示。

图17-109 Manage Foreign Configuration

 

查看并导入外部配置

选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如17-110所示。

图17-110 外部配置

 

                                步骤 2     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     单击“OK”完成配置。

----结束

清除外部配置

选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     单击“OK”完成配置。

----结束

17.6.5 Configure

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

Configure”界面如17-111所示,参数说明如17-39所示。

图17-111 Configure

 

表17-39 参数说明

参数

参数说明

Auto Configure RAID 0

自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0

Create Virtual Drive

创建RAID

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Make JBOD

硬盘直通功能,硬盘不加入RAID,直接使用。

Make Unconfigured Good

配置硬盘状态。

Clear Configuration

清除当前所有RAID配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时才会显示该选项。

 

清除当前配置

选择“Clear Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     单击“OK”完成配置。

----结束

17.6.6 Set Factory Defaults

恢复出厂配置

在主界面选择“Set Factory Defaults”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     单击“OK”完成配置。

----结束

17.6.7 Update Firmware

该界面提供固件升级接口。

界面介绍

Update Firmware”界面如17-112所示,参数说明如17-40所示。

图17-112 Update Firmware界面

 

表17-40 参数说明

参数

参数说明

Select File System

选择使用的文件系统。

Select Directory

选择文件存放路径。可选路径包括:

Current Dir:当前路径

EFI:自适应路径

Select Image

选择要加载的文件。

 

升级固件

l     进行固件升级时,必须使用FAT12FAT16FAT32格式的介质。

l     仅检查支持EFI_SIMPLE_FILE_SYSTEM_PROTOCOL的文件系统。

l     FW镜像文件必须位于根目录或根目录的下一个级别才能进行访问。

按照17-40所述配置升级参数。

                                步骤 1     选择“Update”并按“Enter”。

打开操作确认界面。

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     在列表中选择“Enable”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     单击“OK”完成配置。

----结束

17.6.8 Manage MegaRAID Advanced Software Options

该界面提供RAID控制卡高级软件特性查看和导入接口。

界面介绍

Manage MegaRAID Advanced Software Options”界面如17-113所示,界面中参数说明如17-41所示。

图17-113 Manage MegaRAID Advanced Software Options

 

表17-41 参数说明

参数

说明

SAFE ID

RAID控制卡的安全编码。

Serial Number

RAID控制卡序列号。

Activation Key

待激活的高级特性的Key

Active

激活高级特性。

9460-16i不支持高级特性的激活操作,该功能无效。

Deactive All Trail Software

注销当前所有高级特性。

 

17.6.9 Exit

退出配置界面。

退出配置界面

1.     在主界面按“ESC”,显示如17-114所示“Advanced”界面。

图17-114 Device Manager

 

2.     按“Esc”退出配置界面。

17.7 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

17.7.1 下载和安装StorCLI工具

下载工具

登录BROADCOM网站上RAID控制卡的页面

                                步骤 1     在“DOWNLOADS”页签中单击“Management Software and Tools”。

打开管理软件和工具列表。

                                步骤 2     下载最新版本的“StorCLI”工具。

                                步骤 3     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 1     Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。

StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

17.7.2 常用命令

17.7.2.1 查询RAID控制卡配置信息

命令功能

查询9460-16i的基本配置信息。

命令格式

storcli64 /ccontroller_id show

参数说明

参数

参数说明

取值

controller_id

控制卡ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

 

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡配置信息。

[root@localhost ~]# ./storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
Controller = 0
Status = Success
Description = None
 
Product Name = AVAGO MegaRAID SAS 9460-16i
Serial Number = SP90207195
SAS Address =  500062b20452edc0
PCI Address = 00:d8:00:00
System Time = 07/16/2020 05:16:46
Mfg. Date = 01/19/19
Controller Time = 07/16/2020 09:16:45
FW Package Build = 50.6.3-0109
BIOS Version = 7.06.02.2_0x07060502
FW Version = 5.060.00-2262
Driver Name = megaraid_sas
Driver Version = 07.705.02.00-rh1
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x14
SubVendor Id = 0x1000
SubDevice Id = 0x9460
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 216
Device Number = 0
Function Number = 0
Drive Groups = 1
 
TOPOLOGY :
========
 
---------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT     Size PDC  PI SED DS3  FSpace TR
---------------------------------------------------------------------------
 0 -   -   -        -   RAID1 Optl  N  3.637 TB dflt N  N   none N      N
 0 0   -   -        -   RAID1 Optl  N  3.637 TB dflt N  N   none N      N
 0 0   0   65:2     6   DRIVE Onln  N  3.637 TB dflt N  N   none -      N
 0 0   1   65:3     4   DRIVE Onln  N  3.637 TB dflt N  N   none -      N
---------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 1
 
VD LIST :
=======
 
-----------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC     Size Name
-----------------------------------------------------------------
0/0   RAID1 Optl  RW     No      RWBD  -   ON  3.637 TB RAID1_OS
-----------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 14
 
PD LIST :
=======
 
-------------------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model               Sp Type
-------------------------------------------------------------------------------
65:0      2 UGood -  1.090 TB SAS  HDD N   N  512B ST1200MM0009        D  -
65:1      3 UGood -  1.090 TB SAS  HDD N   N  512B ST1200MM0009        D  -
65:2      6 Onln  0  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 U  -
65:3      4 Onln  0  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 U  -
65:4      8 UGood -  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 D  -
65:5     13 UGood -  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 D  -
65:6     10 UGood -  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 D  -
65:7      5 UGood -  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 D  -
65:8     12 UGood -  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 D  -
65:9     15 UGood -  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 D  -
65:10    14 UGood -  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 D  -
65:11     9 UGood -  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 D  -
65:12     7 UGood -  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 D  -
65:13    11 UGood -  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 D  -
-------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Cachevault_Info :
===============
 
------------------------------------
Model  State   Temp Mode MfgDate
------------------------------------
CVPM05 Optimal 31C  -    2019/06/24
------------------------------------

17.7.2.2 创建和删除RAID

命令功能

创建、删除RAID

命令格式

命令

说明

storcli64 /ccontroller_id add vd rlevel[0|1|5|6|10|50|60] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [wt|*wb|awb] [nora|*ra] [Strip=<8|16|32|64|128|256|1024>] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid]

创建RAID

storcli64 /ccontroller_id/vraid_id del

删除RAID

 

*表示默认值。

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

rlevel

要配置的RAID组级别

level可为0156105060,数字分别代表对应的RAID组级别。

size

要配置的RAID组容量

默认值为all,即所有成员盘的容量之和。

name

要配置的RAID组名称

-

drives

要加入RAID组的硬盘

-

startid-endid

硬盘的起始和结束ID

-

slot_id

硬盘ID

-

pdperarray

子组中的硬盘数

创建RAID10RAID50RAID60时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。

-

pdcache

设置RAID的成员盘的Cache状态

l     on

l     off

l     default

pi

使能数据保护

-

wrcache

设置RAID组的写Cache属性,完整的命令为wrcache=wt|wb|awb,这里“wrcache=”可省略

l     wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”模式。

rdcache

设置RAID组的读Cache属性,完整的命令为rdcache=ra|nora,这里“rdcache=”可省略。

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     noraRAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

Strip

设置RAID组条带大小

MR卡:64, 128, 256, 512, 1024

iMR卡:只能为64

单位为KB

EmulationType

控制逻辑盘在OS中上报的扇区

l     0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     1: Disable,即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     2Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Spares

指定RAID组的热备盘

-

raid_id

要删除的RAID组的ID

-

 

l     以上涉及的各个ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

l     当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid

使用指南

使用实例

# 创建RAID 0

[root@localhost ~]# ./storcli64 /c0 add vd r0 size=100GB drives=64:9,10
Controller = 0
Status = Success
Description = Add VD Succeeded

# 删除RAID

domino:~# ./storcli64 /c0/v0 del
Controller = 0
Status = Success
Description = Delete VD Succeeded

17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

命令功能

查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。

命令格式

storcli64 /ccontroller_id show

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

storcli64 /ccontroller_id/vvd_id show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

enclosure_id

硬盘所在EnclosureID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡连接的硬盘背板的ID

slot_id

物理硬盘槽位编号

可以将该参数设置为all,表示查询所有硬盘的ID

vd_id

虚拟磁盘ID

可以为all,表示查询所有虚拟磁盘信息。

 

使用指南

使用实例

# 查询VD 0的信息。

domino:~# ./storcli64 /c0/v0 show
Controller = 0
Status = Success
Description = None
Virtual Drives :
==============
---------------------------------------------------------
DG/VD TYPE State Access Consist Cache sCC Size Name
---------------------------------------------------------
0/0 RAID1 Optl RW Yes RWBD - 100.0 GB
---------------------------------------------------------
Cac=CacheCad|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded Optl=Optimal|RO=Read
OnlyRW=Read Write|HD=Hidden|B=Blocked|Consist=Consistent|AWB=Always WriteBack|WT=WriteThrough|
C=Cached IOID=Direct IO|sCC=Scheduled Check Consistency

17.7.2.4 查询和设置Patrolread参数

命令功能

查询和设置系统巡检的相关参数。

命令格式

storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number

storcli64 /ccontroller_id set patrolread delay=delaytime

storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}

storcli64 /ccontroller_id show patrolread

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

系统巡检起始时间

例如:2016/07/15 23

说明

起始时间单位为

number

可同时巡检的硬盘数量

delaytime

系统巡检周期

单位为hour

 

查看RAID控制卡ID的方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。

domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
--------------------------------------- 
Ctrl_Prop          Value 
--------------------------------------- 
PR Starttime       2016/07/15 23:00:00 
PR MaxConcurrentPd 2 
---------------------------------------

# 使能patrolread并设置为自动模式。

domino:~# ./storcli64 /c0 set patrolread=on mode=auto
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
--------------------------------------- 
Ctrl_Prop        Value 
--------------------------------------- 
Patrol Read Mode auto 
---------------------------------------

# 查询patrolread信息。

domino:~# ./storcli64 /c0 show patrolread
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
-------------------------------------------- 
Ctrl_Prop          Value 
-------------------------------------------- 
PR Mode       2016/07/15 23:00:00 
PR Execution Delay 
PR iterations completed 0 
PR Next Start time      07/16/2016,00:00:00 
PR on SSD               Disabled 
PR Current State        Stopped 
--------------------------------------------

17.7.2.5 查询和设置Spinup参数

命令功能

查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。

命令格式

storcli64 /ccontroller_id show spinupdelay

storcli64 /ccontroller_id show spinupdrivecount

storcli64 /ccontroller_id set spinupdelay=time

storcli64 /ccontroller_id set spinupdrivecount=count

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

每组起转硬盘间的时间间隔

默认为2,单位为s

count

上电时允许同时起转的硬盘数量

默认为4

 

查看RAID控制卡ID的方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡Spinup参数。

[root@localhost ~]# ./storcli64 /c0 show spinupdelay
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop     Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
 
[root@localhost ~]# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop           Value
--------------------------
Spin Up Drive Count 2
--------------------------

# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。

domino:~# ./storcli64 /c0 set spinupdelay=20
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 20 second(s)
--------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 5
--------------------------

17.7.2.6 查询和设置硬盘数据擦除功能

命令功能

设置物理硬盘数据擦除模式,查询擦除进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

mode

数据擦除模式

l     simple:对硬盘进行一轮擦除动作。

l     normal:对硬盘进行三轮擦除动作。

l     thorough:对硬盘进行九轮擦除动作。

 

以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# slot 3硬盘进行simple数据擦除,并查询擦除进度。

domino:~# ./storcli64 /c0/e252/s3 start erase simple
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.

17.7.2.7 查询和设置RAID后台初始化

命令功能

暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。

命令格式

storcli64 /ccontroller_id/vraid_id action bgi

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

action

后台初始化的操作

l     show:查看后台初始化进度

l     pause:暂停后台初始化

l     resume:继续后台初始化

l     stop:停止后台初始化

 

以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查看后台初始化进度。

[root@localhost ~]# ./storcli64 /c0/v0 show bgi
Controller = 0
Status = Success
Description = Noe
 
VD Operation Status :
===================
 
------------------------------------------------------
VD Operation Progress% Staus      Estimated Time Left
------------------------------------------------------
 0 BGI               3 In progress 53 Minutes
------------------------------------------------------

17.7.2.8 查询和设置CacheFlush参数

命令功能

查询和设置Cache的刷新周期。

命令格式

storcli64 /ccontroller_id show cacheflushint

storcli64 /ccontroller_id set cacheflushint time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

Cache的刷新周期

单位为s

 

查看RAID控制卡ID的方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置Cache的刷新周期为“10”。

domino:~# ./storcli64 /c0 set cacheflushint=10
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10 sec
---------------------------

# 查询Cache的刷新周期。

domino:~# ./storcli64 /c0 show cacheflushint
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10
---------------------------

17.7.2.9 查询和设置物理硬盘初始化功能

命令功能

设置物理硬盘初始化功能,查询初始化进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看初始化进度

l     start:开始初始化

l     stop:结束初始化

 

以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 初始化slot3硬盘,并查询初始化进度。

[root@localhost ~]# ./storcli64 /c0/e64/s3 start initialization
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
 
[root@localhost ~]# ./storcli64 /c0/e64/s3 show initialization
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e64/s3         0 In progress 0 Seconds
-----------------------------------------------------

17.7.2.10 查询和设置RAID重构

命令功能

开始、暂停、继续、停止RAID重构,并查询进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

action

要执行的操作

l     start:开始重构

l     show:查看重构进度

l     pause:暂停重构

l     resume:继续重构

l     stop:停止重构

 

查看RAID控制卡ID的方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 手动开始重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

# 查看硬盘当前重构状态。

[root@localhost ~]# ./storcli64 /c0/e70/s7 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e70/s7         5 In progress 26 Minutes
-----------------------------------------------------

# 暂停硬盘重构进程。

[root@localhost ~]# ./storcli64 /c0/e70/s7 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Succeeded.

# 继续重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 resume rebuild
Controller = 0
Status = Success
Description = Resume Drive Rebuild Succeeded.

# 停止重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 stop rebuild
Controller = 0
Status = Success
Description = Stop Drive Rebuild Succeeded.

17.7.2.11 查询和设置回拷

命令功能

开始、暂停、继续、停止回拷,并查询进度。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id start copyback target=target_enclosure_id:target_slot_id

开始回拷。

storcli64 /ccontroller_id/eenclosure_id/sslot_id action copyback

暂停、继续、查看、停止回拷。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

target_enclosure_id

执行回拷的目标硬盘所在EnclosureID

-

target_slot_id

执行回拷的目标物理硬盘槽位编号。

-

action

要执行的操作

l     show:查看回拷进度

l     pause:暂停回拷

l     resume:继续回拷

l     stop:停止回拷

 

查看RAID控制卡ID的方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 手动开始回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s7 start copyback target=70:3
Controller = 0
Status = Success
Description = Start Drive Copyback Succeeded.

# 查看硬盘当前回拷状态。

[root@localhost ~]# ./storcli64 /c0/e70/s3 show copyback
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e70/s3        17 In progress 16 Minutes
-----------------------------------------------------

# 暂停硬盘回拷进程。

[root@localhost ~]# ./storcli64 /c0/e70/s3 pause copyback
Controller = 0
Status = Success
Description = Pause Drive Copyback Succeeded.

# 继续回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s3 resume copyback
Controller = 0
Status = Success
Description = Resume Drive Copyback Succeeded.

# 停止回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s3 stop copyback
Controller = 0
Status = Success
Description = Stop Drive Copyback Succeeded.

17.7.2.12 查询和设置Smart扫描周期

命令功能

查询、设置Smart扫描周期。

命令格式

命令

说明

storcli64 /ccontroller_id set smartpollinterval=value

设置Smart扫描周期。

storcli64 /ccontroller_id show smartpollinterval

查询Smart扫描周期。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

value

Smart扫描周期

单位为s

 

查看RAID控制卡ID的方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置Smart扫描周期为“60s”。

domino:~# ./storcli64 /c0 set smartpollinterval=60
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------

17.7.2.13 查询和设置一致性校验参数

命令功能

查询、设置一致性检查参数。

命令格式

命令

说明

storcli64 /ccontroller_id[/vvd_id]show cc

查询一致性检查参数。

storcli64 /ccontroller_id/vvd_id start cc force

开始进行一致性检查。

storcli64 /ccontroller_id/vvd_id action cc

暂停/停止/继续执行一致性检查。

storcli64 /ccontroller_id set consistencycheck|cc=[off|seq|conc] [delay=value] starttime=time excludevd=evd_id

设置一致性自动检查参数。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

要操作的RAIDID

-

action

要执行的操作

l     pause:暂停

l     resume:继续执行

l     stop:停止

cc

将一致性检查设置为顺序模式或并行模式,或关闭一致性检查。

l     off:关闭一致性检查

l     seq:顺序模式

l     conc:并行模式

value

一致性检查周期

-

time

一致性检查起始时间

例如:2016/07/14 22

说明

起始时间单位为

evd_id

不进行一致性检查的虚拟磁盘ID

-

 

以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

show命令中不带/vvd_id时,表示查询自动CC参数。

show命令中带/vvd_id时,表示查询CC进度。

使用实例

# 设置一致性自动检查参数。

domino:~# ./storcli64 /c0 set cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------
Ctrl_Prop Value
------------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2016/07/14 22:00:00
CC ExcludeVD(0) Success
------------------------------------

# 查询CC进度。

domino:~# ./storcli64 /c0/v1 show cc
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimited Time Left
-----------------------------------------------------------
0 CC - Not in progress -
-----------------------------------------------------------

17.7.2.14 设置热备盘

命令功能

设置全局热备盘和局部热备盘。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive

设置全局热备盘。

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=<N|0,1,2..>]

设置局部热备盘。

storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive

删除热备盘。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

dgs

硬盘组的ID

l     不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘

l     0,1,2..:硬盘组ID

 

以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置slot 3硬盘为全局热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.

# 设置slot 3硬盘为vd0的局部热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive dgs=0
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.

17.7.2.15 设置启动项

命令功能

设置虚拟磁盘或物理硬盘为启动项。

命令格式

storcli64 /ccontroller_id/vvd_id set bootdrive=on

storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

vd_id

待设置的虚拟磁盘的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

 

以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置VD0为启动项。

[root@localhost ~]# ./storcli64 /c0/v0 set bootdrive=on
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
-----------------------------------------
VD Property   Value Status  ErrCd ErrMsg
-----------------------------------------
 0 Boot Drive On    Success     0 -
-----------------------------------------
 
 
 
[root@localhost ~]#

# 设置slot 7硬盘为启动项。

omino:~# ./storcli64 /c0/e252/s7 set bootdrive=on
Controller = 0 
Status = Success 
Description = Noe 
 
Controller Properties : 
===================== 
 
------------------- 
Ctrl_Prop Value 
------------------- 
BootDrive PD:252_7 
-------------------

17.7.2.16 设置硬盘状态

命令功能

设置硬盘状态。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

state

要设置的硬盘状态

l     online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。

l     offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。

l     jbod:通过该参数可以将硬盘设置为直通硬盘。

l     good

     ubad状态的硬盘,使用该参数可将硬盘设为ugoodforeign)状态,此时可选择导入或清除外来配置;

     JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。

l     good:将硬盘设为空闲盘

force

强制设置硬盘状态,为可选参数。

如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force

-

 

以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。

domino:~# ./storcli64 /c0/e0/s1 set good
Controller = 0 
Status = Success 
Description = Set Drive Good Succeeded.

# 设置slot 7硬盘为直通盘。

domino:~# ./storcli64 /c0/e252/s7 set JBOD
Controller = 0 
Status = Success 
Description = Set Drive JBOD Succeeded.

17.7.2.17 设置RAID组访问策略

命令功能

设置RAID的读写策略。

命令格式

storcli64 /ccontroller_id/vraid_id set accesspolicy=mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

mode

RAID读写策略

l     rw:可读可写

l     blocked:禁止访问

l     ro:只读访问

 

以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置RAID读写策略为“rw”。

[root@localhost ~]# ./storcli64 /c0/v0 set accesspolicy=rw
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
----------------------------------------
VD Property  Value Status  ErrCd ErrMsg
----------------------------------------
 0 AccPolicy RW    Success     0 -
----------------------------------------

17.7.2.18 设置硬盘Cache状态

命令功能

设置RAID组成员盘的Cache状态。

命令格式

storcli64 /ccontroller_id/vvd_id set pdcache=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

RAID组的ID

-

action

要执行的操作

l     on:打开硬盘Cache

l     off:关闭硬盘Cache

l     default:将硬盘Cache设置为默认状态

 

以上涉及的各个ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 打开ID0RAID组的硬盘Cache

./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
---------------------------------------
VD Property Value Status  ErrCd ErrMsg
---------------------------------------
 0 PdCac    On    Success     0 -
---------------------------------------

17.7.2.19 设置紧急热备功能

命令功能

设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。

命令格式

storcli64 /ccontroller_id set eghs eug=state

storcli64 /ccontroller_id set eghs smarter=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

state

紧急热备功能的启用状态

l     on:启用

l     off:禁用

 

查看RAID控制卡ID的方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。

[root@localhost ~]# ./storcli64 /c0 set eghs eug=on
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
------------------
Ctrl_Prop   Value
------------------
EmergencyUG ON
------------------
 
[root@localhost ~]# ./storcli64 /c0 set eghs smarter=on
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-----------------------
Ctrl_Prop        Value
-----------------------
EmergencySmarter ON
-----------------------

17.7.2.20 设置硬盘PowerSave功能

命令功能

设置空闲硬盘和热备盘的省电模式。

命令格式

storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

state

省电模式的启用状态。

l     on:启用

l     off:禁用

disktype

硬盘类型。

l     1:空闲硬盘

l     2:热备盘

time

等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。

单位为minutes

 

查看RAID控制卡ID的方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置空闲硬盘的省电模式。

[root@localhost ~]# ./storcli64 /c0 set ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
------------------------
Ctrl_Prop    Value
------------------------
SpnDwnUncDrv Enabled
SpnDwnTm     30 minutes
------------------------

17.7.2.21 设置后台资源占用率

命令功能

设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。

命令格式

storcli64 /ccontroller_id set action=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要设置的项目

l     bgirate:后台初始化速率

l     ccrate:一致性校验速率

l     prrate:硬盘巡检速率

l     rebuildrateRAID重构速率

l     reconrateRAID扩容和迁移速率

value

后台任务资源占用率

1100

 

查看RAID控制卡ID的方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置硬盘巡检速率为“30%”。

[root@localhost ~]#  ./storcli64 /c0 set prrate=30
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-----------------------
Ctrl_Prop        Value
-----------------------
Patrol Read Rate 30%
-----------------------

17.7.2.22 设置BIOS Stop on Error功能

命令功能

设置控制卡BIOS在检测到异常时停止继续启动的功能。

命令格式

storcli64 /ccontroller_id set bios mode=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要执行的操作

l     soe:控制卡BIOS在检测到异常时停止启动

l     ie:忽略检测到的异常

 

查看RAID控制卡ID的方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 开启Stop on error功能。

[root@localhost ~]# ./storcli64 /c0 set bios mode=soe
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------

17.7.2.23 设置RAID组的Cache读写策略

命令功能

设置RAID组的Cache读写策略。

命令格式

命令

说明

storcli64 /ccontroller_id/vraid_id set wrcache=wrmode

设置Cache写策略

storcli64 /ccontroller_id/vraid_id set rdcache=rdmode

设置Cache读策略

 

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAID组的ID

可以为all,表示所有RAID

wrmode

设置Cache写策略

l     wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”策略。

rdmode

设置Cache读策略

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     noraRAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

 

以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置Cache读写模式为“wt”。

[root@localhost ~]# ./storcli64 /c0/v0 set wrcache=wt
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
---------------------------------------
VD Property Value Status  ErrCd ErrMsg
---------------------------------------
 0 wrCache  WT    Success     0 -
---------------------------------------

17.7.2.24 设置RAID前台初始化模式

命令功能

设置RAID前台初始化模式。

命令格式

命令

说明

storcli64 /ccontroller_id/vraid_id start mode [Force]

开始进行RAID前台初始化。

storcli64 /ccontroller_id/vraid_id stop init

停止RAID前台初始化。

storcli64 /ccontroller_id/vraid_id show init

查询RAID前台初始化进度。

 

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAIDID

-

mode

前台初始化模式

l     init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。

l     init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。

Force

如果RAID组有用户数据,必须增加该参数进行初始化。

-

 

以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 快速初始化RAID

[root@localhost ~]# ./storcli64 /c0/v4 start init
Controller = 0
Status = Success
Description = Start INIT Operation Success

17.7.2.25 设置硬盘定位指示灯状态

命令功能

点亮和熄灭指定硬盘的定位指示灯。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。

slot_id

物理硬盘槽位编号

可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。

action

要执行的操作

l     start:点亮硬盘的定位指示灯。

l     stop:熄灭硬盘的定位指示灯。

 

以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 点亮slot 7硬盘的定位指示灯。

domino:~# ./storcli64 /c0/e252/s7 start locate
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.

17.7.2.26 通过增加成员盘可用容量扩容RAID

命令功能

RAID2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

命令格式

storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要扩容的RAIDID

capacity

扩容后的容量

expandarray

当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。

 

以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查询VD的可扩展容量。

[root@localhost ~]# storcli64 /c0/v1 show expansion 
CLI Version = 007.1416.0000.0000 July 24, 2020 
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64 
Controller = 0 
Status = Success 
Description = None 
 
 
EXPANSION INFORMATION : 
===================== 
 
-------------------------------------------- 
VD      Size OCE NoArrExp WithArrExp Status 
-------------------------------------------- 
 1 10.000 GB Y   3.627 TB 5.447 TB   - 
-------------------------------------------- 
 
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion 
 VD=Virtual Drive | NoArrExp - Without Array Expansion

如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。

# VD0的容量扩大“200GB”。

domino:~# ./storcli64 /c0/v0 expand size=200GB
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
0 100.0 GB 457.861 GB 200.0 GB 201.458 GB 44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %

RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。

17.7.2.27 通过增加新盘扩容或迁移RAID

命令功能

RAID2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

当增加新盘后,可进行RAID级别迁移。

命令格式

storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

vd_id

要操作的RAIDID

slot_id

要加入RAID的新硬盘的槽位号

level

增加硬盘后RAID的级别

l     与原RAID级别相同时,该命令为扩大RAID容量。

l     与原RAID级别不同时,该命令为RAID级别迁移。

 

以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# RAID 0中增加slot 2硬盘扩容。

domino:~# ./storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 13 Minutes
-------------------------------------------------------

# 单盘RAID 0加盘迁移至RAID 1

domino:~# ./storcli64 /c0/v0 start migrate type=r1 option=add drives=252:3
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 14 Minutes
-------------------------------------------------------

17.7.2.28 查询和清除PreservedCache数据

命令功能

查询和清除PreservedCache数据。

命令格式

storcli64 /ccontroller_id show preservedcache

storcli64 /ccontroller_id/vvd_id delete preservedcache force

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要操作的RAIDID

 

以上涉及的所有ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查询PreservedCache

domino:~# ./storcli64 /c0 show preservedcache
Controller = 0
Status = Success
Description = No Virtual Drive has Preserved Cache Data.

17.7.2.29 收集和清除RAID控制卡日志

命令功能

收集和清除RAID控制卡的日志。

命令格式

命令

说明

storcli64 /ccontroller_id show termlog [type=logtype] [logfile[=filename]]

收集RAID控制卡的日志。

storcli64 /ccontroller_id delete termlog

删除RAID控制卡的日志。

storcli64 /ccontroller_id show alilog [logfile[=filename]]

收集控制卡属性信息、TTY日志和事件到指定文件。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

logtype

查询日志类型。

l     config:查询TTY BBU缓存设置。

l     content:查询日志信息。

缺省值:content

filename

文件名称,将保存日志到此文件。

可自定义文件名称,缺省时将默认保存至“StorSAS.log”文件中。

 

查询RAID控制卡ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 收集RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19  6:48:11: C0:TTY History buffer cleared
 
Controller = 0
Status = Success
Description = None

# 删除RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 delete termlog
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------------------
Ctrl Method Result
----------------------------
   0 Delete Termlog deleted
----------------------------

17.7.2.30 查看/导入/清除外部配置

命令功能

指导用户查看、导入或者清除RAID控制卡的外部配置。

命令格式

storcli64 /ccontroller_id/fall import preview

storcli64 /ccontroller_id/fall import

storcli64 /ccontroller_id/fall delete

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

 

使用指南

使用实例

# 查看RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall import preview
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
 
 
FOREIGN PREVIEW :
===============
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Total foreign drive groups = 0

# 删除RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall delete
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration

17.7.2.31 Snapdump相关操作

命令功能

介绍Snapdump相关操作。

命令格式

命令格式

说明

storcli64 /ccontroller_id  show snapdump

查询snapdump功能是否打开,是否有自动生成的snapdump文件。

storcli64 /ccontroller_id  get snapdump id=all

获取历史生成的snapdump文件。

storcli64 /ccontroller_id  get snapdump

获取历史生成的snapdump文件和当前再生成一个snapdump文件。

storcli64 /ccontroller_id  set snapdump state=on|off

打开和关闭snapdump功能。

storcli64 /ccontroller_id  delete snapdump force

删除历史snapdump日志功能。

 

参数说明

参数

参数说明

取值

controller_id

控制卡ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

state=on|off

Snapdump状态

on为开启,off为关闭

 

使用指南

l     Snapdump文件是一个日志文件,在一些RAID控制卡异常场景下可以自动生成的日志,也可以主动获取当前RAID控制卡的snapdump日志。

l     使用前可以先查询snapdump功能是否打开,是否有自动生成的snapdump文件,再去收集snapdump

l     获取历史生成的snapdump文件和当前再生成一个snapdump文件会影响业务,建议离线使用。

l     打开和关闭snapdump功能,如果无法打开注意看提示,请确认当前RAID控制卡固件版本是否支持。

l     收集snapdump文件在当前命令执行目录下,文件格式为snapdump_**************.zip

使用实例

#查询snapdump功能是否打开,是否有自动生成的snapdump文件。

[root@localhost ~]# storcli64 /c0 show snapdump
Controller = 0
Status = Success
Description = None
 
SnapDump Properties :
===================
 
----------------------------------
Ctrl_Prop              Value
----------------------------------
Snapdump               ON
Snapdump Save Count    N/A
Snapdump Delay OCR     15
Snapdump properties    Read-Write
Snapdump Current Count 2
----------------------------------
 
SnapDump Details :
================
 
----------------------------------------------
ID Snapdump Size Snapdump time       OnDemand
----------------------------------------------
0       2649396 08-06-2021 07:23:43 Yes
1       2070406 08-07-2021 06:59:24 Yes
----------------------------------------------

#获取历史生成的snapdump文件。

[root@localhost ~]# storcli64 /c0 get snapdump id=all
Controller = 0
Status = Success
Description = None

#获取历史生成的snapdump文件和当前再生成一个snapdump文件。

[root@localhost ~]# storcli64 /c0 get snapdump
Controller = 0
Status = Success
Description = Download Support Log

#打开和关闭snapdump功能。

打开:

[root@localhost ~]# storcli64 /c0 set snapdump state=on
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-------------------
Ctrl_Prop    Value
-------------------
Set Snapdump on
-------------------

关闭:

[root@localhost ~]# storcli64 /c0 set snapdump state=off
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-------------------
Ctrl_Prop    Value
-------------------
Set Snapdump off
-------------------

#删除历史snapdump日志功能。

[root@localhost ~]# storcli64 /c0 delete snapdump force
Controller = 0
Status = Success
Description = Snapdump delete

17.7.2.32 升级控制卡FW

命令功能

升级控制卡FW

命令格式

命令格式

说明

storcli64 /cController_ID download file=xxx.rom [noverchk]

升级控制卡FW

 

参数说明

参数

参数说明

取值

controller_id

控制卡ID

-

xxx.rom

固件包的名称

-

 

使用指南

l     使用noverchk参数时将不检查固件包,降级版本时必须使用此参数。

l     升级完成后,需重新上下电服务器使固件包生效。

使用实例

#升级控制卡FW

[root@localhost fw]# ./storcli64_arm /c0 download file =FW4.rom noverchk
Download Completed.
Flashing image to adapter...
Controller = 0
Status = Success
Description = F/W Flash Completed.Please reboot the system for the changes to take effect.


18 BROADCOM MegaRAID 9540-8i

关于本章

主要介绍BROADCOM MegaRAID 9540-8i RAID控制卡的外观、特性、以及配置方法。

本章节涉及的截图以5.230.01-3723 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

17.1  概述

17.2  功能

17.3  初始配置

17.4  常用配置

17.5  故障处理

17.6  管理界面介绍

17.7  OS命令行工具

18.1 概述

Avago MegaRAID 9540-8i RAID 控制卡(以下简称9540-8i)是基于MegaRAID架构的8端口12Gbit/s SAS控制卡,并采用PCIe 4.0 ×8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

9540-8i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

9540-8i不支持虚拟化场景,在安装操作系统前,需要在BIOS中将“Advanced > MISC Config”界面中的参数“Support Smmu”设置为“Disabled”。

9540-8i不支持flush write verify功能。

9540-8i支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考18.2.12 硬盘直通

9540-8i的结构如18-1所示。

图18-1 9540-8i正面

 

1

UART接口

2

心跳指示灯

3

芯片过温指示灯

4

SlimSAS接口(SFF-8654

5

散热器

-

-

 

9540-8i单板指示灯说明如18-1所示。

表18-1 控制卡单板指示灯说明

指示灯

颜色

说明

芯片过温指示灯

黄色

l     常亮:设备温度传感器超过阈值。

l     灭:设备温度在正常温度范围内。

心跳指示灯

绿色

l     闪烁:芯片运行正常,闪烁频率为1Hz

l     灭:RAID控制卡未开始运行或FW运行异常。

 

18.2 功能

18.2.1 支持多种RAID类型

9540-8i支持硬盘以直通方式和加入RAID组两种方式混合使用,其中:

l     硬盘直通模式支持的最大硬盘数量为63

l     直通模式的硬盘和加入RAID组中的硬盘数量最多为63

l     所有RAID组包含的最大硬盘数量为32

该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

l     每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

l     最多支持32个虚拟磁盘(即配置界面中看到的“Virtual Drive”),每个虚拟磁盘最多包含32个硬盘。

9540-8i支持的RAID类型及对应的硬盘个数如18-2所示。

表18-2 RAID-硬盘参数

RAID级别

支持硬盘数

支持子组数

子组支持硬盘数

允许坏盘数

RAID 0

132

不涉及

不涉及

0

RAID 1

2~32(偶数)

硬盘数÷2

RAID 10

432(偶数)

28RAID 1

2~16(偶数)

子组数

 

l     不支持RAID 00RAID 5RAID 50级别。

l     子组数:子RAID的个数。

l     RAID 10每个子组中最多允许1个坏盘。

l     RAID 10包含的总硬盘数由子组数和子组支持的硬盘数共同决定。

18.2.2 硬盘热备份

9540-8i的热备功能分为两种:热备盘和紧急备份。

热备盘

对服务器的硬盘进行RAID分组后,一般会配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     Global HSP:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

配置方法请参见18.4.1.1 配置全局热备盘

l     Dedicated HSP:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

配置方法请参见18.4.1.2 配置局部热备盘

热备盘容量需大于等于成员盘容量。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

紧急备份

使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代failprefail状态的成员盘并进行重构,避免数据丢失。

l     紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。

l     在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。

l     紧急备份的硬盘生效次序:相同类型硬盘 > 相同接口不同介质类型硬盘 > 不同接口相同介质类型硬盘 > 不同接口不同介质类型硬盘。

紧急备份有两种情况,对应了两种设置:

l     当成员盘fail时,空闲盘替代成员盘作为紧急备份。

l     当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。

配置方法请参见18.4.2 设置紧急热备功能

18.2.3 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考18.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

18.2.4 回拷

具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。

l     不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:

l     RAID组状态保持“Optimal”不变。

l     热备盘状态由“Online”变为“Hot Spare”。

l     新加入硬盘状态由“Copyback/Copybacking”变为“Online”。

l     可使用命令行工具暂停或继续回拷。

l     若回拷时重启服务器,进度将保存。

l     局部热备以及全局热备,更换故障盘后,均会产生回拷。

18.2.5 初始化

VD初始化

创建虚拟磁盘后,需要将其初始化,使其可以被操作系统使用,且使具有冗余功能的虚拟磁盘中各成员盘的数据关系满足相应的RAID级别要求。

控制卡提供了多种相应的初始化方式:

l     前台初始化:

     快速初始化:Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。

     完全初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。

l     后台初始化:对于RAID 1/RAID 10,如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。

l     一致性校验和后台初始化通常会对性能造成一定损失,直至该操作完成。

l     一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。

硬盘初始化

硬盘可执行的初始化包括:

l     Initialize Drive:对前100MByte空间进行全写0操作。

l     Drive Erase:对全部空间进行写0操作。

不支持停止SATA SSD的擦除和初始化过程。

18.2.6 RAID级别迁移

RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见18.4.5 迁移RAID级别

当前支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1

l     RAID 1迁移到RAID 0

RAID迁移对硬盘数量的要求如18-3所示。

表18-3 RAID迁移的硬盘数量说明

迁移RAID级别

原始硬盘组硬盘数量

迁移后的硬盘组硬盘数量

RAID 0迁移 RAID 1

132

2~32(偶数)

RAID 1迁移到RAID 0

2~32(偶数)

2~32

 

18.2.7 可用容量扩展

控制卡支持的容量扩展方式有两种:

l     通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。

详细操作方法可参考18.4.3 添加新硬盘到RAID

l     通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。

详细操作方法可参考18.4.4 扩展Virtual Drive可用空间

l     只有RAID 0RAID1支持增加硬盘扩容。

l     RAID 10不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。

l     当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见 18.7.2.26 通过增加成员盘可用容量扩容RAID

18.2.8 安全数据擦除

安全擦除即将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘安全擦除功能:

l     Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。

l     Normal:对虚拟磁盘或硬盘进行三轮擦除动作。

l     Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。

安全数据擦除过程中,主机无法访问该虚拟磁盘。

控制卡支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。

18.2.9 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     动态扩盘

l     完全初始化或后台初始化

l     一致性校验

18.2.10 自动SMART扫描

S.M.A.R.TSelfMonitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T 监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据丢失。

RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描。扫描周期可通过S.M.A.R.T Polling设置,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。

18.2.11 硬盘节能

RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SASSATA机械硬盘均支持此功能。

默认情况下,硬盘节能功能处于开启状态。

当硬盘节能功能开启时,RAID控制卡下挂载的“Unconfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)需要唤醒正处于节能状态的硬盘,该操作会有一定程度的延迟。

18.2.12 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

控制卡可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。

控制卡支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

如果需要使能硬盘直通功能,请参见18.4.10 设置JBOD模式

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

18.2.13 硬盘漫游

硬盘漫游是指在同一控制卡下移动物理硬盘。控制卡将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。

要使用硬盘漫游,按以下步骤操作:

1.     关闭操作系统。

2.     将服务器下电。

3.     将物理硬盘移动到背板所需位置。

4.     执行安全检查。确保正确插入物理硬盘。

5.     将服务器上电。

6.     控制卡从物理硬盘上的配置数据中检测到RAID配置。

18.2.14 导入外部配置

如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。

此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。

18.2.15 硬盘故障记录

控制卡提供硬盘故障记录功能:

l     使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。

l     禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,控制卡会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。

维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。

l     使能该功能后,当硬盘故障时,会点亮Fault指示灯。

l     禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。

默认情况下,控制卡使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。

18.2.16 一致性校验

针对有冗余功能的RAID 1RAID10RAID控制卡可以对RAID组的硬盘数据进行一致性校验,对硬盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。

由于RAID 0不具备冗余性,因此不支持一致性校验。

建议每月至少进行一次一致性校验。

18.3 初始配置

文档中描述的关于9540-8i的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。

18.3.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如18-2所示界面时,按“Delete”,进入输入密码界面。

图18-2 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如18-3所示界面。

图18-3 Setup Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如18-4所示。

图18-4 “Advanced”页签

 

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见18.5.3 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择要操作的9540-8i控制卡,按“Enter”。

进入如18-518-6所示主界面,界面参数如18-4所示。

图18-5 9540-8i主界面(1

 

图18-6 9540-8i主界面(2

 

表18-4 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

CacheVault

是否支持Cache

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

说明

仅当控制卡存在外部配置时,会显示该选项。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

Silence Alarm

板载蜂鸣器的使能状态。

说明

控制卡未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

18.3.2 创建RAID 0

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9540-8i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见18.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

登录管理界面。具体操作方法请参见18.3.1 登录管理界面

                                步骤 1     根据路径“Main Menu > Configuration Management > Create Virtual Drive”进入RAID配置界面,如18-718-8所示,参数说明如18-5所示。

若控制卡中存在JBOD盘,创建虚拟磁盘时将提示“One or more JBOD drives have been detected in the system. Only Unconfigured Good drives can be used in a configuration. Please select the JBOD drives you would like to convert to Unconfigured Good drives from the list below.”,此时可采取以下操作:

l     可根据列表选定JBOD盘,选择“OK”将JBOD盘转换为空闲盘。再进入创建虚拟磁盘界面。

l     选择Skip并按“Enter”直接进入创建虚拟磁盘界面。

图18-7 Create Virtual Drive”界面(1

 

图18-8 Create Virtual Drive”界面(2

 

表18-5 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如18-9所示,界面参数如18-6所示。

图18-9 添加成员盘

 

表18-6 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     18-6所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 0支持的硬盘个数为1~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。

5.     选择“Apply Changes”并按“Enter”保存配置。

提示“The operation has been performed successfully.

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     按照18-5所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照18.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

弹出操作确认界面。

2.     选择“Confirm”并按“Enter”确认。

3.     选择“Yes”并按“Enter”。

提示“The operation has been performed successfully”。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

18.3.3 创建RAID 1

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9540-8i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见18.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

登录管理界面。具体操作方法请参见18.3.1 登录管理界面

                                步骤 1     根据路径“Main Menu > Configuration Management > Create Virtual Drive”进入RAID配置界面,如18-1018-11所示,参数说明如18-7所示。

若控制卡中存在JBOD盘,创建虚拟磁盘时将提示“One or more JBOD drives have been detected in the system. Only Unconfigured Good drives can be used in a configuration. Please select the JBOD drives you would like to convert to Unconfigured Good drives from the list below.”,此时可采取以下操作:

l     可根据列表选定JBOD盘,选择“OK”将JBOD盘转换为空闲盘。再进入创建虚拟磁盘界面。

l     选择Skip并按“Enter”直接进入创建虚拟磁盘界面。

图18-10 “Create Virtual Drive”界面(1

 

图18-11 “Create Virtual Drive”界面(2

 

表18-7 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如18-12所示,界面参数如18-8所示。

图18-12 添加成员盘

 

表18-8 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     18-8所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 1支持的硬盘个数为2~32(偶数)。

l     RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。

5.     选择“Apply Changes”并按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     按照18-7所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照18.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

弹出操作确认界面。

2.     选择“Confirm”并按“Enter”确认。

3.     选择“Yes”并按“Enter”。

提示“The operation has been performed successfully”。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

18.3.4 创建RAID 10

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9540-8i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见18.2.1 支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

登录管理界面。具体操作方法请参见18.3.1 登录管理界面

                                步骤 1     根据路径“Main Menu > Configuration Management > Create Virtual Drive”进入RAID配置界面,如18-1318-14所示,参数说明如18-9所示。

若控制卡中存在JBOD盘,创建虚拟磁盘时将提示“One or more JBOD drives have been detected in the system. Only Unconfigured Good drives can be used in a configuration. Please select the JBOD drives you would like to convert to Unconfigured Good drives from the list below.”,此时可采取以下操作:

l     可根据列表选定JBOD盘,选择“OK”将JBOD盘转换为空闲盘。再进入创建虚拟磁盘界面。

l     选择Skip并按“Enter”直接进入创建虚拟磁盘界面。

图18-13 Create Virtual Drive (1)

 

图18-14 “Create Virtual Drive” (2)

 

表18-9 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如18-15所示,界面参数如18-10所示。

图18-15 添加成员盘

 

表18-10 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     18-10所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 10支持28Span,每个Span支持的硬盘数为2~16(偶数),且各个Span的硬盘数量必须保持一致。

l     RAID 10支持的硬盘总数为4~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     创建第2Span

当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如18-16所示。

图18-16 RAID 10的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

3.     在打开的列表中选择第2Span的成员盘。

各个Span的硬盘数量必须保持一致。

4.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

5.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

RAID10至少需要创建2Span,最多可以创建8Span

                                步骤 6     按照18-9所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照18.4.11 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     选择“Save Configuration”并按“Enter”。

弹出操作确认界面。

2.     选择“Confirm”并按“Enter”确认。

3.     选择“Yes”并按“Enter”。

提示“The operation has been performed successfully”。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

18.3.5 配置启动项

18.3.5.1 设置控制卡启动项

操作场景

您可以通过此操作设置控制卡启动项。

OS下用命令行工具设置启动项,请参见18.7.2.20 设置启动项

操作步骤

登录管理界面。具体操作方法请参见18.3.1 登录管理界面

                                步骤 1     在主界面选择“Controller Management”并按“Enter”。

进入“Controller Management”界面。如18-17所示。

图18-17 Controller Management

 

                                步骤 2     通过“↑”、“↓”选择“Select Boot Device”并按“Enter”。

显示可设置为启动项的硬盘或虚拟磁盘。

仅在JBOD模式开启时,可设置硬盘为启动项。

                                步骤 3     选择需配置为启动项的硬盘或虚拟磁盘,按“Enter”完成配置。

----结束

18.3.5.2 设置服务器启动项

当一台服务器配置了单张控制卡时,控制卡下的启动项即为该服务器的启动项,具体设置方法请参见18.3.5.1 设置控制卡启动项

同一台服务器配置了多张控制卡时,EFI/UEFI模式下的系统启动盘需要在BIOS中进行设置。

设置启动项的操作方法请参见BIOS 参数参考的“设置启动设备”章节。

18.4 常用配置

18.4.1 管理热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

18.4.1.1 配置全局热备盘

操作步骤

登录管理界面,具体操作方法请参见18.3.1 登录管理界面

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如18-18所示。

图18-18 Drive Management界面

 

                                步骤 2     配置全局热备盘。

1.     将“Operation”设置为“Assign Global Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

显示The operation has been performed successfully

3.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

18.4.1.2 配置局部热备盘

操作步骤

RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

登录管理界面,具体操作方法请参见18.3.1 登录管理界面

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如18-19所示。

图18-19 Drive Management

 

                                步骤 2     配置局部热备盘。

1.     将“Operation”设置为“Assign Dedicated Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

打开当前存在的RAID列表。

3.     选择要关联的RAID并按“Enter”。

4.     选择“OK”按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”,完成配置并返回上级界面。

----结束

18.4.1.3 删除热备盘

操作场景

当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

操作步骤

登录管理界面,具体操作方法请参见18.3.1 登录管理界面

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如18-20所示。

图18-20 Drive Management

 

                                步骤 2     删除热备盘。

1.     将“Operation”设置为“Unassign Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

18.4.2 设置紧急热备功能

操作步骤

登录管理界面,具体操作方法请参见18.3.1 登录管理界面

                                步骤 1     进入“Advanced Controller Properties”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

3.     选择“Advanced Controller Properties”并按“Enter”。

                                步骤 2     设置紧急热备。

1.     选择“Spare”并按“Enter”。

2.     将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如18-21所示。

图18-21 “Spare”界面

 

3.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

----结束

18.4.3 添加新硬盘到RAID

操作场景

 

l     只有RAID 0RAID 1支持增加硬盘扩容。

l     RAID 10不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。

l     执行添加新硬盘到RAID操作之前,建议先备份数据。

增加硬盘扩容过程中,如果出现硬盘故障,会导致:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID

请谨慎执行增加硬盘扩容操作。

操作步骤

登录管理界面。具体操作方法请参见18.3.1 登录管理界面

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”。

进入虚拟磁盘选项界面,如18-22所示。

图18-22 虚拟磁盘选项界面

 

                                步骤 2     添加新硬盘。

1.     选择要进行扩容的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如18-23所示。

图18-23 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter

4.     选择“Go”并按“Enter”。

5.     选择要扩容的RAID级别。

 

增加硬盘扩容时,请保证该处的RAID级别与原级别一致。

6.     选择“Choose the Operation”,并按“Enter”。

进入硬盘选择界面,如18-24所示。

图18-24 Choose the Operation

 

7.     选择要增加的硬盘,并按“Enter”。

l     硬盘状态为“【×】”时表示该硬盘已选择。

l     增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。

l     RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。

8.     选择“Apply Changes”并按“Enter”。

进入操作确认界面。

9.     选择“Confirm”并按“Enter”。

10.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

11.     选择“OK”并按“Enter”。

返回到如18-25所示界面。

图18-25 操作界面

 

12.     选择“Start Operation”并按“Enter”。

显示操作成功。

13.     选择“OK”并按“Enter”。

重新进入虚拟磁盘选项界面,验证扩容结果,如18-26所示,表示RAID正在进行扩容。

图18-26 Reconfigure Virtual Drives

 

扩容属于后台动作,在HII界面只能触发而不能正式开始扩容,所以扩容的进度条一直显示为0%。当进入OS后,扩容才会开始进行。

----结束

18.4.4 扩展Virtual Drive可用空间

操作场景

Virtual Drive未占用成员硬盘全部容量时,可通过调整Virtual Drive的可用空间,扩大Virtual Drive容量。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见18.3.1 登录管理界面

                                步骤 1     进入要操作的虚拟磁盘界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如18-27所示。

图18-27 Virtual Drive Management

 

                                步骤 2     扩容虚拟磁盘。

1.     将“Operation”设置为“Expand Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入虚拟磁盘扩容界面,如18-28界面所示,界面参数如18-11所示。

图18-28 Expand Virtual Drive

 

表18-11 参数说明

参数

参数说明

Current Capacity

虚拟磁盘当前容量。

Available Capacity

可用于扩展的容量。

Enter a Percentage of Available Capacity

输入扩容比例。

Capacity of Virtual Drive after Expansion

扩容后虚拟磁盘容量。

 

3.     设置扩容百分比。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

18.4.5 迁移RAID级别

操作场景

随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。

在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。

对系统的影响

RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID

请谨慎执行RAID级别迁移操作。

必备事项

前提条件

迁移RAID级别之前,需具备如下条件:

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     当前存在的硬盘个数满足目标RAID级别要求。

l     已登录管理界面,具体操作请参见18.3.1 登录管理界面

控制卡支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1

l     RAID 1迁移到RAID 0

RAID迁移对硬盘数量的要求如18-3所示。

l     RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     迁移只支持增加与RAID组成员盘同类型同规格的硬盘。

l     为防止数据丢失,请在该操作之前备份当前RAID组的数据。

l     只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。

l     迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。

操作步骤

进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”并按“Enter”。

进入虚拟磁盘选项界面,如18-29所示。

图18-29 虚拟磁盘选项界面

 

                                步骤 2     选择RAID迁移的目标级别。

下面以将RAID 0迁移到RAID 1为例进行说明。

1.     选择要进行迁移的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如18-30所示。

图18-30 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”。

4.     选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如18-31所示。不设置时默认与原RAID组配置一致。

图18-31 Advanced...

 

5.     选择“Go”,并按“Enter”。

进入RAID配置界面,如18-32所示。

图18-32 Reconfigure Virtual Drives

 

6.     选择“New RAID Level”并按“Enter”。

打开RAID迁移的目标级别选择窗口,如18-33所示。

图18-33 选择新的RAID级别

 

7.     选择“RAID 1”并按“Enter”。

                                步骤 3     添加硬盘。

1.     选择“Choose the operation”并按“Enter”。

打开硬盘选择窗口。

2.     选择要增加的硬盘并按“Enter”。

RAID迁移对硬盘数量的要求请参见18-3

3.     选择“Apply Changes”并按“Enter”。

弹出操作确认会话框。

4.     选择“Confirm”并按“Enter”。

5.     选择“Yes”并按“Enter”。

提示操作成功。

6.     按“Esc”返回18-32界面。

                                步骤 4     RAID级别迁移。

1.     选择“Start Operation”并按“Enter”。

提示操作成功。

2.     选择“OK”并按“Enter”。

                                步骤 5     查看迁移结果。

1.     进入Virtual Drive Management界面,检查迁移结果,如18-34所示,表示RAID正在进行迁移。

图18-34 查看迁移结果

 

l     迁移过程中若重启服务器,该任务将在重启后继续进行。

l     迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。

2.     选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 0”变成“RAID 1”,且“Status”状态显示为“Optimal”时,表示RAID迁移成功。

----结束

迁移属于后台动作,在HII界面只能触发而不能正式开始,所以迁移的进度条一直显示为0%。当进入OS后,迁移才会开始进行。

18.4.6 删除RAID

操作场景

 

RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见18.3.1 登录管理界面

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如18-35所示。

图18-35 Virtual Drive Management

 

                                步骤 2     删除虚拟磁盘。

1.     将“Operation”设置为“Delete Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

18.4.7 重构RAID

操作场景

介绍将带有外部配置的硬盘进行重构的操作方法,不带外部配置硬盘的重构方法请参见0硬盘相关故障

操作步骤

在“Main Menu”界面中选择“Drive Management”并按“Enter”。

                                步骤 1     选中要进行重构的硬盘,按“Enter”。

                                步骤 2     将“Operation”设置为“Make Unconfigured Good”。

                                步骤 3     选择“Go”并按“Enter”。

提示The operation has been performed successfully

                                步骤 4     按“Enter”完成配置。

硬盘状态变为“(Foreign,Unconfigured Good”。

                                步骤 5     清除外部配置,具体操作请参见18.4.9 导入和清除外部配置

RAID组开始进行重构。

----结束

l     当出现硬盘离线情况时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     rebuild属于后台动作,在HII界面只能触发而不能正式开始rebuild,所以rebuild的进度条一直显示为0%。当进入OS后,rebuild才会开始进行。

18.4.8 查看RAID控制卡属性

操作场景

用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。

操作步骤

登录管理界面。具体操作方法请参见18.3.1 登录管理界面

                                步骤 1     根据路径“Main Menu > Controller Management”进入“Controller Management”界面。如18-3618-37所示,参数说明如18-12所示。

图18-36 Controller Management1

 

图18-37 Controller Management2

 

表18-12 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Personality Mode

RAID控制卡的模式。

Select Boot Device

当前启动项。

PCI ID

RAID控制卡的PCI ID

PCI Segment:Bus:Device:Fuction

RAID控制卡的PCI设备索引。

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Supported Device Interfaces

支持的设备接口。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制卡操作。

Advanced Controller Properties

查看和修改控制卡的高级属性。

 

                                步骤 2     选择“Advanced Controller Properties”并按“Enter”。

进入控制卡高级属性界面,如18-38所示,参数说明如18-13所示。

图18-38 Advanced Controller Properties界面(1

 

图18-39 Advanced Controller Properties界面(2

 

表18-13 参数说明

参数

说明

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

Spare

设置控制卡热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

控制卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

表示硬盘容量压缩模式,包括:

l     None

l     128MB

l     1GB

默认为“1GB”。

说明

硬盘压缩模式可以对不同厂商的相同规格硬盘的容量差异进行取整处理,使不同厂商的硬盘强制为相同的容量,以便可以在同一个RAID组中使用。取整单位可以为None128MB1GB,其中None表示RAID控制卡对不同厂商的硬盘不做取整处理。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制卡BIOS的使能情况。

ROC Temperature

控制卡温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见18.4.9 导入和清除外部配置章节。

SMART Polling

SMART轮巡检测周期。默认值为“300”。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

JBOD Mode

硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。

Large IO Support

启用或禁用大型I/O支持功能。

Unmap Capability

解除映射能力。

Firmware Device Order

该功能开启后,设置为启动项的RAID组盘符为sda

说明

开启该功能前,请先确认控制卡驱动与固件配套。

Apply Changes

保存配置。

 

----结束

18.4.9 导入和清除外部配置

操作场景

l     服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。

 

l     如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!

l     为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

导入外部配置

登录管理界面,具体操作方法请参见18.3.1 登录管理界面

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如18-40所示。

图18-40 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

进入外部配置管理界面,如18-41所示。

图18-41 Preview Foreign Configuration

 

                                步骤 5     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully

                                步骤 8     选择“OK”并按“Enter”完成配置返回上级界面。

----结束

清空外部配置

登录管理界面,具体操作方法请参见18.3.1 登录管理界面

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如18-42所示。

图18-42 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

进入外部配置管理界面,如18-43所示。

图18-43 Preview Foreign Configuration

 

                                步骤 5     选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 8     选择“OK”并按“Enter”完成配置返回上级界面。

----结束

18.4.10 设置JBOD模式

控制卡支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

登录管理界面。具体操作方法请参见18.3.1 登录管理界面

                                步骤 1     根据路径“Main Menu > Controller Management > Advanced Controller Properties”进入控制卡高级属性界面。

                                步骤 2     选择“JBOD Mode”并按Enter

                                步骤 3     选择“Enabled”并按“Enter”。如18-44所示。

图18-44 Advanced Controller Properties

 

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

18.4.11 创建多个VDVirtual Drive

该场景为使用已存在一个或多个VDRAID组的空闲容量创建多个VD,以RAID0存在一个VD为例(如18-45所示),详细操作方法如下:

图18-45 Virtual Drive Management

 

按照“Main Menu > Configuration Management > Create Virtual Drive”的路径进入“Create Virtual Drive”界面,如18-46所示。

图18-46 Create Virtual Drive

 

                                步骤 2     将“Select RAID Level”设置为“RAID0”。

                                步骤 3     将“Select Drives From”设置为“Free Capacity”,如18-47所示。

图18-47 Create Virtual Drive

 

                                步骤 4     选择“Select Drive Groups”并按“Enter”。

显示当前存在的RAID组(Drive Group),如18-48所示。

图18-48 Select Drive Groups

 

                                步骤 5     选择要创建多个VDRAID组,并按“Enter”,如18-49所示。

图18-49 Select Drive Groups

 

                                步骤 6     选择“Apply Changes”并按“Enter”。

提示操作成功。

                                步骤 7     选择“OK”并按“Enter”返回VD配置界面,如18-50所示,参数说明如18-14所示。

图18-50 Create Virtual Drive

 

表18-14 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照16.4.11 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略。可配置的状态有:

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。

l     Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 8     按照18-14所述配置VD的相关属性。

                                步骤 9     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

                             步骤 10     选择“Confirm”并按“Enter”。

                             步骤 11     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                             步骤 12     选择“OK”并按“Enter'”完成配置。

可进入Virtual Drive Management界面,查看当前存在的所有VD,如18-51所示。

图18-51 Virtual Drive Management

 

----结束

每个RAID组最多支持创建16VD,如需要继续创建VD,请重复执行步骤1~步骤12

18.4.12 查询RAID控制卡固件版本

查询RAID控制卡固件版本的方法有如下几种:

l     iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。

l     服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见0查询控制卡配置信息

回显信息中的“FW Version”字段即为RAID控制卡的固件版本。

l     RAID控制卡管理界面进行查询:根据路径“Main Menu > Controller Management”进入“Controller Management”界面。如18-52所示。

界面中的“Firmware Version”即为RAID控制卡的固件版本

图18-52 Controller Management

 

18.5 故障处理

介绍了硬盘故障和RAID控制卡故障的常用处理方法。

更多故障案例请联系技术支持获取。

硬盘相关故障

硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

确认故障硬盘槽位。

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考18.6.1.9 Drive Management

l     通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考18.7.2.32 查询RAID控制卡/RAID/物理硬盘信息

                                步骤 1     更换新硬盘。

 

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘导致,则可以将硬盘设置为Unconfig Good后,参考18.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在18-2查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0

     UEFI模式下创建RAID0的方法请参见18.3.2 创建RAID 0

     通过命令行方式创建RAID0的方法请参见18.7.2.17 创建和删除RAID

----结束

18.5.1.4 硬盘状态为failprefail

问题描述

正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代failprefail状态的成员盘并进行重构,避免数据丢失。

但当RAID控制卡未设置紧急热备时,成员盘状态显示为failprefail时,可使用以下方法处理。

处理方法

使用StorCLI工具,具体操作请参考0下载和安装StorCLI工具

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考18.7.2.30 设置硬盘状态

storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在EnclosureID

l     slot_id:物理硬盘槽位ID

                                步骤 2     更换离线硬盘。

                                步骤 3     RAID组自动执行重构。

等待重构完成。

----结束

18.5.1.5 硬盘状态为Unconfigured BadUBad

问题描述

硬盘状态显示为Unconfigured BadUBad

处理方法

使用StorCLI工具,具体操作请参见0下载和安装StorCLI工具

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见18.7.2.30 设置硬盘状态

storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在EnclosureID

l     slot_id:物理硬盘槽位ID

                                步骤 2     重新查看硬盘状态是否更改为Unconfigured GoodUgood。具体操作请参见18.6.1.9 Drive Management界面或18.7.2.32 查询RAID控制卡/RAID/物理硬盘信息

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤4

                                步骤 3     查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见18.4.9 导入和清除外部配置18.7.2.35 查看/导入/清除外部配置

l     问题解决 => 处理完毕。

l     问题未解决 => 联系技术支持处理。

----结束

18.5.2 控制卡故障

问题描述

当服务器出现如下现象时,说明控制卡故障。

l     数据无法写入控制卡控制的硬盘。

l     服务器上报控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     查询兼容性查询助手或者联系技术支持处理。

----结束

18.5.3 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy

问题描述

正常情况下,当服务器配置了RAID控制卡且RAID控制卡状态正常时,进入BIOSAdvanced页签后,会显示RAID控制卡的信息,如18-53所示。

如果Advanced页签不显示RAID控制卡的信息,如18-54所示,则:

l     如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:

     如果不显示驱动打印信息,可尝试下电后重新拔插RAID控制卡再上电、下电后更换RAID控制卡再上电或者联系技术支持。

     如果显示“BROADCOM MegaRAID Driver”,则可以通过本章节的指导修复RAID控制卡。

l     如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,则可以通过本章节的指导修复RAID控制卡;如果不显示,可尝试下电后重新拔插RAID控制卡再上电、下电更换RAID控制卡再上电或者联系技术支持。

图18-53 Advanced页签(1

 

图18-54 Advanced页签(2

 

处理方法

l     BIOS的版本为0.98之前版本(不包含0.98版本)时:

a.     Advanced页签选择“Driver Health Manager”并按Enter

进入“Driver Health Manager”界面。

b.     选择要进行修复的RAID控制卡驱动,如“AVAGO EFI SAS Driver”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息:

n     显示“The following VDs have missing disks. => 请参见0The following VDs have missing disks

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone=> 请参见18.5.3.6 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

l     BIOS的版本为0.98及以上版本时:

a.     在“Advanced”页签选择“Some drivers are not healthy”。

进入健康状态查询界面。

b.     选择“Repair the whole platform”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息。

n     显示“The following VDs have missing disks. => 请参见0The following VDs have missing disks

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone=> 请参见18.5.3.6 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见0RAID控制卡启动中出现的常见的错误消息及处理方法

The following VDs have missing disks

问题描述

18-55所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。

图18-55 状态显示

 

处理方法

修复RAID控制卡。

1.     18-55中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

2.     输入“C”并按“Enter”。

3.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

4.     输入“y”并按“Enter”。

提示“Critical Message handling completed. Please exit”。修复完成。

                                步骤 1     重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

18.5.3.6 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

问题描述

18-56所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”

图18-56 状态显示

 

处理建议

该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:

l     下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。

l     忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:

a.     18-56中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

b.     输入“c”并按“Enter”。

c.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

d.     输入“y”并按“Enter”。

提示Critical Message handling completed. Please exit

e.     按“Esc”退出当前界面。

弹出确认保存配置会话框,如18-57所示。

图18-57 提示保存会话框

 

f.     按“Y”保存配置,操作完成。

g.     Esc键返回“Device Manager”界面。

h.     选择控制卡并按“Enter”,进入RAID控制卡管理界面。

18.5.4 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死

问题描述

硬盘响应命令超时,控制卡会对硬盘进行复位。3次复位后尚未恢复时将可能耗尽控制卡TMTask Management)资源,触发Fatal error,此时会通过OCROnline Controller Reset)自愈恢复,期间将有短时间业务中断(约30s60s),控制卡复位后会完成踢盘,将故障硬盘置为Ubad状态。

控制卡自愈恢复,需要开启OCR开关。

触发条件

当下发到硬盘的I/O出现超时不响应的情况时,RAID控制卡会通过reset硬盘来恢复,正常情况下,硬盘会重新接入或者多次reset之后会进行踢盘。

当出现reset之后硬盘仍然无法响应RAID控制卡指令且无法踢盘时,RAID控制卡会再次reset进行复位,每次reset会占用RAID控制卡资源,短时间内多次reset会导致RAID控制卡资源耗尽,该场景下,RAID控制卡会通过重新加载FW进行恢复。

该机制为此类卡的正常处理机制,由于架构限制,无法进行优化。

识别方法

l     已安装OS

当遇到短时间业务中断,恢复后查看有被置为Ubad状态的硬盘时,可以查看控制卡日志,搜索dm.c并查看其发生时间,如与业务中断时间节点接近,即可断定为触发了该机制。

注意控制卡与OS时间差。

l     未安装OS

OS时,触发该机制的操作为:从“Advanced”页签进入控制卡界面。若触发该机制,进入控制卡卡操作界面时将会卡住,无法恢复。

处理方法

定位故障硬盘。

l     已安装OS

     如确认触发了该机制并且已经完成了踢盘,需要更换Ubad状态的硬盘。

     如无Ubad状态的硬盘,查看日志并搜索“indicates critical condition”,目标行的“element xx indicates critical condition”中,“xx”即为问题硬盘的槽位号。

已安装OS,但是进入“Advanced”页签的控制卡操作界面卡住,需要重新上下电进入OS,按照以上方式定位故障硬盘。

l     未安装OS

系统未安装OS,出现该异常时,保留预安装OS RAID组数目的硬盘,将其他硬盘拔出并记录槽位号,如成功安装OS进入系统后,按照已安装OS的操作来确认问题硬盘。

                                步骤 1     更换故障硬盘。

l      => 处理完毕。

l      => 请联系技术支持。

----结束

18.5.5 Controller Mode恢复为RAID

问题描述

RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD modeRAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如18-58所示,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。

图18-58 问题描述

 

当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。

处理方法

(可选)登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Management界面,如18-59所示。

图18-59 Advanced Controller Management界面

 

                                步骤 2     选择“Switch to RAID mode”并按“Enter”。

提示操作成功,如18-60所示。

图18-60 操作成功

 

                                步骤 3     选择“OK”并按“Enter”。

返回到“Advanced Controller Management”界面,显示正在切换模式,如18-61所示。

图18-61 Advanced Controller Management界面

 

                                步骤 4     按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面

                                步骤 5     依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如18-62所示。

图18-62 Advanced Controller Management界面

 

l      => 处理完毕。

l      => 请联系技术支持。

----结束

18.6 管理界面介绍

Main Menu

RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。

界面介绍

Main Menu”界面如18-63,参数说明如18-15所示。

图18-63 Main Menu

 

表18-15 参数说明

参数

参数说明

Configuration Management

配置管理RAID

Controller Management

管理RAID控制卡。

Virtual Drive Management

管理虚拟磁盘。

Drive Management

管理硬盘。

Hardware Components

查询部件信息。

 

Configuration Management

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

Configuration Management”界面如18-64,参数说明如18-16所示。

图18-64 Configuration Management

 

表18-16 参数说明

参数

参数说明

Create Virtual Drive

创建RAID

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Make JBOD

硬盘直通功能,硬盘不加入RAID,直接使用。

Clear Configuration

清除配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时会显示该参数。

 

Create Virtual Drive

界面说明

Create Virtual Drive”界面如18-6518-66所示,参数说明如18-17所示。

图18-65 Create Virtual Drive”界面(1

 

图18-66 Create Virtual Drive”界面(2

 

表18-17 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

18.6.1.6.2 Create Profile Based Virtual Drive

界面说明

Create Profile Based Virtual Drive”界面如18-67所示,参数说明如18-18所示。

图18-67 Create Profile Based Virtual Drive

 

表18-18 参数说明

参数

说明

Generic RAID 0

快速创建RAID0

Generic RAID 1

快速创建RAID1

Generic RAID 5

快速创建RAID5。不支持此选项。

Generic RAID 6

快速创建RAID6。不支持此选项。

File Server

快速创建文件服务器。不支持此选项。

Web/Generic Server

快速创建网页/通用服务器。不支持此选项。

Database

快速创建数据库。

 

快速创建RAID

通过“↑”、“↓”选择要创建的RAID(以“Generic RAID 1”为例)并按“Enter”。

打开RAID配置界面,如18-68,参数说明如18-19所示。

图18-68 RAID配置界面

 

表18-19 参数说明

参数

参数说明

Drive Selection Criteria

系统自动选择的成员盘。

Virtual Drive Name

系统自定义的RAID组名称。

RAID Level

当前配置的RAID组的级别。

Virtual Drive Size

RAID组的容量。

Power Save Mode

数据掉电保护模式。

Strip Size

RAID组扇区大小。

Read Policy

RAID组的数据读策略。

Write Policy

RAID组的数据写策略。

IO Policy

RAIDI/O策略。

Access Policy

数据读写的策略。

Drive Cache

硬盘Cache策略。

Create Dedicated Hot Spare

是否为RAID组创建局部热备盘。

Save Configuration

保存当前配置。

 

                                步骤 2     18-18所示查看或配置相关参数。

                                步骤 3     选择“Save Configuration”并按“Enter”。

弹出操作确认界面。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 6     选择“OK”并按“Enter”完成配置。

----结束

18.6.1.6.3 View Drive Group Properties

界面说明

View Drive Group Properties”界面如18-69,参数说明如18-20所示。

图18-69 View Drive Group Properties

 

表18-20 参数说明

参数

参数说明

Drive Group

硬盘组名称。

Capacity Allocation

硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。

 

18.6.1.6.4 Make JBOD

选择空闲硬盘转换为直通盘。

界面说明

Make JBOD”界面如18-70所示。

图18-70 Make JBOD

 

18.6.1.6.5 Make Unconfigured Good

选择直通盘转换为空闲盘。

界面说明

Make Unconfigured Good”界面如18-71所示。

图18-71 Make Unconfigured Good

 

18.6.1.6.6 Clear Configuration

 

该操作将清除控制卡上所有的RAID、热备盘、Pinned Cache和直通盘配置信息,请谨慎执行该操作。

界面说明

Clear Configuration”界面如18-72所示。

图18-72 Clear Configuration

 

18.6.1.7 Controller Management

该界面提供控制卡管理接口,可查看并修改控制卡的详细参数。

界面介绍

Controller Management”界面如18-7318-74所示,参数说明如18-21所示。

图18-73 Controller Management1

 

图18-74 Controller Management2

 

表18-21 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Personality Mode

RAID控制卡的模式。

Select Boot Device

当前启动项。

PCI ID

RAID控制卡的PCI ID

PCI Segment:Bus:Device:Fuction

RAID控制卡的PCI设备索引。

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Supported Device Interfaces

支持的设备接口。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制卡操作。

Advanced Controller Properties

查看和修改控制卡的高级属性。

 

Advanced Controller Management

界面介绍

Advanced Controller Management”界面如18-75所示。

图18-75 Advanced Controller Management

 

表18-22 参数说明

参数

说明

Clear Controller Events

清除控制卡的事件日志。

Save Controller Events

保存控制卡的事件日志。

Save TTY Log

保存终端操作日志。

Enable Drive Security

使能硬盘加密功能。

Disable Drive Security

关闭硬盘加密功能。

Change Security Settings

修改硬盘加密功能的设置,包括修改密码、修改加密模式等。

Manage SAS Storage Link Speed

管理接口速率。

Manage MegaRAID Advanced Software Options

管理高级软件功能。

Schedule Consistency Check

设置一致性校验参数。

Set Factory Defaults

恢复为出厂配置。

Manage Personality Mode

设置RAID控制卡当前的工作模式。

Manage Controller Profiles

查看和管理控制卡的配置文件。

 

18.6.1.7.7 Advanced Controller Properties

界面说明

Advanced Controller Properties”界面如18-7618-77所示,参数说明如18-23所示。

图18-76 Advanced Controller Properties界面(1

 

图18-77 Advanced Controller Properties界面(2

 

表18-23 参数说明

参数

说明

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

Spare

设置控制卡热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

控制卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

表示硬盘容量压缩模式,包括:

l     None

l     128MB

l     1GB

默认为“1GB”。

说明

硬盘压缩模式可以对不同厂商的相同规格硬盘的容量差异进行取整处理,使不同厂商的硬盘强制为相同的容量,以便可以在同一个RAID组中使用。取整单位可以为None128MB1GB,其中None表示RAID控制卡对不同厂商的硬盘不做取整处理。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制卡BIOS的使能情况。

ROC Temperature

控制卡温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见18.4.9 导入和清除外部配置章节。

SMART Polling

SMART轮巡检测周期。默认值为“300”。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

JBOD Mode

硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。

Large IO Support

启用或禁用大型I/O支持功能。

Unmap Capability

解除映射能力。

Firmware Device Order

该功能开启后,设置为启动项的RAID组盘符为sda

说明

开启该功能前,请先确认控制卡驱动与固件配套。

Apply Changes

保存配置。

 

设置后台任务速率

18-76中选择“Task Rates”并按“Enter”。界面如18-78所示,参数说明如18-24所示。

图18-78 Task Rates

 

表18-24 参数说明

参数

说明

Background Initialization <BGI> Rate

设置执行后台初始化的速率。

说明

数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Consistency Check Rate

设置执行一致性校验的速率。

说明

数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Patrol Read Rate

设置执行巡检读取的速率。

说明

数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Rebuild Rate

设置硬盘发生故障时在新硬盘上执行重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Reconstruction Rate

设置执行RAID级别迁移或在线容量扩展时重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Apply Changes

保存配置。

 

                                步骤 2     按照18-23所述修改控制卡的高级属性参数。

                                步骤 3     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

18.6.1.8 Virtual Drive Management

该界面提供虚拟磁盘的查询和管理接口。

界面介绍

Virtual Drive Management”界面如18-79,显示虚拟磁盘列表。

图18-79 Virtual Drive List

 

选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如18-80所示,参数说明如18-25所示。

图18-80 Virtual Drive Management

 

表18-25 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:定位虚拟磁盘的所有硬盘。

l     Stop Locate:取消定位。

l     Delete Virtual Drive:删除虚拟磁盘。

l     Expand Virtual Drive:扩展虚拟磁盘容量。

l     Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。

l     Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。

l     Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。

l     Fast Initialization:快速初始化虚拟磁盘。

l     Slow Initialization:安全初始化虚拟磁盘。

l     Check Consistency:一致性校验。

l     Virtual Drive Erase:格式化虚拟磁盘。

Progress

当前任务进度。

l     仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。

l     当前界面不会自动刷新,需退出后重新进入查看当前进度。

Stop

停止当前任务。

仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。

Name

虚拟磁盘名称。

Raid Level

虚拟磁盘RAID级别。

Status

虚拟磁盘当前运行状态。

Size

虚拟磁盘容量。

View Associated Drives

查看成员盘属性。

Advanced...

查看虚拟磁盘高级属性。

 

查看成员盘属性

18-80中选择“View Associated Drives”并按“Enter”。

界面如18-81,显示成员盘列表。

图18-81 View Associated Drives

 

                                步骤 2     选择要查看的成员盘,并按“Enter”。

                                步骤 3     选择“View Drive Properties”并按“Enter”。

进入硬盘属性界面,如18-82界面所示,界面参数如18-26所示。

图18-82 View Drive Properties

 

表18-26 参数说明

参数

参数说明

Operation

该成员盘可执行的操作,包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Place Drive Online/Offline:将硬盘上线/离线。

Drive ID

成员盘的ID

Connection

硬盘接口。

Enclosure Position

机箱或背板的位置。

Slot Number

硬盘的槽位号。

Status

成员盘的当前工作状态。

Size

成员盘的容量。

Type

成员盘类型。

Model

成员盘的模块类型。

Serial Number

硬盘的序列号。

Hardware Vendor

成员盘的生产厂商。

Associated Virtual Drive

成员盘所在的虚拟磁盘。

Advanced...

查询成员盘更多属性。

 

----结束

查看和修改虚拟磁盘高级属性

18-80中选择“Advanced”并按“Enter”。

界面如18-8318-84所示,界面参数如18-27所示。

图18-83 Advanced界面(1

 

图18-84 Advanced界面(2

 

表18-27 参数说明

参数

参数说明

Logical Sector Size

逻辑扇区大小。

Strip Size

条带大小。

Starting Logical Block Addressing

逻辑单元起始地址。

Emulation Type

控制逻辑盘在OS中上报的扇区。

当成员盘为512B/512B时:

l     Default:逻辑盘扇区为512B/512B

l     None:逻辑盘扇区为512B/512B

l     Force:逻辑盘扇区为512B/4KB

当成员盘为512B/4KB时:

l     Default:逻辑盘扇区为512B/4KB

l     None:逻辑盘扇区为512B/512B

l     Force:逻辑盘扇区为512B/4KB

Bad Blocks

是否支持坏块处理。

Access

数据读取的策略,分以下三种:

l     Read Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Current Write Cache Policy

当前写Cache策略。默认为“Write Through”。

说明

“Write Through”表示当硬盘子系统接收到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。

Default Write Cache Policy

默认的写Cache策略。

Disable Background Initialization

是否禁用后台初始化。

Read Cache Policy

当前读Cache策略,默认为“No Read Ahead”,即关闭预读取功能。

说明

不支持在该界面设置读Cache策略。

Drive Cache

是否支持cache

Input/Output

I/O读取策略,默认为“Direct”,即直接从硬盘读取数据,不经过Cache缓存。

说明

不支持在该界面设置I/O读取策略。

Unmap Capability

虚拟磁盘解映射功能使能状态。

不支持设置该功能。

Apply Changes

保存配置。

 

                                步骤 2     按照18-27所述配置“Advanced”的参数。

                                步骤 3     选择“Apply Changes”并按“Enter”。

显示The operation has been performed successfully

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

18.6.1.9 Drive Management

该界面显示硬盘基本属性,提供硬盘操作接口。

界面介绍

Drive Management”界面如18-85所示,显示硬盘列表。

图18-85 Drive List

 

选定要操作的硬盘并按“Enter”进入详细操作界面,如18-86所示,参数说明如18-28所示。

图18-86 Drive Management

 

表18-28 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Initialize Drive:硬盘初始化。

l     Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。

     Simple:仅对硬盘进行一轮擦除动作。

     Normal:对硬盘进行三轮擦除动作。

     Thorough:对硬盘进行九轮擦除动作。

     Stop Erase:停止数据擦除操作。

l     Make Unconfigured Good/Bad:修改硬盘状态。

l     Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。

l     Assign Global Hot Spare Drive:设置全局热备盘。

l     Assign Dedicated Hot Spare Drive:设置局部热备盘。

l     Unassign Hot Spare Drive:删除热备盘。

l     Prepare for Removal:硬盘拔出前的准备工作。

l     Place Drive Online:将Offline状态的硬盘设置为Online

说明

l     Place Drive Online操作只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。

l     对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。

Drive ID

硬盘的ID

Connection

硬盘接口。

Enclosure Position

机箱或背板的位置。

Slot Number

硬盘的槽位号。

Status

硬盘的当前工作状态。

Size

硬盘的容量。

Type

硬盘的类型。

Model

硬盘型号。

Serial Number

硬盘的序列号。

Hardware Vendor

硬盘的生产厂商。

Advanced...

查询更多硬盘属性。

 

安全擦除硬盘数据

该操作会删除硬盘上的数据,请谨慎执行。

将“Operation”设置为“Drive Erase”。

                                步骤 1     选择“Erase Mode”并按“Enter”。

                                步骤 2     在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。

                                步骤 3     选择“Go”并按“Enter”。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示操作成功。

----结束

查看硬盘属性

选择“Advanced...”并按“Enter”。

打开硬盘属性界面,如18-8718-88所示,参数说明如18-29所示。

图18-87 Drive Properties 界面(1

 

图18-88 “Drive Properties”界面(2

 

表18-29 参数说明

参数

参数说明

Certified

硬盘是否有供应商认证。

Logical Sector Size

逻辑扇区大小。

Physical Sector Size

物理扇区大小。

SMART Status

SMART功能是否使能。

Revision

硬盘Firmware版本。

Media Errors

Media error个数。

Predicted Fail Count

Pred fail个数。

SAS Address

硬盘SAS地址。

Mutipath

该功能为支持检测和使用从RAID控制卡到盘柜中的SAS设备的多条路径,连接到盘柜的设备有多条路径。到设备同一端口的冗余路径,可以保障当其中一条路径发生故障时,控制卡和设备之间可以使用另一条路径进行通信。同时使用具有负载平衡的多条路径,而不是单条路径,可以通过冗余来提高可靠性。

Drive Power State

硬盘上电状态。

Cache Setting

是否可设置Cache

Disk Protocol

硬盘支持的协议。

Capable Speed

硬盘速率。

Negotiated Speed

硬盘数据传输速率。

Number of Connections

连接器个数。

FDE Capable

硬盘是否支持FDEFull Disk Encryption)技术。

Cryptographic Erase Capable

硬盘是否支持加密擦除功能。

Unmap Capable

解除映射能力。

Unmap Capability for Configuration

取消映射配置功能。

Temperature

硬盘温度。

 

18.6.1.10 Hardware Components

该界面主要提供RAID控制卡传感器信息。

界面介绍

Hardware Components”界面如18-89,参数说明如18-30所示。

图18-89 Hardware Components

 

表18-30 参数说明

参数

参数说明

Temperature Sensors

当前温度传感器状态。

Fans

当前风扇模块工作状态。

Power Supplies

当前供电模块工作状态。

Enclosure Management

部件管理。

 

18.6.2 View Server Profile

提供RAID控制卡操作管理接口。

界面介绍

View Server Profile”界面如18-90所示,参数说明如18-31所示。

图18-90 View Server Profile

 

表18-31 参数说明

参数

参数说明

UEFI Spec Version

服务器支持的UEFI Spec版本。

Controller Management

提供控制卡管理接口,详细情况请参见18.6.1.7 Controller Management

Hardware Components

提供控制卡部件查询接口,详细情况请参见18.6.1.10 Hardware Components

Drive Management

提供硬盘管理接口,详细情况请参见18.6.1.9 Drive Management

Virtual Drive Management

提供虚拟磁盘管理接口,详细情况请参见18.6.1.8 Virtual Drive Management

 

18.6.3 Manage Foreign Configuration

该界面可查看、导入、清空外部配置。

界面介绍

Manage Foreign Configuration”界面如18-91所示。

图18-91 Manage Foreign Configuration

 

查看并导入外部配置

选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如18-92所示。

图18-92 View Foreign Configuration

 

                                步骤 2     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

清除外部配置

选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     选择“OK”并按“Enter”完成配置。

----结束

18.6.4 Configure

该界面可清除当前所有配置。

界面介绍

Configure”界面如18-93所示,参数说明如18-32所示。

图18-93 Configure

 

表18-32 参数说明

参数

参数说明

Create Virtual Drive

创建RAID

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Make JBOD

硬盘直通功能,硬盘不加入RAID,直接使用。

Clear Configuration

清除当前配置。

 

清除当前配置

选择“Clear Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     选择“OK”并按“Enter”完成配置。

----结束

18.6.5 Set Factory Defaults

恢复出厂配置

在主界面选择“Set Factory Defaults”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     选择“OK”并按“Enter”完成配置。

----结束

18.6.6 Manage MegaRAID Advanced Software Options

该界面提供RAID控制卡高级软件特性查看和导入接口。

界面介绍

Manage MegaRAID Advanced Software Options”界面如18-94所示,界面中参数说明如18-33所示。

图18-94 Manage MegaRAID Advanced Software Options

 

表18-33 参数说明

参数

说明

SAFE ID

RAID控制卡的安全编码。

Serial Number

RAID控制卡序列号。

Activation Key

待激活的高级特性的Key

Active

激活高级特性。

说明

不支持高级特性的激活操作,该功能无效。

Deactive All Trail Software

注销当前所有高级特性。

 

18.6.7 Exit

按“F10”退出BIOS管理界面。

18.7 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

下载和安装StorCLI工具

下载工具

登录BROADCOM网站上RAID控制卡的页面

                                步骤 1     在“DOWNLOADS”页签中单击“Management Software and Tools”。

打开管理软件和工具列表。

                                步骤 2     下载最新版本的“StorCLI”工具。

                                步骤 3     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 1     Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。

StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

18.7.2 常用命令

查询控制卡配置信息

命令功能

查询控制卡的基本配置信息。

命令格式

storcli64 /ccontroller_id  show

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

 

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡配置信息。

[root@localhost storcli]# ./storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
Controller = 0
Status = Success
Description = None
 
Product Name = MegaRAID 9540-8i
Serial Number = SPC1707270
SAS Address =  500062b20b845340
PCI Address = 00:04:00:00
System Time = 03/02/2023 14:49:09
Mfg. Date = 05/03/22
Controller Time = 03/02/2023 06:49:09
FW Package Build = 52.23.0-4636
BIOS Version = 7.23.00.0_0x07170100
FW Version = 5.230.01-3723
Driver Name = megaraid_sas
Driver Version = 07.710.50.00-rc1
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x10E6
SubVendor Id = 0x1000
SubDevice Id = 0x40D5
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 4
Device Number = 0
Function Number = 0
Domain ID = 0
Security Protocol = None
Drive Groups = 1
 
TOPOLOGY :
========
 
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace TR
-----------------------------------------------------------------------------
 0 -   -   -        -   RAID1 Optl  N  837.843 GB dflt N  N   dflt Y      N
 0 0   -   -        -   RAID1 Optl  N  837.843 GB dflt N  N   dflt Y      N
 0 0   0   69:3     1   DRIVE Onln  N  837.843 GB dflt N  N   dflt -      N
 0 0   1   69:4     2   DRIVE Onln  N  837.843 GB dflt N  N   dflt -      N
-----------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Optl=Optimal|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 1
 
VD LIST :
=======
 
---------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC       Size Name
---------------------------------------------------------------
0/0   RAID1 Optl  RW     No      NRWTD -   ON  200.000 GB
---------------------------------------------------------------
 
VD=Virtual Drive| DG=Drive Group|Rec=Recovery
Cac=CacheCade|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|dflt=Default|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady
B=Blocked|Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
JBOD Drives = 1
 
JBOD LIST :
=========
 
------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model            Sp Type
------------------------------------------------------------------------------
69:2      0 JBOD  -  838.362 GB SAS  HDD N   N  512B HUC109090CSS600  U  -
------------------------------------------------------------------------------
 
ID=JBOD Target ID|EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|Onln=Online
Offln=Offline|Intf=Interface|Med=Media Type|SeSz=Sector Size
SED=Self Encryptive Drive|PI=Protection Info|Sp=Spun|U=Up|D=Down
 
Physical Drives = 6
 
PD LIST :
=======
 
------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model            Sp Type
------------------------------------------------------------------------------
69:2      0 JBOD  -  838.362 GB SAS  HDD N   N  512B HUC109090CSS600  U  -
69:3      1 Onln  0  837.843 GB SAS  HDD N   N  512B HUC109090CSS600  U  -
69:4      2 Onln  0  837.843 GB SAS  HDD N   N  512B HUC109090CSS600  U  -
69:5      3 UGood -  837.843 GB SAS  HDD N   N  512B HUC109090CSS600  U  -
69:6      4 UGood -  837.843 GB SAS  HDD N   N  512B HUC109090CSS600  U  -
69:7      5 UGood -  837.843 GB SAS  HDD N   N  512B HUC109090CSS600  U  -
------------------------------------------------------------------------------
 
EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Sntze=Sanitize|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=UGood Unsupported|UGShld=UGood shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported|Rbld=Rebuild
 
Enclosures = 1
 
Enclosure LIST :
==============
 
------------------------------------------------------------------------
EID State Slots PD PS Fans TSs Alms SIM Port# ProdID     VendorSpecific
------------------------------------------------------------------------
 69 OK        8  6  0    0   0    0   0 -     VirtualSES
------------------------------------------------------------------------
 
EID=Enclosure Device ID | PD=Physical drive count | PS=Power Supply count
TSs=Temperature sensor count | Alms=Alarm count | SIM=SIM Count | ProdID=Product ID

18.7.2.11 查询和设置Spinup参数

命令功能

查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。

命令格式

storcli64 /ccontroller_id show spinupdelay

storcli64 /ccontroller_id show spinupdrivecount

storcli64 /ccontroller_id set spinupdelay=time

storcli64 /ccontroller_id set spinupdrivecount=count

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

每组起转硬盘间的时间间隔

默认为2,单位为s

count

上电时允许同时起转的硬盘数量

默认为4

 

查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡Spinup参数。

domino:~# ./storcli64 /c0 show spinupdelay
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop     Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
 
domino:~# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop           Value
--------------------------
Spin Up Drive Count 2
--------------------------

# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。

domino:~# ./storcli64 /c0 set spinupdelay=20
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
---------------------------
Ctrl_Prop     Value
---------------------------
Spin Up Delay 20 second(s)
---------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop           Value
--------------------------
Spin Up Drive Count 5
--------------------------

18.7.2.12 设置硬盘PowerSave功能

命令功能

设置空闲硬盘和热备盘的省电模式。

命令格式

storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

state

省电模式的启用状态。

l     on:启用

l     off:禁用

disktype

硬盘类型。

l     1:空闲硬盘

l     2:热备盘

time

等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。

单位为minutes

 

查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置空闲硬盘的省电模式。

domino:~# ./storcli64 /c0 set ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
------------------------
Ctrl_Prop    Value
------------------------
SpnDwnUncDrv Enabled
SpnDwnTm     30 minutes
------------------------

18.7.2.13 查询和设置物理硬盘初始化功能

命令功能

设置物理硬盘初始化功能,查询初始化进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看初始化进度

l     start:开始初始化

l     stop:结束初始化

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 初始化slot3硬盘,并查询初始化进度。

domino:~# ./storcli64 /c0/e252/s3 start initialization
Controller = 0 
Status = Success 
Description = Start Drive Initialization Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show initialization
Controller = 0 
Status = Success 
Description = Show Drive Initialization Status Succeeded. 
------------------------------------------------------ 
Drive-ID    Progress% Status      Estimated Time Left 
------------------------------------------------------ 
/c0/e252/s3         0 In progress 0 Seconds 
------------------------------------------------------  

18.7.2.14 查询和设置硬盘数据擦除功能

命令功能

设置物理硬盘数据擦除模式,查询擦除进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

mode

数据擦除模式

l     simple:对硬盘进行一轮擦除动作。

l     normal:对硬盘进行三轮擦除动作。

l     thorough:对硬盘进行九轮擦除动作。

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# slot 3硬盘进行simple数据擦除,并查询擦除进度。

domino:~# ./storcli64 /c0/e252/s3 start erase simple
Controller = 0 
Status = Success 
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0 
Status = Success 
Description = Show Drive Erse Status Succeeded. 
------------------------------------------------------ 
Drive-ID    Progress% Status      Estimated Time Left 
------------------------------------------------------ 
/c0/e252/s3         0 In progress 0 Seconds 
------------------------------------------------------     
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0 
Status = Success 
Description = Stop Drive Erase Succeeded.

18.7.2.15 设置后台资源占用率

命令功能

设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。

命令格式

storcli64 /ccontroller_id set action=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要设置的项目

l     bgirate:后台初始化速率

l     ccrate:一致性校验速率

l     prrate:硬盘巡检速率

l     rebuildrateRAID重构速率

l     reconrateRAID扩容和迁移速率

value

后台任务资源占用率

1100

 

查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置硬盘巡检速率为“30%”。

domino:~# ./storcli64 /c0 set prrate=30
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
----------------------- 
Ctrl_Prop        Value 
----------------------- 
Patrol Read Rate 30% 
-----------------------  

18.7.2.16 设置BIOS Stop on Error功能

命令功能

设置控制卡BIOS在检测到异常时停止继续启动的功能。

命令格式

storcli64 /ccontroller_id set bios mode=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要执行的操作

l     soe:控制卡BIOS在检测到异常时停止启动

l     ie:忽略检测到的异常

 

查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 开启Stop on error功能。

domino:~# ./storcli64 /c0 set bios mode=soe
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
---------------- 
Ctrl_Prop Value 
---------------- 
BIOS Mode SOE 
----------------

18.7.2.17 创建和删除RAID

命令功能

创建、删除RAID

命令格式

命令

说明

storcli64 /ccontroller_id add vd rlevel[0|1|10] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid]

创建RAID

storcli64 /ccontroller_id/vraid_id del

删除RAID

 

*表示默认值。

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

rlevel

要配置的RAID组级别

level可为0110,数字分别代表对应的RAID组级别。

size

要配置的RAID组容量

默认值为all,即所有成员盘的容量之和。

name

要配置的RAID组名称

-

drives

要加入RAID组的硬盘

-

startid-endid

硬盘的起始和结束ID

-

slot_id

硬盘ID

-

pdperarray

子组中的硬盘数

创建RAID10时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。

-

pdcache

设置RAID的成员盘的Cache状态

l     on

l     off

l     default

pi

使能数据保护

-

EmulationType

控制逻辑盘在OS中上报的扇区

l     0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     1: Disable,即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     2Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Spares

指定RAID组的热备盘

-

raid_id

要删除的RAID组的ID

-

 

l     以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

l     当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid

使用指南

使用实例

# 创建RAID 0

domino:~# ./storcli64 /c0 add vd r0 size=100GB drives=252:0-3
Controller = 0 
Status = Success 
Description = Add VD Succeeded

# 删除RAID

domino:~# ./storcli64 /c0/v0 del
Controller = 0 
Status = Success 
Description = Delete VD Succeeded

18.7.2.18 设置RAID前台初始化

命令功能

设置RAID前台初始化模式。

命令格式

storcli64 /ccontroller_id/vraid_id start mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

mode

前台初始化模式

l     init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。

l     init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 快速初始化RAID

domino:~# ./storcli64 /c0/v0 start init
Controller = 0 
Status = Success 
Description = Start INIT Operation Success

18.7.2.19 查询和设置RAID后台初始化

命令功能

暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。

命令格式

storcli64 /ccontroller_id/vraid_id action bgi

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

action

后台初始化的操作

l     show:查看后台初始化进度

l     pause:暂停后台初始化

l     resume:继续后台初始化

l     stop:停止后台初始化

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查看后台初始化进度。

domino:~# ./storcli64 /c0/v0 show bgi
Controller = 0 
Status = Success 
Description = Noe 
VD Operation Status : 
=================== 
------------------------------------------------------ 
VD Operation Progress% Staus      Estimated Time Left 
------------------------------------------------------ 
 0 BGI               3 In progress 53 Minutes 
------------------------------------------------------

18.7.2.20 设置启动项

命令功能

设置虚拟磁盘或物理硬盘为启动项。

命令格式

storcli64 /ccontroller_id/vvd_id set bootdrive=on

storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

vd_id

待设置的虚拟磁盘的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置VD0为启动项。

domino:~# ./storcli64 /c0/v0 set bootdrive=on
Controller = 0 
Status = Success 
Description = Noe 
Detailed Status : 
=============== 
---------------------------------------- 
VD Property   Value Staus  ErrCd ErrMsg 
---------------------------------------- 
 0 Boot Drive On    Success    0 - 
----------------------------------------

# 设置slot 7硬盘为启动项。

domino:~# ./storcli64 /c0/e252/s7 set bootdrive=on
Controller = 0 
Status = Success 
Description = Noe 
Controller Properties : 
===================== 
------------------- 
Ctrl_Prop Value 
------------------- 
BootDrive PD:252_7 
-------------------

18.7.2.21 设置紧急热备功能

命令功能

设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。

命令格式

storcli64 /ccontroller_id set eghs eug=state

storcli64 /ccontroller_id set eghs smarter=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

state

紧急热备功能的启用状态

l     on:启用

l     off:禁用

 

查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。

domino:~# ./storcli64 /c0 set eghs eug=on
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
------------------ 
Ctrl_Prop   Value 
------------------ 
EmergencyUG ON 
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
----------------------- 
Ctrl_Prop        Value 
----------------------- 
EmergencySmarter ON 
-----------------------

18.7.2.22 设置热备盘

命令功能

设置全局热备盘和局部热备盘。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive

设置全局热备盘。

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=<N|0,1,2..>]

设置局部热备盘。

storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive

删除热备盘。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

dgs

硬盘组的ID

l     不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘

l     0,1,2..:硬盘组ID

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置slot 3硬盘为全局热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive
Controller = 0 
Status = Success 
Description = Add Hot Spare Succeeded.    

# 设置slot 3硬盘为vd0的局部热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive dgs=0
Controller = 0 
Status = Success 
Description = Add Hot Spare Succeeded.   

18.7.2.23 查询和设置RAID重构

命令功能

开始、暂停、继续、停止RAID重构,并查询进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

action

要执行的操作

l     start:开始重构

l     show:查看重构进度

l     pause:暂停重构

l     resume:继续重构

l     stop:停止重构

 

查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 手动开始重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

# 查看硬盘当前重构状态。

[root@localhost ~]# ./storcli64 /c0/e70/s7 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e70/s7         5 In progress 26 Minutes
-----------------------------------------------------

# 暂停硬盘重构进程。

[root@localhost ~]# ./storcli64 /c0/e70/s7 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Succeeded.

# 继续重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 resume rebuild
Controller = 0
Status = Success
Description = Resume Drive Rebuild Succeeded.

# 停止重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 stop rebuild
Controller = 0
Status = Success
Description = Stop Drive Rebuild Succeeded.

18.7.2.24 查询和设置回拷

命令功能

开始、暂停、继续、停止回拷,并查询进度。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id start copyback target=target_enclosure_id:target_slot_id

开始回拷。

storcli64 /ccontroller_id/eenclosure_id/sslot_id action copyback

暂停、继续、查看、停止回拷。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

target_enclosure_id

执行回拷的目标硬盘所在EnclosureID

-

target_slot_id

执行回拷的目标物理硬盘槽位编号。

-

action

要执行的操作

l     show:查看回拷进度

l     pause:暂停回拷

l     resume:继续回拷

l     stop:停止回拷

 

查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 手动开始回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s7 start copyback target=70:3
Controller = 0
Status = Success
Description = Start Drive Copyback Succeeded.

# 查看硬盘当前回拷状态。

[root@localhost ~]# ./storcli64 /c0/e70/s3 show copyback
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e70/s3        17 In progress 16 Minutes
-----------------------------------------------------

# 暂停硬盘回拷进程。

[root@localhost ~]# ./storcli64 /c0/e70/s3 pause copyback
Controller = 0
Status = Success
Description = Pause Drive Copyback Succeeded.

# 继续回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s3 resume copyback
Controller = 0
Status = Success
Description = Resume Drive Copyback Succeeded.

# 停止回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s3 stop copyback
Controller = 0
Status = Success
Description = Stop Drive Copyback Succeeded.

18.7.2.25 设置Smart扫描周期

命令功能

设置Smart扫描周期。

命令格式

storcli64 /ccontroller_id set smartpollinterval=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

value

Smart扫描周期

单位为s

 

查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置Smart扫描周期为“60s”。

domino:~# ./storcli64 /c0 set smartpollinterval=60
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
------------------------------- 
Ctrl_Prop         Value 
------------------------------- 
SmartPollInterval 60 second(s) 
-------------------------------

18.7.2.26 通过增加成员盘可用容量扩容RAID

命令功能

RAID2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

命令格式

storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要扩容的RAIDID

capacity

扩容后的容量

expandarray

当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查询VD的可扩展容量。

[root@localhost ~]# storcli64 /c0/v1 show expansion 
CLI Version = 007.1416.0000.0000 July 24, 2020 
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64 
Controller = 0 
Status = Success 
Description = None 
 
 
EXPANSION INFORMATION : 
===================== 
 
-------------------------------------------- 
VD      Size OCE NoArrExp WithArrExp Status 
-------------------------------------------- 
 1 10.000 GB Y   3.627 TB 5.447 TB   - 
-------------------------------------------- 
 
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion 
 VD=Virtual Drive | NoArrExp - Without Array Expansion

如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。

# VD0的容量扩大“200GB”。

domino:~# ./storcli64 /c0/v0 expand size=200GB
Controller = 0 
Status = Success 
Description = expansion operation succeeded. 
EXPANSION RESULT : 
================ 
-------------------------------------------------------------------------------- 
VD     Size FreSpc     ReqSize  AbsUsrSz   %FreSpc NewSize    Statsu NoArrExp 
-------------------------------------------------------------------------------- 
 0 100.0 GB 457.861 GB 200.0 GB 201.458 GB      44 301.458 GB -      457.861 GB 
-------------------------------------------------------------------------------- 
Size - Current VD size|FreSpc - Freespace available before expansion 
%FreSpc - Requested expansion size in % of available free space 
AbsUsrSz - User size rounded to nearest %

RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。

18.7.2.27 通过增加新盘扩容或迁移RAID

命令功能

RAID2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

当增加新盘后,可进行RAID级别迁移。

命令格式

storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

vd_id

要操作的RAIDID

slot_id

要加入RAID的新硬盘的槽位号

level

增加硬盘后RAID的级别

l     与原RAID级别相同时,该命令为扩大RAID容量。

l     与原RAID级别不同时,该命令为RAID级别迁移。

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# RAID 0中增加slot 2硬盘扩容。

domino:~# ./storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2
Controller = 0 
Status = Success 
Description = Start MIGRATE Operation Success.     
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0 
Status = Success 
Description = None 
VD Operation Status : 
=================== 
------------------------------------------------------- 
VD Operation Progress% Status      Estimated Time Left 
------------------------------------------------------- 
 0 Migrate           1 In progress 13 Minutes 
-------------------------------------------------------  

# 单盘RAID 0加盘迁移至RAID 1

domino:~# ./storcli64 /c0/v0 start migrate type=r1 option=add drives=252:3
Controller = 0 
Status = Success 
Description = Start MIGRATE Operation Success.     
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0 
Status = Success 
Description = None 
VD Operation Status : 
=================== 
------------------------------------------------------- 
VD Operation Progress% Status      Estimated Time Left 
------------------------------------------------------- 
 0 Migrate           1 In progress 14 Minutes 
-------------------------------------------------------    

18.7.2.28 设置一致性校验参数

命令功能

设置一致性校验参数。

命令格式

storcli64 /ccontroller_id[/vvd_id]show cc

storcli64 /ccontroller_id/vvd_id start cc force

storcli64 /ccontroller_id/vvd_id action cc

storcli64 /ccontroller_id set cc=conc delay=value starttime=time excludevd=evd_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要操作的RAIDID

action

要执行的操作

l     pause:暂停

l     resume:继续执行

l     stop:停止

value

一致性校验周期

time

一致性校验起始时间

例如:2016/07/14 22

说明

起始时间单位为

evd_id

不进行一致性校验的虚拟磁盘ID

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

show命令中不带/vvd_id时,表示查询自动CC参数。

show命令中带/vvd_id时,表示查询CC进度。

使用实例

# 设置一致性自动检查参数。

domino:~# ./storcli64 /c0 set cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
------------------------------------ 
Ctrl_Prop      Value 
------------------------------------ 
CC Mode         CONC 
CC delay        1 
CC Starttime    2016/07/14 22:00:00 
CC ExcludeVD(0) Success 
------------------------------------

# 查询CC进度。

domino:~# ./storcli64 /c0/v1 show cc
Controller = 0 
Status = Success 
Description = None 
VD Operation Status : 
=================== 
----------------------------------------------------------- 
VD Operation Progress% Status          Estimited Time Left 
----------------------------------------------------------- 
 0 CC        -         Not in progress - 
-----------------------------------------------------------

18.7.2.29 查询和设置Patrolread参数

命令功能

查询和设置系统巡检的相关参数。

命令格式

storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number

storcli64 /ccontroller_id set patrolread delay=delaytime

storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}

storcli64 /ccontroller_id show patrolread

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

系统巡检起始时间

例如:2016/07/15 23

说明

起始时间单位为

number

可同时巡检的硬盘数量

delaytime

系统巡检周期

单位为hour

 

查看RAID控制卡ID的方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。

domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

---------------------------------------

Ctrl_Prop          Value

---------------------------------------

PR Starttime       2016/07/15 23:00:00

PR MaxConcurrentPd 2

---------------------------------------

# 使能patrolread并设置为自动模式。

domino:~# ./storcli64 /c0 set patrolread=on mode=auto
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
--------------------------------------- 
Ctrl_Prop        Value 
--------------------------------------- 
Patrol Read Mode auto 
---------------------------------------

# 查询patrolread信息。

domino:~# ./storcli64 /c0 show patrolread

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

--------------------------------------------

Ctrl_Prop          Value

--------------------------------------------

PR Mode       2016/07/15 23:00:00

PR Execution Delay

PR iterations completed 0

PR Next Start time      07/16/2016,00:00:00

PR on SSD               Disabled

PR Current State        Stopped

--------------------------------------------

18.7.2.30 设置硬盘状态

命令功能

设置硬盘状态。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

state

要设置的硬盘状态

l     online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。

l     offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。

l     jbod:通过该参数可以将硬盘设置为直通硬盘。

l     good

     ubad状态的硬盘,使用该参数可将硬盘设为ugoodforeign)状态,此时可选择导入或清除外来配置;

     JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。

l     good:将硬盘设为空闲盘

force

强制设置硬盘状态,为可选参数。

如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force

-

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。

domino:~# ./storcli64 /c0/e0/s1 set good
Controller = 0 
Status = Success 
Description = Set Drive Good Succeeded.

# 设置slot 7硬盘为直通盘。

domino:~# ./storcli64 /c0/e252/s7 set JBOD
Controller = 0 
Status = Success 
Description = Set Drive JBOD Succeeded.

18.7.2.31 设置硬盘定位指示灯状态

命令功能

点亮和熄灭指定硬盘的定位指示灯。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。

slot_id

物理硬盘槽位编号

可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。

action

要执行的操作

l     start:点亮硬盘的定位指示灯。

l     stop:熄灭硬盘的定位指示灯。

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 点亮slot 7硬盘的定位指示灯。

domino:~# ./storcli64 /c0/e252/s7 start locate
Controller = 0 
Status = Success 
Description = Start Drive Locate Succeeded.

18.7.2.32 查询RAID控制卡/RAID/物理硬盘信息

命令功能

查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。

命令格式

storcli64 /ccontroller_id show

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

storcli64 /ccontroller_id/vvd_id show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

enclosure_id

硬盘所在EnclosureID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡连接的硬盘背板的ID

slot_id

物理硬盘槽位编号

可以将该参数设置为all,表示查询所有硬盘的ID

vd_id

虚拟磁盘ID

可以将该参数设置为all,表示查询所有虚拟磁盘的ID

 

使用指南

回显中主要字段的含义如18-34所示。

表18-34 回显说明

命令格式

字段

含义

举例

storcli64 /ccontroller_id show

Product Name

RAID控制卡的型号

sas3108

FW Version

RAID控制卡的FW版本

4.660.00-8140

Driver Name

RAID控制卡的驱动名称

megaraid_sas

Driver Version

RAID控制卡的驱动版本

06.811.02.00-rh1

Current Personality

RAID控制卡的工作模式

RAID-Mode

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

SN

物理硬盘的序列号

PHWL517601YR800RGN

Manufacturer Id

物理硬盘的供应商ID

ATA

Model Number

物理硬盘的模块序号

INTEL SSDSC2BB800G4

Firmware Revision

物理硬盘的FW版本

D2010370

Raw size

物理硬盘的容量

745.211 GB [0x5d26ceb0 Sectors]

Logical Sector Size

物理硬盘逻辑分区大小

512B

Physical Sector Size

物理扇区大小

4 KB

storcli64 /ccontroller_id/vvd_id show all

TYPE

RAID组的级别

RAID1

State

RAID组的状态

Optl

Access

RAID组数据的访问策略

RW

Cache

RAID组当前的读写策略与I/O Policy

RWTD

Size

RAID组的大小

100.0 GB

PDs for VD0

RAID组下的物理硬盘

-

Strip Size

RAID组的条带大小

256KB

Write Cache(initial setting)

RAIDCache的写策略

Write Through

Disk Cache Policy

RAID组成员盘的Cache策略

Disk's Default

 

使用实例

#查询RAID控制卡的详细信息。

domino:~# ./storcli64 /c0 show
Controller = 0
Status = Success
Description = None
 
Product Name = SAS3408
Serial Number = 024JNFCNK2000314
SAS Address =  58cfd18f55442000
PCI Address = 00:03:00:00
System Time = 07/18/2019 14:55:54
Mfg. Date = 00/00/00
Controller Time = 07/18/2019 06:55:53
FW Package Build = 50.6.3-0109
BIOS Version = 7.06.02.2_0x07060502
FW Version = 5.060.01-2262
Driver Name = megaraid_sas
Driver Version = 07.709.08.00
Vendor Id = 0x1000
Device Id = 0x17
SubVendor Id = 0x19E5
SubDevice Id = 0xD213
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 3
Device Number = 0
Function Number = 0
Drive Groups = 1
 
TOPOLOGY :
========
 
---------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT     Size PDC  PI SED DS3  FSpace TR
---------------------------------------------------------------------------
 0 -   -   -        -   RAID0 Optl  N  3.637 TB dflt N  N   dflt N      N
 0 0   -   -        -   RAID0 Optl  N  3.637 TB dflt N  N   dflt N      N
 0 0   0   65:0     41  DRIVE Onln  N  3.637 TB dflt N  N   dflt -      N
---------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 1
 
VD LIST :
=======
 
-------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC     Size Name
-------------------------------------------------------------
0/0   RAID0 Optl  RW     Yes     NRWTD -   ON  3.637 TB
-------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 39
 
PD LIST :
=======
 
------------------------------------------------------------------------------
EID:Slt DID State  DG       Size Intf Med SED PI SeSz Model                Sp
------------------------------------------------------------------------------
65:0     41 Onln    0   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  U
65:1     45 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:2     33 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:3     40 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM115-1YZ107   D
65:4     39 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:5     38 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:6     46 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:7     53 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:8     61 UGUnsp  -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  U
65:9      0 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM115-1YZ107   D
65:10     1 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:11    62 UGUnsp  -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  U
65:12    51 UGood   -   9.094 TB SATA HDD N   N  512B ST10000NM0478-2H7100 D
65:13    52 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:14    50 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:16    57 UGUnsp  -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 U
65:17    58 UGUnsp  -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 U
65:18    42 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:19    44 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:20    49 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:21    43 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:22    48 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:23    47 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  D
65:24     3 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  D
65:25     5 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:26     4 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:27     2 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  D
65:28    59 UGUnsp  -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  U
65:29     6 UGood   - 837.258 GB SAS  HDD N   N  512B ST900MM0168          D
65:30    55 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  D
65:31    60 UGUnsp  -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  U
65:32    56 UGUnsp  -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  U
65:33    35 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:34    34 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:35    37 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:36    36 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:37    30 UGood   - 278.464 GB SAS  HDD N   N  512B AL15SEB030N          D
65:38    32 UGood   -   1.745 TB SATA SSD N   N  512B INTEL SSDSC2KG019T8  U
65:39    31 UGood   - 222.585 GB SATA SSD N   N  512B INTEL SSDSC2KG240G8  U
------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded

#查询slot0的物理硬盘的信息。

[root@localhost ~]# ./storcli64 /c0/e65/s0 show all
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
 
 
Drive /c0/e65/s0 :
================
 
--------------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model               Sp
--------------------------------------------------------------------------
65:0     41 Onln   0 3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 U
--------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Drive /c0/e65/s0 - Detailed Information :
=======================================
 
Drive /c0/e65/s0 State :
======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature =  30C (86.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
 
 
Drive /c0/e65/s0 Device attributes :
==================================
SN = ZC18JNP4
Manufacturer Id = ATA
Model Number = ST4000NM0035-1V4107
NAND Vendor = NA
WWN = 5000c500b3297aee
Firmware Revision = TNA5
Raw size = 3.638 TB [0x1d1c0beb0 Sectors]
Coerced size = 3.637 TB [0x1d1a94800 Sectors]
Non Coerced size = 3.637 TB [0x1d1b0beb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 12.0Gb/s
NCQ setting = Enabled
Write Cache = Disabled
Logical Sector Size = 512B
Physical Sector Size = 512B
Connector Name = C0   & C1
 
 
Drive /c0/e65/s0 Policies/Settings :
==================================
Drive position = DriveGroup:0, Span:0, Row:0
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = Yes
Wide Port Capable = No
 
Port Information :
================
 
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
   0 Active 12.0Gb/s  0x500605b000027380
-----------------------------------------
 
 
Inquiry Data =
5a 0c ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 20 20 20 20 20 20 20 20 20 20 20 20
43 5a 38 31 4e 4a 34 50 00 00 00 00 00 00 4e 54
35 41 20 20 20 20 54 53 30 34 30 30 4d 4e 30 30
35 33 31 2d 34 56 30 31 20 37 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 10 80
00 40 00 2f 00 40 00 02 00 02 07 00 ff 3f 10 00
3f 00 10 fc fb 00 10 5c ff ff ff 0f 00 00 07 00

# 查询VD 0的信息。

[root@rhel6u5 ~]# /opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
 
 
/c0/v0 :
======
 
-------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC     Size Name
-------------------------------------------------------------
0/0   RAID0 Optl  RW     Yes     NRWTD -   ON  3.637 TB
-------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
 
PDs for VD 0 :
============
 
--------------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model               Sp
--------------------------------------------------------------------------
65:0     41 Onln   0 3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 U
--------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
VD0 Properties :
==============
Strip Size = 64 KB
Number of Blocks = 7812499456
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 1
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = None
Active Operations = None
Exposed to OS = Yes
Creation Date = 06-07-2025
Creation Time = 08:44:04 AM
Emulation type = default
Cachebypass size = Cachebypass-64k
Cachebypass Mode = Cachebypass Intelligent
Is LD Ready for OS Requests = Yes
SCSI NAA Id = 68cfd18f554420002ffcf3d4ce5e8046

18.7.2.33 手动重构RAID

命令功能

手动重构RAID组。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row

storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

要加入Array的物理硬盘槽位编号

DG

硬盘发生故障的DGID

Arr

硬盘发生故障的ArrayID

Row

硬盘发生故障的Arrayrow number

 

以上涉及的各个ID的查询方法请参见16.7.2.23 查询RAID控制卡/RAID/物理硬盘信息

使用指南

重构RAID3个步骤进行:

1.通过./storcli64 /c0 show 命令,查询故障硬盘的DGArrRow所对应的数字。

2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。

3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID

使用实例

# 将硬盘加入RAID组。

[root@localhost ~]# storcli64 /c0/e252/s1 insert dg=0 array=0 row=0
Controller = 0
Status = Success
Description = Insert Drive Succeeded.

# 手动重构RAID

[root@localhost ~]# storcli64 /c0/e252/s1 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

18.7.2.34 收集和清除RAID控制卡日志

命令功能

收集和清除RAID控制卡的日志。

命令格式

命令

说明

storcli64 /ccontroller_id show termlog [type=logtype] [logfile[=filename]]

收集RAID控制卡的日志。

storcli64 /ccontroller_id delete termlog

删除RAID控制卡的日志。

storcli64 /ccontroller_id show alilog [logfile[=filename]]

收集控制卡属性信息、TTY日志和事件到指定文件。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

logtype

查询日志类型。

l     config:查询TTY BBU缓存设置。

l     content:查询日志信息。

缺省值:content

filename

文件名称,将保存日志到此文件。

可自定义文件名称,缺省时将默认保存至“StorSAS.log”文件中。

 

查询RAID控制卡ID的查询方法请参见18.7.2.32 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 收集RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19  6:48:11: C0:TTY History buffer cleared
 
Controller = 0
Status = Success
Description = None

# 删除RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 delete termlog
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------------------
Ctrl Method Result
----------------------------
   0 Delete Termlog deleted
----------------------------

18.7.2.35 查看/导入/清除外部配置

命令功能

指导用户查看、导入或者清除RAID控制卡的外部配置。

命令格式

storcli64 /ccontroller_id/fall import preview

storcli64 /ccontroller_id/fall import

storcli64 /ccontroller_id/fall delete

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

 

使用指南

使用实例

# 查看RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall import preview
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
 
 
FOREIGN PREVIEW :
===============
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Total foreign drive groups = 0

# 删除RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall delete
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration

18.7.2.36 Snapdump相关操作

命令功能

介绍Snapdump相关操作。

命令格式

命令格式

说明

storcli64 /ccontroller_id  show snapdump

查询snapdump功能是否打开,是否有自动生成的snapdump文件。

storcli64 /ccontroller_id  get snapdump id=all

获取历史生成的snapdump文件。

storcli64 /ccontroller_id  get snapdump

获取历史生成的snapdump文件和当前再生成一个snapdump文件。

storcli64 /ccontroller_id  set snapdump state=on|off

打开和关闭snapdump功能。

storcli64 /ccontroller_id  delete snapdump force

删除历史snapdump日志功能。

 

参数说明

参数

参数说明

取值

controller_id

控制卡ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

state=on|off

Snapdump状态

on为开启,off为关闭

 

使用指南

l     Snapdump文件是一个日志文件,在一些RAID控制卡异常场景下可以自动生成的日志,也可以主动获取当前RAID控制卡的snapdump日志。

l     使用前可以先查询snapdump功能是否打开,是否有自动生成的snapdump文件,再去收集snapdump

l     获取历史生成的snapdump文件和当前再生成一个snapdump文件会影响业务,建议离线使用。

l     打开和关闭snapdump功能,如果无法打开注意看提示,请确认当前RAID控制卡固件版本是否支持。

l     收集snapdump文件在当前命令执行目录下,文件格式为snapdump_**************.zip

使用实例

#查询snapdump功能是否打开,是否有自动生成的snapdump文件。

[root@localhost ~]# storcli64 /c0 show snapdump
Controller = 0
Status = Success
Description = None
 
SnapDump Properties :
===================
 
----------------------------------
Ctrl_Prop              Value
----------------------------------
Snapdump               ON
Snapdump Save Count    N/A
Snapdump Delay OCR     15
Snapdump properties    Read-Write
Snapdump Current Count 2
----------------------------------
 
SnapDump Details :
================
 
----------------------------------------------
ID Snapdump Size Snapdump time       OnDemand
----------------------------------------------
0       2649396 08-06-2021 07:23:43 Yes
1       2070406 08-07-2021 06:59:24 Yes
----------------------------------------------

#获取历史生成的snapdump文件。

[root@localhost ~]# storcli64 /c0 get snapdump id=all
Controller = 0
Status = Success
Description = None

#获取历史生成的snapdump文件和当前再生成一个snapdump文件。

[root@localhost ~]# storcli64 /c0 get snapdump
Controller = 0
Status = Success
Description = Download Support Log

#打开和关闭snapdump功能。

打开:

[root@localhost ~]# storcli64 /c0 set snapdump state=on
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-------------------
Ctrl_Prop    Value
-------------------
Set Snapdump on
-------------------

关闭:

[root@localhost ~]# storcli64 /c0 set snapdump state=off
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-------------------
Ctrl_Prop    Value
-------------------
Set Snapdump off
-------------------

#删除历史snapdump日志功能。

[root@localhost ~]# storcli64 /c0 delete snapdump force
Controller = 0
Status = Success
Description = Snapdump delete

18.7.2.37 升级控制卡FW

命令功能

升级控制卡FW

命令格式

命令格式

说明

storcli64 /cController_ID download file=xxx.rom [noverchk]

升级控制卡FW

 

参数说明

参数

参数说明

取值

controller_id

控制卡ID

-

xxx.rom

固件包的名称

-

 

使用指南

l     使用noverchk参数时将不检查固件包,降级版本时必须使用此参数。

l     升级完成后,需重新上下电服务器使固件包生效。

使用实例

#升级控制卡FW

[root@localhost fw]# ./storcli64_arm /c0 download file =FW4.rom noverchk
Download Completed.
Flashing image to adapter...
Controller = 0
Status = Success
Description = F/W Flash Completed.Please reboot the system for the changes to take effect.


19 BROADCOM MegaRAID 9560-8i

关于本章

主要介绍BROADCOM MegaRAID 9560-8i RAID控制卡的外观、特性、以及配置方法。

本章节涉及的截图以5.200.02-3681 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

18.1  概述

18.2  功能

18.3  初始配置

18.4  常用配置

18.5  故障处理

18.6  管理界面介绍

18.7  OS命令行工具

概述

BROADCOM MegaRAID 9560-8i RAID控制卡(以下简称9560-8i)是基于MegaRAID架构的8端口12Gbit/s SAS控制卡,并采用PCIe4.0x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

9560-8i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

9560-8i自带的CacheRAID控制卡性能的提升有非常重要的作用,主要体现在:

l     在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

l     在读数据时,如果可以直接在Cache中命中的话,将减少硬盘寻道操作,降低响应时间,提升了数据读速度。

l     Cache数据的掉电保护依赖于与RAID控制卡相连的超级电容。超级电容的外形、连接方式、安装方式可参考各服务器的用户指南。

l     9560-8i分为支持配置超级电容与不支持配置超级电容两种形态,只有支持配置超级电容的RAID控制卡具有Cache数据的掉电保护功能。

l     9560-8i不支持flush write verify功能。

9560-8i的结构如19-119-2所示。

图19-1 9560-8i正面

 

图19-2 9560-8i背面

 

1

心跳灯

2

芯片过温指示灯

3

SlimSAS接口(SFF-8654

4

散热器

5

超级电容

6

超级电容错误状态指示灯

 

9560-8i单板指示灯说明如19-1所示。

表19-1 RAID控制卡单板指示灯说明

指示灯

颜色

说明

芯片过温指示灯

黄色

l     常亮:设备温度传感器超过阈值。

l     灭:设备温度在正常温度范围内。

超级电容错误状态指示灯

黄色

l     常亮:超级电容电源模块故障或者过温。

l     灭:超级电容正常或不在位。

心跳灯

绿色

l     闪烁:芯片运行正常,闪烁频率为1Hz

l     灭:RAID控制卡未开始运行或FW运行异常。

 

19.2 功能

支持多种RAID类型

9560-8i支持的硬盘、虚拟磁盘、硬盘组数量分别为:

l     最多支持240个硬盘。

该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

l     最多支持64个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

l     最多支持64个硬盘组(即配置界面中看到的“Drive Group”),每个硬盘组最多支持240个硬盘。

l     每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

9560-8i支持的RAID类型及对应的硬盘个数如19-2所示。

表19-2 RAID-硬盘参数

RAID级别

支持硬盘数

支持子组数

子组支持硬盘数

允许坏盘数

RAID 0

132

不涉及

不涉及

0

RAID 1

232(偶数)

硬盘数÷2

RAID 5

332

1

RAID 6

432

2

RAID 10

4240(偶数)

28RAID 1

232(偶数)

子组数

RAID 50

6240

28RAID 5

332

子组数

RAID 60

8240

28RAID 6

432

子组数×2

 

l     不支持RAID 00级别。

l     故障硬盘的数量不能大于当前RAID组最大允许故障盘数量。

l     子组数:子RAID组的个数,例如RAID 50由两个RAID 5组成,则子组数为2

l     RAID 10RAID 50每个子组中最多允许故障1个硬盘。

l     RAID 60每个子组中最多允许故障2个硬盘。

l     RAID105060包含的总硬盘数由子组数和子组支持的硬盘数共同决定。

19.2.2 硬盘热备份

9560-8i的热备功能分为两种:热备盘和紧急备份。

热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     Global HSP:即全局热备盘,为RAID控制卡上所有已配置的RAID组所共有,1RAID控制卡中可配置1个或多个全局热备盘。当任意RAID组内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

配置方法请参见0配置全局热备盘

l     Dedicated HSP:即局部热备盘,为RAID控制卡上某个指定的RAID组所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID组内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

配置方法请参见19.4.1.1 配置局部热备盘

l     热备盘容量需大于等于成员盘容量。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID组的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID组成员盘最大容量。

l     RAID 0外,其他类型的RAID组均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

紧急备份

使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代failprefail状态的成员盘并进行重构,避免数据丢失。

l     紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。

l     在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。

l     紧急备份的硬盘生效次序:相同类型硬盘 > 相同接口不同介质类型硬盘 > 不同接口相同介质类型硬盘 > 不同接口不同介质类型硬盘。

紧急备份有两种情况,对应了两种设置:

l     当成员盘fail时,空闲盘替代成员盘作为紧急备份。

l     当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。

具体配置方法请参见19.4.2 设置紧急热备功能

19.2.3 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下取出和更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID组级别允许坏盘的数量。

l     人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考19.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

19.2.4 回拷

具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。

l     不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:

l     RAID组状态保持“Optimal”不变。

l     热备盘状态由“Online”变为“Hot Spare”。

l     新加入硬盘状态由“Copyback/Copybacking”变为“Online”。

l     可使用命令行工具暂停或继续回拷。

l     若回拷时重启服务器,进度将保存。

l     局部热备以及全局热备,更换故障盘后,均会产生回拷。

19.2.5 硬盘分条

条带化

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待。

条带化技术是一种自动的将I/O的负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

影响条带化效果的因素有:

l     条带宽度:指同时可以并发读或写的条带数量。

这个数量等于RAID组中的物理硬盘数量。增加条带宽度,可以增加RAID组的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。在其他条件一样的前提下,一个由818G硬盘组成的阵列相比一个由436G硬盘组成的阵列具有更高的传输性能。

l     条带大小:指写在每块硬盘上的条带数据块的大小。

分条

硬盘分条即把RAID组中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。

9560-8i支持多种条带大小,包括64KB128KB256KB512KB1MB

配置RAID组时一般采用默认值。

19.2.6 RAID级别迁移

RAID组的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见19.4.5 迁移RAID级别

当前支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1RAID 5RAID 6

l     RAID 1迁移到RAID 0RAID 5RAID 6

l     RAID 5迁移到RAID 0RAID 6

l     RAID 6迁移到RAID 0RAID 5

RAID组迁移对硬盘数量的要求如19-3所示。

表19-3 RAID组迁移的硬盘数量说明

迁移RAID级别

原始硬盘组硬盘数量

迁移后的硬盘组硬盘数量

RAID 0迁移 RAID 1

132

232(偶数)

RAID 0迁移到RAID 5

132

332

RAID 0迁移到RAID 6

132

432

RAID 1迁移到RAID 0

232(偶数)

232

RAID 1迁移到RAID 5

232(偶数)

332

RAID 1迁移到RAID 6

232(偶数)

432

RAID 5迁移到RAID 0

332

332

RAID 5迁移到RAID 6

332

432

RAID 6迁移到RAID 0

432

432

RAID 6迁移到RAID 5

432

432

 

19.2.7 初始化

VD初始化

创建VDVirtual Drive)后,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。9560-8i提供了多种相应的初始化方式:

l     前台初始化:

     快速初始化:Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。

     完全初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。

l     后台初始化:

     对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。

     对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。

硬盘初始化

硬盘可执行的初始化包括:

l     Initialize Drive:对前100MByte空间进行全写0操作。

l     Drive Erase:对全部空间进行写0操作。

19.2.8 可用容量扩展

9560-8i支持的容量扩展方式有两种:

l     通过增加硬盘方式扩容:在已存在的RAID组中添加新硬盘,扩大RAID组容量。

详细操作方法可参考19.4.3 添加新硬盘到RAID

l     通过增加可用空间方式扩容:在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

详细操作方法可参考19.4.4 扩展Virtual Drives可用空间

l     只有RAID 0RAID 1RAID 5RAID 6支持增加硬盘扩容。

l     RAID10RAID 50RAID 60不支持增加硬盘扩容。

l     当单个RAID组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0RAID 5RAID 6每次只能增加1块硬盘。

19.2.9 安全数据擦除

安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘和硬盘的安全擦除功能:

l     Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。

l     Normal:对虚拟磁盘或硬盘进行三轮擦除动作。

l     Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。

安全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。

9560-8i支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。

19.2.10 写洞保护(Write hole

系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况,称之为写洞。

将写失败的数据备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:

l     对于RAID 5RAID 6RAID 50Write hole数据都保存在掉电保护区,不需要开关控制。

     掉电保护装置可用时,Write hole数据异常掉电重启后会进入恢复流程。

     掉电保护装置不可用时,记录在掉电保护区的Write hole数据异常掉电后丢失,不做Write hole恢复。

l     RAID 6掉线一块盘时可做写洞保护。

l     RAID 50部分降级时可做写洞保护,按子组恢复数据。RAID 50完全降级时不可做写洞保护。

l     不对RAID 0RAID 1RAID 10做写洞保护。

19.2.11 读写高速缓存

9560-8i支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:

l     Read:读策略选择“Read Ahead”模式,9560-8i在读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,提升了数据读速度。

l     Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,9560-8i就向HOST发出数据传输完成的信号。

在写数据时,直接写入Cache,当写入的数据积累到一定程度,9560-8i才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

19.2.12 数据掉电保护

数据写入RAID控制卡高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用RAID控制卡高速缓存来提升系统性能。

l     开启RAID控制卡高速缓存可提升整机写性能,当服务器写压力减小或RAID控制卡高速缓存将写满时,数据再由RAID控制卡高速缓存写入硬盘。

l     开启RAID控制卡高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,RAID控制卡高速缓存中的数据将会丢失。

为了提升整机的高读写性能和RAID控制卡高速缓存中数据的安全,可为9560-8i配置超级电容。

超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将RAID控制卡高速缓存中的数据写入超级电容模块中的NAND Flash中。

9560-8i分为支持配置超级电容与不支持配置超级电容两种形态,只有支持配置超级电容的RAID控制卡可以启用数据掉电保护功能。

超级电容电量校准

由于数据保护需要超级电容的配合,为了记录超级电容的放电曲线,以便RAID控制卡了解超级电容的状态,例如最大和最小电压等,同时为了延长超级电容的寿命,RAID控制卡默认启动超级电容自动校准模式。

RAID控制卡通过如下所述的三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。

1.     RAID控制卡将超级电容的电量充到最大值。

2.     自动启动校准进程,将超级电容完全放电。

3.     重新开始充电,直至达到最大电量。

超级电容电量校准过程中,RAID控制卡写策略自动调整为“Write Through”模式以保证数据完整性,此时RAID控制卡性能会降低。电量校准的时间取决于超级电容充放电速度。

19.2.13 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     动态扩盘

l     完全初始化或后台初始化

l     一致性校验(CC

19.2.14 自动SMART扫描

S.M.A.R.TSelfMonitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据受到损失。

RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。

19.2.15 硬盘节能

RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SASSATA机械硬盘均支持此功能。

默认情况下,硬盘节能功能处于开启状态。

当硬盘节能功能开启且在指定时间内没有I/O访问时,RAID控制卡下挂载的“Uncongfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。

19.2.16 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

控制卡可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在控制卡下的硬盘作为安装盘;而不支持硬盘直通的控制卡,在操作系统安装过程中,只能找到该控制卡下已经配置好的虚拟磁盘作为安装盘。

控制卡支持同时以虚拟磁盘和直通方式使用硬盘。

JBOD的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

19.2.17 磁盘漫游

硬盘漫游是指在同一RAID控制卡下移动物理硬盘。RAID控制卡将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。

要使用硬盘漫游,按以下步骤操作:

1.     关闭操作系统。

2.     将服务器下电。

3.     将物理硬盘移动到背板上所需的硬盘槽位。

4.     执行安全检查。确保正确插入物理硬盘。

5.     将服务器上电。

6.     RAID控制卡从物理硬盘上的配置数据中检测到RAID配置。

19.2.18 导入外部配置

如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。

此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。

19.2.19 硬盘故障记录

9560-8i提供硬盘故障记录功能:

l     使能该功能时,当RAID组降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。

l     禁用该功能时,当RAID组降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,9560-8i会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。

维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。

l     使能该功能后,当硬盘故障时,会点亮Fault指示灯。

l     禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。

默认情况下,9560-8i使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。

19.2.20 一致性校验

针对有冗余功能的RAID 156105060RAID控制卡可以对RAID组的硬盘数据进行一致性校验,对硬盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。

由于RAID 0不具备冗余性,因此不支持一致性校验。

建议每月至少进行一次一致性校验。

19.3 初始配置

文档中描述的关于9560-8i的所有配置,都需要重启服务器进入BIOS配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。

登录管理界面

对系统的影响

进入BIOS配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     将服务器上电或重启服务器。

                                步骤 2     在服务器硬件自检过程中,当出现如19-3所示界面时,按“Delete”,进入输入密码界面。

图19-3 BIOS启动界面

 

                                步骤 3     输入密码,并按“Enter”。

进入如19-4所示界面。

图19-4 Set Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如19-5所示。

图19-5 Advanced页签

 

                                步骤 5     按“↓”选择“BROADCOM <MegaRAID 9560-8i 4GB> Configuration Utility”,按“Enter”。

进入如19-619-7所示主界面,界面参数如19-4所示。

图19-6 9560-8i主界面(1

 

图19-7 9560-8i主界面(2

 

表19-4 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

CacheVault

缓存备份情况,即超级电容是否在位。

Enclosure

部件个数。

Drives

挂载的硬盘数。

JBODs

直通盘数量。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

当存在外部配置时才会显示该参数。

Configure

提供创建RAID组,快速创建RAID组,查看硬盘组属性,清除当前所有RAID配置,管理外部配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

19.3.2 创建RAID 0

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。

l     9560-8i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见0支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Configuration Management”,并按“Enter”。

3.     选择“Create Virtual Drive”,并按“Enter”。

打开RAID配置界面,如19-819-9所示,参数说明如19-5所示。

图19-8 Create Virtual Drive1

 

图19-9 Create Virtual Drive2

 

表19-5 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

l     Yes:使能后台初始化功能

l     No:禁用后台初始化功能

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID组级别。

1.     通过“↑”、“↓”选择“Select RAID Level”,并按“Enter”。

2.     在打开的列表中选择要配置的RAID组级别“RAID0”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”,并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”,并按“Enter”。

打开添加成员盘的界面,如19-10所示,界面参数如19-6所示。

图19-10 添加成员盘

 

表19-6 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

l     RAID0支持的硬盘个数为132

l     RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

5.     19-6所述配置过滤条件。

6.     选择“Apply Changes”,并按“Enter”。

提示The operation has been performed successfully

7.     选择“OK”,并按“Enter”返回上级界面。

                                步骤 4     按照19-5所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照19.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”,并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”,并按“Enter”。

3.     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”,并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“Esc”返回“Main Menu”界面。

2.     选择“Virtual Drive Management”,并按“Enter”。

显示当前存在的RAID组信息。

----结束

19.3.3 创建RAID 1

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。

l     9560-8i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见0支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Configuration Management”,并按“Enter”。

3.     选择“Create Virtual Drive”,并按“Enter”。

打开RAID组配置界面,如19-1119-12所示,参数说明如19-7所示。

图19-11 Create Virtual Drive1

 

图19-12 Create Virtual Drive2

 

表19-7 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

l     Yes:使能后台初始化功能

l     No:禁用后台初始化功能

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID组级别。

1.     通过“↑”、“↓”选择“Select RAID Level”,并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID1”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”,并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”,并按“Enter”。

打开添加成员盘的界面,如19-13所示,界面参数如19-8所示。

图19-13 添加成员盘

 

表19-8 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

l     RAID1支持的硬盘个数为232(偶数)。

l     RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

5.     19-8所述配置过滤条件。

6.     选择“Apply Changes”,并按“Enter”。

提示The operation has been performed successfully

7.     选择“OK”,并按“Enter”完成成员盘配置。

                                步骤 4     按照19-7所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照19.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”,并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”,并按“Enter”。

3.     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”,并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“Esc”返回“Main Menu”界面。

2.     选择“Virtual Drive Management”,并按“Enter”。

显示当前存在的RAID信息。

----结束

19.3.4 创建RAID 5

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。

l     9560-8i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见0支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Configuration Management”,并按“Enter”。

3.     选择“Create Virtual Drive”,并按“Enter”。

打开RAID组配置界面,如19-1419-15所示,参数说明如19-9所示。

图19-14 Create Virtual Drive1

 

图19-15 Create Virtual Drive2

 

表19-9 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

l     Yes:使能后台初始化功能

l     No:禁用后台初始化功能

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID组级别。

1.     通过“↑”、“↓”选择“Select RAID Level”,并按“Enter”。

2.     在打开的列表中选择要配置的RAID组级别“RAID5”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”,并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”,并按“Enter”。

打开添加成员盘的界面,如19-16所示,界面参数如19-10所示。

图19-16 添加成员盘

 

表19-10 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

l     RAID5支持的硬盘个数为332

l     RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

5.     19-10所述配置过滤条件。

6.     选择“Apply Changes”,并按“Enter”。

提示The operation has been performed successfully

7.     选择“OK”,并按“Enter”完成成员盘配置。

                                步骤 4     按照19-9所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照19.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”,并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”,并按“Enter”。

3.     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”,并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“Esc”返回“Main Menu”界面。

2.     选择“Virtual Drive Management”,并按“Enter”。

显示当前存在的RAID信息。

----结束

19.3.5 创建RAID 6

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。

l     9560-8i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见0支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Configuration Management”,并按“Enter”。

3.     选择“Create Virtual Drive”,并按“Enter”。

打开RAID组配置界面,如19-1719-18所示,参数说明如19-11所示。

图19-17 Create Virtual Drive1

 

图19-18 Create Virtual Drive2

 

表19-11 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

l     Yes:使能后台初始化功能

l     No:禁用后台初始化功能

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID组级别。

1.     通过“↑”、“↓”选择“Select RAID Level”,并按“Enter”。

2.     在打开的列表中选择要配置的RAID组级别“RAID6”,并按“Enter”。

                                步骤 3     添加成员盘

1.     通过“↑”、“↓”选择“Select Drives From”,并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”,并按“Enter”。

打开添加成员盘的界面,如19-19所示,界面参数如19-12所示。

图19-19 添加成员盘

 

表19-12 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

l     RAID6支持的硬盘个数为432

l     RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

5.     19-12所述配置过滤条件。

6.     选择“Apply Changes”,并按“Enter”。

提示The operation has been performed successfully

7.     选择“OK”,并按“Enter”完成成员盘配置。

                                步骤 4     按照19-11所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照19.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”,并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”,并按“Enter”。

3.     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”,并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按“Esc”返回上级界面。

2.     选择“Virtual Drive Management”,并按“Enter”。

显示当前存在的RAID信息。

----结束

19.3.6 创建RAID 10

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。

l     9560-8i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见0支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Configuration Management”,并按“Enter”。

3.     选择“Create Virtual Drive”,并按“Enter”。

打开RAID组配置界面,如19-2019-21所示,参数说明如19-13所示。

图19-20 Create Virtual Drive1

 

图19-21 Create Virtual Drive2

 

表19-13 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间。

Span 0

第一个Span

Select Drives

选择成员盘。

Add More Spans

添加更多Span

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照19.4.10 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID组级别。

1.     通过“↑”、“↓”选择“Select RAID Level”,并按“Enter”。

2.     在打开的列表中选择要配置的RAID组级别“RAID10”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”,并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”,并按“Enter”。

打开添加成员盘的界面,如19-22所示,界面参数如19-14所示。

图19-22 添加成员盘

 

表19-14 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     19-14所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

l     RAID10支持28Span,每个Span支持的硬盘数为232(偶数),且各个Span的硬盘数量必须保持一致。

l     RAID10支持的硬盘总数为4240(偶数)。

l     RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

7.     单击“OK”完成成员盘配置。

                                步骤 4     创建第2Span

当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如19-23所示。

图19-23 RAID 10的配置界面

 

1.     选择“Add More Spans”,并按“Enter”。

2.     选择“Select Drives”,并按“Enter”。

3.     在打开的列表中选择第2Span的成员盘。

各个Span的硬盘数量必须保持一致。

4.     选择完成后,选择“Apply Changes”并“Enter”。

提示The operation has been performed successfully

5.     选择“OK”,并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

RAID10至少需要创建2Span,最多可以创建8Span

                                步骤 6     按照19-13所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照19.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”,并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”,并按“Enter”。

3.     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”,并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“Esc”返回“Main Menu”界面。

2.     选择“Virtual Drive Management”,并按“Enter”。

显示当前存在的RAID信息。

----结束

19.3.7 创建RAID 50

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。

l     9560-8i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见0支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Configuration Management”,并按“Enter”。

3.     选择“Create Virtual Drive”,并按“Enter”。

打开RAID组配置界面,如19-2419-25所示,参数说明如19-15所示。

图19-24 Create Virtual Drive1

 

图19-25 Create Virtual Drive2

 

表19-15 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间。

Span 0

第一个Span

Select Drives

选择成员盘。

Add More Spans

添加更多Span

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照19.4.10 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID组级别。

1.     通过“↑”、“↓”选择“Select RAID Level”,并按“Enter”。

2.     在打开的列表中选择要配置的RAID组级别“RAID 50”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”,并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”,并按“Enter”。

打开添加成员盘的界面,如19-26所示,界面参数如19-16所示。

图19-26 添加成员盘

 

表19-16 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     19-16所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

l     RAID 50支持28Span,每个Span支持的硬盘数为332,各个Span的硬盘数量必须保持一致。

l     RAID 50支持的硬盘总数为6240

l     RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully

7.     选择“OK”,并按“Enter”完成成员盘配置。

                                步骤 4     创建第2Span

当配置的级别为RAID 50时,需要配置多个Span,此时配置界面如19-27所示。

图19-27 RAID 50的配置界面

 

1.     选择“Add More Spans”,并按“Enter”。

2.     选择“Select Drives”,并按“Enter”。

3.     在打开的列表中选择第2Span的成员盘。

各个Span的硬盘数量必须保持一致。

4.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully

5.     选择“OK”,并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

RAID50至少需要创建2Span,最多可以创建8Span

                                步骤 6     按照19-15所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照19.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”,并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”,并按“Enter”。

3.     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”,并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“Esc”返回“Main Menu”界面。

2.     选择“Virtual Drive Management”,并按“Enter”。

显示当前存在的RAID信息。

----结束

19.3.8 创建RAID 60

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。

l     9560-8i支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参见0支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Configuration Management”,并按“Enter”。

3.     选择“Create Virtual Drive”,并按“Enter”。

打开RAID配置界面,如19-2819-29所示,参数说明如19-17所示。

图19-28 Create Virtual Drive1

 

图19-29 Create Virtual Drive2

 

表19-17 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间。

Span 0

第一个Span

Select Drives

选择成员盘。

Add More Spans

添加更多Span

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照19.4.10 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID组级别。

1.     通过“↑”、“↓”选择“Select RAID Level”,并按“Enter”。

2.     在打开的列表中选择要配置的RAID组级别“RAID 60”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”,并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”,并按“Enter”。

打开添加成员盘的界面,如19-30所示,界面参数如19-18所示。

图19-30 添加成员盘

 

表19-18 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     19-18所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

l     RAID 60支持28Span,每个Span支持的硬盘数为432,且各个Span的硬盘数量必须保持一致。

l     RAID 60支持的硬盘总数为8240

l     RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully

7.     选择“OK”,并按“Enter”完成成员盘配置。

                                步骤 4     创建第2Span

当配置的级别为RAID 60时,需要配置多个Span

1.     选择“Add More Spans”,并按“Enter”。

2.     选择“Select Drives”,并按“Enter”。

3.     在打开的列表中选择第2Span的成员盘。

各个Span的硬盘数量必须保持一致。

4.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully

5.     选择“OK”,并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

                                步骤 6     按照19-17所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照19.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”,并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”,并按“Enter”。

3.     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”,并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“Esc”返回“Main Menu”界面。

2.     选择“Virtual Drive Management”,并按“Enter”。

显示当前存在的RAID信息。

----结束

19.3.9 设置启动项

同一台服务器配置了单个9560-8i卡或者多种芯片硬盘控制卡的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。

设置启动项的操作方法请参见BIOS 参数参考的“设置启动设备”章节。

19.4 常用配置

管理热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

9560-8i支持2种类型的热备盘:

l     Global Hotspare:即全局热备盘,为RAID控制卡上所有已配置的RAID组所共有,1RAID控制卡中可配置1个或多个全局热备盘。当任意RAID组内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

l     Dedicated Hotspare:即局部热备盘,为RAID控制卡上某个指定的RAID组所专有,每个RAID组都可以配置1个或多个局部热备盘。当指定RAID组内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID组的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID组成员盘最大容量。

l     RAID 0外,其他类型的RAID组均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

配置全局热备盘

操作步骤

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Drive Management”,并按“Enter”。

3.     选定要操作的硬盘,并按“Enter”进入详细操作界面,如19-31所示。

图19-31 Drive Management

 

                                步骤 2     配置全局热备盘。

1.     将“Operation”设置为“Assign Global Hot Spare Drive”。

2.     选择“Go”,并按“Enter”。

显示The operation has been performed successfully

3.     按“Esc”完成配置并返回上级界面。

----结束

19.4.1.2 配置局部热备盘

操作步骤

RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Drive Management”界面

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Drive Management”,并按“Enter”。

3.     选定要操作的硬盘,并按“Enter”进入详细操作界面,如19-32所示。

图19-32 Drive Management

 

                                步骤 2     配置局部热备盘。

1.     将“Operation”设置为“Assign Dedicated Hot Spare Drive”。

2.     选择“Go”,并按“Enter”。

打开当前存在的虚拟磁盘列表,如19-33所示。

图19-33 虚拟磁盘列表

 

3.     选择要关联的虚拟磁盘,并按“Enter”。

4.     选择“OK”按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”,并按“Enter”完成配置并返回上级界面。

----结束

19.4.1.3 删除热备盘

操作场景

当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

操作步骤

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Drive Management”,并按“Enter”。

3.     选定要操作的硬盘,并按“Enter”进入详细操作界面,如19-34所示。

图19-34 Drive Management

 

                                步骤 2     删除热备盘。

1.     将“Operation”设置为“Unassign Hot Spare Drive”。

2.     选择“Go”,并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”,并按“Enter”。

4.     选择“Yes”,并按“Enter”。

显示The operation has been performed successfully

5.     按“Esc”完成配置并返回上级界面。

----结束

19.4.2 设置紧急热备功能

操作步骤

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Advanced Controller Properties”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Controller Management”,并按“Enter”。

3.     选择“Advanced Controller Properties”,并按“Enter”。

进入“Advanced Controller Properties”界面,如19-35所示。

图19-35 Advanced Controller Properties

 

                                步骤 2     设置紧急热备。

1.     选择“Spare”,并按“Enter”。

2.     将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如19-36所示。

图19-36 Spare

 

3.     选择“Apply Changes”,并按“Enter”。

显示The operation has been performed successfully

4.     选择“OK”,并按“Enter”,完成配置。

----结束

19.4.3 添加新硬盘到RAID

操作场景

 

l     只有RAID 0RAID 1RAID 5RAID 6支持增加硬盘扩容。

l     RAID10RAID 50RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     RAID控制卡不支持同时对两个RAID及以上的RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     添加硬盘扩容之前,请确认服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。

增加硬盘扩容过程中,如果出现硬盘故障,会导致:

l     若出现故障盘后,RAID组中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID组失效。

l     若出现故障盘后,RAID组中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID组。

请谨慎执行增加硬盘扩容操作。

操作步骤

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Virtual Drive Management”界面

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”。

进入虚拟磁盘选项界面,如19-37所示。

图19-37 虚拟磁盘选项界面

 

                                步骤 2     添加新硬盘。

1.     选择要进行扩容的RAID组,并按“Enter”。

2.     选中“Operation”,并按“Enter”。

打开操作选项页面,如19-38所示。

图19-38 Options

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter

4.     选择“Go”,并按“Enter”。

5.     选择要扩容的RAID组级别。

 

增加硬盘扩容时,请保证该处的RAID组级别与原级别一致。

6.     选择“Choose the Operation”,并按“Enter”。

进入硬盘选择界面,如19-39所示。

图19-39 Choose the Operation

 

7.     选择要增加的硬盘,并按“Apply Changes”。

进入确认操作界面。

l     增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0RAID 5RAID 6每次只能增加1块硬盘。

l     RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。

8.     选择“Confirm”,并按“Enter”。

9.     选择“Yes”,并按“Enter”。

显示The operation has been performed successfully

10.     选择“OK”,并按“Enter”。

返回到如19-40所示界面。

图19-40 选择操作

 

11.     选择“Start Operation”,并按“Enter”。

显示操作成功。

12.     返回虚拟磁盘选项界面,验证扩容结果。

选择对应的RAID组按“Enter”。查看当前扩盘进度。如19-41所示。

图19-41 查看扩盘进度

 

----结束

19.4.4 扩展Virtual Drives可用空间

操作场景

Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入要操作的虚拟磁盘界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Virtual Drive Management”,并按“Enter”。

3.     选择要操作的虚拟磁盘,并按“Enter”。

显示虚拟磁盘基本信息,如19-42所示。

图19-42 Virtual Drive Management

 

                                步骤 2     扩容虚拟磁盘。

1.     将“Operation”设置为“Expand Virtual Drive”。

2.     选择“Go”,并按“Enter”。

进入虚拟磁盘扩容界面,如19-43界面所示,界面参数如19-19所示。

图19-43 Expand Virtual Drive

 

表19-19 参数说明

参数

参数说明

Current Capacity

虚拟磁盘当前容量。

Available Capacity

可用于扩展的容量。

Enter a Percentage of Available Capacity

输入扩容比例。

Capacity of Virtual Drive after Expansion

扩容后虚拟磁盘容量。

 

3.     设置扩容百分比。

4.     选择“OK”,并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”,并按“Enter”完成配置并返回上级界面。

6.     返回虚拟磁盘选项界面,选择对应的RAID组并按“Enter“。

验证扩容进度,如19-44所示。

图19-44 查看扩容进度

 

----结束

19.4.5 迁移RAID级别

操作场景

随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。

在虚拟磁盘迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID组迁移操作。

9560-8i支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1RAID 5RAID 6

l     RAID 1迁移到RAID 0RAID 5RAID 6

l     RAID 5迁移到RAID 0RAID 6

l     RAID 6迁移到RAID 0RAID 5

RAID组迁移对硬盘数量的要求如19-3所示。

l     RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     迁移只支持增加与RAID组成员盘同类型同规格的硬盘。

l     为防止数据丢失,请在该操作之前备份当前RAID组的数据。

l     只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。

l     迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。

RAID组级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:

l     若出现故障盘后,RAID组中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID组失效。

l     若出现故障盘后,RAID组中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID组。

请谨慎执行RAID组级别迁移操作。

操作步骤

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”,并按“Enter”。

进入虚拟磁盘选项界面,如19-45所示。

图19-45 虚拟磁盘选项界面

 

                                步骤 2     选择RAID组迁移的目标级别。

下面以将RAID 0迁移到RAID 5为例进行说明。

1.     选择要进行迁移的RAID组,并按“Enter”。

2.     选中“Operation”,并按“Enter”。

打开操作选项页面,如19-46所示。

图19-46 Options

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”。

4.     选择“Advanced...”,并按“Enter”可设置RAID组的其他属性,如19-4719-48所示。不设置时默认与原RAID组配置一致。

图19-47 Advanced...1

 

图19-48 Advanced...2

 

5.     选择“Go”,并按“Enter”。

进入RAID组配置界面,如19-49所示。

图19-49 Reconfigure Virtual Drives

 

6.     选择“New RAID Level”,并按“Enter”。

打开RAID组迁移的目标级别选择窗口。

7.     选择“RAID 5”,并按“Enter”。

                                步骤 3     添加硬盘。

1.     选择“Choose the operation”,并按“Enter”。

打开硬盘选择窗口,如19-50所示。

图19-50 选择硬盘

 

2.     选择要增加的硬盘,并按“Enter”。

l     RAID组迁移对硬盘数量的要求请参见19-3

l     增加的硬盘要与RAID组的成员盘同类型同规格。

3.     选择“Apply Changes”,并按“Enter”。

弹出操作确认会话框。

4.     选择“Confirm”,并按“Enter”。

5.     选择“Yes”,并按“Enter”。

提示操作成功。

6.     选择“OK”,并按“Enter”返回19-49界面。

                                步骤 4     RAID组级别迁移。

1.     选择“Start Operation”,并按“Enter”。

提示操作成功。

                                步骤 5     查看迁移结果。

1.     进入Virtual Drive Management界面,选择对应的RAID组并按“Enter”。

检查迁移进度,如19-51所示,表示RAID组正在进行迁移。

图19-51 查看迁移进度

 

l     迁移过程中若重启服务器,该任务将在重启后继续进行。

l     迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。

2.     选择该虚拟磁盘,并按“Enter”,可查看迁移完成后的RAID组信息。当RAID组的级别由“RAID 1”变成“RAID 5”,RAID组容量增大,且“Status”状态显示为“Optimal”,表示RAID组迁移成功。

----结束

19.4.6 删除RAID

操作场景

 

RAID组被删除后无法进行恢复,请谨慎执行删除RAID组操作。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Virtual Drive Management”,并按“Enter”。

3.     选择要操作的虚拟磁盘,并按“Enter”。

显示虚拟磁盘基本信息,如19-52所示。

图19-52 Virtual Drive Management

 

                                步骤 2     删除虚拟磁盘。

1.     将“Operation”设置为“Delete Virtual Drive”。

2.     选择“Go”,并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”,并按“Enter”。

4.     选择“OK”,并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”,并按“Enter”完成配置并返回上级界面。

----结束

19.4.7 重构RAID

操作场景

介绍将带有外部配置的硬盘进行重构的操作方法,不带外部配置硬盘的重构方法请参见0硬盘相关故障

操作步骤

在“Main Menu”界面中选择“Drive Management”并按“Enter”。

                                步骤 1     选中要进行重构的硬盘,按“Enter”。

                                步骤 2     将“Operation”设置为“Make Unconfigured Good”。

                                步骤 3     选择“Go”并按“Enter”。

提示The operation has been performed successfully

                                步骤 4     按“Enter”完成配置。

硬盘状态变为“(Foreign,Unconfigured Good”。

                                步骤 5     清除外部配置,具体操作请参见19.4.9 导入和清除外部配置

RAID组开始进行重构。

----结束

当出现硬盘离线且RAID组可用时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

19.4.8 查看RAID控制卡属性

操作场景

用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。

操作步骤

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Controller Management”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Controller Management”,并按“Enter”。

显示RAID控制卡基本信息,如19-53所示,参数说明如19-20所示。

图19-53 Controller Management1

 

图19-54 Controller Management2

 

表19-20 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Personality Mode

RAID控制卡的工作模式。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。

PCI ID

RAID控制卡的PCI ID

PCI Segment:Bus:Device:Function

PCI总线域BDF号。

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Supported Device Interface

支持的设备接口类型。

Drive Count

RAID控制卡下挂载的硬盘个数。

JBOD Count

直通盘数量。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

高级控制卡操作。

Advanced Controller Properties

查看和修改控制卡的高级属性。

 

                                步骤 2     查看控制卡高级属性。

选择“Advanced Controller Properties”,并按“Enter”。

进入控制卡高级属性界面,如19-5519-56所示,参数说明如19-21所示。

在该界面下,可查看并修改RAID控制卡的高级属性。

图19-55 Advanced Controller Properties”(1

 

图19-56 Advanced Controller Properties”(2

 

表19-21 参数说明

参数

说明

Cache and Memory

查看控制卡CacheMemory信息。

Patrol Read

系统巡检。

Power Save Settings

设置硬盘休眠。

Spare

设置控制卡热备状态。

Task Rates

设置各种任务的处理速率。

External Key Management

管理外部密钥。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

硬盘容量压缩模式。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。

默认为“Pause on Errors”。

Controller BIOS

控制卡BIOS的使能情况。

ROC Temperature (C)

控制卡温度。

Shield State Supported

是否支持暂停IO,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见19.4.9 导入和清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

Write Verify

写校验。

Large IO Support

启用或禁用大型IO支持功能。

Unmap Capability

解除映射能力。

Firmware Device Order

该功能开启后,设置为启动项的RAID组盘符为sda

说明

开启该功能前,请先确认控制卡驱动与固件配套。

Preboot Trace Buffer

预启动跟踪缓冲区。

Apply Changes

保存配置。

 

----结束

19.4.9 导入和清除外部配置

操作场景

l     服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。

 

l     如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!

l     为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

导入外部配置

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     在主界面中选择“Main Menu”,并按“Enter”。

                                步骤 2     选择“Configuration Management”,并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”,并按“Enter”。

进入外部配置管理界面,如19-57所示。

图19-57 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”,并按“Enter”。

显示当前存在的外部配置的详细信息,如19-58所示。

图19-58 外部配置

 

                                步骤 5     选择“Import Foreign Configuration”,并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”,并按“Enter”。

                                步骤 7     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully

                                步骤 8     按“Esc”完成配置返回上级界面。

----结束

清除外部配置

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     在主界面中选择“Main Menu”,并按“Enter”。

                                步骤 2     选择“Configuration Management”,并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”,并按“Enter”。

进入外部配置管理界面,如19-59所示。

图19-59 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”,并按“Enter”。

显示当前存在的外部配置的详细信息,如19-60所示。

图19-60 外部配置

 

                                步骤 5     选择“Clear Foreign Configuration”,并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”,并按“Enter”。

                                步骤 7     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully

                                步骤 8     按“Esc”完成配置返回上级界面。

----结束

19.4.10 创建多个VDVirtual Drive

该场景为使用已存在一个或多个VDRAID组的空闲容量创建多个VD,以RAID0存在一个VD为例,详细操作方法如下:

按照Main Menu > Configuration Management > Create Virtual Drive的路径进入“Create Virtual Drive”界面,如19-61所示。

图19-61 Create Virtual Drive

 

                                步骤 2     将“Select Drives From”设置为“Free Capacity”,如19-62所示。

图19-62 Create Virtual Drive

 

                                步骤 3     选择“Select Drive Groups”,并按“Enter”。

显示当前存在的RAID组(Drive Group),如19-63所示。

图19-63 Select Drive Groups

 

                                步骤 4     选择要创建多个VDRAID组,并按“Enter”,如19-64所示。

图19-64 Select Drive Groups

 

                                步骤 5     选择“Apply Changes”,并按“Enter”。

提示操作成功。

                                步骤 6     选择“OK”,并按“Enter”返回VD配置界面,如19-6519-66所示,参数说明如19-22所示。

图19-65 Create Virtual Drive1

 

图19-66 Create Virtual Drive2

 

表19-22 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间,创建多个VD时选择此选项。

Select Drive Group

选择虚拟磁盘组。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照19.4.10 创建多个VDVirtual Drive章节增加其他VD

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

l     Yes:使能后台初始化功能

l     No:禁用后台初始化功能

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 7     按照19-22所述配置VD的相关属性。

                                步骤 8     选择“Save Configuration”,并按“Enter”。

显示操作确认界面。

                                步骤 9     选择“Confirm”,并按“Enter”。

                             步骤 10     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully

                             步骤 11     选择“OK”,并按“Enter”完成配置。

可进入Virtual Drive Management界面,查看当前存在的所有VD,如19-67所示。

图19-67 Virtual Drive Management

 

----结束

每个RAID组最多支持创建16VD,如需要继续创建VD,请重复执行步骤1步骤11

19.4.11 查询RAID控制卡固件版本

查询RAID控制卡固件版本的方法有如下几种:

l     iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。

l     服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见0查询RAID控制卡配置信息

回显信息中的“FW Version”字段即为RAID控制卡的固件版本。

l     RAID控制卡管理界面进行查询,具体方法为:

a.     登录RAID控制卡的管理界面。具体操作方法请参见0登录管理界面

b.     在主界面中选择“Main Menu”,并按“Enter”。

进入“Main Menu”页面,如19-68所示。

图19-68 Main Menu页面

 

c.     选择“Controller Management”,并按“Enter”。

显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如19-69所示。

图19-69 Controller Management界面

 

19.5 故障处理

介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

硬盘相关故障

硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘在位指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

确认故障硬盘槽位。

JBOD模式下的硬盘为UBAD状态时,硬盘故障指示灯会被点亮,同时iBMC会对其进行告警。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考19.6.2.8 Drive Management

l     通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

                                步骤 1     更换新硬盘。

 

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考19.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在0支持多种RAID类型查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0

     UEFI模式下创建RAID0的方法请参见19.3.2 创建RAID 0

     通过命令行方式创建RAID0的方法请参见19.7.2.17 创建和删除RAID

----结束

19.5.1.4 硬盘状态为failprefail

问题描述

正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代failprefail状态的成员盘并进行重构,避免数据丢失。

但当RAID控制卡未设置紧急热备时,成员盘状态显示为failprefail时,可使用以下方法处理。

处理方法

使用StorCLI工具,具体操作请参考0下载和安装StorCLI工具

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考19.7.2.33 设置硬盘状态

storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在EnclosureID

l     slot_id:物理硬盘槽位ID

                                步骤 2     更换离线硬盘。

                                步骤 3     RAID组自动执行重构。

等待重构完成。

----结束

19.5.1.5 硬盘状态为Unconfigured BadUBad

问题描述

硬盘状态显示为Unconfigured BadUBad

处理方法

使用StorCLI工具,具体操作请参见0下载和安装StorCLI工具

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见19.7.2.33 设置硬盘状态

storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在EnclosureID

l     slot_id:物理硬盘槽位ID

                                步骤 2     重新查看硬盘状态是否更改为Unconfigured GoodUgood。具体操作请参见19.6.2.8 Drive Management界面或19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤4

                                步骤 3     查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见19.4.9 导入和清除外部配置11.7.2.28 查看/导入/清除外部配置

l     问题解决 => 处理完毕。

l     问题未解决 => 联系技术支持处理。

----结束

19.5.2 电容故障

问题描述

RAID控制卡电容故障时,可能导致服务器出现如下情况:

l     服务器读写速度显著降低。

l     RAID控制卡的CU界面中显示电容状态异常。

处理方法

确认当前使用的RAID控制卡是否支持配置电容。

l      => 步骤2

l      => 联系技术支持处理。

                                步骤 1     进入RAID控制卡的CU界面,查看电容状态是否为“Optimal”。

电容状态可查询19.6.2.9 Hardware Components界面的“Battery Status”参数。

l      => 处理完毕

l      => 步骤3

                                步骤 2     将服务器下电,打开机箱,并查看RAID控制卡电容是否在位。

l      => 步骤5

l      => 步骤4

                                步骤 3     检查整机配置,为服务器安装电容,查看电容状态是否为“Optimal”。

l      => 处理完毕

l      => 步骤7

                                步骤 4     重新安装RAID控制卡电容,查看电容状态是否为“Optimal”。

l      => 处理完毕

l      => 步骤6

                                步骤 5     更换RAID控制卡电容,查看电容状态是否为“Optimal”,且“问题描述”所述的异常状态是否消失。

l      => 处理完毕

l      => 步骤7

                                步骤 6     联系技术支持处理。

----结束

19.5.3 控制卡故障

问题描述

当服务器出现如下现象时,说明控制卡故障。

l     数据无法写入控制卡控制的硬盘。

l     服务器上报控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     查询兼容性查询助手或者联系技术支持处理。

----结束

19.5.4 BIOS下的Advanced界面无法找到RAID控制卡或AdvancedRAID控制卡状态显示Not Healthy

问题描述

正常情况下,当服务器配置了RAID控制卡且RAID控制卡状态正常时,进入BIOSAdvanced页签后,会显示RAID控制卡的信息,如19-70所示。

如果Advanced页签不显示RAID控制卡的信息,如19-71所示,则:

l     如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:

     如果不显示驱动打印信息,可尝试下电后重新拔插RAID控制卡再上电、下电后更换RAID控制卡再上电或者联系技术支持。

     如果显示“AVAGO EFI SAS Driver”,则可以通过本章节的指导修复RAID控制卡。

l     如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,则可以通过本章节的指导修复RAID控制卡;如果不显示,可尝试下电后重新拔插RAID控制卡再上电、下电更换RAID控制卡再上电或者联系技术支持。

图19-70 Advanced页签(1

 

图19-71 Advanced页签(2

 

处理方法

l     BIOS的版本为0.98之前版本(不包含0.98版本)时:

a.     Advanced页签选择“Driver Health Manager”并按Enter

进入“Driver Health Manager”界面。

b.     选择要进行修复的RAID控制卡驱动,如“AVAGO EFI SAS Driver”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息:

n     显示“The following VDs have missing disks. => 请参见0The following VDs have missing disks

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone=> 请参见19.5.4.5 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

l     BIOS的版本为0.98及以上版本时:

a.     在“Advanced”页签选择“Some drivers are not healthy”。

进入健康状态查询界面。

b.     选择“Repair the whole platform”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息。

n     显示“The following VDs have missing disks. => 请参见0The following VDs have missing disks

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone=> 请参见19.5.4.5 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见0RAID控制卡启动中出现的常见的错误消息及处理方法

The following VDs have missing disks

问题描述

19-72所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。

图19-72 状态显示

 

处理方法

修复RAID控制卡。

1.     19-72中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

2.     输入“C”并按“Enter”。

3.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

4.     输入“y”并按“Enter”。

提示“Critical Message handling completed. Please exit”。修复完成。

                                步骤 1     重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

19.5.4.6 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

问题描述

19-73所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”

图19-73 状态显示

 

处理建议

该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:

l     下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。

l     忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:

a.     19-73中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

b.     输入“c”并按“Enter”。

c.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

d.     输入“y”并按“Enter”。

提示Critical Message handling completed. Please exit

e.     按“Esc”退出当前界面。

弹出确认保存配置会话框,如19-74所示。

图19-74 提示保存会话框

 

f.     按“Y”保存配置,操作完成。

g.     Esc键返回“Device Manager”界面。

h.     选择控制卡并按“Enter”,进入RAID控制卡管理界面。

19.5.5 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死

问题描述

硬盘响应命令超时,控制卡会对硬盘进行复位。3次复位后尚未恢复时将可能耗尽控制卡TMTask Management)资源,触发Fatal error,此时会通过OCROnline Controller Reset)自愈恢复,期间将有短时间业务中断(约30s60s),控制卡复位后会完成踢盘,将故障硬盘置为Ubad状态。

控制卡自愈恢复,需要开启OCR开关。

触发条件

当下发到硬盘的I/O出现超时不响应的情况时,RAID控制卡会通过reset硬盘来恢复,正常情况下,硬盘会重新接入或者多次reset之后会进行踢盘。

当出现reset之后硬盘仍然无法响应RAID控制卡指令且无法踢盘时,RAID控制卡会再次reset进行复位,每次reset会占用RAID控制卡资源,短时间内多次reset会导致RAID控制卡资源耗尽,该场景下,RAID控制卡会通过重新加载FW进行恢复。

该机制为此类卡的正常处理机制,由于架构限制,无法进行优化。

识别方法

l     已安装OS

当遇到短时间业务中断,恢复后查看有被置为Ubad状态的硬盘时,可以查看控制卡日志,搜索dm.c并查看其发生时间,如与业务中断时间节点接近,即可断定为触发了该机制。

注意控制卡与OS时间差。

l     未安装OS

OS时,触发该机制的操作为:从“Advanced”页签进入控制卡界面。若触发该机制,进入控制卡卡操作界面时将会卡住,无法恢复。

处理方法

定位故障硬盘。

l     已安装OS

     如确认触发了该机制并且已经完成了踢盘,需要更换Ubad状态的硬盘。

     如无Ubad状态的硬盘,查看日志并搜索“indicates critical condition”,目标行的“element xx indicates critical condition”中,“xx”即为问题硬盘的槽位号。

已安装OS,但是进入“Advanced”页签的控制卡操作界面卡住,需要重新上下电进入OS,按照以上方式定位故障硬盘。

l     未安装OS

系统未安装OS,出现该异常时,保留预安装OS RAID组数目的硬盘,将其他硬盘拔出并记录槽位号,如成功安装OS进入系统后,按照已安装OS的操作来确认问题硬盘。

                                步骤 1     更换故障硬盘。

l      => 处理完毕。

l      => 请联系技术支持。

----结束

19.5.6 Controller Mode恢复为RAID

问题描述

RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD modeRAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如19-75所示,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。

图19-75 问题描述

 

当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。

处理方法

(可选)登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Management界面,如19-76所示。

图19-76 Advanced Controller Management界面

 

                                步骤 2     选择“Switch to RAID mode”并按“Enter”。

提示操作成功,如19-77所示。

图19-77 操作成功

 

                                步骤 3     选择“OK”并按“Enter”。

返回到“Advanced Controller Management”界面,显示正在切换模式,如19-78所示。

图19-78 Advanced Controller Management界面

 

                                步骤 4     按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面

                                步骤 5     依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如19-79所示。

图19-79 Advanced Controller Management界面

 

l      => 处理完毕。

l      => 请联系技术支持。

----结束

19.5.7 删除Preserved Cache

问题描述

l     无法创建RAID组。

l     进入控制卡主界面后,显示“Discard Preserved Cache”,如19-80所示。

图19-80 控制卡主界面

 

处理方法

进入控制卡主界面。

                                步骤 1     选择“Discard Preserved Cache”并按Enter

弹出操作确认界面,如19-81所示。

图19-81 操作确认窗口

 

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示“The operation has been performed successfully”即操作成功。

----结束

19.6 管理界面介绍

登录管理界面

对系统的影响

进入BIOS配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     将服务器上电或重启服务器。

                                步骤 2     在服务器硬件自检过程中,当出现如19-82所示界面时,按“Delete”,进入输入密码界面。

图19-82 BIOS启动界面

 

                                步骤 3     输入密码,并按“Enter”。

进入如19-83所示界面。

图19-83 Set Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如19-84所示。

图19-84 Advanced页签

 

                                步骤 5     按“↓”选择“BROADCOM <MegaRAID 9560-8i 4GB> Configuration Utility”,按“Enter”。

进入如19-8519-86所示主界面,界面参数如19-23所示。

图19-85 9560-8i主界面(1

 

图19-86 9560-8i主界面(2

 

表19-23 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

CacheVault

缓存备份情况,即超级电容是否在位。

Enclosure

部件个数。

Drives

挂载的硬盘数。

JBODs

直通盘数量。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

当存在外部配置时才会显示该参数。

Configure

提供创建RAID组,快速创建RAID组,查看硬盘组属性,清除当前所有RAID配置,管理外部配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

19.6.2 Main Menu

RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。

界面介绍

Main Menu”界面如19-87,参数说明如19-24所示。

图19-87 Main Menu

 

表19-24 参数说明

参数

参数说明

Configuration Management

配置管理RAID组。

Controller Management

管理RAID控制卡。

Virtual Drive Management

管理虚拟磁盘。

Drive Management

管理硬盘。

Hardware Components

查询部件信息。

 

Configuration Management

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

Configuration Management”界面如19-88,参数说明如19-25所示。

图19-88 Configuration Management

 

表19-25 参数说明

参数

参数说明

Auto Configure RAID 0

自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0

Create Virtual Drive

创建RAID组。

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

Make JBOD

硬盘直通功能,硬盘不加入RAID,直接使用。

Clear Configuration

清除当前所有RAID配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时才会显示该参数。

 

Auto Configure RAID 0

可通过该页面快速将所有Unconfigured Good状态的硬盘创建为单盘RAID0

仅控制卡下存在空闲盘时显示此选项。

界面介绍

Auto Configure RAID 0”界面如19-89

图19-89 Auto Configure RAID 0

 

19.6.2.6.2 Create Virtual Drive

可通过该页面创建虚拟磁盘。

界面介绍

Create Virtual Drive”界面如19-9019-91所示,参数说明如19-26所示。

图19-90 Create Virtual Drive”(1

 

图19-91 Create Virtual Drive”(2

 

表19-26 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

l     Yes:使能后台初始化功能

l     No:禁用后台初始化功能

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

19.6.2.6.3 Create Profile Based Virtual Drive

可在该页面通过向导方式快速创建虚拟磁盘。

界面介绍

Create Profile Based Virtual Drive”界面如19-92所示,参数说明如19-27所示。

图19-92 Create Profile Based Virtual Drive

 

表19-27 参数说明

参数

说明

Generic RAID 0

快速创建RAID0

Generic RAID 1

快速创建RAID1

Generic RAID 5

快速创建RAID5

Generic RAID 6

快速创建RAID6

File Server

快速创建文件服务器。

Web/Generic Server

快速创建网页/通用服务器。

Database

快速创建数据库。

 

19.6.2.6.4 View Drive Group Properties

可在该页面查看硬盘组属性。

界面介绍

View Drive Group Properties”界面如19-93所示,参数说明如19-28所示。

图19-93 View Drive Group Properties

 

表19-28 参数说明

参数

参数说明

Drive Group

硬盘组名称。

Capacity Allocation

硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。

Secured

是否加密。

 

19.6.2.6.5 Make JBOD

选择空闲硬盘转换为直通盘。

仅控制卡下存在空闲盘时显示此选项。

界面说明

Make JBOD”界面如19-94所示。

图19-94 Make JBOD

 

19.6.2.6.6 Clear Configuration

 

该操作将清除控制卡上所有的RAID、热备盘、Pinned Cache和直通盘配置信息,请谨慎执行该操作。

界面说明

Clear Configuration”界面如19-95所示。

图19-95 Clear Configuration

 

19.6.2.6.7 Manage Foreign Configuration

该界面可查看、导入、清空外部配置。当存在外部配置时才会显示该选项。

界面介绍

Manage Foreign Configuration”界面如19-96所示,参数说明如所示。

图19-96 Manage Foreign Configuration

 

表19-29 参数说明

参数

参数说明

Preview Foreign Configuration

预览外部配置。

Clear Foreign Configuration

清除外部配置。

 

19.6.2.7 Controller Management

该界面提供控制卡管理接口,可查看并修改控制卡的详细参数。

界面介绍

Controller Management”界面如19-9719-98所示,参数说明如19-30所示。

图19-97 Controller Management1

 

图19-98 Controller Management2

 

表19-30 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Personality Mode

RAID控制卡的工作模式。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。

PCI ID

RAID控制卡的PCI ID

PCI Segment:Bus:Device:Function

PCI总线域BDF号。

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Supported Device Interface

支持的设备接口类型。

Drive Count

RAID控制卡下挂载的硬盘个数。

JBOD Count

直通盘数量。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

高级控制卡操作。

Advanced Controller Properties

查看和修改控制卡的高级属性。

 

Advanced Controller Management

该界面提供控制卡高级管理接口,可查看并修改更多控制卡的详细参数。

界面介绍

Advanced Controller Management”界面如19-99所示,界面中参数说明如19-31所示。

图19-99 Advanced Controller Management

 

表19-31 参数说明

参数

说明

Clear Controller Events

清除控制卡的事件日志。

Save Controller Events

保存控制卡的事件日志。

Save TTY Log

保存终端操作日志。

Enable Drive Security

使能硬盘加密功能。

Disable Drive Security

关闭硬盘加密功能。

Change Security Settings

修改硬盘加密功能的设置,包括修改密码、修改加密模式等。

Manage SAS Storage Link Speed

管理接口速率。

Manage PCIe Storage Interface

管理RAID控制卡的链路宽度和lane的速率。

Manage MegaRAID Advanced Software Options

管理高级软件功能。

Schedule Consistency Check

设置一致性校验参数。

Set Factory Defaults

恢复为出厂配置。

Enable Host LED Management for JBOD

管理JBOD模式的hostLED

Manage Personality Mode

设置RAID控制卡当前的工作模式。

Manage Controller Profiles

查看和管理控制卡的配置文件。

 

19.6.2.7.8 Advanced Controller Properties

该界面提供控制卡高级管理接口,可查看并修改控制卡的高级属性。

界面介绍

Advanced Controller Properties”界面如19-10019-101所示,参数说明如19-32所示。

图19-100 Advanced Controller Properties”(1

 

图19-101 Advanced Controller Properties”(2

 

表19-32 参数说明

参数

说明

Cache and Memory

查看控制卡CacheMemory信息。

Patrol Read

系统巡检。

Power Save Settings

设置硬盘休眠。

Spare

设置控制卡热备状态。

Task Rates

设置各种任务的处理速率。

External Key Management

管理外部密钥。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

硬盘容量压缩模式。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。

默认为“Pause on Errors”。

Controller BIOS

控制卡BIOS的使能情况。

ROC Temperature (C)

控制卡温度。

Shield State Supported

是否支持暂停IO,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见19.4.9 导入和清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

Write Verify

写校验。

Large IO Support

启用或禁用大型IO支持功能。

Unmap Capability

解除映射能力。

Firmware Device Order

该功能开启后,设置为启动项的RAID组盘符为sda

说明

开启该功能前,请先确认控制卡驱动与固件配套。

Preboot Trace Buffer

预启动跟踪缓冲区。

Apply Changes

保存配置。

 

设置后台任务速率

选择“Task Rates”并按“Enter”。界面如19-102所示,参数说明如19-33所示。

图19-102 Task Rates

 

表19-33 参数说明

参数

说明

Background Initialization <BGI> Rate

设置执行后台初始化的速率。

说明

数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Consistency Check Rate

设置执行一致性校验的速率。

说明

数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Patrol Read Rate

设置执行巡检读取的速率。

说明

数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Rebuild Rate

设置硬盘发生故障时在新硬盘上执行重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Reconstruction Rate

设置执行RAID级别迁移或在线容量扩展时重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Apply Changes

保存配置。

 

                                步骤 2     按照19-33所述修改控制卡的高级属性参数。

                                步骤 3     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

19.6.2.8 Virtual Drive Management

该界面提供虚拟磁盘的查询和管理接口。

界面介绍

Virtual Drive Management”界面如19-103,显示虚拟磁盘列表。

图19-103 Virtual Drive List

 

选定要操作的虚拟磁盘,并按“Enter”进入详细操作界面,如19-104所示,参数说明如19-34所示。

图19-104 Virtual Drive Management

 

表19-34 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:定位虚拟磁盘的所有硬盘。

l     Stop Locate:取消定位。

l     Delete Virtual Drive:删除虚拟磁盘。

l     Expand Virtual Drive:扩展虚拟磁盘容量。

l     Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。

l     Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。

l     Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。

l     Fast Initialization:快速初始化虚拟磁盘。

l     Slow Initialization:安全初始化虚拟磁盘。

l     Check Consistency:一致性校验。

l     Virtual Drive Erase:格式化虚拟磁盘。

Progress

当前任务进度。

l     仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。

l     当前界面不会自动刷新,需退出后重新进入查看当前进度。

Stop

停止当前任务。

仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。

Name

虚拟磁盘名称。

Raid Level

虚拟磁盘RAID级别。

Status

虚拟磁盘当前运行状态。

Size

虚拟磁盘容量。

View Associated Drives

查看成员盘属性。

Advanced...

查看虚拟磁盘高级属性。

 

查看成员盘属性

19-104中选择“View Associated Drives”,并按“Enter”。

界面如19-105,显示成员盘列表。

图19-105 View Associated Drives

 

                                步骤 2     选择要查看的成员盘,并按“Enter”。

                                步骤 3     选择“View Drive Properties”,并按“Enter”。

进入硬盘属性界面,如19-106界面所示,界面参数如19-35所示。

图19-106 View Drive Properties

 

表19-35 参数说明

参数

参数说明

Operation

该成员盘可执行的操作,包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Place Drive Online/Offline:将硬盘上线/离线。

l     Replace Drive:替换硬盘。

Drive ID

成员盘的ID

Connection

成员盘的接口。

Enclosure Position

Enclosure的位置。

Slot Number

成员盘的槽位号。

Status

成员盘的当前工作状态。

Size

成员盘的容量。

Type

成员盘类型。

Model

成员盘的模块类型。

Serial Number

成员盘的序列号。

Hardware Vendor

成员盘的生产厂商。

Associated Virtual Drive

成员盘所在的虚拟磁盘。

Advanced...

查询成员盘更多属性。

 

----结束

查看和修改虚拟磁盘高级属性

19-104中选择“Advanced”,并按“Enter”。

19-108

图19-107 Advanced1

 

图19-108 Advanced2

 

表19-36 参数说明

参数

参数说明

Mirror Data Size

镜像数据大小。

Logical Sector Size

逻辑扇区大小。

Strip Size

条带大小。

Starting Logical Block Addressing (LBA)

逻辑单元起始地址。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Secured

是否支持RAID组的加密功能。

Bad Blocks

是否支持坏块处理。

Access

是否支持Access

Current Write Cache Policy

当前写Cache策略,包括:

l     Write Through:当硬盘子系统接收到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。

l     Write Back:当RAID控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Force Write Back:当未配置超级电容或超级电容故障时,RAID控制卡将自动切换到Write Through模式。

Default Write Cache Policy

默认的写Cache策略。

Disable Background Initialization

是否禁用后台初始化。

Read Cache Policy

当前读Cache策略,包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。RAID控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

Drive Cache

是否支持cache

Input/Output

I/O读取策略,包括:

l     Direct:直接从硬盘读取数据,不经过Cache缓存。

l     Cached:从Cache缓存中读取数据。

Unmap Capability

解除映射能力。

Apply Changes

保存配置。

 

                                步骤 2     按照19-36所述配置“Advanced”的参数。

                                步骤 3     选择“Apply Changes”,并按“Enter”。

显示The operation has been performed successfully

                                步骤 4     选择“OK”,并按“Enter”完成配置。

----结束

19.6.2.9 Drive Management

该界面显示硬盘基本属性,提供硬盘操作接口。

界面介绍

Drive Management”界面如19-109所示,显示硬盘列表。

图19-109 Drive List

 

硬盘的标识信息说明如下:

l     ①表示RAID控制卡的Port口编号。

l     ②表示机箱或背板的位置ID

l     ③表示硬盘槽位号。

l     ④表示硬盘类型。

l     ⑤表示硬盘的容量。

l     ⑥表示硬盘的状态。

l     ⑦表示硬盘的扇区大小。

选定要操作的硬盘,并按“Enter”进入详细操作界面,如19-110所示,参数说明如19-37所示。

图19-110 Drive Management

 

表19-37 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Initialize Drive:硬盘初始化。

l     Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。

     Simple:仅对硬盘进行一轮擦除动作。

     Normal:对硬盘进行三轮擦除动作。

     Thorough:对硬盘进行九轮擦除动作。

     Stop Erase:停止数据擦除操作。

l     Make Unconfigured Good/Bad:修改硬盘状态。

l     Make JBOD:硬盘直通功能,硬盘不加入RAID组,直接使用。

l     Assign Global Hot Spare Drive:设置全局热备盘。

l     Assign Dedicated Hot Spare Drive:设置局部热备盘。

l     Unassign Hot Spare Drive:删除热备盘。

l     Cryptographic Erase:对加密硬盘进行数据擦除。

l     Place Drive Online:将Offline状态的硬盘设置为Online

说明

l     Place Drive Online操作仅仅只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。

l     对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。

Drive ID

硬盘的ID

Connection

硬盘的接口。

Enclosure Position

Enclosure的位置。

Slot Number

硬盘的槽位号。

Status

硬盘的当前工作状态。

Size

硬盘的容量。

Type

硬盘的类型。

Model

硬盘型号。

Serial Number

硬盘序列号。

Advanced...

查询更多硬盘属性。

 

安全擦除硬盘数据

该操作会删除硬盘上的数据,请谨慎执行。

将“Operation”设置为“Drive Erase”。

                                步骤 1     选择“Erase Mode”,并按“Enter”。

                                步骤 2     在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。

                                步骤 3     选择“OK”,并按“Enter”。

进入操作确认界面。

                                步骤 4     选择“Confirm”,并按“Enter”。

                                步骤 5     选择“Yes”,并按“Enter”。

提示操作成功。

----结束

查看硬盘属性

选择“Advanced...”,并按“Enter”。

打开硬盘属性界面,如19-11119-112所示,参数说明如19-38所示。

图19-111 Advanced1

 

图19-112 Advanced2

 

表19-38 参数说明

参数

参数说明

Certified

硬盘是否通过供应商认证。

Logical Sector Size

逻辑扇区大小。

Physical Sector Size

物理扇区大小。

SMART Status

SMART功能是否使能。

Revision

硬盘Firmware版本。

Media Errors

Media error个数。

Predicted Fail Count

Pred fail个数。

SAS Address

硬盘SAS地址。

Drive Power State

硬盘上电状态。

Cache Setting

是否可设置Cache

Disk Protocol

硬盘支持的协议。

Disk Speed

硬盘的速率。

Negotiated Drive Transfer Speed

硬盘数据传输速率。

Number of Connections

连接器个数。

FDE Capable

硬盘是否支持FDEFull Disk Encryption)技术。

Cryptographic Erase Capable

硬盘的加密擦除能力。

Unmap Capable

解除映射能力。

Temperature

硬盘温度。

 

19.6.2.10 Hardware Components

该界面主要提供RAID控制卡传感器信息。

界面介绍

Hardware Components”界面如19-113所示,参数说明如19-39所示。

图19-113 Hardware Components

 

表19-39 参数说明

参数

参数说明

Battery Status

当前电池工作状态。

Temperature Sensors

当前温度传感器状态。

Fans

当前风扇模块工作状态。

Power Supplies

当前供电模块工作状态。

Battery Management

电池管理

Enclosure Management

组件管理。

 

Battery Management

该界面主要提供RAID控制卡电池信息。

界面介绍

Battery Management”界面如19-114所示,参数说明如19-40所示。

图19-114 Battery Management

 

表19-40 参数说明

参数

说明

Type

电池类型。

Status

电池状态。

Temperature

电池当前温度。

Capacitance

电池当前容量。

Advanced

更多操作。

 

选择“Advanced”进入如19-115所示界面,参数说明如19-41所示。

图19-115 Advanced Battery Management

 

表19-41 参数说明

参数

说明

Start Manual Learn Cycle

手动超级电容的电量校准。

Set Automatic Learn Cycle Properties

设置超级电容的电量校准属性。

Manufacturer

电池制造商。

Serial Number

电池序列号。

Date of Manufacture

电池生产日期。

Module Version

电池模块版本。

Status

电池当前状态。

Voltage

电池电压。

Current

电池的电流。

Design Capacity

电池的设计容量。

Remaining Capacity

电池的剩余容量。

Auto_learn Mode

自学习模式。

Next Learn Cycle Time

下一次超级电容的电量校准时间。

 

19.6.2.10.9 Enclosure Management

该界面主要提供RAID控制卡传感器信息。

界面介绍

Enclosure Management”界面如19-116所示,参数说明如19-42所示。

图19-116 Enclosure Management

 

表19-42 参数说明

参数

说明

Select Enclosure

选择机框。

Vendor ID

厂商iD

Enclosure ID

机框ID

Enclosure Model

机框型号。

Enclosure Location

机框位置。

Product Revision Level

产品修订级别。

Number of slots

槽位数量。

Attached Drives

关联硬盘。

View Enclosure Status

查看机框状态。

 

19.6.3 View Server Profile

提供RAID控制卡操作管理接口。

界面介绍

View Server Profile”界面如19-117所示,参数说明如19-43所示。

图19-117 View Server Profile

 

表19-43 参数说明

参数

参数说明

UEFI Spec Version

服务器支持的UEFI Spec版本。

Controller Management

提供控制卡管理接口,详细情况请参见19.6.2.6 Controller Management

Hardware Components

提供控制卡部件查询接口,详细情况请参见19.6.2.9 Hardware Components

Drive Management

提供硬盘管理接口,详细情况请参见19.6.2.8 Drive Management

Virtual Drive Management

提供虚拟磁盘管理接口,详细情况请参见19.6.2.7 Virtual Drive Management

 

19.6.4 View Foreign Configuration

该界面可查看、导入、清空外部配置。当存在外部配置时才会显示该选项。请参见19.6.2.5.6 Manage Foreign Configuration

19.6.5 Configure

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。请参见0Configuration Management

19.6.6 Set Factory Defaults

 

所有配置将恢复到出厂默认配置,请谨慎执行该操作。

该界面可恢复控制卡出厂设置。

界面介绍

Set Factory Defaults”界面如19-118所示。

图19-118 Set Factory Defaults

 

19.6.7 Manage MegaRAID Advanced Software Options

该界面提供控制卡高级软件管理接口。

界面介绍

Advanced Controller Management”界面如19-119所示,界面中参数说明如19-44所示。

图19-119 Advanced Controller Management

 

表19-44 参数说明

参数

说明

MegaRAID Advanced Software Options enable special functionalities or features that may not be available in the standard configuration of the controller

MegaRAID高级软件选项可启用控制器标准配置中可能不提供的特性或功能。

Activated MegaRAID Advanced Software Options

激活的MegaRAID高级软件选项。

MegaRAID RAID6 (Unlimited)

RAID 6(无限制)。

MegaRAID RAID5 (Unlimited)

RAID 5(无限制)。

MegaRAID SafeStore (Unlimited)

安全存储(无限制)。

MegaRAID FastPath (Unlimited)

快速路径(无限制)。

Safe ID

RAID控制卡的安全编码。

Serial Number

RAID控制卡序列号。

Activation Key

待激活的高级特性的Key

Activate

激活高级特性。

9560-8i不支持高级特性的激活操作,该功能无效。

Deactivate All Trial Software

注销当前所有高级特性。

9560-8i不支持高级特性的激活操作,该功能无效。

 

19.6.8 Exit

按“F10”退出BIOS管理界面。

19.7 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

下载和安装StorCLI工具

下载工具

登录BROADCOM网站上RAID控制卡的页面

                                步骤 1     在“DOWNLOADS”页签中单击“Management Software and Tools”。

打开管理软件和工具列表。

                                步骤 2     下载最新版本的“StorCLI”工具。

                                步骤 3     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 1     Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。

StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

19.7.2 常用命令

查询RAID控制卡配置信息

命令功能

查询9560-8i的基本配置信息。

命令格式

storcli64 /ccontroller_id show

参数说明

参数

参数说明

取值

controller_id

控制卡ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

 

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡配置信息。

[root@localhost ~]# storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.18.0-147.8.1.el7.aarch64
Controller = 0
Status = Success
Description = None
 
Product Name = MegaRAID 9560-8i 4GB
Serial Number = SKB3166087
SAS Address =  500062b2082428c0
PCI Address = 00:04:00:00
System Time = 04/11/2022 09:19:35
Mfg. Date = 08/03/21
Controller Time = 04/11/2022 01:19:35
FW Package Build = 52.20.0-4341
BIOS Version = v7.20.01.0_0x07140000
FW Version = 5.200.02-3618
Driver Name = megaraid_sas
Driver Version = 07.720.04.00
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x10E2
SubVendor Id = 0x1000
SubDevice Id = 0x4010
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 4
Device Number = 0
Function Number = 0
Domain ID = 0
Security Protocol = None
Drive Groups = 10
 
TOPOLOGY :
========
 
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace TR
-----------------------------------------------------------------------------
 0 -   -   -        -   RAID1 Optl  N  893.750 GB dflt N  N   none N      N
 0 0   -   -        -   RAID1 Optl  N  893.750 GB dflt N  N   none N      N
 0 0   0   251:12   9   DRIVE Onln  N  893.750 GB dflt N  N   none -      N
 0 0   1   251:13   0   DRIVE Onln  N  893.750 GB dflt N  N   none -      N
 1 -   -   -        -   RAID5 Optl  N   18.190 TB dflt N  N   dflt N      N
 1 0   -   -        -   RAID5 Optl  N   18.190 TB dflt N  N   dflt N      N
 1 0   0   251:0    5   DRIVE Onln  N    9.094 TB dflt N  N   dflt -      N
 1 0   1   251:2    7   DRIVE Onln  N    9.094 TB dflt N  N   dflt -      N
 1 0   2   251:6    2   DRIVE Onln  N    9.094 TB dflt N  N   dflt -      N
 2 -   -   -        -   RAID1 Optl  N    9.094 TB dflt N  N   dflt N      N
 2 0   -   -        -   RAID1 Optl  N    9.094 TB dflt N  N   dflt N      N
 2 0   0   251:4    3   DRIVE Onln  N    9.094 TB dflt N  N   dflt -      N
 2 0   1   251:7    1   DRIVE Onln  N    9.094 TB dflt N  N   dflt -      N
 3 -   -   -        -   RAID0 Optl  N    9.094 TB dflt N  N   dflt N      N
 3 0   -   -        -   RAID0 Optl  N    9.094 TB dflt N  N   dflt N      N
 3 0   0   251:5    6   DRIVE Onln  N    9.094 TB dflt N  N   dflt -      N
 4 -   -   -        -   RAID0 Optl  N    9.094 TB dflt N  N   dflt N      N
 4 0   -   -        -   RAID0 Optl  N    9.094 TB dflt N  N   dflt N      N
 4 0   0   251:15   14  DRIVE Onln  N    9.094 TB dflt N  N   dflt -      N
 5 -   -   -        -   RAID0 Optl  N   10.913 TB dflt N  N   dflt N      N
 5 0   -   -        -   RAID0 Optl  N   10.913 TB dflt N  N   dflt N      N
 6 -   -   -        -   RAID0 Optl  N    9.094 TB dflt N  N   dflt N      N
 6 0   -   -        -   RAID0 Optl  N    9.094 TB dflt N  N   dflt N      N
 6 0   0   251:3    8   DRIVE Onln  N    9.094 TB dflt N  N   dflt -      N
 7 -   -   -        -   RAID0 Optl  N   10.913 TB dflt N  N   dflt N      N
 7 0   -   -        -   RAID0 Optl  N   10.913 TB dflt N  N   dflt N      N
 7 0   0   251:11   12  DRIVE Onln  N   10.913 TB dflt N  N   dflt -      N
 8 -   -   -        -   RAID0 Optl  N   10.913 TB dflt N  N   dflt N      N
 8 0   -   -        -   RAID0 Optl  N   10.913 TB dflt N  N   dflt N      N
 8 0   0   251:8    10  DRIVE Onln  N   10.913 TB dflt N  N   dflt -      N
 9 -   -   -        -   RAID0 Optl  N   12.732 TB dflt N  N   dflt N      N
 9 0   -   -        -   RAID0 Optl  N   12.732 TB dflt N  N   dflt N      N
 9 0   0   251:14   16  DRIVE Onln  N   12.732 TB dflt N  N   dflt -      N
-----------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Optl=Optimal|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 10
 
VD LIST :
=======
 
------------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC       Size Name
------------------------------------------------------------------
9/230 RAID0 Optl  RW     Yes     RWBD  -   ON   12.732 TB raid0_6
8/231 RAID0 Optl  RW     Yes     RWBD  -   ON   10.913 TB raid0_5
7/232 RAID0 Optl  RW     Yes     RWBD  -   ON   10.913 TB raid0_4
6/233 RAID0 Optl  RW     Yes     RWBD  -   ON    9.094 TB raid0_3
5/234 RAID0 Optl  RW     Yes     RWBD  -   ON   10.913 TB raid0_2
4/235 RAID0 Optl  RW     Yes     RWBD  -   ON    9.094 TB raid0_1
3/236 RAID0 Optl  RW     Yes     RWBD  -   ON    9.094 TB raid0_0
2/237 RAID1 Optl  RW     No      RWBD  -   ON    9.094 TB raid1_0
1/238 RAID5 Optl  RW     No      RWBD  -   ON   18.190 TB raid5_0
0/239 RAID1 Optl  RW     Yes     RWBD  -   ON  893.750 GB
------------------------------------------------------------------
 
VD=Virtual Drive| DG=Drive Group|Rec=Recovery
Cac=CacheCade|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|dflt=Default|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
JBOD Drives = 2
 
JBOD LIST :
=========
 
----------------------------------------------------------------------------------------
ID EID:Slt DID State Intf Med      Size SeSz Model                Vendor   Port
----------------------------------------------------------------------------------------
 1 251:1     4 Onln  SATA HDD  9.095 TB 512B ST10000NM0478-2H7100 ATA      C0.0 & C0.1
 9 251:9    11 Onln  SATA HDD 10.914 TB 512B ST12000NM001G-2MV103 ATA      C0.0 & C0.1
----------------------------------------------------------------------------------------
 
ID=JBOD Target ID|EID=Enclosure Device ID|Slt=Slot No.|DID=Device ID|Onln=Online|
Offln=Offline|Intf=Interface|Med=Media Type|SeSz=Sector Size
 
Physical Drives = 16
 
PD LIST :
=======
 
-------------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model                   Sp Type
-------------------------------------------------------------------------------------
251:0     5 Onln   1   9.094 TB SATA HDD N   N  512B ST10000NM0478-2H7100    U  -
251:1     4 Onln   -   9.095 TB SATA HDD N   N  512B ST10000NM0478-2H7100    U  JBOD
251:2     7 Onln   1   9.094 TB SATA HDD N   N  512B ST10000NM0478-2H7100    U  -
251:3     8 Onln   6   9.094 TB SATA HDD N   N  512B ST10000NM0478-2H7100    U  -
251:4     3 Onln   2   9.094 TB SATA HDD N   N  512B ST10000NM0478-2H7100    U  -
251:5     6 Onln   3   9.094 TB SATA HDD N   N  512B ST10000NM0478-2H7100    U  -
251:6     2 Onln   1   9.094 TB SATA HDD N   N  512B ST10000NM0478-2H7100    U  -
251:7     1 Onln   2   9.094 TB SATA HDD N   N  512B ST10000NM0478-2H7100    U  -
251:8    10 Onln   8  10.913 TB SATA HDD N   N  512B ST12000NM001G-2MV103    U  -
251:9    11 Onln   -  10.914 TB SATA HDD N   N  512B ST12000NM001G-2MV103    U  JBOD
251:10   13 Onln   5  10.913 TB SATA HDD N   N  512B ST12000NM001G-2M        U  -
251:11   12 Onln   7  10.913 TB SATA HDD N   N  512B ST12000NM001G-2MV103    U  -
251:12    9 Onln   0 893.750 GB SATA SSD N   N  512B MTFDDAK960TDD-1AT1ZABYY U  -
251:13    0 Onln   0 893.750 GB SATA SSD N   N  512B MTFDDAK960TDD-1AT1ZABYY U  -
251:14   16 Onln   9  12.732 TB SATA HDD N   N  512B ST14000NM001G-2KJ103    U  -
251:15   14 Onln   4   9.094 TB SATA HDD N   N  512B ST10000NM0478-2H7100    U  -
-------------------------------------------------------------------------------------
 
EID=Enclosure Device ID|Slt=Slot No.|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Sntze=Sanitize|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=UGood Unsupported|UGShld=UGood shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported|Rbld=Rebuild
 
Enclosures = 1
 
Enclosure LIST :
==============
 
---------------------------------------------------------------------------------------
EID State Slots PD PS Fans TSs Alms SIM Port#          ProdID           VendorSpecific
---------------------------------------------------------------------------------------
251 OK       16 16  0    0   0    0   0 C0.0 & C0.1 x8 Expander 12G16T0
---------------------------------------------------------------------------------------
 
EID=Enclosure Device ID |PD=Physical drive count |PS=Power Supply count|
TSs=Temperature sensor count |Alms=Alarm count |SIM=SIM Count ||ProdID=Product ID
 
 
Cachevault_Info :
===============
 
------------------------------------
Model  State   Temp Mode MfgDate
------------------------------------
CVPM05 Optimal 26C  -    2021/11/01
------------------------------------

19.7.2.11 查询和设置Spin up参数

命令功能

查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。

命令格式

命令

说明

storcli64 /ccontroller_id show spinupdelay

查询RAID控制卡Spinup参数。

storcli64 /ccontroller_id show spinupdrivecount

查询上电时允许同时起转的硬盘数量。

storcli64 /ccontroller_id set spinupdelay=time

设置每组起转硬盘间的时间间隔。

storcli64 /ccontroller_id set spinupdrivecount=count

设置上电时允许同时起转的硬盘数量。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

每组起转硬盘间的时间间隔

默认为2,单位为s

count

上电时允许同时起转的硬盘数量

默认为4

 

查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡Spin up参数。

[root@localhost ~]# storcli64 /c0 show spinupdelay
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop     Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------

# 查询上电时允许同时起转的硬盘数量。

[root@localhost ~]# storcli64 /c0 show spinupdrivecount
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop           Value
--------------------------
Spin Up Drive Count 2
--------------------------

# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。

[root@localhost ~]# storcli64 /c0 set spinupdelay=20
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
---------------------------
Ctrl_Prop     Value
---------------------------
Spin Up Delay 20 second(s)
---------------------------
 
[root@localhost ~]# storcli64 /c0 set spinupdrivecount=5
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop           Value
--------------------------
Spin Up Drive Count 5
--------------------------

19.7.2.12 查询和设置Spin down参数

命令功能

通过设置Spin down参数,可以主动让处于空闲状态的HDD硬盘进入节能模式,进入节能模式后的硬盘会被Firmware标记为移除状态,需要手动将设置Spinup后才能进行RAID创建、删除、硬盘Firmware升级等操作。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id spindown

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

 

查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置Spin down功能。

[root@localhost ~]# storcli64 /c0 /e249/s10 spindown
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Spin Down Drive Succeeded.

进入节能模式的硬盘,状态显示为“D”,如19-120所示。

图19-120 状态显示

 

19.7.2.13 设置硬盘PowerSave功能

命令功能

设置空闲硬盘和热备盘的省电模式。

命令格式

storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

state

省电模式的启用状态。

l     on:启用

l     off:禁用

disktype

硬盘类型。

l     1:空闲硬盘

l     2:热备盘

time

等待时间,硬盘经过等待时间没有IO,则停转进入休眠状态。

单位为minutes

 

查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

无。

使用实例

# 设置空闲硬盘的省电模式。

[root@localhost ~]# storcli64 /c0 set ds=on type=1 spindowntime=30
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
------------------------
Ctrl_Prop    Value
------------------------
SpnDwnUncDrv Enabled
SpnDwnTm     30 minutes
------------------------

19.7.2.14 查询和设置物理硬盘初始化功能

命令功能

设置物理硬盘初始化功能,查询初始化进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看初始化进度

l     start:开始初始化

l     stop:结束初始化

 

以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

无。

使用实例

# 初始化slot3硬盘,并查询初始化进度。

[root@localhost ~]# storcli64 /c0/e249/s11 start initialization
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
 
[root@localhost ~]# storcli64 /c0/e249/s11 show initialization
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
 
 
-------------------------------------------------------
Drive-ID     Progress% Status      Estimated Time Left
-------------------------------------------------------
/c0/e249/s11         0 In progress 0 Seconds
-------------------------------------------------------

19.7.2.15 查询和设置硬盘数据擦除功能

命令功能

设置物理硬盘数据擦除模式,查询擦除进度。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase

查询硬盘擦除进度。

storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase

中止硬盘擦除。

storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode

设置硬盘擦除模式并开始擦除。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

硬盘槽位号

mode

数据擦除模式

l     simple:对硬盘进行一轮擦除动作。

l     normal:对硬盘进行三轮擦除动作。

l     thorough:对硬盘进行九轮擦除动作。

 

以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

无。

使用实例

# slot 3硬盘进行simple数据擦除,并查询擦除进度。

[root@localhost ~]# storcli64 /c0/e249/s9 start erase simple
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
 
[root@localhost ~]# storcli64 /c0/e249/s9 show erase
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Show Drive Erase Status Succeeded.
 
 
------------------------------------------------------
Drive-ID    Progress% Status      Estimated Time Left
------------------------------------------------------
/c0/e249/s9         0 In progress 0 Seconds
------------------------------------------------------
 
[root@localhost ~]# storcli64 /c0/e249/s9 stop erase
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.

19.7.2.16 设置后台资源占用率

命令功能

设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。

命令格式

storcli64 /ccontroller_id set action=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要设置的项目

l     bgirate:后台初始化速率

l     ccrate:一致性校验速率

l     prrate:硬盘巡检速率

l     rebuildrateRAID重构速率

l     reconrateRAID扩容和迁移速率

value

后台任务资源占用率

1100

 

查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

无。

使用实例

# 设置硬盘巡检速率为“30%”。

[root@localhost ~]# storcli64 /c0 set prrate=30
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-----------------------
Ctrl_Prop        Value
-----------------------
Patrol Read Rate 30%
-----------------------

19.7.2.17 设置BIOS Stop on Error功能

命令功能

设置控制卡BIOS在检测到异常时停止继续启动的功能。

命令格式

storcli64 /ccontroller_id set bios mode=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要执行的操作

l     soe:控制卡BIOS在检测到异常时停止启动

l     ie:忽略检测到的异常

 

查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

无。

使用实例

# 开启Stop on error功能。

[root@localhost ~]# storcli64 /c0 set bios mode=soe
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------

19.7.2.18 创建和删除RAID

命令功能

创建、删除RAID

命令格式

命令

说明

storcli64 /ccontroller_id add vd rlevel[0|1|5|6|10|50|60] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [wt|*wb|awb] [nora|*ra] [*direct|cached] [Strip=<8|16|32|64|128|256|1024>] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid]

创建RAID

storcli64 /ccontroller_id/vraid_id del

删除RAID

 

*表示默认值。

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

rlevel

要配置的RAID组级别

level可为0156105060,数字分别代表对应的RAID组级别。

size

要配置的RAID组容量

默认值为all,即所有成员盘的容量之和。

name

要配置的RAID组名称

-

drives

要加入RAID组的硬盘

-

startid-endid

硬盘的起始和结束ID

-

slot_id

硬盘ID

-

pdperarray

子组中的硬盘数

创建RAID10RAID50RAID60时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。

-

pdcache

设置RAID的成员盘的Cache状态

l     on

l     off

l     default

pi

使能数据保护

-

wrcache

设置RAID组的写Cache属性,完整的命令为wrcache=wt|wb|awb,这里“wrcache=”可省略

l     wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”模式。

rdcache

设置RAID组的读Cache属性,完整的命令为rdcache=ra|nora,这里“rdcache=”可省略。

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     noraRAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

iopolicy

设置RAID组的I/O策略,完整的命令为iopolicy=direct|cached,这里“iopolicy=”可省略。

说明

Cache IO的规格后续不再支持,默认为Direct IO,具体信息请查看RAID控制卡固件版本说明书。

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

Strip

设置RAID组条带大小

64, 128, 256, 512, 1024

单位为KB

EmulationType

控制逻辑盘在OS中上报的扇区

l     0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     1: Disable,即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     2Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Spares

指定RAID组的热备盘

-

raid_id

要删除的RAID组的ID

-

 

l     以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

l     当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid

使用指南

无。

使用实例

# 创建RAID 0

[root@localhost ~]# storcli64 /c0 add vd r0 size=100GB drives=249:7-8
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Add VD Succeeded.

# 删除RAID

[root@localhost ~]# storcli64 /c0/v239 del
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Delete VD succeeded

19.7.2.19 设置RAID组的Cache读写属性

命令功能

设置RAID组的Cache读写属性。

命令格式

命令

说明

storcli64 /ccontroller_id/vraid_id set wrcache=wrmode

设置Cache写策略

storcli64 /ccontroller_id/vraid_id set rdcache=rdmode

设置Cache读策略

 

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAID组的ID

可以为all,表示所有RAID

wrmode

设置Cache写策略

l     wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”策略。

rdmode

设置Cache读策略

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     noraRAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

 

以上涉及的各个ID的方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

无。

使用实例

# 设置Cache写模式为“wt”。

[root@localhost ~]# storcli64 /c0/v239 set wrcache=wt
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 wrCache WT Success 0 -
---------------------------------------

19.7.2.20 设置RAID访问策略

命令功能

设置RAID的读写策略。

命令格式

storcli64 /ccontroller_id/vraid_id set accesspolicy=mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

mode

RAID读写策略

l     rw:可读可写

l     blocked:禁止访问

l     ro:只读访问

 

以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

无。

使用实例

# 设置RAID读写策略为“rw”。

[root@localhost ~]# storcli64 /c0/v239 set accesspolicy=rw
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 AccPolicy RW Success 0 -
---------------------------------------

19.7.2.21 设置RAID前台初始化

命令功能

设置RAID前台初始化模式。

命令格式

storcli64 /ccontroller_id/vraid_id start mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

mode

前台初始化模式

l     init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。

l     init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。

 

以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

无。

使用实例

# 快速初始化RAID

[root@localhost ~]# storcli64 /c0/v238 start init
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Start INIT Operation Success

19.7.2.22 查询和设置RAID后台初始化

命令功能

暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。

命令格式

storcli64 /ccontroller_id/vraid_id action bgi

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

action

后台初始化的操作

l     show:查看后台初始化进度

l     pause:暂停后台初始化

l     resume:继续后台初始化

l     stop:停止后台初始化

 

以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

无。

使用实例

# 查看后台初始化进度。

[root@localhost ~]# storcli64 /c0/v239 show bgi
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Noe
VD Operation Status :
===================
------------------------------------------------------
VD Operation Progress% Staus Estimated Time Left
------------------------------------------------------
0 BGI 3 In progress 53 Minutes
------------------------------------------------------

19.7.2.23 设置启动项

命令功能

设置虚拟磁盘或物理硬盘为启动项。

命令格式

命令

说明

storcli64 /ccontroller_id/vvd_id set bootdrive=on

设置虚拟磁盘为启动项。

storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on

设置物理硬盘为启动项。

 

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

vd_id

待设置的虚拟磁盘的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

 

以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

无。

使用实例

# 设置VD239为启动项。

[root@localhost ~]# storcli64 /c0/v239 set bootdrive=on
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Noe
Detailed Status :
===============
----------------------------------------
VD Property Value Staus ErrCd ErrMsg
----------------------------------------
0 Boot Drive On Success 0 -
----------------------------------------

# 设置slot 7硬盘为启动项。

[root@localhost ~]# storcli64 /c0/e239/s7 set bootdrive=on
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0 
Status = Success
Description = Noe
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
BootDrive PD:249_7
-------------------

19.7.2.24 设置紧急热备功能

命令功能

设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。

命令格式

storcli64 /ccontroller_id set eghs eug=state

storcli64 /ccontroller_id set eghs smarter=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

state

紧急热备功能的启用状态

l     on:启用

l     off:禁用

 

查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

无。

使用实例

# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。

[root@localhost ~]# storcli64 /c0 set eghs eug=on
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
Controller Properties :
=====================
 
------------------
Ctrl_Prop   Value
------------------
EmergencyUG ON
------------------
 
[root@localhost ~]# storcli64 /c0 set eghs smarter=on
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-----------------------
Ctrl_Prop        Value
-----------------------
EmergencySmarter ON
-----------------------

19.7.2.25 设置热备盘

命令功能

设置全局热备盘和局部热备盘。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive

设置全局热备盘。

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=<N|0,1,2..>]

设置局部热备盘。

storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive

删除热备盘。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

dgs

硬盘组的ID

l     不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘

l     0,1,2..:硬盘组ID

 

以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

无。

使用实例

# 设置slot 3硬盘为全局热备盘。

[root@localhost ~]# storcli64 /c0/e249/s9 add hotsparedrive
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.

# 设置slot 3硬盘为vd0的局部热备盘。

[root@localhost ~]# storcli64 /c0/e249/s3 add hotsparedrive dgs=0
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.

19.7.2.26 查询和设置RAID重构

命令功能

开始、暂停、继续、停止RAID重构,并查询进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

action

要执行的操作

l     start:开始重构

l     show:查看重构进度

l     pause:暂停重构

l     resume:继续重构

l     stop:停止重构

 

查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 手动开始重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

# 查看硬盘当前重构状态。

[root@localhost ~]# ./storcli64 /c0/e70/s7 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e70/s7         5 In progress 26 Minutes
-----------------------------------------------------

# 暂停硬盘重构进程。

[root@localhost ~]# ./storcli64 /c0/e70/s7 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Succeeded.

# 继续重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 resume rebuild
Controller = 0
Status = Success
Description = Resume Drive Rebuild Succeeded.

# 停止重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 stop rebuild
Controller = 0
Status = Success
Description = Stop Drive Rebuild Succeeded.

19.7.2.27 查询和设置回拷

命令功能

开始、暂停、继续、停止回拷,并查询进度。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id start copyback target=target_enclosure_id:target_slot_id

开始回拷。

storcli64 /ccontroller_id/eenclosure_id/sslot_id action copyback

暂停、继续、查看、停止回拷。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

target_enclosure_id

执行回拷的目标硬盘所在EnclosureID

-

target_slot_id

执行回拷的目标物理硬盘槽位编号。

-

action

要执行的操作

l     show:查看回拷进度

l     pause:暂停回拷

l     resume:继续回拷

l     stop:停止回拷

 

查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 手动开始回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s7 start copyback target=70:3
Controller = 0
Status = Success
Description = Start Drive Copyback Succeeded.

# 查看硬盘当前回拷状态。

[root@localhost ~]# ./storcli64 /c0/e70/s3 show copyback
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e70/s3        17 In progress 16 Minutes
-----------------------------------------------------

# 暂停硬盘回拷进程。

[root@localhost ~]# ./storcli64 /c0/e70/s3 pause copyback
Controller = 0
Status = Success
Description = Pause Drive Copyback Succeeded.

# 继续回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s3 resume copyback
Controller = 0
Status = Success
Description = Resume Drive Copyback Succeeded.

# 停止回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s3 stop copyback
Controller = 0
Status = Success
Description = Stop Drive Copyback Succeeded.

19.7.2.28 设置SMART扫描周期

命令功能

设置SMART扫描周期。

命令格式

storcli64 /ccontroller_id set smartpollinterval=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

value

SMART扫描周期

单位为s

 

查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

无。

使用实例

# 设置SMART扫描周期为“60s”。

[root@localhost ~]# storcli64 /c0 set smartpollinterval=60
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-------------------------------
Ctrl_Prop         Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------

19.7.2.29 通过增加成员盘可用容量扩容RAID

命令功能

RAID2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

命令格式

storcli64 /ccontroller_id/vvd_id expand size=capacity

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要扩容的RAIDID

capacity

扩容后的容量

 

以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

无。

使用实例

# VD239的容量扩大“200GB”。

[root@localhost ~]# storcli64 /c0/v239 expand size=200GB
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
239 100.0 GB 457.861 GB 200.0 GB 201.458 GB 44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %

19.7.2.30 通过增加新盘扩容或迁移RAID

命令功能

RAID2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

当增加新盘后,可进行RAID级别迁移。

命令格式

storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

vd_id

要操作的RAIDID

slot_id

要加入RAID的新硬盘的槽位号

level

增加硬盘后RAID的级别

l     与原RAID级别相同时,该命令为扩大RAID容量。

l     与原RAID级别不同时,该命令为RAID级别迁移。

 

以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

无。

使用实例

# RAID 0中增加slot 2硬盘扩容。

[root@localhost ~]# storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
[root@localhost ~]# storcli64 /c0/v0 show migrate
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 13 Minutes
-------------------------------------------------------

# 单盘RAID 0加盘迁移至RAID 1

[root@localhost ~]# storcli64 /c0/v239 start migrate type=r1 option=add drives=252:3
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
 
[root@localhost ~]# storcli64 /c0/v239 show migrate
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
239 Migrate 1 In progress 14 Minutes
-------------------------------------------------------

19.7.2.31 设置一致性校验参数

命令功能

设置一致性校验参数。

命令格式

命令

说明

storcli64 /ccontroller_id[/vvd_id]show cc

查询虚拟磁盘一致性校验进度。

storcli64 /ccontroller_id/vvd_id start cc force

开始一致性校验。

storcli64 /ccontroller_id/vvd_id action cc

设置一致性校验操作。

storcli64 /ccontroller_id set cc=conc delay=value starttime=time excludevd=evd_id

设置一致性校验参数。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要操作的RAIDID

action

要执行的操作

l     pause:暂停

l     resume:继续执行

l     stop:停止

value

一致性校验周期

time

一致性校验起始时间

例如:2016/07/14 22

说明

起始时间单位为

evd_id

不进行一致性校验的虚拟磁盘ID

 

以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

show命令中不带/vvd_id时,表示查询自动CC参数。

show命令中带/vvd_id时,表示查询CC进度。

使用实例

# 设置一致性自动检查参数。

[root@localhost ~]# storcli64 /c0 set cc=conc delay=1 starttime=2022/04/05 22 excludevd=0
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Failure
Description = None
 
Detailed Status :
===============
 
----------------------------------
Ctrl_Prop       Value
----------------------------------
CC ExcludeVD(0) Invalid VD Number
----------------------------------
 
 
 
Controller Properties :
=====================
 
---------------------------------
Ctrl_Prop    Value
---------------------------------
CC Mode      CONC
CC delay     1
CC Starttime 2022/04/05 22:00:00
---------------------------------

# 查询CC进度。

[root@localhost ~]# storcli64 /c0/v238 show cc
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
VD Operation Status :
===================
 
------------------------------------------------------------
 VD Operation Progress% Status          Estimated Time Left
------------------------------------------------------------
238 CC        -         Not in progress -
------------------------------------------------------------

19.7.2.32 查询和设置Patrol read参数

命令功能

查询和设置系统巡检的相关参数。

命令格式

命令

说明

storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number

设置系统巡检的相关参数。

storcli64 /ccontroller_id set patrolread delay=delaytime

设置系统巡检周期。

storcli64 /ccontroller_id show patrolread

产看系统巡检进度。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

系统巡检起始时间

例如:2016/07/15 23

说明

起始时间单位为

number

可同时巡检的硬盘数量

delaytime

系统巡检周期

单位为hour

 

查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

无。

使用实例

# 设置patrol read的起始时间为“2022/04/05 23”,同时巡检的硬盘数为“2”。

[root@localhost ~]# storcli64 /c0 set patrolread starttime=2022/04/05 23 maxconcurrentpd=2
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
---------------------------------------
Ctrl_Prop          Value
---------------------------------------
PR Starttime       2022/04/05 23:00:00
PR MaxConcurrentPd 2
---------------------------------------

# 查询patrol read信息。

[root@localhost ~]# storcli64 /c0 show patrolread
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
---------------------------------------------
Ctrl_Prop               Value
---------------------------------------------
PR Mode                 Auto
PR Execution Delay      168 hours
PR iterations completed 0
PR Next Start time      04/05/2022, 23:00:00
PR on SSD               Disabled
PR Current State        Stopped
PR Excluded VDs         None
PR MaxConcurrentPd      2
---------------------------------------------

19.7.2.33 查询和设置Cache Flush参数

命令功能

查询和设置Cache的刷新周期。

命令格式

命令

说明

storcli64 /ccontroller_id show cacheflushint

查询Cache的刷新周期。

storcli64 /ccontroller_id set cacheflushint time

设置Cache的刷新周期。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

Cache的刷新周期

单位为s

 

查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

无。

使用实例

# 设置Cache的刷新周期为“10”。

[root@localhost ~]# storcli64 /c0 set cacheflushint=10
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
---------------------------
Ctrl_Prop            Value
---------------------------
Cache Flush Interval 10
---------------------------

# 查询Cache的刷新周期。

[root@localhost ~]# storcli64 /c0 show cacheflushint
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------------------
Ctrl_Prop            Value
----------------------------
Cache Flush Interval 10 sec

19.7.2.34 设置硬盘状态

命令功能

设置硬盘状态。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

state

要设置的硬盘状态

l     online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。

l     offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。

l     jbod:通过该参数可以将硬盘设置为直通硬盘。

l     good

     ubad状态的硬盘,使用该参数可将硬盘设为ugoodforeign)状态,此时可选择导入或清除外来配置;

     JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。

force

强制设置硬盘状态,为可选参数。

如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force

-

 

以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

无。

使用实例

# 将“Unconfigured Bad”状态下的slot 9硬盘设置为“Unconfigured Good”状态。

[root@localhost ~]# storcli64 /c0/e249/s9 set good
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Set Drive Good Succeeded.

19.7.2.35 设置硬盘点灯

命令功能

点亮和熄灭指定硬盘的定位指示灯。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。

slot_id

物理硬盘槽位编号

可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。

action

要执行的操作

l     start:点亮硬盘的定位指示灯。

l     stop:熄灭硬盘的定位指示灯。

 

以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

无。

使用实例

# 点亮slot 10硬盘的定位指示灯。

[root@localhost ~]# storcli64 /c0/e249/s10 start locate
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.

19.7.2.36 查询RAID控制卡/RAID/物理硬盘信息

命令功能

查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。

命令格式

命令

说明

storcli64 /ccontroller_id show

查询RAID控制卡的详细信息。

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

查询物理硬盘的详细信息。

storcli64 /ccontroller_id/vvd_id show all

查询虚拟磁盘的详细信息。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

enclosure_id

硬盘所在EnclosureID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡连接的硬盘背板的ID

slot_id

物理硬盘槽位编号

可以将该参数设置为all,表示查询所有硬盘的ID

vd_id

虚拟磁盘ID

可以为all,表示查询所有虚拟磁盘信息。

 

以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

回显中主要字段的含义如19-45所示。

表19-45 回显说明

命令格式

字段

含义

举例

storcli64 /ccontroller_id show

Product Name

RAID控制卡的型号

MegaRAID 9560-8i 4GB

FW Version

RAID控制卡的FW版本

5.190.02-3610

Driver Name

RAID控制卡的驱动名称

megaraid_sas

Driver Version

RAID控制卡的驱动版本

07.710.50.00-rh1

Current Personality

RAID控制卡的工作模式

RAID-Mode

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

SN

物理硬盘的序列号

PHWL517601YR800RGN

Manufacturer Id

物理硬盘的供应商ID

ATA

Model Number

物理硬盘的模块序号

INTEL SSDSC2BB800G4

Firmware Revision

物理硬盘的FW版本

D2010370

Raw size

物理硬盘的容量

745.211 GB [0x5d26ceb0 Sectors]

Logical Sector Size

物理硬盘逻辑分区大小

512B

Physical Sector Size

物理扇区大小

4 KB

storcli64 /ccontroller_id/vvd_id show all

TYPE

RAID组的级别

RAID1

State

RAID组的状态

Optl

Access

RAID组数据的访问策略

RW

Cache

RAID组当前的读写策略与IO Policy

RWTD

Size

RAID组的大小

100.0 GB

PDs for VD0

RAID组下的物理硬盘

-

Strip Size

RAID组的条带大小

256KB

Write Cache(initial setting)

RAIDCache的写策略

Write Through

Disk Cache Policy

RAID组成员盘的Cache策略

Disk's Default

 

使用实例

#查询RAID控制卡的详细信息。

[root@localhost ~]# storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
Product Name = MegaRAID 9560-8i 4GB
Serial Number = SKB3166429
SAS Address =  500062b2082427c0
PCI Address = 00:04:00:00
System Time = 10/25/2019 00:59:23
Mfg. Date = 08/03/21
Controller Time = 10/25/2019 04:59:22
FW Package Build = 52.19.0-4294
BIOS Version = 7.19.00.0_0x07130200
FW Version = 5.190.02-3610
Driver Name = megaraid_sas
Driver Version = 07.714.04.00
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x10E2
SubVendor Id = 0x1000
SubDevice Id = 0x4010
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 4
Device Number = 0
Function Number = 0
Domain ID = 0
Security Protocol = None
Drive Groups = 2
 
TOPOLOGY :
========
 
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace TR
-----------------------------------------------------------------------------
 0 -   -   -        -   RAID0 Optl  N    1.089 TB dflt N  N   dflt Y      N
 0 0   -   -        -   RAID0 Optl  N    1.089 TB dflt N  N   dflt Y      N
 0 0   0   249:7    45  DRIVE Onln  N  558.406 GB dflt N  N   dflt -      N
 0 0   1   249:8    43  DRIVE Onln  N  558.406 GB dflt N  N   dflt -      N
 1 -   -   -        -   RAID0 Optl  N    2.181 TB dflt N  N   dflt Y      N
 1 0   -   -        -   RAID0 Optl  N    2.181 TB dflt N  N   dflt Y      N
 1 0   0   249:4    47  DRIVE Onln  N    1.636 TB dflt N  N   dflt -      N
 1 0   1   249:5    44  DRIVE Onln  N    1.090 TB dflt N  N   dflt -      N
-----------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Optl=Optimal|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 2
 
VD LIST :
=======
 
---------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC       Size Name
---------------------------------------------------------------
1/238 RAID0 Optl  RW     Yes     RWBD  -   ON  100.000 GB
0/239 RAID0 Optl  RW     Yes     RWBD  -   ON  100.000 GB
---------------------------------------------------------------
 
VD=Virtual Drive| DG=Drive Group|Rec=Recovery
Cac=CacheCade|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|dflt=Default|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady
B=Blocked|Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 12
 
PD LIST :
=======
 
------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model            Sp Type
------------------------------------------------------------------------------
249:0    49 UGood -    1.636 TB SAS  HDD N   N  512B ST1800MM0129     D  -
249:1    46 UGood -    1.636 TB SAS  HDD N   N  512B ST1800MM0129     D  -
249:2    50 UGood -    2.182 TB SAS  HDD N   N  512B ST2400MM0129     D  -
249:3    48 UGood -    1.636 TB SAS  HDD N   N  512B ST1800MM0129     D  -
249:4    47 Onln  1    1.636 TB SAS  HDD N   N  512B ST1800MM0129     U  -
249:5    44 Onln  1    1.090 TB SAS  HDD N   N  512B AL15SEB120N      U  -
249:6    51 UGood -    1.090 TB SAS  HDD N   N  512B AL15SEB120N      D  -
249:7    45 Onln  0  558.406 GB SAS  HDD N   N  512B AL15SEB060N      U  -
249:8    43 Onln  0  558.406 GB SAS  HDD N   N  512B AL15SEB060N      U  -
249:9    54 GHS   -  837.843 GB SAS  HDD N   N  512B ST900MM0006      U  -
249:10   53 UGood -  837.843 GB SAS  HDD N   N  512B ST900MM0006      D  -
249:11   52 UGood -  837.843 GB SAS  HDD N   N  512B ST900MM0006      U  -
------------------------------------------------------------------------------
 
EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Sntze=Sanitize|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=UGood Unsupported|UGShld=UGood shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported|Rbld=Rebuild
 
Enclosures = 1
 
Enclosure LIST :
==============
 
---------------------------------------------------------------------------------------
EID State Slots PD PS Fans TSs Alms SIM Port#          ProdID           VendorSpecific
---------------------------------------------------------------------------------------
249 OK       16 12  0    0   0    0   0 C0.0 & C0.1 x8 Expander 12G16F1
---------------------------------------------------------------------------------------
 
EID=Enclosure Device ID | PD=Physical drive count | PS=Power Supply count
TSs=Temperature sensor count | Alms=Alarm count | SIM=SIM Count | ProdID=Product ID
 
 
Cachevault_Info :
===============
 
------------------------------------
Model  State   Temp Mode MfgDate
------------------------------------
CVPM05 Optimal 24C  -    2019/06/26
------------------------------------

#查询slot0的物理硬盘的信息。

[root@localhost ~]# storcli64 /c0/e249/s0 show all
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
 
 
Drive /c0/e249/s0 :
=================
 
----------------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model            Sp Type
----------------------------------------------------------------------------
249:0    49 UGood -  1.636 TB SAS  HDD N   N  512B ST1800MM0129     D  -
----------------------------------------------------------------------------
 
EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Sntze=Sanitize|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=UGood Unsupported|UGShld=UGood shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported|Rbld=Rebuild
 
 
Drive /c0/e249/s0 - Detailed Information :
========================================
 
Drive /c0/e249/s0 State :
=======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature =  30C (86.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
 
 
Drive /c0/e249/s0 Device attributes :
===================================
SN = WBN1C8HC0000K9232ADZ
Manufacturer Id = SEAGATE
Model Number = ST1800MM0129
NAND Vendor = NA
WWN = 5000C500BCC792B4
Firmware Revision = C0D3
Firmware Release Number = N/A
Raw size = 1.636 TB [0xd196e9b0 Sectors]
Coerced size = 1.636 TB [0xd1860000 Sectors]
Non Coerced size = 1.636 TB [0xd186e9b0 Sectors]
Device Speed = 12.0Gb/s
Link Speed = 12.0Gb/s
Write Cache = Disabled
Logical Sector Size = 512B
Physical Sector Size = 4 KB
Connector Name = C0.0 & C0.1
 
 
Drive /c0/e249/s0 Policies/Settings :
===================================
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 1
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
FDE Type = None
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Sanitize Support = Not supported
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = No
Wide Port Capable = No
Unmap capable = No
Unmap capable for LDs = No
Multipath = No
 
Port Information :
================
 
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
   0 Active 12.0Gb/s  0x5000c500bcc792b5
   1 Active 12.0Gb/s  0x0
-----------------------------------------
 
 
Inquiry Data =
00 00 06 12 8b 01 10 02 53 45 41 47 41 54 45 20
53 54 31 38 30 30 4d 4d 30 31 32 39 20 20 20 20
43 30 44 33 57 42 4e 31 43 38 48 43 00 00 00 00
00 00 00 00 00 00 00 00 00 00 00 a2 0c 60 20 e0
04 60 04 c0 00 00 00 00 00 00 00 00 00 00 00 00
00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
00 43 6f 70 79 72 69 67 68 74 20 28 63 29 20 32
30 31 39 20 53 65 61 67 61 74 65 20 41 6c 6c 20

# 查询VD 0的信息。

[root@localhost ~]# storcli64 /c0/v239 show all
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
/c0/v0 :
======
 
---------------------------------------------------------
DG/VD TYPE  State Access Consist Cache sCC     Size Name
---------------------------------------------------------
0/239   RAID1 Optl  RW     Yes     RWTD  -   1.089 TB
---------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|B=Blocked|Consist=Consistent|
R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
 
PDs for VD 0 :
============
 
-----------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model            Sp
-----------------------------------------------------------------------
25:22    14 Onln   1 1.089 TB SAS  HDD N   N  512B ST1200MM0007     U
25:23    26 Onln   1 1.089 TB SAS  HDD N   N  512B ST1200MM0007     U
-----------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded
 
 
VD0 Properties :
==============
Strip Size = 256 KB
Number of Blocks = 2341795840
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 2
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = Disabled
Active Operations = None
Exposed to OS = Yes
Creation Date = 04-01-2018
Creation Time = 12:38:35 PM
Emulation type = None

19.7.2.37 查询超级电容的相关信息

命令功能

查询超级电容的名称及TFM Flash卡缓存容量的大小等信息。

命令格式

storcli64 /ccontroller_id/cv show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以为all,表示所有控制卡。

 

查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

无。

使用实例

#查询超级电容的相关信息。

[root@localhost ~]# storcli64 /c0/cv show all
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Cachevault_Info :
===============
 
--------------------
Property    Value
--------------------
Type        CVPM05
Temperature 24 C
State       Optimal
--------------------
 
 
Firmware_Status :
===============
 
---------------------------------------
Property                         Value
---------------------------------------
NVCache State                    OK
Replacement required             No
No space to cache offload        No
Module microcode update required No
---------------------------------------
 
 
GasGaugeStatus :
==============
 
------------------------------
Property                Value
------------------------------
Pack Energy             77 J
Capacitance             91 %
Remaining Reserve Space 0
------------------------------
 
 
Design_Info :
===========
 
------------------------------------
Property                 Value
------------------------------------
Date of Manufacture      26/06/2019
Serial Number            3707
Manufacture Name         LSI
Design Capacity          103 J
Device Name              CVPM05
tmmFru                   N/A
CacheVault Flash Size    23.625 GB
scapBatversionNo         0x00
scapSerialNo             0x0e7b
scap Date of Manufacture 26/06/2019
scapPcbAssmNo            1700264483
scapPCBversionNo          C
scapBatPackAssmNo        49571-222
Module Version            241-4GB
------------------------------------
 
 
Properties :
==========
 
------------------------------------------------------------------------
Property                   Value
------------------------------------------------------------------------
Auto Learn Period          27d (2412000 seconds)
Next Learn time            2019/11/21  11:03:45 (627649425 seconds)
Learn Delay Interval       0 hour(s)
Auto-Learn Mode            Transparent
Last Successful Learn Time Completed, THU, October 24, 2019 at 13:03:45
------------------------------------------------------------------------

l     上述回显信息中,“Device Name  CVPM02”表示超级电容的名称为 CVPM02”,“CacheVault Flash Size   8.0GB”表示TFM Flash卡缓存容量为“8.0GB”。

l     当回显信息的“State”显示为“FAILED”时,需要更换超级电容。

19.7.2.38 升级硬盘FW

命令功能

升级硬盘的FW

命令格式

./storcli64 /ccontroller_id /eenclosure_id/sslot_id download src=FW_name.bin

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

FW_name

硬盘FW的名称

 

以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

无。

使用实例

#升级硬盘FW

[root@localhost ~]# storcli64 /c0/e249/s5 download src=5200_D1MU004_Releasefullconcatenatedbinary.bin
Starting microcode update  .....please wait...
Flashing PD image  ..... please wait...
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0 
Status = Success 
Description = Firmware Download succeeded. 
 
Drive Firmware Download : 
======================== 
-------------------------------------------------------------------------------- 
Drive     Status  ErrCd    ErrMsg 
-------------------------------------------------------------------------------- 
/c0/e249/s5 Success   0        -
--------------------------------------------------------------------------------

19.7.2.39 手动重构RAID

命令功能

手动重构RAID组。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row

将硬盘加入RAID组。

storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild

手动重构RAID组。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

要加入Array的物理硬盘槽位编号

DG

硬盘发生故障的DGID

Arr

硬盘发生故障的ArrayID

Row

硬盘发生故障的Arrayrow number

 

以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

重构RAID3个步骤进行:

1.通过./storcli64 /c0 show 命令,查询故障硬盘的DGArrRow所对应的数字。

2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。

3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID

使用实例

# 将硬盘加入RAID组。

[root@localhost ~]# storcli64 /c0/e249/s1 insert dg=0 array=0 row=0
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Insert Drive Succeeded.

# 手动重构RAID

[root@localhost ~]# storcli64 /c0/e249/s1 start rebuild
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

19.7.2.40 设置硬盘直通功能

命令功能

设置RAID控制卡的直通硬盘。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id set JBOD

设置物理硬盘硬盘直通。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

 

以上涉及的各个ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

无。

使用实例

# 设置slot 7硬盘为直通盘。

[root@localhost ~]# storcli64 /c0/e249/s7 set JBOD
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0 
Status = Success 
Description = Set Drive JBOD Succeeded.

19.7.2.41 收集和清除RAID控制卡日志

命令功能

收集和清除RAID控制卡的日志。

命令格式

命令

说明

storcli64 /ccontroller_id show termlog [type=logtype] [logfile[=filename]]

收集RAID控制卡的日志。

storcli64 /ccontroller_id delete termlog

删除RAID控制卡的日志。

storcli64 /ccontroller_id show alilog [logfile[=filename]]

收集控制卡属性信息、TTY日志和事件到指定文件。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

logtype

查询日志类型。

l     config:查询TTY BBU缓存设置。

l     content:查询日志信息。

缺省值:content

filename

文件名称,将保存日志到此文件。

可自定义文件名称,缺省时将默认保存至“StorSAS.log”文件中。

 

查询RAID控制卡ID的查询方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

无。

使用实例

# 收集RAID控制卡的日志。

[root@localhost ~]# storcli64 /c0 show termlog
Firmware Term Log Information on controller 0:
509:    (0x13b|74:47) Interrupt CHIPRESET_TIMER (assert) Additional Data = 0x00000000
T 10/25/2019 03:15:43.933:    (0x13c|75:6D) Processing EVT_SYS_LITE_RESET_OFF event in STATE_FLUSHES_COMPLETE
T 10/25/2019 03:15:43.933:    (0x13d|76:6D) Interrupt SYS_LITE_RESET (deassert) Additional Data = 0x00000000
T 10/25/2019 03:15:52.313:    (0x13e|77:77) Processing EVT_CPU0_READY_FOR_OFFLOAD event in STATE_FLUSHES_COMPLETE
T 10/25/2019 03:15:52.313:    (0x13f|78:77) Processing EVT_ENTRY event in STATE_IDLE
T 10/25/2019 03:15:52.313:    (0x141|7A:77) E000E100: 048408CF
T 10/25/2019 03:15:52.313:    (0x143|7C:77) E000E200: C1681030
T 10/25/2019 03:16:05.618:    (0x144|7D:7D) Processing EVT_SYS_LITE_RESET_UNARMED event in STATE_IDLE
T 10/25/2019 03:16:05.618:    (0x145|7E:7D) Processing EVT_ENTRY event in STATE_SUBMIT_REC_CDB
T 10/25/2019 03:16:05.618:    (0x146|7F:7D) Interrupt SYS_LITE_RESET (assert) Additional Data = 0x00000010
T 10/25/2019 03:16:05.618:    (0x147|00:7D) Interrupt SYS_LITE_TIMER (assert) Additional Data = 0x00000000
T 10/25/2019 03:16:05.618:    (0x148|01:7D) Interrupt DOORBELL0 (assert) Additional Data = 0x00000009
T 10/25/2019 03:16:05.618:    (0x149|02:7D) Interrupt DOORBELL1 (assert) Additional Data = 0x00000009
T 10/25/2019 03:16:05.618:    (0x14a|03:7D) Processing EVT_INT_A15WFI_CPU1 event in STATE_SUBMIT_REC_CDB
T 10/25/2019 03:16:05.618:    (0x14b|04:7D) Processing EVT_INT_A15WFI_CPU0 event in STATE_SUBMIT_REC_CDB
T 10/25/2019 03:16:05.618:    (0x14c|05:7D) Processing EVT_INT_REC event in STATE_SUBMIT_REC_CDB
T 10/25/2019 03:16:05.618:    (0x14d|06:7D) Processing EVT_INT_A15WFI_L2 event in STATE_SUBMIT_REC_CDB
T 10/25/2019 03:16:05.618:    (0x14e|07:7D) Processing EVT_ENTRY event in STATE_FLUSHES_COMPLETE
T 10/25/2019 03:16:05.618:    (0x150|09:7D) E000E100: 448408CA
T 10/25/2019 03:16:05.618:    (0x152|0B:7D) E000E200: 812C1031
T 10/25/2019 03:16:05.629:    (0x153|0C:7E) Flush Time = 533 microseconds
T 10/25/2019 03:16:05.629:    (0x156|0F:7E) 00004004: 1F9672F6 1F96A716
T 10/25/2019 03:16:05.895:    (0x157|10:10) Processing EVT_SYS_LITE_RESET_OFF event in STATE_FLUSHES_COMPLETE
T 10/25/2019 03:16:05.896:    (0x158|11:10) Interrupt SYS_LITE_RESET (deassert) Additional Data = 0x00000000
 
                        RMC Ring Buffer - end -
... ...

# 删除RAID控制卡的日志。

[root@localhost ~]# storcli64 /c0 delete termlog
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------------------
Ctrl Method Result
----------------------------
   0 Delete Termlog deleted
----------------------------

19.7.2.42 查询和设置bootwithpinnedcache参数

命令格式

storcli64 /ccontroller_id set bootwithspinnedcache=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要执行的操作

l     on

l     off

 

查看RAID控制卡ID的方法请参见19.7.2.35 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查询bootwithpinnedcache功能的使能状态。

[root@localhost ~]# storcli64 /c0 show bootwithpinnedcache
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-----------------------------
Ctrl_Prop              Value
-----------------------------
Boot With Pinned Cache OFF
-----------------------------

# 开启bootwithpinnedcache功能。

[root@localhost ~]# storcli64 /c0 set bootwithpinnedcache=on
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-----------------------------
Ctrl_Prop              Value
-----------------------------
Boot With Pinned Cache ON
-----------------------------

19.7.2.43 升级控制卡FW

命令功能

升级控制卡FW

命令格式

命令格式

说明

storcli64 /cController_ID download file=xxx.rom [noverchk]

升级控制卡FW

 

参数说明

参数

参数说明

取值

controller_id

控制卡ID

-

xxx.rom

固件包的名称

-

 

使用指南

l     使用noverchk参数时将不检查固件包,降级版本时必须使用此参数。

l     升级完成后,需重新上下电服务器使固件包生效。

使用实例

#升级控制卡FW

[root@localhost fw]# ./storcli64_arm /c0 download file =FW4.rom noverchk
Download Completed.
Flashing image to adapter...
Controller = 0
Status = Success
Description = F/W Flash Completed.Please reboot the system for the changes to take effect.


20 BROADCOM MegaRAID 9560-16i

关于本章

介绍BROADCOM MegaRAID 9560-16i的外观、特性以及配置方法。

本章节涉及的截图以5.200.02-3681 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

19.1  概述

19.2  功能

19.3  初始配置

19.4  常用配置

19.5  故障处理

19.6  管理界面介绍

19.7  OS命令行工具

概述

BROADCOM MegaRAID 9560-16i RAID控制卡(以下简称9560-16i)是基于MegaRAID架构的16端口12Gbit/s SAS控制卡,并采用PCIe 4.0 x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

9560-16i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

9560-16i支持以直通模式和创建RAID组两种方式使用硬盘。

9560-16i自带的Cache对标卡性能的提升有非常重要的作用,主要体现在:

l     在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

l     在读数据时,如果可以直接在Cache中命中的话,将减少硬盘寻道操作,降低响应时间,提升了数据读速度。

l     Cache数据的掉电保护依赖于与控制卡相连的超级电容。超级电容的外形、连接方式、安装方式可参考各服务器的用户指南。

l     9560-16i不支持flush write verify功能。

9560-16i的结构如20-120-2所示。

图20-1 9560-16i正面

 

图20-2 9560-16i背面

 

1

UART接口

2

心跳指示灯

3

芯片过温指示灯

4

SlimSAS接口(port 0SFF-8654

5

SlimSAS接口(port 1SFF-8654

6

散热器

7

超级电容接口

8

超级电容

9

超级电容错误状态指示灯

10

ONFI活动指示灯

 

单板指示灯说明如20-1所示。

表20-1 控制卡单板指示灯说明

指示灯

颜色

说明

芯片过温指示灯

黄色

l     常亮:设备温度传感器超过阈值。

l     灭:设备温度在正常温度范围内。

超级电容错误状态指示灯

黄色

l     常亮:超级电容电源模块故障或者过温。

l     灭:超级电容正常或不在位。

心跳指示灯

绿色

l     闪烁:芯片运行正常,闪烁频率为1Hz

l     灭:控制卡未开始运行或FW运行异常。

ONFI活动指示灯

绿色

l     常亮:指示 ONFI 正因高速缓存卸载或恢复而处于活动状态

 

20.2 功能

支持多种RAID类型

控制卡支持的硬盘、虚拟磁盘、硬盘组数量分别为:

l     最多支持240个硬盘。

该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

l     最多支持64个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

l     最多支持64个硬盘组(即配置界面中看到的“Drive Group”),每个硬盘组最多支持240个硬盘。

l     每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

控制卡支持的RAID类型及对应的硬盘个数如20-2所示。

表20-2 RAID-硬盘参数

RAID级别

支持硬盘数

支持子组数

子组支持硬盘数

允许坏盘数

RAID 0

132

不涉及

不涉及

0

RAID 1

2~32(偶数)

硬盘数÷2

RAID 5

332

1

RAID 6

432

2

RAID 10

4~240(偶数)

28RAID 1

2~32(偶数)

子组数

RAID 50

6240

28RAID 5

332

子组数

RAID 60

8240

28RAID 6

432

子组数x2

 

l     不支持RAID 00级别。

l     子组数:子RAID的个数,例如RAID 50由两个RAID 5组成,则子组数为2

l     RAID 10RAID 50每个子组中最多允许1个坏盘。

l     RAID 60每个子组中最多允许2个坏盘。

l     RAID105060包含的总硬盘数由子组数和子组支持的硬盘数共同决定。

20.2.2 硬盘热备份

控制卡的热备功能分为两种:热备盘和紧急备份。

热备盘

对服务器的硬盘进行RAID分组后,一般会配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     Global HSP:即全局热备盘,为控制标卡上所有已配置的RAID所共有,1块控制标卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

配置方法请参看0配置全局热备盘

l     Dedicated HSP:即局部热备盘,为控制标卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。配置方法请参看20.4.1.2 配置局部热备盘

热备盘容量需大于等于成员盘容量。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

紧急备份

使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代failprefail状态的成员盘并进行重构,避免数据丢失。

l     紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。

l     在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。

l     紧急备份的硬盘生效次序:相同类型硬盘 > 相同接口不同介质类型硬盘 > 不同接口相同介质类型硬盘 > 不同接口不同介质类型硬盘。

紧急备份有两种情况,对应了两种设置:

l     当成员盘fail时,空闲盘替代成员盘作为紧急备份。

l     当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。

具体配置方法请参看20.4.2 设置紧急热备功能

20.2.3 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考20.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

20.2.4 回拷

具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。

l     不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:

l     RAID组状态保持Optimal不变。

l     热备盘状态由Online变为Hot Spare

l     新加入硬盘状态由Copyback/Copybacking变为Online

l     可使用命令行工具暂停或继续回拷,具体请参见20.7.2.23 查询和设置回拷

l     若回拷时重启服务器,进度将保存。

20.2.5 硬盘分条

条带化

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待。

条带化技术是一种自动的将I/O的负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

影响条带化效果的因素有:

l     条带宽度:指同时可以并发读或写的条带数量。

这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。在其他条件一样的前提下,一个由818G硬盘组成的阵列相比一个由436G硬盘组成的阵列具有更高的传输性能。

l     条带大小:指写在每块硬盘上的条带数据块的大小。

分条

硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。

控制卡支持多种条带大小,包括64KB128KB256KB512KB1MB,默认条带大小为256KB

配置RAID时一般采用默认值。

20.2.6 RAID级别迁移

RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见20.4.5 迁移RAID级别

当前支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1RAID 5RAID 6

l     RAID 1迁移到RAID 0RAID 5RAID 6

l     RAID 5迁移到RAID 0RAID 6

l     RAID 6迁移到RAID 0RAID 5

RAID迁移对硬盘数量的要求如20-3所示。

表20-3 RAID迁移的硬盘数量说明

迁移RAID级别

原始硬盘组硬盘数量

迁移后的硬盘组硬盘数量

RAID 0迁移 RAID 1

132

2~32(偶数)

RAID 0迁移到RAID 5

132

332

RAID 0迁移到RAID 6

132

332

RAID 1迁移到RAID 0

2~32(偶数)

2~32

RAID 1迁移到RAID 5

2~32(偶数)

332

RAID 1迁移到RAID 6

2~32(偶数)

332

RAID 5迁移到RAID 0

332

332

RAID 5迁移到RAID 6

332

332

RAID 6迁移到RAID 0

332

332

RAID 6迁移到RAID 5

332

332

 

20.2.7 初始化

VD初始化

创建VDVirtual Drive)后,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。控制卡提供了多种相应的初始化方式:

l     前台初始化:

     快速初始化:Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。

     完全初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。

l     后台初始化:

     对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。

     对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。

l     一致性校验(CC)和后台初始化通常会对性能造成一定损失,直至该操作完成。

l     一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。

硬盘初始化

硬盘可执行的初始化包括:

l     Initialize Drive:对前100MByte空间进行全写0操作。

l     Drive Erase:对全部空间进行写0操作。

不支持停止SATA SSD的擦除和初始化过程。

20.2.8 可用容量扩展

控制卡支持的容量扩展方式有两种:

l     通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。

详细操作方法可参考20.4.3 添加新硬盘到RAID

l     通过增加可用空间方式扩容:在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

详细操作方法可参考20.4.4 扩展Virtual Drives可用空间

l     只有RAID 0RAID 1RAID 5RAID 6支持增加硬盘扩容。

l     RAID10RAID 50RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0RAID 5RAID 6每次只能增加1块硬盘。

l     当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见 20.7.2.38 通过增加成员盘可用容量扩容RAID

20.2.9 安全数据擦除

安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘和硬盘的安全擦除功能:

l     Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。

l     Normal:对虚拟磁盘或硬盘进行三轮擦除动作。

l     Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。

安全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。

控制卡支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。

20.2.10 写洞保护

系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况,称之为写洞。

将写失败的数据备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:

l     RAID  1RAID 5RAID 6RAID 10RAID 50RAID 60支持写洞保护,Write hole数据都保存在掉电保护区,不需要开关控制。

     掉电保护装置可用时,Write hole数据异常掉电重启后会进入恢复流程。

     掉电保护装置不可用时,记录在掉电保护区的Write hole数据异常掉电后丢失,不做Write hole恢复。

l     RAID 1RAID 5掉线盘时不可做写洞保护。

l     RAID 6掉线一块盘时可做写洞保护。

l     RAID 10RAID 50RAID 60部分降级时可做写洞保护,按子组恢复数据。完全降级时不可做写洞保护。

l     不对RAID 0做写洞保护。

20.2.11 读写高速缓存

控制卡支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:

l     Read:读策略选择“Read Ahead”模式,控制卡在读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,提升了数据读速度。

l     Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,控制卡就向HOST发出数据传输完成的信号。

在写数据时,直接写入Cache,当写入的数据积累到一定程度,才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

20.2.12 数据掉电保护

数据写入高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用高速缓存来提升系统性能。

l     开启高速缓存可提升整机写性能,当服务器写压力减小或高速缓存将写满时,数据再由高速缓存写入硬盘。

l     开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。

为了提升整机的高读写性能和高速缓存中数据的安全,可为控制卡配置超级电容。

超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将高速缓存中的数据写入超级电容模块中的NAND Flash中。

超级电容电量校准

由于数据保护需要超级电容的配合,为了记录超级电容的放电曲线,以便RAID控制卡了解超级电容的状态,例如最大和最小电压等,同时为了延长超级电容的寿命,RAID控制卡默认启动超级电容自动校准模式。

RAID控制卡通过如下所述的三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。

1.     RAID控制卡将超级电容的电量充到最大值。

2.     自动启动校准进程,将超级电容完全放电。

3.     重新开始充电,直至达到最大电量。

超级电容电量校准过程中,RAID控制卡写策略自动调整为“WT”模式以保证数据完整性,此时RAID控制卡性能会降低。电量校准的时间取决于超级电容充放电速度。

20.2.13 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     动态扩盘

l     完全初始化或后台初始化

l     一致性校验

20.2.14 自动SMART扫描

S.M.A.R.TSelfMonitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据受到损失。

RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。

20.2.15 硬盘节能

RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SASSATA机械硬盘均支持此功能。

默认情况下,硬盘节能功能处于开启状态。

当硬盘节能功能开启且在指定时间内没有I/O访问时,RAID控制卡下挂载的“Uncongfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。

20.2.16 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

控制卡可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在控制卡下的硬盘作为安装盘;而不支持硬盘直通的控制卡,在操作系统安装过程中,只能找到该控制卡下已经配置好的虚拟磁盘作为安装盘。

控制卡支持同时以虚拟磁盘和直通方式使用硬盘。

JBOD的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

20.2.17 硬盘漫游

硬盘漫游是指在同一控制卡下移动物理硬盘。控制卡将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。

要使用硬盘漫游,按以下步骤操作:

1.     关闭操作系统。

2.     将服务器下电。

3.     将物理硬盘移动到背板所需位置。

4.     执行安全检查。确保正确插入物理硬盘。

5.     将服务器上电。

6.     控制卡从物理硬盘上的配置数据中检测到RAID配置。

20.2.18 导入外部配置

如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。

此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。

20.2.19 硬盘故障记录

控制卡提供硬盘故障记录功能:

l     使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。

l     禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,控制卡会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。

维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。

l     使能该功能后,当硬盘故障时,会点亮Fault指示灯。

l     禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。

默认情况下使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。具体操作方法请参见20.6.1.10.8 Advanced Controller Properties

20.3 初始配置

文档中描述的关于控制卡的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。

如果服务器已经在Legacy或者UEFI模式下安装OS,切换启动方式后将无法进入操作系统,需要切换为安装时的启动方式再进入,如操作系统需要重装,请根据实际情况选择UEFILegacy模式安装OS

当服务器配置了较多的可启动设备时,在Legacy模式下可能出现部分设备无法正常启动,建议使用UEFI模式启动,UEFI模式较Legacy模式可以支持更多可启动设备;如需要使用Legacy模式,建议根据实际业务场景禁用串口重定向或网卡PXE等,确保操作系统可以正常启动,具体操作请参考BIOS参数参考的设置网卡的PXE和设置串口重定向章节。

登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如20-3所示界面时,按“Delete”,进入输入密码界面。

图20-3 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如20-4所示界面。

图20-4 Setup Utility界面

 

                                步骤 4     通过“”或“→ ”进入“Advanced”页签,如20-5所示。

图20-5 “Advanced”页签

 

如果Device Manager界面显示“Some drivers are not healthy”,请参见20.5.4 Device ManagerRAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择“BROADCOM <MegaRAID 9560-16i 8GB> Configuration Utility”,按“Enter”。

进入如20-620-7所示主界面,界面参数如20-4所示。

图20-6 9560-16i主界面(1

 

图20-7 9560-16i主界面(2

 

表20-4 参数说明

参数

说明

Main Menu

控制卡主菜单,包含了控制卡的所有操作。

Help

获取帮助信息。

Status

控制卡当前工作状态。

Backplane

背板数量。

CacheVault

超级电容在位情况。

Enclosure

部件个数。

Drives

挂载的硬盘数。

JBODs

直通硬盘的数量。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理控制卡特性。

View Foreign Configuration

查看/管理外部配置。

当存在外部配置时才会显示该选项。

Configure

提供创建RAID,快速创建RAID,查看硬盘组属性,清除当前所有RAID配置,管理外部配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

20.3.2 创建RAID 0

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看0支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如20-820-9所示,参数说明如20-5所示。

图20-8 Create Virtual Drive1

 

图20-9 Create Virtual Drive2

 

表20-5 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

l     Yes:使能后台初始化功能

l     No:禁用后台初始化功能

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如20-10所示,界面参数如20-6所示。

图20-10 添加成员盘

 

表20-6 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Apply Changes

保存配置。

 

3.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 0支持的硬盘个数为1~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。

4.     20-6所述配置过滤条件。

5.     选择“Apply Changes”并按“Enter”。

6.     选择“Confirm”并按“Enter”。

7.     选择“Yes”并按“Enter”。

8.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照20-5所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照20.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID组信息。

----结束

20.3.3 创建RAID 1

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看0支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如20-1120-12所示,参数说明如20-7所示。

图20-11 Create Virtual Drive1

 

图20-12 Create Virtual Drive2

 

表20-7 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

l     Yes:使能后台初始化功能

l     No:禁用后台初始化功能

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如20-13所示,界面参数如20-8所示。

图20-13 添加成员盘

 

表20-8 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Apply Changes

保存配置。

 

3.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 1支持的硬盘个数为2~32(偶数)。

l     RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。

4.     20-8所述配置过滤条件。

5.     选择“Apply Changes”并按“Enter”。

6.     选择“Confirm”并按“Enter”。

7.     选择“Yes”并按“Enter”。

8.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照20-7所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照20.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID组信息。

----结束

20.3.4 创建RAID 5

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看0支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如20-1420-15所示,参数说明如20-9所示。

图20-14 Create Virtual Drive1

 

图20-15 Create Virtual Drive2

 

表20-9 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

l     Yes:使能后台初始化功能

l     No:禁用后台初始化功能

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 5”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如20-16所示,界面参数如20-10所示。

图20-16 添加成员盘

 

表20-10 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Apply Changes

保存配置。

 

3.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 5支持的硬盘个数为3~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。

4.     20-10所述配置过滤条件。

5.     选择“Apply Changes”并按“Enter”。

6.     选择“Confirm”并按“Enter”。

7.     选择“Yes”并按“Enter”。

8.     按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照20-9所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照20.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID组信息。

----结束

20.3.5 创建RAID 6

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看0支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如20-1720-18所示,参数说明如20-11所示。

图20-17 Create Virtual Drive1

 

图20-18 Create Virtual Drive2

 

表20-11 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

l     Yes:使能后台初始化功能

l     No:禁用后台初始化功能

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 6”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如20-19所示,界面参数如20-12所示。

图20-19 添加成员盘

 

表20-12 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Apply Changes

保存配置。

 

3.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 6支持的硬盘个数为4~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。

4.     20-12所述配置过滤条件。

5.     选择“Apply Changes”并按“Enter”。

6.     选择“Confirm”并按“Enter”。

7.     选择“Yes”并按“Enter”。

8.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照20-11所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照20.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID组信息。

----结束

20.3.6 创建RAID 10

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看0支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如20-2020-21所示,参数说明如20-13所示。

图20-20 Create Virtual Drive1

 

图20-21 Create Virtual Drive2

 

表20-13 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

l     Yes:使能后台初始化功能

l     No:禁用后台初始化功能

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如20-22所示,界面参数如20-14所示。

图20-22 Span1添加成员盘

 

表20-14 添加成员盘的参数说明

参数

参数说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Apply Changes

保存配置。

 

3.     20-14所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 10支持28Span,每个Span支持的硬盘数为2~16(偶数),且各个Span的硬盘数量必须保持一致。

l     RAID 10支持的硬盘总数为4~32(偶数)。

l     RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     创建第2Span

1.     当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如20-23所示。

图20-23 RAID 10的配置界面

 

2.     选择“Add More Spans”并按“Enter”。

3.     选择“Select Drives”并按“Enter”。

4.     在打开的列表中选择第2Span的成员盘。

5.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

RAID10至少需要创建2Span,最多可以创建8Span

                                步骤 6     配置虚拟磁盘属性。

按照20-13所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照20.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID组信息。

----结束

20.3.7 创建RAID 50

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看0支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如20-2420-25所示,参数说明如20-15所示。

图20-24 Create Virtual Drive1

 

图20-25 Create Virtual Drive2

 

表20-15 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

l     Yes:使能后台初始化功能

l     No:禁用后台初始化功能

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 50”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如20-26所示,界面参数如20-16所示。

图20-26 添加成员盘

 

表20-16 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Apply Changes

保存配置。

 

3.     20-16所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 50支持28Span,每个Span支持的硬盘数为3~16,且各个Span的硬盘数量必须保持一致。

l     RAID 50支持的硬盘总数为6~32

l     RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     创建第2Span

1.     当配置的级别为RAID 50时,需要配置多个Span,此时配置界面如20-27所示。

图20-27 RAID 50的配置界面

 

2.     选择“Add More Spans”并按“Enter”。

3.     选择“Select Drives”并按“Enter”。

4.     在打开的列表中选择第2Span的成员盘。

5.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

RAID50至少需要创建2Span,最多可以创建8Span

                                步骤 6     配置虚拟磁盘属性。

按照20-15所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照20.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID组信息。

----结束

20.3.8 创建RAID 60

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     RAID级别所需的硬盘数请参看0支持多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Create Virtual Drive”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如20-2820-29所示,参数说明如20-17所示。

图20-28 Create Virtual Drive1

 

图20-29 Create Virtual Drive2

 

表20-17 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

l     Yes:使能后台初始化功能

l     No:禁用后台初始化功能

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 60”,并按“Enter”。

                                步骤 3     创建第1Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如20-30所示,界面参数如20-18所示。

图20-30 添加成员盘

 

表20-18 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Apply Changes

保存配置。

 

3.     20-18所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 60支持28Span,每个Span支持的硬盘数为4~32,且各个Span的硬盘数量必须保持一致。

l     RAID 60支持的硬盘总数为8~240

l     RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     创建第2Span

1.     当配置的级别为RAID 60时,需要配置多个Span,此时配置界面如20-31所示。

图20-31 RAID 60的配置界面

 

2.     选择“Add More Spans”并按“Enter”。

3.     选择“Select Drives”并按“Enter”。

4.     在打开的列表中选择第2Span的成员盘。

5.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span

RAID60至少需要创建2Span,最多可以创建8Span

                                步骤 6     配置虚拟磁盘属性。

按照20-17所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照20.4.10 创建多个VDVirtual Drive章节增加其他VD

                                步骤 7     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID组信息。

----结束

20.3.9 设置启动项

设置控制卡启动项

操作场景

您可以通过此操作设置控制卡启动项。

OS下用命令行工具设置启动项,请参见20.7.2.27 设置启动项

操作步骤

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     在主界面选择“Controller Management”并按“Enter”。

进入“Controller Management”界面。如20-32所示。

图20-32 Controller Management

 

                                步骤 2     通过“↑”、“↓”选择“Select Boot Device”并按“Enter”。

显示可设置为启动项的硬盘或虚拟磁盘。

仅在JBOD模式开启时,可设置硬盘为启动项。

                                步骤 3     选择需配置为启动项的硬盘或虚拟磁盘,按“Enter”完成配置。

----结束

20.3.9.2 设置服务器的启动项

当一台服务器配置了单张RAID控制卡时,RAID控制卡下的硬盘启动项即为该服务器的硬盘启动项,具体设置方法请参见0设置控制卡启动项

当服务器配置了多张RAID控制卡时,硬盘启动项需要在BIOS中进行设置,具体设置方法请参见BIOS参数参考的“设置服务器启动设备”章节。

20.4 常用配置

管理热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SASSATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

配置全局热备盘

操作步骤

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如20-33所示。

图20-33 Drive Management

 

                                步骤 2     配置全局热备盘。

1.     选择“Operation ”并按“ Enter

2.     选择“Assign Global Hot Spare Drive ”并按“ Enter

3.     选择“Go”并按“Enter”。

显示The operation has been performed successfully

4.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

20.4.1.3 配置局部热备盘

操作步骤

RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Drive Management”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如20-34所示。

图20-34 Drive Management

 

                                步骤 2     配置局部热备盘。

1.     将“Operation”设置为“Assign Dedicated Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

打开当前存在的虚拟磁盘列表。

3.     选择要关联的虚拟磁盘并按“Enter”。

4.     选择“OK”并按“Enter”。

提示操作成功。

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

20.4.1.4 删除热备盘

操作场景

当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

操作步骤

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如20-35所示。

图20-35 Drive Management

 

                                步骤 2     删除热备盘。

1.     将“Operation”设置为“Unassign Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

5.     按“Enter”完成配置并返回上级界面。

----结束

20.4.2 设置紧急热备功能

操作步骤

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Advanced Controller Properties”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

3.     选择“Advanced Controller Properties”并按“Enter”。

进入“Advanced Controller Properties”界面,如20-3620-37所示。

图20-36 Advanced Controller Properties1

 

图20-37 Advanced Controller Properties2

 

                                步骤 2     设置紧急热备。

1.     选择“Spare”并按“Enter”。

2.     将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如20-38所示。

图20-38 Advanced Controller Properties

 

3.     选择“Apply Changes”并按“Enter”。

4.     选择“OK”并按“Enter”,完成配置。

----结束

20.4.3 添加新硬盘到RAID

操作场景

 

l     只有RAID 0RAID 1RAID 5RAID 6支持增加硬盘扩容。

l     RAID10RAID 50RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

对系统的影响

增加硬盘扩容过程中,如果出现硬盘故障,会导致:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID

请谨慎执行增加硬盘扩容操作。

必备事项

前提条件

添加硬盘扩容之前,需具备如下条件:

l     服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     已登录管理界面,具体操作方法请参见0登录管理界面

数据

操作之前建议先备份数据。

操作步骤

进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”并按“Enter”。

进入虚拟磁盘选项界面,如20-39所示。

图20-39 虚拟磁盘选项界面

 

                                步骤 2     添加新硬盘。

1.     选择要进行扩容的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如20-40所示。

图20-40 Operation

 

3.     选择“Reconfigure Virtual Drives”并按“Enter

4.     选择“Go”并按“Enter”。

5.     选择要扩容的RAID级别。

 

增加硬盘扩容时,请保证该处的RAID级别与原级别一致。

6.     选择“Choose the Operation”,并按“Enter”。

进入硬盘选择界面,如20-41所示。

图20-41 Choose the Operation

 

7.     选择要增加的硬盘,并按“Apply Changes”。

进入确认操作界面。

l     增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0RAID 5RAID 6每次只能增加1块硬盘。

l     RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。

8.     选择“Confirm”并按“Enter”。

9.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

10.     选择“OK”并按“Enter”完成配置并返回上级界面,如20-42所示。

图20-42 选择操作

 

11.     选择“Start Operation”并按“Enter”。

显示操作成功。返回虚拟磁盘选项界面,验证扩容结果,如20-43所示,表示RAID正在进行扩容。

图20-43 Virtual Drive Management

 

----结束

20.4.4 扩展Virtual Drives可用空间

操作场景

Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

操作步骤

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入要操作的虚拟磁盘界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如20-44所示。

图20-44 Virtual Drive Management

 

                                步骤 2     扩容虚拟磁盘。

1.     将“Operation”设置为“Expand Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入虚拟磁盘扩容界面,如20-45界面所示,界面参数如20-19所示。

图20-45 Expand Virtual Drive

 

表20-19 参数说明

参数

参数说明

Current Capacity

虚拟磁盘当前容量。

Available Capacity

可用于扩展的容量。

Enter a Percentage of Available Capacity

输入扩容比例。

Capacity of Virtual Drive after Expansion

扩容后虚拟磁盘容量。

 

3.     设置扩容百分比。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返还上级界面。

----结束

20.4.5 迁移RAID级别

操作场景

随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。

在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。

对系统的影响

RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID

请谨慎执行RAID级别迁移操作。

必备事项

前提条件

迁移RAID级别之前,需具备如下条件:

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     当前存在的硬盘个数满足目标RAID级别要求。

控制卡支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1RAID 5RAID 6

l     RAID 1迁移到RAID 0RAID 5RAID 6

l     RAID 5迁移到RAID 0RAID 6

l     RAID 6迁移到RAID 0RAID 5

RAID迁移对硬盘数量的要求如20-3所示。

l     RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     迁移只支持增加与RAID组成员盘同类型同规格的硬盘。

l     为防止数据丢失,请在该操作之前备份当前RAID组的数据。

l     只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。

l     迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。

操作步骤

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”并按“Enter”。

进入虚拟磁盘选项界面,如20-46所示。

图20-46 虚拟磁盘选项界面

 

                                步骤 2     选择RAID迁移的目标级别。

下面以将RAID 1迁移到RAID 5为例进行说明。

1.     选择要进行迁移的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如20-47所示。

图20-47 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”。

4.     选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如20-4820-49所示。设置完成后按选择“Apply Changes”并按“Enter”保存配置。不设置时默认与原RAID组配置一致。

图20-48 Advanced...1

 

图20-49 Advanced...2

 

5.     选择“Go”,并按“Enter”。

进入RAID配置界面,如20-50所示。

图20-50 Reconfigure Virtual Drives

 

6.     选择“New RAID Level”并按“Enter”。

打开RAID迁移的目标级别选择窗口,如20-51所示。

图20-51 选择新的RAID级别

 

7.     选择“RAID 5”并按“Enter”。

                                步骤 3     添加硬盘。

1.     选择“Choose the operation”并按“Enter”。

打开硬盘选择窗口。

2.     选择要增加的硬盘并按“Enter”。

RAID迁移对硬盘数量的要求请参见20-3

3.     选择“Apply Changes”并按“Enter”。

弹出操作确认会话框。

4.     选择“Confirm”并按“Enter”。

5.     选择“Yes”并按“Enter”。

提示操作成功。

6.     选择“OK”并按“Enter”返回20-50界面。

                                步骤 4     RAID级别迁移。

1.     选择“Start Operation”并按“Enter”。

提示操作成功。

                                步骤 5     查看迁移结果。

1.     进入Virtual Drive Management界面,检查迁移结果,如20-52所示,表示RAID正在进行迁移。

图20-52 查看迁移结果

 

l     迁移过程中若重启服务器,该任务将在重启后继续进行。

l     迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。

2.     选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 1”变成“RAID 5”,RAID组容量增大,且“Status”状态显示为“Optimal”时,表示RAID迁移成功。

----结束

20.4.6 删除RAID

操作场景

 

RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。

操作步骤

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如20-53所示。

图20-53 Virtual Drive Management

 

                                步骤 2     删除虚拟磁盘。

1.     将“Operation”设置为“Delete Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

20.4.7 重构RAID

下面描述将带有外部配置的硬盘进行重构的操作方法,不带外部配置硬盘的重构方法请参见0硬盘故障

操作步骤

在“Main Menu”界面中选择“Drive Management”并按“Enter”。

                                步骤 1     选中要进行重构的硬盘,按“Enter”。

                                步骤 2     将“Operation”设置为“Make Unconfigured Good”。

                                步骤 3     选择“Go”并按“Enter”。

提示The operation has been performed successfully

                                步骤 4     按“Enter”完成配置。

硬盘状态变为“(Foreign,Unconfigured Good”。

                                步骤 5     清除外部配置,具体操作请参见20.4.9 导入和清除外部配置

RAID组开始进行重构。

----结束

20.4.8 查看RAID控制卡属性

操作场景

用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。

操作步骤

登录管理界面。具体操作方法请参见0登录管理界面

                                步骤 1     进入“Controller Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息,如20-5420-55所示,参数说明如20-20所示。

图20-54 Controller Management1

 

图20-55 Controller Management2

 

表20-20 参数说明

参数

参数说明

Product Name

控制标卡名称。

Serial Number

控制标卡序列号。

Controller Status

控制标卡的工作状态。

Personality Mode

控制标卡的模式。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。

PCI ID

控制标卡的PCI ID

PCI Slot Number

控制标卡的PCI槽位号。

Package Version

控制标卡的套件版本。

Firmware Version

控制标卡的固件版本号。

NVDATA Version

控制标卡配置信息的版本号。

Drive Count

控制标卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制卡操作。

Advanced Controller Properties

查看和修改控制卡的高级属性。

 

                                步骤 2     查看控制卡高级属性。

1.     选择“Advanced Controller Properties”并按“Enter”。

进入控制卡高级属性界面,如20-5620-57所示,参数说明如20-21所示。

在该界面下,可查看并修改RAID控制卡的高级属性。

图20-56 Advanced Controller Properties 1

 

图20-57 Advanced Controller Properties 2

 

表20-21 参数说明

参数

说明

Cache and Memory

查看控制卡CacheMemory信息。

Patrol Read

系统巡检。

Power Save Settings

设置硬盘休眠。

Spare

设置控制卡热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

控制卡标卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

容量对齐的模式。包括:

l     None

l     128MB

l     1GB

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。

默认为“Pause on Errors”。

Controller BIOS

控制卡BIOS的使能情况。

ROC Temperature

控制卡温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见20.4.9 导入和清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验

JBOD Mode

是否使能硬盘直通功能。

Write Verify

-

Drive Detection Type

随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制卡属性。

可用选项为:

l     Disabled

l     High Latency

l     Aggressive

l     Default

Drive Corrective Action

随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致I/O延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。

l     Disabled:禁用该功能

l     Enabled:开启该功能

Drive Error Threshold

通过该选项设置适当的控制卡属性。

l     Every 8 hours

l     Every1 hours

l     Every 15 mins

l     Every 5 mins

Large IO Support

启用或禁用大型I/O支持功能。

Unmap Capability

解除映射能力。

Apply changes

保存配置。

 

----结束

20.4.9 导入和清除外部配置

操作场景

l     服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。

 

l     如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!

l     为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

导入外部配置

登录管理界面,具体操作方法请参见0登录管理界面

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如20-58所示。

图20-58 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如20-59所示。

图20-59 外部配置

 

                                步骤 5     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 8     按“Enter”完成配置返回上级界面。

----结束

清除外部配置

登录管理界面,具体操作方法请参见0登录管理界面

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”并按“Enter”。

进入外部配置管理界面,如20-60所示。

图20-60 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如20-61所示。

图20-61 外部配置

 

                                步骤 5     选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 8     单击“OK”完成配置返回上级界面。

----结束

20.4.10 创建多个VDVirtual Drive

该场景为使用已存在一个或多个VDRAID组的空闲容量创建多个VD,以RAID0存在一个VD为例(如20-62所示),详细操作方法如下:

图20-62 Virtual Drive Management

 

按照Main Menu > Configuration Management > Create Virtual Drive的路径进入“Create Virtual Drive”界面,如20-63所示。

图20-63 Create Virtual Drive

 

                                步骤 2     选择“Select RAID Level”并“Enter”。

                                步骤 3     在弹出的RAID级别菜单中选择“RAID50”并按“Enter”。

                                步骤 4     将“Select Drives From”设置为“Free Capacity”,如20-64所示。

图20-64 Create Virtual Drive

 

                                步骤 5     选择“Select Drive Groups”并按“Enter”。

显示当前存在的RAID组(Drive Group),如20-65所示。

图20-65 Select Drive Groups

 

                                步骤 6     选择要创建多个VDRAID组并按“Enter”,如20-66所示。

图20-66 Select Drive Groups

 

                                步骤 7     选择“Apply Changes”并按“Enter”。

提示操作成功。

                                步骤 8     选择“OK”并按“Enter”返回VD配置界面,如20-6720-68所示,参数说明如20-22所示。

图20-67 Create Virtual Drive1

 

图20-68 Create Virtual Drive2

 

表20-22 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drive Group

选择硬盘组。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格,默认条带大小为256KB

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略。可配置的状态有:

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,数据会丢失。

l     Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

                                步骤 9     按照20-22所述配置VD的相关属性。

                             步骤 10     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

                             步骤 11     选择“Confirm”并按“Enter”。

                             步骤 12     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                             步骤 13     选择“OK”并按“Enter”完成配置。

可进入Virtual Drive Management界面,查看当前存在的所有VD,如20-69所示。

图20-69 Virtual Drive Management

 

----结束

每个RAID组最多支持创建16VD,如需要继续创建VD,请重复执行步骤1~步骤13

20.4.11 查询RAID控制卡固件版本

查询RAID控制卡固件版本的方法有如下几种:

l     iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。

l     服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见0查询RAID控制卡配置信息

回显信息中的“FW Version”字段即为RAID控制卡的固件版本。

l     RAID控制卡管理界面进行查询,具体方法为:

a.     登录RAID控制卡的管理界面,具体操作请参见0登录管理界面

b.     在主界面中选择“Main Menu”并按“Enter”。

进入“Main Menu”页面,如20-70所示。

图20-70 Main Menu页面

 

c.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如20-71所示。

图20-71 Controller Management界面

 

20.5 故障处理

介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

硬盘相关故障

硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

确认故障硬盘槽位。

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考20.6.1.12 Drive Management

l     通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

                                步骤 1     更换新硬盘。

 

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考20.4.9 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在0支持多种RAID类型查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0

     UEFI模式下创建RAID0的方法请参见20.3.2 创建RAID 0

     通过命令行方式创建RAID0的方法请参见20.7.2.14 创建和删除RAID

----结束

20.5.1.5 硬盘状态为failprefail

问题描述

正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代failprefail状态的成员盘并进行重构,避免数据丢失。

但当RAID控制卡未设置紧急热备时,成员盘状态显示为failprefail时,可使用以下方法处理。

处理方法

使用StorCLI工具,具体操作请参考0下载和安装StorCLI工具

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考20.7.2.28 设置硬盘状态

storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在EnclosureID

l     slot_id:物理硬盘槽位ID

                                步骤 2     更换离线硬盘。

                                步骤 3     RAID组自动执行重构。

等待重构完成。

----结束

20.5.1.6 硬盘状态为Unconfigured BadUBad

问题描述

硬盘状态显示为Unconfigured BadUBad

处理方法

使用StorCLI工具,具体操作请参见0下载和安装StorCLI工具

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见20.7.2.28 设置硬盘状态

storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在EnclosureID

l     slot_id:物理硬盘槽位ID

                                步骤 2     重新查看硬盘状态是否更改为Unconfigured GoodUgood。具体操作请参见20.6.1.12 Drive Management界面或20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤4

                                步骤 3     查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见20.4.9 导入和清除外部配置20.7.2.42 查看/导入/清除外部配置

l     问题解决 => 处理完毕。

l     问题未解决 => 联系技术支持处理。

----结束

20.5.2 电容故障

问题描述

RAID控制卡电容故障时,可能导致服务器出现如下情况:

l     服务器读写速度显著降低。

l     RAID控制卡的CU界面中显示电容状态异常。

处理方法

进入RAID控制卡的CU界面,查看电容状态是否为“Optimal”。

电容状态可查询20-110界面的“Battery Status”参数。

l      => 处理完毕

l      => 步骤2

                                步骤 1     将服务器下电,打开机箱,并查看RAID控制卡电容是否在位。

l      => 步骤4

l      => 步骤3

                                步骤 2     检查整机配置,为服务器安装电容,查看电容状态是否为“Optimal”。

l      => 处理完毕

l      => 步骤6

                                步骤 3     重新安装RAID控制卡电容,查看电容状态是否为“Optimal”。

l      => 处理完毕

l      => 步骤5

                                步骤 4     更换RAID控制卡电容,查看电容状态是否为“Optimal”,且“问题描述”所述的异常状态是否消失。

l      => 处理完毕

l      => 步骤6

                                步骤 5     联系技术支持处理。

----结束

20.5.3 控制卡故障

问题描述

当服务器出现如下现象时,说明控制卡故障。

l     数据无法写入控制卡控制的硬盘。

l     服务器上报控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     查询兼容性查询助手或者联系技术支持处理。

----结束

20.5.4 Device ManagerRAID控制卡状态显示Not Healthy

问题描述

进入“Device Manager”界面后,显示“Some drivers are not healthy”。

处理方法

选择“Some drivers are not healthy”。

进入健康状态查询界面。

                                步骤 1     选择“Repair the whole platform”,并按“Enter”。

进入“Driver Healthy Protocol Utility”界面。

                                步骤 2     查看“Driver Healthy Protocol Utility”界面的打印信息。

l     显示“The following VDs have missing disks. => 请参见0The following VDs have missing disks

l     显示“There are offline or missing virtual drives with preserved cache. => 请参见20.5.4.6 There are offline or missing virtual drives with preserved cache

l     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone=> 请参见20.5.4.7 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

l     显示“Memory/battery problems were detected / Unexpected power-loss occurred=> 请参见20.5.4.8 Memory/battery problems were detected

----结束

RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见0RAID控制卡启动中出现的常见的错误消息及处理方法

The following VDs have missing disks

问题描述

进入“Driver Healthy Protocol Utility”界面后,显示The following VDs have missing disks.

处理方法

修复RAID控制卡。

1.     选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

2.     输入“c”,选择“Yes”并按“Enter”。

返回“Driver Healthy Protocol Utility”界面。

3.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

4.     输入“y”,选择“Yes”并按“Enter”。

提示Critical Message handling completed. Please exit。修复完成。

                                步骤 1     重启服务器,进入“Device Manager”界面,检查界面是否显示“The platform is healthy”。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

20.5.4.7 There are offline or missing virtual drives with preserved cache

问题描述

进入“Driver Healthy Protocol Utility”界面后,显示“There are offline or missing virtual drives with preserved cache”。

处理方法

选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

                                步骤 1     输入任意内容,选择“Yes”并按“Enter”。

提示Critical Message handling completed. Please exit

                                步骤 2     按“Esc”键返回到“Device Manager”界面。

                                步骤 3     选择“BROADCOM <MegaRAID 9560-16i 8GB> Configuration Utility”并按“Enter”。

进入“Configuration Utility”界面。

                                步骤 4     选择“Discard Preserved Cache”并按“Enter”。

弹出操作确认对话框。

                                步骤 5     选择“Confirm”并按“Enter”。

                                步骤 6     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 7     选择“OK”并按“Enter”。

                                步骤 8     重启服务器。

                                步骤 9     进入“Device Manager”界面,检查界面是否显示The platform is healthy

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

20.5.4.8 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

问题描述

20-72所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”

图20-72 状态显示

 

处理建议

该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:

l     下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。

l     忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:

a.     20-72中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

b.     输入“c”并按“Enter”。

c.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

d.     输入“y”并按“Enter”。

提示Critical Message handling completed. Please exit

e.     按“Esc”退出当前界面。

弹出确认保存配置会话框,如20-73所示。

图20-73 提示保存会话框

 

f.     按“Y”保存配置,操作完成。

g.     Esc键返回“Device Manager”界面。

h.     选择控制卡并按“Enter”,进入控制卡管理界面。

20.5.4.9 Memory/battery problems were detected

问题描述

进入“Driver Healthy Protocol Utility”界面后,显示“Memory/battery problems were detected. The adapter has recovered, but cached data was lost”。

处理方法

选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

                                步骤 1     输入任意内容,选择“Yes”并按“Enter”。

提示“Critical Message handling completed. Please exit”。

                                步骤 2     重启服务器,进入“Device Manager”界面,检查界面是否显示“The platform is healthy”。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

20.5.4.10 Disabling writes to flash as the flash part has gone bad

问题描述

20-74所示,进入“Driver Healthy Protocol Utility”界面后,显示“Disabling writes to flash as the flash part has gone bad”。

图20-74 状态显示

 

处理方法

将服务器下电。

                                步骤 1     更换RAID控制卡。

                                步骤 2     将服务器上电,导入外部配置恢复原来的RAID配置,请参见20.4.9 导入和清除外部配置20.7.2.42 查看/导入/清除外部配置

检查提示是否清除。

l      => 处理完毕。

l      => 请联系技术支持处理。

----结束

20.5.5 控制卡复位故障硬盘导致TM资源耗尽RAID卡挂死

问题描述

硬盘响应命令超时,控制卡会对硬盘进行复位。3次复位后尚未恢复时将可能耗尽控制卡TMTask Management)资源,触发Fatal error,此时会通过OCROnline Controller Reset)自愈恢复,期间将有短时间业务中断(约30s60s),控制卡复位后会完成踢盘,将故障硬盘置为Ubad状态。

控制卡自愈恢复,需要开启OCR开关。

触发条件

当下发到硬盘的I/O出现超时不响应的情况时,RAID控制卡会通过reset硬盘来恢复,正常情况下,硬盘会重新接入或者多次reset之后会进行踢盘。

当出现reset之后硬盘仍然无法响应RAID控制卡指令且无法踢盘时,RAID控制卡会再次reset进行复位,每次reset会占用RAID控制卡资源,短时间内多次reset会导致RAID控制卡资源耗尽,该场景下,RAID控制卡会通过重新加载FW进行恢复。

该机制为此类卡的正常处理机制,由于架构限制,无法进行优化。

识别方法

l     已安装OS

当遇到短时间业务中断,恢复后查看有被置为Ubad状态的硬盘时,可以查看控制卡日志,搜索dm.c并查看其发生时间,如与业务中断时间节点接近,即可断定为触发了该机制。

注意控制卡与OS时间差。

l     未安装OS

OS时,触发该机制的操作为:从“Advanced”页签进入控制卡界面。若触发该机制,进入控制卡卡操作界面时将会卡住,无法恢复。

处理方法

定位故障硬盘。

l     已安装OS

     如确认触发了该机制并且已经完成了踢盘,需要更换Ubad状态的硬盘。

     如无Ubad状态的硬盘,查看日志并搜索“indicates critical condition”,目标行的“element xx indicates critical condition”中,“xx”即为问题硬盘的槽位号。

已安装OS,但是进入“Advanced”页签的控制卡操作界面卡住,需要重新上下电进入OS,按照以上方式定位故障硬盘。

l     未安装OS

系统未安装OS,出现该异常时,保留预安装OS RAID组数目的硬盘,将其他硬盘拔出并记录槽位号,如成功安装OS进入系统后,按照已安装OS的操作来确认问题硬盘。

                                步骤 1     更换故障硬盘。

l      => 处理完毕。

l      => 请联系技术支持。

----结束

20.5.6 Controller Mode恢复为RAID

问题描述

RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD modeRAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如20-75所示,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。

图20-75 问题描述

 

当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。

处理方法

(可选)登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Management界面,如20-76所示。

图20-76 Advanced Controller Management界面

 

                                步骤 2     选择“Switch to RAID mode”并按“Enter”。

提示操作成功,如20-77所示。

图20-77 操作成功

 

                                步骤 3     选择“OK”并按“Enter”。

返回到“Advanced Controller Management”界面,显示正在切换模式,如20-78所示。

图20-78 Advanced Controller Management界面

 

                                步骤 4     按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见9.3.1 进入管理界面

                                步骤 5     依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如20-79所示。

图20-79 Advanced Controller Management界面

 

l      => 处理完毕。

l      => 请联系技术支持。

----结束

20.5.7 删除Preserved Cache

问题描述

l     无法创建RAID组。

l     进入控制卡主界面后,显示“Discard Preserved Cache”,如20-80所示。

图20-80 控制卡主界面

 

处理方法

进入控制卡主界面。

                                步骤 1     选择“Discard Preserved Cache”并按Enter

弹出操作确认界面,如20-81所示。

图20-81 操作确认窗口

 

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示“The operation has been performed successfully”即操作成功。

----结束

20.6 管理界面介绍

Main Menu

RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。

界面介绍

Main Menu”界面如20-82,参数说明如20-23所示。

图20-82 Main Menu

 

表20-23 参数说明

参数

参数说明

Configuration Management

配置管理RAID

Controller Management

管理RAID控制卡。

Virtual Drive Management

管理虚拟磁盘。

Drive Management

管理硬盘。

Hardware Components

查询部件信息。

 

Configuration Management

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

Configuration Management”界面如20-83,参数说明如20-24所示。

图20-83 Configuration Management

 

表20-24 参数说明

参数

参数说明

Auto Configure RAID 0

自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0

Create Virtual Drive

创建RAID

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

View Global Hotspare Drives

查看全局热备盘。

当存在全局硬盘时会显示该参数。

Make JBOD

硬盘直通功能,硬盘不加入RAID,直接使用。

Make Unconfigured Good

将硬盘从JBOD状态设置为“Unconfigured Good”状态。

当存在直通盘时显示该参数。

Clear Configuration

清除配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时会显示该参数。

 

Auto Configure RAID 0

自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0

界面说明

Auto Configure RAID 0”界面如20-84所示。

图20-84 Auto Configure RAID 0

 

20.6.1.10.2 Create Virtual Drive

界面说明

Create Virtual Drive”界面如20-8520-86所示,参数说明如20-25所示。

图20-85 Create Virtual Drive1

 

图20-86 Create Virtual Drive2

 

表20-25 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB128KB256KB512KB1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

l     Yes:使能后台初始化功能

l     No:禁用后台初始化功能

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     Disable:即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     Force 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Save Configuration

保存当前配置。

 

20.6.1.10.3 Create Profile Based Virtual Drive

界面说明

Create Profile Based Virtual Drive”界面如20-87所示,参数说明如20-26所示。

图20-87 Create Profile Based Virtual Drive

 

表20-26 参数说明

参数

说明

Generic RAID 0

快速创建RAID0

Generic RAID 1

快速创建RAID1

Generic RAID 5

快速创建RAID5

Generic RAID 6

快速创建RAID6

File Server

快速创建文件服务器。

Web/Generic Server

快速创建网页/通用服务器。

Database

快速创建数据库。

 

快速创建RAID

通过“↑”、“↓”选择要创建的RAID(以“Generic RAID 1”为例)并按“Enter”。

打开RAID配置界面,如20-88,参数说明如20-27所示。

图20-88 RAID配置界面

 

表20-27 参数说明

参数

参数说明

Drive Selection Criteria

系统自动选择的成员盘。

Virtual Drive Name

系统自定义的RAID组名称。

RAID Level

当前配置的RAID组的级别。

Virtual Drive Size

RAID组的容量。

Power Save Mode

数据掉电保护模式。

Strip Size

RAID组扇区大小。

Read Policy

RAID组的数据读策略。

Write Policy

RAID组的数据写策略。

IO Policy

RAIDI/O策略。

Access Policy

数据读写的策略。

Drive Cache

硬盘Cache策略。

Create Dedicated Hot Spare

是否为RAID组创建局部热备盘。

Save Configuration

保存当前配置。

 

                                步骤 2     20-26所示查看或配置相关参数。

                                步骤 3     选择“Save Configuration”并按“Enter”。

弹出操作确认界面。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 6     选择“OK”并按“Enter”完成配置。

----结束

20.6.1.10.4 View Drive Group Properties

界面说明

View Drive Group Properties”界面如20-89,参数说明如20-28所示。

图20-89 View Drive Group Properties

 

表20-28 参数说明

参数

参数说明

Drive Group

硬盘组名称。

Capacity Allocation

硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。

 

20.6.1.10.5 View Global Hotspare Drives

查看当前存在的所有全局热备盘。

界面说明

View Global Hotspare Drives”界面如20-90所示。

图20-90 View Global Hotspare Drives

 

20.6.1.10.6 Make JBOD

选择空闲硬盘转换为直通盘。

界面说明

Make JBOD”界面如20-91所示。

图20-91 Make JBOD

 

20.6.1.10.7 Make Unconfigured Good

选择直通盘转换为空闲盘。

界面说明

Make Unconfigured Good”界面如20-92所示。

图20-92 Make Unconfigured Good

 

20.6.1.10.8 Clear Configuration

 

该操作将清除控制卡上所有的RAID、热备盘、Pinned Cache和直通盘配置信息,请谨慎执行该操作。

界面说明

Clear Configuration”界面如20-93所示。

图20-93 Clear Configuration

 

20.6.1.11 Controller Management

该界面提供控制卡管理接口,可查看并修改控制卡的详细参数。

界面介绍

Controller Management”界面如20-9420-95所示,参数说明如20-29所示。

图20-94 Controller Management1

 

图20-95 Controller Management2

 

表20-29 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Personality Mode

RAID控制卡的模式。

Select Boot Device

当前启动项。

PCI ID

RAID控制卡的PCI ID

PCI Segment:Bus:Device:Fuction

RAID控制卡的PCI设备索引。

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Supported Device Interfaces

支持的设备接口。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制卡操作。

Advanced Controller Properties

查看和修改控制卡的高级属性。

 

Advanced Controller Management

界面介绍

Clear Configuration”界面如20-96所示,参数说明如20-30所示。

图20-96 Clear Configuration

 

表20-30 参数说明

参数

说明

Clear Controller Events

清除控制卡的事件日志。

Save Controller Events

保存控制卡的事件日志。

Save TTY Log

保存终端操作日志。

Enable Drive Security

使能硬盘加密功能。

Disable Drive Security

关闭硬盘加密功能。

Change Security Settings

修改硬盘加密功能的设置,包括修改密码、修改加密模式等。

Manage SAS Storage Link Speed

管理接口速率。

Manage PCIe Storage Interface

管理RAID控制卡的链路宽度和lane的速率。

Manage MegaRAID Advanced Software Options

管理高级软件功能。

Schedule Consistency Check

设置一致性校验参数。

Set Factory Defaults

恢复为出厂配置。

Enable Host LED Management for JBOD

管理JBOD模式的hostLED

Manage Personality Mode

设置RAID控制卡当前的工作模式。

Manage Controller Profiles

查看和管理控制卡的配置文件。

 

20.6.1.11.9 Advanced Controller Properties

界面说明

Advanced Controller Properties”界面如20-9720-98所示,参数说明如20-31所示。

图20-97 Advanced Controller Properties界面(1

 

图20-98 Advanced Controller Properties界面(2

 

表20-31 参数说明

参数

说明

Cache and Memory

查看控制卡CacheMemory信息。

Patrol Read

系统巡检。

Power Save Settings

设置硬盘休眠。

Spare

设置控制卡热备状态。

Task Rates

设置各种任务的处理速率。

External Key Management

管理外部密钥。

Alarm Control

板载蜂鸣器使能状态。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

硬盘容量压缩模式。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制卡BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制卡BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制卡BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制卡BIOS在检测到异常时采用安全模式启动。

默认为“Pause on Errors”。

Controller BIOS

控制卡BIOS的使能情况。

ROC Temperature (C)

控制卡温度。

Shield State Supported

是否支持暂停IO,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见20.4.9 导入和清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

Write Verify

写校验。

Drive Detection Type

随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制卡属性。

可用选项为:

l     Disabled

l     High Latency

l     Aggressive

l     Default

Drive Corrective Action

随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致IO延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。

l     Disabled:禁用该功能

l     Enabled:开启该功能

Drive Error Threshold

通过该选项设置适当的控制卡属性。

l     Every 8 hours

l     Every1 hours

l     Every 15 mins

l     Every 5 mins

Large IO Support

启用或禁用大型IO支持功能。

Unmap Capability

解除映射能力。

Apply Changes

保存配置。

 

修改后台任务速率

20-97中选择“Task Rates”并按“Enter”。界面如20-99所示,界面中参数说明如20-32所示。

图20-99 Task Rates

 

表20-32 参数说明

参数

说明

Background Initialization <BGI> Rate

设置执行后台初始化的速率。

说明

数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Consistency Check Rate

设置执行一致性校验的速率。

说明

数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Patrol Read Rate

设置执行巡检读取的速率。

说明

数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Rebuild Rate

设置硬盘发生故障时在新硬盘上执行重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Reconstruction Rate

设置执行RAID级别迁移或在线容量扩展时重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%

Apply Changes

保存配置。

 

                                步骤 2     按照20-31所述修改控制卡的高级属性参数。

                                步骤 3     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

20.6.1.12 Virtual Drive Management

该界面提供虚拟磁盘的查询和管理接口。

界面介绍

Virtual Drive Management”界面如20-100,显示虚拟磁盘列表。

图20-100 Virtual Drive Management

 

管理指定虚拟磁盘

选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如20-101所示,参数说明如20-33所示。

图20-101 虚拟磁盘操作界面

 

表20-33 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:定位虚拟磁盘的所有硬盘。

l     Stop Locate:取消定位。

l     Delete Virtual Drive:删除虚拟磁盘。

l     Expand Virtual Drive:扩展虚拟磁盘容量。

l     Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。

l     Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。

l     Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。

l     Fast Initialization:快速初始化虚拟磁盘。

l     Slow Initialization:安全初始化虚拟磁盘。

l     Check Consistency:一致性校验。

l     Virtual Drive Erase:格式化虚拟磁盘。

Progress

当前任务进度。

l     仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。

l     当前界面不会自动刷新,需退出后重新进入查看当前进度。

Stop

停止当前任务。

仅当进行初始化、一致性校验、格式化虚拟磁盘等任务时显示此选项。

Name

虚拟磁盘名称。

Raid Level

虚拟磁盘RAID级别。

Status

虚拟磁盘当前运行状态。

Size

虚拟磁盘容量。

View Associated Drives

查看成员盘属性。

Advanced...

查看虚拟磁盘高级属性。

 

查看成员盘属性

20-101中选择“View Associated Drives”并按“Enter”。

界面如20-102,显示成员盘列表。

图20-102 View Associated Drives

 

                                步骤 2     选择要查看的成员盘并按“Enter”。

                                步骤 3     选择“View Drive Properties”并按“Enter”。

进入硬盘属性界面,如20-103界面所示,界面参数如20-34所示。

图20-103 View Drive Properties

 

表20-34 参数说明

参数

参数说明

Operation

该成员盘可执行的操作,包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Place Drive Online/Offline:将硬盘上线/离线。

l     Replace Drive:替换硬盘

Drive ID

成员盘的ID

Connection

硬盘接口。

Enclosure Position

机箱或背板的位置。

Slot Number

硬盘的槽位号。

Status

成员盘的当前工作状态。

Size

成员盘的容量。

Type

成员盘类型。

Model

成员盘的模块类型。

Serial Number

成员盘的序列号。

Associated Virtual Drive

成员盘所在的虚拟磁盘。

Advanced...

查询成员盘更多属性。

 

----结束

查看和修改虚拟磁盘高级属性

20-101中选择“Advanced...”并按“Enter”。

界面如20-10420-105所示,界面参数如20-35所示。

图20-104 Advanced 1

 

图20-105 Advanced 2

 

表20-35 参数说明

参数

参数说明

Parity Size

奇偶校验大小。

Logical Sector Size

逻辑扇区大小。

Strip Size

条带大小。

Starting Logical Block Addressing

逻辑单元起始地址。

Emulation Type

控制逻辑盘在OS中上报的扇区。

当成员盘为512B/512B时:

l     Default:逻辑盘扇区为512B/512B

l     None:逻辑盘扇区为512B/512B

l     Force:逻辑盘扇区为512B/4KB

当成员盘为512B/4KB时:

l     Default:逻辑盘扇区为512B/4KB

l     None:逻辑盘扇区为512B/512B

l     Force:逻辑盘扇区为512B/4KB

Bad Blocks

是否支持坏块处理。

SSD Caching

是否支持SSD Caching

Access

是否支持Access

Current Write Cache Policy

当前写Cache策略,包括:

l     Write Through:当硬盘子系统接收到所有传输数据后,RAID控制标卡将给主机返回数据传输完成信号。

l     Write Back:当RAID控制标卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Always Write Back:当未配置超级电容或超级电容故障时,RAID控制标卡将不会自动切换到Write Through模式。

说明

“Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR的写数据将会丢失。不推荐使用该模式。

Default Write Cache Policy

默认的写Cache策略。

Disable Background Initialization

是否禁用后台初始化。

Read Cache Policy

当前读Cache策略,包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。RAID控制标卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

Drive Cache

设置硬盘cache状态。

Input/Output

I/O读取策略,包括:

l     Direct:直接从硬盘读取数据,不经过Cache缓存。

l     Cached:从Cache缓存中读取数据。

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Apply Changes

保存配置。

 

                                步骤 2     按照20-35所述配置“Advanced”的参数。

                                步骤 3     选择“Apply Changes”并按“Enter”。

显示The operation has been performed successfully

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

20.6.1.13 Drive Management

该界面显示硬盘基本属性,提供硬盘操作接口。

界面介绍

Drive Management”界面如20-106所示,显示硬盘列表。

图20-106 Drive List

 

硬盘的标识信息说明如下:

l     ①表示RAID控制卡的Port口编号,其中Drive C0/Drive Port A表示RAID控制卡的Port A口,Drive C1/Drive Port B表示RAID控制卡的Port B口。

l     ②表示机箱或背板的位置ID

l     ③表示硬盘槽位号。

l     ④表示硬盘类型。

l     ⑤表示硬盘的容量。

l     ⑥表示硬盘的状态。

l     ⑦表示硬盘的扇区大小。

选定要操作的硬盘并按“Enter”进入详细操作界面,如20-107所示,参数说明如20-36所示。

图20-107 Drive Management

 

表20-36 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Initialize Drive:硬盘初始化。

l     Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。

     Simple:仅对硬盘进行一轮擦除动作。

     Normal:对硬盘进行三轮擦除动作。

     Thorough:对硬盘进行九轮擦除动作。

     Stop Erase:停止数据擦除操作。

l     Make Unconfigured Good/Bad:修改硬盘状态。

l     Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。

l     Assign Global Hot Spare Drive:设置全局热备盘。

l     Assign Dedicated Hot Spare Drive:设置局部热备盘。

l     Unassign Hot Spare Drive:删除热备盘。

l     Place Drive Online:将Offline状态的硬盘设置为Online

说明

l     Place Drive Online操作仅仅只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。

l     对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。

Drive ID

硬盘的ID

Connection

硬盘接口。

Enclosure Position

机箱或背板的位置。

Slot Number

硬盘的槽位号。

Status

硬盘的当前工作状态。

Size

硬盘的容量。

Type

硬盘的类型。

Model

硬盘型号。

Serial Number

硬盘的序列号。

Advanced...

查询更多硬盘属性。

 

安全擦除硬盘数据

该操作会删除硬盘上的数据,请谨慎执行。

将“Operation”设置为“Drive Erase”。

                                步骤 1     选择“Erase Mode”并按“Enter”。

                                步骤 2     在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。

                                步骤 3     选择“Go”并按“Enter”。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示操作成功。

----结束

查看硬盘属性

选择“Advanced...”并按“Enter”。

打开硬盘属性界面,如20-10820-109所示,参数说明如20-37所示。

图20-108 Drive Properties 1

 

图20-109 Drive Properties 2

 

表20-37 参数说明

参数

参数说明

Certified

是否通过认证。

Logical Sector Size

逻辑扇区大小。

Physical Sector Size

物理扇区大小。

SMART Status

SMART功能是否使能。

Revision

硬盘Firmware版本。

Media Error

Media error个数。

Predicted Fail Count

Pred fail个数。

SAS Address

硬盘SAS地址。

Drive Power State

硬盘上电状态。

Cache Setting

是否可设置Cache

Disk Protocol

硬盘支持的协议。

Device Speed

设备速率。

Negotiated Drive Transfer Speed

硬盘数据传输速率。

Number of Connections

连接器个数。

FDE Capable

硬盘是否支持FDEFull Disk Encryption)技术。

Cryptographic Erase Capable

硬盘的加密擦除能力。

Unmap Capable

解除映射能力。

Unmap Capability for Configuration

取消映射配置功能。

Temperature

硬盘温度。

 

20.6.1.14 Hardware Components

该界面主要提供RAID控制卡传感器信息。

界面介绍

Hardware Components”界面如20-110,参数说明如20-38所示。

图20-110 Hardware Components

 

表20-38 参数说明

参数

参数说明

Battery Status

电容的工作状态。

Battery Management

电容管理。

Enclosure Management

查看更多传感器信息。

 

20.6.2 View Server Profile

提供RAID控制卡操作管理接口。

界面介绍

View Server Profile”界面如20-111所示,参数说明如20-39所示。

图20-111 View Server Profile

 

表20-39 参数说明

参数

参数说明

UEFI Spec Version

服务器支持的UEFI Spec版本。

Controller Management

提供控制卡管理接口,详细情况请参见20.6.1.10 Controller Management

Hardware Components

提供控制卡部件查询接口,详细情况请参见20.6.1.13 Hardware Components

Drive Management

提供硬盘管理接口,详细情况请参见20.6.1.12 Drive Management

Virtual Drive Management

提供虚拟磁盘管理接口,详细情况请参见20.6.1.11 Virtual Drive Management

 

20.6.3 Manage Foreign Configuration

该界面可查看、导入、清空外部配置。

界面介绍

Manage Foreign Configuration”界面如20-112所示。

图20-112 Manage Foreign Configuration

 

查看并导入外部配置

选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如20-113所示。

图20-113 外部配置

 

                                步骤 2     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     单击“OK”完成配置。

----结束

清除外部配置

选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     单击“OK”完成配置。

----结束

20.6.4 Configure

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

Configure”界面如20-114所示,参数说明如20-40所示。

图20-114 Configure

 

表20-40 参数说明

参数

参数说明

Auto Configure RAID 0

自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0

Create Virtual Drive

创建RAID

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Make JBOD

硬盘直通功能,硬盘不加入RAID,直接使用。

Make Unconfigured Good

配置硬盘状态。

Clear Configuration

清除当前所有RAID配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时才会显示该选项。

 

清除当前配置

选择“Clear Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     单击“OK”完成配置。

----结束

20.6.5 Set Factory Defaults

恢复出厂配置

在主界面选择“Set Factory Defaults”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 3     单击“OK”完成配置。

----结束

20.6.6 Update Firmware

该界面提供固件升级接口。

界面介绍

Update Firmware”界面如20-115所示,参数说明如20-41所示。

图20-115 Update Firmware界面

 

表20-41 参数说明

参数

参数说明

Select File System

选择使用的文件系统。

Select Directory

选择文件存放路径。可选路径包括:

Current Dir:当前路径

EFI:自适应路径

Select Image

选择要加载的文件。

 

升级固件

l     进行固件升级时,必须使用FAT12FAT16FAT32格式的介质。

l     仅检查支持EFI_SIMPLE_FILE_SYSTEM_PROTOCOL的文件系统。

l     FW镜像文件必须位于根目录或根目录的下一个级别才能进行访问。

按照20-41所述配置升级参数。

                                步骤 1     选择“Update”并按“Enter”。

打开操作确认界面。

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     在列表中选择“Enable”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully

                                步骤 5     单击“OK”完成配置。

----结束

20.6.7 Manage MegaRAID Advanced Software Options

该界面提供RAID控制卡高级软件特性查看和导入接口。

界面介绍

Manage MegaRAID Advanced Software Options”界面如20-116所示,界面中参数说明如20-42所示。

图20-116 Manage MegaRAID Advanced Software Options

 

表20-42 参数说明

参数

说明

SAFE ID

RAID控制卡的安全编码。

Serial Number

RAID控制卡序列号。

Activation Key

待激活的高级特性的Key

Active

激活高级特性。

不支持高级特性的激活操作,该功能无效。

Deactive All Trail Software

注销当前所有高级特性。

 

20.6.8 Exit

按“F10”退出BIOS管理界面。

20.7 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

下载和安装StorCLI工具

下载工具

登录BROADCOM网站上RAID控制卡的页面

                                步骤 1     在“DOWNLOADS”页签中单击“Management Software and Tools”。

打开管理软件和工具列表。

                                步骤 2     下载最新版本的“StorCLI”工具。

                                步骤 3     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 1     Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。

StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

20.7.2 常用命令

查询RAID控制卡配置信息

命令功能

查询控制卡的基本配置信息。

命令格式

storcli64 /ccontroller_id show

参数说明

参数

参数说明

取值

controller_id

控制卡ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

 

使用指南

无。

使用实例

# 查询RAID控制卡配置信息。

[root@localhost ~]# storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
Controller = 0
Status = Success
Description = None
 
Product Name = MegaRAID 9560-16i 8GB
Serial Number = SK00977293
SAS Address =  500062b2025080c0
PCI Address = 00:01:00:00
System Time = 03/06/2023 17:11:07
Mfg. Date = 03/05/20
Controller Time = 03/06/2023 09:11:06
FW Package Build = 52.20.0-4481
BIOS Version = 7.20.01.0_0x07140000
FW Version = 5.200.02-3681
Driver Name = megaraid_sas
Driver Version = 07.720.04.00
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x10E2
SubVendor Id = 0x1000
SubDevice Id = 0x4000
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Domain ID = 0
Security Protocol = None
Drive Groups = 2
 
TOPOLOGY :
========
 
----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT      Size PDC  PI SED DS3  FSpace TR
----------------------------------------------------------------------------
 0 -   -   -        -   RAID1 Optl  N   1.818 TB dsbl N  N   dflt N      N
 0 0   -   -        -   RAID1 Optl  N   1.818 TB dsbl N  N   dflt N      N
 0 0   0   252:4    1   DRIVE Onln  N   1.818 TB dsbl N  N   dflt -      N
 0 0   1   252:5    2   DRIVE Onln  N   1.818 TB dsbl N  N   dflt -      N
 1 -   -   -        -   RAID0 Optl  N  10.915 TB dflt N  N   none Y      N
 1 0   -   -        -   RAID0 Optl  N  10.915 TB dflt N  N   none Y      N
 1 0   0   252:1    3   DRIVE Onln  N   5.457 TB dflt N  N   none -      N
 1 0   1   252:2    5   DRIVE Onln  N   5.457 TB dflt N  N   none -      N
----------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Optl=Optimal|Dgrd=Degrade                                                                                                             d
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 2
 
VD LIST :
=======
 
-------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC     Size Name
-------------------------------------------------------------
1/238 RAID0 Optl  RW     Yes     RWTD  -   ON  2.000 TB
0/239 RAID1 Optl  RW     Yes     RWTD  -   ON  1.818 TB
-------------------------------------------------------------
 
VD=Virtual Drive| DG=Drive Group|Rec=Recovery
Cac=CacheCade|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|dflt=Default|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportRe                                                                                                             ady
B=Blocked|Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 11
 
PD LIST :
=======
 
--------------------------------------------------------------------------------                                                                                                             --------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model                                                                                                                                   Sp Type
--------------------------------------------------------------------------------                                                                                                             --------
252:0     7 GHS   -    5.457 TB SATA HDD N   N  512B HUS726T6TALE600                                                                                                                         U  -
252:1     3 Onln  1    5.457 TB SATA HDD N   N  512B HUS726T6TALE600                                                                                                                         U  -
252:2     5 Onln  1    5.457 TB SATA HDD N   N  512B HUS726T6TALE600                                                                                                                         U  -
252:3     6 UGood -    5.457 TB SATA HDD N   N  512B HUS726T6TALE600                                                                                                                         U  -
252:4     1 Onln  0    1.818 TB SATA HDD N   N  512B ST2000NM0055-1V4104                                                                                                                     U  -
252:5     2 Onln  0    1.818 TB SATA HDD N   N  512B ST2000NM0055-1V4104                                                                                                                     U  -
252:6     9 UGood -    5.457 TB SATA HDD N   N  512B HUS726T6TALE600                                                                                                                         U  -
252:7     8 UGood -    5.457 TB SATA HDD N   N  512B HUS726T6TALE600                                                                                                                         U  -
252:12   28 UGood -  446.625 GB SATA SSD N   N  512B SAMSUNG MZ7LH480HAHQ-00005                                                                                                              U  -
252:13   10 UGood -    5.457 TB SATA HDD N   N  512B HUS726T6TALE600                                                                                                                         U  -
252:14   11 UGood -    5.457 TB SATA HDD N   N  512B HUS726T6TALE600                                                                                                                         U  -
--------------------------------------------------------------------------------                                                                                                             --------
 
EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Sntze=Sanitize|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=UGood Unsupported|UGShld=UGood shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported|Rbld=Rebuild
 
Enclosures = 1
 
Enclosure LIST :
==============
 
------------------------------------------------------------------------
EID State Slots PD PS Fans TSs Alms SIM Port# ProdID     VendorSpecific
------------------------------------------------------------------------
252 OK       16 11  0    0   0    0   0 -     VirtualSES
------------------------------------------------------------------------
 
EID=Enclosure Device ID | PD=Physical drive count | PS=Power Supply count
TSs=Temperature sensor count | Alms=Alarm count | SIM=SIM Count | ProdID=Product                                                                                                              ID
 
 
Cachevault_Info :
===============
 
------------------------------------
Model  State   Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 34C  -    1980/00/00
------------------------------------

20.7.2.15 创建和删除RAID

命令功能

创建、删除RAID

命令格式

命令

说明

storcli64 /ccontroller_id add vd rlevel[0|1|5|6|10|50|60] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [wt|*wb|awb] [nora|*ra] [Strip=<8|16|32|64|128|256|1024>] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid]

创建RAID

storcli64 /ccontroller_id/vraid_id del

删除RAID

 

*表示默认值。

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

rlevel

要配置的RAID组级别

level可为0156105060,数字分别代表对应的RAID组级别。

size

要配置的RAID组容量

默认值为all,即所有成员盘的容量之和。

name

要配置的RAID组名称

-

drives

要加入RAID组的硬盘

-

startid-endid

硬盘的起始和结束ID

-

slot_id

硬盘ID

-

pdperarray

子组中的硬盘数

创建RAID10RAID50RAID60时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。

-

pdcache

设置RAID的成员盘的Cache状态

l     on

l     off

l     default

pi

使能数据保护

-

wrcache

设置RAID组的写Cache属性,完整的命令为wrcache=wt|wb|awb,这里“wrcache=”可省略

l     wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”模式。

rdcache

设置RAID组的读Cache属性,完整的命令为rdcache=ra|nora,这里“rdcache=”可省略。

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     noraRAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

Strip

设置RAID组条带大小

MR卡:64, 128, 256, 512, 1024

iMR卡:只能为64

单位为KB

EmulationType

控制逻辑盘在OS中上报的扇区

l     0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n

l     1: Disable,即使成员盘中是512e类型的硬盘,扇区大小也显示为512n

l     2Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e4K)。

Spares

指定RAID组的热备盘

-

raid_id

要删除的RAID组的ID

-

 

l     以上涉及的各个ID的查询方法请参见17.7.2.3 查询RAID控制卡/RAID/物理硬盘信息

l     当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid

使用指南

使用实例

# 创建RAID 0

[root@localhost ~]# ./storcli64 /c0 add vd r0 size=100GB drives=64:9,10
Controller = 0
Status = Success
Description = Add VD Succeeded

# 删除RAID

domino:~# ./storcli64 /c0/v0 del
Controller = 0
Status = Success
Description = Delete VD Succeeded

20.7.2.16 查询RAID控制卡/RAID/物理硬盘信息

命令功能

查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。

命令格式

storcli64 /ccontroller_id show

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

storcli64 /ccontroller_id/vvd_id show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

enclosure_id

硬盘所在EnclosureID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡连接的硬盘背板的ID

slot_id

物理硬盘槽位编号

可以将该参数设置为all,表示查询所有硬盘的ID

vd_id

虚拟磁盘ID

可以为all,表示查询所有虚拟磁盘信息。

 

使用指南

使用实例

# 查询VD 0的信息。

domino:~# ./storcli64 /c0/v0 show
Controller = 0
Status = Success
Description = None
Virtual Drives :
==============
---------------------------------------------------------
DG/VD TYPE State Access Consist Cache sCC Size Name
---------------------------------------------------------
0/0 RAID1 Optl RW Yes RWBD - 100.0 GB
---------------------------------------------------------
Cac=CacheCad|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded Optl=Optimal|RO=Read
OnlyRW=Read Write|HD=Hidden|B=Blocked|Consist=Consistent|AWB=Always WriteBack|WT=WriteThrough|
C=Cached IOID=Direct IO|sCC=Scheduled Check Consistency

20.7.2.17 查询和设置Patrolread参数

命令功能

查询和设置系统巡检的相关参数。

命令格式

storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number

storcli64 /ccontroller_id set patrolread delay=delaytime

storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}

storcli64 /ccontroller_id show patrolread

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

系统巡检起始时间

例如:2016/07/15 23

说明

起始时间单位为

number

可同时巡检的硬盘数量

delaytime

系统巡检周期

单位为hour

 

查看RAID控制卡ID的方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。

domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
--------------------------------------- 
Ctrl_Prop          Value 
--------------------------------------- 
PR Starttime       2016/07/15 23:00:00 
PR MaxConcurrentPd 2 
---------------------------------------

# 使能patrolread并设置为自动模式。

domino:~# ./storcli64 /c0 set patrolread=on mode=auto
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
--------------------------------------- 
Ctrl_Prop        Value 
--------------------------------------- 
Patrol Read Mode auto 
---------------------------------------

# 查询patrolread信息。

domino:~# ./storcli64 /c0 show patrolread
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
-------------------------------------------- 
Ctrl_Prop          Value 
-------------------------------------------- 
PR Mode       2016/07/15 23:00:00 
PR Execution Delay 
PR iterations completed 0 
PR Next Start time      07/16/2016,00:00:00 
PR on SSD               Disabled 
PR Current State        Stopped 
--------------------------------------------

20.7.2.18 查询和设置Spinup参数

命令功能

查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。

命令格式

storcli64 /ccontroller_id show spinupdelay

storcli64 /ccontroller_id show spinupdrivecount

storcli64 /ccontroller_id set spinupdelay=time

storcli64 /ccontroller_id set spinupdrivecount=count

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

每组起转硬盘间的时间间隔

默认为2,单位为s

count

上电时允许同时起转的硬盘数量

默认为4

 

查看RAID控制卡ID的方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡Spinup参数。

[root@localhost ~]# ./storcli64 /c0 show spinupdelay
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop     Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
 
[root@localhost ~]# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop           Value
--------------------------
Spin Up Drive Count 2
--------------------------

# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。

domino:~# ./storcli64 /c0 set spinupdelay=20
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 20 second(s)
--------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 5
--------------------------

20.7.2.19 查询和设置硬盘数据擦除功能

命令功能

设置物理硬盘数据擦除模式,查询擦除进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

mode

数据擦除模式

l     simple:对硬盘进行一轮擦除动作。

l     normal:对硬盘进行三轮擦除动作。

l     thorough:对硬盘进行九轮擦除动作。

 

以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# slot 3硬盘进行simple数据擦除,并查询擦除进度。

domino:~# ./storcli64 /c0/e252/s3 start erase simple
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.

20.7.2.20 查询和设置RAID后台初始化

命令功能

暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。

命令格式

storcli64 /ccontroller_id/vraid_id action bgi

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

action

后台初始化的操作

l     show:查看后台初始化进度

l     pause:暂停后台初始化

l     resume:继续后台初始化

l     stop:停止后台初始化

 

以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查看后台初始化进度。

[root@localhost ~]# ./storcli64 /c0/v0 show bgi
Controller = 0
Status = Success
Description = Noe
 
VD Operation Status :
===================
 
------------------------------------------------------
VD Operation Progress% Staus      Estimated Time Left
------------------------------------------------------
 0 BGI               3 In progress 53 Minutes
------------------------------------------------------

20.7.2.21 查询和设置CacheFlush参数

命令功能

查询和设置Cache的刷新周期。

命令格式

storcli64 /ccontroller_id show cacheflushint

storcli64 /ccontroller_id set cacheflushint time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

Cache的刷新周期

单位为s

 

查看RAID控制卡ID的方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置Cache的刷新周期为“10”。

domino:~# ./storcli64 /c0 set cacheflushint=10
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10 sec
---------------------------

# 查询Cache的刷新周期。

domino:~# ./storcli64 /c0 show cacheflushint
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10
---------------------------

20.7.2.22 查询和设置物理硬盘初始化功能

命令功能

设置物理硬盘初始化功能,查询初始化进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看初始化进度

l     start:开始初始化

l     stop:结束初始化

 

以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 初始化slot3硬盘,并查询初始化进度。

[root@localhost ~]# ./storcli64 /c0/e64/s3 start initialization
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
 
[root@localhost ~]# ./storcli64 /c0/e64/s3 show initialization
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e64/s3         0 In progress 0 Seconds
-----------------------------------------------------

20.7.2.23 查询和设置RAID重构

命令功能

开始、暂停、继续、停止RAID重构,并查询进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

action

要执行的操作

l     start:开始重构

l     show:查看重构进度

l     pause:暂停重构

l     resume:继续重构

l     stop:停止重构

 

查看RAID控制卡ID的方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 手动开始重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 start rebuild
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

# 查看硬盘当前重构状态。

[root@localhost ~]# ./storcli64 /c0/e70/s7 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e70/s7         5 In progress 26 Minutes
-----------------------------------------------------

# 暂停硬盘重构进程。

[root@localhost ~]# ./storcli64 /c0/e70/s7 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Succeeded.

# 继续重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 resume rebuild
Controller = 0
Status = Success
Description = Resume Drive Rebuild Succeeded.

# 停止重构。

[root@localhost ~]# ./storcli64 /c0/e70/s7 stop rebuild
Controller = 0
Status = Success
Description = Stop Drive Rebuild Succeeded.

20.7.2.24 查询和设置回拷

命令功能

开始、暂停、继续、停止回拷,并查询进度。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id start copyback target=target_enclosure_id:target_slot_id

开始回拷。

storcli64 /ccontroller_id/eenclosure_id/sslot_id action copyback

暂停、继续、查看、停止回拷。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

target_enclosure_id

执行回拷的目标硬盘所在EnclosureID

-

target_slot_id

执行回拷的目标物理硬盘槽位编号。

-

action

要执行的操作

l     show:查看回拷进度

l     pause:暂停回拷

l     resume:继续回拷

l     stop:停止回拷

 

查看RAID控制卡ID的方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 手动开始回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s7 start copyback target=70:3
Controller = 0
Status = Success
Description = Start Drive Copyback Succeeded.

# 查看硬盘当前回拷状态。

[root@localhost ~]# ./storcli64 /c0/e70/s3 show copyback
Controller = 0
Status = Success
Description = Show Drive Copyback Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e70/s3        17 In progress 16 Minutes
-----------------------------------------------------

# 暂停硬盘回拷进程。

[root@localhost ~]# ./storcli64 /c0/e70/s3 pause copyback
Controller = 0
Status = Success
Description = Pause Drive Copyback Succeeded.

# 继续回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s3 resume copyback
Controller = 0
Status = Success
Description = Resume Drive Copyback Succeeded.

# 停止回拷。

[root@localhost ~]# ./storcli64 /c0/e70/s3 stop copyback
Controller = 0
Status = Success
Description = Stop Drive Copyback Succeeded.

20.7.2.25 查询和设置Smart扫描周期

命令功能

查询、设置Smart扫描周期。

命令格式

命令

说明

storcli64 /ccontroller_id set smartpollinterval=value

设置Smart扫描周期。

storcli64 /ccontroller_id show smartpollinterval

查询Smart扫描周期。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

value

Smart扫描周期

单位为s

 

查看RAID控制卡ID的方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置Smart扫描周期为“60s”。

domino:~# ./storcli64 /c0 set smartpollinterval=60
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------

20.7.2.26 查询和设置一致性校验参数

命令功能

查询、设置一致性检查参数。

命令格式

命令

说明

storcli64 /ccontroller_id[/vvd_id]show cc

查询一致性检查参数。

storcli64 /ccontroller_id/vvd_id start cc force

开始进行一致性检查。

storcli64 /ccontroller_id/vvd_id action cc

暂停/停止/继续执行一致性检查。

storcli64 /ccontroller_id set consistencycheck|cc=[off|seq|conc] [delay=value] starttime=time excludevd=evd_id

设置一致性自动检查参数。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

要操作的RAIDID

-

action

要执行的操作

l     pause:暂停

l     resume:继续执行

l     stop:停止

cc

将一致性检查设置为顺序模式或并行模式,或关闭一致性检查。

l     off:关闭一致性检查

l     seq:顺序模式

l     conc:并行模式

value

一致性检查周期

-

time

一致性检查起始时间

例如:2016/07/14 22

说明

起始时间单位为

evd_id

不进行一致性检查的虚拟磁盘ID

-

 

以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

show命令中不带/vvd_id时,表示查询自动CC参数。

show命令中带/vvd_id时,表示查询CC进度。

使用实例

# 设置一致性自动检查参数。

domino:~# ./storcli64 /c0 set cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------
Ctrl_Prop Value
------------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2016/07/14 22:00:00
CC ExcludeVD(0) Success
------------------------------------

# 查询CC进度。

domino:~# ./storcli64 /c0/v1 show cc
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimited Time Left
-----------------------------------------------------------
0 CC - Not in progress -
-----------------------------------------------------------

20.7.2.27 设置热备盘

命令功能

设置全局热备盘和局部热备盘。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive

设置全局热备盘。

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=<N|0,1,2..>]

设置局部热备盘。

storcli64 /ccontroller_id/eenclosure_id/sslot_id delete hotsparedrive

删除热备盘。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

enclosure_id

硬盘所在EnclosureID

-

slot_id

物理硬盘槽位编号

-

dgs

硬盘组的ID

l     不添加dgs参数或dgs参数为N时:该热备盘为全局热备盘

l     0,1,2..:硬盘组ID

 

以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置slot 3硬盘为全局热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.

# 设置slot 3硬盘为vd0的局部热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive dgs=0
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.

20.7.2.28 设置启动项

命令功能

设置虚拟磁盘或物理硬盘为启动项。

命令格式

storcli64 /ccontroller_id/vvd_id set bootdrive=on

storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

vd_id

待设置的虚拟磁盘的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

 

以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置VD0为启动项。

[root@localhost ~]# ./storcli64 /c0/v0 set bootdrive=on
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
-----------------------------------------
VD Property   Value Status  ErrCd ErrMsg
-----------------------------------------
 0 Boot Drive On    Success     0 -
-----------------------------------------
 
 
 
[root@localhost ~]#

# 设置slot 7硬盘为启动项。

omino:~# ./storcli64 /c0/e252/s7 set bootdrive=on
Controller = 0 
Status = Success 
Description = Noe 
 
Controller Properties : 
===================== 
 
------------------- 
Ctrl_Prop Value 
------------------- 
BootDrive PD:252_7 
-------------------

20.7.2.29 设置硬盘状态

命令功能

设置硬盘状态。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

slot_id

物理硬盘槽位编号

state

要设置的硬盘状态

l     online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。

l     offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。

l     jbod:通过该参数可以将硬盘设置为直通硬盘。

l     good

     ubad状态的硬盘,使用该参数可将硬盘设为ugoodforeign)状态,此时可选择导入或清除外来配置;

     JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。

l     good:将硬盘设为空闲盘

force

强制设置硬盘状态,为可选参数。

如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force

-

 

以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。

domino:~# ./storcli64 /c0/e0/s1 set good
Controller = 0 
Status = Success 
Description = Set Drive Good Succeeded.

# 设置slot 7硬盘为直通盘。

domino:~# ./storcli64 /c0/e252/s7 set JBOD
Controller = 0 
Status = Success 
Description = Set Drive JBOD Succeeded.

20.7.2.30 设置RAID组访问策略

命令功能

设置RAID的读写策略。

命令格式

storcli64 /ccontroller_id/vraid_id set accesspolicy=mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAIDID

mode

RAID读写策略

l     rw:可读可写

l     blocked:禁止访问

l     ro:只读访问

 

以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置RAID读写策略为“rw”。

[root@localhost ~]# ./storcli64 /c0/v0 set accesspolicy=rw
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
----------------------------------------
VD Property  Value Status  ErrCd ErrMsg
----------------------------------------
 0 AccPolicy RW    Success     0 -
----------------------------------------

20.7.2.31 设置硬盘Cache状态

命令功能

设置RAID组成员盘的Cache状态。

命令格式

storcli64 /ccontroller_id/vvd_id set pdcache=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

RAID组的ID

-

action

要执行的操作

l     on:打开硬盘Cache

l     off:关闭硬盘Cache

l     default:将硬盘Cache设置为默认状态

 

以上涉及的各个ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 打开ID0RAID组的硬盘Cache

./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
---------------------------------------
VD Property Value Status  ErrCd ErrMsg
---------------------------------------
 0 PdCac    On    Success     0 -
---------------------------------------

20.7.2.32 设置紧急热备功能

命令功能

设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。

命令格式

storcli64 /ccontroller_id set eghs eug=state

storcli64 /ccontroller_id set eghs smarter=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

state

紧急热备功能的启用状态

l     on:启用

l     off:禁用

 

查看RAID控制卡ID的方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。

[root@localhost ~]# ./storcli64 /c0 set eghs eug=on
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
------------------
Ctrl_Prop   Value
------------------
EmergencyUG ON
------------------
 
[root@localhost ~]# ./storcli64 /c0 set eghs smarter=on
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-----------------------
Ctrl_Prop        Value
-----------------------
EmergencySmarter ON
-----------------------

20.7.2.33 设置硬盘PowerSave功能

命令功能

设置空闲硬盘和热备盘的省电模式。

命令格式

storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

state

省电模式的启用状态。

l     on:启用

l     off:禁用

disktype

硬盘类型。

l     1:空闲硬盘

l     2:热备盘

time

等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。

单位为minutes

 

查看RAID控制卡ID的方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置空闲硬盘的省电模式。

[root@localhost ~]# ./storcli64 /c0 set ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
------------------------
Ctrl_Prop    Value
------------------------
SpnDwnUncDrv Enabled
SpnDwnTm     30 minutes
------------------------

20.7.2.34 设置后台资源占用率

命令功能

设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。

命令格式

storcli64 /ccontroller_id set action=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要设置的项目

l     bgirate:后台初始化速率

l     ccrate:一致性校验速率

l     prrate:硬盘巡检速率

l     rebuildrateRAID重构速率

l     reconrateRAID扩容和迁移速率

value

后台任务资源占用率

1100

 

查看RAID控制卡ID的方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置硬盘巡检速率为“30%”。

[root@localhost ~]#  ./storcli64 /c0 set prrate=30
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-----------------------
Ctrl_Prop        Value
-----------------------
Patrol Read Rate 30%
-----------------------

20.7.2.35 设置BIOS Stop on Error功能

命令功能

设置控制卡BIOS在检测到异常时停止继续启动的功能。

命令格式

storcli64 /ccontroller_id set bios mode=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要执行的操作

l     soe:控制卡BIOS在检测到异常时停止启动

l     ie:忽略检测到的异常

 

查看RAID控制卡ID的方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 开启Stop on error功能。

[root@localhost ~]# ./storcli64 /c0 set bios mode=soe
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------

20.7.2.36 设置RAID组的Cache读写策略

命令功能

设置RAID组的Cache读写策略。

命令格式

命令

说明

storcli64 /ccontroller_id/vraid_id set wrcache=wrmode

设置Cache写策略

storcli64 /ccontroller_id/vraid_id set rdcache=rdmode

设置Cache读策略

 

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAID组的ID

可以为all,表示所有RAID

wrmode

设置Cache写策略

l     wt:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     wb:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”策略。

rdmode

设置Cache读策略

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     noraRAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

 

以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 设置Cache读写模式为“wt”。

[root@localhost ~]# ./storcli64 /c0/v0 set wrcache=wt
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
---------------------------------------
VD Property Value Status  ErrCd ErrMsg
---------------------------------------
 0 wrCache  WT    Success     0 -
---------------------------------------

20.7.2.37 设置RAID前台初始化模式

命令功能

设置RAID前台初始化模式。

命令格式

命令

说明

storcli64 /ccontroller_id/vraid_id start mode [Force]

开始进行RAID前台初始化。

storcli64 /ccontroller_id/vraid_id stop init

停止RAID前台初始化。

storcli64 /ccontroller_id/vraid_id show init

查询RAID前台初始化进度。

 

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAIDID

-

mode

前台初始化模式

l     init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。

l     init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。

Force

如果RAID组有用户数据,必须增加该参数进行初始化。

-

 

以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 快速初始化RAID

[root@localhost ~]# ./storcli64 /c0/v4 start init
Controller = 0
Status = Success
Description = Start INIT Operation Success

20.7.2.38 设置硬盘定位指示灯状态

命令功能

点亮和熄灭指定硬盘的定位指示灯。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。

slot_id

物理硬盘槽位编号

可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。

action

要执行的操作

l     start:点亮硬盘的定位指示灯。

l     stop:熄灭硬盘的定位指示灯。

 

以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 点亮slot 7硬盘的定位指示灯。

domino:~# ./storcli64 /c0/e252/s7 start locate
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.

20.7.2.39 通过增加成员盘可用容量扩容RAID

命令功能

RAID2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

命令格式

storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要扩容的RAIDID

capacity

扩容后的容量

expandarray

当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。

 

以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查询VD的可扩展容量。

[root@localhost ~]# storcli64 /c0/v1 show expansion 
CLI Version = 007.1416.0000.0000 July 24, 2020 
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64 
Controller = 0 
Status = Success 
Description = None 
 
 
EXPANSION INFORMATION : 
===================== 
 
-------------------------------------------- 
VD      Size OCE NoArrExp WithArrExp Status 
-------------------------------------------- 
 1 10.000 GB Y   3.627 TB 5.447 TB   - 
-------------------------------------------- 
 
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion 
 VD=Virtual Drive | NoArrExp - Without Array Expansion

如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。

# VD0的容量扩大“200GB”。

domino:~# ./storcli64 /c0/v0 expand size=200GB
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
0 100.0 GB 457.861 GB 200.0 GB 201.458 GB 44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %

RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。

20.7.2.40 通过增加新盘扩容或迁移RAID

命令功能

RAID2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

当增加新盘后,可进行RAID级别迁移。

命令格式

storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在EnclosureID

vd_id

要操作的RAIDID

slot_id

要加入RAID的新硬盘的槽位号

level

增加硬盘后RAID的级别

l     与原RAID级别相同时,该命令为扩大RAID容量。

l     与原RAID级别不同时,该命令为RAID级别迁移。

 

以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# RAID 0中增加slot 2硬盘扩容。

domino:~# ./storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 13 Minutes
-------------------------------------------------------

# 单盘RAID 0加盘迁移至RAID 1

domino:~# ./storcli64 /c0/v0 start migrate type=r1 option=add drives=252:3
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 14 Minutes
-------------------------------------------------------

20.7.2.41 查询和清除PreservedCache数据

命令功能

查询和清除PreservedCache数据。

命令格式

storcli64 /ccontroller_id show preservedcache

storcli64 /ccontroller_id/vvd_id delete preservedcache force

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要操作的RAIDID

 

以上涉及的所有ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 查询PreservedCache

domino:~# ./storcli64 /c0 show preservedcache
Controller = 0
Status = Success
Description = No Virtual Drive has Preserved Cache Data.

20.7.2.42 收集和清除RAID控制卡日志

命令功能

收集和清除RAID控制卡的日志。

命令格式

命令

说明

storcli64 /ccontroller_id show termlog [type=logtype] [logfile[=filename]]

收集RAID控制卡的日志。

storcli64 /ccontroller_id delete termlog

删除RAID控制卡的日志。

storcli64 /ccontroller_id show alilog [logfile[=filename]]

收集控制卡属性信息、TTY日志和事件到指定文件。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

logtype

查询日志类型。

l     config:查询TTY BBU缓存设置。

l     content:查询日志信息。

缺省值:content

filename

文件名称,将保存日志到此文件。

可自定义文件名称,缺省时将默认保存至“StorSAS.log”文件中。

 

查询RAID控制卡ID的查询方法请参见20.7.2.15 查询RAID控制卡/RAID/物理硬盘信息

使用指南

使用实例

# 收集RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19  6:48:11: C0:TTY History buffer cleared
 
Controller = 0
Status = Success
Description = None

# 删除RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 delete termlog
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------------------
Ctrl Method Result
----------------------------
   0 Delete Termlog deleted
----------------------------

20.7.2.43 查看/导入/清除外部配置

命令功能

指导用户查看、导入或者清除RAID控制卡的外部配置。

命令格式

storcli64 /ccontroller_id/fall import preview

storcli64 /ccontroller_id/fall import

storcli64 /ccontroller_id/fall delete

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

 

使用指南

使用实例

# 查看RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall import preview
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
 
 
FOREIGN PREVIEW :
===============
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Total foreign drive groups = 0

# 删除RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall delete
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration

20.7.2.44 Snapdump相关操作

命令功能

介绍Snapdump相关操作。

命令格式

命令格式

说明

storcli64 /ccontroller_id  show snapdump

查询snapdump功能是否打开,是否有自动生成的snapdump文件。

storcli64 /ccontroller_id  get snapdump id=all

获取历史生成的snapdump文件。

storcli64 /ccontroller_id  get snapdump

获取历史生成的snapdump文件和当前再生成一个snapdump文件。

storcli64 /ccontroller_id  set snapdump state=on|off

打开和关闭snapdump功能。

storcli64 /ccontroller_id  delete snapdump force

删除历史snapdump日志功能。

 

参数说明

参数

参数说明

取值

controller_id

控制卡ID

可以将该参数设置为all,表示查询该工具可管理的所有控制卡的ID

state=on|off

Snapdump状态

on为开启,off为关闭

 

使用指南

l     Snapdump文件是一个日志文件,在一些RAID控制卡异常场景下可以自动生成的日志,也可以主动获取当前RAID控制卡的snapdump日志。

l     使用前可以先查询snapdump功能是否打开,是否有自动生成的snapdump文件,再去收集snapdump

l     获取历史生成的snapdump文件和当前再生成一个snapdump文件会影响业务,建议离线使用。

l     打开和关闭snapdump功能,如果无法打开注意看提示,请确认当前RAID控制卡固件版本是否支持。

l     收集snapdump文件在当前命令执行目录下,文件格式为snapdump_**************.zip

使用实例

#查询snapdump功能是否打开,是否有自动生成的snapdump文件。

[root@localhost ~]# storcli64 /c0 show snapdump
Controller = 0
Status = Success
Description = None
 
SnapDump Properties :
===================
 
----------------------------------
Ctrl_Prop              Value
----------------------------------
Snapdump               ON
Snapdump Save Count    N/A
Snapdump Delay OCR     15
Snapdump properties    Read-Write
Snapdump Current Count 2
----------------------------------
 
SnapDump Details :
================
 
----------------------------------------------
ID Snapdump Size Snapdump time       OnDemand
----------------------------------------------
0       2649396 08-06-2021 07:23:43 Yes
1       2070406 08-07-2021 06:59:24 Yes
----------------------------------------------

#获取历史生成的snapdump文件。

[root@localhost ~]# storcli64 /c0 get snapdump id=all
Controller = 0
Status = Success
Description = None

#获取历史生成的snapdump文件和当前再生成一个snapdump文件。

[root@localhost ~]# storcli64 /c0 get snapdump
Controller = 0
Status = Success
Description = Download Support Log

#打开和关闭snapdump功能。

打开:

[root@localhost ~]# storcli64 /c0 set snapdump state=on
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-------------------
Ctrl_Prop    Value
-------------------
Set Snapdump on
-------------------

关闭:

[root@localhost ~]# storcli64 /c0 set snapdump state=off
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-------------------
Ctrl_Prop    Value
-------------------
Set Snapdump off
-------------------

#删除历史snapdump日志功能。

[root@localhost ~]# storcli64 /c0 delete snapdump force
Controller = 0
Status = Success
Description = Snapdump delete

20.7.2.45 升级控制卡FW

命令功能

升级控制卡FW

命令格式

命令格式

说明

storcli64 /cController_ID download file=xxx.rom [noverchk]

升级控制卡FW

 

参数说明

参数

参数说明

取值

controller_id

控制卡ID

-

xxx.rom

固件包的名称

-

 

使用指南

l     使用noverchk参数时将不检查固件包,降级版本时必须使用此参数。

l     升级完成后,需重新上下电服务器使固件包生效。

使用实例

#升级控制卡FW

[root@localhost fw]# ./storcli64_arm /c0 download file =FW4.rom noverchk
Download Completed.
Flashing image to adapter...
Controller = 0
Status = Success
Description = F/W Flash Completed.Please reboot the system for the changes to take effect.


21 SP686C

关于本章

主要介绍SP686C RAID控制卡的外观、特性、以及配置方法。

涉及的截图以1.3.2.1 Firmware版本为例,不同Firmware版本的控制卡界面有差异,具体请以实际为准。

SP686C有如下5个规格:

l     SP686C-M-16i 2G

l     SP686C-M-16i 4G

l     SP686C-MH-32i 4G

l     SP686C-M-40i 2G

l     SP686C-M-40i 4G

对于SP686C RAID控制卡的通用描述,不做产品名称区分。对于不同规格间有差异的内容描述,做产品名称区分。

20.1  概述

20.2  功能

20.3  初始配置

20.4  常用配置

20.5  故障处理

20.6  管理界面介绍

20.7  OS命令行工具

概述

SP686C RAID控制卡是12Gbit/s SAS控制卡,并最大支持PCIe 4.0 ×16/×8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

SP686C RAID控制卡用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

SP686C RAID控制卡包含以下规格,如21-1所示。

表21-1 SP686C RAID控制卡规格

板卡名称

SP686C-M-16i 2G

SP686C-M-16i 4G

SP686C-MH-32i 4G

SP686C-M-40i 2G

SP686C-M-40i 4G

PCIe接口a

PCIe 4.0 ×8

PCIe 4.0 ×8

PCIe 4.0 ×16

PCIe 4.0 ×8

PCIe 4.0 ×8

Cache容量

2GB

4GB

4GB

2GB

4GB

最大直连SAS/SATA盘数量

16

16

32

40

40

支持的RAID组最大数量

16

16

32

40

40

RAID组支持的最大硬盘数量

16

16

32

40

40

RAID组最大创建逻辑盘数量

16

16

16

16

16

a:所有控制卡的连接器均为PCIe ×16SP686C-M-16i 2GSP686C-M-16i 4GSP686C-M-40i 2GSP686C-M-40i 4G实际可支持的最大Lane数为×8SP686C-MH-32i 4G实际可支持的最大Lane数为×16

 

SP686C RAID控制卡是PCIe标卡,如21-1所示。

图21-1 SP686C标卡(未配置超级电容)

 

1

散热器

2

超级电容接口

3

Slimline接口(共3个,从上到下分别为Port1Port2Port3

4

LP Slimline接口(共2个,从上到下分别为Port4Port5

5

PCIe连接器

6

电源指示灯

7

写入/读出NAND Flash的状态指示灯

8

系统心跳指示灯

9

系统错误指示灯

-

-

 

不同规格间Slimline接口和LP Slimline接口数量有差异。

SP686C RAID控制卡单板指示灯说明如21-2所示。

表21-2 控制卡单板指示灯说明

指示灯

颜色

说明

电源指示灯

绿色

l     亮:电源正常。

l     灭:电源关闭或异常。

写入/读出NAND Flash的状态指示灯

绿色

l     亮:控制卡当前处于写入/读出NAND Flash的状态。

l     灭:控制卡当前不处于写入/读出NAND Flash的状态。

系统心跳指示灯

绿色

l     灯以2s周期闪烁:控制卡正在工作。

l     灯灭:控制卡未开始运行或FW运行异常。

系统错误指示灯

红色

l     亮:系统运行异常。

l     灭:系统运行正常。

 

21.2 功能

裸盘

控制卡可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问硬盘。

控制卡支持同时以虚拟磁盘和裸盘模式使用硬盘。

21.2.1 多种RAID类型

SP686C RAID控制卡支持的硬盘、虚拟磁盘、硬盘组数量分别为:

l     最多支持40个硬盘。

该数量为热备盘,空闲盘,裸盘与加入RAID组的硬盘数量之和。

l     最多支持127个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

l     最多支持40个硬盘组(即配置界面中看到的“RAID Group”),每个硬盘组最多支持40个硬盘。

l     每个硬盘组(即配置界面中看到的“RAID Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

SP686C RAID控制卡支持的RAID类型及对应的硬盘个数如21-3所示。

表21-3 RAID控制卡-硬盘参数

RAID级别

支持硬盘数

支持子组数

子组支持硬盘数

允许坏盘数

RAID 0

130a

不涉及

不涉及

0

RAID 1

2

1

RAID 5

330a

1

RAID 6

430a

2

RAID 10

4~30(偶数)b

215RAID 1

2

子组数

RAID 50

632SSD/640HDDb

28RAID 5

330

子组数

RAID 60

832SSD/840HDDb

28RAID 6

430/32

子组数×2

a:当条带大小设置为1024KB时,RAID 0/5/6支持最大硬盘数量为16

b:当条带大小设置为1024KB时,RAID 10/50/60支持最大硬盘数量为20

 

l     子组数:子RAID的个数。例如RAID 10由两个RAID 1组成,则子组数为2

l     RAID 10RAID 50每个子组中最多允许1个坏盘。

l     RAID 60每个子组中最多允许2个坏盘。

l     RAID105060包含的总硬盘数由子组数和子组支持的硬盘数共同决定。

21.2.2 高速缓存

SP686C RAID控制卡支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:

l     Read:读策略选择“Ahead”模式,控制卡在读取所需数据时,会预读取部分数据放在Cache中,从而提高读取速度。

l     Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,控制卡就向HOST发出数据传输完成的信号。当写入的数据积累到一定程度,控制卡才将数据刷新到硬盘。

21.2.3 初始化

为了保证数据的一致性要求,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。

SP686C RAID提供了多种相应的初始化方式:

l     快速初始化:Firmware只要把VD的前后部分空间进行全写0操作,然后切换为后台初始化。

l     前台初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Formatting”。

l     后台初始化:初始化过程在后台进行,目的是使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。

     对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。

     对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。

l     一致性校验和后台初始化通常会对前台I/O性能造成一定损失,直至该操作完成。

l     一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。

l     前台初始化完成之前不会上报盘符给OS

21.2.4 重构

RAID组中出现故障盘时,可以通过控制卡的数据重构功能,将故障盘中的数据在新盘上重构。

数据重构功能仅适用于具有冗余功能的RAID 151065060

l     控制卡支持热备盘自动重构故障成员盘数据。

l     RAID组配置了可用的热备盘时,在成员盘故障的情况下,热备盘自动替换故障盘,进行数据重构。

l     RAID组没有可用的热备盘时,只有更换新盘后才可进行数据重构。

l     当热备盘开始数据重构后,故障的成员盘就被标注为可移除状态。

l     如果在数据重构过程中系统下电,那么在系统重新启动后,控制卡会继续执行数据重构的任务。

21.2.5 预拷贝

检测到硬盘预失效时,将数据提前拷贝到热备盘上,避免磁盘故障导致RAID组降级,提高系统可靠性。

21.2.6 回拷

具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。

l     不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:

l     RAID组状态保持Optimal不变。

l     热备盘状态由Online变为Hot Spare

l     新加入硬盘状态由Copybacking变为Online

l     可使用命令行工具开启或关闭回拷,具体请参见21.7.2.22 查询和设置控制卡回拷开关

l     若回拷时重启服务器,进度将保存。

21.2.7 一致性校验

针对有冗余功能的RAID 156105060RAID控制卡可以对RAID组的硬盘条带进行一致性校验,对硬盘条带数据进行检验和计算,并与对应的冗余数据进行比较。当自动修复开启时,如果发现有条带不一致的情况,会尝试做自动修复并保存错误信息。

由于RAID 0不具备冗余性,因此不支持一致校验。

RAID组降级时,不支持一致性校验。

21.2.8 硬盘热备

SP686C RAID控制卡的热备功能分为三种:

l     热备盘

l     紧急热备盘

l     热备槽位

设置热备功能请参见0管理热备盘

l     热备盘容量需大于等于成员盘最小容量。

l     机械盘与固态盘不能互相作为热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须是SATA硬盘或SAS硬盘,容量不小于RAID成员盘最小容量。

l     RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

l     热备盘优先级:局部热备>全局热备>热备槽位>紧急热备

热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     global hotspare:即全局热备盘,为控制卡上所有已配置的RAID所共有,1块控制卡中可配置1个或多个全局热备盘。当任意RAID组硬盘故障时,全局热备盘均可自动替代。

l     local hotspare:即局部热备盘,为控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或2个局部热备盘。当指定RAID内的硬盘故障时,局部热备盘可自动替换。

紧急热备

使能控制卡的紧急热备功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该控制卡下的与故障盘同类型的空闲盘会自动进行热备盘替换,避免数据丢失。

l     紧急热备要求用于备份的空闲盘容量大于等于成员盘容量。

l     在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。

l     固件版本1.3.11.8及之前紧急备份的硬盘生效次序:DID号最小的相同介质类型硬盘(包含相同接口和不同接口)。

l     固件版本1.3.11.13及之后紧急备份的硬盘生效次序:DID号最小的相同接口和相同介质类型硬盘 > 不同接口相同介质类型硬盘。

紧急热备有两种情况,对应了两种设置:

l     当成员盘fault时,空闲盘替代成员盘作为紧急备份。

l     当检测到成员盘prefail时,空闲盘作为紧急热备盘替代成员盘。

热备槽位

通过设置热备槽位,热备槽位的硬盘将作为全局热备盘。当任意RAID组硬盘故障时,热备槽位内硬盘均可自动替代。

21.2.9 容量扩展

RAID未占用成员硬盘全部容量时,SP686C RAID可通过调整VD的可用空间,扩大VD容量。

具体操作请参见21.4.5 扩展VD可用容量

21.2.10 数据擦除

控制卡支持安全擦除虚拟磁盘和硬盘数据,支持擦除硬盘数据。

安全擦除数据

安全擦除数据功能需硬盘支持。

安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。

安全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。

控制卡支持安全擦除硬盘和虚拟磁盘数据

l     控制卡提供了三种级别的虚拟磁盘安全擦除模式:

     Simple:仅对虚拟磁盘进行一轮擦除动作。

     Normal:对虚拟磁盘进行三轮擦除动作。

     Thorough:对虚拟磁盘进行九轮擦除动作。

l     控制卡提供了三种级别的硬盘安全擦除模式:

     cryptoerase:执行加密擦除操作。

     overwrite:执行覆盖写0操作。

     blockerase 执行块擦除操作。

擦除硬盘数据

控制卡提供了三种硬盘Erase擦除模式:

l     Simple:仅对硬盘进行一轮擦除动作。

l     Normal:对硬盘进行三轮擦除动作。

l     Thorough:对硬盘进行九轮擦除动作。

21.2.11 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检可根据硬盘I/O调整用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     初始化

l     RAID成员盘(除RAID 0外)支持硬盘巡检。

l     SSD不支持硬盘巡检。

21.2.12 硬盘漫游

一种将硬盘与物理槽位解耦的技术。通过该技术即使硬盘所在槽位发生改变,硬盘中的数据仍能被正确识别。

21.2.13 外部配置

如果控制卡检测到物理硬盘包含RAID配置信息,即识别为外部配置。可执行导入操作将该外部配置在当前控制卡环境中生效,实现RAID配置迁移。

l     建议将RAID组所有硬盘都接入到控制卡下后,再执行导入外来配置。

l     如果RAID组所有硬盘都被拔出,并且不会在当前控制卡下继续使用,建议删除该RAID组。

l     如果RAID组在本控制卡上使用过,然后通过外来配置导入到其它控制卡下使用。当需要再次导入到本控制卡下,需要先删除本控制卡原来残留的对应RAID组,否则可能配置信息冲突。

21.2.14 掉电保护

开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。

为了提升整机的高读写性能和高速缓存中数据的安全,可为SP686C RAID控制卡配置超级电容。

超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将高速缓存中的数据写入超级电容模块中的NAND Flash中。

l     控制卡分为配置超级电容与不配置超级电容两种形态,只有配置超级电容的控制卡支持数据掉电保护功能。

l     超级电容不支持热插拔。

超级电容自学习

控制卡通过三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。

21.2.15 写洞保护

系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况称之为写洞。

将写失败的数据或日志备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:

l     RAID  1RAID 5RAID 6RAID 10RAID 50RAID 60支持写洞保护,写洞日志都保存在掉电保护区,不需要开关控制。

l     RAID 6掉线一块盘时可做写洞保护。

l     RAID 10RAID 50RAID 60部分降级时可做写洞保护,按子组恢复数据。完全降级时不可做写洞保护。

l     不对RAID 0做写洞保护。

21.2.16 SMART扫描

SMART即自动检测分析及报告技术,可以对硬盘内部电路以及盘片表面媒介材料等进行监测,当SMART监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据受到损失。

控制卡支持周期性对其管理的硬盘进行SMART扫描并判断硬盘状态是否正常,默认3600s

21.2.17 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘数据丢失。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为空闲盘后,参考21.4.11 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

21.2.18 慢盘检测

控制卡支持对硬盘进行响应时间统计,对于RAID组下响应时间超出范围的硬盘识别为慢盘。并支持对识别的慢盘,在满足RAID冗余的条件下进行踢盘,避免单个硬盘影响整个RAID组的性能。

l     对识别的慢盘,在满足RAID冗余的条件下进行踢盘,裸盘不会踢盘。

l     对慢盘的识别包含L1/L2/L3三个级别,当慢盘达到L3级别并满足一定条件才会踢盘。

l     踢盘周期内报多个慢盘,超过设置踢盘数量上限后不会踢盘。

l     被踢掉的慢盘会被标记为Fault

设置方法请参见21.7.2.39 查询和设置慢盘检测21.7.2.45 查询和设置慢盘踢盘参数

21.3 初始配置

关于SP686C RAID控制卡的所有配置,都需要重启服务器进入配置界面进行操作。

若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用hiraidadm命令行工具。

进入BIOS配置管理界面

对系统的影响

进入BIOS配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如21-2所示界面时,按“Delete”,进入输入密码界面。

图21-2 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如21-3所示界面。

图21-3 Setup Utility”界面

 

                                步骤 4     可选: 通过“”或“→ ”进入“Advanced”页签,按“↓”至底部,如21-4所示。

图21-4 Advanced”页签

 

                                步骤 5     选择“HUAWEI <SP686C-xxx> Configuration <RAID> - x:x:x ,按“Enter”。

进入SP686C主界面,如21-5所示,界面参数如21-4所示。

图21-5 SP686C主界面

 

表21-4 参数说明

参数

说明

Controller Management

控制卡管理。

Virtual Drive Management

虚拟磁盘管理。

Physical Drive Management

物理硬盘管理。

Hardware Components

硬件组件管理。

 

----结束

21.3.2 创建RAID 0

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     SP686C RAID控制卡支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同介质类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     不支持使用SED盘创建RAID组。

l     RAID级别所需的硬盘数请参见21.2.1 多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见21.4.7 设置硬盘属性

操作步骤

登录管理界面。具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     21-5中选择“Virtual Drive Management”并按“Enter”,进入21-6界面。

图21-6 Virtual Drive Management

 

2.     选择“Create Virtual Drive”并按“Enter”。

进入RAID配置界面,如21-7所示,参数说明如21-5所示。

图21-7 Create Virtual Drive

 

表21-5 参数说明

参数

参数说明

RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     RAID GroupRAID组。

l     Free Drives:未加入过虚拟磁盘的空闲硬盘。

Select Drives

选择成员盘。

Name

虚拟磁盘名称。

Capacity Size

虚拟磁盘的容量。

默认值为max_left(最大容量)。

Select Capacity Unit

容量单位。包括:

l     MB

l     GB

l     TB

Initialize Type

初始化类型。包括:

l     Fast:快速初始化

l     Front:前台初始化

l     Background:后台初始化。

Strip Unit Size

虚拟磁盘条带大小。支持32KB64KB128KB256KB512KB1024KB

l     HDD默认条带大小为256KB

l     SSD默认条带大小为64KB

Write Cache

虚拟磁盘的Cache写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Write Back Enforce:在控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Through

说明

l     “Write Back Enforce”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

Read Cache

虚拟磁盘的Cache读策略。可配置的策略包括:

l     No Ahead:关闭预读取功能。

l     Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为No Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Ahead”性能更优。

PD Cache

物理硬盘Cache写策略(仅对有Cache的硬盘有效):

l     On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

l     Default:保持硬盘当前Cache配置。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID0”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

进入添加成员盘的界面,如21-8所示。

图21-8 Select Drives

 

2.     通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

硬盘状态为“×”时表示该硬盘已选择。

3.     通过“↑”、“↓”选择“Apply Changes”,并按“Enter”返回上级界面。

                                步骤 4     按照21-5所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Capacity Size”参数请按实际要求设置,创建第一个VD后,再参照21.4.2 创建多个VD章节增加其他VD

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

4.     按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     返回至21-6界面。

2.     选择“View Virtual Drives”并按“Enter”。

显示当前存在的VD信息。

----结束

21.3.3 创建RAID 1

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     SP686C RAID控制卡支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同介质类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     不支持使用SED盘创建RAID组。

l     RAID级别所需的硬盘数请参见21.2.1 多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见21.4.7 设置硬盘属性

操作步骤

登录管理界面。具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     21-5中选择“Virtual Drive Management”并按“Enter”,进入21-9界面。

图21-9 Virtual Drive Management

 

2.     选择“Create Virtual Drive”并按“Enter”。

进入RAID配置界面,如21-10所示,参数说明如21-6所示。

图21-10 Create Virtual Drive

 

表21-6 参数说明

参数

参数说明

RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     RAID GroupRAID组。

l     Free Drives:未加入过虚拟磁盘的空闲硬盘。

Select Drives

选择成员盘。

Name

虚拟磁盘名称。

Capacity Size

虚拟磁盘的容量。

默认值为max_left(最大容量)。

Select Capacity Unit

容量单位。包括:

l     MB

l     GB

l     TB

Initialize Type

初始化类型。包括:

l     Fast:快速初始化

l     Front:前台初始化

l     Background:后台初始化。

Strip Unit Size

虚拟磁盘条带大小。支持32KB64KB128KB256KB512KB1024KB

l     HDD默认条带大小为256KB

l     SSD默认条带大小为64KB

Write Cache

虚拟磁盘的Cache写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Write Back Enforce:在控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Through

说明

l     “Write Back Enforce”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

Read Cache

虚拟磁盘的Cache读策略。可配置的策略包括:

l     No Ahead:关闭预读取功能。

l     Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为No Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Ahead”性能更优。

PD Cache

物理硬盘Cache写策略(仅对有Cache的硬盘有效):

l     On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

l     Default:保持硬盘当前Cache配置。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID1”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

进入添加成员盘的界面,如21-11所示。

图21-11 Select Drives

 

2.     通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

硬盘状态为“×”时表示该硬盘已选择。

3.     通过“↑”、“↓”选择“Apply Changes”,并按“Enter”返回上级界面。

                                步骤 4     按照21-6所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Capacity Size”参数请按实际要求设置,创建第一个VD后,再参照21.4.2 创建多个VD章节增加其他VD

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

4.     按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     返回至21-6界面。

2.     选择“View Virtual Drives”并按“Enter”。

显示当前存在的VD信息。

----结束

21.3.4 创建RAID 5

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     SP686C RAID控制卡支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同介质类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     不支持使用SED盘创建RAID组。

l     RAID级别所需的硬盘数请参见21.2.1 多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见21.4.7 设置硬盘属性

操作步骤

登录管理界面。具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     21-5中选择“Virtual Drive Management”并按“Enter”,进入21-12界面。

图21-12 Virtual Drive Management

 

2.     选择“Create Virtual Drive”并按“Enter”。

进入RAID配置界面,如21-13所示,参数说明如21-7所示。

图21-13 Create Virtual Drive

 

表21-7 参数说明

参数

参数说明

RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     RAID GroupRAID组。

l     Free Drives:未加入过虚拟磁盘的空闲硬盘。

Select Drives

选择成员盘。

Name

虚拟磁盘名称。

Capacity Size

虚拟磁盘的容量。

默认值为max_left(最大容量)。

Select Capacity Unit

容量单位。包括:

l     MB

l     GB

l     TB

Initialize Type

初始化类型。包括:

l     Fast:快速初始化

l     Front:前台初始化

l     Background:后台初始化。

Strip Unit Size

虚拟磁盘条带大小。支持32KB64KB128KB256KB512KB1024KB

l     HDD默认条带大小为256KB

l     SSD默认条带大小为64KB

Write Cache

虚拟磁盘的Cache写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Write Back Enforce:在控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Through

说明

l     “Write Back Enforce”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

Read Cache

虚拟磁盘的Cache读策略。可配置的策略包括:

l     No Ahead:关闭预读取功能。

l     Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为No Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Ahead”性能更优。

PD Cache

物理硬盘Cache写策略(仅对有Cache的硬盘有效):

l     On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

l     Default:保持硬盘当前Cache配置。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID5”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

进入添加成员盘的界面,如21-14所示。

图21-14 Select Drives

 

2.     通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

硬盘状态为“×”时表示该硬盘已选择。

3.     通过“↑”、“↓”选择“Apply Changes”,并按“Enter”返回上级界面。

                                步骤 4     按照21-7所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Capacity Size”参数请按实际要求设置,创建第一个VD后,再参照21.4.2 创建多个VD章节增加其他VD

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

4.     按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     返回至21-6界面。

2.     选择“View Virtual Drives”并按“Enter”。

显示当前存在的VD信息。

----结束

21.3.5 创建RAID 6

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     SP686C RAID控制卡支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同介质类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     不支持使用SED盘创建RAID组。

l     RAID级别所需的硬盘数请参见21.2.1 多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见21.4.7 设置硬盘属性

操作步骤

登录管理界面。具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     21-5中选择“Virtual Drive Management”并按“Enter”,进入21-15界面。

图21-15 Virtual Drive Management

 

2.     打开RAID配置界面,如21-16所示,参数说明如21-8所示。

图21-16 Create Virtual Drive

 

表21-8 参数说明

参数

参数说明

RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     RAID GroupRAID组。

l     Free Drives:未加入过虚拟磁盘的空闲硬盘。

Select Drives

选择成员盘。

Name

虚拟磁盘名称。

Capacity Size

虚拟磁盘的容量。

默认值为max_left(最大容量)。

Select Capacity Unit

容量单位。包括:

l     MB

l     GB

l     TB

Initialize Type

初始化类型。包括:

l     Fast:快速初始化

l     Front:前台初始化

l     Background:后台初始化。

Strip Unit Size

虚拟磁盘条带大小。支持32KB64KB128KB256KB512KB1024KB

l     HDD默认条带大小为256KB

l     SSD默认条带大小为64KB

Write Cache

虚拟磁盘的Cache写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Write Back Enforce:在控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Through

说明

l     “Write Back Enforce”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

Read Cache

虚拟磁盘的Cache读策略。可配置的策略包括:

l     No Ahead:关闭预读取功能。

l     Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为No Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Ahead”性能更优。

PD Cache

物理硬盘Cache写策略(仅对有Cache的硬盘有效):

l     On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

l     Default:保持硬盘当前Cache配置。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 6”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

进入添加成员盘的界面,如21-17所示。

图21-17 Select Drives

 

2.     通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

硬盘状态为“×”时表示该硬盘已选择。

3.     通过“↑”、“↓”选择“Apply Changes”,并按“Enter”返回上级界面。

                                步骤 4     按照21-8所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Capacity Size”参数请按实际要求设置,创建第一个VD后,再参照21.4.2 创建多个VD章节增加其他VD

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

4.     按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     返回至21-6界面。

2.     选择“View Virtual Drives”并按“Enter”。

显示当前存在的VD信息。

----结束

21.3.6 创建RAID 10

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     SP686C RAID控制卡支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同介质类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     不支持使用SED盘创建RAID组。

l     RAID级别所需的硬盘数请参见21.2.1 多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见21.4.7 设置硬盘属性

操作步骤

登录管理界面。具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     21-5中选择“Virtual Drive Management”并按“Enter”,进入21-18界面。

图21-18 Virtual Drive Management

 

2.     选择“Create Virtual Drive”并按“Enter”。

进入RAID配置界面,如21-19所示,参数说明如21-9所示。

图21-19 Create Virtual Drive

 

表21-9 参数说明

参数

参数说明

RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     RAID GroupRAID组。

l     Free Drives:未加入过虚拟磁盘的空闲硬盘。

Select Drives

选择成员盘。

Name

虚拟磁盘名称。

Capacity Size

虚拟磁盘的容量。

默认值为max_left(最大容量)。

Select Capacity Unit

容量单位。包括:

l     MB

l     GB

l     TB

Initialize Type

初始化类型。包括:

l     Fast:快速初始化

l     Front:前台初始化

l     Background:后台初始化。

Strip Unit Size

虚拟磁盘条带大小。支持32KB64KB128KB256KB512KB1024KB

l     HDD默认条带大小为256KB

l     SSD默认条带大小为64KB

Write Cache

虚拟磁盘的Cache写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Write Back Enforce:在控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Through

说明

l     “Write Back Enforce”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

Read Cache

虚拟磁盘的Cache读策略。可配置的策略包括:

l     No Ahead:关闭预读取功能。

l     Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为No Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Ahead”性能更优。

PD Cache

物理硬盘Cache写策略(仅对有Cache的硬盘有效):

l     On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

l     Default:保持硬盘当前Cache配置。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID10”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

进入添加成员盘的界面,如21-20所示。

图21-20 Select Drives

 

2.     通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

硬盘状态为“×”时表示该硬盘已选择。

3.     通过“↑”、“↓”选择“Apply Changes”,并按“Enter”返回上级界面。

                                步骤 4     按照21-9所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Capacity Size”参数请按实际要求设置,创建第一个VD后,再参照21.4.2 创建多个VD章节增加其他VD

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

4.     按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     返回至21-6界面。

2.     选择“View Virtual Drives”并按“Enter”。

显示当前存在的VD信息。

----结束

21.3.7 创建RAID 50

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     SP686C RAID控制卡支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同介质类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     不支持使用SED盘创建RAID组。

l     RAID级别所需的硬盘数请参见21.2.1 多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见21.4.7 设置硬盘属性

操作步骤

登录管理界面。具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     21-5中选择“Virtual Drive Management”并按“Enter”,进入21-21界面。

图21-21 Virtual Drive Management

 

2.     选择“Create Virtual Drive”并按“Enter”。

进入RAID配置界面,如21-22所示,参数说明如21-10所示。

图21-22 Create Virtual Drive

 

表21-10 参数说明

参数

参数说明

RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     RAID GroupRAID组。

l     Free Drives:未加入过虚拟磁盘的空闲硬盘。

Select Subgroups Number

选择子组数量。

Select Drives

选择成员盘。

Name

虚拟磁盘名称。

Capacity Size

虚拟磁盘的容量。

默认值为max_left(最大容量)。

Select Capacity Unit

容量单位。包括:

l     MB

l     GB

l     TB

Initialize Type

初始化类型。包括:

l     Fast:快速初始化

l     Front:前台初始化

l     Background:后台初始化。

Strip Unit Size

虚拟磁盘条带大小。支持32KB64KB128KB256KB512KB1024KB

l     HDD默认条带大小为256KB

l     SSD默认条带大小为64KB

Write Cache

虚拟磁盘的Cache写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Write Back Enforce:在控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Through

说明

l     “Write Back Enforce”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

Read Cache

虚拟磁盘的Cache读策略。可配置的策略包括:

l     No Ahead:关闭预读取功能。

l     Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为No Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Ahead”性能更优。

PD Cache

物理硬盘Cache写策略(仅对有Cache的硬盘有效):

l     On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

l     Default:保持硬盘当前Cache配置。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID50”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

进入添加成员盘的界面,如21-23所示。

图21-23 Select Drives

 

2.     通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

硬盘状态为“×”时表示该硬盘已选择。

3.     通过“↑”、“↓”选择“Apply Changes”,并按“Enter”返回上级界面。

                                步骤 4     按照21-10所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Capacity Size”参数请按实际要求设置,创建第一个VD后,再参照21.4.2 创建多个VD章节增加其他VD

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“The current operation has been executed successfully.Press ENTER to continue ...”。

4.     按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     返回至21-6界面。

2.     选择“View Virtual Drives”并按“Enter”。

显示当前存在的VD信息。

----结束

21.3.8 创建RAID 60

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     SP686C RAID控制卡支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同介质类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     不支持使用SED盘创建RAID组。

l     RAID级别所需的硬盘数请参见21.2.1 多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见21.4.7 设置硬盘属性

操作步骤

登录管理界面。具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     21-5中选择“Virtual Drive Management”并按“Enter”,进入21-24界面。

图21-24 Virtual Drive Management

 

2.     选择“Create Virtual Drive”并按“Enter”。

进入RAID配置界面,如21-25所示,参数说明如21-11所示。

图21-25 Create Virtual Drive

 

表21-11 参数说明

参数

参数说明

RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     RAID GroupRAID组。

l     Free Drives:未加入过虚拟磁盘的空闲硬盘。

Select Subgroups Number

选择子组数量。

Select Drives

选择成员盘。

Name

虚拟磁盘名称。

Capacity Size

虚拟磁盘的容量。

默认值为max_left(最大容量)。

Select Capacity Unit

容量单位。包括:

l     MB

l     GB

l     TB

Initialize Type

初始化类型。包括:

l     Fast:快速初始化

l     Front:前台初始化

l     Background:后台初始化。

Strip Unit Size

虚拟磁盘条带大小。支持32KB64KB128KB256KB512KB1024KB

l     HDD默认条带大小为256KB

l     SSD默认条带大小为64KB

Write Cache

虚拟磁盘的Cache写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Write Back Enforce:在控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Through

说明

l     “Write Back Enforce”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

Read Cache

虚拟磁盘的Cache读策略。可配置的策略包括:

l     No Ahead:关闭预读取功能。

l     Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为No Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Ahead”性能更优。

PD Cache

物理硬盘Cache写策略(仅对有Cache的硬盘有效):

l     On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

l     Default:保持硬盘当前Cache配置。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID60”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

进入添加成员盘的界面,如21-26所示。

图21-26 Select Drives

 

2.     通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

硬盘状态为“×”时表示该硬盘已选择。

3.     通过“↑”、“↓”选择“Apply Changes”,并按“Enter”返回上级界面。

                                步骤 4     按照21-11所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Capacity Size”参数请按实际要求设置,创建第一个VD后,再参照21.4.2 创建多个VD章节增加其他VD

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“The current operation has been executed successfully.Press ENTER to continue ...”。

4.     按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     返回至21-6界面。

2.     选择“View Virtual Drives”并按“Enter”。

显示当前存在的VD信息。

----结束

21.3.9 配置启动项

设置控制卡启动项

操作场景

您可以通过此操作设置控制卡启动项。

OS下用命令行工具设置启动项,请参见21.7.3.68 设置虚拟磁盘为默认启动项21.7.4.90 设置硬盘为默认启动项

操作步骤

登录管理界面。具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     在主界面选择“Controller Management”并按“Enter”。

进入“Controller Management”界面。如21-27所示。

图21-27 Controller Management

 

                                步骤 2     通过“↑”、“↓”选择“Select Boot Device”并按“Enter”。

显示可设置为启动项的硬盘或虚拟磁盘。

仅在裸盘模式开启时,可设置硬盘为启动项。

                                步骤 3     选择需配置为启动项的硬盘或虚拟磁盘,按“Enter”完成配置。

----结束

21.3.9.2 设置服务器启动项

当一台服务器配置了单张控制卡时,控制卡下的启动项即为该服务器的启动项,具体设置方法请参见0设置控制卡启动项

同一台服务器配置了多张控制卡时,EFI/UEFI模式下的系统启动盘需要在BIOS中进行设置。

设置启动项的操作方法请参见BIOS参数参考的“设置启动设备”章节。

21.4 常用配置

管理热备盘

设置全局热备盘

操作场景

您可以通过此操作设置硬盘为全局热备盘。

操作步骤

登录管理界面。具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     进入硬盘设置界面。

1.     选择“Physical Drive Management”并按“Enter”。

显示物理硬盘列表。

2.     选择要操作的硬盘并按“Enter”。

进入硬盘设置界面。如21-28所示。

图21-28 Drive Management

 

                                步骤 2     将“Operation”设置为“Assign Global Hot Spare Drive”,按“Enter”确认。

                                步骤 3     确认操作。

1.     选择“Perform Operation”并按“Enter”。

进入操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

4.     按“Enter”完成配置。

----结束

21.4.1.3 设置局部热备盘

操作场景

您可以通过此操作设置物理硬盘为局部热备盘。

需控制卡下存在RAID时才可配置局部热备盘,未配置RAID时无配置局部热备盘选项。

操作步骤

登录管理界面。具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     进入硬盘设置界面。

1.     选择“Physical Drive Management”并按“Enter”。

显示物理硬盘列表。

2.     选择要操作的硬盘并按“Enter”。

进入硬盘设置界面。如21-29所示。

图21-29 Drive Management

 

                                步骤 2     将“Operation”设置为“Assign Local Hot Spare Drive”,按“Enter”确认。如21-30所示。

图21-30 设置局部热备盘

 

                                步骤 3     将“Select RAID Group”选择为目标RAID组。

设置为局部热备盘的硬盘容量需大于目标RAID组最小成员盘容量。

                                步骤 4     确认操作。

1.     选择“Perform Operation”并按“Enter”。

进入操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

4.     按“Enter”完成配置。

----结束

21.4.1.4 删除热备盘

操作场景

您可以通过此操作取消硬盘作为全局热备盘或局部热备盘,恢复硬盘为空闲状态。

操作步骤

登录管理界面。具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     进入硬盘设置界面。

1.     选择“Physical Drive Management”并按“Enter”。

显示物理硬盘列表。

2.     选择要操作的硬盘并按“Enter”。

进入硬盘设置界面。如21-31所示。

图21-31 Drive Management

 

                                步骤 2     将“Operation”设置为“Set Drive Free”,按“Enter”确认。

                                步骤 3     确认操作。

1.     选择“Perform Operation”并按“Enter”。

进入操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

4.     按“Enter”完成配置。

----结束

21.4.1.5 设置热备槽位

操作场景

您可以通过此操作设置硬盘所在槽位为热备槽位或取消热备槽位。

操作步骤

登录管理界面。具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     进入硬盘设置界面。

1.     选择“Physical Drive Management”并按“Enter”。

显示物理硬盘列表。

2.     选择要操作的硬盘并按“Enter”。

进入硬盘设置界面。如21-32所示。

图21-32 Drive Management

 

                                步骤 2     将“Operation”设置为热备槽位相关操作。

l     Assign Hot Spare Slot:设置硬盘所在槽位为热备槽位。

l     Unassign Hot Spare Slot:取消此热备槽位并恢复硬盘为空闲状态。

                                步骤 3     确认操作。

1.     选择“Perform Operation”并按“Enter”。

进入操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

4.     按“Enter”完成配置。

----结束

21.4.1.6 设置紧急热备开关

操作场景

您可以通过此操作设置控制卡紧急热备开关状态。

操作步骤

登录管理界面。具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     按照顺序“Controller Management > Advanced Controller Properties > Set Controller Properties”进入“Set Controller Properties”界面,如21-33所示。

图21-33 Set Controller Properties

 

                                步骤 2     选择“EHSP Switch”并按“Enter”,设置紧急热备开关状态。

l     On:开启紧急热备。

l     Off:关闭紧急热备。

                                步骤 3     确认操作。

1.     选择“Save Changes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”。

2.     按“Enter”完成配置。

----结束

21.4.2 创建多个VD

操作场景

控制卡内已存在RAID组,且RAID组的成员盘存在空闲容量,可使用空闲容量创建多个VD

以控制卡内存在一个RAID1为例,如21-34所示。

图21-34 View Virtual Drives

 

操作步骤

登录管理界面。具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     在主界面选择“Virtual Drive Management > Create Virtual Drive”并按“Enter”。

进入“Create Virtual Drive”界面,如21-35所示。

图21-35 Create Virtual Drive

 

                                步骤 2     设置“Select Drives From”为“RAID Group”。

Create Virtual Drive”界面刷新如21-36所示,参数说明21-12所示。

图21-36 创建多个VD界面

 

表21-12 参数说明

参数

参数说明

RAID Level

选择RAID级别。

Select Drives From”选择“RAID Group”时,根据所选RAID组级别自动设置。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     RAID GroupRAID组,创建多个VD时选择此项。

l     Free Drives:未加入过虚拟磁盘的空闲硬盘。

Select RAID Group

选择成员盘。

Name

虚拟磁盘名称。

Capacity Size

虚拟磁盘的容量。

默认值为max_left(最大容量)。

Select Capacity Unit

容量单位。包括:

l     MB

l     GB

l     TB

Initialize Type

初始化类型。包括:

l     Fast:快速初始化

l     Front:前台初始化

l     Background:后台初始化。

Strip Unit Size

虚拟磁盘条带大小。支持32KB64KB128KB256KB512KB1024KB

l     HDD默认条带大小为256KB

l     SSD默认条带大小为64KB

Write Cache

虚拟磁盘的Cache写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Write Back Enforce:在控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Through

说明

l     “Write Back Enforce”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

Read Cache

虚拟磁盘的Cache读策略。可配置的策略包括:

l     No Ahead:关闭预读取功能。

l     Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为No Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Ahead”性能更优。

PD Cache

物理硬盘Cache写策略(仅对有Cache的硬盘有效):

l     On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

l     Default:保持硬盘当前Cache配置。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID组。

1.     选择“Select RAID Group”并按“Enter”。

显示当前存在的RAID,如21-37所示。

图21-37 Select RAID Group

 

2.     选择要创建多个VDRAID,并按“Enter”确认。

3.     选择“Apply Changes”并按“Enter”。

返回RAID配置界面

                                步骤 4     按照21-12所述配置VD的相关属性。

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

4.     按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     返回至21-6界面。

2.     选择“View Virtual Drives”并按“Enter”。

显示当前存在的VD信息。

----结束

每个RAID组最多支持创建16VD,如需要继续创建VD,请重复执行步骤1~步骤6

21.4.3 删除VD

操作场景

 

VD被删除后无法进行恢复,请谨慎执行删除VD操作。

操作步骤

登录管理界面。具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     进入“Virtual Drive Information”界面。

1.     21-5选择“Virtual Drive Management”并按“Enter”。

2.     选择“View Virtual Drives”并按“Enter”。

3.     选定要操作的VD并按“Enter”进入“Virtual Drive Information”界面,如21-38所示。

图21-38 Virtual Drive Information

 

                                步骤 2     将“Operation”设置为“Delete Virtual Drive”。

                                步骤 3     确认操作。

1.     选择“Perform Operation”并按“Enter”。

进入操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

4.     按“Enter”完成配置。

----结束

21.4.4 安全擦除VD数据

操作场景

您可以通过该操作安全擦除VD数据。

擦除时如果RAID组为降级状态,针对RAID组中故障盘数据不会被写入,需要单独处理该故障盘。

操作步骤

登录管理界面。具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     进入“Virtual Drive Information”界面。

1.     21-5选择“Virtual Drive Management”并按“Enter”。

2.     选择“View Virtual Drives”并按“Enter”。

3.     选定要操作的VD并按“Enter”进入“Virtual Drive Information”界面,如21-39所示。

图21-39 Virtual Drive Information

 

                                步骤 2     安全擦除VD数据。

将“Operation”设置为“Sanitize Virtual Drive”并按“Enter”。如21-40所示。

图21-40 Virtual Drive Information

 

                                步骤 3     选择擦除模式。

选择“Sanitize Mode”并按“Enter”。有以下三种擦除模式。

l     Simple:仅对虚拟磁盘进行一轮擦除动作。

l     Normal:对虚拟磁盘进行三轮擦除动作。

l     Thorough:对虚拟磁盘进行九轮擦除动作。

选择完成后按“Enter”确认。

                                步骤 4     确认操作。

1.     选择“Perform Operation”并按“Enter”。

进入操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

4.     按“Enter”完成配置。

                                步骤 5     查看擦除进度。

重新进入VD操作界面,可查看擦除进度,如21-41所示。

图21-41 查看擦除进度

 

选择“Stop Sanitize”并按”Enter”可中止擦除。

----结束

21.4.5 扩展VD可用容量

操作场景

VD未占用成员硬盘全部容量时,可通过调整成员盘可用空间,扩大VD容量。

操作步骤

登录管理界面。具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     进入“Virtual Drive Information”界面。

1.     21-5选择“Virtual Drive Management”并按“Enter”。

2.     选择“View Virtual Drives”并按“Enter”。

3.     选定要操作的VD并按“Enter”进入“Virtual Drive Information”界面,如21-42所示。

图21-42 Virtual Drive Information

 

                                步骤 2     扩展VD可用容量。

1.     将“Operation”设置为“Expand Virtual Drive”。

2.     选择“Perform Operation”并按“Enter”。

进入“Expand Virtual Drive”界面,如21-43所示。

图21-43 Expand Virtual Drive

 

3.     选择“Expand Capacity”并按“Enter”。

在“Please type in your data”界面输入需要扩容的容量大小,默认为max_left使用成员盘最大剩余容量。

图21-44 Please type in your data

 

4.     选择“Select Capacity Unit”并按“Enter”。

选择扩容的容量单位,按“Enter”确认。

5.     选择“Confirm”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

6.     按“Enter”完成配置。

----结束

21.4.6 设置裸盘模式

l     开启裸盘模式后,已经配置为虚拟磁盘或热备盘的硬盘状态保持不变,其余未配置的硬盘变为裸盘。

l     若开启裸盘模式后需将裸盘配置为虚拟磁盘来使用,则需要先将裸盘状态的硬盘设置为空闲盘,具体操作请参见21.4.7 设置硬盘属性

l     裸盘模式开启后,需设置单盘裸盘状态请参见21.4.7 设置硬盘属性

登录管理界面。具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     在主界面选择“Physical Drive Management”并按“Enter”。

进入“Physical Drive Management”界面,如21-45所示。

图21-45 Physical Drive Management

 

                                步骤 2     选择“Set Card Raw Drive”并按“Enter”。

                                步骤 3     选择是否开启裸盘模式并按“Enter”确认。

l     Raw Drive On:开启裸盘模式

l     Raw Drive Off:关闭裸盘模式

                                步骤 4     选择“Save Raw Drive Status”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

                                步骤 5     按“Enter”完成配置。

----结束

21.4.7 设置硬盘属性

操作场景

您可以通过此操作完成以下设置:

l     物理硬盘点灯。

l     设置物理硬盘Cache状态。

l     设置物理硬盘为裸盘(仅裸盘模式开启时可用)。

操作步骤

登录管理界面,具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     进入硬盘设置界面。

1.     选择“Physical Drive Management”并按“Enter”。

显示物理硬盘列表。

2.     选择要操作的硬盘并按“Enter”。

进入硬盘设置界面。如21-46所示。

图21-46 Drive Management

 

                                步骤 2     设置硬盘操作。

1.     选择“Operation”,设置需对硬盘进行的操作,按“Enter”确认。

     Start Locate:点亮硬盘定位指示灯

     Stop Locate:熄灭硬盘定位指示灯

     Drive Cache On:开启硬盘Cache

     Drive Cache Off:关闭硬盘Cache

     Set Drive Free:设置硬盘为空闲盘(仅裸盘模式开启时可用)

     Set Raw Drive On:设置硬盘为裸盘(仅裸盘模式开启时可用)

                                步骤 3     确认操作。

1.     选择“Perform Operation”并按“Enter”。

进入操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

4.     按“Enter”完成配置。

----结束

21.4.8 擦除硬盘数据

操作场景

您可以通过此操作擦除硬盘数据。

操作步骤

登录管理界面。具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     进入硬盘设置界面。

1.     选择“Physical Drive Management”并按“Enter”。

显示物理硬盘列表。

2.     选择要操作的硬盘并按“Enter”。

进入硬盘设置界面。如21-47所示。

图21-47 Drive Management

 

                                步骤 2     设置擦除方式。

l     Sanitize擦除硬盘数据,如21-48所示。

图21-48 Sanitize擦除硬盘数据

 

a.     Operation”选择“Start Sanitize”。

b.     选择“Sanitize Mode”,设置擦除模式。

n     Overwrite:执行覆盖写0操作。

n     Blockerase 执行块擦除操作。

n     Cryptoerase:执行加密擦除操作。

l     Erase擦除硬盘数据,如21-49所示。

图21-49 Erase擦除硬盘数据

 

a.     Operation”选择“Start Erase”。

b.     选择“Erase Mode”,设置擦除模式。

n     Simple:仅对硬盘进行一轮擦除动作。

n     Normal:对硬盘进行三轮擦除动作。

n     Thorough:对硬盘进行九轮擦除动作。

                                步骤 3     确认操作。

1.     选择“Perform Operation”并按“Enter”。

进入操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

4.     按“Enter”完成配置。

                                步骤 4     进入对应硬盘操作界面可查看擦除进度,如21-50所示。

图21-50 查看擦除进度

 

----结束

21.4.9 查看控制卡属性

操作场景

用户可以通过查看控制卡属性的方式确定当前控制卡是否符合实际需求。

操作步骤

登录管理界面,具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     在主界面选择“Controller Management”并按“Enter”。

进入“Controller Management”界面。如21-51所示,参数说明如21-13所示。

图21-51 Controller Management

 

表21-13 参数说明

参数

参数说明

Product Name

产品名称。

Chip Name

芯片名称。

Board SN

控制卡序列号。

Firmware Version

控制卡固件版本。

Chip Version

控制卡芯片版本。

Board PCB Version

控制卡的PCB板版本。

PCI ID

控制卡的PCI ID

PCI BDF Number

控制卡的BDFBusDeviceFunction)号。

Port Config Mode

端口配置模式。

Drive Count

控制卡挂载的物理硬盘数量。

Virtual Drive Count

控制卡下已有的虚拟磁盘数量。

Select Boot Device

选择启动盘。

Advanced Controller Properties

查看控制卡高级属性。

Reset Default Configuration

恢复默认设置。

 

                                步骤 2     查看控制卡高级属性。

选择“Advanced Controller Properties”并按“Enter”。

进入控制卡高级属性界面,如21-5221-53所示,参数说明如21-14所示。

图21-52 Advanced Controller Properties”(1

 

图21-53 Advanced Controller Properties”(2

 

表21-14 参数说明

参数

说明

Set Controller Properties

设置控制卡属性。

Supported Drives Number Of RAID Group

支持的RAID组数量。

Chip DDR Information

芯片DDRDouble Data Rate)信息。

DDR Channel

通道数量。

DDR Size

DDR容量。

DDR Number

DDR数量。

DDR Total Size

DDR总容量。

Max Supported Drives Number

最大支持硬盘数量。

HDDs

最大支持硬盘数量(HDD)。

SSDs

最大支持硬盘数量(SSD)。

Controller Supported Capabilities

单板支持能力。

Max VD Number

最大支持虚拟磁盘数量。

Max PD Number

最大支持物理硬盘数量。

Supported RAID Levels

支持的RAID级别。

 

----结束

21.4.10 查询控制卡固件版本

查询控制卡固件版本的方法有如下几种:

l     iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。

l     服务器启动完成后,在OS下通过控制卡命令行工具进行查询,具体操作请参见21.7.2.50 查询固件详细版本

l     在控制卡管理界面进行查询,具体方法为:

a.     登录控制卡的管理界面,具体操作请参见0进入BIOS配置管理界面

b.     在主界面中选择“Controller Management”并按“Enter”。如21-54所示。

界面中的“Firmware Version”即为控制卡的固件版本。

图21-54 Controller Management

 

21.4.11 导入和清除外部配置

操作场景

l     服务器更换控制卡或插拔RAID成员盘后,需要将原有配置导入新的控制卡中。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。

 

l     如服务器已配置RAID,在更换新控制卡或插拔RAID成员盘后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!

l     为避免导入外部配置失败,更换的控制卡的型号要与原来的控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

l     同时导入多个外部配置时,部分成功也将提示外部配置导入成功。

导入外部配置

登录管理界面。具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     在主界面选择“Virtual Drive Management >  Manage Foreign Configurations”并按“Enter”。

进入外部配置设置界面,如21-55所示。

图21-55 Manage Foreign Configurations

 

                                步骤 2     选择要导入的外部配置,并按“Enter”确认。

状态为“×”时表示该外部配置已选择。

                                步骤 3     选择“Import Foreign Configurations”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”表示操作成功。

                                步骤 4     按“Enter”完成配置。

----结束

清除外部配置

登录管理界面。具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     在主界面选择“Virtual Drive Management >  Manage Foreign Configurations”并按“Enter”。

进入外部配置设置界面,如21-56所示。

图21-56 Manage Foreign Configurations

 

                                步骤 2     选择要清除的外部配置,并按“Enter”确认。

状态为“×”时表示该外部配置已选择。

                                步骤 3     选择“Clear Foreign Configurations”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”表示操作成功。

                                步骤 4     按“Enter”完成配置。

----结束

21.5 故障处理

介绍了硬盘故障、控制卡故障、电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

硬盘故障

 

服务器下电后拔出RAID组所有成员盘,被拔出的硬盘Fault指示灯将点亮,RAID信息将保留。

删除RAID组无法恢复硬盘Fault指示灯,需通过以下操作恢复:

l     重新插入硬盘。

l     关闭Phy后再重新开启,具体操作请参见21.7.4.77 设置phy口状态

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

确认故障硬盘槽位。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过控制卡GUI界面确认故障硬盘槽位信息,参考21.6.3 Physical Drive Management

l     通过控制卡命令行工具确认故障硬盘槽位信息,参考21.7.2.24 查询控制卡硬盘列表

                                步骤 1     更换新硬盘。

 

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板导致,则可以将硬盘设置为Unconfigured Good后,参考21.4.11 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在21-3查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒再插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0

     UEFI模式下创建RAID0的方法请参见21.3.2 创建RAID 0

     通过命令行方式创建RAID0的方法请参见21.7.2.25 创建虚拟磁盘

----结束

21.5.2 电容故障

问题描述

当控制卡电容故障时,可能导致服务器出现如下情况:

l     服务器读写速度显著降低。

l     控制卡的BIOS配置界面中显示电容状态异常。

处理方法

确认当前使用的控制卡是否配置电容。

l      => 步骤2

l      => 步骤7

                                步骤 1     进入控制卡的BIOS配置界面,查看电容状态是否为“OK”。

电容状态可查看21.6.4 Hardware Components界面的“Supercapacitor”选项。

l      => 处理完毕

l      => 步骤3

                                步骤 2     将服务器下电,打开机箱,并查看控制卡电容是否在位。

l      => 步骤5

l      => 步骤4

                                步骤 3     检查整机配置,为服务器安装电容,查看电容状态是否为“OK”。

l      => 处理完毕

l      => 步骤7

                                步骤 4     重新安装控制卡电容,查看电容状态是否为“OK”。

l      => 处理完毕

l      => 步骤6

                                步骤 5     更换控制卡电容,查看电容状态是否为“OK”,且“问题描述”所述的异常状态是否消失。

l      => 处理完毕

l      => 步骤7

                                步骤 6     联系技术支持处理。

----结束

21.5.3 控制卡故障

问题描述

当服务器出现如下现象时,说明控制卡故障。

l     数据无法写入控制卡控制的硬盘。

l     服务器上报控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     查询兼容性查询助手或者联系技术支持处理。

----结束

21.5.4 UEFI下控制卡故障

SP686C RAID控制卡出现故障后,Option ROM提供Driver Health功能,用于在BIOS界面显示及修复相关故障,当前支持故障种类包括5大类:

l     Bad Card:控制卡存在不可恢复故障。

l     Restore Data:控制卡可能存在数据不一致,可选择恢复或丢弃数据。

l     Drop Data:控制卡存在不可恢复数据,只能丢弃数据后重启。

l     Write Hole:系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。

l     Pinned CacheLUN失效时,cache中无法下发的脏数据。可以选择保留或删除。

问题描述

l     21-57所示,系统加载Option ROM时将检测到控制卡异常,提示“RAID controller is in an unhealthy state, Repair it in BIOS Setup Utility”。

图21-57 异常提示

 

l     进入SP686C主界面,将出现修复提示,如21-58所示。

图21-58 SP686C主界面

 

处理方法

登录管理界面。具体操作方法请参见0进入BIOS配置管理界面

                                步骤 1     根据“Advanced > Some drivers are not healthy > Huawei RAID Adapter Driver”路径进入“Repair Controller Health”界面,如21-59所示。

图21-59 Repair Controller Health

 

                                步骤 2     根据步骤2页面提示信息,按照故障修复策略进行处理。

21-15所示。故障提示信息包含以下内容:

l     故障描述

l     故障提示及建议

l     修复策略

表21-15 故障提示信息

故障类型

提示信息

说明

处理方法

Bad Card类故障(无修复策略,只能换卡)

Error description

故障描述,包括:

l     NFC errorNFC故障

l     Small capacitor abnormal:小电容异常

l     SRAM errorSRAM故障

请参见0Bad Card类故障

The controller is faulty.Replace the controller.

故障提示及建议:控制卡故障,请更换。

Restore Data类故障

Error description

故障描述,此类故障包括:

l     IMU errorIMU故障

l     FirmWare error:固件故障

l     SOC fatalSOC重故障

l     TSP errorTSP故障

请参见21.5.4.6 Restore Data类故障

The controller has restorable data. Recover the data so that the controller can be configured an managed properly.

故障提示及建议:此控制卡中存在可恢复数据,请恢复数据以正确配置和管理控制卡。

Restore Data

修复策略:恢复数据,可能存在恢复后数据不一致问题。

Drop Data

修复策略:丢弃数据。

Drop Data类故障

Error description

故障描述,此类故障包括:

l     TSP errorTSP故障

l     DDR mbit errorDDR Mbit故障

l     RDE errorRDE故障

请参见21.5.4.7 Drop Data类故障

The controller is faulty. Repair the fault  so that the controller can be configured and managed properly.

故障提示及建议:此控制卡中存在数据丢失,请修复。

Drop Error

修复策略:丢弃数据。

Write Hole类故障

Write hole data exists in the controller.Fix this issue so that the controller can be configured and managed properly.

故障提示及建议:控制卡存在Write Hole数据,修复此问题以正确配置和管理控制卡。

请参见21.5.4.8 Write Hole类故障

Clear Data

修复策略:清除数据。

Pinned Cache类故障

Pinned caches are present on the following virtual drives.You are advised to delete the pinned caches to configure the virtual drives correctly.

故障提示及建议:以下VD存在pinned cache,建议删除Pinned cache以正确配置VD

请参见21.5.4.9 Pinned Cache类故障

Pinned Cache 0: VDID 0, Status: Fault

修复策略:错误数据位置。

点击进入修复界面。

 

----结束

Bad Card类故障

处理方法

登录BIOS界面,操作请参见0进入BIOS配置管理界面

                                步骤 1     根据“Advanced > Some drivers are not healthy > Huawei RAID Adapter Driver”路径进入“Repair Controller Health”界面,如21-60所示,参数说明如21-16所示。

图21-60 Repair Controller Health

 

表21-16 参数说明

参数

说明

Error description

故障描述,包括:

l     NFC errorNFC故障

l     Small capacitor abnormal:小电容异常

l     SRAM errorSRAM故障

The controller is faulty.Replace the controller.

故障提示及建议:控制卡故障,请更换。

 

                                步骤 2     此类故障只能更换控制卡,无修复策略。

----结束

21.5.4.7 Restore Data类故障

处理方法

登录BIOS界面,操作请参见0进入BIOS配置管理界面

                                步骤 1     根据“Advanced > Some drivers are not healthy > Huawei RAID Adapter Driver”路径进入“Repair Controller Health”界面,如21-61所示,参数说明如21-17所示。

图21-61 Repair Controller Health

 

表21-17 参数说明

参数

说明

Error description

故障描述,此类故障包括:

l     IMU errorIMU故障

l     FirmWare error:固件故障

l     SOC fatalSOC重故障

l     TSP errorTSP故障

The controller has restorable data. Recover the data so that the controller can be configured an managed properly.

故障提示及建议:此控制卡中存在可恢复数据,请恢复数据以正确配置和管理控制卡。

Restore Data

修复策略:恢复数据,可能存在恢复后数据不一致问题。

Drop Data

修复策略:丢弃数据。

 

                                步骤 2     选择“Restore Data”并按“Enter”。

进入“Confirm Repair Controller”界面,如21-62所示。

图21-62 Confirm Repair Controller

 

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

开始修复,如21-63所示。修复过程中请勿关机。

图21-63 修复中

 

                                步骤 5     当界面提示“The fault has been repaired, Restart the system to apply the repairs. Press ENTER to continue...”时,按“Enter”键继续,如21-64所示。

图21-64 进度完成提示

 

                                步骤 6     界面提示“The fault has been repaired,Restart the system to restore the controller to the normal state”表示修复完成,如21-65所示。

图21-65 修复完成

 

                                步骤 7     重启系统,以生效故障修复。

----结束

21.5.4.8 Drop Data类故障

处理方法

登录BIOS界面,操作请参见0进入BIOS配置管理界面

                                步骤 1     根据“Advanced > Some drivers are not healthy > Huawei RAID Adapter Driver”路径进入“Repair Controller Health”界面,如21-66所示,参数说明如21-18所示。

图21-66 Repair Controller Health

 

表21-18 参数说明

参数

说明

Error description

故障描述,此类故障包括:

l     TSP errorTSP故障(当未配置超级电容时为此故障类型)

l     DDR mbit errorDDR Mbit故障

l     RDE errorRDE故障

The controller is faulty. Repair the fault  so that the controller can be configured and managed properly.

故障提示及建议:此控制卡中存在数据丢失,请修复。

Drop Error

修复策略:丢弃数据。

 

                                步骤 2     选择“Drop Data”并按“Enter”。

进入“Confirm Repair Controller”界面,如21-67所示。

图21-67 Confirm Repair Controller

 

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

开始修复,如21-68所示。修复过程中请勿关机。

图21-68 修复中

 

                                步骤 5     当界面提示“The fault has been repaired, Restart the system to apply the repairs. Press ENTER to continue...”时,按“Enter”键继续,如21-69所示。

图21-69 进度完成提示

 

                                步骤 6     界面提示“The fault has been repaired,Restart the system to restore the controller to the normal state”表示修复完成,如21-70所示。

图21-70 修复完成

 

                                步骤 7     重启系统,以生效故障修复。

----结束

21.5.4.9 Write Hole类故障

处理方法

登录BIOS界面,操作请参见0进入BIOS配置管理界面

                                步骤 1     根据“Advanced > Some drivers are not healthy > Huawei RAID Adapter Driver”路径进入“Repair Controller Health”界面,如21-71所示,参数说明如21-19所示。

图21-71 Repair Controller Health

 

表21-19 参数说明

参数

说明

Write hole data exists in the controller.Fix this issue so that the controller can be configured and managed properly.

故障提示及建议:控制卡存在Write Hole数据,修复此问题以正确配置和管理控制卡。

Clear Data

修复策略:清除数据。

 

                                步骤 2     选择“Clear Data”并按“Enter”。

进入“Confirm Repair Controller”界面,如21-72所示。

图21-72 Confirm Repair Controller

 

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

开始修复,如21-73所示。修复过程中请勿关机。

图21-73 修复中

 

                                步骤 5     当界面提示“The fault has been repaired, Restart the system to apply the repairs. Press ENTER to continue...”时,按“Enter”键继续,如21-74所示。

图21-74 进度完成提示

 

                                步骤 6     界面提示“The fault has been repaired,Restart the system to restore the controller to the normal state”表示修复完成,如21-75所示。

图21-75 修复完成

 

                                步骤 7     重启系统,以生效故障修复。

----结束

21.5.4.10 Pinned Cache类故障

处理方法

登录BIOS界面,操作请参见0进入BIOS配置管理界面

                                步骤 1     根据“Advanced > Some drivers are not healthy > Huawei RAID Adapter Driver”路径进入“Repair Controller Health”界面,如21-76所示,参数说明如21-20所示。

图21-76 Repair Controller Health

 

表21-20 参数说明

参数

说明

Pinned caches are present on the following virtual drives.You are advised to delete the pinned caches to configure the virtual drives correctly.

故障提示及建议:以下VD存在pinned cache,建议删除Pinned cache以正确配置VD

Pinned Cache 0: VDID 0, Status: Fault

修复策略:错误数据位置。

点击进入修复界面。

 

                                步骤 2     选择需删除的pinned cache,例如“Pinned Cache 0: VDID 0, Status: Fault”,按“Enter”。

进入“Confirm Repair Controller”界面,如21-77所示。

图21-77 Confirm Repair Controller

 

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

开始修复,如21-78所示。修复过程中请勿关机。

图21-78 修复中

 

                                步骤 5     当界面提示“The fault has been repaired, Restart the system to apply the repairs. Press ENTER to continue...”时,按“Enter”键继续,如21-79所示。

图21-79 进度完成提示

 

                                步骤 6     界面提示“The fault has been repaired,Restart the system to restore the controller to the normal state”表示修复完成,如21-80所示。

图21-80 修复完成

 

                                步骤 7     重启系统,以生效故障修复。

----结束

21.5.5 控制卡运行大压力业务低概率出现map error

问题描述

控制卡运行大压力业务时,概率性出现IO错误,驱动messages日志显示:

Sep  5 09:49:10 localhost kernel: [  703.998417] hiraid 0000:81:00.0: swiotlb buffer is full (sz: 65536 bytes)
Sep  5 09:49:10 localhost kernel: [  703.998422] hiraid 0000:81:00.0: io map data err

处理方法一

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如21-81所示界面时,按“Delete”,进入输入密码界面。

图21-81 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如21-82所示界面。

图21-82 Setup Utility”界面

 

                                步骤 4     可选: 进入“Advanced > MISC Config”页签,如21-83所示。

图21-83 MISC Config”页签

 

                                步骤 5     将“Support Smmu”的选项改为“Enabled”。

Support Smmu”默认是“Disabled”。

                                步骤 6     按“F10”保存并退出。

----结束

处理方法二

登陆服务器OS

                                步骤 1     执行命令cat /proc/cmdline,查看文件cmdline

[root@localhost ~]# cat /proc/cmdline
BOOT_IMAGE=/vmlinuz-4.19.90-52.22.v2207.ky10.aarch64 root=/dev/mapper/klas-root ro rd.lvm.lv=klas/root rd.lvm.lv=klas/swap video=VGA-1:640x480-32@60me rhgb quiet console=tty0 crashkernel=1024M,high smmu.bypassdev=0x1000:0x17 smmu.bypassdev=0x1000:0x15 video=efifb:off audit=0

                                步骤 2     先执行vi /etc/default/grub,按“i”,再编辑grub,增加配置swiotlb=XXXXXX建议不小于131072

[root@localhost /]# vi /etc/default/grub
GRUB_TIMEOUT=5
GRUB_DISTRIBUTOR="$(sed 's, release .*$,,g' /etc/system-release)"
GRUB_DEFAULT=saved
GRUB_DISABLE_SUBMENU=true
GRUB_TERMINAL_OUTPUT="console"
GRUB_CMDLINE_LINUX="crashkernel=auto rd.lvm.lv=centos/root rd.lvm.lv=centos/swap swiotlb=131072"
GRUB_DISABLE_RECOVERY="true"

                                步骤 3     先按“ESC”,再按“shift+:”,输入“wq!”,按“Enter”退出。

                                步骤 4     运行grub2-mkconfig -o /boot/efi/EFI/centos/grub.cfg,重新生成config文件。

CentOS举例,不同的操作系统grub.cfg路径不一样。

                                步骤 5     重启服务器,使配置文件生效。

                                步骤 6     执行命令cat /proc/cmdline,查看文件cmdline是否生效。

BOOT_IMAGE=/vmlinuz-4.14.0-115.el7a.0.1.aarch64 root=/dev/mapper/centos-root ro crashkernel=auto rd.lvm.lv=centos/root rd.lvm.lv=centos/swap swiotlb=131072

----结束

21.6 管理界面介绍

Controller Management

控制卡主菜单,提供管理控制卡的接口。

界面介绍

Controller Management”界面如21-84,参数说明如21-21所示。

图21-84 Controller Management

 

表21-21 参数说明

参数

参数说明

Product Name

产品名称。

Chip Name

芯片名称。

Board SN

控制卡序列号。

Firmware Version

控制卡固件版本。

Chip Version

控制卡芯片版本。

Board PCB Version

控制卡的PCB板版本。

PCI ID

控制卡的PCI ID

PCI BDF Number

控制卡的BDFBusDeviceFunction)号。

Port Config Mode

端口配置模式。

Drive Count

控制卡挂载的物理硬盘数量。

Virtual Drive Count

控制卡下已有的虚拟磁盘数量。

Select Boot Device

选择启动盘。

Advanced Controller Properties

查看控制卡高级属性。

Reset Default Configuration

恢复默认设置。

 

Advanced Controller Properties

用于查看控制卡的高级属性。

界面介绍

Advanced Controller Properties”界面如21-8521-86所示,界面中参数说明如21-22所示。

图21-85 Advanced Controller Properties”(1

 

图21-86 Advanced Controller Properties”(2

 

表21-22 参数说明

参数

说明

Set Controller Properties

设置控制卡属性。

Supported Drives Number Of RAID Group

支持的RAID组数量。

Chip DDR Information

芯片DDRDouble Data Rate)信息。

DDR Channel

通道数量。

DDR Size

DDR容量。

DDR Number

DDR数量。

DDR Total Size

DDR总容量。

Max Supported Drives Number

最大支持硬盘数量。

HDDs

最大支持硬盘数量(HDD)。

SSDs

最大支持硬盘数量(SSD)。

Controller Supported Capabilities

单板支持能力。

Max VD Number

最大支持虚拟磁盘数量。

Max PD Number

最大支持物理硬盘数量。

Supported RAID Levels

支持的RAID级别。

 

Set Controller Properties

Set Controller Properties”界面如21-87所示,参数说明如21-23所示。

图21-87 Set Controller Properties

 

表21-23 参数说明

参数

说明

Current Repair Policy

控制卡当前修复策略。

l     ConfirmFW根据策略,选择不上报盘,上报错误。

l     Default:后台修复错误,修复系统后正常运行,提供日志记录和查询接口。

默认修复策略为Confirm

Boot With Pinned Cache

设置系统中有pinned cache时,是否启动。

l     On:系统中有存在pinned cache时,系统会选择丢弃脏数据并正常启动。

l     Off:系统中存在pinned cache时,系统会保留这部分脏数据并正常启动。但需要用户主动处理这部分脏数据,否则会阻塞一部分系统管理命令,例如创建LUN、修改读写策略等。

说明

1.3.10.1之后版本无此项。

EHSP Switch

紧急热备开关。

l     On:开启紧急热备功能。

l     Off:关闭紧急热备功能。

Drives to Report

设置报盘数量。

l     可设置范围1255

l     如果设置的报盘数量小于实际上报盘符数量,必须设置控制卡启动项(即系统盘设置为boot启动盘),否则可能导致启动失败。设置方法请参见0设置控制卡启动项

Save Changes

保存更改。

 

Supported Drives Number Of RAID Group

具体规格以实际为准。

Supported Drives Number Of RAID Group”界面如21-8821-89所示,参数说明如21-24所示。

图21-88 Supported Drives Number Of RAID Group”(1

 

图21-89 Supported Drives Number Of RAID Group”(2

 

表21-24 参数说明

参数

参数说明

Number Of HDD Supported By RAID Groups

RAID支持的HDD硬盘数量。

Number Of SSD Supported By RAID Groups

RAID支持的SSD硬盘数量。

Min Raid0 Drives

RAID0最小支持硬盘数量。

Max Raid0 Drives

RAID0最大支持硬盘数量。

Min Raid1 Drives

RAID1最小支持硬盘数量。

Max Raid1 Drives

RAID1最大支持硬盘数量。

Min Raid5 Drives

RAID5最小支持硬盘数量。

Max Raid5 Drives

RAID5最大支持硬盘数量。

Min Raid6 Drives

RAID6最小支持硬盘数量。

Max Raid6 Drives

RAID6最大支持硬盘数量。

Min Raid10 Drives

RAID10最小支持硬盘数量。

Max Raid10 Drives

RAID10最大支持硬盘数量。

Max RAID10 Sub RAID Groups

RAID10支持子组数量。

Raid50 Min Drives

RAID50最小支持硬盘数量。

Raid50 Max Drives

RAID50最大支持硬盘数量。

Number of RAID50 subgroups

RAID50支持子组数量。

Raid60 Min Drives

RAID60最小支持硬盘数量。

Raid60 Max Drives

RAID60最大支持硬盘数量。

Number of RAID60 subgroups

RAID60支持子组数量。

 

21.6.1.11 Reset Default Configuration

 

将控制卡恢复默认设置,所有配置将恢复到出厂默认配置。请谨慎执行该操作。

控制卡恢复默认设置。

21.6.2 Virtual Drive Management

该界面提供虚拟磁盘的查询和管理接口。

界面介绍

Virtual Drive Management”界面如21-90,参数说明如21-25所示。

图21-90 Virtual Drive Management

 

表21-25 参数说明

参数

参数说明

Create Virtual Drive

创建虚拟磁盘。

View Virtual Drives

查看虚拟磁盘。

View RAID Group Properties

查看RAID组属性。

Manage Foreign Configurations

管理外部配置。

 

Create Virtual Drive

Create Virtual Drive”界面如21-91所示,参数说明如21-26所示。

图21-91 Create Virtual Drive

 

表21-26 参数说明

参数

参数说明

RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     RAID GroupRAID组。

l     Free Drives:未加入过虚拟磁盘的空闲硬盘。

Select Drives

选择成员盘。

Name

虚拟磁盘名称。

Capacity Size

虚拟磁盘的容量。

默认值为max_left(最大容量)。

Select Capacity Unit

容量单位。包括:

l     MB

l     GB

l     TB

Initialize Type

初始化类型。包括:

l     Fast:快速初始化

l     Front:前台初始化

l     Background:后台初始化。

Strip Unit Size

虚拟磁盘条带大小。支持32KB64KB128KB256KB512KB1024KB

l     HDD默认条带大小为256KB

l     SSD默认条带大小为64KB

Write Cache

虚拟磁盘的Cache写策略。可配置的策略包括:

l     Write Back:当控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     Write Back Enforce:在控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Through

说明

l     “Write Back Enforce”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

Read Cache

虚拟磁盘的Cache读策略。可配置的策略包括:

l     No Ahead:关闭预读取功能。

l     Ahead:使能预读取功能。控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为No Ahead

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Ahead”性能更优。

PD Cache

物理硬盘Cache写策略(仅对有Cache的硬盘有效):

l     On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

l     Default:保持硬盘当前Cache配置。

Save Configuration

保存当前配置。

 

21.6.2.12 View Virtual Drives

在“View Virtual Drives”界面选择指定VD并按“Enter”。进入VD设置界面,如21-92所示,参数说明如21-27所示。

图21-92 Virtual Drives Information

 

表21-27 参数说明

参数

参数说明

Operation

选择对VD的操作。包括:

l     Delete Virtual Drive:删除VD

l     Sanitize Virtual Drive:安全擦除VD数据。

l     Expand Virtual Drive:扩展VD容量。

Progress

当前任务进度。

l     仅当进行安全擦除VD数据等任务时显示此选项。

l     当前界面不会自动刷新,需退出后重新进入查看当前进度。

Stop

停止当前任务。

仅当进行安全擦除VD数据等任务时显示此选项。

Name

RAID组名称。

Virtual Drive ID

虚拟磁盘的ID

RAID Group ID

RAID组的ID

Type

RAID组的类型。

Capacity

RAID组的容量。

Map Type

RAID组的映射类型。

Strip Unit Size

条带大小。

Sector Size(B)

逻辑分区大小。

Read Cache

虚拟磁盘的Cache读策略。

Write Cache

虚拟磁盘的Cache写策略。

Real Write Status

真实的Cache写策略状态。

Access Policy Status

访问策略状态。

Status

RAID组状态。

 

21.6.2.13 View RAID Group Properties

Advanced Controller Properties”选择想要查看的RAID组并按“Enter”。

进入“RAID Group Detail Information”界面,如21-9321-94所示,参数说明如21-28所示。

图21-93 RAID Group Detail Information”(1

 

图21-94 RAID Group Detail Information”(2

 

表21-28 参数说明

参数

参数说明

Name

RAID组名称。

RAID Group ID

RAID组的ID

RAID Level

RAID组级别。

Status

RAID组状态。

Total Capacity

RAID组的总容量。

Available Space

RAID组的空闲容量。

Current Background Task

当前后台任务。

CopyBack Switch

回拷开关状态。

PD Cache

硬盘Cache状态。

Sector Size(B)

逻辑块大小。

Sector Type

块类型。

SubGroups Number

子组数量。

SubGroup Drive Number

子组硬盘数量。

SubGroup Free Capacity

子组空余容量。

Aligned Size(M)

对齐尺寸。

Virtual Drives Number

虚拟磁盘数量。

Member Drive Number

成员盘数量。

Member Drive List

成员盘列表。

 

Member Drive List

Member Drive List”界面如21-95所示。可查看当前RAID组所有成员盘信息。

图21-95 Member Drive List

 

21.6.2.14 Manage Foreign Configurations

该界面用于导入、清除外部配置。

界面介绍

Manage Foreign Configurations”界面如21-96所示。

图21-96 Manage Foreign Configurations

 

具体操作方法请参见21.4.11 导入和清除外部配置

21.6.3 Physical Drive Management

该界面显示硬盘基本属性,提供硬盘操作接口。

界面介绍

Physical Drive Management”界面如21-97所示,显示硬盘列表。

可在此界面设置裸盘模式,具体操作请参见21.4.6 设置裸盘模式

图21-97 Physical Drive Management

 

Drive Management

选定要操作的硬盘并按“Enter”进入硬盘设置界面,如21-9821-99所示,参数说明如21-29所示。

图21-98 Drive Management1

 

图21-99 Drive Management2

 

表21-29 参数说明

参数

参数说明

Operations

选择对硬盘进行的操作。

l     Start Locate:定位硬盘。

l     Stop Locate:取消定位。

l     Assign Global Hot Spare Drive:设置为全局热备盘。

l     Assign Hot Spare Slot:设置所在槽位为热备槽位。

l     Assign Local Hot Spare Drive:设置为局部热备盘。

l     Drive Cache On:开启硬盘Cache

l     Drive Cache Off:关闭硬盘Cache

l     Start SanitizeSanitize安全擦除硬盘。

l     Start EraseErase擦除硬盘。

l     Set Drive Free:设置硬盘为空闲盘(仅裸盘模式开启时可用)

l     Set Raw Drive On:设置硬盘为裸盘(仅裸盘模式开启时可用)

Perform Operation

执行操作。选择操作后显示。

Drive ID

硬盘ID

Enclosure ID

硬盘所在的框位类型。

Slot ID

硬盘所在的槽位编号。

Capacity

硬盘容量。

Link Speed

端口速度。

Type

硬盘的逻辑类型。

Spare Slot

是否为热备槽位。

Status

硬盘的逻辑状态。

Media

硬盘的媒介类型。

Interface

硬盘的接口类型。

PD Cache

硬盘的Cache写状态。

Slow Drive

是否被标记为慢盘。

Model

硬盘的型号。

Firmware Version

硬盘的固件版本。

Sector Type

扇区类型。

SED

是否为自加密硬盘。

Spin Status

硬盘转速状态。

 

21.6.4 Hardware Components

该界面主要提供控制卡传感器信息。

界面介绍

Hardware Components”界面如21-100所示,参数说明如21-30所示。

图21-100 Hardware Components

 

表21-30 参数说明

参数

参数说明

CPU Temperature

当前CPU温度(℃)。

Supercapacitor

超级电容管理。

 

Supercapacitor

该界面用于查看控制卡的超级电容状态。

界面介绍

Supercapacitor”界面如21-10121-102所示,参数说明如21-31所示。

图21-101 Supercapacitor”(1

 

图21-102 Supercapacitor”(2

 

表21-31 参数说明

参数

参数说明

Device Name

设备名称。

Present Status

在位状态。

Status

当前状态。

Flash Erase Status

Flash擦除状态。

Replacement Required

是否需要更换。

Space To Cache Offload

是否有缓存卸载空间。

P-MOSFET Status

P-MOSFET状态。

IIC Signal Status

I2C通道状态。

Temperature

当前温度。

Voltage

当前电压。

MFG Date

生产日期。

SN

序列号。

Vendor Name

厂商名称。

Design Capacity

设计容量。

Supercapacitor Version

超级电容版本。

Supercapacitor SN

超级电容序列号。

Supercapacitor MFG Date

超级电容生产日期。

PCB AssmNo

PCB组件编号。

PCB Version

PCB版本。

Pack AssmNo

电容组件序列号。

Module Version

模块版本。

Alarm Temperature

告警温度(单位:℃)。

Learn Status

自学习状态。

High Temperature Alarm

高温告警。

Voltage Low Alarm

欠压告警。

Low Capacity Alarm

容量不足告警。

Pack Missing

电容不在位告警。

 

21.6.5 Exit

按“F10”退出BIOS管理界面。

21.7 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对控制卡进行操作,不需要重启服务器。

涉及的使用实例以hiraidadm版本1.2.0.2为例,不同版本的hiraidadm工具回显有差异,具体请以实际为准。

安装hiraidadm工具

请联系技术支持获取hiraidadm工具。

21.7.1 系统命令

查询控制卡列表

命令功能

查询控制卡列表。

命令格式

hiraidadm show allctrl

使用指南

回显中主要字段的含义如21-32所示。

表21-32 回显说明

命令格式

字段

含义

举例

hiraidadm show allctrl

Controllers Number

控制卡的数量。

1

Controller Id

控制卡的ID

0

Device Name

控制卡的设备名称。

/dev/bsg/hiraid0

Pcie Bus Domain

控制卡的PCIe总线域。

0000

Bus Number

控制卡总线号。

04

Device Number

控制卡设备号。

00

Function Number

控制卡的Function号。

00

PCI Address

控制卡PCI地址。

0000:04:00.0

 

使用实例

# 查询所有控制卡列表。

[root@localhost ~]# hiraidadm show allctrl
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Controllers Number = 1
-------------------------------------------------------
Controller Id           | 0
Device Name             | /dev/bsg/hiraid0
Pcie Bus Domain         | 0000
Bus Number              | 85
Device Number           | 00
Function Number         | 00
PCI Address             | 0000:85:00.0

21.7.1.15 查询控制卡数量

命令功能

查询控制卡的数量。

命令格式

hiraidadm show ctrlcount

使用指南

无。

使用实例

# 查询系统中控制卡数量。

[root@localhost ~]# hiraidadm show ctrlcount
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
ctrlcount:1
==============================================================================================================

21.7.1.16 转换控制卡日志

命令功能

将从控制卡上收集的日志文件转换为文本文件。

命令格式

hiraidadm show log path=log_path out_file=outputfile [timezone=timezone]

参数说明

参数

参数说明

取值

log_path

从控制卡获取的日志文件所在路径。

-

outputfile

指定转换后输出的文件名。

-

timezone

可选参数,表示指定转换的时区。不输入时默认使用本地时区。

例如:

l     +0800:表示指定东八区。

l     -0900:表示指定西九区。

 

使用指南

无。

使用实例

# 将从控制卡上收集的日志文件转换为文本文件。。

[root@localhost ~]# hiraidadm show log path=./ outfile=log.txt timezone=+0200
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
-------------------------------------------------------
parse .//ap.bin start.
parse .//imu.bin start.
out file1:.//log-flash.txt
out file2:.//log-ram.txt
 success log num | 12624
no parse log num | 7427
   total log num | 20423
-------------------------------------------------------
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.2 控制卡命令

查询控制卡配置信息

命令功能

查询控制卡的配置信息。

命令格式

hiraidadm ccontroller_id show config

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

回显中主要字段的含义如21-33所示。

表21-33 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show config

Precopy Switch

预拷贝开关使能状态。

Off

Emergency Hotspare Switch

紧急热备开关使能状态。

On

CopyBack Switch

回拷开关使能状态。

On

Bginit Rate

后台初始化速率。

low

Rebuild Rate

重构速率。

high

CopyBack Rate

回拷速率。

high

PreCopy Rate

预拷贝速率。

high

Sanitize Rate

硬盘擦除速率。

low

CCheck Switch

一致性校验开关使能状态。

Off

CCheck Period

一致性校验周期。

30 day

CCheck Rate

一致性校验速率。

low

CCheck Repair Switch

一致性校验修复开关使能状态。

Off

Patrolread Switch

系统巡检开关使能状态。

On

Patrolread Period

系统巡检周期。

30 day

Patrolread Rate

系统巡检速率。

low

Drive Parall Num

同时进行巡检的硬盘数量。

4

 

使用实例

# 查询控制卡配置信息。

[root@localhost ~]# hiraidadm c0 show config
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
                 Raid Global Config Information
--------------------------------------------------------------------------------------------------------------
Precopy Switch             | On
Emergency Hotspare Switch  | On
CopyBack Switch            | On
Bginit Rate                | high
Rebuild Rate               | high
CopyBack Rate              | high
PreCopy Rate               | high
Sanitize Rate              | low
CCheck Switch              | On
CCheck Period              | 60 day
CCheck Rate                | medium
CCheck Repair Switch       | On
Patrolread Switch          | Off
Patrolread Period          | 30 day
Patrolread Rate            | low
Drive Parall Num           | 4
DDMA Switch                | On
--------------------------------------------------------------------------------------------------------------

21.7.2.17 查询和设置系统巡检参数

命令功能

查询和设置系统巡检的相关参数。

命令格式

命令

说明

hiraidadm ccontroller_id show patrolread

查询系统巡检相关参数。

hiraidadm ccontroller_id set patrolread [period=period] [rate={low|medium|high}] [drivenum=drivenum]

设置系统巡检参数,至少需设置一个参数。

hiraidadm ccontroller_id start patrolread [delay=delay] [period=period] [rate=rate] [drivenum=drivenum]

设置系统巡检参数并执行。

hiraidadm ccontroller_id stop patrolread

停止系统巡检。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

delay

指定延时启动时间。

124(单位:h

period

系统巡检间隔周期。

160(单位:day

rate

系统巡检速率。

l     low

l     medium

l     high

默认为low

drivenum

同时开启硬盘巡检的硬盘数量。

l     可设置28个硬盘。

l     默认为4

 

使用指南

l     本命令相关参数由用户指定后,后续将一直保留使用,不指定时不再使用默认值。

l     回显中主要字段的含义如21-34所示。

表21-34 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show patrolread

Patrolread Switch

系统巡检开关。

on

Patrolread Delay

硬盘巡检延时启动时间。

1 h

Patrolread Period

巡检周期。

30 day

Patrolread Rate

巡检速率。

low

Drive Parall Num

设置的同时进行巡检的硬盘数量。

4

Run Status

巡检执行状态。

stop

Finish Drive Sum

完成巡检的硬盘数量。

0

Running Drive Sum

当前巡检中的硬盘数量。

0

 

使用实例

# 查询系统巡检信息。

[root@localhost ~]# hiraidadm c0 show patrolread
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
                    Patrolread Information
-------------------------------------------------------
Patrolread Switch       | On
Patrolread Delay        | 0 h
Patrolread Period       | 20 day
Patrolread Rate         | low
Drive Parall Num        | 4
Run Status              | stop
Finish Drive Sum        | 0
Running Drive Sum       | 0
-----------------------------------------------------

# 设置系统巡检参数。

[root@localhost ~]# hiraidadm c0 start patrolread period=20 rate=low drivenum=4
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 停止系统巡检。

[root@localhost ~]# hiraidadm c0 stop patrolread
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.2.18 查询和设置裸盘模式

命令功能

查询和设置控制卡的全局裸盘模式。

命令格式

命令

说明

hiraidadm ccontroller_id set jbod=jbod_state

设置控制卡的裸盘模式。

hiraidadm ccontroller_id show jbod

查询控制卡的裸盘模式状态。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

jbod_state

控制卡裸盘模式使能情况。

l     rawdrive:开启裸盘模式

l     off:关闭裸盘模式

 

使用指南

无。

使用实例

# 开启控制卡的裸盘模式。

[root@localhost ~]# hiraidadm c0 set jbod=rawdrive
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 查询控制卡的裸盘模式状态。

[root@localhost ~]# hiraidadm c0 show jbod
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Jbod = rawdrive

21.7.2.19 查询和设置控制卡一致性校验参数

命令功能

查询、设置控制卡一致性校验参数。

命令格式

命令

说明

hiraidadm ccontroller_id show ccheck

查询控制卡一致性校验参数。

hiraidadm ccontroller_id set ccheck [period=period] [repair=repair_switch] [rate=rate]

设置控制卡一致性校验,至少设置一个参数。

hiraidadm ccontroller_id start ccheck [delay=delay] [period=period] [repair=repair_switch] [rate=rate]

设置控制卡一致性校验并开始。

hiraidadm ccontroller_id stop ccheck

停止控制卡一致性校验。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

delay

延时时间。

124,单位:h

period

一致性校验的周期。

单位:day

repair_switch

自动修复开关。

l     on

l     off

rate

一致性校验速率。

l     high

l     medium

l     low

 

使用指南

l     本命令相关参数由用户指定后,后续将一直保留使用,不指定时不再使用默认值。

l     回显中主要字段的含义如21-35所示。

表21-35 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show ccheck

CCheck Switch

自动一致性校验开关。

on

Delay

一致性校验延时启动时间。

0 h

Period

一致性校验周期(单位:天)。

60 day

Rate

一致性校验速率。

medium

Repair

自动修复开关。

On

Run status

一致性校验运行状态。

stop

Total Number Of CCheck

需要完成一致性校验的VD总数量。

0

Completed Number Of CCheck

已完成一致性校验VD数量。

0

 

使用实例

# 查询一致性校验信息。

[root@localhost ~]# hiraidadm c0 show ccheck
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
               Consistency Check Information
-------------------------------------------------------
CCheck Switch               | On
Delay                       | 0 h
Period                      | 60 day
Rate                        | medium
Repair                      | On
Run status                  | stop
Total Number Of CCheck      | 0
Completed Number Of CCheck  | 0
-------------------------------------------------------

# 设置一致性校验参数。

[root@localhost ~]# hiraidadm c0 set ccheck period=20 repair=on rate=low
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 设置一致性校验参数并启动。

[root@localhost ~]# hiraidadm c0 start ccheck delay=10 period=20 repair=on rate=low
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 停止一致性校验。

[root@localhost ~]# hiraidadm c0 stop ccheck
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.2.20 查询和设置控制卡后台任务

命令功能

查询和设置控制卡重构、回拷、巡检、擦除、后台初始化、预拷贝和一致性校验后台任务。

命令格式

命令

说明

hiraidadm ccontroller_id show bgtask

查询控制卡后台任务进度。

hiraidadm ccontroller_id set bgrate func=func rate=rate

设置RAID组重构/回拷/巡检/擦除/后台初始化/预拷贝/一致性校验后台速率。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

func

要执行的操作。

l     rebuildRAID重构

l     copyback:回拷

l     patrolread:巡检

l     sanitize:擦除

l     bginit:后台初始化

l     precopy:预拷贝

l     ccheck:一致性校验

rate

后台任务执行速率。

l     high

l     medium

l     low

 

使用指南

无。

使用实例

# 查询后台任务进度。

[root@localhost ~]# hiraidadm c0 show bgtask
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Background task num is 1
--------------------------------------------------------------------------------------------------------------
Background Task Information
--------------------------------------------------------------------------------------------------------------
Name         Type     ID   Rate   Progress TimeLeft
bginit       VD       0    high   34%      32 min
--------------------------------------------------------------------------------------------------------------

# 设置RAID重构速率。

[root@localhost ~]# hiraidadm c0 set bgrate func=rebuild rate=low
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign func : rebuild
User assign rate : low
--------------------------------------------------------------------------------------------------------------

21.7.2.21 查询和设置预拷贝开关

命令功能

查询和设置控制卡的预拷贝开关。

命令格式

命令

说明

hiraidadm ccontroller_id show precopy

查询控制卡的预拷贝开关状态。

hiraidadm ccontroller_id set precopy sw=switch

设置控制卡的预拷贝功能开关。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

switch

设置控制卡的预拷贝开关状态。

l     on:开启预拷贝功能

l     off:关闭预拷贝功能

 

使用指南

无。

使用实例

# 查询控制卡预拷贝开关使能状态。

[root@localhost ~]# hiraidadm c0 show precopy
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Precopy Switch = On

#开启控制卡预拷贝开关。

[root@localhost ~]# hiraidadm c0 set precopy sw=on
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : on
--------------------------------------------------------------------------------------------------------------

21.7.2.22 设置成员盘强制上线和下线

命令功能

设置成员盘强制上线和下线。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id set state

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

slot_id

物理硬盘槽位的ID

state

设置成员盘状态。

l     online:设置成员盘上线。

l     offline:设置成员盘下线。

 

使用指南

l     offline只能操作RAID组状态normal的成员盘。

l     online操作成功也受限于RAID组本身是否可恢复降级或重构以及normal

l     Online本身是尽力而为的命令,如果Online的盘物理上为fault,则该盘状态将保存为fault,对应LUN的逻辑状态可以恢复,但是能否恢复数据依赖盘物理上读数据是否会出错。

设置硬盘offline之后查询硬盘状态,确认硬盘状态为offline后,才能进行设置online操作,避免设置online失败。

使用实例

# 设置slot1硬盘强制上线。

[root@localhost ~]# hiraidadm c0:e0:s1 set online
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.2.23 查询和设置控制卡回拷开关

命令功能

查询、设置控制卡回拷开关。

命令格式

命令

说明

hiraidadm ccontroller_id show copyback

查询控制卡的回拷开关状态。

hiraidadm ccontroller_id set copyback sw=switch

设置控制卡的回拷开关状态。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

switch

设置控制卡的回拷开关状态。

l     on:开启回拷

l     off:关闭回拷

 

使用指南

无。

使用实例

# 查询控制卡的回拷开关状态。

[root@localhost ~]# hiraidadm c0 show copyback
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Copyback Switch = On

# 开启控制卡的回拷功能。

[root@localhost ~]# hiraidadm c0 set copyback sw=on
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : on
--------------------------------------------------------------------------------------------------------------

21.7.2.24 查询和设置SMART扫描周期

命令功能

查询、设置控制卡SMART扫描周期。

命令格式

命令

说明

hiraidadm ccontroller_id show smart_polling

查询SMART扫描周期。

hiraidadm ccontroller_id set smart_polling period=period

设置SMART扫描周期。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

period

SMART扫描周期。

单位:s。最小值为60s

 

使用指南

无。

使用实例

# 查询SMART扫描周期。

[root@localhost ~]# hiraidadm c0 show smart_polling
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Drive smart polling period is 3600s.

# 设置Smart扫描周期为“600s”。

[root@localhost ~]# hiraidadm c0 set smart_polling period=600
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign period : 600
--------------------------------------------------------------------------------------------------------------

21.7.2.25 查询控制卡硬盘列表

命令功能

查询指定控制卡下所有物理盘列表信息。

命令格式

hiraidadm ccontroller_id show pdlist

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

回显中主要字段的含义如21-36所示。

表21-36 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show pdlist

Index

查询列表中物理硬盘序号。

0

Enc

硬盘所在框位的ID

0

Slot

硬盘所在槽位的ID

12

DID

硬盘逻辑ID

2

Intf

硬盘接口类型。

SATA

Media

硬盘物理类型。

SSD

Type

硬盘逻辑类型。

free

Status

硬盘当前状态。

normal

PreFail

是否预失效。

No

LinkSpd

硬盘接口速率。

6.0Gb/s

Capacity

硬盘原始容量。

1.920TB

SecType

硬盘扇区类型。

512E

FUA

是否支持FUA

Sup

SED

硬盘是否加密。

No

Spin

硬盘节电开关。

UP

FW

固件版本信息。

404Q

Model

硬盘型号。

SAMSUNG MZ7LH1T9HMLT-00005

 

使用实例

#查询指定控制卡下所有物理盘列表信息。

[root@localhost ~]# hiraidadm c0 show pdlist
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Total pd number is 12
--------------------------------------------------------------------------------------------------------------
Index Enc  Slot DID  Intf  Media Type     Status         PreFail SlowDrive LinkSpd Capacity   SecType FUA SED Spin FW       Model
--------------------------------------------------------------------------------------------------------------
0     0    0    5    SATA  HDD   free     ucfggood       No      No        6.0Gb/s    3.639TB  512N   Sup No  UP   T010     HUS726T4TALA600
1     0    1    6    SATA  HDD   free     ucfggood       No      No        6.0Gb/s    3.639TB  512N   Sup No  UP   T010     HUS726T4TALA600
2     0    2    7    SATA  HDD   free     ucfggood       No      No        6.0Gb/s    3.639TB  512N   Sup No  UP   T010     HUS726T4TALA600
3     0    3    8    SATA  HDD   free     ucfggood       No      No        6.0Gb/s    3.639TB  512N   Sup No  UP   T010     HUS726T4TALA600
4     0    8    10   SATA  HDD   free     ucfggood       No      No        6.0Gb/s    3.639TB  512N   Sup No  UP   T010     HUS726T4TALA600
5     0    9    11   SATA  HDD   free     ucfggood       No      No        6.0Gb/s    5.458TB  512E   Sup No  UP   SN03     ST6000NM0115-1YZ110
6     0    10   9    SAS   HDD   free     ucfggood       No      No        12Gb/s   558.912GB  512N   Sup No  UP   N005     ST600MM0009
7     0    11   4    SAS   SSD   free     ucfggood       No      No        12Gb/s   372.611GB 4096B   Sup No  UP   c280     HUSMM1640ASS204
8     0    12   3    SAS   SSD   free     ucfggood       No      No        12Gb/s   894.253GB 4096B   Sup No  UP   3230     HSSD-D6323AL960N
9     0    13   1    SATA  SSD   free     ucfggood       No      No        6.0Gb/s  447.132GB  512E   Sup No  UP   HXM7A04Q SAMSUNG MZ7KH480HAHQ-00005
10    0    14   2    SATA  SSD   free     ucfggood       No      No        6.0Gb/s  894.253GB  512E   Sup No  UP   1074     HWE62ST3960L003N
11    0    15   0    SATA  SSD   free     ucfggood       No      No        6.0Gb/s  894.253GB  512E   Sup No  UP   1074     HWE62ST3960L003N
--------------------------------------------------------------------------------------------------------------

21.7.2.26 创建虚拟磁盘

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     SP686C RAID控制卡支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同介质类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     不支持使用SED盘创建RAID组。

l     RAID级别所需的硬盘数请参见21.2.1 多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见21.4.7 设置硬盘属性

命令功能

创建虚拟磁盘。

命令格式

命令

说明

hiraidadm ccontroller_id create vd raid{0|1|10|5|6|50|60} size={size|max_left} drives={enclosure_id:slot_id,enclosure_id:slot_id|drive_id,drive_id} name=VD_Name [pdpersg=pdpersg][susize={32|*64|128|256|512|1024}] [wcache={*WT|WB|WBE}] [rcache={Ahead|*No_Ahead}]  [pdcache={on|off|*default}] [init={*fast|front|background}]

利用空闲硬盘创建虚拟磁盘。

hiraidadm ccontroller_id create vd [raid{0|1|10|5|6|50|60}] rg=rg_id size={size|max_left}  name=VD_Name [susize={32|*64|128|256|512|1024}] [wcache={*WT|WB|WBE}] [rcache={Ahead|*No_Ahead}]  [pdcache={on|off|*default}] [init={*fast|front|background}]

利用已有RAID组剩余空间创建虚拟磁盘。

 

*表示默认值。

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

raid

要配置的RAID组级别。

0156105060,数字分别代表对应的RAID组级别。

size

要配置的RAID组容量。

逻辑盘容量大小,单位MB。当设置为max_left时,使用最大容量。

说明

支持创建大小为1MBMax_left

drives

两种表示方法。

l     要加入RAID组的硬盘所在的框位ID加槽位ID表示enclosure_id:slot_idenclosure_id:slot_id

l     要加入RAID组的硬盘逻辑ID表示:drive_id,drive_id

例如:

l     1:22,1:23

l     3,7

name

要配置的RAID组名称。

最大20字符。

pdpersg

每个子组中物理硬盘个数。创建RAID50/60时需此参数。

l     创建RAID50时:632SSD/640HDD

l     创建RAID60时:832SSD/840HDD

l     子组支持的具体数量请参见21-3

susize

设置RAID组条带大小。

32, 64, 128, 256, 512, 1024。单位为KB

l     HDD默认条带大小为256KB

l     SSD默认条带大小为64KB

wcache

设置RAID组的写Cache属性。

l     WT:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     WB:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     WBE:在控制卡无电容或电容损坏的情况下,强制使用“WB”模式。

默认为WT

rcache

设置RAID组的读Cache属性。

l     Ahead:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     No_Ahead:控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

默认为No_Ahead

pdcache

设置RAID的成员盘的Cache状态(仅对有Cache的硬盘有效)。

l     on:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

l     default:保持硬盘当前Cache配置。

默认为default

init

初始化方式。

l     fast:快速初始化

l     front:前台初始化

l     background:后台初始化

默认为fast

rg_id

RAID组的ID

例如:01。查询RAIDID请参见21.7.2.27 查询控制卡RAID组列表

 

使用指南

无。

使用实例

# 利用空闲硬盘创建RAID 1

[root@localhost ~]# hiraidadm c0 create vd raid1 name=vd0 size=100000 drives=0:0,0:1
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 利用已有RAID组创建虚拟磁盘。

[root@localhost ~]# hiraidadm c0 create vd raid1 rg=0 size=100000 name=vd1
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.2.27 查询控制卡虚拟磁盘列表

命令功能

查询控制卡的虚拟磁盘列表信息。

命令格式

hiraidadm ccontroller_id show vdlist

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

回显中主要字段的含义如21-37所示。

表21-37 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show vdlist

VDID

VDID索引。

0

RGID

VD所属的RAIDID索引。

0

Name

VD名称。

-

Type

VD类型。

normal

Status

VD的状态。

normal

Capacity

容量,单位:MB|GB|TB

1.454TB

SUSz

条带大小,单位:KB

64KB

SecSz

扇区大小,单位:B

512B

RCache

cache策略。

No_Ahead

WCache

cache策略。

WT

RealWCache

当前生效的Cache写策略。

WT

Access

VD的读写属性。

RW:取消只读。

RO:只读。

RW

 

使用实例

#查询指定控制卡下虚拟磁盘列表信息。

[root@localhost ~]# hiraidadm c0 show vdlist
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Total vd number is 1
--------------------------------------------------------------------------------------------------------------
VDID RGID Name  Type    Status         Capacity   SUSz   SecSz  RCache   WCache RealWCache  Access
--------------------------------------------------------------------------------------------------------------
0    0    vd0   normal  initializing     97.656GB  256KB   512B No_Ahead WT     WT          RW
--------------------------------------------------------------------------------------------------------------

21.7.2.28 查询控制卡RAID组列表

命令功能

查询指定控制卡下已创建的RAID组信息。

命令格式

hiraidadm ccontroller_id show rglist

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

回显中主要字段的含义如21-38所示。

表21-38 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show rglist

Id

RAIDID

0

Name

RAD组名称。

raid0

Level

RAID组级别。

0

Status

RAID的状态。

normal

MemberNum

成员盘数量。

3

Total

总容量。

1.454TB

Free

空闲容量。

0.000MB

 

使用实例

#查询指定控制卡下RAID组列表信息。

[root@localhost ~]# hiraidadm c0 show rglist
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Total raid group number is 1
--------------------------------------------------------------------------------------------------------------
Id   Name           Level  Status  MemberNum Total      Free
--------------------------------------------------------------------------------------------------------------
0    raid0          1      normal  2            3.638TB    3.542TB
--------------------------------------------------------------------------------------------------------------

21.7.2.29 查询和设置紧急热备功能

命令功能

查询、设置控制卡紧急热备功能状态。

命令格式

命令

说明

hiraidadm ccontroller_id show ehsp

查询控制卡紧急热备功能状态。

hiraidadm ccontroller_id set ehsp sw=switch

设置控制卡紧急热备功能。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

switch

紧急热备功能的启用状态。

l     on:开启紧急热备

l     off:关闭紧急热备

 

使用指南

无。

使用实例

# 查询控制卡紧急热备功能使能状态。

[root@localhost ~]# hiraidadm c0 show ehsp
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Ehsp Switch = On

# 开启紧急热备功能。

[root@localhost ~]# hiraidadm c0 set ehsp sw=on
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : on
--------------------------------------------------------------------------------------------------------------

21.7.2.30 查询和处理外部配置

命令功能

查询、导入或者清除控制卡的外部配置。

命令格式

命令

说明

hiraidadm ccontroller_id show fncfg

查询控制卡的外部配置。

hiraidadm ccontroller_id clear fncfg [guid=guid]

清除控制卡的外部配置。

hiraidadm ccontroller_id import fncfg [guid=guid]

导入控制卡的外部配置。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

guid

外来配置的唯一标识符。

如果不输入,则默认所有。

 

使用指南

无。

使用实例

# 查询控制卡的外部配置。

[root@localhost ~]# hiraidadm c0 show fncfg
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Foreign Config number is 2
--------------------------------------------------------------------------------------------------------------
Foreign Config Lists
--------------------------------------------------------------------------------------------------------------
Index Enc  Slot Type     RGID RGLevel RGStatus VDs  PDs  RGGUID
0     0    0    member   0    1       degrade  2    2    0x7e522f3600000000
1     0    1    member   0    1       degrade  2    2    0x7e522f3600000000
--------------------------------------------------------------------------------------------------------------

# 导入控制卡的外部配置。

[root@localhost ~]# hiraidadm c0 import fncfg guid=0x7e522f3600000000
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Import Foreign Config : 0x7e522f3600000000

# 清除控制卡的外部配置。

[root@localhost ~]# hiraidadm c0 clear fncfg guid=0x7e522f3600000000
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Clear Foreign Config : 0x7e522f3600000000

21.7.2.31 恢复默认设置

命令功能

将控制卡配置恢复到默认设置。

 

将控制卡恢复默认设置,所有配置将恢复到出厂默认配置。请谨慎执行该操作。

命令格式

hiraidadm ccontroller_id reset defaultconfig [noprompt]

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

noprompt

无需用户确认。

-

 

使用指南

当输入命令不带“noprompt”参数时,将提示“Do you confirm the execution reset config?The user settings will be reset.Please input [y|Y] for yes, others for cancel”。

l     输入“y”或“Y”并按“Enter”确认恢复默认设置。

l     输入其他取消此操作。

使用实例

# 将指定控制卡恢复出厂设置。

[root@localhost ~]# hiraidadm c0 reset defaultconfig
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
Do you confirm the execution reset config?
The user settings will be reset.
Please input [y|Y] for yes, others for cancel
---------------------------------------------
y
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.2.32 收集控制卡日志信息

命令功能

收集控制卡的日志信息。

命令格式

hiraidadm ccontroller_id get log path=path

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

path

日志保存的路径。

-

 

使用指南

无。

使用实例

# 收集控制卡的日志信息。

[root@localhost ~]# hiraidadm c0 get log path=./
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
file:ap.bin get finish.
file:imu.bin get finish.
file:ap_index.gz get finish.
file:imu_index.gz get finish.
file:lastword.bin get finish.
-------------------------------------------------------
file(.//log-lastword.txt) will be overwritten!
parse .//lastword.bin start.
out file1:.//log-lastword.txt
-------------------------------------------------------
file(.//log-flash.txt) will be overwritten!
file(.//log-ram.txt) will be overwritten!
parse .//imu.bin start.
parse .//ap.bin start.
out file1:.//log-flash.txt
out file2:.//log-ram.txt
 success log num | 9272
no parse log num | 12740
   total log num | 22078
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.2.33 查询控制卡寄存器信息

命令功能

l     查询控制卡寄存器信息。

l     dump数据到flash

命令格式

命令

说明

hiraidadm ccontroller_id get dump path=file_path [type=type]

查询控制卡寄存器信息。

hiraidadm ccontroller_id set dump

dump数据到flash

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

file_path

要保存的路径。

-

type

指定信息获取方式。

l     flash:指定从norflash获取。

l     ram:指定从ram获取,如果不支持ram,则从norflash获取。

默认为flash

 

使用指南

查看控制卡寄存器信息时,包含以下内容。

l     *-regdump.txt:公用dump信息。

l     *-sdsdump.txtserdes模块dump信息。

l     *-datadump.txt:其他模块dump信息,具体见文件内容。

使用实例

# 查看控制卡寄存器信息。

[root@localhost ~]# hiraidadm c0 get dump path=./dump
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
file:dump.bin get finish.
[warning] file(./dump/dump.bin) is NULL
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# dump数据到flash

[root@localhost ~]# hiraidadm c0 set dump
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.2.34 获取NAND日志

命令功能

获取系统复位或者下电的日志。

控制卡从未上下电或者复位时NAND日志不存在。

命令格式

hiraidadm ccontroller_id get nandlog path=file_path [id=log_id]

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

file_path

日志保存路径。

-

log_id

指定收集第几份,缺省则全收集。

值越小越新,0为最新。

 

使用指南

获取NAND日志。支持以下内容。

l     *log-nand.txt:控制卡侧日志。

l     *log-lastword.txt:芯片临终遗言日志。

l     *{reg/ras}log-regdump.txt:公用dump信息。

l     *{reg/ras}log-sdsdump.txtserdes模块dump信息。

l     *{reg/ras}log-datadump.txt:其他模块dump信息,具体见文件内容。

*为第几次的日志,如0log-nand.txt1log-nand.txt

使用实例

# 获取NAND日志。

[root@localhost ~]# hiraidadm c0 get nandlog path=./nand
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
file:ap_index.gz get finish.
file:imu_index.gz get finish.
file:nandlog.bin get finish.
-------------------------------------------------------
parse /var/tmp/lastword_C2nyam start.
out file1:./nand/0log-lastword.txt
out file1:./nand/0log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_cLOHA8 start.
out file1:./nand/1log-lastword.txt
out file1:./nand/1log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_Se43vT start.
out file1:./nand/2log-lastword.txt
out file1:./nand/2log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_AjgnFL start.
out file1:./nand/3log-lastword.txt
out file1:./nand/3log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_S4wu6C start.
out file1:./nand/4log-lastword.txt
out file1:./nand/4log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_OCegju start.
out file1:./nand/5log-lastword.txt
out file1:./nand/5log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_2thWUj start.
out file1:./nand/6log-lastword.txt
out file1:./nand/6log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_egm8Ng start.
out file1:./nand/7log-lastword.txt
out file1:./nand/7log-nand.txt
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.2.35 查询单板电子标签信息

命令功能

查询单板电子标签信息。

命令格式

hiraidadm ccontroller_id show elabel

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

回显中主要字段的含义如21-39所示。

表21-39 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show elabel

BoardType

单板型号。

CRS0XAF026

BarCode

单板序列号。

2102313XXGFSN4000047

Item

BOM编码。

02313XXG

Description

描述信息。

Function Module,SP686C-M-16i 4G,CRS0XAF026,SAS/SATA RAID 16port PCIE Card,4GB Cache,Support SuperCap and Sideband Management,RAID0,1,5,6,10,50,60

Manufactured

生产日期。

2022/04/23

VendorName

厂商名称。

Huawei

IssueNumber

发行号。

-

CLEICode

CLEI码。

-

BOM

BOM编码。

-

Model

对外型号。

-

PCB

PCB版本。

-

 

使用实例

# 查询单板电子标签信息。

[root@localhost ~]# hiraidadm c0 show elabel
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
BoardType=CRS0XAF026
BarCode=2102313XXGFSN4000047
Item=02313XXG
Description=Function Module,SP686C-M-16i 4G,CRS0XAF026,SAS/SATA RAID 16port PCIE Card,4GB Cache,Support SuperCap and Sideband Management,RAID0,1,5,6,10,50,60
Manufactured=2022/04/23
VendorName=Huawei
IssueNumber=00
CLEICode=
BOM=
Model=
PCB=A

21.7.2.36 查询和配置引导策略

命令功能

查看、设置系统中有pinned cache时,是否正常启动系统。

l     LUN失效时,cache中无法下发的脏数据称为pinned cache

l     FW 1.3.8.0之前版本支持此命令,FW 1.3.8.0及之后版本默认保留pinned cache并正常启动。需用户主动处理pinned cache,具体操作请参见21.7.3.70 清除当前存在的pinned cache

命令格式

命令

说明

hiraidadm ccontroller_id set bootwithpinnedcache sw=switch

设置系统中有pinned cache时,是否正常启动。

hiraidadm ccontroller_id show bootwithpinnedcache

查看系统中有pinned cache时,是否正常启动。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

switch

设置系统中有pinned cache时,是否启动。

On:系统中存在pinned cache时,系统会选择丢弃脏数据并正常启动。

Off:系统中存在pinned cache时,系统会保留这部分脏数据并正常启动。但需要用户主动处理这部分脏数据,否则会阻塞一部分系统管理命令,例如创建LUN、修改读写策略等。

 

使用指南

无。

使用实例

# 设置系统中有pinned cache时,丢弃脏数据并正常启动。

[root@localhost ~]# hiraidadm c0 set bootwithpinnedcache sw=on
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 查看系统中有pinned cache时引导策略。

[root@localhost ~]# hiraidadm c0 show bootwithpinnedcache
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Boot With Pinned Cache Switch = On

21.7.2.37 查询控制卡坏块列表

命令功能

查询控制卡下的硬盘坏块列表信息。

命令格式

hiraidadm ccontroller_id show bst

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

回显中主要字段的含义如21-40所示。

表21-40 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show bst

Index

坏盘序号。

0

Did

硬盘的ID

4

Start Lba

起始LBA地址。

0

Lba_len

LBA数量。

2048

Type

逻辑类型或者物理类型。

Physical

 

使用实例

#查询硬盘坏块列表信息。

[root@localhost ~]# hiraidadm c0 show bst
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Total diskbst number is 2
--------------------------------------------------------------------------------------------------------------
Index  Did  Start_lba  lba_len  Type       Index  Did  Start_lba  lba_len  Type
--------------------------------------------------------------------------------------------------------------
0      4    0          2048     Physical | 1      4    4096       6144     Physical |
--------------------------------------------------------------------------------------------------------------

21.7.2.38 查询控制卡启动项

命令功能

查询控制卡已配置的启动项信息。

命令格式

hiraidadm ccontroller_id show boot

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

无。

使用实例

# 查询控制卡已配置的启动项信息。

[root@localhost ~]# hiraidadm c0 show boot
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
BootDrive Num Is 1
--------------------------------------------------------------------------------------------------------------
BootDrive Information
--------------------------------------------------------------------------------------------------------------
Index Type  VID/DID  Enc  Slot
0     VD    0        NA   NA
--------------------------------------------------------------------------------------------------------------

21.7.2.39 查询驱动队列深度

命令功能

查询控制卡主机侧驱动队列深度。

命令格式

hiraidadm ccontroller_id show queue

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

无。

使用实例

# 设置控制卡主机侧驱动队列深度。

[root@localhost ~]# hiraidadm c0 show queue
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Queue Depth = 1023

21.7.2.40 查询和设置慢盘检测

命令功能

查询、设置控制卡慢盘检测功能参数。

命令格式

命令

说明

hiraidadm ccontroller_id set slowdrive type=type [sw=switch] [ratio=ratio] [media=media] [susize=susize] [l1=l1] [l2=l2] [l3=l3] [default]

设置慢盘检测参数。

hiraidadm ccontroller_id show slowdrive

查询慢盘检测配置信息。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

type

设置慢盘检测类型。

l     raidRAID成员盘

l     rawdrive:裸盘

switch

慢盘检查开关状态。

l     on:开启慢盘检测

l     off:关闭慢盘检测

ratio

设置硬盘与RAID组其他成员盘的I/O时延差别倍率。

仅在判断在RAID L3级别有效,当I/O时延满足倍率要求时才会上报L3慢盘。

范围:464

susize

设置条带大小。

l     128

l     256

l     512

l     1024

单位:KB

仅当“type=raidmedia=hdd”时可配置,且输入该参数时,必须配置l1

l1

设置L1级别的门限值,仅当“type=RAID”时有效。

l     HDD:

     条带大小为128256时,范围:660L2

     条带大小为5121024时,范围:760L2

l     SSD:范围:110L2

单位:ms

l2

设置L2级别的门限值。

l     HDD

     RAID范围:L1L3

     裸盘范围:81020000

l     SSD

     RAID范围:L1-L3

     裸盘范围:210-20000

单位:ms

l3

设置L3级别的门限值,仅当“type=RAID”时有效。

范围:L220000

单位:ms

default

输入该参数表示恢复默认配置。

-

 

使用指南

l     该命令支持同时配置一个或多个属性。

l     除开关配置立即生效,其余配置下次重启后生效。

l     输入default表示恢复默认配置。

l     对识别的慢盘,在满足RAID冗余的条件下进行踢盘,裸盘不会踢盘。

l     对慢盘的识别包含L1/L2/L3三个级别,当慢盘达到L3级别并满足一定条件才会踢盘。

l     踢盘周期内报多个慢盘,超过设置踢盘数量上限后不会踢盘。

l     被踢掉的慢盘会被标记为Fault

使用实例

# 设置控制卡慢盘检测参数。

[root@localhost ~]# hiraidadm c0 set slowdrive type=raid media=ssd l1=200 l2=300 l3=400
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 查询控制卡慢盘检测配置参数。

[root@localhost ~]# hiraidadm c0 show slowdrive
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Type     Switch
-------------------------------------------------------
RAID     On
RawDrive On
-------------------------------------------------------
 
                Current Config
-------------------------------------------------------
RAID Ratio:8
RAID Threshold:
Media          SuSize       L1      L2      L3
-------------------------------------------------------
HDD   32/64/128/256KB   1300ms  2200ms  5000ms
HDD        512/1024KB   1500ms  2200ms  5000ms
SSD                NA    250ms   600ms  1200ms
-------------------------------------------------------
RawDrive Threshold:
Media      L2
-------------------------------------------------------
HDD    2500ms
SSD     600ms
-------------------------------------------------------
 
                Next Config
-------------------------------------------------------
RAID Ratio:8
RAID Threshold:
Media          SuSize       L1      L2      L3
-------------------------------------------------------
HDD   32/64/128/256KB   1300ms  2200ms  5000ms
HDD        512/1024KB   1500ms  2200ms  5000ms
SSD                NA    250ms   600ms  1200ms
-------------------------------------------------------
RawDrive Threshold:
Media      L2
-------------------------------------------------------
HDD    2500ms
SSD     600ms
-------------------------------------------------------

21.7.2.41 查询控制卡状态信息

命令功能

查询控制卡的状态信息。

命令格式

hiraidadm ccontroller_id show status

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

回显中主要字段的含义如21-41所示。

表21-41 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show status

SAS Address

控制卡的SAS地址。

50c31dc5b71e8000

FW Version0

控制卡主区的固件版本。

1.0.17.1

FW Version1

控制卡备区的固件版本。

1.0.17.1

Current FW

当前FW运行分区。

0

Vendor Id

控制卡厂商ID

19e5

Device Id

控制卡的设备ID

3758

SubVendor Id

控制卡的子厂商ID

19e5

SubDevice Id

控制卡的子设备ID

01a4

Pcie Bus Domain

控制卡的PCIe总线域。

0000

Bus Number

控制卡总线号。

04

Device Number

控制卡的设备号。

00

Function Number

控制卡的Function号。

00

Board SN

控制卡的单板序列号。

2102313XXGFSN4000070

PF0

PF0是否使能。

Enable

PF1

PF1是否使能。

Disable

EP PCIe Width

协商带宽。

x8

EP PCIe Speed

当前协商速率。

16GT/s

Chip Name

控制卡的芯片名称。

B80121

Chip Version

控制卡的芯片版本。

V100

Die ID

控制卡的芯片ID

599e5b94 0121275e 00000000 00000000 001fc003

Tempature

控制卡的芯片核心温度。

67c

PD Number

在位的硬盘数量。

12

VD Number

逻辑盘数量。

0

VD Degrade Number

降级的VD数量。

0

VD Fault Number

故障的VD数量。

0

Raid Number

RAID组数量。

0

Prefail Number

预失效硬盘数量。

0

Fail Number

失效硬盘数量。

0

DDR Size

DDR容量。

4096MB

DDR ECC Count

DDR统计值。

0

DDR ECC Bucket Size

DDR可纠正错误门限。

16

DDR CE Count

DDR可纠正错误统计。

0

DDR UCE Count

DDR不可纠正错误统计。

0

SRAM ECC Count

SRAMbit ECC错误统计。

0

SRAM UCE Count

SRAM不可纠正错误统计。

0

Cache Pinned

Cache Pinned故障。

0

Board Error

单板故障。

0

Board Clock Error

单板时钟故障。

0

Board Power Error

单板电源故障。

0

Board Capacity Error

单板电容故障。

0

Board Flash Error

单板Flash故障。

0

Board Name

单板名称。

SP686C-M-16i 4G

 

使用实例

# 查询控制卡状态信息。

[root@localhost ~]# hiraidadm c0 show status
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
SAS Address         | 50c31dc5b70af000
FW Version0         | 1.3.3.0
FW Version1         | 1.3.3.0
Current FW          | 0
Vendor Id           | 19e5
Device Id           | 3758
SubVendor Id        | 19e5
SubDevice Id        | 01a1
Pcie Bus Domain     | 0000
Bus Number          | 85
Device Number       | 00
Function Number     | 00
Board SN            | 2102313XXGFSN4000047
PF0                 | Enable
PF1                 | Disable
EP PCIe Width       | x8
EP PCIe Speed       | 16GT/s
Chip Name           | B80121
Chip Version        | V100
Die ID              | 599e5b94 02614a5e 00000000 00000000 001f1a03
Tempature           | 73c
PD Number           | 12
VD Number           | 0
VD Degrade Number   | 0
VD Fault Number     | 0
Raid Number         | 0
PreFail Number      | 0
Fail Number         | 0
DDR Size            | 2048MB
DDR ECC Count       | 0
DDR ECC Bucket Size | 16
DDR CE Count        | 0
DDR UCE Count       | 0
SRAM ECC Count      | 0
SRAM UCE Count      | 0
Cache Pinned        | 0
Board Error         | 0
Board Clock Error   | 0
Board Power Error   | 0
Board Capacity Error| 0
Board Flash Error   | 0
Board Name          | SP686C-M-40i 2G

21.7.2.42 查询控制卡基本信息

命令功能

查询控制卡的基本配置信息。

命令格式

hiraidadm ccontroller_id show info

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

回显中主要字段的含义如21-42所示。

表21-42 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show info

Ctrl Mod

控制卡当前控制模式。

RAID

Rg Task Support

RAID组支持的后台任务。

rebuild,precopy,copyback,patrolread

Mod Support

控制卡支持的模式。

raid,rawdrive

Raid Level Support

控制卡支持的RAID级别。

raid0,raid1,raid10,raid5,raid50,raid6,raid60

Expander Support

支持的扩展器数量。0表示当前不支持对接扩展器。

0

VD OP Support

逻辑盘支持的操作。

repair,expand,create,delete,front init,background init,fast init,sanitize,ccheck

PD OP Support

物理硬盘支持的操作。

sanitize

Max PD Number

控制卡支持的最大物理硬盘数量。

40

Max HDD Number

控制卡支持的最大HDD硬盘数量。

40

Max SSD Number

控制卡支持的最大SSD硬盘数量。

40

Min HDD Number Raid0

RAID0最小硬盘数量(HDD)。

1

Max HDD Number Raid0

RAID0最大硬盘数量(HDD)。

30

Min SSD Number Raid0

RAID0最小硬盘数量(SSD)。

1

Max SSD Number Raid0

RAID0最大硬盘数量(SSD)。

30

Min HDD Number Raid1

RAID1最小硬盘数量(HDD)。

2

Max HDD Number Raid1

RAID1最大硬盘数量(HDD)。

2

Min SSD Number Raid1

RAID1最小硬盘数量(SSD)。

2

Max SSD Number Raid1

RAID1最大硬盘数量(SSD)。

2

Min HDD Number Raid10

RAID10最小硬盘数量(HDD)。

4

Max HDD Number Raid10

RAID10最大硬盘数量(HDD)。

30

Max HDD SubRg Number Raid10

RAID10最大子组数量(HDD)。

15

Min SSD Number Raid10

RAID10最小硬盘数量(SSD)。

4

Max SSD Number Raid10

RAID10最大硬盘数量(SSD)。

30

Max SSD SubRg Number Raid10

RAID10最大子组数量(SSD)。

15

Min HDD Number Raid5

RAID5最小硬盘数量(HDD)。

3

Max HDD Number Raid5

RAID5最大硬盘数量(HDD)。

30

Min SSD Number Raid5

RAID5最小硬盘数量(SSD)。

3

Max SSD Number Raid5

RAID5最大硬盘数量(SSD)。

30

Min HDD Number Raid50

RAID60最小硬盘数量(HDD)。

6

Max HDD Number Raid50

RAID60最大硬盘数量(HDD)。

40

Max HDD SubRg Number Raid50

RAID60最大子组数量(HDD)。

8

Min SSD Number Raid50

RAID60最小硬盘数量(SSD)。

6

Max SSD Number Raid50

RAID60最大硬盘数量(SSD)。

32

Max SSD SubRg Number Raid50

RAID60最大子组数量(SSD)。

8

Min HDD Number Raid6

RAID6最小硬盘数量(HDD)。

4

Max HDD Number Raid6

RAID6最大硬盘数量(HDD)。

30

Min SSD Number Raid6

RAID6最小硬盘数量(SSD)。

4

Max SSD Number Raid6

RAID6最大硬盘数量(SSD)。

30

Min HDD Number Raid60

RAID60最小硬盘数量(HDD)。

8

Max HDD Number Raid60

RAID60最大硬盘数量(HDD)。

40

Max HDD SubRg Number Raid60

RAID60最大子组数量(HDD)。

8

Min SSD Number Raid60

RAID60最小硬盘数量(SSD)。

8

Max SSD Number Raid60

RAID60最大硬盘数量(SSD)。

32

Max SSD SubRg Number Raid60

RAID60最大子组数量(SSD)。

8

Max VD Expand Times

VD最大支持扩展次数

7

Max VD Number

最大支持的VD数量。

127

Spares Support

支持的热备方式。

global hotspare,local hotspare,emergency hotspare

Hsp Per Raid

每个RAID组支持的最大局部热备盘数量。

2

Foreign Import Support

是否支持外部配置导入。

Yes

Max Globhps

最大支持的全局热备盘数量。

40

Phy Number

控制卡使用的最大phy数量。

16

Drive Support

支持的驱动器类型。

SCSI

PF Number

PF支持的数量(当前芯片最多支持2个)。

1

PF Type

PF工作模式。

SCSI

EP PCIe Width

控制卡PCIe宽度。

x8

EP PCIe Speed

控制卡PCIe速率。

16GT/s

VD Number Per Rg

每个RAID组最大创建的VD数量。

16

Rg Number

RAID组最大数量。

40

BP Support

备电模块是否支持。

Yes

SAS Contrller Speed

SAS控制卡支持的速率。

12Gb/s

PCIe RP Speed

PCIe下行设备支持的速率。

16GT/s

Max HDD Stripe Size

HDD最大条带大小。

16384KB

Max SSD Stripe Size

SSD最大条带大小。

16384KB

Min HDD Stripe Size

HDD最小条带大小。

32KB

Min SSD Stripe Size

SSD最小条带大小。

32KB

Max Su Size

虚拟磁盘的最大条带大小。

1024KB

Min Su Size

虚拟磁盘的最小条带大小。

32KB

 

使用实例

# 查询控制卡配置信息。

[root@localhost ~]# hiraidadm c0 show info
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
-------------------------------------------------------
Ctrl Mod                     | RAID
Rg Task Support              | rebuild,precopy,copyback,patrolread
Mod Support                  | raid,rawdrive
Raid Level Support           | raid0,raid1,raid10,raid5,raid50,raid6,raid60
Expander Support             | 0
VD OP Support                | repair,expand,create,delete,front init,background init,fast init,sanitize,ccheck
PD OP Support                | sanitize,erase,smart_polling
Max PD Number                | 40
Max HDD Number               | 40
Max SSD Number               | 40
Min HDD Number Raid0         | 1
Max HDD Number Raid0         | 30
Min SSD Number Raid0         | 1
Max SSD Number Raid0         | 30
Min HDD Number Raid1         | 2
Max HDD Number Raid1         | 2
Min SSD Number Raid1         | 2
Max SSD Number Raid1         | 2
Min HDD Number Raid10        | 4
Max HDD Number Raid10        | 30
Max HDD SubRg Number Raid10  | 15
Min SSD Number Raid10        | 4
Max SSD Number Raid10        | 30
Max SSD SubRg Number Raid10  | 15
Min HDD Number Raid5         | 3
Max HDD Number Raid5         | 30
Min SSD Number Raid5         | 3
Max SSD Number Raid5         | 30
Min HDD Number Raid50        | 6
Max HDD Number Raid50        | 40
Max HDD SubRg Number Raid50  | 8
Min SSD Number Raid50        | 6
Max SSD Number Raid50        | 32
Max SSD SubRg Number Raid50  | 8
Min HDD Number Raid6         | 4
Max HDD Number Raid6         | 30
Min SSD Number Raid6         | 4
Max SSD Number Raid6         | 30
Min HDD Number Raid60        | 8
Max HDD Number Raid60        | 40
Max HDD SubRg Number Raid60  | 8
Min SSD Number Raid60        | 8
Max SSD Number Raid60        | 32
Max SSD SubRg Number Raid60  | 8
Max VD Expand Times          | 7
Max VD Number                | 127
Spares Support               | global hotspare,local hotspare,emergency hotspare
Hsp Per Raid                 | 2
Foreign Import Support       | Yes
Max Globhps                  | 16
Phy Number                   | 40
Drive Support                | SCSI
PF Number                    | 1
PF Type                      | SCSI
EP PCIe Width                | x8
EP PCIe Speed                | 16GT/s
VD Number Per Rg             | 16
Rg Number                    | 40
Bp Support                   | Yes
SAS Contrller Speed          | 12Gb/s
PCIe RP Speed                | 16GT/s
Max HDD Stripe Size          | 16384KB
Max SSD Stripe Size          | 16384KB
Min HDD Stripe Size          | 32KB
Min SSD Stripe Size          | 32KB
Max Su Size                  | 1024KB
Min Su Size                  | 32KB
-------------------------------------------------------

21.7.2.43 升级和激活控制卡固件

命令功能

升级和激活控制卡固件。

命令格式

命令

说明

hiraidadm ccontroller_id update fw file=xx.img

升级控制卡固件。

hiraidadm ccontroller_id active fw type=hot

热激活控制卡固件,升级后进行。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

xx.img

升级固件文件。

-

 

使用指南

 

当采用热激活方式使固件生效时,存在如下限制:

l     版本号按照x.y.n.z形式定义,只有x.y.n字段相同的版本间升级支持热激活。例如从固件版本1.0.17.1升级到1.0.17.2支持热激活,从固件版本1.0.17.1升级到1.0.18.1不支持热激活。

l     在当前系统中不存在pinned cache(即LUN失效时,cache中存在的无法下发的脏数据)。如果存在,需要先删除pinned cache,或者恢复故障RAID组。

l     系统中没有重构、预拷贝、回拷、初始化、扩容等任务在执行。如果有,需要等待执行完成或者停止。可通过“hiraidadm ccontroller_id show bgtask”命令查看控制卡当前后台任务。

l     系统中没有sanitize擦除硬盘和erase擦除硬盘任务在执行。如果有,需要等待执行完成或者停止。可通过“hiraidadm ccontroller_id:eenclosure_id:sslot_id show sanitize”和“hiraidadm ccontroller_id:eenclosure_id:sslot_id show erase”命令查看硬盘擦除状态。

l     激活过程中,如果系统中cache数据和已下发的I/O数据在指定时间内无法完成,为了避免系统I/O异常,激活会终止并返回失败,需要稍后重试。

执行升级命令后,可通过以下两种激活方式使固件生效:

l     执行hiraidadm ccontroller_id active fw type=hot命令。表示采用热激活方式,无需重启服务器即可完成升级。

l     重启服务器,表示采用冷激活方式,使固件生效。

使用实例

# 升级控制卡固件。

[root@localhost ~]# hiraidadm c0 update fw file=packet_raid.img
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
update controller firmware done,duration: 2min42s
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

#激活控制卡固件。

[root@localhost ~]# hiraidadm c0 active fw type=hot
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.2.44 查询热备槽位

命令功能

查询控制卡热备槽位信息。

命令格式

hiraidadm ccontroller_id show hspslot

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

回显中主要字段的含义如21-43所示。

表21-43 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show hspslot

Id

热备槽位序号。

0

Enc

热备槽位类型。

0

Slot

热备槽位号。

0

 

使用实例

# 查询控制卡的热备槽位信息。

[root@localhost ~]# hiraidadm c0 show hspslot
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
hot spare slot num is 1
--------------------------------------------------------------------------------------------------------------
Hot Spare Slots Information
--------------------------------------------------------------------------------------------------------------
Id   Enc  Slot
0    0    2

21.7.2.45 查询SAS phy配置信息

命令功能

查询控制卡对phy口的配置情况。

命令格式

hiraidadm ccontroller_id show phy_cfg

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

无。

使用实例

# 查询控制卡对phy口的配置情况。

[root@localhost ~]# hiraidadm c0 show phy_cfg
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
Index  Slot  Switch   Speed
--------------------------------------------------------------------------------------------------------------
0      0     On       6.0Gb/s
--------------------------------------------------------------------------------------------------------------

21.7.2.46 查询和设置慢盘踢盘参数

命令功能

查询和设置控制卡慢盘踢盘参数。

命令格式

命令

说明

hiraidadm ccontroller_id set kickdrive [period=period] [sum=sum]

设置慢盘踢盘参数,至少设置一个参数。

hiraidadm ccontroller_id show kickdrive

查询慢盘踢盘参数。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

period

踢盘计数清零周期。

范围:190,单位:day

默认值为30

sum

一个周期可踢盘的最大计数。

范围:18

默认值为1

 

使用指南

l     由慢盘导致的踢盘发生后,会在一个周期(period)内记录踢掉的数量。

l     周期内慢盘导致踢盘总数不得超过最大限制(sum)。若超过将不允许剔除,等到周期到期、重置踢盘计数后才能继续剔除。

l     重启服务器时,踢盘总数(Total Kicked)和计数复位剩余时间(Count Reset Remaining Time)将会恢复至默认状态。

     踢盘总数Total Kicked)会清零。

     计数复位剩余时间(Count Reset Remaining Time)将会恢复到与计数复位周期(Count Reset Period)相同。

使用实例

# 设置慢盘踢盘参数。

[root@localhost ~]# hiraidadm c0 set kickdrive sum=1 period=10
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 查询慢盘踢盘参数。

[root@localhost ~]# hiraidadm c0 show kickdrive
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Count Reset Period         | 43 day
Total Allowed Kicks        | 7
Total Kicked               | 1
Count Reset Remaining Time | 43 day

21.7.2.47 查询和修复控制卡故障

命令功能

查询、修复控制卡故障。

命令格式

命令

说明

hiraidadm ccontroller_id show error

查询控制卡的当前故障信息。

hiraidadm ccontroller_id start repair type=error_type

修复控制卡的指定故障。

hiraidadm ccontroller_id show repair_process

查询控制卡的故障修复进度。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

error_type

故障类型。

包括:

l     writehole

l     restore

l     drop

l     pinnedcache vdid=vd_id

当故障类型为pinnedcache时,vd_id为需修复的vdid

 

使用指南

hiraidadm ccontroller_id show error”命令可查询的故障详细信息如下所示:

l     TSP errorTSP故障

l     NAC errorNAC故障

l     FirmWare error:固件异常

l     IMU errorIMU故障

l     Backup failed:备电失败

l     Soc FatalSOC重故障

l     DDR Mbit errorDDR Mbit故障

l     SRAM errorSRAM故障

l     DDRC errorDDRC故障

l     PCIe EP reference clock errorPCIe  EP侧参考时钟故障

l     PCIe RP reference clock errorPCIe  RP参考时钟故障

l     SAS Port reference clock errorSAS端口参考时钟故障

l     Power supply chip error:电源芯片工作异常

l     Internal power supply chip output voltage is too high:内部电源芯片输出电压过高

l     Internal power supply chip output voltage is too low:内部电源芯片输出电压过低

l     The chip internal module detection error:芯片内部模块检测错误(导致I/O停止)

l     The super capacitor voltage is too low:备电模块(超级电容)工作电压过低

l     The super capacitor voltage is too high:备电模块(超级电容)工作电压过高

l     The small capacitor value anomaly:小电容容值异常

l     The super capacitor value anomaly:超级电容容值异常

l     The small capacitor voltage is too low:小电容工作电压过低

l     The small capacitor voltage is too high:小电容工作电压过高

l     SPI Nor Flash errorSPI Nor Flash异常

l     SPI Nand Flash errorSPI Nand Flash异常

l     NFC Nand Flash errorNFC Nand Flash异常

使用实例

# 查询控制卡的故障信息。

[root@localhost ~]# hiraidadm c0 show error
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
the card is normal

#修复控制卡的writehole故障。

[root@localhost ~]# hiraidadm c0 start repair type=writehole
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 查询控制卡的故障修复进度。

[root@localhost ~]# hiraidadm c0 show repair_process
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
The card repair process is 100%.

21.7.2.48 查询和配置控制卡故障修复策略

命令功能

查询和设置控制卡故障修复策略。

命令格式

命令

说明

hiraidadm ccontroller_id set repair policy=repair_policy

配置控制卡的修复策略。

hiraidadm ccontroller_id show repair_policy

查询控制卡的修复策略。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

repair_policy

控制卡的修复策略。

l     ConfirmFW根据策略,选择不上报盘,上报错误。

l     Default:后台修复错误,修复系统后正常运行,提供日志记录和查询接口。

 

使用指南

无。

使用实例

# 设置控制卡的修复策略。

[root@localhost ~]# hiraidadm c0 set repair policy=default
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
Do you confirm the execution  [Warning] after setting "policy=default", the system will repair according
 to the default policy, and the problem of data loss may occur after repairing
Please input [y|Y] for yes, others for cancel
---------------------------------------------
y
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 查询控制卡修复策略。

[root@localhost ~]# hiraidadm c0 show repair_policy
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
The current repair policy is default.

21.7.2.49 查询和设置SAS链路请求分发的模式

命令功能

查询和设置SAS链路请求分发的模式。

命令格式

命令

说明

hiraidadm ccontroller_id set dphstartmod  [sas0=sas0_value] [sas1=sas1_value] [sas2=sas2_value] [sas3=sas3_value] [sas4=sas4_value]

设置SAS链路请求分发的模式。

hiraidadm ccontroller_id show dphstartmod

查询SAS链路请求分发的模式。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

sas0_value

影响slot0-slot7

l     0

l     1

sas1_value

影响slot8-slot15

l     0

l     1

sas2_value

影响slot16-slot23

l     0

l     1

sas3_value

影响slot24-slot31

l     0

l     1

sas4_value

影响slot32-slot39

l     0

l     1

 

使用指南

l     此命令用于在特定场景下进行性能调优。设置芯片在SAS链路上请求分发的模式,最多可以设置为5个。

l     支持一次配置15SAS IP的参数。重启后生效。

l     默认配置为1,通常不需要改变。

硬盘直连场景下:

l     同一组phy下存在SSDHDD盘混合读写时,建议配置为 1

l     同一组槽位,连接HDD盘,并且主要为小I/O8k即以下)访问,建议配置为0来改善性能。

使用实例

# 设置SAS链路请求分发的模式。

[root@localhost ~]# hiraidadm c0 set dphstartmod sas0=0 sas1=0 sas2=0 sas3=0 sas4=0
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
The configuration takes effect after the reboot.

# 查询SAS链路请求分发的模式。

[root@localhost ~]# hiraidadm c0 show dphstartmod
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Total sas ip number is 5.
-------------------------------------------------------
Index   CurrentConfig   NextConfig
-------------------------------------------------------
sas0    1               0
sas1    1               0
sas2    1               0
sas3    1               0
sas4    1               0
-------------------------------------------------------

21.7.2.50 查询和设置裸盘的流控门限

命令功能

查询、设置裸盘的流控门限。

命令格式

命令

说明

hiraidadm ccontroller_id set drivefc mode=mode [media=media]

设置裸盘的流控门限。

hiraidadm ccontroller_id show drivefc

查询裸盘的流控门限。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

mode

裸盘流控门限。

l     low:多盘性能优先(1025

l     high:单盘性能优先(2049

media

硬盘类型。

不填时默认为HDD

l     hdd

l     ssd

 

使用指南

设置裸盘的流控门限需重启后生效。

使用实例

# 设置裸盘的流控门限。

[root@localhost ~]# hiraidadm c0 set drivefc mode=high
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 查询裸盘的流控门限。

[root@localhost ~]# hiraidadm c0 show drivefc
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Media   CurrentMode   NextMode
-------------------------------------------------------
HDD     low           high
SSD     low           low
-------------------------------------------------------

21.7.2.51 查询固件详细版本

命令功能

查询控制卡各模块固件详细版本。

命令格式

hiraidadm ccontroller_id show fw_version

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

无。

使用实例

# 查询控制卡各模块固件详细版本。

[root@localhost ~]# hiraidadm c0 show fw_version
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
==============================================================================================================
fw_name         region          version        time
l0fw            m               1.3.3.0        22-11-15 22:22:58
l1fw            m               1.3.3.0        22-11-15 22:22:58
imudict         m               1.3.3.0        22-11-15 22:22:58
boot            m               1.3.3.0        22-11-15 22:22:58
cfgfile         m               1.3.3.0        22-11-15 22:22:58
hilink          m               1.3.3.0        22-11-15 22:22:58
microcode       m               1.3.3.0        22-11-15 22:22:58
apfw            m               1.3.3.0        22-11-15 22:22:58
apdict          m               1.3.3.0        22-11-15 22:22:58
optionrom       m               1.3.3.0        22-11-15 22:22:58
==============================================================================================================
fw_name         region          version        time
l0fw            s               1.3.3.0        22-11-15 22:22:58
l1fw            s               1.3.3.0        22-11-15 22:22:58
imudict         s               1.3.3.0        22-11-15 22:22:58
boot            s               1.3.3.0        22-11-15 22:22:58
cfgfile         s               1.3.3.0        22-11-15 22:22:58
hilink          s               1.3.3.0        22-11-15 22:22:58
microcode       s               1.3.3.0        22-11-15 22:22:58
apfw            s               1.3.3.0        22-11-15 22:22:58
apdict          s               1.3.3.0        22-11-15 22:22:58
optionrom       s               1.3.3.0        22-11-15 22:22:58
==============================================================================================================

21.7.2.52 查询超级电容容值和状态

命令功能

l     查询备电电容容量。

l     查询超级电容状态。

命令格式

命令

说明

hiraidadm ccontroller_id show backupcap

查询备电电容容量。

hiraidadm ccontroller_id show scaplearn

查询超级电容状态。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

回显中主要字段的含义如21-44所示。

表21-44 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show backupcap

Backup Cap Cf

备点电容容量。

1290uF

hiraidadm ccontroller_id show scaplearn

Learn Status

超级电容自学习状态。

UNDO

Super Cap Esr

Esr值。

0.00

Super Cap Cf

超级电容当前容量。

0.00

High Cap Vol

高档位电压值。

0 mV

 

使用实例

#查询备电电容容量。

[root@localhost ~]# hiraidadm c0 show backupcap
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Backup Cap Cf  | 2328uF

#查询超级电容状态。

[root@localhost ~]# hiraidadm c0 show scaplearn
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Learn Status  | OK
Super Cap Esr | 0.00
Super Cap Cf  | 6.57
High Cap Vol  | 0 mV

21.7.2.53 查询和设置日志级别

命令功能

查询、设置控制卡侧的日志级别。

命令格式

命令

说明

hiraidadm ccontroller_id set loglevel val=value

设置控制卡侧的日志级别。

hiraidadm ccontroller_id show loglevel

查询当前卡侧的日志级别。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

value

要设置的级别。

l     fatal

l     error

l     warn

l     print

l     info

l     debug

 

使用指南

无。

使用实例

# 设置控制卡日志级别为info

[root@localhost ~]# hiraidadm c0 set loglevel val=info
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 查询控制卡日志级别。

[root@localhost ~]# hiraidadm c0 show loglevel
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
The current raid card log level is info

21.7.2.54 查看当前存在pinned cache的虚拟磁盘

命令功能

查看当前控制卡存在pinned cache的虚拟磁盘,并显示虚拟磁盘状态。

LUN失效时,cache中无法下发的脏数据称为pinned cache

命令格式

hiraidadm ccontroller_id show pinnedcache

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

无。

使用实例

# 查看当前控制卡存在pinned cache的虚拟磁盘。

[root@localhost ~]# hiraidadm c0 show pinnedcache
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
controller has no pinnedcache

21.7.2.55 查询整板功耗

命令功能

查询控制卡整板功耗。

命令格式

hiraidadm ccontroller_id show adc

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

回显中主要字段的含义如21-45所示。

表21-45 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show adc

channel0

通道0电压值。

30492mV

channel1

通道1电压值。

12100mV

channel2

通道2电压值。

13409mV

channel3

通道3功率值(未使用)。

NA

channel4

通道4功率值。

24563mW

 

使用实例

# 查询控制卡整板功耗。

[root@localhost ~]# hiraidadm c0 show adc
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
channel0 :31626mV
channel1 :12265mV
channel2 :12188mV
channel3 :NA
channel4 :28700mW

21.7.2.56 查询和设置硬盘健康状态分析开关状态

命令功能

查询和设置硬盘健康状态分析开关状态。

命令格式

命令

说明

hiraidadm ccontroller_id set dha sw=switch

设置硬盘健康状态分析开关状态。

hiraidadm ccontroller_id show dhacfg

查询硬盘健康状态分析开关状态。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

switch

硬盘健康状态分析开关状态。

l     on

l     off

 

使用指南

无。

使用实例

#开启硬盘健康状态分析开关。

[root@localhost ~]# hiraidadm c0 set dha sw=on
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

#查询硬盘健康状态分析开关状态。

[root@localhost ~]# hiraidadm c0 show dhacfg
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
The DHA Switch | On

21.7.2.57 查询和设置虚拟磁盘的流控门限

命令功能

查询和设置虚拟磁盘的流控门限。

命令格式

命令

说明

hiraidadm ccontroller_id set vdfc mode=mode

设置虚拟磁盘的流控门限。

hiraidadm ccontroller_id show vdfc

查询虚拟磁盘的流控门限。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

mode

虚拟磁盘的流控门限。

l     low: 顺序I/O优先。

l     high: 随机I/O优先。

l     medium: 均衡。

 

使用指南

查询虚拟磁盘的流控门限时:

l     Current Mode为当前配置。

l     Next Mode为重启后生效配置。

使用实例

# 设置虚拟磁盘的流控门限。

[root@localhost ~]# hiraidadm c0 set vdfc mode=high
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
The configuration takes effect after the system is restarted.

# 查询虚拟磁盘的流控门限。

[root@localhost ~]# hiraidadm c0 show vdfc
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Current Mode  | low
Next    Mode  | high

21.7.2.58 查询和设置I/O合并参数

命令功能

查询和设置控制卡的I/O合并超时时间和合并个数。

命令格式

命令

说明

hiraidadm ccontroller_id set merge [sw=switch] [timeout=timeout] [count=count]

设置控制卡的I/O合并超时时间和合并个数,在控制卡没有I/O时配置。

hiraidadm ccontroller_id show merge

查询控制卡I/O合并参数。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

switch

开启或关闭控制卡I/O合并。

l     on:开启I/O合并

l     off:关闭I/O合并

缺省时默认为on

timeout

控制卡I/O合并超时时间。

l     default:配置为默认值,默认值为64

l     范围:51000000

单位:us

count

控制卡I/O合并最大个数。

l     default:配置为默认值,默认值为32

l     范围:232

 

使用指南

无。

使用实例

# 设置控制卡的I/O合并超时时间和合并个数,在控制卡没有I/O时配置。

[root@localhost ~]# hiraidadm c0 set merge sw=on timeout=1000 count=2
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.2.0
    Build Time: Dec 16 2022 18:56:35
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 查询控制卡I/O合并参数。

[root@localhost ~]# hiraidadm c0 show merge
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.2.0
    Build Time: Dec 16 2022 18:56:35
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Switch  | On
Timeout | 1000 us
Count   | 2

21.7.2.59 查询和设置虚拟磁盘的I/O合并参数

命令功能

查询和设置虚拟磁盘的I/O合并参数,支持配置一个或多个参数。

命令格式

命令

说明

hiraidadm ccontroller_id set vdmerge vd=vd_id [stripelen=stripelen] [startlen=startlen] [mergelen=mergelen]

设置虚拟磁盘的I/O合并参数,在对应虚拟磁盘没有I/O时配置。

hiraidadm ccontroller_id show vdmerge vd=vd

查询虚拟磁盘的I/O合并参数。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表

stripelen

MIX内部配置的LUN合并条带大小。

l     default:配置为默认值;如果LUN真实条带大小小于或者等于256KB,则默认值为真实条带大小的两倍;否则默认值为真实条带大小。

l     范围:84096*8,且必须为8的整数倍。

单位:sector/512B

startlen

MIX内部启动下发长度阈值。

l     default:配置为默认值;如果LUN真实条带大小小于或者等于256KB,则默认值为真实条带大小的两倍;否则默认值为真实条带大小

l     范围:84096*8,且必须为8的整数倍。

单位:sector/512B

mergelen

MIX内部限制下发长度阈值。

l     default:配置为默认值;如果LUN真实条带大小小于或者等于256KB,则默认值为1024KB;否则默认值为真实条带大小。

l     范围:84096*8,且必须为8的整数倍。

单位:sector/512B

vd

指定VD或全部。

l     all:查询所有VD配置。

l     指定逻辑盘的ID

 

使用指南

无。

使用实例

# 设置虚拟磁盘的I/O合并参数。

[root@localhost ~]# hiraidadm c0 set vdmerge vd=0 stripelen=4096 startlen=4096 mergelen=4096
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.2.0
    Build Time: Dec 16 2022 18:56:35
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 查询所有虚拟磁盘的I/O合并参数。。

[root@localhost ~]# hiraidadm c0 show vdmerge vd=all
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.2.0
    Build Time: Dec 16 2022 18:56:35
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Total vd number is 1
-------------------------------------------------------
VDID   StripeLen(512B)   StartLen(512B)   MergeLen(512B)
-------------------------------------------------------
0      4096              4096             4096
-------------------------------------------------------

21.7.2.60 查询和设置硬盘并发参数

命令功能

查询和设置硬盘并发参数。

命令格式

命令

说明

hiraidadm ccontroller_id set quedepth type=type [sashdd=sashdd] [sasssd=sasssd] [satahdd=satahdd] [satassd=satassd]

设置硬盘并发参数。

hiraidadm ccontroller_id show quedepth

查询硬盘并发参数。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

type

配置裸盘或RAID成员盘。

l     rawdrive:裸盘

l     raidRAID成员盘

sashdd

配置SAS HDD

范围: 1128

sasssd

配置SAS SDD

范围: 1128

satahdd

配置SATA HDD

范围: 132

satassd

配置SATA SSD

范围: 132

 

使用指南

无。

使用实例

# 设置硬盘并发参数。

[root@localhost ~]# hiraidadm c0 set quedepth type=raid sashdd=128 satassd=16
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
The configuration takes effect after the reboot.

# 查询硬盘并发参数。

[root@localhost ~]# hiraidadm c0 show quedepth
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
                Current Config
-------------------------------------------------------
Type      SASHDD    SASSSD    SATAHDD    SATASSD
-------------------------------------------------------
RAID      32        64        32         32
RawDrive  64        64        32         32
 
                Next Config
-------------------------------------------------------
Type      SASHDD    SASSSD    SATAHDD    SATASSD
-------------------------------------------------------
RAID      128       64        32         16
RawDrive  64        64        32         32
-----------------------------------------------------

21.7.3 虚拟磁盘命令

查询虚拟磁盘信息

命令功能

查询控制卡中虚拟磁盘详细信息。

命令格式

hiraidadm ccontroller_id:vdvd_id show

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表

 

使用指南

回显中主要字段的含义如21-46所示。

表21-46 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:vdvd_id show

ID

逻辑盘ID

0

Name

VD名称。

vd0

RAID ID

RAIDID信息。

0

RAID Level

RAID组级别。

0

Status

VD状态。

normal

VD Type

逻辑盘类型。

normal

Capacity

容量。

1.454TB

VD WWN

虚拟盘唯一标识。

0x68c2a8e000000001000000000010b5c5

OS Drive Letter

虚拟盘上报到主机的盘符。

/dev/sda

Is Boot Device

是否为启动设备。

false

Strip Size

条带大小。

128KB

Strip Unit Size

条带单元大小。

64KB

Sector Size

扇区大小。

512B

Sector Tyoe

扇区类型。

512E

Write Cache

cache写状态。

WT

Real Write Cache

实际有效的写cache状态。

WT

Read Cache

cache读状态。

No Ahead

Whether Dirty Cache

是否有未下刷的脏cache数据。

No

Sub Group Number

子组数量。

1

Sub Group Drive Number

每个子组磁盘数量。

3

VD Initialize Rate

逻辑盘初始化速率。

high

VD Initialize Progress

初始化进度。

NA

Patrolread Rate

巡检速率。

medium

VD Sanitize Progress

擦除进度。

NA

Block Number

组成VD的块数量。

0

Blocks

l     Index:块索引

l     VD_ID:块所属VD

l     Next_ID:链接的下一块ID

l     Capacity:块容量

l     Start_Lba_On_Drive:本块在物理盘上起始块位置

l     Sec_Num_On_Drive:在单个物理盘上的扇区数量

-

 

使用实例

#查询指定虚拟磁盘的详细信息。

[root@localhost ~]# hiraidadm c0:vd0 show
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
                    Virtual Drive Information
--------------------------------------------------------------------------------------------------------------
ID                          | 0
Name                        | vd0
RAID ID                     | 0
RAID Level                  | 1
Status                      | normal
VD Type                     | normal
Map Type                    | SCSI
Capacity                    | 97.656GB [0xc350000 Sectors]
VD WWN                      | 0x6acdcca0000000010000000000228133
OS Drive Letter             | /dev/sdb
Is Boot Drive               | True
Stripe Size                 | 256KB
Stripe Unit Size            | 256KB
Sector Size                 | 512B
Sector Type                 | 512N
Write Cache                 | WT
Real Write Cache            | WT
Read Cache                  | No_Ahead
Access Policy               | RW
Stream Type                 | Normal
Work PF                     | PF0
Whether Dirty Cache         | No
Sub Group Number            | 1
Sub Group Drive Number      | 2
VD Initialize Rate          | high
VD Initialize Progress      | NA
Patrolread Rate             | low
VD Sanitize Progress        | NA
--------------------------------------------------------------------------------------------------------------
 
Virtual Drive Block Infomation :
--------------------------------------------------------------------------------------------------------------
Block Number is 1
Index VD_ID Next_ID Capacity   Start_Lba_On_Drive  Sec_Num_On_Drive
--------------------------------------------------------------------------------------------------------------
0     0     NA        97.656GB 0x0                 204800000

21.7.3.61 查询RAID组信息

命令功能

查询控制卡中RAID组详细信息。

命令格式

hiraidadm ccontroller_id:rgrg_id show

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

rg_id

RAID组的ID

查询RAID组的ID请参见21.7.2.27 查询控制卡RAID组列表

 

使用指南

回显中主要字段的含义如21-47所示。

表21-47 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:rgrg_id show

ID

RAID组的ID

0

Name

RAID组的名称。

raid0

RAID Level

RAID组级别。

0

Status

RAID组状态。

l     normal:正常

l     fault:故障

l     degrade:降级状态

normal

Total Capacity

RAID组总容量。

371.611GB  [0x2e739000 Sectors]

Free Capacity

RAID组空闲的容量。

313.018GB  [0x27209000 Sectors]

Current Background Task

当前正在进行的后台任务。

NA

CopyBack Switch

RAID组回拷开关状态。

on

PD Cache

硬盘Cache状态。

on

Logical Block Size

逻辑块大小。

512B

Block Type

块类型。

512E

Sub Group Number

子组数量。

1

Sub Group Drive Number

RAID组子组硬盘数量。

1

Sub Group Free Capacity

子组剩余容量大小。

313.018GB  [0x27209000 Sectors]

Sub Group Strip Size

子组条带大小。

0KB

Aligned Size

校准大小。

512MB

Virtual Drives Number

VD数量。

3

Member VD List

RAID组下VD列表。

1 2 3

Member Drive Number

RAID组成员盘数量。

2

Member Drives

RAID组成员盘信息。

l     Index:序号

l     Enc:Slot:成员盘框位、槽位ID

l     Did:成员盘逻辑ID

l     Sub Group:成员盘所属子组ID

-

Hotspare Drives Number

热备盘数量。

0

Hotsapre Drives

RAID组热备盘信息。

l     Index:序号

l     Enc:Slot:热备盘框位、槽位ID

l     Did:热备盘逻辑ID

l     Sub Group:热备盘所属子组ID

-

Total Block Number

RAID组的Block数量(由于创建和删除VD,在RAID组上留下的非连续空间)。

5

Free Block Number

RAID组的空闲区间容量。

2

RAID Group Block Number

RAID组的的Block数量。

5

RAID Group Block

组成该RAID组的详细块信息。

l     Index:块序号

l     Capacity:块容量

l     Used:是否已使用

l     VD_ID:使用该块的逻辑盘ID

l     Start_lba:起始的物理块寻址

l     End_lba:结束的物理块寻址

-

 

使用实例

#查询指定RAID组的详细信息。

[root@localhost ~]# hiraidadm c0:rg0 show
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
     RAID Group Major Information :
--------------------------------------------------------------------------------------------------------------
ID                      | 0
Name                    | raid0
RAID Level              | 1
Status                  | normal
Total Capacity          | 3.638TB [0x1d1a0b800 Sectors]
Free Capacity           | 3.542TB [0x1c56bb800 Sectors]
Current Background Task | NA
--------------------------------------------------------------------------------------------------------------
     RAID Group Details :
--------------------------------------------------------------------------------------------------------------
CopyBack Switch         | On
PD Cache                | Default
Logical Block Size      | 512B
Block Type              | 512N
Sub Group Number        | 1
Sub Group Drive Number  | 2
Sub Group Free Capacity | 3.542TB [0x1c56bb800 Sectors]
Aligned Size            | 512MB
Virtual Drive Number    | 1
Member VD List          | 0
--------------------------------------------------------------------------------------------------------------
     RAID Group Member Drive Infomation :
--------------------------------------------------------------------------------------------------------------
Member Drive Number is 2
Index          1          2
--------------------------------------------------------------------------------------------------------------
Enc:Slot      0:0        0:1
--------------------------------------------------------------------------------------------------------------
Did            5          6
--------------------------------------------------------------------------------------------------------------
Sub_Group      0          0
--------------------------------------------------------------------------------------------------------------
 
     RAID Group Hotspare Drive Infomation :
--------------------------------------------------------------------------------------------------------------
Hotspare Drive Number 0
--------------------------------------------------------------------------------------------------------------
 
     RAID Group Block Infomation :
--------------------------------------------------------------------------------------------------------------
Total Block Number      | 2
Free Block Number       | 1
RAID Group Block Number 2
Index  Capacity   Used  VD_ID  Start_lba          End_lba
--------------------------------------------------------------------------------------------------------------
0        97.656GB  Yes   0     0x0                0xc34ffff
1         3.542TB  No    NA    0xc350000          0x1d1a0beb0

21.7.3.62 查询虚拟磁盘的成员盘信息

命令功能

查询虚拟磁盘的成员盘信息。

命令格式

hiraidadm ccontroller_id:vdvd_id show pdarray

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表

 

使用指南

回显中主要字段的含义如21-48所示。

表21-48 回显说明

命令格式

字段

含义

举例

l     hiraidadm ccontroller_id:vdvd_id show pdarray

l     hiraidadm ccontroller_id:rgrg_id show pdarray

Enc

硬盘所在框号

0

Slot

硬盘所在槽位号

5

DID

硬盘逻辑ID

0

AssoEnc

关联盘所在框号(备份、迁移等)。

NA

AssoSlot

关联盘所在槽位号。

NA

AssoDid

关联盘逻辑ID

NA

Intf

接口类型。

SAS

Media

介质类型。

SSD

Status

硬盘当前所处状态。

online

AssoStatus

关联盘当前状态。

NA

Capacity

可用容量大小。

799.629GB

SecSz

扇区大小。

512B

Model

硬盘型号。

HWE52SS3800M005N

 

使用实例

#查询指定虚拟磁盘成员盘信息。

[root@localhost ~]# hiraidadm c0:vd0 show pdarray
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Total Member Drive Number is 2
--------------------------------------------------------------------------------------------------------------
Enc  Slot DID  AssoEnc  AssoSlot AssoDid  Intf  Media Status         AssoStatus     Capacity   SecSz Model
--------------------------------------------------------------------------------------------------------------
0    0    5    NA       NA       NA       SATA  HDD   online         NA                3.638TB  512B HUS726T4TALA600
0    1    6    NA       NA       NA       SATA  HDD   online         NA                3.638TB  512B HUS726T4TALA600
--------------------------------------------------------------------------------------------------------------

21.7.3.63 查询RAID组的成员盘信息

命令功能

查询RAID组的成员盘信息。

命令格式

hiraidadm ccontroller_id:rgrg_id show pdarray

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

rg_id

RAID组的ID

查询RAID组的ID请参见21.7.2.27 查询控制卡RAID组列表

 

使用指南

回显中主要字段的含义如21-49所示。

表21-49 回显说明

命令格式

字段

含义

举例

l     hiraidadm ccontroller_id:vdvd_id show pdarray

l     hiraidadm ccontroller_id:rgrg_id show pdarray

Enc

硬盘所在框号

0

Slot

硬盘所在槽位号

5

DID

硬盘逻辑ID

0

AssoEnc

关联盘所在框号(备份、迁移等)。

NA

AssoSlot

关联盘所在槽位号。

NA

AssoDid

关联盘逻辑ID

NA

Intf

接口类型。

SAS

Media

介质类型。

SSD

Status

硬盘当前所处状态。

online

AssoStatus

关联盘当前状态。

NA

Capacity

可用容量大小。

799.629GB

SecSz

扇区大小。

512B

Model

硬盘型号。

HWE52SS3800M005N

 

使用实例

#查询指定RAID组成员盘信息。

[root@localhost ~]# hiraidadm c0:rg0 show pdarray
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Total Member Drive Number is 2
--------------------------------------------------------------------------------------------------------------
Enc  Slot DID  AssoEnc  AssoSlot AssoDid  Intf  Media Status         AssoStatus     Capacity   SecSz Model
--------------------------------------------------------------------------------------------------------------
0    0    5    NA       NA       NA       SATA  HDD   online         NA                3.638TB  512B HUS726T4TALA600
0    1    6    NA       NA       NA       SATA  HDD   online         NA                3.638TB  512B HUS726T4TALA600
--------------------------------------------------------------------------------------------------------------

21.7.3.64 查询和设置虚拟磁盘一致性校验参数

命令功能

查询、设置虚拟磁盘一致性校验参数。

命令格式

命令

说明

hiraidadm ccontroller_id:vdvd_id show ccheck

查询虚拟磁盘一致性校验参数。

hiraidadm ccontroller_id:vdvd_id start ccheck [delay=delay]

设置虚拟磁盘一致性校验并开始。

hiraidadm ccontroller_id:vdvd_id stop ccheck

停止虚拟磁盘一致性校验。

hiraidadm ccontroller_id:vdvd_id show inconsistent

查询虚拟磁盘的条带一致性校验错误信息。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表

delay

延时时间。

124,单位:h

 

使用指南

回显中主要字段的含义如21-50所示。

表21-50 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:vdvd_id show ccheck

ID

当前正在进行一致性校验的虚拟磁盘的ID

0

CCheck Switch

自动一致性校验开关。

on

Delay

一致性校验延时启动时间。

1 h

Period

一致性校验周期。

30 day

Rate

一致性校验速率。

low

Repair

自动修复开关。

off

Run status

一致性校验运行状态。

stop

Progress

一致性校验进度。

100%

Estimated Time

剩余预估时间。

0 min

 

使用实例

# 查询指定虚拟磁盘一致性校验信息。

[root@localhost ~]# hiraidadm c0:vd0 show ccheck
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
               Consistency Check Information
-------------------------------------------------------
ID                      | 0
CCheck Switch           | On
Delay                   | 0 h
Period                  | 20 day
Rate                    | low
Repair                  | On
Run status              | stop
Progress                | NA
Estimated Time          | NA
-------------------------------------------------------

# 启动指定虚拟磁盘一致性校验。

[root@localhost ~]# hiraidadm c0:vd0 start ccheck delay=1
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 停止指定虚拟磁盘一致性校验。

[root@localhost ~]# hiraidadm c0:vd0 stop ccheck
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 查询指定虚拟磁盘条带一致性校验错误信息。

[root@localhost ~]# hiraidadm c0:vd0 show inconsistent
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Total stripe number is 0

21.7.3.65 设置虚拟磁盘的Cache读写策略

命令功能

设置虚拟磁盘的Cache读写策略。

命令格式

命令

说明

hiraidadm ccontroller_id:vdvd_id set wcache mode=wcache_mode

设置虚拟磁盘Cache写策略。

hiraidadm ccontroller_id:vdvd_id set rcache mode=rcache_mode

设置虚拟磁盘Cache读策略。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表

wcache_mode

设置虚拟磁盘Cache写策略。

l     WB:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     WT:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     WBE:在控制卡无电容或电容损坏的情况下,强制使用“wb”策略。

rcache_mode

设置虚拟磁盘Cache读策略。

l     Ahead:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     No_ahead:控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

 

使用指南

无。

使用实例

# 设置虚拟磁盘Cache写策略为“WT”。

[root@localhost ~]# hiraidadm c0:vd0 set wcache mode=WT
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 设置虚拟磁盘Cache写策略为“No_Ahead”。

[root@localhost ~]# hiraidadm c0:vd0 set rcache mode=No_Ahead
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.3.66 设置虚拟磁盘名称

命令功能

设置虚拟磁盘的名称。

命令格式

命令

说明

hiraidadm ccontroller_id:vdvd_id set name val=name

设置虚拟磁盘的名称。

hiraidadm ccontroller_id:vdvd_id clear name

清空虚拟磁盘的名称,将名称设置为空。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表

name

设置的逻辑盘名称。

最大20字符。

 

使用指南

无。

使用实例

# 设置指定虚拟磁盘的名称为“vd_name”。

[root@localhost ~]# hiraidadm c0:vd0 set name val=vd_name
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 清空指定虚拟磁盘的名称。

[root@localhost ~]# hiraidadm c0:vd0 clear name
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.3.67 删除虚拟磁盘

命令功能

删除虚拟磁盘。

命令格式

hiraidadm ccontroller_id:vdvd_id delete [noprompt]

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表

noprompt

无需用户确认。

-

 

使用指南

l     当一个RAID组上所有虚拟磁盘都删除后,RAID组删除。

l     当删除虚拟磁盘时不带参数noprompt,输入命令后提示“Do you confirm the execution delete?[Warning] If the VD has an operating system, the operating system may be abnormal.Please input [y|Y] for yes, others for cancel”时。

     输入“y”或“Y”并按“Enter”确认操作。

     输入其他取消操作。

使用实例

# 删除虚拟磁盘。

[root@localhost ~]# hiraidadm c0:vd0 delete
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
Do you confirm the execution delete?
[Warning] If the VD has an operating system, the operating system may be abnormal.
Please input [y|Y] for yes, others for cancel
---------------------------------------------
y
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.3.68 扩充虚拟磁盘容量

命令功能

给指定虚拟磁盘扩充容量。

命令格式

命令

说明

hiraidadm ccontroller_id:vdvd_id expand size=size

通过增加成员盘可用容量扩充虚拟磁盘容量。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表

size

要扩容的容量大小。

单位:MB

max_left表示使用当前RAID组所有剩余容量。

 

使用指南

无。

使用实例

# 扩充指定虚拟磁盘的容量。

[root@localhost ~]# hiraidadm c0:vd0 expand size=200000
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None

21.7.3.69 设置虚拟磁盘为默认启动项

命令功能

设置指定虚拟磁盘为控制卡默认启动项。

命令格式

hiraidadm ccontroller_id:vdvd_id set boot sw=switch

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表

switch

是否作为启动盘。

l     on:开启作为启动盘

l     off:关闭作为启动盘

 

使用指南

无。

使用实例

# 设置指定虚拟磁盘作为启动盘。

[root@localhost ~]# hiraidadm c0:vd0 set boot sw=on
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : on
--------------------------------------------------------------------------------------------------------------

21.7.3.70 查询和设置虚拟磁盘擦除

命令功能

l     启动、停止擦除虚拟磁盘。

l     查询擦除进度。

命令格式

命令

说明

hiraidadm ccontroller_id:vdvd_id show sanitize

查询虚拟磁盘擦除进度。

hiraidadm ccontroller_id:vdvd_id start sanitize mode=sanitize_mode

设置并开始擦除虚拟磁盘。

hiraidadm ccontroller_id:vdvd_id stop sanitize

停止擦除虚拟磁盘。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表

sanitize_mode

设置擦除模式。

l     simple:仅对虚拟磁盘进行一轮擦除动作。

l     normal:对虚拟磁盘进行三轮擦除动作。

l     thorough:对虚拟磁盘进行九轮擦除动作。

 

使用指南

回显中主要字段的含义如21-51所示。

表21-51 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:vdvd_id show sanitize

ID

序号。

lun_0_autocase

Name

逻辑盘名称。

0

Capacity

容量大小。

10.000GB

Task Status

擦除状态。

Running

VD Status

逻辑盘当前状态。

sanitizing

Rate

擦除速度。

low

Sanitize mode

LUN的擦除模式。

simple

Progress

擦除进度。

94%

Estimated Time

预计剩余时间。

1(min)

 

使用实例

# 查询指定虚拟磁盘的擦除进度。

[root@localhost ~]# hiraidadm c0:vd1 show sanitize
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
                  Virtual Drive Sanitize Information
--------------------------------------------------------------------------------------------------------------
ID                       | 0
Name                     | vd_name
Capacity                 | 292.969GB
Task Status              | Running
VD Status                | sanitizing
Rate                     | low
Sanitize Mode            | simple
Progress                 | 0%
Estimated Time           | 112 min
--------------------------------------------------------------------------------------------------------------

#启动擦除指定虚拟磁盘。

[root@localhost ~]# hiraidadm c0:vd1 start sanitize mode=simple
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 停止擦除指定虚拟磁盘。

[root@localhost ~]# hiraidadm c0:vd1 stop sanitize
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.3.71 清除当前存在的pinned cache

命令功能

清除虚拟磁盘中的pinned cache数据。

LUN失效时,cache中无法下发的脏数据称为pinned cache

命令格式

hiraidadm ccontroller_id:vdvd_id delete pinnedcache

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表

 

使用指南

无。

使用实例

# 清除vd1pinnedcache数据。

[root@localhost ~]# hiraidadm c0:vd1 delete pinnedcache
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.3.72 设置虚拟磁盘成员盘Cache策略

命令功能

设置虚拟磁盘成员盘的Cache策略。

命令格式

hiraidadm ccontroller_id:vdvd_id set pdcache sw=switch

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表

switch

硬盘Cache开关。

l     on:开启硬盘Cache

l     off:关闭成员盘Cache

l     default:保持当前成员盘Cache状态。

 

使用实例

# 打开指定虚拟磁盘的成员盘Cache

[root@localhost ~]# hiraidadm c0:vd2 set pdcache sw=on
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.3.73 设置RAID成员盘Cache策略

命令功能

设置RAID成员盘的Cache策略。

命令格式

hiraidadm ccontroller_id:rgrg_id set pdcache sw=switch

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

rg_id

RAID组的ID

查询RAID组的ID请参见21.7.2.27 查询控制卡RAID组列表

switch

硬盘Cache开关。

l     on:开启硬盘Cache

l     off:关闭成员盘Cache

l     default:保持当前成员盘Cache状态。

 

使用指南

无。

使用实例

# 开启指定RAID成员盘Cache

[root@localhost ~]# hiraidadm c0:rg1 set pdcache sw=on
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.3.74 设置虚拟磁盘读写属性

命令功能

设置虚拟磁盘读写属性。

命令格式

hiraidadm ccontroller_id:vdvd_id set access policy=policy

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见21.7.2.26 查询控制卡虚拟磁盘列表

policy

虚拟磁盘的读写属性。

l     RO:设置为只读。

l     RW:设置为读写。

 

使用指南

l     仅允许设置RAID下非fault状态的虚拟磁盘。

l     Bst超标导致失效的虚拟磁盘设置只读,需要重启才能生效。

l     Bst超标导致fault场景:如果有重构,用户需要设置只读前,关闭紧急热备,再下线热备盘,然后配置只读,重启等待只读生效,把数据读走后再还原配置(上线、开启紧急热备)。

l     查询虚拟磁盘读写属性请参见0查询虚拟磁盘信息

使用实例

# 设置虚拟磁盘为只读。

[root@localhost ~]# hiraidadm c0:vd0 set accesss policy=ro
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.4 硬盘命令

查询硬盘详细信息

命令功能

查询指定硬盘的详细信息。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id show

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表

 

使用指南

回显中主要字段的含义如21-52所示。

表21-52 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:eenclosure_id:sslot_id show

Enc

硬盘所在的框位ID

0

Slot

硬盘所在槽位的ID

15

DID

硬盘逻辑ID

4

Intf

硬盘接口类型。

SATA

Media type

硬盘物理类型。

SSD

Link speed

端口协商速度。

6.0Gb/s

Capacity

硬盘原始容量大小。

1.920TB  [0xdf8fe2b0 Sectors]

Hibernated Status

硬盘休眠状态。

Spin Up

Model

硬盘型号。

SAMSUNG MZ7LH1T9HMLT-00005

Type

硬盘类型。

member

Status

硬盘当前状态。

online

Is Hotspare Drive

是否为热备盘。

False

Is Boot Drive

是否为启动盘。

False

Asso Enc

关联硬盘框号。

NA

Asso Slot

关联硬盘槽位号。

NA

Asso Device Id

关联硬盘的ID

NA

RAID Group ID

硬盘所属RAID组的ID

NA

RAID Group Level

硬盘所在RAID组级别。

NA

RAID Group Capacity

硬盘所属RAID组容量。

NA

PreFail

硬盘是否预失效。

False

Media Error count

介质错误统计。

0

Other Error count

除介质错误外,其余错误统计。

0

Locate Led Status

硬盘位置灯的状态。

Off

SAS Address

硬盘的SAS地址。

0x5000000000000107

Drive WWN

硬盘唯一标识。

5002538e106102d0

OS Drive Letter

若硬盘开了直通功能,该盘上报到主机后分配的盘符。

NA

Vendor

硬盘厂商。

ATA

Serial number

硬盘序列号。

S455NA0N647543

Firmware Version

硬盘固件版本号。

404Q

Drive Max Speed

硬盘最大速率。

6.0Gb/s

Logical Sector Size

硬盘逻辑扇区大小。

512B

Physicak Sector Size

硬盘物理扇区大小。

4096B

Drive temperature

硬盘当前温度。

31c

Drive size

硬盘尺寸。

2.5 inch

Drive Cache Switch

硬盘Cache状态。

OFF

Ncq Support

是否支持原生命令队列。

True

Ncq Enable

原生命令队列使能状态。

Enable

SED Capable

是否为加密盘。

False

SED Enabled

是否开启加密。

False

Power On Time

硬盘累计上电时间。

1443h

Connected Port Id

硬盘连接端口号。

0

Linked Port Speed

端口最大速率。

6.0Gb/s

Rotation Rate

硬盘转速。

Non-rotating Medium

Residual Wearout

剩余磨损度,支持所有的SAS SSD和支持磨损度查询的SATA SSD

NA

Current Task

硬盘当前任务。

NA

Task Remaining Time

任务预估时间。

0

Task Progress

任务进度。

NA

Fua Support

是否支持FUA

Yes

Slow Drive

是否为慢盘。

No

 

使用实例

#查询指定硬盘的详细信息。

[root@localhost ~]# hiraidadm c0:e0:s0 show
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
 
     Drive Major Information :
--------------------------------------------------------------------------------------------------------------
Enc                     | 0
Slot                    | 0
DID                     | 5
Intf                    | SATA
Media Type              | HDD
Link Speed              | 6.0Gb/s
Capacity                | 3.639TB [0x1d1c0beb0 Sectors]
Hibernated Status       | Spin Up
Model                   | HUS726T4TALA600
 
     Drive Logical Infomation :
--------------------------------------------------------------------------------------------------------------
Type                    | member
Status                  | online
Is Hotspare Drive       | False
Is Boot Drive           | False
Asso Enc                | NA
Asso Slot               | NA
Asso Device Id          | NA
RAID Group ID           | 0
RAID Group Level        | 1
RAID Group Capacity     | 3.638TB
 
     Drive Health Status :
--------------------------------------------------------------------------------------------------------------
Prefail                 | No
Media Error Count       | 0
Other Error Count       | 0
Locate Led Status       | Off
 
     Drive Detail Information :
--------------------------------------------------------------------------------------------------------------
SAS Address             | 0x5000000000000007
Drive WWN               | 5000cca097f5e8a0
OS Drive Letter         | NA
Vendor                  | HITACHI
Serial Number           | V6KULAGS
Firmware Version        | T010
Drive Max Speed         | 6.0Gb/s
Logical Sector Size     | 512B
Physical Sector Size    | 512B
Drive Temperature       | 32c
Drive size              | 3.5 inch
Drive Cache Switch      | Off
Ncq Support             | True
Ncq Enable              | Enable
SED Capable             | False
SED Enabled             | False
Power On Time           | 4321h
Connected Port Id       | 3
Phy Max Speed           | 12Gb/s
Rotation Rate           | 7200rpm
Residual Wearout        | NA
Current Task            | NA
Task Remaining Time     | NA
Task Progress           | NA
Fua Support             | Yes
Slow Drive              | No

21.7.4.75 设置硬盘状态

命令功能

设置硬盘状态。

当全局裸盘模式开启时,才支持设置硬盘状态为JBOD

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id set status

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表

status

设置的硬盘状态。

l     free:设置硬盘空闲

l     jbod:设置硬盘为裸盘

 

使用指南

无。

使用实例

# 将指定硬盘设置为空闲状态。

[root@localhost ~]# hiraidadm c0:e0:s9 set free
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.4.76 设置热备盘

命令功能

设置硬盘为全局热备盘或局部热备盘。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id set hotspare [rg=rg_id]

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表

rg_id

RAID组的ID

查询RAID组的ID请参见21.7.2.27 查询控制卡RAID组列表

 

使用指南

若要取消热备盘状态,可使用以下命令,具体请参见21.7.4.74 设置硬盘状态

hiraidadm ccontroller_id:eenclosure_id:sslot_id set free

使用实例

# 设置指定硬盘为全局热备盘。

[root@localhost ~]# hiraidadm c0:e0:s2 set hotspare
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 设置指定硬盘为RAID的局部热备盘。

[root@localhost ~]# hiraidadm c0:e0:s2 set hotspare rg=0
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.4.77 设置指定槽位为热备槽位

命令功能

设置指定槽位为热备槽位。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id set hspslot sw=switch

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表

switch

设置热备槽位使能状态。

l     on:开启热备槽位功能

l     off:关闭热备槽位功能

 

使用指南

无。

使用实例

# 设置指定槽位为热备槽位。

[root@localhost ~]# hiraidadm c0:e0:s2 set hspslot sw=on
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.4.78 设置phy口状态

命令功能

设置当前硬盘对应端口phy的连接状态(仅直连硬盘)。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id set phy func=func [sp=speed]

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表

func

指定功能函数。

l     hardreset

l     linkreset

l     disable

l     enable

l     speed

l     enableloop

l     disableloop

speed

链接速率,当func=speed时有效。

l     1.5G

l     3G

l     6G

l     12G

 

使用指南

无。

使用实例

#设置指定硬盘phy口状态为disable

[root@localhost ~]# hiraidadm c0:e0:s5 set phy func=disable
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.4.79 查询和清除phy口误码

命令功能

l     查询当前硬盘phy口的链路状态。

l     清除指定硬盘phy口的误码计数。

命令格式

命令

说明

hiraidadm ccontroller_id:eenclosure_id:sslot_id show phyerror

查询当前硬盘phy口的链路状态。

hiraidadm ccontroller_id:eenclosure_id:sslot_id clear phyerror

清除指定硬盘phy口的误码计数。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表

 

使用指南

回显中主要字段的含义如21-53所示。

表21-53 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:eenclosure_id:sslot_id show phyerror

Phy id

phy端口ID

7

Phy enable

Phy口使能状态。

enable

Link speed

端口下行速率。

6.0Gb/s

Attach Device Type

设备类型。

SATA

Attach SAS Address

连接的sas设备地址。

0x5000000000000007

Invalid Dword Count

无效的双字计数。

0

Run Disparity Error Count

运行差异错误计数。

0

Loss Of Dword Sync

双字同步丢失数。

0

Phy Reset Problem Count

Phy口重置问题计数。

0

 

使用实例

#查询硬盘phy的链路状态。

[root@localhost ~]# hiraidadm c0:e0:s0 show phyerror
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
-------------------------------------------------------
Phy id                  | 7
Phy enable              | enable
Link speed              | 6.0Gb/s
Attach Device Type      | SATA
Attach SAS Address      | 0x5000000000000007
Invalid Dword Count     | 0
Run Disparity Err Count | 0
Loss Of Dword Syn Count | 0
Phy Reset Problem Count | 0
-------------------------------------------------------

#清除硬盘phy口的误码计数。

[root@localhost ~]# hiraidadm c0:e0:s0 clear phyerror
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.4.80 查询硬盘端误码

命令功能

查询指定硬盘端误码。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id show driveerror

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表

 

使用指南

无。

使用实例

#查询硬盘端误码。

[root@localhost ~]# hiraidadm c0:e0:s0 show driveerror
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
Device Present                                                    | Yes
Drive Type                                                        | SATA
Link Speed                                                        | 6.0Gb/s
Command failed and ICRC error bit set to one in Error register    | 0
R_ERRP response for Data FIS                                      | 0
R_ERRP response for Device-to-Host Data FIS                       | 0
R_ERRP response for Host-to-Device Data FIS                       | 0
R_ERRP response for non-Data FIS                                  | 0
R_ERRP response for Device-to-Host non-Data FIS                   | 0
R_ERRP response for Host-to-Device non-Data FIS                   | 0
Device-to-Host non-Data FIS retries                               | 0
Transitions from drive PHYRDY to drive PHYRDYn                    | 7
Register Device to Host FISes sent due to a COMRESET              | 7
CRC errors within a host-to-device FIS                            | 0
Non-CRC errors within a host-to-device FIS                        | 0
R_ERRP response for Host-to-Device Data FIS due to CRC errors     | NA
R_ERRP response for Host-to-Device Data FIS due to non-CRC errors | NA
R_ERRP response for Host-to-Device non-Data FIS due to CRC errors | NA
R_ERRP response for Host-to-Device non-Data FIS due to non-CRC    | NA
--------------------------------------------------------------------------------------------------------------

21.7.4.81 设置硬盘指示灯状态

命令功能

点亮和熄灭指定硬盘的定位指示灯或故障指示灯。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id set led type=led_type sw=switch

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表

led_type

要点亮和熄灭的灯类型。

l     err:故障指示灯。

l     locate:定位指示灯。

switch

设置开关状态。

l     on

l     off

 

使用指南

l     定位指示灯状态优先级大于故障指示灯,当定位指示灯点亮时,无法点亮故障指示灯,需关闭定位指示灯后点亮。

l     故障指示灯(err):绿灯亮,黄灯亮。

l     定位指示灯(locate):绿灯亮,黄灯闪。

使用实例

# 点亮硬盘的故障指示灯。

[root@localhost ~]# hiraidadm c0:e0:s0 set led type=err sw=on
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.4.82 查询和设置硬盘sanitize擦除

命令功能

l     启动硬盘sanitize擦除。

l     查询硬盘sanitize擦除进度。

l     sanitize擦除硬盘不可中止。

l     cryptoeraseblockerase模式,启动命令返回成功即擦除成功完成。

l     只能对裸盘(rawdrive)和空闲盘(freeugood)执行sanitize命令。

l     sanitize过程中的硬盘不允许执行创建RAID组、设置成裸盘(rawdrive)、设置成空闲盘(free)或热备盘等会切换硬盘状态的操作。

命令格式

命令

说明

hiraidadm ccontroller_id:eenclosure_id:sslot_id show sanitize

查询sanitize擦除硬盘进度。

hiraidadm ccontroller_id:eenclosure_id:sslot_id start sanitize mode=sanitize_mode

启动sanitize擦除硬盘。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表

sanitize_mode

设置擦除模式。

l     cryptoerase:执行加密擦除操作

l     overwrite:执行覆盖写零操作

l     blockerase 执行块擦除操作

 

使用指南

回显中主要字段的含义如21-54所示。

表21-54 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:vdvd_id show sanitize

Sanitize Progress

擦除进度。

45%

Estimated Time

预估剩余时间。

13(min)

 

使用实例

# 查询硬盘sanitize擦除进度。

[root@localhost ~]# hiraidadm c0:e0:s2 show sanitize
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Sanitize Progress         | NA
Estimated Time            | NA

#启动硬盘sanitize擦除。

[root@localhost ~]# hiraidadm c0:e0:s2 start sanitize mode=cryptoerase
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.4.83 查询和设置硬盘erase擦除

命令功能

l     启动、停止硬盘erase擦除。

l     查询硬盘erase擦除进度。

l     相较于sanitizeerase擦除模式支持的物理盘类型更多,但总体速度慢于sanitize模式。

l     支持Security feature setSATA SSD无法停止erase

命令格式

命令

说明

hiraidadm ccontroller_id:eenclosure_id:sslot_id show erase

查询硬盘erase擦除进度。

hiraidadm ccontroller_id:eenclosure_id:sslot_id start erase mode=erase_mode [pa=11100000 pb=11110000]

启动硬盘erase擦除。

hiraidadm ccontroller_id:eenclosure_id:sslot_id stop erase

停止硬盘erase擦除。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表

erase_mode

设置擦除模式。

l     simple:单次擦除

l     normal:擦除3

l     thorough:擦除9

pa

擦除模式A覆盖数据。

默认值:11100000

pb

擦除模式B覆盖数据。

默认值:11110000

 

使用指南

l     擦除不成功时,如果返回的status code1942Invalid sanitize type),表示硬盘本身不支持此擦除类型,请修改擦除类型并重试。

l     回显中主要字段的含义如21-55所示。

表21-55 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:eenclosure_id:sslot_id show erase

Sanitize Progress

擦除进度。

45%

Estimated Time

预估剩余时间。

13(min)

 

使用实例

# 查询硬盘erase擦除进度。

[root@localhost ~]# hiraidadm c0:e0:s2 show erase
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Erase Progress         | 0%
Estimated Time         | 0 min

#启动硬盘erase擦除。

[root@localhost ~]# hiraidadm c0:e0:s2 start erase mode=simple pa=11100000 pb=11110000
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

#停止硬盘erase擦除。

[root@localhost ~]# hiraidadm c0:e0:s2 stop erase
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.4.84 升级和激活硬盘固件

命令功能

升级和激活硬盘固件。

命令格式

命令

说明

hiraidadm ccontroller_id:eenclosure_id:sslot_id update fw file=file

升级硬盘的固件。

hiraidadm ccontroller_id:eenclosure_id:sslot_id active fw

激活硬盘的固件。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表

file

指定用于升级的硬盘firmware文件。

 

使用实例

#升级硬盘固件。

[root@localhost ~]# hiraidadm c0:e0:s23 update fw file=root/HXT7404Q_NF.bin
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
SCSI Disk Upgrade Success!
Update disk firmware done, duration: 10s
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

#激活硬盘固件。

[root@localhost ~]# hiraidadm c0:e0:s23 active fw
========================================== hiraidadm Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.4.85 查询和设置硬盘Cache策略

命令功能

查询、设置指定硬盘的Cache策略。

命令格式

命令

说明

hiraidadm ccontroller_id:eenclosure_id:sslot_id set pdcache sw=switch

设置硬盘的Cache状态。

hiraidadm ccontroller_id:eenclosure_id:sslot_id show pdcache

查询硬盘的Cache状态。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表

switch

硬盘Cache开关。

l     on

l     off

 

使用指南

无。

使用实例

# 设置指定硬盘Cache策略为on

[root@localhost ~]# hiraidadm c0:e0:s6 set pdcache sw=on
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : on
--------------------------------------------------------------------------------------------------------------

# 查询指定硬盘Cache策略。

[root@localhost ~]# hiraidadm c0:e0:s6 show pdcache
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Drive Cache switch = On

21.7.4.86 查询硬盘SMART信息

命令功能

查询指定硬盘的SMART信息。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id show smart

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表

 

使用指南

回显中主要字段的含义如21-56所示。

表21-56 回显说明

命令格式

硬盘类型

字段

含义

举例

hiraidadm ccontroller_id:eenclosure_id:sslot_id show

SATA

ID

某一检测项目的ID

1

ATTRIBUTE_NAME

制造商定义的属性值。

Raw_Read_Error_Rate

FLAG

属性操作标志。

0x000b

VALUE

当前值,是各ID项在硬盘运行时根据实测原始数据通过公式计算的结果。253意味着最好情况,1意味着最坏情况。

100

WORST

最差值,硬盘运行时各ID项曾出现过的最小的value

086

THRESH

临界值,厂商指定的表示某一项目可靠性的门限值。

016

TYPE

属性的类型。prefail意味着硬盘即将发生失效;oldage表示磁盘不会发生故障;

Pre fail

UPDATED

属性更新频率。

Always

RAW_VALUE

制造商定义的原始值,从VALUE派生

0

SAS

请参见Smartctl工具。

 

使用实例

#查询硬盘SMART信息(SATA)。

[root@localhost ~]# hiraidadm c0:e0:s0 show smart
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
              Man-made SMART Attributes with Thresholds
--------------------------------------------------------------------------------------------------------------
ID    ATTRIBUTE_NAME           FLAG     VALUE  WORST  THRESH  TYPE      UPDATED   RAW_VALUE
1     Raw_Read_Error_Rate      0x000b   100    086    016     Pre fail  Always    0
2     Throughput_Performance   0x0005   129    127    054     Pre fail  Offline   104
3     Spin_Up_Time             0x0007   143    100    024     Pre fail  Always    295 (Average 295)
4     Start_Stop_Count         0x0012   100    100    000     Old age   Always    681
5     Reallocated_Sector_Ct    0x0033   100    100    005     Pre fail  Always    25
7     Seek_Error_Rate          0x000b   100    100    067     Pre fail  Always    0
8     Seek_Time_Performance    0x0005   128    128    020     Pre fail  Offline   18
9     Power_On_Hours           0x0012   100    100    000     Old age   Always    4321
10    Spin_Retry_Count         0x0013   100    100    060     Pre fail  Always    0
12    Power_Cycle_Count        0x0032   100    100    000     Old age   Always    681
192   Power-Off_Retract_Count  0x0032   097    097    000     Old age   Always    3702
193   Load_Cycle_Count         0x0012   097    097    000     Old age   Always    3702
194   Temperature_Celsius      0x0002   181    127    000     Old age   Always    33 (Min/Max 19/47)
196   Reallocated_Event_Count  0x0032   100    100    000     Old age   Always    25
197   Current_Pending_Sector   0x0022   100    100    000     Old age   Always    1306
198   Offline_Uncorrectable    0x0008   053    053    000     Old age   Offline   11321
199   UDMA_CRC_Error_Count     0x000a   200    200    000     Old age   Always    0
--------------------------------------------------------------------------------------------------------------

#查询硬盘SMART信息(SAS)。

[root@localhost ~]# hiraidadm c0:e0:s6 show smart
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.2.0
    Build Time: Dec 19 2022 21:45:23
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
=== START OF READ SMART DATA SECTION ===
SMART Health Status: OK
 
Current Drive Temperature:     27 C
Drive Trip Temperature:        65 C
 
Accumulated power on time, hours:minutes 4575:29
Manufactured in week 08 of year 2020
Specified cycle count over device lifetime:  50000
Accumulated start-stop cycles:  1691
Specified load-unload count over device lifetime:  600000
Accumulated load-unload cycles:  7098
Elements in grown defect list: 0
 
Error counter log:
           Errors Corrected by           Total   Correction     Gigabytes    Total
               ECC          rereads/    errors   algorithm      processed    uncorrected
           fast | delayed   rewrites  corrected  invocations   [10^9 bytes]  errors
read:      50805        9         0         0          0     304806.171           0
write:         0        0         0         0          0       4452.857           0
verify:        0        0         0         0          0        167.168           0
 
Non-medium error count:      354
 
SMART Self Test log
Num  Test              Status                 segment  LifeTime  LBA_first_err [SK ASC ASQ]
     Description                              number   (hours)
# 1  Background long   Completed                   -      22                 - [-   -    -]
# 2  Background short  Completed                   -      20                 - [-   -    -]
# 3  Background long   Completed                   -       9                 - [-   -    -]
 
Long (extended) Self Test duration: 3917 seconds [65.3 minutes]

21.7.4.87 查询和设置硬盘巡检参数

命令功能

查询和设置硬盘巡检的相关参数。

l     不支持非成员盘、非冗余的RAID组成员盘和SSD

l     异常掉电后开机自动开启巡检。但对于异常掉电后,用户手动清除用户数据场景,则不会自动开启巡检,需要用户手动启动巡检。

命令格式

命令

说明

hiraidadm ccontroller_id:eenclosure_id:sslot_id show patrolread

查询硬盘巡检状态。

hiraidadm ccontroller_id:eenclosure_id:sslot_id start patrolread [delay=delay_time]

设置硬盘巡检参数并执行。

hiraidadm ccontroller_id:eenclosure_id:sslot_id stop patrolread

停止硬盘巡检。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表

delay_time

指定延时启动时间。

124(单位:h

 

使用指南

回显中主要字段的含义如21-57所示。

表21-57 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:eenclosure_id:sslot_id show patrolread

Run Status

巡检执行状态。

stop

Patrolread Rate

巡检速率。

high

Patrolread Progress

巡检进度。

NA

Estimated time

剩余预估时间。

NA

 

使用实例

# 查询硬盘巡检信息。

[root@localhost ~]# hiraidadm c0:e0:s6 show patrolread
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
                Disk Patrolread Information
-------------------------------------------------------
Run Status              | stop
Patrolread Rate         | low
Patrolread progress     | NA
Estimated time          | NA
-------------------------------------------------------

# 设置硬盘巡检参数。

[root@localhost ~]# hiraidadm c0:e0:s6 start patrolread delay=2
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 停止硬盘巡检。

[root@localhost ~]# hiraidadm c0:e0:s6 stop patrolread
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.4.88 查询硬盘I/O统计信息

命令功能

查询指定硬盘I/O统计信息。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id show iocnt

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表

 

使用指南

回显中主要字段的含义如21-58所示。

表21-58 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:eenclosure_id:sslot_id show iocnt

Io Count

正常完成的I/O数量。

2

Failed Io Count

失败I/O数量。

0

 

使用实例

# 查询指定硬盘I/O统计信息。

[root@localhost ~]# hiraidadm c0:e0:s0 show iocnt
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
Io Count                | 347030
Failed Io Count         | 0
--------------------------------------------------------------------------------------------------------------

21.7.4.89 SCSI透传管理命令

命令功能

SCSI透传管理命令。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id passthru scsi type=type cdblen=cdb_length cdb=cdb_value [file=file_name] [data_len=data_length]

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表

type

指定命令数据传输方向。

l     read

l     write

l     set

cdb_length

cdb帧长度。

l     6

l     10

l     12

l     16

cdb_value

cdb帧,按16进制的字节表示。

例如:0x1b, 0x01, 0x00, 0x00, 0x01

file_name

写入或保存数据的文件。

l     type=write时,文件内容即往盘写入的数据。

l     type=read时,数据会写入该文件。

-

data_length

cdb帧内传递数据的长度。

type=write时,长度不大于文件的大小,否则无法从文件中读取到指定长度的数据。

 

使用指南

无。

使用实例

#SCSI透传管理命令。

[root@localhost ~]# hiraidadm c0:e0:s0 passthru scsi type=read cdblen=10 cdb=0x28,0x00,0x46,0x82,0x20,0xd8,0x00,0x00,0x08,0x00 file=save.txt data_len=4096
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.4.90 查询硬盘坏块列表

命令功能

查询指定硬盘坏块列表信息。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id show bst [slba=start_lba num=number]

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表

start_lba

设置从指定硬盘块开始查询的位置。

-

number

需要查询的坏块数量。

-

 

使用指南

回显中主要字段的含义如21-59所示。

表21-59 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:eenclosure_id:sslot_id show bst [slba=start_lba num=number]

Index

坏盘序号。

0

Did

硬盘的ID

4

Start Lba

起始LBA地址。

0

Lba_len

LBA数量。

2048

Type

逻辑类型或者物理类型。

Physical

 

使用实例

#查询指定硬盘坏块列表信息。

[root@localhost ~]# hiraidadm c0:e0:s4 show bst
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Total diskbst number is 2
--------------------------------------------------------------------------------------------------------------
Index  Did  Start_lba  lba_len  Type       Index  Did  Start_lba  lba_len  Type
--------------------------------------------------------------------------------------------------------------
0      4    0          2048     Physical | 1      4    4096       6144     Physical |
--------------------------------------------------------------------------------------------------------------

21.7.4.91 设置硬盘为默认启动项

命令功能

设置指定硬盘为控制卡默认启动项。

仅在裸盘模式开启时,可设置硬盘为启动项。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id set boot sw=switch

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表

switch

是否作为启动盘。

l     on:开启作为启动盘

l     off:关闭作为启动盘

 

使用指南

无。

使用实例

# 设置硬盘作为启动盘。

[root@localhost ~]# hiraidadm c0:e0:s6 set boot sw=on
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.4.92 查询硬盘背板phy误码

命令功能

查询指定硬盘背板的链路状态(当前仅支持直连背板)。

命令格式

hiraidadm ccontroller_id:eenclosure_id show phy

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表

 

使用指南

回显中主要字段的含义如21-60所示。

表21-60 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:eenclosure_id show phy

ID

序号

2

Status

端口状态

enable

LinkSpd

端口下行速率

12Gb/s

Dev_type

设备类型

SAS

Attach_Sas_addr

所链接的sas地址

0x050000399886980c6

IDC

无效的双字计数。

0

RDEC

运行差异错误计数。

0

LDSC

双字同步丢失数。

0

PRPC

Phy口重置问题计数。

0

 

使用实例

#查询硬盘背板phy误码。

[root@localhost ~]# hiraidadm c0:e0 show phy
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Total phy number is 40
--------------------------------------------------------------------------------------------------------------
ID  Status   linkSpd Dev_type Attach_Sas_addr    IDC     RDEC    LDSC    PRPC
--------------------------------------------------------------------------------------------------------------
0   enable   6.0Gb/s SATA     0x5000000000000007 0       0       0       0
1   enable   6.0Gb/s SATA     0x5000000000000006 0       0       0       0
2   enable   6.0Gb/s SATA     0x5000000000000005 0       0       0       0
3   enable   6.0Gb/s SATA     0x5000000000000004 0       0       0       0
4   enable   No_link NODEV    0x0                0       0       0       0
5   enable   No_link NODEV    0x0                0       0       0       0
6   enable   No_link NODEV    0x0                0       0       0       0
7   enable   No_link NODEV    0x0                0       0       0       0
8   enable   6.0Gb/s SATA     0x5000000000000107 0       0       0       0
9   enable   6.0Gb/s SATA     0x5000000000000106 0       0       0       0
10  enable   12Gb/s  SAS      0x5000c500cecb08d1 0       0       0       0
11  enable   12Gb/s  SAS      0x5000cca04eb0aa05 0       0       0       0
12  enable   12Gb/s  SAS      0x5c8a776b93321000 0       0       0       0
13  enable   6.0Gb/s SATA     0x5000000000000102 0       0       0       0
14  enable   6.0Gb/s SATA     0x5000000000000101 0       0       0       0
15  enable   6.0Gb/s SATA     0x5000000000000100 0       0       0       0
16  enable   No_link NODEV    0x0                0       0       0       0
17  enable   No_link NODEV    0x0                0       0       0       0
18  enable   No_link NODEV    0x0                0       0       0       0
19  enable   No_link NODEV    0x0                0       0       0       0
20  enable   No_link NODEV    0x0                0       0       0       0
21  enable   No_link NODEV    0x0                0       0       0       0
22  enable   No_link NODEV    0x0                0       0       0       0
23  enable   No_link NODEV    0x0                0       0       0       0
24  enable   No_link NODEV    0x0                0       0       0       0
25  enable   No_link NODEV    0x0                0       0       0       0
26  enable   No_link NODEV    0x0                0       0       0       0
27  enable   No_link NODEV    0x0                0       0       0       0
28  enable   No_link NODEV    0x0                0       0       0       0
29  enable   No_link NODEV    0x0                0       0       0       0
30  enable   No_link NODEV    0x0                0       0       0       0
31  enable   No_link NODEV    0x0                0       0       0       0
32  enable   No_link NODEV    0x0                0       0       0       0
33  enable   No_link NODEV    0x0                0       0       0       0
34  enable   No_link NODEV    0x0                0       0       0       0
35  enable   No_link NODEV    0x0                0       0       0       0
36  enable   No_link NODEV    0x0                0       0       0       0
37  enable   No_link NODEV    0x0                0       0       0       0
38  enable   No_link NODEV    0x0                0       0       0       0
39  disable  No_link NODEV    0x0                0       0       0       0
 
IDC=Invalid Dword Count,       RDEC=Run Disparity Error Count
LDSC=Loss Of Dword Sync Count,   PRPC=Phy Reset Problem Count
--------------------------------------------------------------------------------------------------------------

21.7.4.93 保存SAS phy配置

命令功能

设置并保存phy口的配置,下次启动时该phy口将按此配置尝试连接(或关闭)。

仅支持直连phy(即e0)。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id set phy_cfg sw=switch [speed=speed]

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见21.7.2.24 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见21.7.2.24 查询控制卡硬盘列表

switch

开关状态。

-

speed

phy最大速率。

l     1.5G

l     3G

l     6G

l     12G

默认值为:12G

 

使用指南

无。

使用实例

#设置并保存phy口的配置。

[root@localhost ~]# hiraidadm c0:e0:s0 set phy_cfg sw=off
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : off
Default set speed : 12g
--------------------------------------------------------------------------------------------------------------

21.7.5 超级电容命令

查询超级电容的相关信息

命令功能

查询超级电容的名称及TFM Flash卡缓存容量的大小等信息。

命令格式

hiraidadm ccontroller_id:sc show supercap

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

回显中主要字段的含义如21-61所示。

表21-61 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:sc show supercap

Present

电容在位状态。

Yes

Status

电容状态。

OK

Flash erase status

Flash擦除状态。

No

Replacement required

是否需要更换(当电容故障或者容值不足时需要更换电容模块)

No

Space to cache offload

是否有空间备份cache

Yes

Device Name

设备名称。

DSCAP01

P-MOSFET status

电容MOS的打开和关闭状态。

open

Temperature

超级电容模组温度。

29c

Voltage

超级电容电压。

12.9V

Date of Manufacture

电容模组生产日期。

2021/07/15

SN

电容模组生产序列号。

MB730010001

Vendor ID

电容模组厂商ID

01

Vendor Name

电容模组厂商名称。

JH

Design Capacity

电容模组设计容量。

8.00F

Supercap Version

超级电容版本号。

0001

Supercap SN

电容序列号。

2B831191

Supercap Date of Manufacture

电容出厂日期。

00

PCBAssmNO

PCB装配号。

A000000001

PCB Vresion

PCB版版本号。

B

PackAssmNo

打包序列号。

B70101

Module Version

电容模组版本号。

0001

Alarm Temp

告警温度门限。

60c

Learn Status

自学习状态。

UNDO

High Temperature Alarm

温度过高告警。

No

Voltage Low Alarm

电压过低告警。

No

Pack Missing

电容不在位告警状。

No

Remaining Capacity Low Alarm

电容剩余容量低告警。

No

 

使用实例

#查询超级电容的相关信息。

[root@localhost ~]# hiraidadm c0:sc show supercap
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Present                       | Yes
Status                        | OK
Flash erase status            | OK
Replacement required          | No
Space to cache offload        | Yes
Device Name                   | DSCAP01
P-MOSFET status               | Open
IIC SIGNAL status             | OK
Temperature                   | 30c
Voltage                       | 12.1V
Date of Manufacture           | 2021/07/15
SN                            | MB730010001
Vendor Id                     | 01
Vendor Name                   | JH
Design Capacity               | 8.00F
Supercap Version              | 0001
Supercap SN                   | 2B831191
Supercap Date of Manufacture  | 2021/06/30
PCBAssmNO                     | A000000001
PCB Version                   | B
PackAssmNo                    | B70101
Module Version                | 0001
Alarm Temp                    | 60c
Learn Status                  | OK
High Temperature Alarm        | No
Voltage Low Alarm             | No
Pack Missing                  | No
Low Capacity Alarm            | No

21.7.5.94 查询和设置超级电容自学习

命令功能

查询、设置控制卡的超级电容自学习功能。

命令格式

命令

说明

hiraidadm ccontroller_id:sc show selflearn

查询控制卡的超级电容自学习状态。

hiraidadm ccontroller_id:sc set learn cycle=learn_cycle [starttime=starttime]

设置控制卡的超级电容自学习功能。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

learn_cycle

超级电容的学习间隔。

最小为1,最大由启动时间限定,启动时间加cycle天数最大支持2100-01-01,12:00:00

单位:day

starttime

启动时间。

不填时默认以当前时间进行设置。

yyyy-MM-dd,hh:mm:ss,最小为当前时间,最大设置时间为距当前24小时。

 

使用指南

l     达到自学习启动时间后,大约5min后开启充放电过程。

l     回显中主要字段的含义如21-62所示。

表21-62 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show selflearn

Present

在位状态。

No

Learn cycle

自学习周期。

30day

Last learn status

上次自学习完成状态。

UNDO

Last learn time

最后一次自学习时间。

2022-01-25 11:48:23

Next Learn Time

下次学习时间。

2022-01-26 12:24:44

 

使用实例

# 查询控制卡超级电容自学习状态。

[root@localhost ~]# hiraidadm c0:sc show selflearn
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Present            | Yes
Learn cycle        | 30day
Last learn status  | OK
Last learn time    | 2022-11-16 02:24:56
Next learn time    | 2022-11-17 02:34:20

#设置控制卡的超级电容自学习功能。

[root@localhost ~]# hiraidadm c0:sc set learn cycle=5 starttime=2022-11-17,00:00:00
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

21.7.5.95 设置备电模块告警温度

命令功能

设置备电模块告警温度。

命令格式

hiraidadm ccontroller_id:sc set alarm temp=value

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

value

告警温度的门限值。

6070(整数)

单位:℃

 

使用指南

无。

使用实例

# 设置控制卡的备电模块告警温度。

[root@localhost ~]# hiraidadm c0:sc set alarm temp=65
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================


22 SP186

关于本章

主要介绍SP186 HBA控制卡的外观、特性、以及配置方法。

涉及的截图以1.3.7.2 Firmware版本为例,不同Firmware版本的控制卡界面有差异,具体请以实际为准。

SP186有如下3个规格:

l     SP186-M-16i

l     SP186-M-32i

l     SP186-M-40i

对于SP186 HBA控制卡的通用描述,不做产品名称区分。对于不同规格间有差异的内容描述,做产品名称区分。

21.1  概述

21.2  功能

21.3  初始配置

21.4  常用配置

21.5  故障处理

21.6  管理界面介绍

21.7  OS命令行工具

概述

SP186 HBA控制卡是12Gbit/s SAS控制卡,并支持PCIe 4.0 ×16/×8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

SP186 HBA控制卡用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

SP186 HBA控制卡包含以下规格,如22-1所示。

表22-1 SP186 HBA控制卡规格

板卡名称

SP186-M-16i

SP186-M-32i

SP186-M-40i

PCIe接口a

PCIe 4.0 ×8

PCIe 4.0 ×16

PCIe 4.0 ×8

最大直连SAS/SATA盘数量

16

32

40

支持的RAID组最大数量

16

32

40

RAID组支持的最大硬盘数量

16

30

30

RAID组最大创建逻辑盘数量

16

16

16

a:所有控制卡的连接器均为PCIe ×16SP186-M-16iSP186-M-40i实际可支持的最大Lane数为×8SP186-M-32i实际可支持的最大Lane数为×16

 

SP186 HBA控制卡支持以裸盘模式和创建RAID组两种方式使用硬盘,关于裸盘模式的具体介绍请参考0裸盘

SP186 HBA控制卡为全高半长PCIe标卡形态,结构如22-1所示。

图22-1 SP186标卡

 

1

散热器

2

Slimline接口(共3个,从上到下分别为Port1Port2Port3

3

LP Slimline接口(共2个,从上到下分别为Port4Port5

4

PCIe连接器

5

电源指示灯

6

写入/读出NAND Flash的状态指示灯

7

系统心跳指示灯

8

系统错误指示灯

 

不同规格间Slimline接口和LP Slimline接口数量有差异。

SP186 HBA控制卡单板指示灯说明如22-2所示。

表22-2 控制卡单板指示灯说明

指示灯

颜色

说明

电源指示灯

绿色

l     亮:电源正常。

l     灭:电源关闭或异常。

写入/读出NAND Flash的状态指示灯

绿色

l     亮:控制卡当前处于写入/读出NAND Flash的状态。

l     灭:控制卡当前不处于写入/读出NAND Flash的状态。

系统心跳指示灯

绿色

l     灯以2s周期闪烁:控制卡正在工作。

l     灯灭:控制卡未开始运行或FW运行异常。

系统错误指示灯

红色

l     亮:系统运行异常。

l     灭:系统运行正常。

 

22.2 功能

裸盘

控制卡可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问硬盘。

控制卡支持同时以虚拟磁盘和裸盘模式使用硬盘。

设置裸盘模式请参见22.4.6 设置裸盘模式

22.2.1 多种RAID类型

SP186 HBA控制卡支持硬盘以裸盘方式和加入RAID组两种方式混合使用,其中:

l     最多支持40个硬盘。

该数量为热备盘,空闲盘,裸盘与加入RAID组的硬盘数量之和。

l     最多支持127个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

l     最多支持40个硬盘组(即配置界面中看到的“RAID Group”),每个硬盘组最多支持30个硬盘。

l     每个硬盘组(即配置界面中看到的“RAID Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

SP186 HBA控制卡支持的RAID类型及对应的硬盘个数如22-3所示。

表22-3 SP186 HBA-硬盘参数

RAID级别

支持硬盘数

支持子组数

子组支持硬盘数

允许坏盘数

RAID 0

130

不涉及

不涉及

0

RAID 1

2

1

RAID 10

430(偶数)

215RAID 1

2

子组数

 

l     子组数:子RAID的个数。例如RAID 10由两个RAID 1组成,则子组数为2

l     RAID 10每个子组中最多允许1个坏盘。

l     RAID 10包含的总硬盘数由子组数和子组支持的硬盘数共同决定。

22.2.2 初始化

为了保证数据的一致性要求,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。

SP186  HBA控制卡提供了多种相应的初始化方式:

l     快速初始化:Firmware只要把VD的前后部分空间进行全写0操作,然后切换为后台初始化。

l     前台初始化:Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Formatting”。

l     后台初始化:初始化过程在后台进行,目的是使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。

对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。

l     一致性校验和后台初始化通常会对前台I/O性能造成一定损失,直至该操作完成。

l     一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。

l     前台初始化完成之前不会上报盘符给OS

22.2.3 重构

RAID组中出现故障盘时,可以通过控制卡的数据重构功能,将故障盘中的数据在新盘上重构。

数据重构功能仅适用于具有冗余功能的RAID 1/10

l     控制卡支持热备盘自动重构故障成员盘数据。

l     RAID组配置了可用的热备盘时,在成员盘故障的情况下,热备盘自动替换故障盘,进行数据重构。

l     RAID组没有可用的热备盘时,只有更换新盘后才可进行数据重构。

l     当热备盘开始数据重构后,故障的成员盘就被标注为可移除状态。

l     如果在数据重构过程中系统下电,那么在系统重新启动后,控制卡会继续执行数据重构的任务。

22.2.4 预拷贝

检测到硬盘预失效时,将数据提前拷贝到热备盘上,避免磁盘故障导致RAID组降级,提高系统可靠性。

22.2.5 回拷

具备冗余功能的RAID组的一块成员盘故障之后,热备盘(全局热备或局部热备盘)自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。

l     不同类型的热备回拷表现一致,回拷过程中RAID和硬盘状态变化如下:

l     RAID组状态保持Optimal不变。

l     热备盘状态由Online变为Hot Spare

l     新加入硬盘状态由Copybacking变为Online

l     可使用命令行工具开启或关闭回拷,具体请参见22.7.2.20 查询和设置控制卡回拷开关

l     若回拷时重启服务器,进度将保存。

22.2.6 一致性校验

针对有冗余功能的RAID 1RAID10,控制卡可以对RAID组的硬盘数据进行一致性校验,如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。

由于RAID 0不具备冗余性,因此不支持一致性校验。

RAID组降级时,不支持一致性校验。

22.2.7 硬盘热备

SP186  HBA控制卡的热备功能分为三种:

l     热备盘

l     紧急热备盘

l     热备槽位

设置热备功能请参见0管理热备盘

l     热备盘容量需大于等于成员盘最小容量。

l     机械盘与固态盘不能互相作为热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须是SATA硬盘或SAS硬盘,容量不小于RAID成员盘最小容量。

l     RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

l     热备盘优先级:局部热备>全局热备>热备槽位>紧急热备

热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     global hotspare:即全局热备盘,为控制卡上所有已配置的RAID所共有,1块控制卡中可配置1个或多个全局热备盘。当任意RAID组硬盘故障时,全局热备盘均可自动替代。

l     local hotspare:即局部热备盘,为控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或2个局部热备盘。当指定RAID内的硬盘故障时,局部热备盘可自动替换。

紧急热备

使能控制卡的紧急热备功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该控制卡下的与故障盘同类型的空闲盘会自动进行热备盘替换,避免数据丢失。

l     紧急热备要求用于备份的空闲盘容量大于等于成员盘容量。

l     在无相同类型硬盘的情况下,为了保证RAID组的冗余能力及数据的完整性,会调用不同类型硬盘进行热备及重构。

l     固件版本1.3.11.8及之前紧急备份的硬盘生效次序:DID号最小的相同介质类型硬盘(包含相同接口和不同接口)。

l     固件版本1.3.11.13及之后紧急备份的硬盘生效次序:DID号最小的相同接口和相同介质类型硬盘 > 不同接口相同介质类型硬盘。

紧急热备有两种情况,对应了两种设置:

l     当成员盘fault时,空闲盘替代成员盘作为紧急备份。

l     当检测到成员盘prefail时,空闲盘作为紧急热备盘替代成员盘。

热备槽位

通过设置热备槽位,热备槽位的硬盘将作为全局热备盘。当任意RAID组硬盘故障时,热备槽位内硬盘均可自动替代。

22.2.8 容量扩展

RAID未占用成员硬盘全部容量时,SP186  HBA控制卡可通过调整成员盘可用空间,扩大VD容量。详细操作方法可参考22.4.5 扩展VD可用空间

22.2.9 数据擦除

控制卡支持安全擦除虚拟磁盘和硬盘数据,支持擦除硬盘数据。

安全擦除数据

安全擦除数据功能需硬盘支持。

安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。

安全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。

控制卡支持安全擦除硬盘和虚拟磁盘数据

l     控制卡提供了三种级别的虚拟磁盘安全擦除模式:

     Simple:仅对虚拟磁盘进行一轮擦除动作。

     Normal:对虚拟磁盘进行三轮擦除动作。

     Thorough:对虚拟磁盘进行九轮擦除动作。

l     控制卡提供了三种级别的硬盘安全擦除模式:

     cryptoerase:执行加密擦除操作。

     overwrite:执行覆盖写0操作。

     blockerase 执行块擦除操作。

擦除硬盘数据

控制卡提供了三种硬盘Erase擦除模式:

l     Simple:仅对硬盘进行一轮擦除动作。

l     Normal:对硬盘进行三轮擦除动作。

l     Thorough:对硬盘进行九轮擦除动作。

22.2.10 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检可根据硬盘I/O调整用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     初始化

l     RAID成员盘(除RAID 0外)支持硬盘巡检。

l     SSD不支持硬盘巡检。

22.2.11 硬盘漫游

一种将硬盘与物理槽位解耦的技术。通过该技术即使硬盘所在槽位发生改变,硬盘中的数据仍能被正确识别。

22.2.12 外部配置

如果控制卡检测到物理硬盘包含RAID配置信息,即识别为外部配置。可执行导入操作将该外部配置在当前控制卡环境中生效,实现RAID配置迁移。

l     建议将RAID组所有硬盘都接入到控制卡下后,再执行导入外来配置。

l     如果RAID组所有硬盘都被拔出,并且不会在当前控制卡下继续使用,建议删除该RAID组。

l     如果RAID组在本控制卡上使用过,然后通过外来配置导入到其它控制卡下使用。当需要再次导入到本控制卡下,需要先删除本控制卡原来残留的对应RAID组,否则可能配置信息冲突。

22.2.13 写洞保护

系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况称之为写洞。

将写失败记录日志,根据日志进行修复,从而解决写洞问题。主要的保护场景:

l     RAID  1RAID 10支持写洞保护,写洞日志都保存在掉电保护区,不需要开关控制。

l     RAID 10部分降级时可做写洞保护,按子组恢复数据。完全降级时不可做写洞保护。

l     不对RAID 0做写洞保护。

22.2.14 SMART扫描

SMART即自动检测分析及报告技术,可以对硬盘内部电路以及盘片表面媒介材料等进行监测,当SMART监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据受到损失。

控制卡支持周期性对其管理的硬盘进行SMART扫描并判断硬盘状态是否正常,默认3600s

22.2.15 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘数据丢失。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为空闲盘后,参考22.4.11 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

22.2.16 慢盘检测

控制卡支持对硬盘进行响应时间统计,对于RAID组下响应时间超出范围的硬盘识别为慢盘。并支持对识别的慢盘,在满足RAID冗余的条件下进行踢盘,避免单个硬盘影响整个RAID组的性能。

l     对识别的慢盘,在满足RAID冗余的条件下进行踢盘,裸盘不会踢盘。

l     对慢盘的识别包含L1/L2/L3三个级别,当慢盘达到L3级别并满足一定条件才会踢盘。

l     踢盘周期内报多个慢盘,超过设置踢盘数量上限后不会踢盘。

l     被踢掉的慢盘会被标记为Fault

设置方法请参见22.7.2.36 查询和设置慢盘检测21.7.2.45 查询和设置慢盘踢盘参数

22.3 初始配置

关于SP186  HBA的所有配置,都需要重启服务器进入配置界面进行操作。

若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用hiraidadm命令行工具。

登录BIOS管理界面

对系统的影响

进入BIOS配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如22-2所示界面时,按“Delete”,进入输入密码界面。

图22-2 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如22-3所示界面。

图22-3 Setup Utility”界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如22-4所示。

图22-4 “Advanced”页签

 

                                步骤 5     选择“HUAWEI <SP186-M-xxx> Configuration<HBA> - x:x:x”,按“Enter”。

进入如22-5所示主界面,界面参数如22-4所示。

图22-5 SP186  HBA主界面

 

表22-4 参数说明

参数

说明

Controller Management

控制卡管理。

Virtual Drive Management

虚拟磁盘管理。

Physical Drive Management

物理硬盘管理。

Hardware Components

硬件组件管理。

 

----结束

22.3.2 创建RAID 0

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     SP186  HBA支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     不支持使用SED盘创建RAID组。

l     RAID级别所需的硬盘数请参见22.2.1 多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见22.4.7 设置硬盘属性

操作步骤

登录管理界面。具体操作方法请参见0登录BIOS管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     22-5中选择“Virtual Drive Management”并按“Enter”。

进入22-6界面。

图22-6 Virtual Drive Management

 

2.     选择“Create Virtual Drive”并按“Enter”。

进入RAID配置界面,如22-7所示,参数说明如22-5所示。

图22-7 Create Virtual Drive

 

表22-5 参数说明

参数

参数说明

RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     RAID GroupRAID组。

l     Free Drives:未加入过虚拟磁盘的空闲硬盘。

Select Drives

选择成员盘。

Name

虚拟磁盘名称。

Capacity Size

虚拟磁盘的容量。

默认值为max_left(最大容量)。

Select Capacity Unit

容量单位。包括:

l     MB

l     GB

l     TB

Initialize Type

初始化方式。包括:

l     Fast:快速初始化。

l     Background:后台初始化。

l     Front:前台初始化。

Strip Unit Size

虚拟磁盘条带大小。支持32KB64KB128KB256KB512KB1MB

l     HDD默认条带大小为256KB

l     SSD默认条带大小为64KB

Write Cache

虚拟磁盘的Cache写策略。

仅支持Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

Read Cache

虚拟磁盘的Cache读策略。

仅支持No Ahead:关闭预读取功能。

PD Cache

物理硬盘Cache写策略(仅对有Cache的硬盘有效):

l     On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

l     Default:保持硬盘当前Cache配置。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID0”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

进入添加成员盘的界面,如22-8所示。

图22-8 Select Drives

 

2.     通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

硬盘状态为“×”时表示该硬盘已选择。

3.     通过“↑”、“↓”选择“Apply Changes”,并按“Enter”返回上级界面。

                                步骤 4     按照22-5所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Capacity Size”参数请按实际要求设置,创建第一个VD后,再参照22.4.2 创建多个VD章节增加其他VD

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

4.     按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     返回至22-6界面。

2.     选择“View Virtual Drives”并按“Enter”。

显示当前存在的VD信息。

----结束

22.3.3 创建RAID 1

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     SP186  HBA支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     不支持使用SED盘创建RAID组。

l     RAID级别所需的硬盘数请参见22.2.1 多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见22.4.7 设置硬盘属性

操作步骤

登录管理界面。具体操作方法请参见0登录BIOS管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     22-5中选择“Virtual Drive Management”并按“Enter”。

进入22-9界面。

图22-9 Virtual Drive Management

 

2.     选择“Create Virtual Drive”并按“Enter”。

进入RAID配置界面,如22-10所示,参数说明如22-6所示。

图22-10 Create Virtual Drive

 

表22-6 参数说明

参数

参数说明

RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     RAID GroupRAID组。

l     Free Drives:未加入过虚拟磁盘的空闲硬盘。

Select Drives

选择成员盘。

Name

虚拟磁盘名称。

Capacity Size

虚拟磁盘的容量。

默认值为max_left(最大容量)。

Select Capacity Unit

容量单位。包括:

l     MB

l     GB

l     TB

Initialize Type

初始化方式。包括:

l     Fast:快速初始化。

l     Background:后台初始化。

l     Front:前台初始化。

Strip Unit Size

虚拟磁盘条带大小。支持32KB64KB128KB256KB512KB1MB

l     HDD默认条带大小为256KB

l     SSD默认条带大小为64KB

Write Cache

虚拟磁盘的Cache写策略。

仅支持Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

Read Cache

虚拟磁盘的Cache读策略。

仅支持No Ahead:关闭预读取功能。

PD Cache

物理硬盘Cache写策略(仅对有Cache的硬盘有效):

l     On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

l     Default:保持硬盘当前Cache配置。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID1”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

进入添加成员盘的界面,如22-11所示。

图22-11 Select Drives

 

2.     通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

硬盘状态为“×”时表示该硬盘已选择。

3.     通过“↑”、“↓”选择“Apply Changes”,并按“Enter”返回上级界面。

                                步骤 4     按照22-6所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Capacity Size”参数请按实际要求设置,创建第一个VD后,再参照22.4.2 创建多个VD章节增加其他VD

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

4.     按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     返回至22-6界面。

2.     选择“View Virtual Drives”并按“Enter”。

显示当前存在的VD信息。

----结束

22.3.4 创建RAID 10

操作场景

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     SP186  HBA支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     不支持使用SED盘创建RAID组。

l     RAID级别所需的硬盘数请参见22.2.1 多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见22.4.7 设置硬盘属性

操作步骤

登录管理界面。具体操作方法请参见0登录BIOS管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     22-5中选择“Virtual Drive Management”并按“Enter”。

进入22-12界面。

图22-12 Virtual Drive Management

 

2.     选择“Create Virtual Drive”并按“Enter”。

进入RAID配置界面,如22-13所示,参数说明如22-7所示。

图22-13 Create Virtual Drive

 

表22-7 参数说明

参数

参数说明

RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     RAID GroupRAID组。

l     Free Drives:未加入过虚拟磁盘的空闲硬盘。

Select Drives

选择成员盘。

Name

虚拟磁盘名称。

Capacity Size

虚拟磁盘的容量。

默认值为max_left(最大容量)。

Select Capacity Unit

容量单位。包括:

l     MB

l     GB

l     TB

Initialize Type

初始化方式。包括:

l     Fast:快速初始化。

l     Background:后台初始化。

l     Front:前台初始化。

Strip Unit Size

虚拟磁盘条带大小。支持32KB64KB128KB256KB512KB1MB

l     HDD默认条带大小为256KB

l     SSD默认条带大小为64KB

Write Cache

虚拟磁盘的Cache写策略。

仅支持Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

Read Cache

虚拟磁盘的Cache读策略。

仅支持No Ahead:关闭预读取功能。

PD Cache

物理硬盘Cache写策略(仅对有Cache的硬盘有效):

l     On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

l     Default:保持硬盘当前Cache配置。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID10”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

进入添加成员盘的界面,如22-14所示。

图22-14 Select Drives

 

2.     通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

硬盘状态为“×”时表示该硬盘已选择。

3.     通过“↑”、“↓”选择“Apply Changes”,并按“Enter”返回上级界面。

                                步骤 4     按照22-7所述配置虚拟磁盘的其他属性。

如果需要创建多个VD,“Capacity Size”参数请按实际要求设置,创建第一个VD后,再参照22.4.2 创建多个VD章节增加其他VD

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

4.     按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     返回至22-6界面。

2.     选择“View Virtual Drives”并按“Enter”。

显示当前存在的VD信息。

----结束

22.3.5 配置启动项

设置HBA控制卡启动项

操作场景

您可以通过此操作设置HBA控制卡启动项。

OS下用命令行工具设置启动项,请参见22.7.3.63 设置虚拟磁盘为默认启动项22.7.4.84 设置硬盘为默认启动项

操作步骤

登录管理界面。具体操作方法请参见0登录BIOS管理界面

                                步骤 1     在主界面选择“Controller Management”并按“Enter”。

进入“Controller Management”界面。如22-15所示。

图22-15 Controller Management

 

                                步骤 2     通过“↑”、“↓”选择“Select Boot Device”并按“Enter”。

显示可设置为启动项的硬盘或虚拟磁盘,如22-16所示。

图22-16 选择启动项

 

仅在裸盘模式开启时,可设置硬盘为启动项。

                                步骤 3     选择需配置为启动项的硬盘或虚拟磁盘,按“Enter”完成配置。

----结束

22.3.5.2 设置服务器启动项

当一台服务器配置了单张控制卡时,控制卡下的启动项即为该服务器的启动项,具体设置方法请参见0设置HBA控制卡启动项

同一台服务器配置了多张控制卡时,EFI/UEFI模式下的系统启动盘需要在BIOS中进行设置。

设置启动项的操作方法请参见BIOS参数参考的“设置启动设备”章节。

22.4 常用配置

管理热备盘

设置全局热备盘

操作场景

您可以通过此操作设置硬盘为全局热备盘。

操作步骤

登录管理界面。具体操作方法请参见0登录BIOS管理界面

                                步骤 1     进入硬盘设置界面。

1.     选择“Physical Drive Management”并按“Enter”。

显示物理硬盘列表。

2.     选择要操作的硬盘并按“Enter”。

进入硬盘设置界面。如22-17所示。

图22-17 Drive Management

 

                                步骤 2     将“Operation”设置为“Assign Global Hot Spare Drive”,按“Enter”确认。

                                步骤 3     确认操作。

1.     选择“Perform Operation”并按“Enter”。

进入操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

4.     按“Enter”完成配置。

----结束

22.4.1.3 设置局部热备盘

操作场景

您可以通过此操作设置物理硬盘为局部热备盘。

需控制卡下存在RAID时才可配置局部热备盘,未配置RAID时无配置局部热备盘选项。

操作步骤

登录管理界面。具体操作方法请参见0登录BIOS管理界面

                                步骤 1     进入硬盘设置界面。

1.     选择“Physical Drive Management”并按“Enter”。

显示物理硬盘列表。

2.     选择要操作的硬盘并按“Enter”。

进入硬盘设置界面。如22-18所示。

图22-18 Drive Management

 

                                步骤 2     将“Operation”设置为“Assign Local Hot Spare Drive”,按“Enter”确认。如22-19所示。

图22-19 设置局部热备盘

 

                                步骤 3     将“Select RAID Group”选择为目标RAID组。

设置为局部热备盘的硬盘容量需大于目标RAID组最小成员盘容量。

                                步骤 4     确认操作。

1.     选择“Perform Operation”并按“Enter”。

进入操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

4.     按“Enter”完成配置。

----结束

22.4.1.4 删除热备盘

操作场景

您可以通过此操作取消硬盘作为全局热备盘或局部热备盘,恢复硬盘为空闲状态。

操作步骤

登录管理界面。具体操作方法请参见0登录BIOS管理界面

                                步骤 1     进入硬盘设置界面。

1.     选择“Physical Drive Management”并按“Enter”。

显示物理硬盘列表。

2.     选择要操作的硬盘并按“Enter”。

进入硬盘设置界面。如22-20所示。

图22-20 Drive Management

 

                                步骤 2     将“Operation”设置为“Set Drive Free”,按“Enter”确认。

                                步骤 3     确认操作。

1.     选择“Perform Operation”并按“Enter”。

进入操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

4.     按“Enter”完成配置。

----结束

22.4.1.5 设置热备槽位

操作场景

您可以通过此操作设置硬盘所在槽位为热备槽位或取消热备槽位。

操作步骤

登录管理界面。具体操作方法请参见0登录BIOS管理界面

                                步骤 1     进入硬盘设置界面。

1.     选择“Physical Drive Management”并按“Enter”。

显示物理硬盘列表。

2.     选择要操作的硬盘并按“Enter”。

进入硬盘设置界面。如22-21所示。

图22-21 Drive Management

 

                                步骤 2     将“Operation”设置为热备槽位相关操作。

l     Assign Hot Spare Slot:设置硬盘所在槽位为热备槽位。

l     Unassign Hot Spare Slot:取消此热备槽位并恢复硬盘为空闲状态。

                                步骤 3     确认操作。

1.     选择“Perform Operation”并按“Enter”。

进入操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

4.     按“Enter”完成配置。

----结束

22.4.1.6 设置紧急热备开关

操作场景

您可以通过此操作设置控制卡紧急热备开关状态。

操作步骤

登录管理界面。具体操作方法请参见0登录BIOS管理界面

                                步骤 1     按照顺序“Controller Management > Advanced Controller Properties > Set Controller Properties”进入“Set Controller Properties”界面,如22-22所示。

图22-22 Set Controller Properties

 

                                步骤 2     选择“EHSP Switch”并按“Enter”,设置紧急热备开关状态。

l     On:开启紧急热备。

l     Off:关闭紧急热备。

                                步骤 3     确认操作。

1.     选择“Save Changes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”。

2.     按“Enter”完成配置。

----结束

22.4.2 创建多个VD

操作场景

该场景为使用有空闲容量的RAID组创建多个VD

RAID1存在一个Virtual Drive为例,如22-23所示。

图22-23 View Virtual Drives

 

操作步骤

按照Main Management Page > Virtual Drive Management > Create Virtual Drive的路径进入“Create Virtual Drive”界面,如22-24所示。

图22-24 Create Virtual Drive

 

                                步骤 2     将“Select Drives From”设置为“RAID Group”。

                                步骤 3     选择“Select RAID Group”并按“Enter”。

显示当前存在的RAID组,如22-25所示。

图22-25 Select RAID Group

 

                                步骤 4     选择要创建多个VDRAID组,并按“Enter”确认。

                                步骤 5     选择“Apply Changes”并按“Enter”。

返回VD配置界面,如22-26所示。参数说明如22-8所示。

图22-26 Create Virtual Drive

 

表22-8 参数说明

参数

参数说明

RAID Level

选择RAID级别。

创建多个VD时根据选择的RAID组自动设置。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     RAID GroupRAID组。

l     Select Drives:未加入过虚拟磁盘的空闲硬盘。

创建多个VD时选择RAID Group

Select RAID Group

选择RAID

Name

虚拟磁盘名称。

Capacity Size

虚拟磁盘的容量。

默认值为max_left(最大容量)。

Select Capacity Unit

容量单位。包括:

l     MB

l     GB

l     TB

Initialize Type

初始化方式。包括:

l     Fast:快速初始化

l     Background:后台初始化。

l     Front:前台初始化

Strip Unit Size

虚拟磁盘的条带大小。不支持修改。

l     HDD默认条带大小为256KB

l     SSD默认条带大小为64KB

Write Cache

虚拟磁盘的Cache写策略。

仅支持Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

Read Cache

虚拟磁盘的Cache读策略。

仅支持No Ahead:关闭预读取功能。

PD Cache

物理硬盘Cache写策略(仅对有Cache的硬盘有效):

l     On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

l     Default:保持硬盘当前Cache配置。

Save Configuration

保存当前配置。

 

                                步骤 6     按照22-8所述配置VD的相关属性。

                                步骤 7     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”即操作成功。

4.     按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     返回至“Virtual Drive Management“界面。

2.     选择“View Virtual Drives”并按“Enter”。

3.     查看当前存在的所有VD。如22-27所示。

图22-27 View Virtual Drives

 

----结束

每个RAID组最多支持创建16VD,如需要继续创建VD,请重复执行步骤1~步骤7

22.4.3 删除VD

 

VD被删除后无法进行恢复,请谨慎执行删除VD操作。

操作步骤

登录管理界面。具体操作方法请参见0登录BIOS管理界面

                                步骤 1     进入“Virtual Drive Information”界面。

1.     SP186主界面中选择“Virtual Drive Management”并按“Enter”。

2.     选择“View Virtual Drives”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如22-28所示。

图22-28 Virtual Drive Information

 

                                步骤 2     删除虚拟磁盘。

1.     将“Operation”设置为“Delete Virtual Drive”。

2.     选择“Perform Operation”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”。

5.     按“Enter”完成配置。

----结束

22.4.4 安全擦除VD数据

操作场景

您可以通过该操作安全擦除VD数据。

操作步骤

登录管理界面。具体操作方法请参见0登录BIOS管理界面

                                步骤 1     进入VD设置界面。

1.     选择“Virtual Drive Management”并按“Enter”。

2.     选择“View Virtual Drives”并按“Enter”。

3.     选定擦除的VD并按“Enter”。

进入VD操作界面,如22-29所示。

图22-29 Virtual Drive Information

 

                                步骤 2     安全擦除VD数据。

选择“Sanitize Virtual Drive”并按“Enter”。如22-30所示。

图22-30 Virtual Drive Information

 

                                步骤 3     选择擦除模式。

选择“Sanitize Mode”并按“Enter”。有以下三种擦除模式。

l     Simple:仅对虚拟磁盘进行一轮擦除动作。

l     Normal:对虚拟磁盘进行三轮擦除动作。

l     Thorough:对虚拟磁盘进行九轮擦除动作。

选择完成后按“Enter”确认。

                                步骤 4     安全擦除数据。

1.     选择“Perform Operation”并按“Enter”。

进入操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

显示“Command executed successfully.Press ENTER to continue ...”。

4.     按“Enter”完成配置并返回上级界面。

                                步骤 5     查看擦除进度。

重新进入VD操作界面,可查看擦除进度,如22-31所示。

图22-31 查看擦除进度

 

l     刷新擦除进度需退出然后重新进入VD操作界面。

l     选择“Stop Sanitize”并按”Enter”可中止擦除。

----结束

22.4.5 扩展VD可用空间

操作场景

VD未占用成员硬盘全部容量时,可通过调整成员盘可用空间,扩大VD容量。

操作步骤

登录管理界面。具体操作方法请参见0登录BIOS管理界面

                                步骤 1     进入“Virtual Drive Information”界面。

1.     SP186主界面中选择“Virtual Drive Management”并按“Enter”。

2.     选择“View Virtual Drives”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如22-32所示。

图22-32 Virtual Drive Information

 

                                步骤 2     扩容虚拟磁盘。

1.     将“Operation”设置为“Expand Virtual Drive”。

2.     选择“Perform Operation”并按“Enter”。

进入虚拟磁盘扩容界面,如22-33所示。

图22-33 Expand Virtual Drive

 

3.     选择“Expand Capacity”并按“Enter”。

在“Please type in your data”输入需要扩容的容量大小,默认为max_left使用成员盘最大剩余容量。

图22-34 Please type in your data

 

4.     选择“Select capacity unit”并按“Enter”。

选择扩容的容量单位,按“Enter”确认。

5.     选择“Confirm”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”。

6.     按“Enter”完成配置。

----结束

22.4.6 设置裸盘模式

l     开启裸盘模式后,已经配置为虚拟磁盘或热备盘的硬盘状态保持不变,其余未配置的硬盘变为裸盘。

l     若开启裸盘模式后需将裸盘配置为虚拟磁盘来使用,则需要先将裸盘状态的硬盘设置为空闲盘,具体操作请参见22.4.7 设置硬盘属性

l     裸盘模式开启后,需设置单盘裸盘状态请参见22.4.7 设置硬盘属性

登录管理界面。具体操作方法请参见0登录BIOS管理界面

                                步骤 1     在主界面选择Physical Drive Management并按“Enter”,进入如22-35所示界面。

图22-35 Physical Drive Management

 

                                步骤 2     选择“Set Card Raw Drive”并按“Enter”。

                                步骤 3     选择裸盘模式状态按“Enter”。

l     Raw Drive On:开启裸盘模式

l     Raw Drive Off:关闭裸盘模式

                                步骤 4     选择“Save Raw Drive Status”并按“Enter”。

                                步骤 5     保存配置。

1.     选择“Confirm”并按“Enter”。

2.     选择“Yes”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”。

3.     按“Enter”完成配置。

----结束

22.4.7 设置硬盘属性

操作场景

您可以通过此操作设置物理硬盘点灯和物理硬盘Cache状态,裸盘模式开启时可设置硬盘状态。

操作步骤

登录管理界面。具体操作方法请参见0登录BIOS管理界面

                                步骤 1     进入硬盘设置界面。

1.     选择“Physical Drive Management”并按“Enter”。

显示物理硬盘列表。

2.     选择要操作的硬盘并按“Enter”。

进入硬盘设置界面。如22-36所示。

图22-36 Drive Management

 

                                步骤 2     设置硬盘操作。

1.     选择“Operation”,设置需对硬盘进行的操作,按“Enter”确认。

     Start Locate:点亮硬盘定位指示灯

     Stop Locate:熄灭硬盘定位指示灯

     Drive Cache On:开启硬盘Cache

     Drive Cache Off:关闭硬盘Cache

     Set Drive Free:设置硬盘为空闲盘(仅裸盘模式开启时可用)

     Set Raw Drive On:设置硬盘为裸盘(仅裸盘模式开启时可用)

2.     选择“Perform Operation”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示“Command executed successfully.Press ENTER to continue ...”。

5.     按“Enter”完成配置。

----结束

22.4.8 擦除硬盘数据

操作场景

您可以通过此操作擦除硬盘数据。

 

Sanitize安全擦除硬盘数据过程中服务器不可下电,否则可能造成硬盘故障。

操作步骤

登录管理界面。具体操作方法请参见0登录BIOS管理界面

                                步骤 1     进入硬盘设置界面。

1.     选择“Physical Drive Management”并按“Enter”。

显示物理硬盘列表。

2.     选择要操作的硬盘并按“Enter”。

进入硬盘设置界面。如22-37所示。

图22-37 Drive Management

 

                                步骤 2     设置擦除方式。

l     Sanitize安全擦除硬盘数据,如22-38所示。

图22-38 Sanitize安全擦除硬盘数据

 

a.     Operation”选择“Start Sanitize”。

b.     选择“Sanitize Mode”,设置擦除模式。

n     Overwrite:执行覆盖写0操作。

n     Blockerase 执行块擦除操作。

n     Cryptoerase:执行加密擦除操作。

l     Erase擦除硬盘数据,如22-39所示。

图22-39 Erase擦除硬盘数据

 

a.     Operation”选择“Start Erase”。

b.     选择“Erase Mode”,设置擦除模式。

n     Simple:仅对硬盘进行一轮擦除动作。

n     Normal:对硬盘进行三轮擦除动作。

n     Thorough:对硬盘进行九轮擦除动作。

                                步骤 3     确认擦除操作。

1.     选择“Perform Operation”并按“Enter”。

进入操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

显示“Command executed successfully.Press ENTER to continue ...”。

4.     按“Enter”完成配置。

                                步骤 4     进入对应硬盘操作界面可查看擦除进度,如22-40所示。

图22-40 查看擦除进度

 

l     Erase擦除硬盘数据时,“Operation”选择“Stop Erase”,然后选择“Perform Operation”并按“Enter”即可中断擦除。

l     Sanitize擦除硬盘时不可中止。

----结束

22.4.9 查看控制卡属性

操作场景

您可以通过查看控制卡属性的方式确定当前控制卡是否符合实际需求。

操作步骤

登录管理界面。具体操作方法请参见0登录BIOS管理界面

                                步骤 1     SP186主界面选择“Controller Management”并按“Enter”。

显示控制卡基本信息,如22-41所示,参数说明如22-9所示。

图22-41 Controller Management

 

表22-9 参数说明

参数

参数说明

Product Name

产品名称。

Chip Name

芯片名称。

Board SN

控制卡序列号。

Firmware Version

控制卡固件版本。

Chip Version

控制卡芯片版本。

Board PCB Version

控制卡的PCB板版本。

PCI ID

控制卡的PCI ID

PCI BDF Number

控制卡的BDFBusDeviceFunction)号。

Port Config Mode

端口配置模式。

Drive Count

控制卡挂载的物理硬盘数量。

Virtual Drive Count

控制卡下已有的虚拟磁盘数量。

Select Boot Device

选择启动盘。

Advanced Controller Properties

查看控制卡高级属性。

Reset Default Configuration

恢复默认设置。

 

                                步骤 2     查看控制卡高级属性。

选择“Advanced Controller Properties”并按“Enter”。

进入控制卡高级属性界面,如22-42所示,参数说明如22-10所示。

图22-42 Advanced Controller Properties

 

表22-10 参数说明

参数

说明

Set Controller Properties

设置控制卡属性。

Supported Drives Number Of RAID Group

支持的RAID组数量。

Chip DDR Information

芯片DDRDouble Data Rate)信息。

DDR Channel

通道数量。

DDR Size

DDR容量。

DDR Number

DDR数量。

DDR Total Size

DDR总容量。

Max Supported Drives Number

最大支持硬盘数量。

HDDs

最大支持硬盘数量(HDD)。

SSDs

最大支持硬盘数量(SSD)。

Controller Supported Capabilities

单板支持能力。

Max VD Number

最大支持虚拟磁盘数量。

Max PD Number

最大支持物理硬盘数量。

Supported RAID Levels

支持的RAID级别。

 

----结束

22.4.10 查询控制卡固件版本

查询控制卡固件版本的方法有如下几种:

l     iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。

l     服务器启动完成后,在OS下通过控制卡命令行工具进行查询,具体操作请参见22.7.2.47 查询固件详细版本

执行hiraidadm ccontroller_id show status命令,回显信息中的“FW Version0”和“FW Version1”字段即分别为控制卡的主备分区固件版本。

l     在控制卡管理界面进行查询,具体方法为:

a.     登录控制卡的管理界面,具体操作请参见0登录BIOS管理界面

进入22-43界面。

图22-43 SP186  HBA主界面

 

b.     选择“Controller Management”并按“Enter”。

显示控制卡基本信息。界面中的“Firmware Version”即为控制卡的固件版本,如22-44所示。

图22-44 Controller Management

 

22.4.11 导入和清除外部配置

操作场景

l     服务器更换控制卡或插拔RAID成员盘后,需要将原有配置导入新的控制卡中。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入或清除。

 

l     如服务器已配置RAID,在更换新控制卡或插拔RAID成员盘后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!

l     为避免导入外部配置失败,更换的控制卡的型号要与原来的控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

l     同时导入多个外部配置时,部分成功也将提示外部配置导入成功。

导入外部配置

登录管理界面。具体操作方法请参见0登录BIOS管理界面

                                步骤 1     在主界面选择“Virtual Drive Management >  Manage Foreign Configurations”并按“Enter”。

进入外部配置设置界面,如22-45所示。

图22-45 Manage Foreign Configurations

 

                                步骤 2     选择要导入的外部配置,并按“Enter”确认。

状态为“×”时表示该外部配置已选择。

                                步骤 3     选择“Import Foreign Configurations”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”表示操作成功。

                                步骤 4     按“Enter”完成配置。

外部配置导入成功后,RAID组的Cache写策略强制修改为Write ThroughCache读策略强制修改为No_Ahead

----结束

清除外部配置

登录管理界面。具体操作方法请参见0登录BIOS管理界面

                                步骤 1     在主界面选择“Virtual Drive Management >  Manage Foreign Configurations”并按“Enter”。

进入外部配置设置界面,如22-46所示。

图22-46 Manage Foreign Configurations

 

                                步骤 2     选择要清除的外部配置,并按“Enter”确认。

状态为“×”时表示该外部配置已选择。

                                步骤 3     选择“Clear Foreign Configurations”并按“Enter”。

提示“Command executed successfully.Press ENTER to continue ...”表示操作成功。

                                步骤 4     按“Enter”完成配置。

----结束

22.5 故障处理

介绍了硬盘故障、控制卡故障、电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

硬盘故障

 

服务器下电后拔出RAID组所有成员盘,被拔出的硬盘Fault指示灯将点亮,RAID信息将保留。

删除RAID组无法恢复硬盘Fault指示灯,需通过以下操作恢复:

l     重新插入硬盘。

l     关闭Phy后再重新开启,具体操作请参见22.7.4.71 设置phy口状态

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

确认故障硬盘槽位。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过控制卡GUI界面确认故障硬盘槽位信息,参考22.6.3 Physical Drive Management

l     通过控制卡命令行工具确认故障硬盘槽位信息,参考22.7.2.22 查询控制卡硬盘列表

                                步骤 1     更换新硬盘。

 

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板导致,则可以将硬盘设置为Unconfigured Good后,参考22.4.11 导入和清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在22-3查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒再插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号控制卡下删除RAID信息或者进行硬盘低格,具体请参考各型号控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0

     UEFI模式下创建RAID0的方法请参见22.3.2 创建RAID 0

     通过命令行方式创建RAID0的方法请参见22.7.2.23 创建虚拟磁盘

----结束

22.5.2 控制卡故障

问题描述

当服务器出现如下现象时,说明控制卡故障。

l     数据无法写入控制卡控制的硬盘。

l     服务器上报控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     查询兼容性查询助手或者联系技术支持处理。

----结束

22.5.3 控制卡运行大压力业务低概率出现map error

问题描述

控制卡运行大压力业务时,概率性出现IO错误,驱动messages日志显示:

Sep  5 09:49:10 localhost kernel: [  703.998417] hiraid 0000:81:00.0: swiotlb buffer is full (sz: 65536 bytes)
Sep  5 09:49:10 localhost kernel: [  703.998422] hiraid 0000:81:00.0: io map data err

处理方法一

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如22-47所示界面时,按“Delete”,进入输入密码界面。

图22-47 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如22-48所示界面。

图22-48 Setup Utility”界面

 

                                步骤 4     可选: 进入“Advanced > MISC Config”页签,如22-49所示。

图22-49 MISC Config”页签

 

                                步骤 5     将“Support Smmu”的选项改为“Enabled”。

Support Smmu”默认是“Disabled”。

                                步骤 6     按“F10”保存并退出。

----结束

处理方法二

登陆服务器OS

                                步骤 1     执行命令cat /proc/cmdline,查看文件cmdline

[root@localhost ~]# cat /proc/cmdline
BOOT_IMAGE=/vmlinuz-4.19.90-52.22.v2207.ky10.aarch64 root=/dev/mapper/klas-root ro rd.lvm.lv=klas/root rd.lvm.lv=klas/swap video=VGA-1:640x480-32@60me rhgb quiet console=tty0 crashkernel=1024M,high smmu.bypassdev=0x1000:0x17 smmu.bypassdev=0x1000:0x15 video=efifb:off audit=0

                                步骤 2     先执行vi /etc/default/grub,按“i”,再编辑grub,增加配置swiotlb=XXXXXX建议不小于131072

[root@localhost /]# vi /etc/default/grub
GRUB_TIMEOUT=5
GRUB_DISTRIBUTOR="$(sed 's, release .*$,,g' /etc/system-release)"
GRUB_DEFAULT=saved
GRUB_DISABLE_SUBMENU=true
GRUB_TERMINAL_OUTPUT="console"
GRUB_CMDLINE_LINUX="crashkernel=auto rd.lvm.lv=centos/root rd.lvm.lv=centos/swap swiotlb=131072"
GRUB_DISABLE_RECOVERY="true"

                                步骤 3     先按“ESC”,再按“shift+:”,输入“wq!”,按“Enter”退出。

                                步骤 4     运行grub2-mkconfig -o /boot/efi/EFI/centos/grub.cfg,重新生成config文件。

CentOS举例,不同的操作系统grub.cfg路径不一样。

                                步骤 5     重启服务器,使配置文件生效。

                                步骤 6     执行命令cat /proc/cmdline,查看文件cmdline是否生效。

BOOT_IMAGE=/vmlinuz-4.14.0-115.el7a.0.1.aarch64 root=/dev/mapper/centos-root ro crashkernel=auto rd.lvm.lv=centos/root rd.lvm.lv=centos/swap swiotlb=131072

----结束

22.5.4 UEFI下控制卡故障

SP186 HBA控制卡出现故障后,Option ROM提供Driver Health功能,用于在BIOS界面显示及修复相关故障,当前支持故障种类包括4大类:

l     Bad Card:控制卡存在不可恢复故障。

l     Restore Data:控制卡可能存在数据不一致,可选择恢复或丢弃数据。

l     Drop Data:控制卡存在不可恢复数据,只能丢弃数据后重启。

l     Write Hole:系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。

问题描述

l     22-50所示,系统加载Option ROM时将检测到控制卡异常,提示“RAID controller is in an unhealthy state, Repair it in BIOS Setup Utility”。

图22-50 异常提示

 

l     进入SP186主界面,将出现修复提示,如22-51所示。

图22-51 SP186主界面

 

处理方法

登录管理界面。具体操作方法请参见0登录BIOS管理界面

                                步骤 1     根据“Advanced > Some drivers are not healthy > Huawei RAID Adapter Driver”路径进入“Repair Controller Health”界面,如22-52所示。

图22-52 Repair Controller Health

 

                                步骤 2     根据步骤2页面提示信息,按照故障修复策略进行处理。

22-11所示。故障提示信息包含以下内容:

l     故障描述

l     故障提示及建议

l     修复策略

表22-11 故障提示信息

故障类型

提示信息

说明

处理方法

Bad Card类故障(无修复策略,只能换卡)

Error description

故障描述,包括:

l     NFC errorNFC故障

l     Small capacitor abnormal:小电容异常

l     SRAM errorSRAM故障

请参见0Bad Card类故障

The controller is faulty.Replace the controller.

故障提示及建议:控制卡故障,请更换。

Restore Data类故障

Error description

故障描述,此类故障包括:

l     IMU errorIMU故障

l     FirmWare error:固件故障

l     SOC fatalSOC重故障

l     TSP errorTSP故障

请参见22.5.4.6 Restore Data类故障

The controller has restorable data. Recover the data so that the controller can be configured an managed properly.

故障提示及建议:此控制卡中存在可恢复数据,请恢复数据以正确配置和管理控制卡。

Restore Data

修复策略:恢复数据,可能存在恢复后数据不一致问题。

Drop Data

修复策略:丢弃数据。

Drop Data类故障

Error description

故障描述,此类故障包括:

l     TSP errorTSP故障

l     DDR mbit errorDDR Mbit故障

l     RDE errorRDE故障

请参见22.5.4.7 Drop Data类故障

The controller is faulty. Repair the fault  so that the controller can be configured and managed properly.

故障提示及建议:此控制卡中存在数据丢失,请修复。

Drop Error

修复策略:丢弃数据。

Write Hole类故障

Write hole data exists in the controller.Fix this issue so that the controller can be configured and managed properly.

故障提示及建议:控制卡存在Write Hole数据,修复此问题以正确配置和管理控制卡。

请参见22.5.4.8 Write Hole类故障

Clear Data

修复策略:清除数据。

 

----结束

Bad Card类故障

处理方法

登录BIOS界面,操作请参见0登录BIOS管理界面

                                步骤 1     根据“Advanced > Some drivers are not healthy > Huawei RAID Adapter Driver”路径进入“Repair Controller Health”界面,如22-53所示,参数说明如22-12所示。

图22-53 Repair Controller Health

 

表22-12 参数说明

参数

说明

Error description

故障描述,包括:

l     NFC errorNFC故障

l     Small capacitor abnormal:小电容异常

l     SRAM errorSRAM故障

The controller is faulty.Replace the controller.

故障提示及建议:控制卡故障,请更换。

 

                                步骤 2     此类故障只能更换控制卡,无修复策略。

----结束

22.5.4.7 Restore Data类故障

处理方法

登录BIOS界面,操作请参见0进入BIOS配置管理界面

                                步骤 1     根据“Advanced > Some drivers are not healthy > Huawei RAID Adapter Driver”路径进入“Repair Controller Health”界面,如22-54所示,参数说明如22-13所示。

图22-54 Repair Controller Health

 

表22-13 参数说明

参数

说明

Error description

故障描述,此类故障包括:

l     IMU errorIMU故障

l     FirmWare error:固件故障

l     SOC fatalSOC重故障

The controller has restorable data. Recover the data so that the controller can be configured an managed properly.

故障提示及建议:此控制卡中存在可恢复数据,请恢复数据以正确配置和管理控制卡。

Restore Data

修复策略:恢复数据,可能存在恢复后数据不一致问题。

Drop Data

修复策略:丢弃数据。

 

                                步骤 2     选择“Restore Data”并按“Enter”。

进入“Confirm Repair Controller”界面,如22-55所示。

图22-55 Confirm Repair Controller

 

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

开始修复,如22-56所示。修复过程中请勿关机。

图22-56 修复中

 

                                步骤 5     当界面提示“The fault has been repaired, Restart the system to apply the repairs. Press ENTER to continue...”时,按“Enter”键继续,如22-57所示。

图22-57 进度完成提示

 

                                步骤 6     界面提示“The fault has been repaired,Restart the system to restore the controller to the normal state”表示修复完成,如22-58所示。

图22-58 修复完成

 

                                步骤 7     重启系统,以生效故障修复。

----结束

22.5.4.8 Drop Data类故障

处理方法

登录BIOS界面,操作请参见0登录BIOS管理界面

                                步骤 1     根据“Advanced > Some drivers are not healthy > Huawei RAID Adapter Driver”路径进入“Repair Controller Health”界面,如22-59所示,参数说明如22-14所示。

图22-59 Repair Controller Health

 

表22-14 参数说明

参数

说明

Error description

故障描述,此类故障包括:

l     TSP errorTSP故障(当未配置超级电容时为此故障类型)

l     DDR mbit errorDDR Mbit故障

l     RDE errorRDE故障

The controller is faulty. Repair the fault  so that the controller can be configured and managed properly.

故障提示及建议:此控制卡中存在数据丢失,请修复。

Drop Error

修复策略:丢弃数据。

 

                                步骤 2     选择“Drop Data”并按“Enter”。

进入“Confirm Repair Controller”界面,如22-60所示。

图22-60 Confirm Repair Controller

 

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

开始修复,如22-61所示。修复过程中请勿关机。

图22-61 修复中

 

                                步骤 5     当界面提示“The fault has been repaired, Restart the system to apply the repairs. Press ENTER to continue...”时,按“Enter”键继续,如22-62所示。

图22-62 进度完成提示

 

                                步骤 6     界面提示“The fault has been repaired,Restart the system to restore the controller to the normal state”表示修复完成,如22-63所示。

图22-63 修复完成

 

                                步骤 7     重启系统,以生效故障修复。

----结束

22.5.4.9 Write Hole类故障

处理方法

登录BIOS界面,操作请参见0登录BIOS管理界面

                                步骤 1     根据“Advanced > Some drivers are not healthy > Huawei RAID Adapter Driver”路径进入“Repair Controller Health”界面,如22-64所示,参数说明如22-15所示。

图22-64 Repair Controller Health

 

表22-15 参数说明

参数

说明

Write hole data exists in the controller.Fix this issue so that the controller can be configured and managed properly.

故障提示及建议:控制卡存在Write Hole数据,修复此问题以正确配置和管理控制卡。

Clear Data

修复策略:清除数据。

 

                                步骤 2     选择“Clear Data”并按“Enter”。

进入“Confirm Repair Controller”界面,如22-65所示。

图22-65 Confirm Repair Controller

 

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

开始修复,如22-66所示。修复过程中请勿关机。

图22-66 修复中

 

                                步骤 5     当界面提示“The fault has been repaired, Restart the system to apply the repairs. Press ENTER to continue...”时,按“Enter”键继续,如22-67所示。

图22-67 进度完成提示

 

                                步骤 6     界面提示“The fault has been repaired,Restart the system to restore the controller to the normal state”表示修复完成,如22-68所示。

图22-68 修复完成

 

                                步骤 7     重启系统,以生效故障修复。

----结束

22.6 管理界面介绍

Controller Management

控制卡主菜单,提供管理控制卡的接口。

界面介绍

Controller Management”界面如22-69所示,参数说明如22-16所示。

图22-69 Controller Management

 

表22-16 参数说明

参数

参数说明

Product Name

产品名称。

Chip Name

芯片名称。

Board SN

控制卡序列号。

Firmware Version

控制卡固件版本。

Chip Version

控制卡芯片版本。

Board PCB Version

控制卡的PCB板版本。

PCI ID

控制卡的PCI ID

PCI BDF Number

控制卡的BDFBusDeviceFunction)号。

Port Config Mode

端口配置模式。

Drive Count

控制卡挂载的物理硬盘数量。

Virtual Drive Count

控制卡下已有的虚拟磁盘数量。

Select Boot Device

选择启动盘。

Advanced Controller Properties

查看控制卡高级属性。

Reset Default Configuration

恢复默认设置。

 

查看并修改控制卡高级属性

Advanced Controller Properties”界面如22-70所示,参数说明如22-17所示。

图22-70 Advanced Controller Properties

 

表22-17 参数说明

参数

说明

Set Controller Properties

设置控制卡属性。

Supported Drives Number Of RAID Group

支持的RAID组数量。

Chip DDR Information

芯片DDRDouble Data Rate)信息。

DDR Channel

通道数量。

DDR Size

DDR容量。

DDR Number

DDR数量。

DDR Total Size

DDR总容量。

Max Supported Drives Number

最大支持硬盘数量。

HDDs

最大支持硬盘数量(HDD)。

SSDs

最大支持硬盘数量(SSD)。

Controller Supported Capabilities

单板支持能力。

Max VD Number

最大支持虚拟磁盘数量。

Max PD Number

最大支持物理硬盘数量。

Supported RAID Levels

支持的RAID级别。

 

Set Controller Properties

Set Controller Properties”界面如22-71所示,参数说明如22-18所示。

图22-71 Set Controller Properties

 

表22-18 参数说明

参数

说明

Current Repair Policy

控制卡当前修复策略。

默认修复策略为Confirm

EHSP Switch

紧急热备开关。

l     On:开启紧急热备功能。

l     Off:关闭紧急热备功能。

Drives to Report

设置报盘数量。

l     可设置范围1255

l     如果设置的报盘数量小于实际上报盘符数量,必须设置RAID控制卡启动项(即系统盘设置为boot启动盘),否则可能导致启动失败。设置方法请参见0设置控制卡启动项

Save Changes

保存更改。

 

查看支持的RAID组硬盘数量

具体规格以实际为准。

22-70中选择“Supported Drives number of Raid Group”并按“Enter”。

界面如22-72所示,参数说明如22-19所示。

图22-72 Supported Drives Number of RAID Group

 

表22-19 参数说明

参数

参数说明

Number Of HDD Supported by RAID Groups

RAID组支持的HDD硬盘数量。

Number Of SSD Supported by RAID Groups

RAID组支持的SSD硬盘数量。

Min RAID0 Drives

RAID0最小支持硬盘数量。

Max RAID0 Drives

RAID0最大支持硬盘数量。

Min RAID1 Drives

RAID1最小支持硬盘数量。

Max RAID1 Drives

RAID1最大支持硬盘数量。

Min RAID10 Drives

RAID10最小支持硬盘数量。

Max RAID10 Drives

RAID10最大支持硬盘数量。

Max RAID10 Sub RAID Groups

RAID10最大支持子组数量。

 

Reset Default Configuration

 

将控制卡恢复默认设置,所有配置将恢复到出厂默认配置。请谨慎执行该操作。

控制卡恢复默认设置。

22.6.2 Virtual Drive Management

该界面提供虚拟磁盘的查询和管理接口。

界面介绍

Virtual Drive Management”界面如22-73所示,参数说明如22-20所示。

图22-73 Virtual Drive Management

 

表22-20 参数说明

参数

参数说明

Create Virtual Drive

创建虚拟磁盘。

View Virtual Drives

查看虚拟磁盘。

View RAID Group Properties

查看RAID组属性。

Manage Foreign Configurations

管理外部配置。

 

Create Virtual Drive

Create Virtual Drive”界面如22-74所示,参数说明如22-21所示。

图22-74 Create Virtual Drive

 

表22-21 参数说明

参数

参数说明

RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     RAID GroupRAID组。

l     Free Drives:未加入过虚拟磁盘的空闲硬盘。

Select Drives

选择成员盘。

Name

虚拟磁盘名称。

Capacity Size

虚拟磁盘的容量。

默认值为max_left(最大容量)。

Select Capacity Unit

容量单位。包括:

l     MB

l     GB

l     TB

Initialize Type

初始化方式。包括:

l     Fast:快速初始化。

l     Background:后台初始化。

l     Front:前台初始化。

Strip Unit Size

虚拟磁盘条带大小。支持32KB64KB128KB256KB512KB1MB

l     HDD默认条带大小为256KB

l     SSD默认条带大小为64KB

Write Cache

虚拟磁盘的Cache写策略。

仅支持Write Through:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

Read Cache

虚拟磁盘的Cache读策略。

仅支持No Ahead:关闭预读取功能。

PD Cache

物理硬盘Cache写策略(仅对有Cache的硬盘有效):

l     On:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

l     Default:保持硬盘当前Cache配置。

Save Configuration

保存当前配置。

 

22.6.2.10 View Virtual Drives

22-73中选择“View Virtual Drives”并按“Enter”。

选择想要查看的VD并按“Enter”,界面如22-75所示,参数说明如22-22所示。

图22-75 Virtual Drives Information

 

表22-22 参数说明

参数

参数说明

Operation

选择对虚拟磁盘的操作。

l     Delete Virtual Drive:删除虚拟磁盘。

l     Expand Virtual Drive:通过调整成员盘可用空间扩充VD容量。

l     Sanitize Virtual Drive:安全擦除虚拟磁盘数据。

Progress

当前任务进度。

l     仅当进行安全擦除VD数据等任务时显示此选项。

l     当前界面不会自动刷新,需退出后重新进入查看当前进度。

Stop

停止当前任务。

仅当进行安全擦除VD数据等任务时显示此选项。

Name

虚拟磁盘名称。

Virtual Drive ID

虚拟磁盘ID

RAID Group ID

RAIDID

Type

RAID组的类型。

Capacity

虚拟磁盘容量。

Map Type

RAID组的映射类型。

Su Size(KB)

条带大小。

Sec Size(B)

逻辑分区大小。

Cache Read Status

虚拟磁盘的Cache读策略状态。

Cache Write Status

虚拟磁盘的Cache写策略状态。

Status

虚拟磁盘状态。

 

22.6.2.11 View RAID Group Properties

在“View RAID Group Properties”界面选择想要查看的RAID组并按“Enter”。

进入“RAID Group Detail Information”界面,如22-7622-77所示,参数说明如22-23所示。

图22-76 RAID Group Detail Information1

 

图22-77 RAID Group Detail Information2

 

表22-23 参数说明

参数

参数说明

Name

RAID组名称。

RAID Group ID

RAID组的ID

RAID Level

RAID组级别。

Status

RAID组状态。

Total Capacity

RAID组的总容量。

Available Space

RAID组的空闲容量。

Current Background Task

当前后台任务。

CopyBack Switch

回拷开关状态。

PD Cache

硬盘Cache状态。

Sector Size(B)

逻辑块大小。

Sector Type

块类型。

SubGroups Number

子组数量。

SubGroup Drive Number

子组硬盘数量。

SubGroup Free Capacity

子组空余容量。

Aligned Size(M)

对齐尺寸。

Virtual Drives Number

虚拟磁盘数量。

Member Drive Number

成员盘数量。

Member Drive List

成员盘列表。

 

查看成员盘

22-77中选择“Member Drive List“并按“Enter“。

进入22-78界面。可查看当前RAID组所有成员盘信息。

图22-78 Member Drive List

 

22.6.2.12 Manage Foreign Configuration

Manage Foreign Configurations”界面如22-79所示。

图22-79 Manage Foreign Configurations

 

导入/清除外部配置具体操作请参见22.4.11 导入和清除外部配置

22.6.3 Physical Drive Management

该界面显示硬盘基本属性,提供硬盘操作接口。

界面介绍

Physical Drive Management”界面如22-80所示。

可在此界面设置全局裸盘模式,具体操作请参见22.4.6 设置裸盘模式

图22-80 Physical Drive Management

 

选定要操作的硬盘并按“Enter”进入详细操作界面,如22-81所示,参数说明如22-24所示。

图22-81 Drive Management

 

表22-24 参数说明

参数

参数说明

Operations

选择对硬盘进行的操作。

l     Start Locate:定位硬盘。

l     Stop Locate:取消定位。

l     Assign Global Hot Spare Drive:设置为全局热备盘。

l     Assign Hot Spare Slot:设置所在槽位为热备槽位。

l     Assign Local Hot Spare Drive:设置为局部热备盘。

l     Drive Cache On:开启硬盘Cache

l     Drive Cache Off:关闭硬盘Cache

l     Start SanitizeSanitize安全擦除硬盘。

l     Start EraseErase擦除硬盘。

l     Set Drive Free:设置硬盘为空闲盘(仅裸盘模式开启时可用)

l     Set Raw Drive On:设置硬盘为裸盘(仅裸盘模式开启时可用)

Perform Operation

执行操作。选择操作后显示。

Drive ID

硬盘ID

Enclosure ID

硬盘所在的框位类型。

Slot ID

硬盘所在的槽位编号。

Capacity

硬盘容量。

Link Speed

端口速度。

Type

硬盘的逻辑类型。

Spare Slot

是否为热备槽位。

Status

硬盘的逻辑状态。

Media

硬盘的媒介类型。

Interface

硬盘的接口类型。

PD Cache

硬盘的Cache写状态。

Slow Drive

是否被标记为慢盘。

Model

硬盘的型号。

Firmware Version

硬盘的固件版本。

Sector Type

扇区类型。

SED

是否为自加密硬盘。

Spin Status

硬盘转速状态。

 

22.6.4 Hardware Components

该界面主要提供控制卡传感器信息。

界面介绍

Hardware Components”界面如22-82,参数说明如22-25所示。

图22-82 Hardware Components

 

表22-25 参数说明

参数

参数说明

CPU Temperature

当前CPU温度。

 

22.6.5 Exit

按“F10”退出BIOS管理界面。

22.7 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对控制卡进行操作,不需要重启服务器。

涉及的使用实例以hiraidadm版本1.2.0.2为例,不同版本的hiraidadm工具回显有差异,具体请以实际为准。

安装hiraidadm工具

联系技术支持获取hiraidadm工具。

22.7.1 系统命令

查询控制卡列表

命令功能

查询控制卡列表。

命令格式

hiraidadm show allctrl

使用指南

回显中主要字段的含义如22-26所示。

表22-26 回显说明

命令格式

字段

含义

举例

hiraidadm show allctrl

Controllers Number

控制卡的数量。

1

Controller Id

控制卡的ID

0

Device Name

控制卡的设备名称。

/dev/bsg/hiraid0

Pcie Bus Domain

控制卡的PCIe总线域。

0000

Bus Number

控制卡总线号。

04

Device Number

控制卡设备号。

00

Function Number

控制卡的Function号。

00

PCI Address

控制卡PCI地址。

0000:04:00.0

 

使用实例

# 查询所有控制卡列表。

[root@localhost ~]# hiraidadm show allctrl
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Controllers Number = 1
-------------------------------------------------------
Controller Id           | 0
Device Name             | /dev/bsg/hiraid0
Pcie Bus Domain         | 0000
Bus Number              | 85
Device Number           | 00
Function Number         | 00
PCI Address             | 0000:85:00.0

22.7.1.13 查询控制卡数量

命令功能

查询控制卡的数量。

命令格式

hiraidadm show ctrlcount

使用指南

无。

使用实例

# 查询系统中控制卡数量。

[root@localhost ~]# hiraidadm show ctrlcount
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
ctrlcount:1
==============================================================================================================

22.7.1.14 转换控制卡日志

命令功能

将从控制卡上收集的日志文件转换为文本文件。

命令格式

hiraidadm show log path=log_path out_file=outputfile [timezone=timezone]

参数说明

参数

参数说明

取值

log_path

从控制卡获取的日志文件所在路径。

-

outputfile

指定转换后输出的文件名。

-

timezone

可选参数,表示指定转换的时区。不输入时默认使用本地时区。

例如:

l     +0800:表示指定东八区。

l     -0900:表示指定西九区。

 

使用指南

无。

使用实例

# 将从控制卡上收集的日志文件转换为文本文件。。

[root@localhost ~]# hiraidadm show log path=./ outfile=log.txt timezone=+0200
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
-------------------------------------------------------
parse .//ap.bin start.
parse .//imu.bin start.
out file1:.//log-flash.txt
out file2:.//log-ram.txt
 success log num | 12624
no parse log num | 7427
   total log num | 20423
-------------------------------------------------------
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.2 控制卡命令

查询控制卡配置信息

命令功能

查询控制卡的配置信息。

命令格式

hiraidadm ccontroller_id show config

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

回显中主要字段的含义如22-27所示。

表22-27 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show config

Precopy Switch

预拷贝开关使能状态。

Off

Emergency Hotspare Switch

紧急热备开关使能状态。

On

CopyBack Switch

回拷开关使能状态。

On

Bginit Rate

后台初始化速率。

low

Rebuild Rate

重构速率。

high

CopyBack Rate

回拷速率。

high

PreCopy Rate

预拷贝速率。

high

Sanitize Rate

硬盘擦除速率。

low

CCheck Switch

一致性校验开关使能状态。

Off

CCheck Period

一致性校验周期。

30 day

CCheck Rate

一致性校验速率。

low

CCheck Repair Switch

一致性校验修复开关使能状态。

Off

Patrolread Switch

系统巡检开关使能状态。

On

Patrolread Period

系统巡检周期。

30 day

Patrolread Rate

系统巡检速率。

low

Drive Parall Num

同时进行巡检的硬盘数量。

4

 

使用实例

# 查询控制卡配置信息。

[root@localhost ~]# hiraidadm c0 show config
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
                 Raid Global Config Information
--------------------------------------------------------------------------------------------------------------
Precopy Switch             | On
Emergency Hotspare Switch  | On
CopyBack Switch            | On
Bginit Rate                | high
Rebuild Rate               | high
CopyBack Rate              | high
PreCopy Rate               | high
Sanitize Rate              | low
CCheck Switch              | On
CCheck Period              | 60 day
CCheck Rate                | medium
CCheck Repair Switch       | On
Patrolread Switch          | Off
Patrolread Period          | 30 day
Patrolread Rate            | low
Drive Parall Num           | 4
DDMA Switch                | On
--------------------------------------------------------------------------------------------------------------

22.7.2.15 查询和设置系统巡检参数

命令功能

查询和设置系统巡检的相关参数。

命令格式

命令

说明

hiraidadm ccontroller_id show patrolread

查询系统巡检相关参数。

hiraidadm ccontroller_id set patrolread [period=period] [rate={low|medium|high}] [drivenum=drivenum]

设置系统巡检参数,至少需设置一个参数。

hiraidadm ccontroller_id start patrolread [delay=delay] [period=period] [rate=rate] [drivenum=drivenum]

设置系统巡检参数并执行。

hiraidadm ccontroller_id stop patrolread

停止系统巡检。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

delay

指定延时启动时间。

124(单位:h

period

系统巡检间隔周期。

160(单位:day

rate

系统巡检速率。

l     low

l     medium

l     high

默认为low

drivenum

同时开启硬盘巡检的硬盘数量。

l     可设置28个硬盘。

l     默认为4

 

使用指南

l     本命令相关参数由用户指定后,后续将一直保留使用,不指定时不再使用默认值。

l     回显中主要字段的含义如22-28所示。

表22-28 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show patrolread

Patrolread Switch

系统巡检开关。

on

Patrolread Delay

硬盘巡检延时启动时间。

1 h

Patrolread Period

巡检周期。

30 day

Patrolread Rate

巡检速率。

low

Drive Parall Num

设置的同时进行巡检的硬盘数量。

4

Run Status

巡检执行状态。

stop

Finish Drive Sum

完成巡检的硬盘数量。

0

Running Drive Sum

当前巡检中的硬盘数量。

0

 

使用实例

# 查询系统巡检信息。

[root@localhost ~]# hiraidadm c0 show patrolread
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
                    Patrolread Information
-------------------------------------------------------
Patrolread Switch       | On
Patrolread Delay        | 0 h
Patrolread Period       | 20 day
Patrolread Rate         | low
Drive Parall Num        | 4
Run Status              | stop
Finish Drive Sum        | 0
Running Drive Sum       | 0
-----------------------------------------------------

# 设置系统巡检参数。

[root@localhost ~]# hiraidadm c0 start patrolread period=20 rate=low drivenum=4
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 停止系统巡检。

[root@localhost ~]# hiraidadm c0 stop patrolread
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.2.16 查询和设置裸盘模式

命令功能

查询和设置控制卡的全局裸盘模式。

命令格式

命令

说明

hiraidadm ccontroller_id set jbod=jbod_state

设置控制卡的裸盘模式。

hiraidadm ccontroller_id show jbod

查询控制卡的裸盘模式状态。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

jbod_state

控制卡裸盘模式使能情况。

l     rawdrive:开启裸盘模式

l     off:关闭裸盘模式

 

使用指南

无。

使用实例

# 开启控制卡的裸盘模式。

[root@localhost ~]# hiraidadm c0 set jbod=rawdrive
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 查询控制卡的裸盘模式状态。

[root@localhost ~]# hiraidadm c0 show jbod
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Jbod = rawdrive

22.7.2.17 查询和设置控制卡一致性校验参数

命令功能

查询、设置控制卡一致性校验参数。

命令格式

命令

说明

hiraidadm ccontroller_id show ccheck

查询控制卡一致性校验参数。

hiraidadm ccontroller_id set ccheck [period=period] [repair=repair_switch] [rate=rate]

设置控制卡一致性校验,至少设置一个参数。

hiraidadm ccontroller_id start ccheck [delay=delay] [period=period] [repair=repair_switch] [rate=rate]

设置控制卡一致性校验并开始。

hiraidadm ccontroller_id stop ccheck

停止控制卡一致性校验。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

delay

延时时间。

124,单位:h

period

一致性校验的周期。

单位:day

repair_switch

自动修复开关。

l     on

l     off

rate

一致性校验速率。

l     high

l     medium

l     low

 

使用指南

l     本命令相关参数由用户指定后,后续将一直保留使用,不指定时不再使用默认值。

l     回显中主要字段的含义如22-29所示。

表22-29 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show ccheck

CCheck Switch

自动一致性校验开关。

on

Delay

一致性校验延时启动时间。

0 h

Period

一致性校验周期(单位:天)。

60 day

Rate

一致性校验速率。

medium

Repair

自动修复开关。

On

Run status

一致性校验运行状态。

stop

Total Number Of CCheck

需要完成一致性校验的VD总数量。

0

Completed Number Of CCheck

已完成一致性校验VD数量。

0

 

使用实例

# 查询一致性校验信息。

[root@localhost ~]# hiraidadm c0 show ccheck
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
               Consistency Check Information
-------------------------------------------------------
CCheck Switch               | On
Delay                       | 0 h
Period                      | 60 day
Rate                        | medium
Repair                      | On
Run status                  | stop
Total Number Of CCheck      | 0
Completed Number Of CCheck  | 0
-------------------------------------------------------

# 设置一致性校验参数。

[root@localhost ~]# hiraidadm c0 set ccheck period=20 repair=on rate=low
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 设置一致性校验参数并启动。

[root@localhost ~]# hiraidadm c0 start ccheck delay=10 period=20 repair=on rate=low
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 停止一致性校验。

[root@localhost ~]# hiraidadm c0 stop ccheck
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.2.18 查询和设置控制卡后台任务

命令功能

查询和设置控制卡重构、回拷、巡检、擦除、后台初始化、预拷贝和一致性校验后台任务。

命令格式

命令

说明

hiraidadm ccontroller_id show bgtask

查询控制卡后台任务进度。

hiraidadm ccontroller_id set bgrate func=func rate=rate

设置RAID组重构/回拷/巡检/擦除/后台初始化/预拷贝/一致性校验后台速率。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

func

要执行的操作。

l     rebuildRAID重构

l     copyback:回拷

l     patrolread:巡检

l     sanitize:擦除

l     bginit:后台初始化

l     precopy:预拷贝

l     ccheck:一致性校验

rate

后台任务执行速率。

l     high

l     medium

l     low

 

使用指南

无。

使用实例

# 查询后台任务进度。

[root@localhost ~]# hiraidadm c0 show bgtask
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Background task num is 1
--------------------------------------------------------------------------------------------------------------
Background Task Information
--------------------------------------------------------------------------------------------------------------
Name         Type     ID   Rate   Progress TimeLeft
bginit       VD       0    high   34%      32 min
--------------------------------------------------------------------------------------------------------------

# 设置RAID重构速率。

[root@localhost ~]# hiraidadm c0 set bgrate func=rebuild rate=low
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign func : rebuild
User assign rate : low
--------------------------------------------------------------------------------------------------------------

22.7.2.19 查询和设置预拷贝开关

命令功能

查询和设置控制卡的预拷贝开关。

命令格式

命令

说明

hiraidadm ccontroller_id show precopy

查询控制卡的预拷贝开关状态。

hiraidadm ccontroller_id set precopy sw=switch

设置控制卡的预拷贝功能开关。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

switch

设置控制卡的预拷贝开关状态。

l     on:开启预拷贝功能

l     off:关闭预拷贝功能

 

使用指南

无。

使用实例

# 查询控制卡预拷贝开关使能状态。

[root@localhost ~]# hiraidadm c0 show precopy
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Precopy Switch = On

#开启控制卡预拷贝开关。

[root@localhost ~]# hiraidadm c0 set precopy sw=on
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : on
--------------------------------------------------------------------------------------------------------------

22.7.2.20 设置成员盘强制上线和下线

命令功能

设置成员盘强制上线和下线。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id set state

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

slot_id

物理硬盘槽位的ID

state

设置成员盘状态。

l     online:设置成员盘上线。

l     offline:设置成员盘下线。

 

使用指南

l     offline只能操作RAID组状态normal的成员盘。

l     online操作成功也受限于RAID组本身是否可恢复降级或重构以及normal

l     Online本身是尽力而为的命令,如果Online的盘物理上为fault,则该盘状态将保存为fault,对应LUN的逻辑状态可以恢复,但是能否恢复数据依赖盘物理上读数据是否会出错。

设置硬盘offline之后查询硬盘状态,确认硬盘状态为offline后,才能进行设置online操作,避免设置online失败。

使用实例

# 设置slot1硬盘强制上线。

[root@localhost ~]# hiraidadm c0:e0:s1 set online
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.2.21 查询和设置控制卡回拷开关

命令功能

查询、设置控制卡回拷开关。

命令格式

命令

说明

hiraidadm ccontroller_id show copyback

查询控制卡的回拷开关状态。

hiraidadm ccontroller_id set copyback sw=switch

设置控制卡的回拷开关状态。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

switch

设置控制卡的回拷开关状态。

l     on:开启回拷

l     off:关闭回拷

 

使用指南

无。

使用实例

# 查询控制卡的回拷开关状态。

[root@localhost ~]# hiraidadm c0 show copyback
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Copyback Switch = On

# 开启控制卡的回拷功能。

[root@localhost ~]# hiraidadm c0 set copyback sw=on
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : on
--------------------------------------------------------------------------------------------------------------

22.7.2.22 查询和设置SMART扫描周期

命令功能

查询、设置控制卡SMART扫描周期。

命令格式

命令

说明

hiraidadm ccontroller_id show smart_polling

查询SMART扫描周期。

hiraidadm ccontroller_id set smart_polling period=period

设置SMART扫描周期。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

period

SMART扫描周期。

单位:s。最小值为60s

 

使用指南

无。

使用实例

# 查询SMART扫描周期。

[root@localhost ~]# hiraidadm c0 show smart_polling
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Drive smart polling period is 3600s.

# 设置Smart扫描周期为“600s”。

[root@localhost ~]# hiraidadm c0 set smart_polling period=600
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign period : 600
--------------------------------------------------------------------------------------------------------------

22.7.2.23 查询控制卡硬盘列表

命令功能

查询指定控制卡下所有物理盘列表信息。

命令格式

hiraidadm ccontroller_id show pdlist

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

回显中主要字段的含义如22-30所示。

表22-30 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show pdlist

Index

查询列表中物理硬盘序号。

0

Enc

硬盘所在框位的ID

0

Slot

硬盘所在槽位的ID

12

DID

硬盘逻辑ID

2

Intf

硬盘接口类型。

SATA

Media

硬盘物理类型。

SSD

Type

硬盘逻辑类型。

free

Status

硬盘当前状态。

normal

PreFail

是否预失效。

No

LinkSpd

硬盘接口速率。

6.0Gb/s

Capacity

硬盘原始容量。

1.920TB

SecType

硬盘扇区类型。

512E

FUA

是否支持FUA

Sup

SED

硬盘是否加密。

No

Spin

硬盘节电开关。

UP

FW

固件版本信息。

404Q

Model

硬盘型号。

SAMSUNG MZ7LH1T9HMLT-00005

 

使用实例

#查询指定控制卡下所有物理盘列表信息。

[root@localhost ~]# hiraidadm c0 show pdlist
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Total pd number is 12
--------------------------------------------------------------------------------------------------------------
Index Enc  Slot DID  Intf  Media Type     Status         PreFail SlowDrive LinkSpd Capacity   SecType FUA SED Spin FW       Model
--------------------------------------------------------------------------------------------------------------
0     0    0    5    SATA  HDD   free     ucfggood       No      No        6.0Gb/s    3.639TB  512N   Sup No  UP   T010     HUS726T4TALA600
1     0    1    6    SATA  HDD   free     ucfggood       No      No        6.0Gb/s    3.639TB  512N   Sup No  UP   T010     HUS726T4TALA600
2     0    2    7    SATA  HDD   free     ucfggood       No      No        6.0Gb/s    3.639TB  512N   Sup No  UP   T010     HUS726T4TALA600
3     0    3    8    SATA  HDD   free     ucfggood       No      No        6.0Gb/s    3.639TB  512N   Sup No  UP   T010     HUS726T4TALA600
4     0    8    10   SATA  HDD   free     ucfggood       No      No        6.0Gb/s    3.639TB  512N   Sup No  UP   T010     HUS726T4TALA600
5     0    9    11   SATA  HDD   free     ucfggood       No      No        6.0Gb/s    5.458TB  512E   Sup No  UP   SN03     ST6000NM0115-1YZ110
6     0    10   9    SAS   HDD   free     ucfggood       No      No        12Gb/s   558.912GB  512N   Sup No  UP   N005     ST600MM0009
7     0    11   4    SAS   SSD   free     ucfggood       No      No        12Gb/s   372.611GB 4096B   Sup No  UP   c280     HUSMM1640ASS204
8     0    12   3    SAS   SSD   free     ucfggood       No      No        12Gb/s   894.253GB 4096B   Sup No  UP   3230     HSSD-D6323AL960N
9     0    13   1    SATA  SSD   free     ucfggood       No      No        6.0Gb/s  447.132GB  512E   Sup No  UP   HXM7A04Q SAMSUNG MZ7KH480HAHQ-00005
10    0    14   2    SATA  SSD   free     ucfggood       No      No        6.0Gb/s  894.253GB  512E   Sup No  UP   1074     HWE62ST3960L003N
11    0    15   0    SATA  SSD   free     ucfggood       No      No        6.0Gb/s  894.253GB  512E   Sup No  UP   1074     HWE62ST3960L003N
--------------------------------------------------------------------------------------------------------------

22.7.2.24 创建虚拟磁盘

 

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     SP186  HBA支持的硬盘类型为SAS/SATA HDDSAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     不支持使用SED盘创建RAID组。

l     RAID级别所需的硬盘数请参见22.2.1 多种RAID类型

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     仅空闲盘可用于创建RAID组。若需要将裸盘用于创建RAID组,请将用于创建RAID组的硬盘状态设置为“free”,具体操作请参见22.4.7 设置硬盘属性

命令功能

创建虚拟磁盘。

命令格式

命令

说明

hiraidadm ccontroller_id create vd raid{0|1|10} size={size|max_left} drives={enclosure_id:slot_id,enclosure_id:slot_id|drive_id,drive_id} name=VD_Name [susize={32|*64|128|256|512|1024}] [wcache={*WT|WB|WBE}] [rcache={Ahead|*No_Ahead}]  [pdcache={on|off|*default}] [init={*fast|front|background}]

利用空闲硬盘创建虚拟磁盘。

hiraidadm ccontroller_id create vd [raid{0|1|10|5|6|50|60}] rg=rg_id size={size|max_left}  name=VD_Name [susize={32|*64|128|256|512|1024}] [wcache={*WT|WB|WBE}] [rcache={Ahead|*No_Ahead}]  [pdcache={on|off|*default}] [init={*fast|front|background}]

利用已有RAID组剩余空间创建虚拟磁盘。

 

*表示默认值。

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

raid

要配置的RAID组级别。

0110,数字分别代表对应的RAID组级别。

size

要配置的RAID组容量。

逻辑盘容量大小,单位MB。当设置为max_left时,使用最大容量。

说明

支持创建大小为1MBMax_left

drives

两种表示方法。

l     要加入RAID组的硬盘所在的框位ID加槽位ID表示enclosure_id:slot_idenclosure_id:slot_id

l     要加入RAID组的硬盘逻辑ID表示:drive_id,drive_id

例如:

l     1:22,1:23

l     3,7

name

要配置的RAID组名称。

最大20字符。

susize

设置RAID组条带大小。

32, 64, 128, 256, 512, 1024。单位为KB

l     HDD默认条带大小为256KB

l     SSD默认条带大小为64KB

wcache

设置RAID组的写Cache属性。

l     WT:当硬盘子系统接收到所有传输数据后,控制卡将给主机返回数据传输完成信号。

l     WB:控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     WBE:在RAID控制卡无电容或电容损坏的情况下,强制使用“WB”模式。

默认为WT

rcache

设置RAID组的读Cache属性。

l     Ahead:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     No_AheadRAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

默认为No_Ahead

pdcache

设置RAID的成员盘的Cache状态(仅对有Cache的硬盘有效)。

l     on:写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     off:写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

l     default:保持硬盘当前Cache配置。

默认为default

init

初始化方式。

l     fast:快速初始化

l     front:前台初始化

l     background:后台初始化

默认为fast

rg_id

RAID组的ID

例如:01。查询RAIDID请参见22.7.2.25 查询控制卡RAID组列表

 

使用指南

无。

使用实例

# 利用空闲硬盘创建RAID 1

[root@localhost ~]# hiraidadm c0 create vd raid1 name=vd0 size=100000 drives=0:0,0:1
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 利用已有RAID组创建虚拟磁盘。

[root@localhost ~]# hiraidadm c0 create vd raid1 rg=0 size=100000 name=vd1
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.2.25 查询控制卡虚拟磁盘列表

命令功能

查询控制卡的虚拟磁盘列表信息。

命令格式

hiraidadm ccontroller_id show vdlist

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

回显中主要字段的含义如22-31所示。

表22-31 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show vdlist

VDID

VDID索引。

0

RGID

VD所属的RAIDID索引。

0

Name

VD名称。

-

Type

VD类型。

normal

Status

VD的状态。

normal

Capacity

容量,单位:MB|GB|TB

1.454TB

SUSz

条带大小,单位:KB

64KB

SecSz

扇区大小,单位:B

512B

RCache

cache策略。

No_Ahead

WCache

cache策略。

WT

RealWCache

当前生效的Cache写策略。

WT

Access

VD的读写属性。

RW:取消只读。

RO:只读。

RW

 

使用实例

#查询指定控制卡下虚拟磁盘列表信息。

[root@localhost ~]# hiraidadm c0 show vdlist
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Total vd number is 1
--------------------------------------------------------------------------------------------------------------
VDID RGID Name  Type    Status         Capacity   SUSz   SecSz  RCache   WCache RealWCache  Access
--------------------------------------------------------------------------------------------------------------
0    0    vd0   normal  initializing     97.656GB  256KB   512B No_Ahead WT     WT          RW
--------------------------------------------------------------------------------------------------------------

22.7.2.26 查询控制卡RAID组列表

命令功能

查询指定控制卡下已创建的RAID组信息。

命令格式

hiraidadm ccontroller_id show rglist

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

回显中主要字段的含义如22-32所示。

表22-32 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show rglist

Id

RAIDID

0

Name

RAD组名称。

raid0

Level

RAID组级别。

0

Status

RAID的状态。

normal

MemberNum

成员盘数量。

3

Total

总容量。

1.454TB

Free

空闲容量。

0.000MB

 

使用实例

#查询指定控制卡下RAID组列表信息。

[root@localhost ~]# hiraidadm c0 show rglist
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Total raid group number is 1
--------------------------------------------------------------------------------------------------------------
Id   Name           Level  Status  MemberNum Total      Free
--------------------------------------------------------------------------------------------------------------
0    raid0          1      normal  2            3.638TB    3.542TB
--------------------------------------------------------------------------------------------------------------

22.7.2.27 查询和设置紧急热备功能

命令功能

查询、设置控制卡紧急热备功能状态。

命令格式

命令

说明

hiraidadm ccontroller_id show ehsp

查询控制卡紧急热备功能状态。

hiraidadm ccontroller_id set ehsp sw=switch

设置控制卡紧急热备功能。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

switch

紧急热备功能的启用状态。

l     on:开启紧急热备

l     off:关闭紧急热备

 

使用指南

无。

使用实例

# 查询控制卡紧急热备功能使能状态。

[root@localhost ~]# hiraidadm c0 show ehsp
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Ehsp Switch = On

# 开启紧急热备功能。

[root@localhost ~]# hiraidadm c0 set ehsp sw=on
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : on
--------------------------------------------------------------------------------------------------------------

22.7.2.28 查询和处理外部配置

命令功能

查询、导入或者清除控制卡的外部配置。

命令格式

命令

说明

hiraidadm ccontroller_id show fncfg

查询控制卡的外部配置。

hiraidadm ccontroller_id clear fncfg [guid=guid]

清除控制卡的外部配置。

hiraidadm ccontroller_id import fncfg [guid=guid]

导入控制卡的外部配置。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

guid

外来配置的唯一标识符。

如果不输入,则默认所有。

 

使用指南

无。

使用实例

# 查询控制卡的外部配置。

[root@localhost ~]# hiraidadm c0 show fncfg
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Foreign Config number is 2
--------------------------------------------------------------------------------------------------------------
Foreign Config Lists
--------------------------------------------------------------------------------------------------------------
Index Enc  Slot Type     RGID RGLevel RGStatus VDs  PDs  RGGUID
0     0    0    member   0    1       degrade  2    2    0x7e522f3600000000
1     0    1    member   0    1       degrade  2    2    0x7e522f3600000000
--------------------------------------------------------------------------------------------------------------

# 导入控制卡的外部配置。

[root@localhost ~]# hiraidadm c0 import fncfg guid=0x7e522f3600000000
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Import Foreign Config : 0x7e522f3600000000

# 清除控制卡的外部配置。

[root@localhost ~]# hiraidadm c0 clear fncfg guid=0x7e522f3600000000
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Clear Foreign Config : 0x7e522f3600000000

22.7.2.29 恢复默认设置

命令功能

将控制卡配置恢复到默认设置。

 

将控制卡恢复默认设置,所有配置将恢复到出厂默认配置。请谨慎执行该操作。

命令格式

hiraidadm ccontroller_id reset defaultconfig [noprompt]

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

noprompt

无需用户确认。

-

 

使用指南

当输入命令不带“noprompt”参数时,将提示“Do you confirm the execution reset config?The user settings will be reset.Please input [y|Y] for yes, others for cancel”。

l     输入“y”或“Y”并按“Enter”确认恢复默认设置。

l     输入其他取消此操作。

使用实例

# 将指定控制卡恢复出厂设置。

[root@localhost ~]# hiraidadm c0 reset defaultconfig
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
Do you confirm the execution reset config?
The user settings will be reset.
Please input [y|Y] for yes, others for cancel
---------------------------------------------
y
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.2.30 收集控制卡日志信息

命令功能

收集控制卡的日志信息。

命令格式

hiraidadm ccontroller_id get log path=path

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

path

日志保存的路径。

-

 

使用指南

无。

使用实例

# 收集控制卡的日志信息。

[root@localhost ~]# hiraidadm c0 get log path=./
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
file:ap.bin get finish.
file:imu.bin get finish.
file:ap_index.gz get finish.
file:imu_index.gz get finish.
file:lastword.bin get finish.
-------------------------------------------------------
file(.//log-lastword.txt) will be overwritten!
parse .//lastword.bin start.
out file1:.//log-lastword.txt
-------------------------------------------------------
file(.//log-flash.txt) will be overwritten!
file(.//log-ram.txt) will be overwritten!
parse .//imu.bin start.
parse .//ap.bin start.
out file1:.//log-flash.txt
out file2:.//log-ram.txt
 success log num | 9272
no parse log num | 12740
   total log num | 22078
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.2.31 查询控制卡寄存器信息

命令功能

l     查询控制卡寄存器信息。

l     dump数据到flash

命令格式

命令

说明

hiraidadm ccontroller_id get dump path=file_path [type=type]

查询控制卡寄存器信息。

hiraidadm ccontroller_id set dump

dump数据到flash

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

file_path

要保存的路径。

-

type

指定信息获取方式。

l     flash:指定从norflash获取。

l     ram:指定从ram获取,如果不支持ram,则从norflash获取。

默认为flash

 

使用指南

查看控制卡寄存器信息时,包含以下内容。

l     *-regdump.txt:公用dump信息。

l     *-sdsdump.txtserdes模块dump信息。

l     *-datadump.txt:其他模块dump信息,具体见文件内容。

使用实例

# 查看控制卡寄存器信息。

[root@localhost ~]# hiraidadm c0 get dump path=./dump
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
file:dump.bin get finish.
[warning] file(./dump/dump.bin) is NULL
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# dump数据到flash

[root@localhost ~]# hiraidadm c0 set dump
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.2.32 获取NAND日志

命令功能

获取系统复位或者下电的日志。

控制卡从未上下电或者复位时NAND日志不存在。

命令格式

hiraidadm ccontroller_id get nandlog path=file_path [id=log_id]

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

file_path

日志保存路径。

-

log_id

指定收集第几份,缺省则全收集。

值越小越新,0为最新。

 

使用指南

获取NAND日志。支持以下内容。

l     *log-nand.txt:控制卡侧日志。

l     *log-lastword.txt:芯片临终遗言日志。

l     *{reg/ras}log-regdump.txt:公用dump信息。

l     *{reg/ras}log-sdsdump.txtserdes模块dump信息。

l     *{reg/ras}log-datadump.txt:其他模块dump信息,具体见文件内容。

*为第几次的日志,如0log-nand.txt1log-nand.txt

使用实例

# 获取NAND日志。

[root@localhost ~]# hiraidadm c0 get nandlog path=./nand
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
file:ap_index.gz get finish.
file:imu_index.gz get finish.
file:nandlog.bin get finish.
-------------------------------------------------------
parse /var/tmp/lastword_C2nyam start.
out file1:./nand/0log-lastword.txt
out file1:./nand/0log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_cLOHA8 start.
out file1:./nand/1log-lastword.txt
out file1:./nand/1log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_Se43vT start.
out file1:./nand/2log-lastword.txt
out file1:./nand/2log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_AjgnFL start.
out file1:./nand/3log-lastword.txt
out file1:./nand/3log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_S4wu6C start.
out file1:./nand/4log-lastword.txt
out file1:./nand/4log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_OCegju start.
out file1:./nand/5log-lastword.txt
out file1:./nand/5log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_2thWUj start.
out file1:./nand/6log-lastword.txt
out file1:./nand/6log-nand.txt
-------------------------------------------------------
parse /var/tmp/lastword_egm8Ng start.
out file1:./nand/7log-lastword.txt
out file1:./nand/7log-nand.txt
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.2.33 查询单板电子标签信息

命令功能

查询单板电子标签信息。

命令格式

hiraidadm ccontroller_id show elabel

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

回显中主要字段的含义如22-33所示。

表22-33 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show elabel

BoardType

单板型号。

SV590

BarCode

单板序列号。

2102312LBH10L3000001

Item

BOM编码。

02312LBH

Description

描述信息。

Function Module,2288H V5,SV590,Pubic cloud SV 590 Configuration (2*4114 CPU,8*16GB DIMM,2*1200GB SAS HDD+12*4000GB SATA HDD+2*800GB SAS SSD,SR150-M,2*GE+2+10GE+4*25GE,2*900W AC POWER,Rail)

Manufactured

生产日期。

2020-05-07

VendorName

厂商名称。

Huawei

IssueNumber

发行号。

00

CLEICode

CLEI码。

789456

BOM

BOM编码。

456789

Model

对外型号。

123456

PCB

PCB版本。

1.0.0.1

 

使用实例

# 查询单板电子标签信息。

[root@localhost ~]# hiraidadm c0 show elabel
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version :1.2.0.2
    Build Time:Aug 26 2022 21:03:13
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
BoardType=SV590
BoardCode=2102312LBH10L3000001
Item=02312LBH
Description=Function Module,2288H V5,SV590,Pubic cloud SV 590 Configuration (2*4114 CPU,8*16GB DIMM,2*1200GB SAS HDD+12*4000GB SATA HDD+2*800GB SAS SSD,SR150-M,2*GE+2+10GE+4*25GE,2*900W AC POWER,Rail)
Manufactured=2020-05-07
VendorName=Huawei
IssueNumber=00
CLEICCode=789456
BOM=456789
Model=123456
PCB=1.0.0.1

22.7.2.34 查询控制卡坏块列表

命令功能

查询控制卡下的硬盘坏块列表信息。

命令格式

hiraidadm ccontroller_id show bst

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

回显中主要字段的含义如22-34所示。

表22-34 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show bst

Index

坏盘序号。

0

Did

硬盘的ID

4

Start Lba

起始LBA地址。

0

Lba_len

LBA数量。

2048

Type

逻辑类型或者物理类型。

Physical

 

使用实例

#查询硬盘坏块列表信息。

[root@localhost ~]# hiraidadm c0 show bst
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Total diskbst number is 2
--------------------------------------------------------------------------------------------------------------
Index  Did  Start_lba  lba_len  Type       Index  Did  Start_lba  lba_len  Type
--------------------------------------------------------------------------------------------------------------
0      4    0          2048     Physical | 1      4    4096       6144     Physical |
--------------------------------------------------------------------------------------------------------------

22.7.2.35 查询控制卡启动项

命令功能

查询控制卡已配置的启动项信息。

命令格式

hiraidadm ccontroller_id show boot

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

无。

使用实例

# 查询控制卡已配置的启动项信息。

[root@localhost ~]# hiraidadm c0 show boot
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
BootDrive Num Is 1
--------------------------------------------------------------------------------------------------------------
BootDrive Information
--------------------------------------------------------------------------------------------------------------
Index Type  VID/DID  Enc  Slot
0     VD    0        NA   NA
--------------------------------------------------------------------------------------------------------------

22.7.2.36 查询驱动队列深度

命令功能

查询控制卡主机侧驱动队列深度。

命令格式

hiraidadm ccontroller_id show queue

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

无。

使用实例

# 设置控制卡主机侧驱动队列深度。

[root@localhost ~]# hiraidadm c0 show queue
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Queue Depth = 1023

22.7.2.37 查询和设置慢盘检测

命令功能

查询、设置控制卡慢盘检测功能参数。

命令格式

命令

说明

hiraidadm ccontroller_id set slowdrive type=type [sw=switch] [ratio=ratio] [media=media] [susize=susize] [l1=l1] [l2=l2] [l3=l3] [default]

设置慢盘检测参数。

hiraidadm ccontroller_id show slowdrive

查询慢盘检测配置信息。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

type

设置慢盘检测类型。

l     raidRAID成员盘

l     rawdrive:裸盘

switch

慢盘检查开关状态。

l     on:开启慢盘检测

l     off:关闭慢盘检测

ratio

设置硬盘与RAID组其他成员盘的I/O时延差别倍率。

仅在判断在RAID L3级别有效,当I/O时延满足倍率要求时才会上报L3慢盘。

范围:464

susize

设置条带大小。

l     128

l     256

l     512

l     1024

单位:KB

仅当“type=raidmedia=hdd”时可配置,且输入该参数时,必须配置l1

l1

设置L1级别的门限值,仅当“type=RAID”时有效。

l     HDD:

     条带大小为128256时,范围:660L2

     条带大小为5121024时,范围:760L2

l     SSD:范围:110L2

单位:ms

l2

设置L2级别的门限值。

l     HDD

     RAID范围:L1L3

     裸盘范围:81020000

l     SSD

     RAID范围:L1-L3

     裸盘范围:210-20000

单位:ms

l3

设置L3级别的门限值,仅当“type=RAID”时有效。

范围:L220000

单位:ms

default

输入该参数表示恢复默认配置。

-

 

使用指南

l     该命令支持同时配置一个或多个属性。

l     除开关配置立即生效,其余配置下次重启后生效。

l     输入default表示恢复默认配置。

l     对识别的慢盘,在满足RAID冗余的条件下进行踢盘,裸盘不会踢盘。

l     对慢盘的识别包含L1/L2/L3三个级别,当慢盘达到L3级别并满足一定条件才会踢盘。

l     踢盘周期内报多个慢盘,超过设置踢盘数量上限后不会踢盘。

l     被踢掉的慢盘会被标记为Fault

使用实例

# 设置控制卡慢盘检测参数。

[root@localhost ~]# hiraidadm c0 set slowdrive type=raid media=ssd l1=200 l2=300 l3=400
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 查询控制卡慢盘检测配置参数。

[root@localhost ~]# hiraidadm c0 show slowdrive
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Type     Switch
-------------------------------------------------------
RAID     On
RawDrive On
-------------------------------------------------------
 
                Current Config
-------------------------------------------------------
RAID Ratio:8
RAID Threshold:
Media          SuSize       L1      L2      L3
-------------------------------------------------------
HDD   32/64/128/256KB   1300ms  2200ms  5000ms
HDD        512/1024KB   1500ms  2200ms  5000ms
SSD                NA    250ms   600ms  1200ms
-------------------------------------------------------
RawDrive Threshold:
Media      L2
-------------------------------------------------------
HDD    2500ms
SSD     600ms
-------------------------------------------------------
 
                Next Config
-------------------------------------------------------
RAID Ratio:8
RAID Threshold:
Media          SuSize       L1      L2      L3
-------------------------------------------------------
HDD   32/64/128/256KB   1300ms  2200ms  5000ms
HDD        512/1024KB   1500ms  2200ms  5000ms
SSD                NA    250ms   600ms  1200ms
-------------------------------------------------------
RawDrive Threshold:
Media      L2
-------------------------------------------------------
HDD    2500ms
SSD     600ms
-------------------------------------------------------

22.7.2.38 查询控制卡状态信息

命令功能

查询控制卡的状态信息。

命令格式

hiraidadm ccontroller_id show status

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

回显中主要字段的含义如22-35所示。

表22-35 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show status

SAS Address

控制卡的SAS地址。

122

FW Version0

控制卡主区的固件版本。

1.2.1.2

FW Version1

控制卡备区的固件版本。

1.2.1.2

Current FW

当前FW运行分区。

0

Vendor Id

控制卡厂商ID

19e5

Device Id

控制卡的设备ID

3858

SubVendor Id

控制卡的子厂商ID

19e5

SubDevice Id

控制卡的子设备ID

0125

Pcie Bus Domain

控制卡的PCIe总线域。

0000

Bus Number

控制卡总线号。

81

Device Number

控制卡的设备号。

00

Function Number

控制卡的Function号。

00

Board SN

控制卡的单板序列号。

2102313XXGFSN4000070

PF0

PF0是否使能。

Enable

PF1

PF1是否使能。

Disable

EP PCIe Width

协商带宽。

x8

EP PCIe Speed

当前协商速率。

16GT/s

Chip Name

控制卡的芯片名称。

B80121

Chip Version

控制卡的芯片版本。

V100

Die ID

控制卡的芯片ID

69355794 00e1a491 00000000 00000000 001f5803

Tempature

控制卡的芯片核心温度。

43c

PD Number

在位的硬盘数量。

12

VD Number

逻辑盘数量。

3

VD Degrade Number

降级的VD数量。

0

VD Fault Number

故障的VD数量。

0

Raid Number

RAID组数量。

0

Prefail Number

预失效硬盘数量。

0

Fail Number

失效硬盘数量。

0

DDR Size

DDR容量。

1024MB

DDR ECC Count

DDR统计值。

0

DDR ECC Bucket Size

DDR可纠正错误门限。

16

DDR CE Count

DDR可纠正错误统计。

0

DDR UCE Count

DDR不可纠正错误统计。

0

SRAM ECC Count

SRAMbit ECC错误统计。

0

SRAM UCE Count

SRAM不可纠正错误统计。

0

Cache Pinned

Cache Pinned故障。

0

Board Error

单板故障。

0

Board Clock Error

单板时钟故障。

0

Board Power Error

单板电源故障。

0

Board Capacity Error

单板电容故障。

0

Board Flash Error

单板Flash故障。

0

Board Name

单板名称。

SP186-M-40i

 

使用实例

# 查询控制卡状态信息。

[root@localhost ~]# hiraidadm c0 show status
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version :1.2.0.2
    Build Time:Aug 26 2022 21:03:13
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
SAS Address         | 122
FW Version0         | 1.2.1.2
FW Version1         | 1.2.1.2
Current FW          | 0
Vendor Id           | 19e5
Device Id           | 3858
SubVendor Id        | 19e5
SubDevice Id        | 0125
Pcie Bus Domain     | 0000
Bus Number          | 81
Device Number       | 00
Function Number     | 00
Board SN            |
PF0                 | Enable
PF1                 | Disable
EP PCIe Width       | x8
EP PCIe Speed       | 16GT/s
Chip Name           | B80121
Chip Version        | V100
Die ID              | 69355794 00e1a491 00000000 00000000 001f5803
Tempature           | 43c
PD Number           | 12
VD Number           | 3
VD Degrade Number   | 0
VD Fault Number     | 0
Raid Number         | 3
PreFail Number      | 0
Fail Number         | 0
DDR Size            | 1024MB
DDR ECC Count       | 0
DDR ECC Bucket Size | 16
DDR CE Count        | 0
DDR UCE Count       | 0
SRAM ECC Count      | 0
SRAM UCE Count      | 0
Cache Pinned        | 0
Board Error         | 0
Board Clock Error   | 0
Board Power Error   | 0
Board Capacity Error| 0
Board Flash Error   | 0
Board Name          | SP186-M-40i

22.7.2.39 查询控制卡基本信息

命令功能

查询控制卡的基本配置信息。

命令格式

hiraidadm ccontroller_id show info

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

回显中主要字段的含义如22-36所示。

表22-36 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show info

Ctrl Mod

控制卡当前模式。

HBA

Rg Task Support

RAID组支持的后台任务。

rebuild,precopy,copyback,patrolread

Mod Support

控制卡支持的模式。

rawdrive

Raid Level Support

控制卡支持的RAID级别。

raid0,raid1,raid10

Expander Support

支持的扩展器数量。0表示当前不支持对接扩展器。

0

VD OP Support

逻辑盘支持的操作。

repair,create,delete,front init,background init,fast init,sanitize,ccheck

PD OP Support

物理硬盘支持的操作。

sanitize,erase,smart_polling

Max PD Number

控制卡支持的最大物理硬盘数量。

40

Max HDD Number

控制卡支持的最大HDD硬盘数量。

40

Max SSD Number

控制卡支持的最大SSD硬盘数量。

40

Min HDD Number Raid0

RAID0最小硬盘数量(HDD)。

1

Max HDD Number Raid0

RAID0最大硬盘数量(HDD)。

30

Min HDD Number Raid1

RAID1最小硬盘数量(HDD)。

2

Max HDD Number Raid1

RAID1最大硬盘数量(HDD)。

2

Min HDD Number Raid5

RAID5最小硬盘数量(HDD)。

0

Max HDD Number Raid5

RAID5最大硬盘数量(HDD)。

0

Min HDD Number Raid10

RAID10最小硬盘数量(HDD)。

4

Max HDD Number Raid10

RAID10最大硬盘数量(HDD)。

30

Max HDD SubRg Number Raid10

RAID10最大子组数量(HDD)。

15

Min SSD Number Raid0

RAID0最小硬盘数量(SSD)。

1

Max SSD Number Raid0

RAID0最大硬盘数量(SSD)。

30

Min SSD Number Raid1

RAID1最小硬盘数量(SSD)。

2

Max SSD Number Raid1

RAID1最大硬盘数量(SSD)。

2

Min SSD Number Raid5

RAID5最小硬盘数量(SSD)。

0

Max SSD Number Raid5

RAID5最大硬盘数量(SSD)。

0

Min SSD Number Raid10

RAID10最小硬盘数量(SSD)。

4

Max SSD Number Raid10

RAID10最大硬盘数量(SSD)。

30

Max SSD SubRg Number Raid10

RAID10最大子组数量(SSD)。

15

Max VD Number

最大支持的VD数量。

4

Max VD Expand Times

VD最大扩展次数。

7

Spares Support

支持的热备方式。

global hotspare,local hotspare,emergency hotspare

Hsp Per Raid

每个RAID组支持的最大局部热备盘数量。

2

Foreign Import Support

是否支持外部配置导入。

Yes

Max Globhps

最大支持的全局热备盘数量。

16

Phy Number

控制卡使用的最大phy数量。

40

Drive Support

支持的驱动器类型。

SCSI

PF Number

PF支持的数量(当前芯片最多支持2个)。

1

PF Type

PF工作模式。

SCSI

EP PCIe Width

控制卡PCIe宽度。

x8

EP PCIe Speed

控制卡PCIe速率。

16GT/s

VD Number Per Rg

每个RAID组最大创建的VD数量。

4

Rg Number

RAID组最大数量。

4

BP Support

备电模块是否支持。

No

SAS Contrller Speed

SAS控制卡支持的速率。

12Gb/s

PCIe RP Speed

PCIe下行设备支持的速率。

16GT/s

Max HDD Stripe Size

HDD最大条带大小。

81920KB

Max SSD Stripe Size

SSD最大条带大小。

16384KB

Min HDD Stripe Size

HDD最小条带大小。

32KB

Min SSD Stripe Size

SSD最小条带大小。

32KB

Max Su Size

虚拟磁盘的最大条带大小。

1024KB

Min Su Size

虚拟磁盘的最小条带大小。

32KB

 

使用实例

# 查询控制卡信息。

[root@localhost ~]# hiraidadm c0 show info
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version :1.2.0.2
    Build Time:Sep 11 2022 09:52:30
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
-------------------------------------------------------
Ctrl Mod                     | HBA
Rg Task Support              | rebuild,precopy,copyback,patrolread
Mod Support                  | rawdrive
Raid Level Support           | raid0,raid1,raid10
Expander Support             | 0
VD OP Support                | repair,expand,create,delete,front init,background init,fast init,sanitize,ccheck
PD OP Support                | sanitize,erase,smart_polling
Max PD Number                | 40
Max HDD Number               | 40
Max SSD Number               | 40
Min HDD Number Raid0         | 1
Max HDD Number Raid0         | 30
Min HDD Number Raid1         | 2
Max HDD Number Raid1         | 2
Min HDD Number Raid5         | 0
Max HDD Number Raid5         | 0
Min HDD Number Raid10        | 4
Max HDD Number Raid10        | 30
Max HDD SubRg Number Raid10  | 15
Min SSD Number Raid0         | 1
Max SSD Number Raid0         | 30
Min SSD Number Raid1         | 2
Max SSD Number Raid1         | 2
Min SSD Number Raid5         | 0
Max SSD Number Raid5         | 0
Min SSD Number Raid10        | 4
Max SSD Number Raid10        | 30
Max SSD SubRg Number Raid10  | 15
Max VD Expand Times          | 7
Max VD Number                | 127
Spares Support               | global hotspare,local hotspare,emergency hotspare
Hsp Per Raid                 | 2
Foreign Import Support       | Yes
Max Globhps                  | 16
Phy Number                   | 40
Drive Support                | SCSI
PF Number                    | 1
PF Type                      | SCSI
EP PCIe Width                | x8
EP PCIe Speed                | 16GT/s
VD Number Per Rg             | 16
Rg Number                    | 40
Bp Support                   | Yes
SAS Contrller Speed          | 12Gb/s
PCIe RP Speed                | 16GT/s
Max HDD Stripe Size          | 16384KB
Max SSD Stripe Size          | 16384KB
Min HDD Stripe Size          | 32KB
Min SSD Stripe Size          | 32KB
Max Su Size                  | 1024KB
Min Su Size                  | 32KB
-------------------------------------------------------

22.7.2.40 升级和激活控制卡固件

命令功能

升级和激活控制卡固件。

命令格式

命令

说明

hiraidadm ccontroller_id update fw file=xx.img

升级控制卡固件。

hiraidadm ccontroller_id active fw type=hot

热激活控制卡固件,升级后进行。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

xx.img

升级固件文件。

-

 

使用指南

 

当采用热激活方式使固件生效时,存在如下限制:

l     版本号按照x.y.n.z形式定义,只有x.y.n字段相同的版本间升级支持热激活。例如从固件版本1.0.17.1升级到1.0.17.2支持热激活,从固件版本1.0.17.1升级到1.0.18.1不支持热激活。

l     在当前系统中不存在pinned cache(即LUN失效时,cache中存在的无法下发的脏数据)。如果存在,需要先删除pinned cache,或者恢复故障RAID组。

l     系统中没有sanitize擦除硬盘和erase擦除硬盘任务在执行。如果有,需要等待执行完成或者停止。可通过“hiraidadm ccontroller_id:eenclosure_id:sslot_id show sanitize”和“hiraidadm ccontroller_id:eenclosure_id:sslot_id show erase”命令查看硬盘擦除状态。

执行升级命令后,可通过以下两种激活方式使固件生效:

l     执行hiraidadm ccontroller_id active fw type=hot命令。表示采用热激活方式,无需重启服务器即可完成升级。

l     重启服务器,表示采用冷激活方式,使固件生效。

使用实例

# 升级控制卡固件。

[root@localhost ~]# hiraidadm c0 update fw file=packet_hba.img
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version :1.2.0.2
    Build Time:Aug 26 2022 21:03:13
==============================================================================================================
update controller firmware done,duration: 2min42s
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

#激活控制卡固件。

[root@localhost ~]# hiraidadm c0 active fw type=hot
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.2.41 查询热备槽位

命令功能

查询控制卡热备槽位信息。

命令格式

hiraidadm ccontroller_id show hspslot

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

回显中主要字段的含义如22-37所示。

表22-37 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show hspslot

Id

热备槽位序号。

0

Enc

热备槽位类型。

0

Slot

热备槽位号。

0

 

使用实例

# 查询控制卡的热备槽位信息。

[root@localhost ~]# hiraidadm c0 show hspslot
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
hot spare slot num is 1
--------------------------------------------------------------------------------------------------------------
Hot Spare Slots Information
--------------------------------------------------------------------------------------------------------------
Id   Enc  Slot
0    0    2

22.7.2.42 查询SAS phy配置信息

命令功能

查询控制卡对phy口的配置情况。

命令格式

hiraidadm ccontroller_id show phy_cfg

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

无。

使用实例

# 查询控制卡对phy口的配置情况。

[root@localhost ~]# hiraidadm c0 show phy_cfg
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
Index  Slot  Switch   Speed
--------------------------------------------------------------------------------------------------------------
0      0     On       6.0Gb/s
--------------------------------------------------------------------------------------------------------------

22.7.2.43 查询和设置慢盘踢盘参数

命令功能

查询和设置控制卡慢盘踢盘参数。

命令格式

命令

说明

hiraidadm ccontroller_id set kickdrive [period=period] [sum=sum]

设置慢盘踢盘参数,至少设置一个参数。

hiraidadm ccontroller_id show kickdrive

查询慢盘踢盘参数。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

period

踢盘计数清零周期。

范围:190,单位:day

默认值为30

sum

一个周期可踢盘的最大计数。

范围:18

默认值为1

 

使用指南

l     由慢盘导致的踢盘发生后,会在一个周期(period)内记录踢掉的数量。

l     周期内慢盘导致踢盘总数不得超过最大限制(sum)。若超过将不允许剔除,等到周期到期、重置踢盘计数后才能继续剔除。

l     重启服务器时,踢盘总数(Total Kicked)和计数复位剩余时间(Count Reset Remaining Time)将会恢复至默认状态。

     踢盘总数Total Kicked)会清零。

     计数复位剩余时间(Count Reset Remaining Time)将会恢复到与计数复位周期(Count Reset Period)相同。

使用实例

# 设置慢盘踢盘参数。

[root@localhost ~]# hiraidadm c0 set kickdrive sum=1 period=10
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 查询慢盘踢盘参数。

[root@localhost ~]# hiraidadm c0 show kickdrive
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Count Reset Period         | 43 day
Total Allowed Kicks        | 7
Total Kicked               | 1
Count Reset Remaining Time | 43 day

22.7.2.44 查询和修复控制卡故障

命令功能

查询、修复控制卡故障。

命令格式

命令

说明

hiraidadm ccontroller_id show error

查询控制卡的当前故障信息。

hiraidadm ccontroller_id start repair type=error_type

修复控制卡的指定故障。

hiraidadm ccontroller_id show repair_process

查询控制卡的故障修复进度。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

error_type

故障类型。

包括:

l     writehole

l     restore

l     drop

l     pinnedcache vdid=vd_id

当故障类型为pinnedcache时,vd_id为需修复的vdid

 

使用指南

hiraidadm ccontroller_id show error”命令可查询的故障详细信息如下所示:

l     TSP errorTSP故障

l     NAC errorNAC故障

l     FirmWare error:固件异常

l     IMU errorIMU故障

l     Backup failed:备电失败

l     Soc FatalSOC重故障

l     DDR Mbit errorDDR Mbit故障

l     SRAM errorSRAM故障

l     DDRC errorDDRC故障

l     PCIe EP reference clock errorPCIe  EP侧参考时钟故障

l     PCIe RP reference clock errorPCIe  RP参考时钟故障

l     SAS Port reference clock errorSAS端口参考时钟故障

l     Power supply chip error:电源芯片工作异常

l     Internal power supply chip output voltage is too high:内部电源芯片输出电压过高

l     Internal power supply chip output voltage is too low:内部电源芯片输出电压过低

l     The chip internal module detection error:芯片内部模块检测错误(导致I/O停止)

l     The super capacitor voltage is too low:备电模块(超级电容)工作电压过低

l     The super capacitor voltage is too high:备电模块(超级电容)工作电压过高

l     The small capacitor value anomaly:小电容容值异常

l     The super capacitor value anomaly:超级电容容值异常

l     The small capacitor voltage is too low:小电容工作电压过低

l     The small capacitor voltage is too high:小电容工作电压过高

l     SPI Nor Flash errorSPI Nor Flash异常

l     SPI Nand Flash errorSPI Nand Flash异常

l     NFC Nand Flash errorNFC Nand Flash异常

使用实例

# 查询控制卡的故障信息。

[root@localhost ~]# hiraidadm c0 show error
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
the card is normal

#修复控制卡的writehole故障。

[root@localhost ~]# hiraidadm c0 start repair type=writehole
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 查询控制卡的故障修复进度。

[root@localhost ~]# hiraidadm c0 show repair_process
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
The card repair process is 100%.

22.7.2.45 查询和配置控制卡故障修复策略

命令功能

查询和设置控制卡故障修复策略。

命令格式

命令

说明

hiraidadm ccontroller_id set repair policy=repair_policy

配置控制卡的修复策略。

hiraidadm ccontroller_id show repair_policy

查询控制卡的修复策略。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

repair_policy

控制卡的修复策略。

l     ConfirmFW根据策略,选择不上报盘,上报错误。

l     Default:后台修复错误,修复系统后正常运行,提供日志记录和查询接口。

 

使用指南

无。

使用实例

# 设置控制卡的修复策略。

[root@localhost ~]# hiraidadm c0 set repair policy=default
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
Do you confirm the execution  [Warning] after setting "policy=default", the system will repair according
 to the default policy, and the problem of data loss may occur after repairing
Please input [y|Y] for yes, others for cancel
---------------------------------------------
y
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 查询控制卡修复策略。

[root@localhost ~]# hiraidadm c0 show repair_policy
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
The current repair policy is default.

22.7.2.46 查询和设置SAS链路请求分发的模式

命令功能

查询和设置SAS链路请求分发的模式。

命令格式

命令

说明

hiraidadm ccontroller_id set dphstartmod  [sas0=sas0_value] [sas1=sas1_value] [sas2=sas2_value] [sas3=sas3_value] [sas4=sas4_value]

设置SAS链路请求分发的模式。

hiraidadm ccontroller_id show dphstartmod

查询SAS链路请求分发的模式。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

sas0_value

影响slot0-slot7

l     0

l     1

sas1_value

影响slot8-slot15

l     0

l     1

sas2_value

影响slot16-slot23

l     0

l     1

sas3_value

影响slot24-slot31

l     0

l     1

sas4_value

影响slot32-slot39

l     0

l     1

 

使用指南

l     此命令用于在特定场景下进行性能调优。设置芯片在SAS链路上请求分发的模式,最多可以设置为5个。

l     支持一次配置15SAS IP的参数。重启后生效。

l     默认配置为1,通常不需要改变。

硬盘直连场景下:

l     同一组phy下存在SSDHDD盘混合读写时,建议配置为 1

l     同一组槽位,连接HDD盘,并且主要为小I/O8k即以下)访问,建议配置为0来改善性能。

使用实例

# 设置SAS链路请求分发的模式。

[root@localhost ~]# hiraidadm c0 set dphstartmod sas0=0 sas1=0 sas2=0 sas3=0 sas4=0
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
The configuration takes effect after the reboot.

# 查询SAS链路请求分发的模式。

[root@localhost ~]# hiraidadm c0 show dphstartmod
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Total sas ip number is 5.
-------------------------------------------------------
Index   CurrentConfig   NextConfig
-------------------------------------------------------
sas0    1               0
sas1    1               0
sas2    1               0
sas3    1               0
sas4    1               0
-------------------------------------------------------

22.7.2.47 查询和设置裸盘的流控门限

命令功能

查询、设置裸盘的流控门限。

命令格式

命令

说明

hiraidadm ccontroller_id set drivefc mode=mode [media=media]

设置裸盘的流控门限。

hiraidadm ccontroller_id show drivefc

查询裸盘的流控门限。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

mode

裸盘流控门限。

l     low:多盘性能优先(1025

l     high:单盘性能优先(2049

media

硬盘类型。

不填时默认为HDD

l     hdd

l     ssd

 

使用指南

设置裸盘的流控门限需重启后生效。

使用实例

# 设置裸盘的流控门限。

[root@localhost ~]# hiraidadm c0 set drivefc mode=high
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 查询裸盘的流控门限。

[root@localhost ~]# hiraidadm c0 show drivefc
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Media   CurrentMode   NextMode
-------------------------------------------------------
HDD     low           high
SSD     low           low
-------------------------------------------------------

22.7.2.48 查询固件详细版本

命令功能

查询控制卡各模块固件详细版本。

命令格式

hiraidadm ccontroller_id show fw_version

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

无。

使用实例

# 查询控制卡各模块固件详细版本。

[root@localhost ~]# hiraidadm c0 show fw_version
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
==============================================================================================================
fw_name         region          version        time
l0fw            m               1.3.3.0        22-11-15 22:22:58
l1fw            m               1.3.3.0        22-11-15 22:22:58
imudict         m               1.3.3.0        22-11-15 22:22:58
boot            m               1.3.3.0        22-11-15 22:22:58
cfgfile         m               1.3.3.0        22-11-15 22:22:58
hilink          m               1.3.3.0        22-11-15 22:22:58
microcode       m               1.3.3.0        22-11-15 22:22:58
apfw            m               1.3.3.0        22-11-15 22:22:58
apdict          m               1.3.3.0        22-11-15 22:22:58
optionrom       m               1.3.3.0        22-11-15 22:22:58
==============================================================================================================
fw_name         region          version        time
l0fw            s               1.3.3.0        22-11-15 22:22:58
l1fw            s               1.3.3.0        22-11-15 22:22:58
imudict         s               1.3.3.0        22-11-15 22:22:58
boot            s               1.3.3.0        22-11-15 22:22:58
cfgfile         s               1.3.3.0        22-11-15 22:22:58
hilink          s               1.3.3.0        22-11-15 22:22:58
microcode       s               1.3.3.0        22-11-15 22:22:58
apfw            s               1.3.3.0        22-11-15 22:22:58
apdict          s               1.3.3.0        22-11-15 22:22:58
optionrom       s               1.3.3.0        22-11-15 22:22:58
==============================================================================================================

22.7.2.49 查询和设置日志级别

命令功能

查询、设置控制卡侧的日志级别。

命令格式

命令

说明

hiraidadm ccontroller_id set loglevel val=value

设置控制卡侧的日志级别。

hiraidadm ccontroller_id show loglevel

查询当前卡侧的日志级别。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

value

要设置的级别。

l     fatal

l     error

l     warn

l     print

l     info

l     debug

 

使用指南

无。

使用实例

# 设置控制卡日志级别为info

[root@localhost ~]# hiraidadm c0 set loglevel val=info
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 查询控制卡日志级别。

[root@localhost ~]# hiraidadm c0 show loglevel
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
The current raid card log level is info

22.7.2.50 查询整板功耗

命令功能

查询控制卡整板功耗。

命令格式

hiraidadm ccontroller_id show adc

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

回显中主要字段的含义如22-38所示。

表22-38 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id show adc

channel0

通道0电压值。

30492mV

channel1

通道1电压值。

12100mV

channel2

通道2电压值。

13409mV

channel3

通道3功率值(未使用)。

NA

channel4

通道4功率值。

24563mW

 

使用实例

# 查询控制卡整板功耗。

[root@localhost ~]# hiraidadm c0 show adc
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
channel0 :31626mV
channel1 :12265mV
channel2 :12188mV
channel3 :NA
channel4 :28700mW

22.7.2.51 查询和设置硬盘健康状态分析开关状态

命令功能

查询和设置硬盘健康状态分析开关状态。

命令格式

命令

说明

hiraidadm ccontroller_id set dha sw=switch

设置硬盘健康状态分析开关状态。

hiraidadm ccontroller_id show dhacfg

查询硬盘健康状态分析开关状态。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

switch

硬盘健康状态分析开关状态。

l     on

l     off

 

使用指南

无。

使用实例

#开启硬盘健康状态分析开关。

[root@localhost ~]# hiraidadm c0 set dha sw=on
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

#查询硬盘健康状态分析开关状态。

[root@localhost ~]# hiraidadm c0 show dhacfg
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
The DHA Switch | On

22.7.2.52 查询和设置虚拟磁盘的流控门限

命令功能

查询和设置虚拟磁盘的流控门限。

命令格式

命令

说明

hiraidadm ccontroller_id set vdfc mode=mode

设置虚拟磁盘的流控门限。

hiraidadm ccontroller_id show vdfc

查询虚拟磁盘的流控门限。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

mode

虚拟磁盘的流控门限。

l     low: 顺序I/O优先。

l     high: 随机I/O优先。

l     medium: 均衡。

 

使用指南

查询虚拟磁盘的流控门限时:

l     Current Mode为当前配置。

l     Next Mode为重启后生效配置。

使用实例

# 设置虚拟磁盘的流控门限。

[root@localhost ~]# hiraidadm c0 set vdfc mode=high
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
The configuration takes effect after the system is restarted.

# 查询虚拟磁盘的流控门限。

[root@localhost ~]# hiraidadm c0 show vdfc
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Current Mode  | low
Next    Mode  | high

22.7.2.53 查询和设置I/O合并参数

命令功能

查询和设置控制卡的I/O合并超时时间和合并个数。

命令格式

命令

说明

hiraidadm ccontroller_id set merge [sw=switch] [timeout=timeout] [count=count]

设置控制卡的I/O合并超时时间和合并个数,在控制卡没有I/O时配置。

hiraidadm ccontroller_id show merge

查询控制卡I/O合并参数。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

switch

开启或关闭控制卡I/O合并。

l     on:开启I/O合并

l     off:关闭I/O合并

缺省时默认为on

timeout

控制卡I/O合并超时时间。

l     default:配置为默认值,默认值为64

l     范围:51000000

单位:us

count

控制卡I/O合并最大个数。

l     default:配置为默认值,默认值为32

l     范围:232

 

使用指南

无。

使用实例

# 设置控制卡的I/O合并超时时间和合并个数,在控制卡没有I/O时配置。

[root@localhost ~]# hiraidadm c0 set merge sw=on timeout=1000 count=2
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.2.0
    Build Time: Dec 16 2022 18:56:35
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 查询控制卡I/O合并参数。

[root@localhost ~]# hiraidadm c0 show merge
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.2.0
    Build Time: Dec 16 2022 18:56:35
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Switch  | On
Timeout | 1000 us
Count   | 2

22.7.2.54 查询和设置虚拟磁盘的I/O合并参数

命令功能

查询和设置虚拟磁盘的I/O合并参数,支持配置一个或多个参数。

命令格式

命令

说明

hiraidadm ccontroller_id set vdmerge vd=vd_id [stripelen=stripelen] [startlen=startlen] [mergelen=mergelen]

设置虚拟磁盘的I/O合并参数,在对应虚拟磁盘没有I/O时配置。

hiraidadm ccontroller_id show vdmerge vd=vd

查询虚拟磁盘的I/O合并参数。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表

stripelen

MIX内部配置的LUN合并条带大小。

l     default:配置为默认值;如果LUN真实条带大小小于或者等于256KB,则默认值为真实条带大小的两倍;否则默认值为真实条带大小。

l     范围:84096*8,且必须为8的整数倍。

单位:sector/512B

startlen

MIX内部启动下发长度阈值。

l     default:配置为默认值;如果LUN真实条带大小小于或者等于256KB,则默认值为真实条带大小的两倍;否则默认值为真实条带大小

l     范围:84096*8,且必须为8的整数倍。

单位:sector/512B

mergelen

MIX内部限制下发长度阈值。

l     default:配置为默认值;如果LUN真实条带大小小于或者等于256KB,则默认值为1024KB;否则默认值为真实条带大小。

l     范围:84096*8,且必须为8的整数倍。

单位:sector/512B

vd

指定VD或全部。

l     all:查询所有VD配置。

l     指定逻辑盘的ID

 

使用指南

无。

使用实例

# 设置虚拟磁盘的I/O合并参数。

[root@localhost ~]# hiraidadm c0 set vdmerge vd=0 stripelen=4096 startlen=4096 mergelen=4096
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.2.0
    Build Time: Dec 16 2022 18:56:35
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 查询所有虚拟磁盘的I/O合并参数。。

[root@localhost ~]# hiraidadm c0 show vdmerge vd=all
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.2.0
    Build Time: Dec 16 2022 18:56:35
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Total vd number is 1
-------------------------------------------------------
VDID   StripeLen(512B)   StartLen(512B)   MergeLen(512B)
-------------------------------------------------------
0      4096              4096             4096
-------------------------------------------------------

22.7.2.55 查询和设置硬盘并发参数

命令功能

查询和设置硬盘并发参数。

命令格式

命令

说明

hiraidadm ccontroller_id set quedepth type=type [sashdd=sashdd] [sasssd=sasssd] [satahdd=satahdd] [satassd=satassd]

设置硬盘并发参数。

hiraidadm ccontroller_id show quedepth

查询硬盘并发参数。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

type

配置裸盘或RAID成员盘。

l     rawdrive:裸盘

l     raidRAID成员盘

sashdd

配置SAS HDD

范围: 1128

sasssd

配置SAS SDD

范围: 1128

satahdd

配置SATA HDD

范围: 132

satassd

配置SATA SSD

范围: 132

 

使用指南

无。

使用实例

# 设置硬盘并发参数。

[root@localhost ~]# hiraidadm c0 set quedepth type=raid sashdd=128 satassd=16
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
The configuration takes effect after the reboot.

# 查询硬盘并发参数。

[root@localhost ~]# hiraidadm c0 show quedepth
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
                Current Config
-------------------------------------------------------
Type      SASHDD    SASSSD    SATAHDD    SATASSD
-------------------------------------------------------
RAID      32        64        32         32
RawDrive  64        64        32         32
 
                Next Config
-------------------------------------------------------
Type      SASHDD    SASSSD    SATAHDD    SATASSD
-------------------------------------------------------
RAID      128       64        32         16
RawDrive  64        64        32         32
-----------------------------------------------------

22.7.2.56 查询HBA控制卡小电容电压值

命令功能

查询HBA控制卡小电容电压值。

命令格式

hiraidadm ccontroller_id show smcapv

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

 

使用指南

无。

使用实例

# 查询HBA控制卡小电容电压。

[root@localhost ~]# hiraidadm c0 show smcapv
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Feb 18 2023 22:08:33
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Small Cap Volta | 30.93V

22.7.3 虚拟磁盘命令

查询虚拟磁盘信息

命令功能

查询控制卡中虚拟磁盘详细信息。

命令格式

hiraidadm ccontroller_id:vdvd_id show

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表

 

使用指南

回显中主要字段的含义如22-39所示。

表22-39 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:vdvd_id show

ID

逻辑盘ID

0

Name

VD名称。

vd0

RAID ID

RAIDID信息。

0

RAID Level

RAID组级别。

0

Status

VD状态。

normal

VD Type

逻辑盘类型。

normal

Capacity

容量。

1.454TB

VD WWN

虚拟盘唯一标识。

0x68c2a8e000000001000000000010b5c5

OS Drive Letter

虚拟盘上报到主机的盘符。

/dev/sda

Is Boot Device

是否为启动设备。

false

Strip Size

条带大小。

128KB

Strip Unit Size

条带单元大小。

64KB

Sector Size

扇区大小。

512B

Sector Tyoe

扇区类型。

512E

Write Cache

cache写状态。

WT

Real Write Cache

实际有效的写cache状态。

WT

Read Cache

cache读状态。

No Ahead

Whether Dirty Cache

是否有未下刷的脏cache数据。

No

Sub Group Number

子组数量。

1

Sub Group Drive Number

每个子组磁盘数量。

3

VD Initialize Rate

逻辑盘初始化速率。

high

VD Initialize Progress

初始化进度。

NA

Patrolread Rate

巡检速率。

medium

VD Sanitize Progress

擦除进度。

NA

Block Number

组成VD的块数量。

0

Blocks

l     Index:块索引

l     VD_ID:块所属VD

l     Next_ID:链接的下一块ID

l     Capacity:块容量

l     Start_Lba_On_Drive:本块在物理盘上起始块位置

l     Sec_Num_On_Drive:在单个物理盘上的扇区数量

-

 

使用实例

#查询指定虚拟磁盘的详细信息。

[root@localhost ~]# hiraidadm c0:vd0 show
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
                    Virtual Drive Information
--------------------------------------------------------------------------------------------------------------
ID                          | 0
Name                        | vd0
RAID ID                     | 0
RAID Level                  | 1
Status                      | normal
VD Type                     | normal
Map Type                    | SCSI
Capacity                    | 97.656GB [0xc350000 Sectors]
VD WWN                      | 0x6acdcca0000000010000000000228133
OS Drive Letter             | /dev/sdb
Is Boot Drive               | True
Stripe Size                 | 256KB
Stripe Unit Size            | 256KB
Sector Size                 | 512B
Sector Type                 | 512N
Write Cache                 | WT
Real Write Cache            | WT
Read Cache                  | No_Ahead
Access Policy               | RW
Stream Type                 | Normal
Work PF                     | PF0
Whether Dirty Cache         | No
Sub Group Number            | 1
Sub Group Drive Number      | 2
VD Initialize Rate          | high
VD Initialize Progress      | NA
Patrolread Rate             | low
VD Sanitize Progress        | NA
--------------------------------------------------------------------------------------------------------------
 
Virtual Drive Block Infomation :
--------------------------------------------------------------------------------------------------------------
Block Number is 1
Index VD_ID Next_ID Capacity   Start_Lba_On_Drive  Sec_Num_On_Drive
--------------------------------------------------------------------------------------------------------------
0     0     NA        97.656GB 0x0                 204800000

22.7.3.57 查询RAID组信息

命令功能

查询控制卡中RAID组详细信息。

命令格式

hiraidadm ccontroller_id:rgrg_id show

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

rg_id

RAID组的ID

查询RAID组的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表

 

使用指南

回显中主要字段的含义如22-40所示。

表22-40 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:rgrg_id show

ID

RAID组的ID

0

Name

RAID组的名称。

raid0

RAID Level

RAID组级别。

0

Status

RAID组状态。

l     normal:正常

l     fault:故障

l     degrade:降级状态

normal

Total Capacity

RAID组总容量。

371.611GB  [0x2e739000 Sectors]

Free Capacity

RAID组空闲的容量。

313.018GB  [0x27209000 Sectors]

Current Background Task

当前正在进行的后台任务。

NA

CopyBack Switch

RAID组回拷开关状态。

on

PD Cache

硬盘Cache状态。

on

Logical Block Size

逻辑块大小。

512B

Block Type

块类型。

512E

Sub Group Number

子组数量。

1

Sub Group Drive Number

RAID组子组硬盘数量。

1

Sub Group Free Capacity

子组剩余容量大小。

313.018GB  [0x27209000 Sectors]

Sub Group Strip Size

子组条带大小。

0KB

Aligned Size

校准大小。

512MB

Virtual Drives Number

VD数量。

3

Member VD List

RAID组下VD列表。

1 2 3

Member Drive Number

RAID组成员盘数量。

2

Member Drives

RAID组成员盘信息。

l     Index:序号

l     Enc:Slot:成员盘框位、槽位ID

l     Did:成员盘逻辑ID

l     Sub Group:成员盘所属子组ID

-

Hotspare Drives Number

热备盘数量。

0

Hotsapre Drives

RAID组热备盘信息。

l     Index:序号

l     Enc:Slot:热备盘框位、槽位ID

l     Did:热备盘逻辑ID

l     Sub Group:热备盘所属子组ID

-

Total Block Number

RAID组的Block数量(由于创建和删除VD,在RAID组上留下的非连续空间)。

5

Free Block Number

RAID组的空闲区间容量。

2

RAID Group Block Number

RAID组的的Block数量。

5

RAID Group Block

组成该RAID组的详细块信息。

l     Index:块序号

l     Capacity:块容量

l     Used:是否已使用

l     VD_ID:使用该块的逻辑盘ID

l     Start_lba:起始的物理块寻址

l     End_lba:结束的物理块寻址

-

 

使用实例

#查询指定RAID组的详细信息。

[root@localhost ~]# hiraidadm c0:rg0 show
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
     RAID Group Major Information :
--------------------------------------------------------------------------------------------------------------
ID                      | 0
Name                    | raid0
RAID Level              | 1
Status                  | normal
Total Capacity          | 3.638TB [0x1d1a0b800 Sectors]
Free Capacity           | 3.542TB [0x1c56bb800 Sectors]
Current Background Task | NA
--------------------------------------------------------------------------------------------------------------
     RAID Group Details :
--------------------------------------------------------------------------------------------------------------
CopyBack Switch         | On
PD Cache                | Default
Logical Block Size      | 512B
Block Type              | 512N
Sub Group Number        | 1
Sub Group Drive Number  | 2
Sub Group Free Capacity | 3.542TB [0x1c56bb800 Sectors]
Aligned Size            | 512MB
Virtual Drive Number    | 1
Member VD List          | 0
--------------------------------------------------------------------------------------------------------------
     RAID Group Member Drive Infomation :
--------------------------------------------------------------------------------------------------------------
Member Drive Number is 2
Index          1          2
--------------------------------------------------------------------------------------------------------------
Enc:Slot      0:0        0:1
--------------------------------------------------------------------------------------------------------------
Did            5          6
--------------------------------------------------------------------------------------------------------------
Sub_Group      0          0
--------------------------------------------------------------------------------------------------------------
 
     RAID Group Hotspare Drive Infomation :
--------------------------------------------------------------------------------------------------------------
Hotspare Drive Number 0
--------------------------------------------------------------------------------------------------------------
 
     RAID Group Block Infomation :
--------------------------------------------------------------------------------------------------------------
Total Block Number      | 2
Free Block Number       | 1
RAID Group Block Number 2
Index  Capacity   Used  VD_ID  Start_lba          End_lba
--------------------------------------------------------------------------------------------------------------
0        97.656GB  Yes   0     0x0                0xc34ffff
1         3.542TB  No    NA    0xc350000          0x1d1a0beb0

22.7.3.58 查询虚拟磁盘的成员盘信息

命令功能

查询虚拟磁盘的成员盘信息。

命令格式

hiraidadm ccontroller_id:vdvd_id show pdarray

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表

 

使用指南

回显中主要字段的含义如22-41所示。

表22-41 回显说明

命令格式

字段

含义

举例

l     hiraidadm ccontroller_id:vdvd_id show pdarray

l     hiraidadm ccontroller_id:rgrg_id show pdarray

Enc

硬盘所在框号

0

Slot

硬盘所在槽位号

5

DID

硬盘逻辑ID

0

AssoEnc

关联盘所在框号(备份、迁移等)。

NA

AssoSlot

关联盘所在槽位号。

NA

AssoDid

关联盘逻辑ID

NA

Intf

接口类型。

SAS

Media

介质类型。

SSD

Status

硬盘当前所处状态。

online

AssoStatus

关联盘当前状态。

NA

Capacity

可用容量大小。

799.629GB

SecSz

扇区大小。

512B

Model

硬盘型号。

HWE52SS3800M005N

 

使用实例

#查询指定虚拟磁盘成员盘信息。

[root@localhost ~]# hiraidadm c0:vd0 show pdarray
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Total Member Drive Number is 2
--------------------------------------------------------------------------------------------------------------
Enc  Slot DID  AssoEnc  AssoSlot AssoDid  Intf  Media Status         AssoStatus     Capacity   SecSz Model
--------------------------------------------------------------------------------------------------------------
0    0    5    NA       NA       NA       SATA  HDD   online         NA                3.638TB  512B HUS726T4TALA600
0    1    6    NA       NA       NA       SATA  HDD   online         NA                3.638TB  512B HUS726T4TALA600
--------------------------------------------------------------------------------------------------------------

22.7.3.59 查询RAID组的成员盘信息

命令功能

查询RAID组的成员盘信息。

命令格式

hiraidadm ccontroller_id:rgrg_id show pdarray

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

rg_id

RAID组的ID

查询RAID组的ID请参见22.7.2.25 查询控制卡RAID组列表

 

使用指南

回显中主要字段的含义如22-42所示。

表22-42 回显说明

命令格式

字段

含义

举例

l     hiraidadm ccontroller_id:vdvd_id show pdarray

l     hiraidadm ccontroller_id:rgrg_id show pdarray

Enc

硬盘所在框号

0

Slot

硬盘所在槽位号

5

DID

硬盘逻辑ID

0

AssoEnc

关联盘所在框号(备份、迁移等)。

NA

AssoSlot

关联盘所在槽位号。

NA

AssoDid

关联盘逻辑ID

NA

Intf

接口类型。

SAS

Media

介质类型。

SSD

Status

硬盘当前所处状态。

online

AssoStatus

关联盘当前状态。

NA

Capacity

可用容量大小。

799.629GB

SecSz

扇区大小。

512B

Model

硬盘型号。

HWE52SS3800M005N

 

使用实例

#查询指定RAID组成员盘信息。

[root@localhost ~]# hiraidadm c0:rg0 show pdarray
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Total Member Drive Number is 2
--------------------------------------------------------------------------------------------------------------
Enc  Slot DID  AssoEnc  AssoSlot AssoDid  Intf  Media Status         AssoStatus     Capacity   SecSz Model
--------------------------------------------------------------------------------------------------------------
0    0    5    NA       NA       NA       SATA  HDD   online         NA                3.638TB  512B HUS726T4TALA600
0    1    6    NA       NA       NA       SATA  HDD   online         NA                3.638TB  512B HUS726T4TALA600
--------------------------------------------------------------------------------------------------------------

22.7.3.60 查询和设置虚拟磁盘一致性校验参数

命令功能

查询、设置虚拟磁盘一致性校验参数。

命令格式

命令

说明

hiraidadm ccontroller_id:vdvd_id show ccheck

查询虚拟磁盘一致性校验参数。

hiraidadm ccontroller_id:vdvd_id start ccheck [delay=delay]

设置虚拟磁盘一致性校验并开始。

hiraidadm ccontroller_id:vdvd_id stop ccheck

停止虚拟磁盘一致性校验。

hiraidadm ccontroller_id:vdvd_id show inconsistent

查询虚拟磁盘的条带一致性校验错误信息。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表

delay

延时时间。

124,单位:h

 

使用指南

回显中主要字段的含义如22-43所示。

表22-43 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:vdvd_id show ccheck

ID

当前正在进行一致性校验的虚拟磁盘的ID

0

CCheck Switch

自动一致性校验开关。

on

Delay

一致性校验延时启动时间。

1 h

Period

一致性校验周期。

30 day

Rate

一致性校验速率。

low

Repair

自动修复开关。

off

Run status

一致性校验运行状态。

stop

Progress

一致性校验进度。

100%

Estimated Time

剩余预估时间。

0 min

 

使用实例

# 查询指定虚拟磁盘一致性校验信息。

[root@localhost ~]# hiraidadm c0:vd0 show ccheck
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
               Consistency Check Information
-------------------------------------------------------
ID                      | 0
CCheck Switch           | On
Delay                   | 0 h
Period                  | 20 day
Rate                    | low
Repair                  | On
Run status              | stop
Progress                | NA
Estimated Time          | NA
-------------------------------------------------------

# 启动指定虚拟磁盘一致性校验。

[root@localhost ~]# hiraidadm c0:vd0 start ccheck delay=1
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 停止指定虚拟磁盘一致性校验。

[root@localhost ~]# hiraidadm c0:vd0 stop ccheck
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 查询指定虚拟磁盘条带一致性校验错误信息。

[root@localhost ~]# hiraidadm c0:vd0 show inconsistent
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Total stripe number is 0

22.7.3.61 设置虚拟磁盘名称

命令功能

设置虚拟磁盘的名称。

命令格式

命令

说明

hiraidadm ccontroller_id:vdvd_id set name val=name

设置虚拟磁盘的名称。

hiraidadm ccontroller_id:vdvd_id clear name

清空虚拟磁盘的名称,将名称设置为空。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表

name

设置的逻辑盘名称。

最大20字符。

 

使用指南

无。

使用实例

# 设置指定虚拟磁盘的名称为“vd_name”。

[root@localhost ~]# hiraidadm c0:vd0 set name val=vd_name
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 清空指定虚拟磁盘的名称。

[root@localhost ~]# hiraidadm c0:vd0 clear name
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.3.62 删除虚拟磁盘

命令功能

删除虚拟磁盘。

命令格式

hiraidadm ccontroller_id:vdvd_id delete [noprompt]

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表

noprompt

无需用户确认。

-

 

使用指南

l     当一个RAID组上所有虚拟磁盘都删除后,RAID组删除。

l     当删除虚拟磁盘时不带参数noprompt,输入命令后提示“Do you confirm the execution delete?[Warning] If the VD has an operating system, the operating system may be abnormal.Please input [y|Y] for yes, others for cancel”时。

     输入“y”或“Y”并按“Enter”确认操作。

     输入其他取消操作。

使用实例

# 删除虚拟磁盘。

[root@localhost ~]# hiraidadm c0:vd0 delete
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
Do you confirm the execution delete?
[Warning] If the VD has an operating system, the operating system may be abnormal.
Please input [y|Y] for yes, others for cancel
---------------------------------------------
y
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.3.63 扩充虚拟磁盘容量

命令功能

给指定虚拟磁盘扩充容量。

命令格式

命令

说明

hiraidadm ccontroller_id:vdvd_id expand size=size

通过增加成员盘可用容量扩充虚拟磁盘容量。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表

size

要扩容的容量大小。

单位:MB

max_left表示使用当前RAID组所有剩余容量。

 

使用指南

无。

使用实例

# 扩充指定虚拟磁盘的容量。

[root@localhost ~]# hiraidadm c0:vd0 expand size=200000
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None

22.7.3.64 设置虚拟磁盘为默认启动项

命令功能

设置指定虚拟磁盘为控制卡默认启动项。

命令格式

hiraidadm ccontroller_id:vdvd_id set boot sw=switch

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表

switch

是否作为启动盘。

l     on:开启作为启动盘

l     off:关闭作为启动盘

 

使用指南

无。

使用实例

# 设置指定虚拟磁盘作为启动盘。

[root@localhost ~]# hiraidadm c0:vd0 set boot sw=on
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : on
--------------------------------------------------------------------------------------------------------------

22.7.3.65 查询和设置虚拟磁盘擦除

命令功能

l     启动、停止擦除虚拟磁盘。

l     查询擦除进度。

命令格式

命令

说明

hiraidadm ccontroller_id:vdvd_id show sanitize

查询虚拟磁盘擦除进度。

hiraidadm ccontroller_id:vdvd_id start sanitize mode=sanitize_mode

设置并开始擦除虚拟磁盘。

hiraidadm ccontroller_id:vdvd_id stop sanitize

停止擦除虚拟磁盘。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表

sanitize_mode

设置擦除模式。

l     simple:仅对虚拟磁盘进行一轮擦除动作。

l     normal:对虚拟磁盘进行三轮擦除动作。

l     thorough:对虚拟磁盘进行九轮擦除动作。

 

使用指南

回显中主要字段的含义如22-44所示。

表22-44 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:vdvd_id show sanitize

ID

序号。

lun_0_autocase

Name

逻辑盘名称。

0

Capacity

容量大小。

10.000GB

Task Status

擦除状态。

Running

VD Status

逻辑盘当前状态。

sanitizing

Rate

擦除速度。

low

Sanitize mode

LUN的擦除模式。

simple

Progress

擦除进度。

94%

Estimated Time

预计剩余时间。

1(min)

 

使用实例

# 查询指定虚拟磁盘的擦除进度。

[root@localhost ~]# hiraidadm c0:vd1 show sanitize
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
                  Virtual Drive Sanitize Information
--------------------------------------------------------------------------------------------------------------
ID                       | 0
Name                     | vd_name
Capacity                 | 292.969GB
Task Status              | Running
VD Status                | sanitizing
Rate                     | low
Sanitize Mode            | simple
Progress                 | 0%
Estimated Time           | 112 min
--------------------------------------------------------------------------------------------------------------

#启动擦除指定虚拟磁盘。

[root@localhost ~]# hiraidadm c0:vd1 start sanitize mode=simple
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 停止擦除指定虚拟磁盘。

[root@localhost ~]# hiraidadm c0:vd1 stop sanitize
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.3.66 设置虚拟磁盘成员盘Cache策略

命令功能

设置虚拟磁盘成员盘的Cache策略。

命令格式

hiraidadm ccontroller_id:vdvd_id set pdcache sw=switch

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表

switch

硬盘Cache开关。

l     on:开启硬盘Cache

l     off:关闭成员盘Cache

l     default:保持当前成员盘Cache状态。

 

使用实例

# 打开指定虚拟磁盘的成员盘Cache

[root@localhost ~]# hiraidadm c0:vd2 set pdcache sw=on
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.3.67 设置RAID成员盘Cache策略

命令功能

设置RAID成员盘的Cache策略。

命令格式

hiraidadm ccontroller_id:rgrg_id set pdcache sw=switch

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

rg_id

RAID组的ID

查询RAID组的ID请参见22.7.2.25 查询控制卡RAID组列表

switch

硬盘Cache开关。

l     on:开启硬盘Cache

l     off:关闭成员盘Cache

l     default:保持当前成员盘Cache状态。

 

使用指南

无。

使用实例

# 开启指定RAID成员盘Cache

[root@localhost ~]# hiraidadm c0:rg1 set pdcache sw=on
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.3.68 设置虚拟磁盘读写属性

命令功能

设置虚拟磁盘读写属性。

命令格式

hiraidadm ccontroller_id:vdvd_id set access policy=policy

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

vd_id

虚拟磁盘的ID

查询虚拟磁盘的ID请参见22.7.2.24 查询控制卡虚拟磁盘列表

policy

虚拟磁盘的读写属性。

l     RO:设置为只读。

l     RW:设置为读写。

 

使用指南

l     仅允许设置RAID下非fault状态的虚拟磁盘。

l     Bst超标导致失效的虚拟磁盘设置只读,需要重启才能生效。

l     Bst超标导致fault场景:如果有重构,用户需要设置只读前,关闭紧急热备,再下线热备盘,然后配置只读,重启等待只读生效,把数据读走后再还原配置(上线、开启紧急热备)。

l     查询虚拟磁盘读写属性请参见0查询虚拟磁盘信息

使用实例

# 设置虚拟磁盘为只读。

[root@localhost ~]# hiraidadm c0:vd0 set accesss policy=ro
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.4 硬盘命令

查询硬盘详细信息

命令功能

查询指定硬盘的详细信息。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id show

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表

 

使用指南

回显中主要字段的含义如22-45所示。

表22-45 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:eenclosure_id:sslot_id show

Enc

硬盘所在的框位ID

0

Slot

硬盘所在槽位的ID

15

DID

硬盘逻辑ID

4

Intf

硬盘接口类型。

SATA

Media type

硬盘物理类型。

SSD

Link speed

端口协商速度。

6.0Gb/s

Capacity

硬盘原始容量大小。

1.920TB  [0xdf8fe2b0 Sectors]

Hibernated Status

硬盘休眠状态。

Spin Up

Model

硬盘型号。

SAMSUNG MZ7LH1T9HMLT-00005

Type

硬盘类型。

member

Status

硬盘当前状态。

online

Is Hotspare Drive

是否为热备盘。

False

Is Boot Drive

是否为启动盘。

False

Asso Enc

关联硬盘框号。

NA

Asso Slot

关联硬盘槽位号。

NA

Asso Device Id

关联硬盘的ID

NA

RAID Group ID

硬盘所属RAID组的ID

NA

RAID Group Level

硬盘所在RAID组级别。

NA

RAID Group Capacity

硬盘所属RAID组容量。

NA

PreFail

硬盘是否预失效。

False

Media Error count

介质错误统计。

0

Other Error count

除介质错误外,其余错误统计。

0

Locate Led Status

硬盘位置灯的状态。

Off

SAS Address

硬盘的SAS地址。

0x5000000000000107

Drive WWN

硬盘唯一标识。

5002538e106102d0

OS Drive Letter

若硬盘开了直通功能,该盘上报到主机后分配的盘符。

NA

Vendor

硬盘厂商。

ATA

Serial number

硬盘序列号。

S455NA0N647543

Firmware Version

硬盘固件版本号。

404Q

Drive Max Speed

硬盘最大速率。

6.0Gb/s

Logical Sector Size

硬盘逻辑扇区大小。

512B

Physicak Sector Size

硬盘物理扇区大小。

4096B

Drive temperature

硬盘当前温度。

31c

Drive size

硬盘尺寸。

2.5 inch

Drive Cache Switch

硬盘Cache状态。

OFF

Ncq Support

是否支持原生命令队列。

True

Ncq Enable

原生命令队列使能状态。

Enable

SED Capable

是否为加密盘。

False

SED Enabled

是否开启加密。

False

Power On Time

硬盘累计上电时间。

1443h

Connected Port Id

硬盘连接端口号。

0

Linked Port Speed

端口最大速率。

6.0Gb/s

Rotation Rate

硬盘转速。

Non-rotating Medium

Residual Wearout

剩余磨损度,支持所有的SAS SSD和支持磨损度查询的SATA SSD

NA

Current Task

硬盘当前任务。

NA

Task Remaining Time

任务预估时间。

0

Task Progress

任务进度。

NA

Fua Support

是否支持FUA

Yes

Slow Drive

是否为慢盘。

No

 

使用实例

#查询指定硬盘的详细信息。

[root@localhost ~]# hiraidadm c0:e0:s0 show
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
 
     Drive Major Information :
--------------------------------------------------------------------------------------------------------------
Enc                     | 0
Slot                    | 0
DID                     | 5
Intf                    | SATA
Media Type              | HDD
Link Speed              | 6.0Gb/s
Capacity                | 3.639TB [0x1d1c0beb0 Sectors]
Hibernated Status       | Spin Up
Model                   | HUS726T4TALA600
 
     Drive Logical Infomation :
--------------------------------------------------------------------------------------------------------------
Type                    | member
Status                  | online
Is Hotspare Drive       | False
Is Boot Drive           | False
Asso Enc                | NA
Asso Slot               | NA
Asso Device Id          | NA
RAID Group ID           | 0
RAID Group Level        | 1
RAID Group Capacity     | 3.638TB
 
     Drive Health Status :
--------------------------------------------------------------------------------------------------------------
Prefail                 | No
Media Error Count       | 0
Other Error Count       | 0
Locate Led Status       | Off
 
     Drive Detail Information :
--------------------------------------------------------------------------------------------------------------
SAS Address             | 0x5000000000000007
Drive WWN               | 5000cca097f5e8a0
OS Drive Letter         | NA
Vendor                  | HITACHI
Serial Number           | V6KULAGS
Firmware Version        | T010
Drive Max Speed         | 6.0Gb/s
Logical Sector Size     | 512B
Physical Sector Size    | 512B
Drive Temperature       | 32c
Drive size              | 3.5 inch
Drive Cache Switch      | Off
Ncq Support             | True
Ncq Enable              | Enable
SED Capable             | False
SED Enabled             | False
Power On Time           | 4321h
Connected Port Id       | 3
Phy Max Speed           | 12Gb/s
Rotation Rate           | 7200rpm
Residual Wearout        | NA
Current Task            | NA
Task Remaining Time     | NA
Task Progress           | NA
Fua Support             | Yes
Slow Drive              | No

22.7.4.69 设置硬盘状态

命令功能

设置硬盘状态。

当全局裸盘模式开启时,才支持设置硬盘状态为JBOD

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id set status

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表

status

设置的硬盘状态。

l     free:设置硬盘空闲

l     jbod:设置硬盘为裸盘

 

使用指南

无。

使用实例

# 将指定硬盘设置为空闲状态。

[root@localhost ~]# hiraidadm c0:e0:s9 set free
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.4.70 设置热备盘

命令功能

设置硬盘为全局热备盘或局部热备盘。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id set hotspare [rg=rg_id]

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表

rg_id

RAID组的ID

查询RAID组的ID请参见22.7.2.25 查询控制卡RAID组列表

 

使用指南

若要取消热备盘状态,可使用以下命令,具体请参见22.7.4.68 设置硬盘状态

hiraidadm ccontroller_id:eenclosure_id:sslot_id set free

使用实例

# 设置指定硬盘为全局热备盘。

[root@localhost ~]# hiraidadm c0:e0:s2 set hotspare
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 设置指定硬盘为RAID的局部热备盘。

[root@localhost ~]# hiraidadm c0:e0:s2 set hotspare rg=0
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.4.71 设置指定槽位为热备槽位

命令功能

设置指定槽位为热备槽位。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id set hspslot sw=switch

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表

switch

设置热备槽位使能状态。

l     on:开启热备槽位功能

l     off:关闭热备槽位功能

 

使用指南

无。

使用实例

# 设置指定槽位为热备槽位。

[root@localhost ~]# hiraidadm c0:e0:s2 set hspslot sw=on
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.4.72 设置phy口状态

命令功能

设置当前硬盘对应端口phy的连接状态(仅直连硬盘)。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id set phy func=func [sp=speed]

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表

func

指定功能函数。

l     hardreset

l     linkreset

l     disable

l     enable

l     speed

l     enableloop

l     disableloop

speed

链接速率,当func=speed时有效。

l     1.5G

l     3G

l     6G

l     12G

 

使用指南

无。

使用实例

#设置指定硬盘phy口状态为disable

[root@localhost ~]# hiraidadm c0:e0:s5 set phy func=disable
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.4.73 查询和清除phy口误码

命令功能

l     查询当前硬盘phy口的链路状态。

l     清除指定硬盘phy口的误码计数。

命令格式

命令

说明

hiraidadm ccontroller_id:eenclosure_id:sslot_id show phyerror

查询当前硬盘phy口的链路状态。

hiraidadm ccontroller_id:eenclosure_id:sslot_id clear phyerror

清除指定硬盘phy口的误码计数。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表

 

使用指南

回显中主要字段的含义如22-46所示。

表22-46 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:eenclosure_id:sslot_id show phyerror

Phy id

phy端口ID

7

Phy enable

Phy口使能状态。

enable

Link speed

端口下行速率。

6.0Gb/s

Attach Device Type

设备类型。

SATA

Attach SAS Address

连接的sas设备地址。

0x5000000000000007

Invalid Dword Count

无效的双字计数。

0

Run Disparity Error Count

运行差异错误计数。

0

Loss Of Dword Sync

双字同步丢失数。

0

Phy Reset Problem Count

Phy口重置问题计数。

0

 

使用实例

#查询硬盘phy的链路状态。

[root@localhost ~]# hiraidadm c0:e0:s0 show phyerror
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
-------------------------------------------------------
Phy id                  | 7
Phy enable              | enable
Link speed              | 6.0Gb/s
Attach Device Type      | SATA
Attach SAS Address      | 0x5000000000000007
Invalid Dword Count     | 0
Run Disparity Err Count | 0
Loss Of Dword Syn Count | 0
Phy Reset Problem Count | 0
-------------------------------------------------------

#清除硬盘phy口的误码计数。

[root@localhost ~]# hiraidadm c0:e0:s0 clear phyerror
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.4.74 查询硬盘端误码

命令功能

查询指定硬盘端误码。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id show driveerror

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表

 

使用指南

无。

使用实例

#查询硬盘端误码。

[root@localhost ~]# hiraidadm c0:e0:s0 show driveerror
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
Device Present                                                    | Yes
Drive Type                                                        | SATA
Link Speed                                                        | 6.0Gb/s
Command failed and ICRC error bit set to one in Error register    | 0
R_ERRP response for Data FIS                                      | 0
R_ERRP response for Device-to-Host Data FIS                       | 0
R_ERRP response for Host-to-Device Data FIS                       | 0
R_ERRP response for non-Data FIS                                  | 0
R_ERRP response for Device-to-Host non-Data FIS                   | 0
R_ERRP response for Host-to-Device non-Data FIS                   | 0
Device-to-Host non-Data FIS retries                               | 0
Transitions from drive PHYRDY to drive PHYRDYn                    | 7
Register Device to Host FISes sent due to a COMRESET              | 7
CRC errors within a host-to-device FIS                            | 0
Non-CRC errors within a host-to-device FIS                        | 0
R_ERRP response for Host-to-Device Data FIS due to CRC errors     | NA
R_ERRP response for Host-to-Device Data FIS due to non-CRC errors | NA
R_ERRP response for Host-to-Device non-Data FIS due to CRC errors | NA
R_ERRP response for Host-to-Device non-Data FIS due to non-CRC    | NA
--------------------------------------------------------------------------------------------------------------

22.7.4.75 设置硬盘指示灯状态

命令功能

点亮和熄灭指定硬盘的定位指示灯或故障指示灯。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id set led type=led_type sw=switch

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表

led_type

要点亮和熄灭的灯类型。

l     err:故障指示灯。

l     locate:定位指示灯。

switch

设置开关状态。

l     on

l     off

 

使用指南

l     定位指示灯状态优先级大于故障指示灯,当定位指示灯点亮时,无法点亮故障指示灯,需关闭定位指示灯后点亮。

l     故障指示灯(err):绿灯亮,黄灯亮。

l     定位指示灯(locate):绿灯亮,黄灯闪。

使用实例

# 点亮硬盘的故障指示灯。

[root@localhost ~]# hiraidadm c0:e0:s0 set led type=err sw=on
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.4.76 查询和设置硬盘sanitize擦除

命令功能

l     启动硬盘sanitize擦除。

l     查询硬盘sanitize擦除进度。

l     sanitize擦除硬盘不可中止。

l     cryptoeraseblockerase模式,启动命令返回成功即擦除成功完成。

l     只能对裸盘(rawdrive)和空闲盘(freeugood)执行sanitize命令。

l     sanitize过程中的硬盘不允许执行创建RAID组、设置成裸盘(rawdrive)、设置成空闲盘(free)或热备盘等会切换硬盘状态的操作。

命令格式

命令

说明

hiraidadm ccontroller_id:eenclosure_id:sslot_id show sanitize

查询sanitize擦除硬盘进度。

hiraidadm ccontroller_id:eenclosure_id:sslot_id start sanitize mode=sanitize_mode

启动sanitize擦除硬盘。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表

sanitize_mode

设置擦除模式。

l     cryptoerase:执行加密擦除操作

l     overwrite:执行覆盖写零操作

l     blockerase 执行块擦除操作

 

使用指南

回显中主要字段的含义如22-47所示。

表22-47 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:vdvd_id show sanitize

Sanitize Progress

擦除进度。

45%

Estimated Time

预估剩余时间。

13(min)

 

使用实例

# 查询硬盘sanitize擦除进度。

[root@localhost ~]# hiraidadm c0:e0:s2 show sanitize
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Sanitize Progress         | NA
Estimated Time            | NA

#启动硬盘sanitize擦除。

[root@localhost ~]# hiraidadm c0:e0:s2 start sanitize mode=cryptoerase
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.4.77 查询和设置硬盘erase擦除

命令功能

l     启动、停止硬盘erase擦除。

l     查询硬盘erase擦除进度。

l     相较于sanitizeerase擦除模式支持的物理盘类型更多,但总体速度慢于sanitize模式。

l     支持Security feature setSATA SSD无法停止erase

命令格式

命令

说明

hiraidadm ccontroller_id:eenclosure_id:sslot_id show erase

查询硬盘erase擦除进度。

hiraidadm ccontroller_id:eenclosure_id:sslot_id start erase mode=erase_mode [pa=11100000 pb=11110000]

启动硬盘erase擦除。

hiraidadm ccontroller_id:eenclosure_id:sslot_id stop erase

停止硬盘erase擦除。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表

erase_mode

设置擦除模式。

l     simple:单次擦除

l     normal:擦除3

l     thorough:擦除9

pa

擦除模式A覆盖数据。

默认值:11100000

pb

擦除模式B覆盖数据。

默认值:11110000

 

使用指南

l     擦除不成功时,如果返回的status code1942Invalid sanitize type),表示硬盘本身不支持此擦除类型,请修改擦除类型并重试。

l     回显中主要字段的含义如22-48所示。

表22-48 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:eenclosure_id:sslot_id show erase

Sanitize Progress

擦除进度。

45%

Estimated Time

预估剩余时间。

13(min)

 

使用实例

# 查询硬盘erase擦除进度。

[root@localhost ~]# hiraidadm c0:e0:s2 show erase
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Erase Progress         | 0%
Estimated Time         | 0 min

#启动硬盘erase擦除。

[root@localhost ~]# hiraidadm c0:e0:s2 start erase mode=simple pa=11100000 pb=11110000
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

#停止硬盘erase擦除。

[root@localhost ~]# hiraidadm c0:e0:s2 stop erase
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.4.78 升级和激活硬盘固件

命令功能

升级和激活硬盘固件。

命令格式

命令

说明

hiraidadm ccontroller_id:eenclosure_id:sslot_id update fw file=file

升级硬盘的固件。

hiraidadm ccontroller_id:eenclosure_id:sslot_id active fw

激活硬盘的固件。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表

file

指定用于升级的硬盘firmware文件。

 

使用实例

#升级硬盘固件。

[root@localhost ~]# hiraidadm c0:e0:s23 update fw file=root/HXT7404Q_NF.bin
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
SCSI Disk Upgrade Success!
Update disk firmware done, duration: 10s
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

#激活硬盘固件。

[root@localhost ~]# hiraidadm c0:e0:s23 active fw
========================================== hiraidadm Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.4.79 查询和设置硬盘Cache策略

命令功能

查询、设置指定硬盘的Cache策略。

命令格式

命令

说明

hiraidadm ccontroller_id:eenclosure_id:sslot_id set pdcache sw=switch

设置硬盘的Cache状态。

hiraidadm ccontroller_id:eenclosure_id:sslot_id show pdcache

查询硬盘的Cache状态。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表

switch

硬盘Cache开关。

l     on

l     off

 

使用指南

无。

使用实例

# 设置指定硬盘Cache策略为on

[root@localhost ~]# hiraidadm c0:e0:s6 set pdcache sw=on
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : on
--------------------------------------------------------------------------------------------------------------

# 查询指定硬盘Cache策略。

[root@localhost ~]# hiraidadm c0:e0:s6 show pdcache
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Drive Cache switch = On

22.7.4.80 查询硬盘SMART信息

命令功能

查询指定硬盘的SMART信息。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id show smart

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表

 

使用指南

回显中主要字段的含义如22-49所示。

表22-49 回显说明

命令格式

硬盘类型

字段

含义

举例

hiraidadm ccontroller_id:eenclosure_id:sslot_id show

SATA

ID

某一检测项目的ID

1

ATTRIBUTE_NAME

制造商定义的属性值。

Raw_Read_Error_Rate

FLAG

属性操作标志。

0x000b

VALUE

当前值,是各ID项在硬盘运行时根据实测原始数据通过公式计算的结果。253意味着最好情况,1意味着最坏情况。

100

WORST

最差值,硬盘运行时各ID项曾出现过的最小的value

086

THRESH

临界值,厂商指定的表示某一项目可靠性的门限值。

016

TYPE

属性的类型。prefail意味着硬盘即将发生失效;oldage表示磁盘不会发生故障;

Pre fail

UPDATED

属性更新频率。

Always

RAW_VALUE

制造商定义的原始值,从VALUE派生

0

SAS

请参见Smartctl工具。

 

使用实例

#查询硬盘SMART信息(SATA)。

[root@localhost ~]# hiraidadm c0:e0:s0 show smart
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
              Man-made SMART Attributes with Thresholds
--------------------------------------------------------------------------------------------------------------
ID    ATTRIBUTE_NAME           FLAG     VALUE  WORST  THRESH  TYPE      UPDATED   RAW_VALUE
1     Raw_Read_Error_Rate      0x000b   100    086    016     Pre fail  Always    0
2     Throughput_Performance   0x0005   129    127    054     Pre fail  Offline   104
3     Spin_Up_Time             0x0007   143    100    024     Pre fail  Always    295 (Average 295)
4     Start_Stop_Count         0x0012   100    100    000     Old age   Always    681
5     Reallocated_Sector_Ct    0x0033   100    100    005     Pre fail  Always    25
7     Seek_Error_Rate          0x000b   100    100    067     Pre fail  Always    0
8     Seek_Time_Performance    0x0005   128    128    020     Pre fail  Offline   18
9     Power_On_Hours           0x0012   100    100    000     Old age   Always    4321
10    Spin_Retry_Count         0x0013   100    100    060     Pre fail  Always    0
12    Power_Cycle_Count        0x0032   100    100    000     Old age   Always    681
192   Power-Off_Retract_Count  0x0032   097    097    000     Old age   Always    3702
193   Load_Cycle_Count         0x0012   097    097    000     Old age   Always    3702
194   Temperature_Celsius      0x0002   181    127    000     Old age   Always    33 (Min/Max 19/47)
196   Reallocated_Event_Count  0x0032   100    100    000     Old age   Always    25
197   Current_Pending_Sector   0x0022   100    100    000     Old age   Always    1306
198   Offline_Uncorrectable    0x0008   053    053    000     Old age   Offline   11321
199   UDMA_CRC_Error_Count     0x000a   200    200    000     Old age   Always    0
--------------------------------------------------------------------------------------------------------------

#查询硬盘SMART信息(SAS)。

[root@localhost ~]# hiraidadm c0:e0:s6 show smart
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.2.0
    Build Time: Dec 19 2022 21:45:23
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
=== START OF READ SMART DATA SECTION ===
SMART Health Status: OK
 
Current Drive Temperature:     27 C
Drive Trip Temperature:        65 C
 
Accumulated power on time, hours:minutes 4575:29
Manufactured in week 08 of year 2020
Specified cycle count over device lifetime:  50000
Accumulated start-stop cycles:  1691
Specified load-unload count over device lifetime:  600000
Accumulated load-unload cycles:  7098
Elements in grown defect list: 0
 
Error counter log:
           Errors Corrected by           Total   Correction     Gigabytes    Total
               ECC          rereads/    errors   algorithm      processed    uncorrected
           fast | delayed   rewrites  corrected  invocations   [10^9 bytes]  errors
read:      50805        9         0         0          0     304806.171           0
write:         0        0         0         0          0       4452.857           0
verify:        0        0         0         0          0        167.168           0
 
Non-medium error count:      354
 
SMART Self Test log
Num  Test              Status                 segment  LifeTime  LBA_first_err [SK ASC ASQ]
     Description                              number   (hours)
# 1  Background long   Completed                   -      22                 - [-   -    -]
# 2  Background short  Completed                   -      20                 - [-   -    -]
# 3  Background long   Completed                   -       9                 - [-   -    -]
 
Long (extended) Self Test duration: 3917 seconds [65.3 minutes]

22.7.4.81 查询和设置硬盘巡检参数

命令功能

查询和设置硬盘巡检的相关参数。

l     不支持非成员盘、非冗余的RAID组成员盘和SSD

l     异常掉电后开机自动开启巡检。但对于异常掉电后,用户手动清除用户数据场景,则不会自动开启巡检,需要用户手动启动巡检。

命令格式

命令

说明

hiraidadm ccontroller_id:eenclosure_id:sslot_id show patrolread

查询硬盘巡检状态。

hiraidadm ccontroller_id:eenclosure_id:sslot_id start patrolread [delay=delay_time]

设置硬盘巡检参数并执行。

hiraidadm ccontroller_id:eenclosure_id:sslot_id stop patrolread

停止硬盘巡检。

 

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表

delay_time

指定延时启动时间。

124(单位:h

 

使用指南

回显中主要字段的含义如22-50所示。

表22-50 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:eenclosure_id:sslot_id show patrolread

Run Status

巡检执行状态。

stop

Patrolread Rate

巡检速率。

high

Patrolread Progress

巡检进度。

NA

Estimated time

剩余预估时间。

NA

 

使用实例

# 查询硬盘巡检信息。

[root@localhost ~]# hiraidadm c0:e0:s6 show patrolread
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
                Disk Patrolread Information
-------------------------------------------------------
Run Status              | stop
Patrolread Rate         | low
Patrolread progress     | NA
Estimated time          | NA
-------------------------------------------------------

# 设置硬盘巡检参数。

[root@localhost ~]# hiraidadm c0:e0:s6 start patrolread delay=2
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

# 停止硬盘巡检。

[root@localhost ~]# hiraidadm c0:e0:s6 stop patrolread
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.4.82 查询硬盘I/O统计信息

命令功能

查询指定硬盘I/O统计信息。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id show iocnt

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表

 

使用指南

回显中主要字段的含义如22-51所示。

表22-51 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:eenclosure_id:sslot_id show iocnt

Io Count

正常完成的I/O数量。

2

Failed Io Count

失败I/O数量。

0

 

使用实例

# 查询指定硬盘I/O统计信息。

[root@localhost ~]# hiraidadm c0:e0:s0 show iocnt
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
Io Count                | 347030
Failed Io Count         | 0
--------------------------------------------------------------------------------------------------------------

22.7.4.83 SCSI透传管理命令

命令功能

SCSI透传管理命令。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id passthru scsi type=type cdblen=cdb_length cdb=cdb_value [file=file_name] [data_len=data_length]

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表

type

指定命令数据传输方向。

l     read

l     write

l     set

cdb_length

cdb帧长度。

l     6

l     10

l     12

l     16

cdb_value

cdb帧,按16进制的字节表示。

例如:0x1b, 0x01, 0x00, 0x00, 0x01

file_name

写入或保存数据的文件。

l     type=write时,文件内容即往盘写入的数据。

l     type=read时,数据会写入该文件。

-

data_length

cdb帧内传递数据的长度。

type=write时,长度不大于文件的大小,否则无法从文件中读取到指定长度的数据。

 

使用指南

无。

使用实例

#SCSI透传管理命令。

[root@localhost ~]# hiraidadm c0:e0:s0 passthru scsi type=read cdblen=10 cdb=0x28,0x00,0x46,0x82,0x20,0xd8,0x00,0x00,0x08,0x00 file=save.txt data_len=4096
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.4.84 查询硬盘坏块列表

命令功能

查询指定硬盘坏块列表信息。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id show bst [slba=start_lba num=number]

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表

start_lba

设置从指定硬盘块开始查询的位置。

-

number

需要查询的坏块数量。

-

 

使用指南

回显中主要字段的含义如22-52所示。

表22-52 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:eenclosure_id:sslot_id show bst [slba=start_lba num=number]

Index

坏盘序号。

0

Did

硬盘的ID

4

Start Lba

起始LBA地址。

0

Lba_len

LBA数量。

2048

Type

逻辑类型或者物理类型。

Physical

 

使用实例

#查询指定硬盘坏块列表信息。

[root@localhost ~]# hiraidadm c0:e0:s4 show bst
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Total diskbst number is 2
--------------------------------------------------------------------------------------------------------------
Index  Did  Start_lba  lba_len  Type       Index  Did  Start_lba  lba_len  Type
--------------------------------------------------------------------------------------------------------------
0      4    0          2048     Physical | 1      4    4096       6144     Physical |
--------------------------------------------------------------------------------------------------------------

22.7.4.85 设置硬盘为默认启动项

命令功能

设置指定硬盘为控制卡默认启动项。

仅在裸盘模式开启时,可设置硬盘为启动项。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id set boot sw=switch

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表

switch

是否作为启动盘。

l     on:开启作为启动盘

l     off:关闭作为启动盘

 

使用指南

无。

使用实例

# 设置硬盘作为启动盘。

[root@localhost ~]# hiraidadm c0:e0:s6 set boot sw=on
=========================================== Hiraidadm Information ============================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================

22.7.4.86 查询硬盘背板phy误码

命令功能

查询指定硬盘背板的链路状态(当前仅支持直连背板)。

命令格式

hiraidadm ccontroller_id:eenclosure_id show phy

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表

 

使用指南

回显中主要字段的含义如22-53所示。

表22-53 回显说明

命令格式

字段

含义

举例

hiraidadm ccontroller_id:eenclosure_id show phy

ID

序号

2

Status

端口状态

enable

LinkSpd

端口下行速率

12Gb/s

Dev_type

设备类型

SAS

Attach_Sas_addr

所链接的sas地址

0x050000399886980c6

IDC

无效的双字计数。

0

RDEC

运行差异错误计数。

0

LDSC

双字同步丢失数。

0

PRPC

Phy口重置问题计数。

0

 

使用实例

#查询硬盘背板phy误码。

[root@localhost ~]# hiraidadm c0:e0 show phy
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
Total phy number is 40
--------------------------------------------------------------------------------------------------------------
ID  Status   linkSpd Dev_type Attach_Sas_addr    IDC     RDEC    LDSC    PRPC
--------------------------------------------------------------------------------------------------------------
0   enable   6.0Gb/s SATA     0x5000000000000007 0       0       0       0
1   enable   6.0Gb/s SATA     0x5000000000000006 0       0       0       0
2   enable   6.0Gb/s SATA     0x5000000000000005 0       0       0       0
3   enable   6.0Gb/s SATA     0x5000000000000004 0       0       0       0
4   enable   No_link NODEV    0x0                0       0       0       0
5   enable   No_link NODEV    0x0                0       0       0       0
6   enable   No_link NODEV    0x0                0       0       0       0
7   enable   No_link NODEV    0x0                0       0       0       0
8   enable   6.0Gb/s SATA     0x5000000000000107 0       0       0       0
9   enable   6.0Gb/s SATA     0x5000000000000106 0       0       0       0
10  enable   12Gb/s  SAS      0x5000c500cecb08d1 0       0       0       0
11  enable   12Gb/s  SAS      0x5000cca04eb0aa05 0       0       0       0
12  enable   12Gb/s  SAS      0x5c8a776b93321000 0       0       0       0
13  enable   6.0Gb/s SATA     0x5000000000000102 0       0       0       0
14  enable   6.0Gb/s SATA     0x5000000000000101 0       0       0       0
15  enable   6.0Gb/s SATA     0x5000000000000100 0       0       0       0
16  enable   No_link NODEV    0x0                0       0       0       0
17  enable   No_link NODEV    0x0                0       0       0       0
18  enable   No_link NODEV    0x0                0       0       0       0
19  enable   No_link NODEV    0x0                0       0       0       0
20  enable   No_link NODEV    0x0                0       0       0       0
21  enable   No_link NODEV    0x0                0       0       0       0
22  enable   No_link NODEV    0x0                0       0       0       0
23  enable   No_link NODEV    0x0                0       0       0       0
24  enable   No_link NODEV    0x0                0       0       0       0
25  enable   No_link NODEV    0x0                0       0       0       0
26  enable   No_link NODEV    0x0                0       0       0       0
27  enable   No_link NODEV    0x0                0       0       0       0
28  enable   No_link NODEV    0x0                0       0       0       0
29  enable   No_link NODEV    0x0                0       0       0       0
30  enable   No_link NODEV    0x0                0       0       0       0
31  enable   No_link NODEV    0x0                0       0       0       0
32  enable   No_link NODEV    0x0                0       0       0       0
33  enable   No_link NODEV    0x0                0       0       0       0
34  enable   No_link NODEV    0x0                0       0       0       0
35  enable   No_link NODEV    0x0                0       0       0       0
36  enable   No_link NODEV    0x0                0       0       0       0
37  enable   No_link NODEV    0x0                0       0       0       0
38  enable   No_link NODEV    0x0                0       0       0       0
39  disable  No_link NODEV    0x0                0       0       0       0
 
IDC=Invalid Dword Count,       RDEC=Run Disparity Error Count
LDSC=Loss Of Dword Sync Count,   PRPC=Phy Reset Problem Count
--------------------------------------------------------------------------------------------------------------

22.7.4.87 保存SAS phy配置

命令功能

设置并保存phy口的配置,下次启动时该phy口将按此配置尝试连接(或关闭)。

仅支持直连phy(即e0)。

命令格式

hiraidadm ccontroller_id:eenclosure_id:sslot_id set phy_cfg sw=switch [speed=speed]

参数说明

参数

参数说明

取值

controller_id

控制卡的ID

查询控制卡ID请参见0查询控制卡列表

enclosure_id

硬盘所在框位的ID

查询硬盘所在框位ID请参见22.7.2.22 查询控制卡硬盘列表

slot_id

硬盘所在槽位的ID

查询硬盘所在槽位ID请参见22.7.2.22 查询控制卡硬盘列表

switch

开关状态。

-

speed

phy最大速率。

l     1.5G

l     3G

l     6G

l     12G

默认值为:12G

 

使用指南

无。

使用实例

#设置并保存phy口的配置。

[root@localhost ~]# hiraidadm c0:e0:s0 set phy_cfg sw=off
========================================== Hiraidadm   Information ===========================================
    Name: hiraidadm
    Version: 1.2.0.2
    Build Time: Nov 15 2022 22:07:55
==============================================================================================================
==============================================================================================================
    Status Code = 0
    Status = Success
    Description = None
==============================================================================================================
--------------------------------------------------------------------------------------------------------------
User assign sw : off
Default set speed : 12g
--------------------------------------------------------------------------------------------------------------


A 附录

RAID控制卡启动中出现的常见的错误消息及处理方法

A-1描述了MegaRAID固件中出现的启动错误消息。

表A-1 启动消息

序号

显示的启动消息

原因及处理方法/建议

1

Memory or battery problems were detected.

The adapter has recovered, but cached data was lost.

Press any key to continue, or press C to load the configuration utility.

原因:缓存数据丢失,无法检索。

处理方法:进行内存和电池测试。如果需要,更换电池或RAID控制卡。

2

This is a test message. You can press a key to ignore it, or you can wait five seconds.

No further action is required.

Press any key to continue, or press C to load the configuration utility.

这是一条测试消息,可以按任意键忽略,或者等待五秒,无需进一步处理。

3

Firmware version inconsistency was detected. The adapter has recovered, but cached data was lost.

Press any key to continue, or press C to load the configuration utility.

原因:检测到固件版本不一致。适配器已恢复,但是缓存的数据已经丢失。

处理方法:确保另一个控制卡也具有相同的固件版本。

4

Foreign configuration(s) found on adapter.

Press any key to continue or press C to load the configuration utility or press F to import foreign configuration(s) and continue.

原因:插入了一个存储设备,其中的元数据不属于控制卡识别的任何RAID组。

处理方法:导入已插入的存储设备的配置或删除RAID组。

5

Previous configuration cleared or missing.

Importing configuration created on %02d/%02d%2d:%02d.

Press any key to continue, or press C to load the configuration utility.

原因:控制卡无法识别当前RAID组配置。

处理方法:导入配置或删除存储设备上的外部配置。

6

Firmware package: %s

7

Firmware version: %s

8

This firmware is a TEST version. It has not completed any validation.

原因:控制卡无法识别当前RAID组配置。

处理方法:将固件升级到正确的版本。

9

This firmware is an ALPHA version It has not completed all validation.

The validation stamp is:

%s"""

原因:控制卡无法识别当前RAID组配置。

处理方法:将固件升级到正确的版本。

10

This firmware is BETA version It has not completed all validation.

The validation stamp is:

%s"""

原因:控制卡无法识别当前RAID组配置。

处理方法:将固件升级到正确的版本。

11

An enclosure was found that contains both SAS and SATA drives, but

this controller does not allow mixed drive types in a single enclosure.

Correct the problem then restart your system.

Press any key to continue, or press C to load the configuration utility.

原因:不能使用同时包含SASSATA盘的Enclosure,因为控制卡不支持包含混合硬盘类型的Enclosure

处理方法:

l     只使用一种类型的硬盘(SASSATA)。

l     更换控制卡为支持单个Enclosure包含混合硬盘类型的控制卡。

l     联系技术支持启用该特性。

12

SAS drives were detected, but this controller does not support SAS drives.

Remove the SAS drives then restart your system.

Press any key to continue, or press C to load the configuration utility.

原因:该控制卡不支持SAS盘。

处理方法:更换SAS盘为SATA盘并重启系统。

13

SATA drives were detected, but this controller does not support SATA drives.

Remove the SATA drives then restart your system.

Press any key to continue, or press C to load the configuration utility.

原因:该控制卡不支持SATA盘。

处理方法:SATA盘替换为SAS盘并重启系统。

14

There are %d enclosures connected to connector %s, but only maximum of %d enclosures can be connected to a single SAS connector.

Remove the extra enclosures then restart your system.

原因:该控制卡只支持特定数量的Enclosure

处理方法:移除多余的Enclosure或插入满足需求的控制卡。

15

Invalid SAS topology detected.

Check your cable configurations, repair the problem, and restart your system.

原因:控制卡检测到无效的SAS拓扑。

处理方法:检查线缆或重新配置连接的设备以创建有效的SAS拓扑。

16

The battery is currently discharged or disconnected. Verify the connection  and  allow 30  minutes  for charging.

If the battery is properly connected and it has not returned to operational state after 30 minutes of charging then contact technical support for additional assistance.

原因:电池当前处于放电或断开状态。

处理方法:

l     检查电池线缆,确保电池线缆连接正常。

l     确保电池充电正常。

l     如果电池电量耗尽,请联系技术支持更换电池。

17

The battery hardware is missing or malfunctioning, or the battery is unconnected, or the battery could be fully discharged.

If you continue to boot the system, the battery-backed cache will not function. If battery is connected and has been allowed to charge for 30 minutes and this message continues to appear, contact technical support for assistance.

Press D to disable this warning (if your controller does not have a battery)

原因:电池硬件缺失或故障,或电池未连接,或电池完全放电。

处理方法:

l     检查电池线缆,确保电池线缆连接正常。

l     确保电池充电正常。

l     如果电池电量耗尽,请联系技术支持更换电池。

18

Invalid SAS Address present in MFC data.

Program a valid SAS Address and restart your system.

原因:可能存在无效的SAS地址。

处理方法:

1.     将系统下电,移除控制卡。

2.     联系技术支持,对SAS地址重新编程。

19

Some configured disks have been removed from your system, or are no longer accessible.

Check your cables and also make sure all disks are present.

Press any key to continue, or press C to load the configuration utility.

原因:控制卡无法找到已配置的硬盘。

处理方法:

l     检查已配置的硬盘是否在位、连接是否正常。

l     进入BIOS,查看这些设备是否有显示。

l     确保硬盘已启动并有电源供应。

l     如果有背板,检查连接器,确保硬盘有电源供应。

20

The following VDs have missing disks: %s.

If you proceed (or load the configuration utility), these VDs will be marked OFFLINE and will be inaccessible.

Check your cables and make sure all disks are present.

Press any key to continue, or press C to load the configuration utility.

原因:控制卡无法找到已配置的硬盘。

处理方法:

l     检查已配置的硬盘是否在位、连接是否正常。

l     进入BIOS,查看这些设备是否有显示。

l     确保硬盘已启动并有电源供应。

l     如果有背板,检查连接器,确保硬盘有电源供应。

21

The following VDs are missing: %s.

If you proceed (or load the configuration utility), these VDs will be removed from your configuration.

If you wish to use them at a later time, they will have to be imported. If you believe these VDs should be present, power off your system and check your cables to make sure all disks are present.

Press any key to continue, or press C to load the configuration utility.

原因:控制卡无法找到已配置的硬盘。

处理方法:

l     检查已配置的硬盘是否在位、连接是否正常。

l     进入BIOS,查看这些设备是否有显示。

l     确保硬盘已启动并有电源供应。

l     如果有背板,检查连接器,确保硬盘有电源供应。

22

The following VDs are missing complete spans: %s. If you proceed (or load the configuration utility), these VDs will be removed from your configuration and the remaining drives marked as foreign.

If you wish to use them at a later time, restore the missing span(s) and use a foreign import to recover the VDs.

If you believe these VDs should be present, please power off your system and check your cables to make sure all disks are present.

Press any key to continue, or press C to load the configuration utility.

原因:控制卡无法找到已配置的硬盘。

处理方法:

l     检查已配置的硬盘是否在位、连接是否正常。

l     进入BIOS,查看这些设备是否有显示。

l     确保硬盘已启动并有电源供应。

l     如果有背板,检查连接器,确保硬盘有电源供应。

23

All of the disks from your previous configuration are gone. If this is an unexpected message, power off your system and check your cables to make sure all disks are present.

Press any key to continue, or press C to load the configuration utility.

原因:控制卡无法找到已配置的硬盘。

处理方法:

l     检查已配置的硬盘是否在位、连接是否正常。

l     进入BIOS,查看这些设备是否有显示。

l     确保硬盘已启动并有电源供应。

l     如果有背板,检查连接器,确保硬盘有电源供应。

24

The cache contains dirty data, but some VDs are missing or will go offline, so the cached data can not be written to disk. If this is an unexpected error, power off your system and check your cables to make sure all disks

are present. If you continue, the data in cache will be permanently discarded.

Press X to acknowledge and permanently destroy the cached data.

原因:控制卡无法找到已配置的硬盘。

处理方法:

l     检查已配置的硬盘是否在位、连接是否正常。

l     进入BIOS,查看这些设备是否有显示。

l     确保硬盘已启动并有电源供应。

l     如果有背板,检查连接器,确保硬盘有电源供应。

25

Your VDs that are configured for Write-Back are

temporarily running in Write-Through mode. This is caused by the battery being charged, missing, or bad.

Allow the battery to charge for 24 hours before evaluating the battery for replacement. The following VDs are affected: %s

Press any key to continue.

原因:配置为Write Back策略的虚拟磁盘暂时以Write Through方式运行。因为电池正在充电,或者电池已经丢失、损坏。

处理方法:

l     检查电池线缆,确保电池线缆连接正常。

l     确保电池充电正常。

l     如果电池电量耗尽,联系技术支持更换电池。

26

Invalid memory configuration detected.

Contact your system support. System has halted.

原因:检测到无效内存配置。

处理方法:更换RAID控制卡。

27

Cache data was lost due to an unexpected power-off or reboot during a write operation, but the adapter has recovered. This could be because of memory problems, bad battery, or you might not have a battery installed.

Press any key to continue or C to load the configuration utility.

原因:在写操作过程中,可能因为内存问题、电池损坏、或者未安装电池等原因,造成意外断电或重启,导致缓存数据丢失,但适配器已恢复。

处理方法:

l     检查电池线缆,确保电池线缆连接正常。

l     确保电池充电正常。

l     如果电池电量耗尽,联系技术支持更换电池。

28

Entering the configuration utility in this state will result in drive configuration changes.

Press Y to continue loading the configuration utility or power off your system and check your cables to make sure all disks are present and reboot the system.

原因:控制卡无法找到已配置的硬盘。

处理方法:

l     检查已配置的硬盘是否在位、连接是否正常。

l     进入BIOS,查看这些设备是否有显示。

l     确保硬盘已启动并有电源供应。

l     如果有背板,检查连接器,确保硬盘有电源供应。

l     如果使用控制卡通过重用硬盘来创建新的配置,则清除现有数据,然后继续。

29

Multibit ECC errors were detected on the RAID controller. If you continue, data corruption can occur.

Contact technical support to resolve this issue.

Press X to continue, otherwise power off the system, replace the controller, and reboot.

原因:RAID控制卡上检测到Multibit(多比特)ECC错误。如果继续,可能会导致数据损坏。

处理方法:

1.     更换RAID控制卡。

2.     如果问题仍然存在,联系技术支持。

30

Single-bit ECC errors were detected on the RAID controller.

Contact technical support to resolve this issue.

Press X to continue or else power off the system, replace the controller, and reboot.

原因:RAID控制卡上检测到单比特(Single-bitECC错误。

处理方法:

1.     更换RAID控制卡。

2.     重启系统。

3.     如果问题仍然存在,联系技术支持。

31

Single-bit overflow ECC errors were detected on the RAID controller. If you continue, data corruption    can occur.

Contact technical support to resolve this issue.

Press X to continue or else power off the system, replace the controller, and reboot.

原因:RAID控制卡上检测到单比特(Single-bit)溢出ECC错误。如果继续,可能会导致数据损坏。

处理方法:

1.     更换RAID控制卡。

2.     重启系统。

3.     如果问题仍然存在,联系技术支持。

32

Multibit ECC errors were detected on the RAID controller. The DIMM on the controller needs replacement.

Contact technical support to resolve this issue. If you continue, data corruption can occur.

Press X to continue, otherwise power off the system and replace the DIMM module and reboot. If you have replaced the DIMM press X to continue.

原因:RAID控制卡上检测到Multibit(多比特)ECC错误。

处理方法:

1.     更换RAID控制卡。

2.     重启系统。

3.     如果问题仍然存在,联系技术支持。

33

Single-bit ECC errors were detected during the previous boot of the RAID controller. The DIMM on the controller needs replacement.

Contact technical support to resolve this issue.

Press X to continue, otherwise power off the system and replace the DIMM module and reboot. If you have replaced the DIMM press X to continue.

原因:RAID控制卡在上一次启动过程中检测到单比特(Single-bitECC错误。

处理方法:

1.     更换RAID控制卡。

2.     重启系统。

3.     如果问题仍然存在,联系技术支持。

34

Single-bit overflow ECC errors were detected during the previous boot of the RAID controller. The DIMM on the controller needs replacement.

Contact technical support to resolve this issue. If you continue, data corruption can occur.

Press X to continue, otherwise power off the system and replace the DIMM module and reboot. If you have replaced the DIMM press X to continue.

原因:RAID控制卡在上一次启动过程中检测到单比特(Single-bit)溢出ECC错误。

处理方法:

1.     更换RAID控制卡。

2.     重启系统。

3.     如果问题仍然存在,联系技术支持。

35

The attached enclosure does not support in controller's Direct mapping mode.

Contact your system support.

The system has halted because of an unsupported configuration.

原因:可能存在过多串联的Enclosure,也可能与硬盘中的安全特性有关。

处理方法:

l     移除不支持的硬盘。

l     减少硬盘数量。

l     更换为另一个Enclosure

l     确保固件版本已经更新。

l     如果问题仍然存在,联系技术支持。

36

Expander detected in controller with direct mapping mode.

Reconfiguring automatically to persistent mapping mode. Automatic reboot would happen in 10 seconds.

原因:在直接映射模式下,控制卡检测到了Expander

处理方法:无需处理。控制卡将自身配置为持久映射模式然后重新启动。

如果问题仍然存在,联系技术支持。

37

Your controller's I/O processor has a fault

that can potentially cause data corruption. Your controller needs replacement.

Contact your system support.

To continue, press Y to acknowledge.

原因:控制卡的I/O处理器有一个可能导致数据损坏的故障。

处理方法:联系技术支持更换控制卡。

38

The number of disks exceeded the maximum supported count of %d disks.

Remove the extra drives and reboot system to avoid losing data.

Press Y to continue with extra drives.

原因:硬盘数量超过上限。

处理方法:

l     将系统下电,移除控制卡。

l     移除超出的硬盘以缩小拓扑。

l     将当前控制卡更换为支持更大拓扑的控制卡。

39

The number of devices exceeded the maximum limit of devices per

quad. Remove the extra drives and reboot the system to avoid losing data.

System has halted due to unsupported configuration.

原因:硬盘数量超过上限。

处理方法:

l     将系统下电,移除控制卡。

l     移除超出的硬盘以缩小拓扑。

l     将当前控制卡更换为支持更大拓扑的控制卡。

40

A discovery error has occurred, power cycle the system and all the enclosures attached to this system.

原因:发生了Discovery错误,对系统及所有与系统连接的Enclosure进行上下电。

处理方法:

l     关闭并重启系统以及所有与系统连接的Enclosure

l     确保所有线缆正确连接。如存在坏盘,缩小拓扑。

l     如果问题仍然存在,请收集系统日志、驱动日志和固件日志,并联系技术支持。

41

Drive security is enabled on this controller and a pass phrase is required. Enter the pass phrase.

原因:控制卡上启用了硬盘安全特性,需要输入密码。

处理方法:输入密码。

42

Invalid pass phrase. Enter the pass phrase.

原因:无效的密码。

处理方法:输入有效的密码。

43

There was a drive security key error. All secure drives will be marked as foreign.

Press any key to continue, or C to load the configuration utility.

原因:硬盘安全key错误,所有安全硬盘将被标记为Foreign

处理方法:检查控制卡是否支持自加密硬盘。

44

Invalid pass phrase. If you continue, a drive security key error will occur and all secure configurations will be marked as foreign.

Reboot the machine to retry the pass phrase or press any key to continue.

原因:无效的密码。

处理方法:重启系统重试密码或按任意键继续。

45

Unable to communicate to EKMS. If you continue, there will be a drive security key error and all secure configurations will be marked as foreign.

Check the connection with the EKMS, reboot the machine to retry the EKMS or press any key to continue.

原因:无法与EKMS通信。

处理方法:检查与EKMS的连接,重启系统,重新建立与EKMS的连接。

46

Unable to change security to EKMS as not able to communicate to

EKMS. If you continue, the drive security will remain to existing security mode.

Check the connection with the EKMS, reboot the machine to retry the EKMS or press any key to continue.

原因:无法与EKMS通信,无法将安全模式修改为EKMS

处理方法:检查与EKMS的连接,重启系统,重新建立与EKMS的连接。

47

DKM existing key request failed; existing secure configurations will be labeled foreign and will not be accessible.

Reboot the server to retry.

原因:DKM现有key请求失败;现有的安全配置将被标记为“Foreign”且不能访问。

处理方法:检查与EKMS的连接,重启系统,重新建立与EKMS的连接。

48

DKM new key request failed; controller security mode transition was not successful.

Reboot the server to retry request, or press any key to continue.

原因:DKMkey请求失败;控制卡安全模式转换不成功。

处理方法:检查与EKMS的连接,重启系统,重新建立与EKMS的连接。

49

Firmware did not find valid NVDATA image.

Program a valid NVDATA image and restart your system.

Press any key to continue.

原因:固件没有找到有效的NVDATA镜像。

处理方法:

l     刷新一个有合适NVDATA镜像的固件包。

l     检查当前固件版本,如有必要,更新到最新固件版本。更新到最新固件版本可能需要导入外部Volume

50

IR to MR Migration failed.

Press any key to continue with MR defined NVDATA values

原因:IRMR迁移失败,按任意键继续使用MR定义的NVDATA值。

处理方法:

51

Two BBUs are connected to the adapter. This is not a supported configuration. Battery and caching operations are disabled. Remove one BBU and reboot to restore battery and caching operations. If dirty cache is lost in this boot, that could have been because of dual battery presence.

原因:适配器连接着两个BBU,由于不支持这种配置,电池和缓存操作已被禁用。

处理方法:移除一个BBU,重启系统,恢复电池和缓存操作。

由于存在双电池,在系统重启过程中,可能会丢失脏缓存中的数据。

52

Offline or missing virtual drives with preserved cache exist.

Check the cables and make sure that all drives are present.

Press any key to continue, or C to load the configuration utility.

原因:控制卡无法找到已配置的硬盘。

处理方法:

l     检查已配置的硬盘是否在位、连接是否正常。

l     进入BIOS,查看这些设备是否有显示。

l     确保硬盘已启动并有电源供应。

l     如果有背板,检查连接器,确保硬盘有电源供应。

l     如果恢复了丢失的硬盘,则会发生缓存卸载。

53

Offline or missing virtual drives with preserved cache exist.

Check the cables and make sure that all drives are present.

Press any key to enter the configuration utility.

原因:控制卡无法找到已配置的硬盘。

处理方法:

l     检查已配置的硬盘是否在位、连接是否正常。

l     进入BIOS,查看这些设备是否有显示。

l     确保硬盘已启动并有电源供应。

l     如果有背板,检查连接器,确保硬盘有电源供应。

l     如果恢复了丢失的硬盘,则会发生缓存卸载。

54

Invalid SAS Address present in SBR. Contact

your system support.

Press any key to continue with Default SAS Address.

原因:SBR中存在无效的SAS地址。

处理方法:联系技术支持恢复出厂配置默认值。

55

Incompatible secondary iButton present!

Insert the correct iButton and restart the system.

Press any key to continue but OEM specific features will not be upgraded!

原因:存在不兼容的RAID key

处理方法:插入正确RAID key,重启系统。如果问题仍然存在,联系技术支持更换RAID key

56

Upgrade Key Missing! An upgrade key was present on a previous power cycle, but it is not connected.

This can result in inaccessible data unless it is addressed.

Re-attach the upgrade key and reboot.

原因:前一个上下电周期中存在的升级key可能无法连接。

处理方法:重新连接key并重启系统。如果问题仍然存在,联系技术支持更换升级key

57

The native configuration is not supported by the controller.

Check the controller, iButton or key-vault. If you continue the configuration will be marked foreign.

Press any key to continue.

原因:控制卡不支持本地配置。

处理方法:插入正确的RAID key,并重启系统。如果问题仍然存在,联系技术支持更换RAID key

58

The battery is currently discharged or disconnected. Verify the connection  and    allow 30  minutes  for charging. If the battery is properly connected and it has not returned to operational state after 30 minutes of charging, contact technical support for additional assistance.

Press D to disable this warning (if your controller does not have a battery).

原因:电池当前处于放电或断开状态。

处理方法:

l     检查电池线缆,确保电池线缆连接正常。

l     确保电池充电正常。

l     如果电池电量耗尽,联系技术支持更换电池。

59

The battery is currently discharged or disconnected. VDs configured in

Write-Back mode will run in Write-Through mode to protect your data and will return to the Write-Back policy when the battery is operational.

If VDs have not returned to Write-Back mode after 30 minutes of charging then contact technical support for additional assistance.

The following VDs are affected: %s.

Press any key to continue.

原因:电池当前处于放电或断开状态。在Write Back模式下配置的虚拟磁盘将以Write Through模式运行以保护数据,当电池运行时将返回Write Back模式。

处理方法:

l     检查电池线缆,确保电池线缆连接正常。

l     确保电池充电正常。

l     如果电池电量耗尽,请联系技术支持更换电池。

60

Cache data was lost, but the controller has recovered. This could be because your controller had protected cache after an unexpected power loss and your system was without power longer than the battery backup time.

Press any key to continue or C to load the configuration utility.

原因:缓存数据丢失,但控制卡已恢复。这可能是因为控制卡在意外断电后保护了缓存,而系统的断电时间超过了电池的备份时间。

处理方法:

l     检查内存和电池。

l     掉电时,检查电压水平和缓存卸载时间。

l     必要时更换内存或电池。

61

A snapshot rollback is in progress on VDs %s, the controller cannot boot until the rollback operation completes.

Press any key to enter the configuration utility.

原因:虚拟磁盘上正在进行快照回滚,在完成之前控制卡无法启动。

处理方法:等待一段时间,直到回滚完成。

62

The following VDs: %s have Rollback active and the corresponding Repository is missing. If you continue to boot the system or enter the configuration utility, these VDs will become unusable.

Press any key to Continue.

原因:这可能与快照特性有关,MegaRAID 12Gb/s SAS RAID控制卡不支持快照特性。

处理方法:等待一段时间,直到回滚完成。

63

Snapshot Repository VDs %s have been removed from your system, or are no longer accessible.

Check the cables and make sure all disks are present. If you continue to boot the system, the snapshot related data will be lost.

Press any key to continue, or C to load the configuration utility.

原因:控制卡无法找到已配置的硬盘。

处理方法:

l     检查已配置的硬盘是否在位、连接是否正常。

l     进入BIOS,查看这些设备是否有显示。

l     确保硬盘已启动并有电源供应。

l     如果有背板,检查连接器,确保硬盘有电源供应。

64

The most recent configuration command could not be committed and must be retried.

Press any key to continue, or C to load the configuration utility.

原因:无法提交最近的配置命令,必须重试。

处理方法:

65

Firmware could not synchronize the configuration or property changes for some of the VD's/PD's.

Press any key to continue, or C to load the configuration utility.

原因:固件无法同步某些虚拟磁盘或物理硬盘的配置或属性更改。

处理方法:按任意键继续,或按“C”键加载Configuration Utility。如果问题仍然存在,联系技术支持。

66

On-board expander firmware or manufacturing image is corrupted. The flash expander firmware and manufacturing image use the recovery tools.

原因:Expander存在软件失效问题。

处理方法:

联系技术支持。

67

The native configuration is not supported by the current firmware.

Make sure that the correct controller firmware is being used. If you continue, the configuration will be marked as foreign.

Press any key to continue.

原因:当前固件不支持本地配置。

处理方法:

l     收集系统日志、驱动日志和固件日志。

l     确保固件版本正确,并更新到最新版本。

l     如果问题仍然存在,联系技术支持。

68

Foreign configuration import did not import any drives.

Press any key to continue.

原因:外部配置导入没有导入任何硬盘。

处理方法

l     检查控制卡的固件版本。

l     更换控制卡后重试。

l     如果问题仍然存在,联系技术支持。

69

Valid memory detected. Firmware is upgraded from iMR to MR.

Reboot the system for the MR firmware to run.

原因:检测到有效内存。固件从iMR升级到MR

处理方法:重启系统,使MR固件运行。

70

Advanced software options keys were detected, features activated %s.

原因:检测到Advanced Software Options选项,特性正在被激活。

处理方法:

71

Advanced software options keys were missing, features deactivated %s.

原因:Advanced Software Options选项丢失,特性正在被停用。

处理方法

l     检查线缆连接。

l     检查是否有Advanced Software Options选项。

l     如果问题仍然存在,联系技术支持。

72

Cannot communicate with iButton to retrieve premium features. This is probably because of extreme temperatures.

The system has halted!

原因:无法与RAID key通信进行高级特性检索。这可能是由极端温度引起的。

处理方法:

l     检查线缆连接。

l     确保RAID key在位。

l     检查RAID key周边的环境温度。

l     如果问题仍然存在,联系技术支持。

73

Consecutive power loss detected during I/O transactions on non-optimal write-back volumes. This might have resulted in data integrity issues.

Press 'X' to proceed.

原因:在非最优的write-back写策略的volume上,I/O活动期间发生连续多次掉电。这可能导致数据完整性问题。

处理方法:

l     检查控制卡是否牢牢固定在PCI插槽中。

l     检查电源、电池和超级电容。

l     如发现硬件缺陷,联系技术支持。

74

USB cache device is not responding.

Power down the system for 2 minutes to attempt recovery and avoid cache data loss, and then power-on.

原因:USB缓存设备无响应。

处理方法:

l     LSI SAS2208控制卡支持USB缓存卸载。确保USB缓存在位且安全。

l     插拔并更换USB缓存。

l     将系统断电2分钟,以尝试恢复和避免缓存数据丢失,然后上电。

75

Bad or missing RAID controller memory module detected.

Press D to downgrade the RAID controller to iMR mode.

Warning! Downgrading to iMR mode, might result in incompatible Logical drives.

Press any other key to continue, controller shall boot to safe mode.

原因:检测到RAID控制卡内存模块损坏或丢失。

处理方法:更换RAID控制卡。

 

A.2 缩略语

B

BGI

background initialization

后台初始化

BIOS

basic input output system

基本输入输出系统

E

EFI

Extensible Firmware Interface

可扩展固件接口

F

FGI

foreground initialization

前台初始化

G

GB

gigabyte

千兆字节

H

HBA

host bus adapter

主机总线适配器

HDD

hard disk drive

机械硬盘

I

iBMC

Intelligent Baseboard Management Controller

智能管理系统

IOPS

input/output operations per second

每秒进行读写操作的次数

I/O

input/output

输入输出

O

OS

operating system

操作系统

J

JBOD

Just a Bundle Of Disks

磁盘簇

K

KB

kilobyte

千字节

M

MB

megabyte

百万字节

L

LD

Logical Drive

逻辑盘

LUN

logical unit number

逻辑单元号

P

PCIe

Peripheral Component Interconnect Express

快捷外围部件互连标准

R

RAID

redundant array of independent disks

独立磁盘冗余数组

S

SAS

serial attached SCSI

串行连接的SCSI

SATA

Serial Advanced Technology Attachment

串行高级技术附件

SED

self-encrypting drive

自加密硬盘

SMART

Self Monitoring Analysis and Reporting Technology

自我监控分析和报告技术

SMP

Serial Management Protocol

串行管理协议

SSD

solid-state drive

固态硬盘

SSP

Serial SCSI Protocol

串行SCSI协议

STP

Serial ATA Tunneling Protocol

串行ATA隧道协议

T

TB

terabyte

百万兆字节

TM

Task Management

任务管理

U

UEFI

Unified Extensible Firmware Interface

统一可扩展固件接口

V

VD

Virtual Drive

虚拟磁盘

 

新华三官网
联系我们