• 产品与解决方案
  • 行业解决方案
  • 服务
  • 支持
  • 合作伙伴
  • 关于我们

H3C UniServer R4960 G5 服务器 RAID控制卡 用户指南-6W100

01-正文

本章节下载  (68.11 MB)

01-正文

目  录

前言... 33

1 RAID基本概念... 34

1.1 硬盘组和虚拟磁盘... 34

1.2 RAID级别介绍... 35

1.2.1 RAID 0. 35

1.2.2 RAID 1. 35

1.2.3 RAID 1ADM... 36

1.2.4 RAID 5. 37

1.2.5 RAID 6. 38

1.2.6 RAID 10. 39

1.2.7 RAID 10ADM... 40

1.2.8 RAID 1E.. 41

1.2.9 RAID 50. 42

1.2.10 RAID 60. 42

1.2.11 容错能力... 43

1.2.12 I/O性能... 44

1.2.13 存储容量... 44

1.3 常见功能... 45

1.3.1 容错... 45

1.3.2 一致性校验... 45

1.3.3 热备份... 45

1.3.4 RAID重构... 46

1.3.5 硬盘状态... 46

1.3.6 虚拟磁盘的读写策略... 49

1.3.7 数据掉电保护... 50

1.3.8 硬盘条带化... 51

1.3.9 磁盘镜像... 52

1.3.10 外部配置... 52

1.3.11 硬盘节能... 53

1.3.12 硬盘直通... 53

2 RAID控制卡兼容性... 54

3 命名含义... 55

4 技术规格... 56

5 LSI SAS3008IR.. 65

5.1 概述... 65

5.2 功能... 68

5.2.1 提供高速接口和模块... 68

5.2.2 可连接多个扩展设备... 68

5.2.3 支持SAS/SATA/SSD硬盘... 68

5.2.4 一致性校验... 68

5.2.5 故障自修复... 68

5.2.6 硬盘热备份... 69

5.2.7 硬盘直通... 69

5.2.8 硬盘低格... 69

5.2.9 硬盘节能... 69

5.2.10 硬盘热插拔... 70

5.2.11 支持RAID 0/1/10/1E.. 70

5.2.12 硬盘巡检... 70

5.2.13 自动S.M.A.R.T扫描... 71

5.3 初始配置... 71

5.3.1 登录管理界面... 71

5.3.2 创建RAID 0. 75

5.3.3 创建RAID 1. 80

5.3.4 创建RAID 1E.. 84

5.3.5 创建RAID 10. 88

5.3.6 配置启动项... 92

5.4 常用配置... 92

5.4.1 配置热备盘... 92

5.4.2 删除热备盘... 94

5.4.3 导入/清除外部配置... 96

5.4.4 删除RAID.. 101

5.4.5 查询RAID控制卡固件版本... 103

5.5 故障处理... 104

5.5.1 硬盘故障... 104

5.5.2 RAID控制卡故障... 106

5.6 管理界面介绍... 106

5.6.1 登录管理界面... 106

5.6.2 Controller Management 111

5.6.2.1 View Controller Properties. 113

5.6.2.2 Change Controller Properties. 114

5.6.2.3 Create Configuration. 115

5.6.2.4 Clear Configuration. 119

5.6.2.5 Manage Foreign Configuration. 119

5.6.2.6 Save Controller Events. 123

5.6.3 Virtual Disk Management 124

5.6.3.1 Manage Virtual Disk Properties. 125

5.6.3.2 Select Virtual Disk Operations. 131

5.6.4 Physical Disk Management 133

5.6.4.1 View Physical Disk Properties. 134

5.6.4.2 Select Physical Disk Operations. 136

5.6.5 Exit 136

5.7 OS命令行工具... 137

5.7.1 下载和安装SAS3IRCU工具... 137

5.7.2 常用命令... 138

5.7.2.1 查看所有控制器... 138

5.7.2.2 查看所有信息... 139

5.7.2.3 创建和删除RAID.. 141

5.7.2.4 删除指定的RAID组... 143

5.7.2.5 模拟硬盘故障... 143

5.7.2.6 热备盘的创建和删除... 144

5.7.2.7 查看虚拟磁盘状态... 145

5.7.2.8 一致性校验... 146

5.7.2.9 激活RAID组... 147

5.7.2.10 点亮硬盘指示灯... 147

5.7.2.11 收集和清除RAID组事件日志... 148

6 LSI SAS3108. 150

6.2 概述... 150

6.3 功能... 156

6.3.1 支持RAID 0/1/5/6/10/50/60. 156

6.3.2 硬盘热备份... 157

6.3.3 硬盘热插拔... 158

6.3.4 回拷... 158

6.3.5 硬盘分条... 158

6.3.6 RAID级别迁移... 159

6.3.7 初始化... 159

6.3.8 可用容量扩展... 160

6.3.9 安全数据擦除... 161

6.3.10 写洞保护... 161

6.3.11 读写高速缓存... 161

6.3.12 数据掉电保护... 162

6.3.13 CacheCade. 162

6.3.14 硬盘巡检... 162

6.3.15 自动S.M.A.R.T扫描... 162

6.3.16 硬盘节能... 162

6.3.17 硬盘直通... 163

6.3.18 硬盘漫游... 163

6.3.19 导入外部配置... 163

6.3.20 硬盘故障记录... 164

6.3.21 一致性校验... 164

6.4 初始配置... 164

6.4.1 进入管理界面... 164

6.4.2 创建RAID 0. 169

6.4.3 创建RAID 1. 175

6.4.4 创建RAID 5. 181

6.4.5 创建RAID 6. 187

6.4.6 创建RAID 10. 193

6.4.7 创建RAID 50. 200

6.4.8 创建RAID 60. 207

6.4.9 配置启动项... 214

6.5 常用配置... 214

6.5.1 管理热备盘... 214

6.5.1.1 配置全局热备盘... 215

6.5.1.2 配置局部热备盘... 216

6.5.1.3 删除热备盘... 217

6.5.2 设置紧急热备功能... 219

6.5.3 扩展Virtual Drives可用空间... 220

6.5.4 添加新硬盘到RAID.. 223

6.5.5 迁移RAID级别... 229

6.5.6 删除RAID.. 235

6.5.7 重构RAID.. 237

6.5.8 查看RAID控制卡属性... 238

6.5.9 导入/清除外部配置... 242

6.5.10 管理CacheCade. 245

6.5.10.1 创建CacheCade虚拟磁盘... 245

6.5.10.2 删除CacheCade虚拟磁盘... 248

6.5.10.3 在普通虚拟磁盘上启用SSD Caching. 250

6.5.11 创建多个VD(Virtual Drive)... 252

6.5.12 设置JBOD模式... 260

6.5.13 查询RAID控制卡固件版本... 261

6.6 故障处理... 262

6.6.1 硬盘故障... 262

6.6.1.1 硬盘故障... 262

6.6.1.2 硬盘状态为fail或prefail 264

6.6.1.3 硬盘状态为Unconfigured Bad或UBad. 264

6.6.2 RAID控制卡故障... 265

6.6.3 电容故障... 265

6.6.4 Device Manager中RAID控制卡状态显示Not Healthy. 266

6.6.4.1 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone  269

6.6.4.2 There are offline or missing virtual drives with preserved cache. 270

6.6.4.3 The following VDs have missing disks. 275

6.6.4.4 Number of disks exceeded the maximum supported count of 32 disks. 276

6.6.4.5 Memory/battery problems were detected / Unexpected power-loss occurred. 277

6.7 管理界面介绍... 278

6.7.1 进入管理界面... 278

6.7.2 Main Menu. 283

6.7.2.1 Configuration Management 284

6.7.2.2 Controller Management 289

6.7.2.3 Virtual Drive Management 299

6.7.2.4 Drive Management 307

6.7.2.5 Hardware Components. 311

6.7.3 View Server Profile. 314

6.7.4 View Foreign Configuration. 315

6.7.5 Configure. 317

6.7.6 Set Factory Defaults. 318

6.7.7 Manage MegaRAID Advanced Software Options. 318

6.7.8 Exit 319

6.8 OS命令行工具... 320

6.8.1 下载和安装StorCLI工具... 320

6.8.2 常用命令... 321

6.8.2.1 查询RAID控制卡配置信息... 321

6.8.2.2 创建和删除RAID.. 323

6.8.2.3 查询RAID控制卡/RAID组/物理硬盘信息... 327

6.8.2.4 查询超级电容的相关信息... 334

6.8.2.5 查询和设置Patrolread参数... 336

6.8.2.6 查询和设置Spinup参数... 337

6.8.2.7 查询和设置硬盘数据擦除功能... 339

6.8.2.8 查询和设置RAID后台初始化... 340

6.8.2.9 查询和设置CacheFlush参数... 341

6.8.2.10 查询和设置物理硬盘初始化功能... 342

6.8.2.11 设置RAID重构/回拷/系统巡检功能... 343

6.8.2.12 查询和设置Smart扫描周期... 344

6.8.2.13 查询和设置一致性校验参数... 345

6.8.2.14 设置热备盘... 347

6.8.2.15 设置启动项... 348

6.8.2.16 设置硬盘状态... 349

6.8.2.17 设置RAID组访问策略... 350

6.8.2.18 设置RAID组的I/O策略... 351

6.8.2.19 设置硬盘Cache状态... 353

6.8.2.20 设置RAID组的Cache读写策略... 354

6.8.2.21 设置紧急热备功能... 355

6.8.2.22 设置RAID前台初始化... 356

6.8.2.23 设置硬盘直通功能... 357

6.8.2.24 设置硬盘定位指示灯状态... 358

6.8.2.25 设置硬盘PowerSave功能... 359

6.8.2.26 设置后台资源占用率... 360

6.8.2.27 设置自动恢复热备盘状态... 361

6.8.2.28 设置BIOS Stop on Error功能... 362

6.8.2.29 查询和清除PreservedCache数据... 363

6.8.2.30 通过增加成员盘可用容量扩容RAID.. 364

6.8.2.31 通过增加新盘扩容或迁移RAID.. 365

6.8.2.32 配置CacheCade虚拟磁盘... 367

6.8.2.33 升级硬盘FW... 368

6.8.2.34 手动重构RAID.. 369

6.8.2.35 收集和清除RAID控制卡日志... 370

6.8.2.36 查看/导入/清除外部配置... 371

7 Avago SAS3508. 373

7.1 概述... 373

7.2 功能... 378

7.2.1 支持RAID 0/1/5/6/10/50/60. 378

7.2.2 硬盘热备份... 379

7.2.3 硬盘热插拔... 380

7.2.4 回拷... 380

7.2.5 硬盘分条... 380

7.2.6 RAID级别迁移... 381

7.2.7 初始化... 382

7.2.8 可用容量扩展... 382

7.2.9 安全数据擦除... 383

7.2.10 写洞保护... 383

7.2.11 读写高速缓存... 384

7.2.12 数据掉电保护... 384

7.2.13 硬盘巡检... 385

7.2.14 自动S.M.A.R.T扫描... 385

7.2.15 硬盘节能... 385

7.2.16 硬盘直通... 385

7.2.17 硬盘漫游... 386

7.2.18 导入外部配置... 386

7.2.19 硬盘故障记录... 386

7.2.20 一致性校验... 387

7.3 初始配置... 387

7.3.1 进入管理界面... 387

7.3.2 创建RAID 0. 391

7.3.3 创建RAID 1. 397

7.3.4 创建RAID 5. 403

7.3.5 创建RAID 6. 409

7.3.6 创建RAID 10. 415

7.3.7 创建RAID 50. 422

7.3.8 创建RAID 60. 429

7.3.9 配置启动项... 436

7.4 常用配置... 436

7.4.1 管理热备盘... 436

7.4.1.1 配置全局热备盘... 437

7.4.1.2 配置局部热备盘... 438

7.4.1.3 删除热备... 439

7.4.2 设置紧急热备功能... 440

7.4.3 添加新硬盘到RAID.. 442

7.4.4 扩展Virtual Drives可用空间... 446

7.4.5 迁移RAID级别... 448

7.4.6 删除RAID.. 453

7.4.7 重构RAID.. 454

7.4.8 查看RAID控制卡属性... 455

7.4.9 导入/清除外部配置... 460

7.4.10 设置JBOD模式... 464

7.4.11 创建多个VD(Virtual Drive)... 465

7.4.12 查询RAID控制卡固件版本... 471

7.5 故障处理... 473

7.5.1 硬盘故障... 473

7.5.1.1 硬盘故障... 473

7.5.1.2 硬盘状态为fail或prefail 474

7.5.1.3 硬盘状态为Unconfigured Bad或UBad. 475

7.5.2 RAID控制卡故障... 476

7.5.3 电容故障... 476

7.5.4 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy. 477

7.5.4.1 The following VDs have missing disks. 481

7.5.4.2 There are offline or missing virtual drives with preserved cache. 482

7.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone  484

7.5.4.4 Number of disks exceeded the maximum supported count of 32 disks. 486

7.5.4.5 Memory/battery problems were detected / Unexpected power-loss occurred. 486

7.5.4.6 Disabling writes to flash as the flash part has gone bad. 487

7.5.5 将Controller Mode恢复为“RAID”... 488

7.6 管理界面介绍... 492

7.6.1 进入管理界面... 492

7.6.2 Main Menu. 496

7.6.2.1 Configuration Management 497

7.6.2.2 Controller Management 502

7.6.2.3 Virtual Drive Management 509

7.6.2.4 Drive Management 517

7.6.2.5 Hardware Components. 523

7.6.3 View Server Profile. 525

7.6.4 View Foreign Configuration. 526

7.6.5 Configure. 528

7.6.6 Set Factory Defaults. 533

7.6.7 Manage MegaRAID Advanced Software Options. 533

7.6.8 Exit 534

7.7 OS命令行工具... 535

7.7.1 下载和安装StorCLI工具... 535

7.7.2 常用命令... 535

7.7.2.1 查询RAID控制卡配置信息... 535

7.7.2.2 创建和删除RAID.. 538

7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息... 542

7.7.2.4 查询超级电容的相关信息... 549

7.7.2.5 查询和设置Patrolread参数... 551

7.7.2.6 查询和设置Spinup参数... 552

7.7.2.7 查询和设置硬盘数据擦除功能... 554

7.7.2.8 查询和设置RAID后台初始化... 555

7.7.2.9 查询和设置CacheFlush参数... 556

7.7.2.10 查询和设置物理硬盘初始化功能... 557

7.7.2.11 查询和设置RAID重构/回拷/系统巡检功能... 558

7.7.2.12 查询和设置Smart扫描周期... 559

7.7.2.13 查询和设置一致性校验参数... 560

7.7.2.14 设置热备盘... 562

7.7.2.15 设置启动项... 563

7.7.2.16 设置硬盘状态... 564

7.7.2.17 设置RAID组访问策略... 566

7.7.2.18 设置RAID组的I/O策略... 567

7.7.2.19 设置硬盘Cache状态... 568

7.7.2.20 设置RAID组的Cache读写策略... 569

7.7.2.21 设置紧急热备功能... 571

7.7.2.22 设置RAID前台初始化模式... 572

7.7.2.23 设置硬盘直通功能... 573

7.7.2.24 设置硬盘定位指示灯状态... 574

7.7.2.25 设置硬盘PowerSave功能... 575

7.7.2.26 设置后台资源占用率... 576

7.7.2.27 设置自动恢复热备盘状态... 577

7.7.2.28 设置BIOS Stop on Error功能... 578

7.7.2.29 通过增加成员盘可用容量扩容RAID.. 579

7.7.2.30 通过增加新盘扩容或迁移RAID.. 581

7.7.2.31 查询和清除PreservedCache数据... 582

7.7.2.32 升级硬盘FW... 583

7.7.2.33 手动重构RAID.. 584

7.7.2.34 收集和清除RAID控制卡日志... 585

7.7.2.35 查看/导入/清除外部配置... 586

8 Avago SAS3516. 588

8.1 概述... 588

8.2 功能... 590

8.2.1 支持RAID 0/1/5/6/10/50/60. 590

8.2.2 硬盘热备份... 591

8.2.3 硬盘热插拔... 592

8.2.4 回拷... 592

8.2.5 硬盘分条... 592

8.2.6 RAID级别迁移... 593

8.2.7 初始化... 594

8.2.8 可用容量扩展... 595

8.2.9 安全数据擦除... 595

8.2.10 写洞保护... 595

8.2.11 读写高速缓存... 596

8.2.12 数据掉电保护... 596

8.2.13 硬盘巡检... 597

8.2.14 自动S.M.A.R.T扫描... 597

8.2.15 硬盘节能... 597

8.2.16 硬盘直通... 597

8.2.17 硬盘漫游... 598

8.2.18 导入外部配置... 598

8.2.19 硬盘故障记录... 598

8.3 初始配置... 599

8.3.1 进入管理界面... 599

8.3.2 创建RAID 0. 604

8.3.3 创建RAID 1. 609

8.3.4 创建RAID 5. 615

8.3.5 创建RAID 6. 621

8.3.6 创建RAID 10. 627

8.3.7 创建RAID 50. 634

8.3.8 创建RAID 60. 641

8.3.9 设置启动项... 648

8.3.9.1 设置RAID控制卡下的启动项... 648

8.3.9.2 设置服务器的启动项... 648

8.4 常用配置... 648

8.4.1 管理热备盘... 648

8.4.1.3 配置全局热备盘... 649

8.4.1.4 配置局部热备盘... 650

8.4.1.5 删除热备盘... 651

8.4.2 设置紧急热备功能... 652

8.4.3 添加新硬盘到RAID.. 654

8.4.4 扩展Virtual Drives可用空间... 660

8.4.5 迁移RAID级别... 663

8.4.6 删除RAID.. 670

8.4.7 重构RAID.. 671

8.4.8 查看RAID控制卡属性... 672

8.4.9 导入/清除外部配置... 677

8.4.10 创建多个VD(Virtual Drive)... 681

8.4.11 设置JBOD模式... 689

8.5 故障处理... 690

8.5.1 硬盘故障... 690

8.5.1.6 硬盘故障... 690

8.5.1.7 硬盘状态为fail或prefail 691

8.5.1.8 硬盘状态为Unconfigured Bad或UBad. 692

8.5.2 RAID控制卡故障... 693

8.5.3 电容故障... 693

8.5.4 Device Manager中RAID控制卡状态显示Not Healthy. 694

8.5.4.1 The following VDs have missing disks. 695

8.5.4.2 There are offline or missing virtual drives with preserved cache. 695

8.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone  696

8.5.4.4 Memory/battery problems were detected. 698

8.5.4.5 Disabling writes to flash as the flash part has gone bad. 698

8.5.5 将Controller Mode恢复为“RAID”... 699

8.6 管理界面介绍... 700

8.6.1 进入管理界面... 700

8.6.2 Main Menu. 704

8.6.2.1 Configuration Management 705

8.6.2.2 Controller Management 709

8.6.2.3 Virtual Drive Management 717

8.6.2.4 Drive Management 725

8.6.2.5 Hardware Components. 730

8.6.3 View Server Profile. 732

8.6.4 View Foreign Configuration. 733

8.6.5 Configure. 735

8.6.6 Set Factory Defaults. 736

8.6.7 Update Firmware. 736

8.6.8 Manage MegaRAID Advanced Software Options. 738

8.6.9 Exit 739

8.7 OS命令行工具... 739

8.7.1 下载和安装StorCLI工具... 740

8.7.2 常用命令... 740

8.7.2.1 查询RAID控制卡配置信息... 740

8.7.2.2 创建和删除RAID.. 743

8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息... 747

8.7.2.4 查询和设置Patrolread参数... 748

8.7.2.5 查询和设置Spinup参数... 749

8.7.2.6 查询和设置硬盘数据擦除功能... 751

8.7.2.7 查询和设置RAID后台初始化... 753

8.7.2.8 查询和设置CacheFlush参数... 754

8.7.2.9 查询和设置物理硬盘初始化功能... 755

8.7.2.10 查询和设置RAID重构/回拷/系统巡检功能... 756

8.7.2.11 查询和设置Smart扫描周期... 757

8.7.2.12 查询和设置一致性校验参数... 758

8.7.2.13 设置热备盘... 760

8.7.2.14 设置启动项... 761

8.7.2.15 设置硬盘状态... 762

8.7.2.16 设置RAID组访问策略... 764

8.7.2.17 设置RAID组的I/O策略... 765

8.7.2.18 设置硬盘Cache状态... 766

8.7.2.19 设置RAID组的Cache读写策略... 767

8.7.2.20 设置紧急热备功能... 769

8.7.2.21 设置RAID前台初始化模式... 771

8.7.2.22 设置硬盘定位指示灯状态... 772

8.7.2.23 设置硬盘PowerSave功能... 773

8.7.2.24 设置后台资源占用率... 774

8.7.2.25 设置BIOS Stop on Error功能... 775

8.7.2.26 查询和清除PreservedCache数据... 776

8.7.2.27 通过增加成员盘可用容量扩容RAID.. 777

8.7.2.28 通过增加新盘扩容或迁移RAID.. 778

8.7.2.29 升级硬盘FW... 780

8.7.2.30 手动重构RAID.. 781

8.7.2.31 查看/导入/清除外部配置... 782

9 Avago SAS3408iMR.. 784

9.1 概述... 784

9.2 功能... 787

9.2.1 支持RAID 0/1/10. 787

9.2.2 硬盘热备份... 788

9.2.3 硬盘热插拔... 788

9.2.4 回拷... 789

9.2.5 硬盘分条... 789

9.2.6 初始化... 790

9.2.7 RAID级别迁移... 790

9.2.8 可用容量扩展... 791

9.2.9 安全数据擦除... 791

9.2.10 硬盘巡检... 791

9.2.11 自动S.M.A.R.T扫描... 792

9.2.12 硬盘节能... 792

9.2.13 硬盘直通... 792

9.2.14 硬盘漫游... 792

9.2.15 导入外部配置... 793

9.2.16 硬盘故障记录... 793

9.2.17 一致性校验... 793

9.3 初始配置... 794

9.3.1 登录管理界面... 794

9.3.2 创建RAID 0. 798

9.3.3 创建RAID 1. 803

9.3.4 创建RAID 10. 808

9.3.5 配置启动项... 814

9.4 常用配置... 814

9.4.1 管理热备盘... 814

9.4.1.1 配置全局热备盘... 815

9.4.1.2 配置局部热备盘... 816

9.4.1.3 删除热备盘... 817

9.4.2 设置紧急热备功能... 818

9.4.3 添加新硬盘到RAID.. 819

9.4.4 扩展Virtual Drives可用空间... 825

9.4.5 迁移RAID级别... 828

9.4.6 删除RAID.. 833

9.4.7 重构RAID.. 835

9.4.8 查看RAID控制卡属性... 838

9.4.9 导入/清除外部配置... 843

9.4.10 设置JBOD模式... 847

9.4.11 创建多个VD(Virtual Drive)... 848

9.4.12 查询RAID控制卡固件版本... 854

9.5 故障处理... 856

9.5.1 硬盘故障... 856

9.5.1.1 硬盘故障... 856

9.5.1.2 硬盘状态为fail或prefail 857

9.5.1.3 硬盘状态为Unconfigured Bad或UBad. 858

9.5.2 RAID控制卡故障... 859

9.5.3 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy. 859

9.5.3.1 The following VDs have missing disks. 861

9.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone  863

9.5.3.3 Disabling writes to flash as the flash part has gone bad. 864

9.6 管理界面介绍... 865

9.6.1 登录管理界面... 865

9.6.2 Main Menu. 870

9.6.2.1 Configuration Management 871

9.6.2.2 Controller Management 874

9.6.2.3 Virtual Drive Management 880

9.6.2.4 Drive Management 888

9.6.2.5 Hardware Components. 893

9.6.3 View Server Profile. 894

9.6.4 Manage Foreign Configuration. 895

9.6.5 Configure. 897

9.6.6 Set Factory Defaults. 898

9.6.7 Manage MegaRAID Advanced Software Options. 898

9.6.8 Exit 899

9.7 OS命令行工具... 900

9.7.1 下载和安装StorCLI工具... 900

9.7.2 常用命令... 901

9.7.2.1 查询RAID控制卡配置信息... 901

9.7.2.2 创建和删除RAID.. 903

9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息... 905

9.7.2.4 查询和设置Patrolread参数... 912

9.7.2.5 查询和设置Spinup参数... 914

9.7.2.6 查询和设置硬盘数据擦除功能... 916

9.7.2.7 查询和设置RAID后台初始化... 917

9.7.2.8 查询和设置物理硬盘初始化功能... 918

9.7.2.9 查询和设置RAID重构/回拷/系统巡检功能... 919

9.7.2.10 查询和设置Smart扫描周期... 920

9.7.2.11 查询和设置一致性校验参数... 921

9.7.2.12 设置热备盘... 923

9.7.2.13 设置启动项... 924

9.7.2.14 设置硬盘状态... 925

9.7.2.15 设置RAID组访问策略... 927

9.7.2.16 设置硬盘Cache状态... 928

9.7.2.17 设置紧急热备功能... 929

9.7.2.18 设置RAID前台初始化模式... 930

9.7.2.19 设置硬盘定位指示灯状态... 931

9.7.2.20 设置硬盘PowerSave功能... 932

9.7.2.21 设置后台资源占用率... 933

9.7.2.22 设置BIOS Stop on Error功能... 934

9.7.2.23 通过增加成员盘可用容量扩容RAID.. 935

9.7.2.24 通过增加新盘扩容或迁移RAID.. 936

9.7.2.25 手动重构RAID.. 938

9.7.2.26 查看/导入/清除外部配置... 939

10 Avago SAS3416iMR.. 941

10.1 概述... 941

10.2 功能... 943

10.2.1 支持RAID 0/1/10. 943

10.2.2 硬盘热备份... 944

10.2.3 硬盘热插拔... 944

10.2.4 回拷... 945

10.2.5 硬盘分条... 945

10.2.6 RAID级别迁移... 945

10.2.7 初始化... 946

10.2.8 可用容量扩展... 947

10.2.9 安全数据擦除... 947

10.2.10 硬盘巡检... 947

10.2.11 自动S.M.A.R.T扫描... 948

10.2.12 硬盘节能... 948

10.2.13 硬盘直通... 948

10.2.14 硬盘漫游... 948

10.2.15 导入外部配置... 949

10.2.16 硬盘故障记录... 949

10.3 初始配置... 949

10.3.1 登录管理界面... 950

10.3.2 创建RAID 0. 954

10.3.3 创建RAID 1. 961

10.3.4 创建RAID 10. 968

10.3.5 设置启动项... 975

10.3.5.2 设置RAID控制卡下的启动项... 975

10.3.5.3 设置服务器的启动项... 975

10.4 常用配置... 975

10.4.1 管理热备盘... 975

10.4.1.1 配置全局热备盘... 976

10.4.1.2 配置局部热备盘... 978

10.4.1.3 删除热备盘... 982

10.4.2 设置紧急热备功能... 983

10.4.3 扩展Virtual Drives可用空间... 986

10.4.4 添加新硬盘到RAID.. 989

10.4.5 迁移RAID级别... 995

10.4.6 删除RAID.. 1002

10.4.7 重构RAID.. 1004

10.4.8 查看RAID控制卡属性... 1007

10.4.9 设置JBOD模式... 1012

10.4.10 导入/清除外部配置... 1013

10.4.11 创建多个VD(Virtual Drive)... 1017

10.4.12 设置硬盘状态为JBOD或Unconfigured Good. 1024

10.5 故障处理... 1028

10.5.1 硬盘故障... 1028

10.5.1.1 硬盘故障... 1028

10.5.1.2 硬盘状态为fail或prefail 1030

10.5.1.3 硬盘状态为Unconfigured Bad或UBad. 1030

10.5.2 RAID控制卡故障... 1031

10.5.3 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy. 1032

10.5.3.1 The following VDs have missing disks. 1034

10.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone  1035

10.5.3.3 Disabling writes to flash as the flash part has gone bad. 1036

10.6 管理界面介绍... 1037

10.6.1 登录管理界面... 1037

10.6.2 Main Menu. 1042

1.                                           Configuration Management 1043

10.6.2.4 Controller Management 1047

10.6.2.5 Virtual Drive Management 1054

10.6.2.6 Drive Management 1061

10.6.2.7 Hardware Components. 1067

10.6.3 View Server Profile. 1068

10.6.4 Manage Foreign Configuration. 1069

10.6.5 Configure. 1072

10.6.6 Set Factory Defaults. 1073

10.6.7 Update Firmware. 1073

10.6.8 Manage MegaRAID Advanced Software Options. 1075

10.6.9 Exit 1076

10.7 OS命令行工具... 1076

1.                                           下载和安装StorCLI工具... 1077

10.7.2 常用命令... 1077

10.7.2.1 查询RAID控制卡配置信息... 1077

10.7.2.2 创建和删除RAID.. 1080

10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息... 1082

10.7.2.4 查询和设置Patrolread参数... 1089

10.7.2.5 查询和设置Spinup参数... 1091

10.7.2.6 查询和设置硬盘数据擦除功能... 1092

10.7.2.7 查询和设置RAID后台初始化... 1094

10.7.2.8 查询和设置物理硬盘初始化功能... 1095

10.7.2.9 查询和设置RAID重构/回拷/系统巡检功能... 1096

10.7.2.10 查询和设置Smart扫描周期... 1097

10.7.2.11 查询和设置一致性校验参数... 1098

10.7.2.12 设置热备盘... 1099

10.7.2.13 设置启动项... 1100

10.7.2.14 设置硬盘状态... 1101

10.7.2.15 设置RAID组访问策略... 1103

10.7.2.16 设置硬盘Cache状态... 1104

10.7.2.17 设置紧急热备功能... 1105

10.7.2.18 设置RAID前台初始化模式... 1106

10.7.2.19 设置硬盘直通功能... 1107

10.7.2.20 设置硬盘定位指示灯状态... 1108

10.7.2.21 设置硬盘PowerSave功能... 1109

10.7.2.22 设置后台资源占用率... 1110

10.7.2.23 设置BIOS Stop on Error功能... 1111

10.7.2.24 通过增加成员盘可用容量扩容RAID.. 1112

10.7.2.25 通过增加新盘扩容或迁移RAID.. 1114

10.7.2.26 手动重构RAID.. 1115

10.7.2.27 查看/导入/清除外部配置... 1117

11 MSCC SmartRAID 3152-8i 1119

11.1 概述... 1119

11.2 硬盘状态... 1120

11.3 功能... 1121

11.3.1 支持多种RAID级别... 1121

11.3.2 支持多种工作模式... 1122

11.3.3 硬盘热备份... 1122

11.3.4 硬盘热插拔... 1123

11.3.5 重构... 1123

11.3.6 硬盘分条... 1123

11.3.7 硬盘直通... 1124

11.3.8 擦除硬盘数据... 1124

11.3.9 容量扩展... 1124

11.3.10 读写高速缓存... 1125

11.3.11 数据掉电保护... 1125

11.3.12 外部配置导入... 1125

11.4 初始配置... 1125

11.4.1 登录管理界面... 1126

11.4.2 创建RAID 0. 1129

11.4.3 创建RAID 1. 1133

11.4.4 创建RAID 1ADM... 1138

11.4.5 创建RAID 10. 1142

11.4.6 创建RAID 10ADM... 1147

11.4.7 创建RAID 5. 1152

11.4.8 创建RAID 50. 1156

11.4.9 创建RAID 6. 1162

11.4.10 创建RAID 60. 1167

11.5 常用任务... 1173

11.5.1 查看/修改Array属性... 1173

11.5.2 配置热备盘... 1179

11.5.3 删除热备盘... 1182

11.5.4 删除Array. 1184

11.5.5 设置RAID控制卡工作模式... 1186

11.5.6 管理maxCache Array. 1187

11.5.6.1 创建maxcache Array. 1187

11.5.6.2 修改maxCache Array属性... 1192

11.5.6.3 删除maxCache Array. 1194

11.5.7 设置物理硬盘Cache. 1197

11.5.8 查询RAID控制卡固件版本... 1200

11.5.9 擦除硬盘... 1201

11.6 故障处理... 1204

11.6.1 硬盘故障... 1204

11.6.2 RAID控制卡故障... 1205

11.6.3 电容故障... 1206

11.7 管理界面介绍... 1207

11.7.1 登录管理界面... 1207

11.7.2 Controller Information. 1209

11.7.3 Configure Controller Settings. 1212

11.7.3.1 Modify Controller Settings. 1213

11.7.3.2 Advanced Controller Settings. 1216

11.7.3.3 Clear Configuration. 1218

11.7.3.4 Backup Power Source. 1218

11.7.3.5 Manage Power Settings. 1219

11.7.3.6 Configure Controller Port Mode. 1221

11.7.4 Array Configuration. 1222

11.7.5 Disk Utilities. 1223

11.7.6 Set Bootable Device(s) for Legacy Boot Mode. 1228

11.7.7 Administration. 1229

11.8 OS命令行工具... 1230

11.8.1 下载和安装ARCCONF工具... 1230

11.8.2 常用命令... 1230

11.8.2.1 查询RAID控制卡的基本信息... 1230

11.8.2.2 查询物理硬盘、Array、LD、maxCache等相关信息... 1232

11.8.2.3 查询RAID控制卡的FW和驱动版本... 1235

11.8.2.4 升级RAID控制卡FW... 1235

11.8.2.5 设置RAID控制卡工作模式... 1236

11.8.2.6 查询所有适用arcconf工具的RAID控制卡... 1237

11.8.2.7 设置启动盘... 1238

11.8.2.8 设置热备模式... 1239

11.8.2.9 设置硬盘定位指示灯... 1240

11.8.2.10 修改条带大小... 1241

11.8.2.11 通过增加成员盘可用容量扩容RAID.. 1242

11.8.2.12 通过增加新盘进行扩容... 1243

11.8.2.13 迁移RAID级别... 1244

11.8.2.14 为LD设置热备盘... 1246

11.8.2.15 设置后台任务优先级... 1247

11.8.2.16 使能和关闭LD的cache功能... 1248

11.8.2.17 设置后台一致性校验的并行个数... 1249

11.8.2.18 创建和删除RAID.. 1249

11.8.2.19 创建MaxCache. 1252

11.8.2.20 设置RAID控制卡的读写比例... 1253

11.8.2.21 无电容状态下使用cache. 1253

11.8.2.22 使能一致性校验的修复策略... 1254

11.8.2.23 使能一致性校验生成调试信息并发出通知... 1255

11.8.2.24 关闭一致性校验... 1255

11.8.2.25 查询和设置硬盘写Cache策略... 1256

11.8.2.26 收集FW日志... 1257

12 MSCC SmartHBA 2100-8i 1259

12.1 概述... 1259

12.2 硬盘状态... 1260

12.3 功能... 1261

12.3.1 支持多种RAID级别... 1261

12.3.2 支持多种工作模式... 1262

12.3.3 硬盘热备份... 1262

12.3.4 硬盘热插拔... 1263

12.3.5 重构... 1263

12.3.6 硬盘分条... 1263

12.3.7 硬盘直通... 1263

12.3.8 擦除硬盘数据... 1264

12.3.9 外部配置导入... 1264

12.4 初始配置... 1264

12.4.1 登录管理界面... 1264

12.4.2 创建RAID 0. 1267

12.4.3 创建RAID 1. 1272

12.4.4 创建RAID 10. 1276

12.5 常用任务... 1281

12.5.1 查看Array属性... 1281

12.5.2 配置热备盘... 1285

12.5.3 删除热备盘... 1288

12.5.4 删除Array. 1290

12.5.5 设置RAID控制卡工作模式... 1292

12.5.6 设置物理硬盘Cache. 1293

12.5.7 查询RAID控制卡固件版本... 1297

12.6 故障处理... 1298

12.6.1 硬盘故障... 1298

12.6.2 RAID控制卡故障... 1299

12.7 管理界面介绍... 1300

12.7.1 登录管理界面... 1300

12.7.2 Controller Information. 1302

12.7.3 Configure Controller Settings. 1304

12.7.3.1 Modify Controller Settings. 1305

12.7.3.2 Advanced Controller Settings. 1308

12.7.3.3 Clear Configuration. 1310

12.7.3.4 Manage Power Settings. 1311

12.7.3.5 BMC Settings. 1312

12.7.3.6 Configure Controller Port Mode. 1313

12.7.4 Array Configuration. 1314

12.7.5 Disk Utilities. 1315

12.7.6 Set Bootable Device(s) for Legacy Boot Mode. 1317

12.7.7 Administration. 1318

12.8 OS命令行工具... 1319

12.8.1 下载和安装ARCCONF工具... 1319

12.8.2 常用命令... 1319

12.8.2.1 查询RAID控制卡的基本信息... 1319

12.8.2.2 查询物理硬盘、Array、LD等相关信息... 1321

12.8.2.3 查询RAID控制卡的FW和驱动版本... 1325

12.8.2.4 升级RAID控制卡FW... 1326

12.8.2.5 设置RAID控制卡工作模式... 1326

12.8.2.6 查询所有适用arcconf工具的RAID控制卡... 1329

12.8.2.7 设置启动盘... 1329

12.8.2.8 设置热备模式... 1330

12.8.2.9 设置硬盘定位指示灯... 1331

12.8.2.10 为LD设置热备盘... 1332

12.8.2.11 设置后台一致性校验的并行个数... 1333

12.8.2.12 创建和删除RAID.. 1334

12.8.2.13 使能一致性校验的修复策略... 1336

12.8.2.14 使能一致性校验生成调试信息并发出通知... 1336

12.8.2.15 关闭一致性校验... 1337

12.8.2.16 查询和设置硬盘写Cache策略... 1338

12.8.2.17 收集FW日志... 1339

13 Avago MegaRAID SAS 9460-8i 1341

13.1 概述... 1341

13.2 功能... 1344

13.2.1 支持RAID 0/1/5/6/10/50/60. 1344

13.2.2 硬盘热备份... 1345

13.2.3 硬盘热插拔... 1346

13.2.4 回拷... 1346

13.2.5 硬盘分条... 1346

13.2.6 RAID级别迁移... 1347

13.2.7 初始化... 1347

13.2.8 可用容量扩展... 1348

13.2.9 安全数据擦除... 1349

13.2.10 写洞保护... 1349

13.2.11 读写高速缓存... 1349

13.2.12 数据掉电保护... 1350

13.2.13 硬盘巡检... 1350

13.2.14 自动S.M.A.R.T扫描... 1351

13.2.15 硬盘节能... 1351

13.2.16 硬盘直通... 1351

13.2.17 硬盘漫游... 1351

13.2.18 导入外部配置... 1352

13.2.19 硬盘故障记录... 1352

13.2.20 一致性校验... 1352

13.3 初始配置... 1353

13.3.1 进入管理界面... 1353

13.3.2 创建RAID 0. 1357

13.3.3 创建RAID 1. 1362

13.3.4 创建RAID 5. 1368

13.3.5 创建RAID 6. 1374

13.3.6 创建RAID 10. 1380

13.3.7 创建RAID 50. 1387

13.3.8 创建RAID 60. 1393

13.3.9 配置启动项... 1400

13.4 常用配置... 1400

13.4.1 管理热备盘... 1400

13.4.1.1 配置全局热备盘... 1401

13.4.1.2 配置局部热备盘... 1402

13.4.1.3 删除热备盘... 1403

13.4.2 设置紧急热备功能... 1404

13.4.3 添加新硬盘到RAID.. 1406

13.4.4 扩展Virtual Drives可用空间... 1412

13.4.5 迁移RAID级别... 1414

13.4.6 删除RAID.. 1420

13.4.7 重构RAID.. 1421

13.4.8 查看RAID控制卡属性... 1422

13.4.9 导入/清除外部配置... 1426

13.4.10 设置JBOD模式... 1430

13.4.11 创建多个VD(Virtual Drive)... 1431

13.4.12 查询RAID控制卡固件版本... 1437

13.5 故障处理... 1439

13.5.1 硬盘故障... 1439

13.5.1.1 硬盘故障... 1439

13.5.1.2 硬盘状态为fail或prefail 1440

13.5.1.3 硬盘状态为Unconfigured Bad或UBad. 1441

13.5.2 RAID控制卡故障... 1442

13.5.3 电容故障... 1442

13.5.4 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy. 1443

13.5.4.1 The following VDs have missing disks. 1446

13.5.4.2 There are offline or missing virtual drives with preserved cache. 1447

13.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone  1450

13.5.4.4 Memory/battery problems were detected / Unexpected power-loss occurred. 1451

13.5.4.5 Disabling writes to flash as the flash part has gone bad. 1452

13.5.5 将Controller Mode恢复为“RAID”... 1453

13.6 管理界面介绍... 1457

13.6.1 进入管理界面... 1457

13.6.2 Main Menu. 1461

1.                                           Configuration Management 1462

13.6.2.6 Controller Management 1467

13.6.2.7 Virtual Drive Management 1473

13.6.2.8 Drive Management 1480

13.6.2.9 Hardware Components. 1485

13.6.3 View Server Profile. 1487

13.6.4 View Foreign Configuration. 1488

13.6.5 Configure. 1491

13.6.6 Set Factory Defaults. 1492

13.6.7 Manage MegaRAID Advanced Software Options. 1492

13.6.8 Exit 1493

13.7 OS命令行工具... 1494

13.7.1 下载和安装StorCLI工具... 1494

13.7.2 常用命令... 1495

13.7.2.1 查询RAID控制卡配置信息... 1495

13.7.2.2 创建和删除RAID.. 1497

13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息... 1500

13.7.2.4 查询超级电容的相关信息... 1507

13.7.2.5 查询和设置Patrolread参数... 1509

13.7.2.6 查询和设置Spinup参数... 1511

13.7.2.7 查询和设置硬盘数据擦除功能... 1513

13.7.2.8 查询和设置RAID后台初始化... 1514

13.7.2.9 查询和设置CacheFlush参数... 1515

13.7.2.10 查询和设置物理硬盘初始化功能... 1516

13.7.2.11 查询和设置RAID重构/回拷/系统巡检功能... 1517

13.7.2.12 查询和设置Smart扫描周期... 1518

13.7.2.13 查询和设置一致性校验参数... 1519

13.7.2.14 设置热备盘... 1520

13.7.2.15 设置启动项... 1521

13.7.2.16 设置硬盘状态... 1522

13.7.2.17 设置RAID组访问策略... 1524

13.7.2.18 设置硬盘Cache状态... 1525

13.7.2.19 设置RAID组的Cache读写策略... 1526

13.7.2.20 设置紧急热备功能... 1528

13.7.2.21 设置RAID前台初始化模式... 1529

13.7.2.22 设置硬盘直通功能... 1530

13.7.2.23 设置硬盘定位指示灯状态... 1531

13.7.2.24 设置硬盘PowerSave功能... 1532

13.7.2.25 设置后台资源占用率... 1533

13.7.2.26 设置BIOS Stop on Error功能... 1534

13.7.2.27 通过增加成员盘可用容量扩容RAID.. 1534

13.7.2.28 通过增加新盘扩容或迁移RAID.. 1536

13.7.2.29 查询和清除PreservedCache数据... 1538

13.7.2.30 升级硬盘FW... 1538

13.7.2.31 手动重构RAID.. 1539

13.7.2.32 收集和清除RAID控制卡日志... 1541

13.7.2.33 查看/导入/清除外部配置... 1542

14 Avago MegaRAID SAS 9440-8i 1544

14.1 概述... 1544

14.2 功能... 1546

14.2.1 支持RAID 0/1/10. 1546

14.2.2 硬盘热备份... 1547

14.2.3 硬盘热插拔... 1548

14.2.4 回拷... 1548

14.2.5 硬盘分条... 1548

14.2.6 初始化... 1549

14.2.7 RAID级别迁移... 1549

14.2.8 可用容量扩展... 1550

14.2.9 安全数据擦除... 1550

14.2.10 硬盘巡检... 1551

14.2.11 自动S.M.A.R.T扫描... 1551

14.2.12 硬盘节能... 1551

14.2.13 硬盘直通... 1551

14.2.14 硬盘漫游... 1552

14.2.15 导入外部配置... 1552

14.2.16 硬盘故障记录... 1552

14.2.17 一致性校验... 1553

14.3 初始配置... 1553

14.3.1 登录管理界面... 1553

14.3.2 创建RAID 0. 1558

14.3.3 创建RAID 1. 1563

14.3.4 创建RAID 10. 1568

14.3.5 配置启动项... 1574

14.4 常用配置... 1574

14.4.1 管理热备盘... 1574

14.4.1.1 配置全局热备盘... 1575

14.4.1.2 配置局部热备盘... 1576

14.4.1.3 删除热备盘... 1577

14.4.2 设置紧急热备功能... 1578

14.4.3 添加新硬盘到RAID.. 1579

14.4.4 扩展Virtual Drives可用空间... 1585

14.4.5 迁移RAID级别... 1588

14.4.6 删除RAID.. 1593

14.4.7 重构RAID.. 1595

14.4.8 查看RAID控制卡属性... 1595

14.4.9 导入/清除外部配置... 1600

14.4.10 设置JBOD模式... 1604

14.4.11 创建多个VD(Virtual Drive)... 1604

14.4.12 查询RAID控制卡固件版本... 1611

14.5 故障处理... 1612

14.5.1 硬盘故障... 1612

14.5.1.1 硬盘故障... 1612

14.5.1.2 硬盘状态为fail或prefail 1614

14.5.1.3 硬盘状态为Unconfigured Bad或UBad. 1614

14.5.2 RAID控制卡故障... 1615

14.5.3 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy. 1615

14.5.3.1 The following VDs have missing disks. 1618

14.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone  1619

14.5.3.3 Disabling writes to flash as the flash part has gone bad. 1620

14.6 管理界面介绍... 1621

1.                                           登录管理界面... 1621

14.6.2 Main Menu. 1626

14.6.2.1 Configuration Management 1627

14.6.2.2 Controller Management 1630

14.6.2.3 Virtual Drive Management 1637

14.6.2.4 Drive Management 1644

14.6.2.5 Hardware Components. 1650

14.6.3 View Server Profile. 1651

14.6.4 Manage Foreign Configuration. 1652

14.6.5 Configure. 1654

14.6.6 Set Factory Defaults. 1656

14.6.7 Manage MegaRAID Advanced Software Options. 1656

14.6.8 Exit 1657

14.7 OS命令行工具... 1658

14.7.1 下载和安装StorCLI工具... 1658

14.7.2 常用命令... 1659

14.7.2.1 查询RAID控制卡配置信息... 1659

14.7.2.2 查询和设置Spinup参数... 1661

14.7.2.3 设置硬盘PowerSave功能... 1663

14.7.2.4 查询和设置物理硬盘初始化功能... 1664

14.7.2.5 查询和设置硬盘数据擦除功能... 1665

14.7.2.6 设置后台资源占用率... 1666

14.7.2.7 设置BIOS Stop on Error功能... 1667

14.7.2.8 创建和删除RAID.. 1668

14.7.2.9 设置RAID前台初始化... 1670

14.7.2.10 查询和设置RAID后台初始化... 1671

14.7.2.11 设置启动项... 1672

14.7.2.12 设置紧急热备功能... 1674

14.7.2.13 设置热备盘... 1675

14.7.2.14 查询和设置RAID重构/回拷/系统巡检功能... 1676

14.7.2.15 设置Smart扫描周期... 1677

14.7.2.16 通过增加成员盘可用容量扩容RAID.. 1678

14.7.2.17 通过增加新盘扩容或迁移RAID.. 1679

14.7.2.18 设置一致性校验参数... 1681

14.7.2.19 查询和设置Patrolread参数... 1682

14.7.2.20 设置硬盘状态... 1684

14.7.2.21 设置硬盘定位指示灯状态... 1686

14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息... 1687

14.7.2.23 手动重构RAID.. 1694

14.7.2.24 查看/导入/清除外部配置... 1695

15 Avago MegaRAID SAS 9460-16i 1697

15.1 概述... 1697

15.2 功能... 1700

15.2.1 支持RAID 0/1/5/6/10/50/60. 1700

15.2.2 硬盘热备份... 1701

15.2.3 硬盘热插拔... 1701

15.2.4 回拷... 1702

15.2.5 硬盘分条... 1702

15.2.6 RAID级别迁移... 1703

15.2.7 初始化... 1703

15.2.8 可用容量扩展... 1704

15.2.9 安全数据擦除... 1704

15.2.10 写洞保护... 1705

15.2.11 读写高速缓存... 1705

15.2.12 数据掉电保护... 1705

15.2.13 硬盘巡检... 1706

15.2.14 自动S.M.A.R.T扫描... 1706

15.2.15 硬盘节能... 1707

15.2.16 硬盘直通... 1707

15.2.17 硬盘漫游... 1707

15.2.18 导入外部配置... 1708

15.2.19 硬盘故障记录... 1708

15.3 初始配置... 1708

15.3.1 登录管理界面... 1708

15.3.2 创建RAID 0. 1713

15.3.3 创建RAID 1. 1718

15.3.4 创建RAID 5. 1724

15.3.5 创建RAID 6. 1730

15.3.6 创建RAID 10. 1736

15.3.7 创建RAID 50. 1743

15.3.8 创建RAID 60. 1749

15.3.9 设置启动项... 1755

15.3.9.1 设置RAID控制卡下的启动项... 1755

15.3.9.2 设置服务器的启动项... 1755

15.4 常用配置... 1755

15.4.1 管理热备盘... 1755

15.4.1.1 配置全局热备盘... 1756

15.4.1.2 配置局部热备盘... 1757

15.4.1.3 删除热备盘... 1758

15.4.2 设置紧急热备功能... 1759

15.4.3 添加新硬盘到RAID.. 1761

15.4.4 扩展Virtual Drives可用空间... 1767

15.4.5 迁移RAID级别... 1770

15.4.6 删除RAID.. 1776

15.4.7 重构RAID.. 1777

15.4.8 查看RAID控制卡属性... 1778

15.4.9 导入/清除外部配置... 1784

15.4.10 创建多个VD(Virtual Drive)... 1787

15.4.11 设置JBOD模式... 1795

15.4.12 查询RAID控制卡固件版本... 1796

15.5 故障处理... 1798

15.5.1 硬盘故障... 1798

15.5.1.1 硬盘故障... 1798

15.5.1.2 硬盘状态为fail或prefail 1799

15.5.1.3 硬盘状态为Unconfigured Bad或UBad. 1800

15.5.2 RAID控制卡故障... 1801

15.5.3 电容故障... 1801

15.5.4 Device Manager中RAID控制卡状态显示Not Healthy. 1802

15.5.4.1 The following VDs have missing disks. 1803

15.5.4.2 There are offline or missing virtual drives with preserved cache. 1803

15.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone  1804

15.5.4.4 Memory/battery problems were detected. 1806

15.5.4.5 Disabling writes to flash as the flash part has gone bad. 1806

15.6 管理界面介绍... 1807

15.6.1 登录管理界面... 1807

15.6.2 Main Menu. 1812

15.6.2.1 Configuration Management 1813

15.6.2.2 Controller Management 1817

15.6.2.3 Virtual Drive Management 1825

15.6.2.4 Drive Management 1833

15.6.2.5 Hardware Components. 1838

15.6.3 View Server Profile. 1839

15.6.4 Manage Foreign Configuration. 1840

15.6.5 Configure. 1842

15.6.6 Set Factory Defaults. 1843

15.6.7 Update Firmware. 1843

15.6.8 Manage MegaRAID Advanced Software Options. 1845

15.6.9 Exit 1846

15.7 OS命令行工具... 1846

1.                                           下载和安装StorCLI工具... 1847

15.7.2 常用命令... 1847

15.7.2.1 查询RAID控制卡配置信息... 1847

15.7.2.2 创建和删除RAID.. 1850

15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息... 1853

15.7.2.4 查询和设置Patrolread参数... 1854

15.7.2.5 查询和设置Spinup参数... 1855

15.7.2.6 查询和设置硬盘数据擦除功能... 1857

15.7.2.7 查询和设置RAID后台初始化... 1859

15.7.2.8 查询和设置CacheFlush参数... 1860

15.7.2.9 查询和设置物理硬盘初始化功能... 1861

15.7.2.10 查询和设置RAID重构/回拷/系统巡检功能... 1862

15.7.2.11 查询和设置Smart扫描周期... 1863

15.7.2.12 查询和设置一致性校验参数... 1864

15.7.2.13 设置热备盘... 1866

15.7.2.14 设置启动项... 1867

15.7.2.15 设置硬盘状态... 1868

15.7.2.16 设置RAID组访问策略... 1870

15.7.2.17 设置硬盘Cache状态... 1871

15.7.2.18 设置紧急热备功能... 1872

15.7.2.19 设置硬盘PowerSave功能... 1873

15.7.2.20 设置后台资源占用率... 1875

15.7.2.21 设置BIOS Stop on Error功能... 1876

15.7.2.22 设置RAID组的Cache读写策略... 1877

15.7.2.23 设置RAID前台初始化模式... 1879

15.7.2.24 设置硬盘定位指示灯状态... 1880

15.7.2.25 通过增加成员盘可用容量扩容RAID.. 1881

15.7.2.26 通过增加新盘扩容或迁移RAID.. 1882

15.7.2.27 查询和清除PreservedCache数据... 1884

15.7.2.28 查看/导入/清除外部配置... 1885

16 BROADCOM MegaRAID SAS 9560-8i 1887

16.1 概述... 1887

16.2 功能... 1890

16.2.1 支持RAID 0/1/5/6/10/50/60. 1890

16.2.2 硬盘热备份... 1891

16.2.3 硬盘热插拔... 1891

16.2.4 回拷... 1892

16.2.5 硬盘分条... 1892

16.2.6 RAID级别迁移... 1892

16.2.7 初始化... 1893

16.2.8 可用容量扩展... 1894

16.2.9 安全数据擦除... 1894

16.2.10 写洞保护(Write hole)... 1895

16.2.11 读写高速缓存... 1895

16.2.12 数据掉电保护... 1895

16.2.13 硬盘巡检... 1896

16.2.14 自动S.M.A.R.T扫描... 1896

16.2.15 硬盘节能... 1896

16.2.16 磁盘漫游... 1897

16.2.17 导入外部配置... 1897

16.2.18 硬盘故障记录... 1897

16.2.19 一致性校验... 1898

16.3 初始配置... 1898

16.3.1 登录管理界面... 1898

16.3.2 创建RAID 0. 1903

16.3.3 创建RAID 1. 1909

16.3.4 创建RAID 5. 1915

16.3.5 创建RAID 6. 1921

16.3.6 创建RAID 10. 1927

16.3.7 创建RAID 50. 1934

16.3.8 创建RAID 60. 1941

16.3.9 设置启动项... 1947

16.4 常用配置... 1948

16.4.1 管理热备盘... 1948

16.4.1.1 配置全局热备盘... 1948

16.4.1.2 配置局部热备盘... 1949

16.4.1.3 删除热备盘... 1951

16.4.2 设置紧急热备功能... 1952

16.4.3 添加新硬盘到RAID.. 1954

16.4.4 扩展Virtual Drives可用空间... 1959

16.4.5 迁移RAID级别... 1962

16.4.6 删除RAID组... 1968

16.4.7 重构RAID组... 1969

16.4.8 查看RAID控制卡属性... 1970

16.4.9 导入/清除外部配置... 1975

16.4.10 创建多个VD(Virtual Drive)... 1979

16.4.11 查询RAID控制卡固件版本... 1986

16.5 故障处理... 1988

16.5.1 硬盘故障... 1988

16.5.1.1 硬盘故障... 1988

16.5.1.2 硬盘状态为fail或prefail 1990

16.5.1.3 硬盘状态为Unconfigured Bad或UBad. 1990

16.5.2 RAID控制卡故障... 1991

16.5.3 电容故障... 1991

16.5.4 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy. 1992

1.                                           The following VDs have missing disks. 1995

16.3.1.4 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone  1996

16.4 管理界面介绍... 1998

16.4.1 登录管理界面... 1998

16.4.2 Main Menu. 2002

16.4.2.1 Configuration Management 2003

16.4.2.2 Controller Management 2006

16.4.2.3 Virtual Drive Management 2013

16.4.2.4 Drive Management 2019

16.4.2.5 Hardware Components. 2025

16.4.3 View Server Profile. 2029

16.4.4 View Foreign Configuration. 2030

16.4.5 Configure. 2032

16.4.6 Set Factory Defaults. 2033

16.4.7 Manage MegaRAID Advanced Software Options. 2033

16.4.8 Exit 2034

16.5 OS命令行工具... 2035

16.5.1 下载和安装StorCLI工具... 2035

16.5.2 常用命令... 2036

16.5.2.1 查询RAID控制卡配置信息... 2036

16.5.2.2 查询和设置Spin up参数... 2040

16.5.2.3 查询和设置Spin down参数... 2042

16.5.2.4 设置硬盘PowerSave功能... 2043

16.5.2.5 查询和设置物理硬盘初始化功能... 2044

16.5.2.6 查询和设置硬盘数据擦除功能... 2046

16.5.2.7 设置后台资源占用率... 2047

16.5.2.8 设置BIOS Stop on Error功能... 2048

16.5.2.9 创建和删除RAID.. 2049

16.5.2.10 设置RAID组的Cache读写属性... 2053

16.5.2.11 设置RAID访问策略... 2054

16.5.2.12 设置RAID前台初始化... 2055

16.5.2.13 查询和设置RAID后台初始化... 2056

16.5.2.14 设置启动项... 2057

16.5.2.15 设置紧急热备功能... 2059

16.5.2.16 设置热备盘... 2060

16.5.2.17 查询和设置RAID重构/回拷/系统巡检功能... 2061

16.5.2.18 设置SMART扫描周期... 2062

16.5.2.19 通过增加成员盘可用容量扩容RAID.. 2063

16.5.2.20 通过增加新盘扩容或迁移RAID.. 2064

16.5.2.21 设置一致性校验参数... 2066

16.5.2.22 查询和设置Patrol read参数... 2068

16.5.2.23 查询和设置Cache Flush参数... 2070

16.5.2.24 设置硬盘状态... 2071

16.5.2.25 设置硬盘点灯... 2073

16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息... 2074

16.5.2.27 查询超级电容的相关信息... 2081

16.5.2.28 升级硬盘FW... 2084

16.5.2.29 手动重构RAID.. 2085

16.5.2.30 设置硬盘直通功能... 2086

16.5.2.31 收集和清除RAID控制卡日志... 2087

16.5.2.32 查询和设置bootwithpinnedcache参数... 2089

A 附录... 2091

 


前言

概述

本文档为维护服务器的人员编写。介绍H3C UniServer R4960 G5服务器 RAID控制卡的外观及特性、如何配置RAID、如何安装驱动软件等信息。

读者对象

本文档主要适用于以下人员:

l     企业管理员

l     企业终端用户

本文档认定读者对服务器产品有足够的了解,拥有足够的培训知识,在维护过程中不会造成人身伤害或产品损坏。

符号约定

在本文中可能出现下列标志,它们所代表的含义如下。

符号

说明

表示如不避免则将会导致死亡或严重伤害的具有高等级风险的危害。

表示如不避免则可能导致死亡或严重伤害的具有中等级风险的危害。

表示如不避免则可能导致轻微或中度伤害的具有低等级风险的危害。

用于传递设备或环境安全警示信息。如不避免则可能会导致设备损坏、数据丢失、设备性能降低或其它不可预知的结果。

“须知”不涉及人身伤害。

对正文中重点信息的补充说明。

“说明”不是安全警示信息,不涉及人身、设备及环境伤害信息。


1 RAID基本概念

1.1  硬盘组和虚拟磁盘

1.2  RAID级别介绍

1.3  常见功能

1.1 硬盘组和虚拟磁盘

由于现代数据中心业务量的与日俱增,单台服务器上需要运行的数据也日益增多。当单个物理硬盘在容量和安全性上不足以支持系统业务时,就需要将多个硬盘以某种特定方式组合起来,对外作为一个可见的硬盘来使用,才可满足实际需要。硬盘组,就是将一组物理硬盘组合起来,作为一个整体对外体现,是虚拟磁盘的基础。

虚拟磁盘,即使用硬盘组划分出来的连续的数据存储单元,相当于一个个独立的硬盘,通过一定的配置,使其具有比单个物理硬盘更大的容量,及更高的安全性和数据冗余性。

一个虚拟磁盘可以是:

l     一个完整的硬盘组。

l     多个完整的硬盘组。

l     一个硬盘组的一部分。

l     多个硬盘组的一部分(每个硬盘组划分一部分,共同组成虚拟磁盘)。

在下文的描述中:

l     硬盘组一般会表述为“Drive Group”(简称“DG”)、“Array”、“RAID组”。

l     虚拟磁盘一般会表述为“Virtual Drive”、“Virtual Disk”(简称“VD”)、“Volume”、“Logical Device”(简称“LD”)等。

1.2 RAID级别介绍

RAID(Redundant Array of Independent Disks)是将多块物理硬盘通过RAID控制器组合成虚拟的单块大容量硬盘使用,从而提供比单个硬盘更高的存储性能、更高的I/O性能及可靠性。

说明

RAID控制卡仅在EFI或UEFI模式下支持安全启动,并使用BIOS提供的安全认证机制。

1.2.1 RAID 0

RAID 0又称为条带化(Stripe)或分条(Striping),代表了所有RAID级别中最高的存储性能。RAID 0提高存储性能的原理是把连续的数据分散到多个硬盘上存取。这样,当系统有数据请求时就可以在多个硬盘上并行执行,每个硬盘执行属于它自己的那部分数据请求。这种数据上的并行操作可以充分利用总线的带宽,显著提高硬盘整体读写性能。但由于其没有数据冗余,无法保护数据的安全性,只能适用于I/O速率要求高,但数据安全性要求低的场合。

处理流程

图1-1所示,系统向三块硬盘组成的逻辑硬盘(RAID 0硬盘组)发出的I/O数据请求被转化为三项操作,其中的每一项操作都对应于一块物理硬盘。

通过建立RAID 0,原先顺序的数据请求被分散到所有的三块硬盘中同时执行。

三块硬盘的并行操作在理论上使同一时间内硬盘读写速度提升了3倍。虽然由于总线带宽等多种因素的影响,实际的提升速率会低于理论值,但是大量数据并行传输与串行传输比较,提速效果显著。

图1-1 RAID 0数据存储原理

 

1.2.2 RAID 1

RAID 1又称镜像(Mirror或Mirroring),即每个工作盘都有一个镜像盘,每次写数据时必须同时写入镜像盘,读数据时同时从工作盘和镜像盘读出。当更换故障盘后,数据可以重构,恢复工作盘正确数据。RAID 1可靠性高,但其有效容量减小到总容量一半,因此常用于对容错要求较高的应用场合,如财政、金融等领域。

处理流程

图1-2所示,系统向两块硬盘组成的逻辑硬盘(RAID 1硬盘组)发出I/O数据请求。

l     向硬盘Drive 0写入数据时,系统会同时把用户写入Drive 0的数据自动复制到Drive 1上。

l     读取数据时,系统同时从Drive 0和Drive 1读取。

图1-2 RAID 1数据存储原理

 

1.2.3 RAID 1ADM

说明

MSCC SmartRAID 3152-8i在FW版本4.72后将RAID 1ADM更名为RAID 1Triple。

RAID 1ADM的每个工作盘都有两个镜像盘,每次写数据时必须同时写入镜像盘,读数据时同时从工作盘和镜像盘读出。当更换故障盘后,数据可以重构,恢复工作盘正确数据。RAID 1ADM可靠性比RAID 1高,但其有效容量减小到总容量的三分之一,因此常用于对容错要求较高的应用场合,如财政、金融等领域。

处理流程

图1-3所示,系统向三块硬盘组成的逻辑硬盘(RAID 1ADM硬盘组)发出I/O数据请求。

l     向硬盘Drive 0写入数据时,系统会同时把用户写入Drive 0的数据自动复制到Drive 1和Drive 2上。

l     读取数据时,系统同时从Drive 0、Drive 1和Drive 2读取。

图1-3 RAID 1ADM数据存储原理

 

1.2.4 RAID 5

RAID 5是一种存储性能、数据安全和存储成本兼顾的存储解决方案。为保障存储数据的可靠性,采用循环冗余校验方式,并将校验数据分散存储在RAID的各成员盘上。当RAID的某个成员盘出现故障时,通过其他成员盘上的数据可以重新构建故障硬盘上的数据。RAID 5既适用于大数据量的操作,也适用于各种小数据的事务处理,是一种快速、大容量和容错分布合理的磁盘阵列。

处理流程

如图1-4所示,PA为A0、A1和A2的奇偶校验信息,PB为B0、B1和B2 的奇偶校验信息,以此类推。

RAID 5不对存储的数据进行备份,而是把数据和相对应的奇偶校验信息存储到成员盘上,并且奇偶校验信息和相对应的数据分别存储于不同的硬盘上。当RAID 5的一个硬盘数据发生损坏后,利用剩下的数据和相应的奇偶校验信息可以恢复被损坏的数据。

RAID 5可以理解为是RAID 0和RAID 1的折衷方案:

l     RAID 5可以为系统提供数据安全保障,但保障程度要比RAID 1低而硬盘空间利用率要比RAID 1高,存储成本相对较低。

l     RAID 5具有较RAID 0略低的数据读写速度,但写性能比写入单个硬盘时要高。

图1-4 RAID 5数据存储原理

 

1.2.5 RAID 6

在RAID 5的基础上,RAID 6增加了第二个独立的奇偶校验信息块。两个独立的奇偶系统使用不同的算法,数据的可靠性非常高,即使两块硬盘同时失效也不会影响数据的使用。但RAID 6需要分配给奇偶校验信息更大的硬盘空间,相对于RAID 5有更大的“写损失”,因此“写性能”较差。

处理流程

图1-5所示,PA为数据块A0、A1、A2的第一个校验信息块,QA为第二个校验信息块;PB为数据块B0、B1、B2 的第一个校验信息框,QB为第二个校验信息块,以此类推。

数据块和校验块一起分散存储到RAID 6的各个成员盘上。当任意一个或两个成员硬盘出现故障时,控制器可以从其他处于正常状态的硬盘上重新恢复或生成丢失的数据而不影响数据的可用性。

图1-5 RAID 6数据存储原理

 

1.2.6 RAID 10

RAID 10是将镜像和条带进行两级组合的RAID级别,即RAID 1+RAID 0的组合形式,第一级是RAID 1,第二级是RAID 0。RAID 10是存储性能和数据安全兼顾的方案。它在提供与RAID 1一样的数据安全保障的同时,也提供了与RAID 0近似的存储性能。

处理流程

图1-6所示,Drive 0和Drive 1组成一个子组0,Drive 2和Drive 3组成一个子组1,子组内的两个硬盘互为镜像。

系统向硬盘发出I/O数据请求时,原先顺序的数据请求按照RAID 0的方式,被分散到两个子组中并行执行,同时通过RAID 1的方式,系统在向硬盘Drive 0写入数据的同时把数据自动复制到硬盘Drive 1上,向硬盘Drive 2写入数据的同时把数据自动复制到硬盘Drive 3上。

图1-6 RAID 10数据存储原理

 

1.2.7 RAID 10ADM

说明

MSCC SmartRAID 3152-8i在FW版本4.72后将RAID 10ADM更名为RAID 10Triple。

RAID 10ADM是将镜像和条带进行两级组合的RAID级别,即RAID 1ADM+RAID 0的组合形式,第一级是RAID 1ADM,第二级是RAID 0。RAID 10ADM是存储性能和数据安全兼顾的方案。它在提供与RAID 1ADM一样的数据安全保障的同时,也提供了与RAID 0近似的存储性能。

处理流程

图1-7所示,Drive 0、Drive 1和Drive 2组成一个子组0,Drive 3、Drive 4和Drive 5组成一个子组1,子组内的硬盘互为镜像。

系统向硬盘发出I/O数据请求时,原先顺序的数据请求按照RAID 0的方式,被分散到两个子组中并行执行,同时通过RAID 1ADM的方式,系统在向硬盘Drive 0写入数据的同时把数据自动复制到硬盘Drive 1和Drive 2上,向硬盘Drive 3写入数据的同时把数据自动复制到硬盘Drive 4和Drive 5上。

图1-7 RAID 10ADM数据存储原理

 

1.2.8 RAID 1E

RAID 1E为RAID 1的增强版,工作原理与RAID 1类似。RAID 1E的数据条带及数据备份贯穿在逻辑盘中所有的硬盘当中。跟RAID 1类似,数据是镜像的,逻辑盘的容量是硬盘总容量的一半,可提供数据冗余功能及较高的性能。然而,RAID 1E允许使用更多的物理硬盘,至少由三个硬盘组成。

处理流程

图1-8所示,系统向三块硬盘组成的逻辑硬盘(RAID 1E硬盘组)发出I/O数据请求。条带数据均匀分布在3个硬盘中,任意一个条带数据都在其他硬盘中有自己的备份。此时,如果有单个硬盘故障,不会造成数据丢失。

图1-8 RAID 1E数据存储原理

 

1.2.9 RAID 50

RAID 50被称为镜像阵列条带,即RAID 5+RAID 0的组合形式。像RAID 0一样,数据被分区成条带,在同一时间内向多块硬盘写入;像RAID 5一样,也是以数据的校验位来保证数据的安全,且校验条带均匀分布在各个硬盘上。

处理流程

如图1-9所示,PA为A0、A1和A2的奇偶校验信息,PB为B0、B1和B2的奇偶校验信息,以此类推。

RAID 50是RAID 5与RAID 0两种技术的结合,一个RAID 50由多个RAID 5子组组成,数据的存储访问以RAID 0的形式分布在各个RAID 5子组上。依靠RAID 5提供的冗余功能,在子组内部任意一个硬盘故障,阵列均可正常工作并恢复出故障硬盘的信息。同样,故障硬盘的更换不会影响业务的正常进行。因此,RAID 50可以容忍多个子组同时单盘故障,这是单纯RAID 5技术无法做到的。同时,由于数据分布在多个子组上,阵列可以提供更加优秀的读写性能。

图1-9 RAID 50数据存储原理

 

1.2.10 RAID 60

RAID 60同RAID 50类似,数据采用镜像阵列条带分布方式,即RAID 6 + RAID 0的组合形式。像RAID 0一样,数据被分区成条带,在同一时间内向多块硬盘写入;像RAID 6一样,以两个数据校验模块来保证数据的安全,且校验条带均匀分布在各个硬盘上。

处理流程

图1-10所示,PA为A0、A1和A2的校验信息1,QA为A0、A1和A2的校验信息2,PB为B0、B1和B2的校验信息1,QB为B0、B1和B2的校验信息2,以此类推。

RAID 60是RAID 6与RAID 0两种技术的结合,一个RAID 60由多个RAID 6子组组成,数据的存储访问以 RAID 0的形式分布在各个RAID 6子组上。依靠RAID 6提供的冗余功能,在子组内部任意两个硬盘故障,阵列均可正常工作并恢复出故障硬盘的信息。同样,故障硬盘的更换不会影响业务的正常进行。

图1-10 RAID 60数据存储原理

 

1.2.11 容错能力

l     RAID 0:不提供容错功能。任意一个成员盘出现故障,都会导致数据丢失。通过条带化方式同时在多个成员盘中写入数据。RAID 0对于需要高性能但不需要容错的应用场景非常理想。

l     RAID 1:提供100%的数据冗余能力。当一个成员盘故障时,可以使用RAID组中对应的其他硬盘的数据来运行系统,并重构故障盘。因为一个成员盘的内容会完全备份写入另一个硬盘, 所以如果其中一个成员盘出现故障,则不会丢失任何数据。成对的成员盘在任何时候都包含相同的数据。RAID 1组是需要最大容错能力和最小容量要求的应用场景的理想选择。

l     RAID 5:结合了分布式奇偶校验和硬盘条带化。奇偶校验在不需要备份全部硬盘内容的情况下,为1个硬盘提供了冗余特性。当一个成员盘故障时,RAID控制卡使用奇偶校验数据来重构所有丢失的信息。RAID 5使用较小的系统开销为系统提供了足够的容错能力。

l     RAID 6:结合了分布式奇偶校验和硬盘条带化。奇偶校验在不需要备份全部硬盘内容的情况下,为2个硬盘提供了冗余特性。当一个成员盘故障时,RAID控制卡使用奇偶校验数据来重构所有丢失的信息。RAID 6使用较小的系统开销为系统提供了足够的容错能力。

l     RAID 10:使用多个RAID 1提供完整的数据冗余能力。RAID 10对所有需要通过镜像硬盘组提供100% 冗余能力的场景都适用。

l     RAID 50:使用多个RAID 5的分布式奇偶校验提供数据冗余能力。在保证数据完整性的情况下,每个RAID 5分组允许1个成员盘故障。

l     RAID 60:使用多个RAID 6的分布式奇偶校验提供数据冗余能力。在保证数据完整性的情况下,每个RAID 6分组允许2个成员盘故障。

1.2.12 I/O性能

RAID组可作为一个单独的存储单元或多个虚拟单元被系统使用。由于可以同时访问多个硬盘,使得针对RAID组的I/O读写速率较普通硬盘更高。

l     RAID 0:提供优异的性能。RAID 0将数据分割为较小的数据块并写入到不同的硬盘中,由于可以同时对多个硬盘进行读写,RAID 0提升了I/O性能。

l     RAID 1:由于RAID组中的硬盘都是成对出现,写数据时也必须同时写入2份,从而占用更多的时间和资源,导致性能降低。

l     RAID 5:提供了较高的数据吞吐能力。由于成员盘上同时保留常规数据和校验数据,每个成员盘都可以独立读写,再加上完善的Cache算法,使得RAID 5在很多应用场景中都有出色的性能表现。

l     RAID 6:在需要高可靠性、高响应率、高传输率的场景下,RAID 6是较为适合的RAID级别,其提供了高数据吞吐量、数据冗余性和较高的I/O性能。由于RAID 6需要为每个成员盘写入2套校验数据,导致其在写操作期间性能降低。

l     RAID 10:由RAID 0子组提供高数据传输速率的同时,RAID 10在数据存储方面表现优异。I/O性能随着子组数量的增加而提升。

l     RAID 50:在需要高可靠性、高响应率、高传输率的场景下,RAID 50表现最好。I/O性能随着子组数量的增加而提升。

l     RAID 60:使用场景与RAID 50类似,但是由于每个成员盘必须写入2组奇偶校验数据,使得在写操作中性能降低,因此RAID 60不适用于大量写入任务。

说明

当同一RAID控制卡下同时存在无需校验的RAID组(如RAID 0或RAID 1)和需要校验的RAID组(如RAID 5或RAID 6),且写策略均设置为Write Back时,需要校验的RAID组性能会下降。I/O wait增加。

建议将无需校验的RAID组写策略设置为Write Through,以免对需要校验的RAID组性能产生影响。

1.2.13 存储容量

在选择RAID级别时,其存储容量也是一个重要参数。

l     RAID 0:在指定一组硬盘后,同等情况下,RAID 0可以提供最大的存储容量,可用容量=成员盘最小容量×成员盘数量。

l     RAID 1:由于对一个硬盘进行写入时,必须同时写入另一个硬盘,导致存储空间损耗。可用容量=成员盘最小容量。

l     RAID 5:校验数据块与常规数据块隔离,因此整体上来说,校验数据会占用1个成员盘的容量。可用容量=成员盘最小容量×(成员盘数量-1)。

l     RAID 6:由于2个独立的校验数据块与常规数据块隔离,整体上来说,校验数据会占用2个成员盘的容量。可用容量=成员盘最小容量×(成员盘数量-2)。

l     RAID 10:可用容量=子组容量之和。

l     RAID 50:可用容量=子组容量之和。

l     RAID 60:可用容量=子组容量之和。

1.3 常见功能

1.3.1 容错

容错是指在子系统出现硬盘错误或硬盘故障时,可以保证数据完整性和数据处理能力。RAID控制卡通过冗余的硬盘组在RAID 1、5、6、10、50、60上实现此功能。

在RAID 1中,由于数据镜像存储于成对的硬盘上,因此在成对的硬盘中的一个产生错误或故障时,不会造成数据丢失。同理,在RAID 5中,允许1个硬盘故障;在RAID 6中,允许2个硬盘故障。

而对于包含多个子组的RAID,RAID 10、50允许故障盘的个数与子组数相同,但是要求每个子组只能包含1个故障盘。RAID 60允许故障盘的个数为子组数的2倍,要求每个子组最多包含2个故障盘。

说明

RAID 0不支持容错特性,当RAID 0中的硬盘故障时,该RAID失效,数据丢失。

容错性能提高了系统的可用性,即硬盘故障时,系统仍可正常运行。因此,在故障修复流程中,容错是非常重要的特性。

1.3.2 一致性校验

针对有冗余功能的RAID 1、5、6、10、50、60,RAID控制卡可以对RAID组的硬盘数据进行一致性校验,对硬盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。

由于RAID 0不具备冗余性,因此不支持一致性校验。

说明

建议每月至少进行一次一致性校验。

1.3.3 热备份

RAID控制卡的热备份特性由热备盘和紧急备份功能实现。

热备盘

热备盘是硬盘系统中的一个独立的硬盘,当RAID组中的硬盘故障时,热备盘自动取代故障盘作为成员盘,并在热备盘上重构故障盘数据。

在RAID控制卡的管理界面或命令行工具中,可以指定容量大于或等于RAID组成员盘,且介质类型及接口与成员盘相同的空闲盘作为RAID组的热备盘。

RAID控制卡支持的热备盘包括下面两种:

l     全局热备盘,为RAID控制卡上所有已配置的RAID组所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID组内的成员盘故障时,全局热备盘均可自动替代。

l     局部热备盘,为RAID控制卡上某个指定的RAID组所专有,每个RAID组都可以配置1个或多个局部热备盘。当指定RAID组内的成员盘故障时,局部热备盘可自动替换。

热备盘有如下特性:

l     热备盘仅用于具有冗余功能的RAID组,包括RAID 1、5、6、10、50、60。

l     热备盘仅用于替代同一RAID控制卡上的故障盘。

紧急备份

紧急备份功能,是指任意一个具备冗余功能的RAID组中出现成员盘故障且没有指定热备盘时,RAID控制卡下属的空闲盘会自动替代故障成员盘并进行重构,避免数据丢失。

紧急备份要求用于备份的空闲盘容量大于等于成员盘容量,且介质类型与成员盘相同。

1.3.4 RAID重构

当RAID组中出现故障盘时,可以通过RAID控制卡的数据重构功能,将故障盘中的数据在新盘上重构。数据重构功能仅适用于具有冗余功能的RAID 1、5、6、10、50、60。

RAID控制卡支持热备盘自动重构故障成员盘数据。当RAID组配置了可用的热备盘时,在成员盘故障的情况下,热备盘自动替换故障盘,进行数据重构;当RAID组没有可用的热备盘时,只有更换新盘后才可进行数据重构。当热备盘开始数据重构后,故障的成员盘就被标注为可移除状态。如果在数据重构过程中系统下电,那么在系统重新启动后,RAID控制卡会继续执行数据重构的任务。

重构率,即数据重构任务在系统运行的所占用CPU资源的比率,可设置为0%~100%。0%表示数据重构任务只有系统当前没有任何其他任务运行时,才会启动数据重构任务。100%表示数据重构任务占用所有CPU资源。重构率可由用户自行设置,建议根据系统的实际情况设置一个合适的取值。

1.3.5 硬盘状态

RAID控制卡下属的物理硬盘有如表1-1所示的状态。

表1-1 物理硬盘状态

状态

说明

Available(AVL)

硬盘可能未就绪,并且不适合在逻辑盘或热备池中使用。

Cfgincompat

硬盘配置不兼容。

Copyback/Copybacking

新盘正在替换热备盘。

Diagnosing

硬盘状态正在诊断。

Degraded(DGD)

硬盘是逻辑盘的一部分,处于降级状态。

Erase In Progress

硬盘正在进行擦除。

Failed(FLD)

当“Online”状态或“Hot Spare”状态的硬盘出现不可恢复的错误时,会体现为此状态。

Fault

硬盘故障。

Foreign

硬盘中包含外部配置。

Hot Spare(HSP)

被设置为热备盘。

Inactive

硬盘属于未激活逻辑盘的成员盘,在激活逻辑盘后方可使用硬盘。

JBOD

硬盘以直通方式使用

Missing(MIS)

“Online”状态的硬盘被拔出后,体现为此状态。

Offline

为某个虚拟磁盘的成员盘,不可正常使用,处于离线状态。

Online(ONL)

为某个虚拟磁盘的成员盘,可正常使用,处于在线状态。

Optimal

硬盘状态是正常的,且是逻辑盘的一部分。

Out of Sync(OSY)

硬盘作为IR逻辑盘的一部分,与该逻辑盘中的其他硬盘不同步。

Predictive Failure

硬盘即将变为Failed状态,应备份硬盘上的数据,并更换硬盘。

Raw(Pass Through)

HBA模式下裸盘。

Raw Drive

硬盘以裸盘方式使用。

Ready(RDY)

适用于RAID控制卡的RAID/Mixed模式,硬盘可用于配置RAID组,RAID模式下Ready状态的硬盘不上报操作系统(以下简称“OS”),Mixed模式下Ready状态的硬盘会上报OS。

Rebuild/Rebuilding(RBLD)

硬盘正在进行数据重构,以保证虚拟磁盘的数据冗余性和完整性,此时虚拟磁盘的性能会受一定程度的影响。

Reconstructing

硬盘正在进行数据重构,以保证虚拟磁盘的数据冗余性和完整性,此时虚拟磁盘的性能会受一定程度的影响。

Spare

硬盘为热备盘,且状态正常。

Shield State

物理硬盘在做诊断操作时的临时状态。

Standby(SBY)

设备不是硬盘设备。

Unconfigured Good(ugood/ucfggood)

硬盘状态正常,但不是虚拟磁盘的成员盘或热备盘。

Unconfigured Bad(ubad)

“Unconfigured Good”状态硬盘或未初始化的硬盘,出现无法恢复的错误时,会体现为此状态。

Unknown

硬盘状态未知。

Unsupport

硬盘规格超过RAID控制卡当前规格。

 

RAID控制卡下创建的虚拟磁盘有如表1-2所示的状态。

表1-2 虚拟磁盘状态

状态

说明

Degrade/Degraded(DGD)

虚拟磁盘可用但状态异常,存在成员盘故障或离线的情况。用户数据未收到保护。

Delete fail

执行删除失败。

Deleting

正在删除此虚拟磁盘。

Failed(FLD)

虚拟磁盘故障。

Fault

虚拟磁盘故障。

Formatting

正在格式化中。

Inactive

虚拟磁盘处于未激活状态,在激活后方可使用。

Inc RAID

不支持SMART或SATA扩展命令。

Initializing(INIT)

正在初始化。

Initialize fail

初始化失败。

Interim Recovery

RAID组降级,因为RAID组中存在故障盘,使得RAID组运行性能降低,数据可能丢失。要解决此问题,请检查硬盘是否正确连接设备,或更换故障的硬盘。

Max Dsks

RAID组支持的硬盘数量已达到最大数,该硬盘不能被加入RAID中。

Missing(MIS)

虚拟磁盘丢失。

Not formatted

未格式化。

Not Syncd

该硬盘上面的数据与逻辑盘中其他硬盘的数据不同步。

Normal

虚拟磁盘状态正常,所有成员盘均在线。

Offline

当RAID组中的物理硬盘故障或离线的数量超过该RAID组级别支持的最大故障硬盘的数量时,RAID组会体现为该状态。

Online(ONL)

虚拟磁盘处于在线状态。

Optimal

虚拟磁盘状态良好,所有成员盘均在线。

Okay(OKY)

虚拟磁盘处于活动状态,驱动器运行正常。如果当前RAID级别提供数据保护,则用户数据将受到保护。

Partial Degraded

当RAID组中的物理硬盘故障或离线的数量未超过该RAID组级别支持的最大故障硬盘的数量时,RAID组会体现为部分降级状态。

Primary

该硬盘为RAID1中的主盘且状态正常。

Ready for Rebuild

准备执行重构。

Sanitizing

虚拟磁盘正在执行数据擦除。

Secondary

该硬盘为RAID1中的从盘且状态正常。

Tool Small

硬盘容量过小,不能用于当前RAID组的热备盘。

Wrg Intfc

硬盘接口与当前RAID组中的硬盘接口不同。

Wrg Type

该硬盘不能作为该RAID组的成员盘,可能不兼容或者硬盘故障。

Write_protect

虚拟磁盘处于写保护中。

 

1.3.6 虚拟磁盘的读写策略

在创建虚拟磁盘时,会需要对其数据读写策略进行定义,以规范后续虚拟磁盘运行过程中数据的读写方式。

数据读策略

在配置界面中一般体现为“Read Policy”。RAID控制卡支持如下两种数据读策略:

l     预读取方式:在配置界面中一般有“Always Read Ahead”、“Read Ahead”、“Ahead”等配置选项。使用此策略后,从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

要使用该策略,要求RAID控制卡支持数据掉电保护功能,但如果此时超级电容异常,可能导致数据丢失。

l     非预读取方式:使用此策略后,RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

数据写策略

在配置界面中一般体现为“Write Policy”。RAID控制卡支持如下三种数据写策略:

l     回写:在配置界面中一般体现为“Write Back”等字样。使用此策略后,需要向虚拟磁盘写数据时,会直接写入Cache中,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到虚拟磁盘,这样不但实现了批量写入,而且提升了数据写入的速度。当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

要使用该策略,要求RAID控制卡支持数据掉电保护功能,但如果此时超级电容异常,可能导致数据丢失。

l     直写:在配置界面中一般有“Write Through”等选项。使用此策略后,RAID控制卡向虚拟磁盘直接写入数据,不经过Cache。当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

此种方式不要求RAID控制卡支持数据掉电保护功能,即使超级电容故障,也无影响。该写策略的缺点是写入速度较低。

l     与BBU相关的回写:在配置界面中一般有“Write Back with BBU”等选项。使用此策略后,当RAID控制卡BBU在位且状态正常时,RAID控制卡到虚拟磁盘的写操作会经过Cache中转(即回写方式);当RAID控制卡BBU不在位或BBU故障时,RAID控制卡到虚拟磁盘的写操作会自动切换为不经过Cache的直接写入(即写通方式)。

l     强制回写:在配置界面中一般体现为“Write Back Enforce”“Always Write Back”等字样。在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

1.3.7 数据掉电保护

掉电保护的原理

数据写入RAID控制卡高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用RAID控制卡高速缓存来提升系统性能。

l     开启RAID控制卡高速缓存可提升整机写性能,当服务器写压力减小或RAID控制卡高速缓存将写满时,数据再由RAID控制卡高速缓存写入硬盘。

l     开启RAID控制卡高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,RAID控制卡高速缓存中的数据将会丢失。

为了提升整机的高读写性能和RAID控制卡高速缓存中数据的安全,可为RAID控制卡配置超级电容。超级电容保护模块的原理是在发生系统意外掉电时,利用超级电容供电,将RAID控制卡高速缓存中的数据写入超级电容模块中的NAND Flash中永久保存。

超级电容电量校准

由于数据保护需要超级电容的配合,为了记录超级电容的放电曲线,以便RAID控制卡了解超级电容的状态,例如最大和最小电压等,同时为了延长超级电容的寿命,RAID控制卡默认启动超级电容自动校准模式。

RAID控制卡通过如下所述的三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。

1.     RAID控制卡将超级电容的电量充到最大值。

2.     自动启动校准进程,将超级电容完全放电。

3.     重新开始充电,直至达到最大电量。

超级电容电量校准过程中,RAID控制卡写策略自动调整为“Write Through”模式以保证数据完整性,此时RAID控制卡性能会降低。电量校准的时间取决于超级电容充放电速度。

1.3.8 硬盘条带化

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待。

条带化是一种自动的将I/O的负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

硬盘的条带化,是将硬盘空间按照设定的大小分为多个条带,数据写入时也按照条带的大小来划分数据模块。

例如,在一个由四个成员盘组成的硬盘系统中(例如RAID 0),第一个数据块写入第一块成员盘,第二个数据块写入第二个成员盘,以此类推,如图1-11所示。由于是同时对多个硬盘进行写入,因此极大地提升了系统性能,但是,此特性并不能保证数据的冗余性。

图1-11 硬盘分条举例

 

硬盘分条包含下面的概念:

l     条带宽度:一个硬盘组在进行分条时所使用的硬盘的个数,例如一个由四个成员盘组成的硬盘组,其条带宽度为“4”。

l     硬盘组的条带大小:RAID控制卡同时在一个硬盘组中所有硬盘上的写入的数据块的大小。

l     硬盘的条带大小:RAID控制卡在每块硬盘上写入的数据块的大小。

例如,针对一个硬盘组,在写入数据时,一个1MB的数据条带,在每个成员盘上分配的数据块为64KB,那么此硬盘组的条带大小为1MB,硬盘的条带大小为64KB。

1.3.9 磁盘镜像

磁盘镜像,适用于RAID 1和RAID 10,是指执行写数据的任务时,会将同样的数据同时写入两块硬盘,以实现100%的数据冗余度。由于两块硬盘上的数据完全相同,当一块硬盘故障时,数据不会丢失。另外,同一时间,两块盘上的数据是完全相同的,当一块硬盘故障时,由于数据是同时读写,因此数据流不会中断。

磁盘镜像带来的是100%的完全冗余,但是其代价是比较昂贵的,因为在镜像过程中,每个硬盘都需要一个备份盘,如图1-12所示。

图1-12 磁盘镜像举例

 

1.3.10 外部配置

外部配置,是区别于当前RAID控制卡的配置来说的,在配置界面中一般体现为“Foreign Configuration”之类的字样。

一般在下述情况下,会有外部配置出现:

l     一个新安装到服务器上的物理硬盘中存在RAID配置信息,RAID控制卡会将此类信息识别为外部配置。

l     服务器更换了RAID控制卡后,新RAID控制卡会将当前存在的RAID信息识别为外部配置。

l     热插拔RAID组的成员盘后,该成员盘会被标记为携带外部配置。

对检测出来的外部配置,可以根据服务器实际情况进行处理。例如,当新插入的硬盘携带的RAID信息不符合当前使用场景时,可以删除此配置。更换RAID控制卡后,如果仍然想使用之前的配置,就可以导入该配置,使其在新RAID控制卡上生效。

1.3.11 硬盘节能

RAID控制卡具备硬盘节能功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。

当硬盘节能功能开启时,RAID控制卡下挂载的空闲状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID组,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。

1.3.12 硬盘直通

硬盘直通,即“JBOD”功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

打开硬盘直通功能后,RAID控制器可对所连接的硬盘进行指令透传,在不配置RAID组的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。

例如,服务器操作系统安装过程中,可以直接找到挂载在RAID控制卡下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。


2 RAID控制卡兼容性

不同型号的RAID控制卡支持的服务器和操作系统不同,详细信息可咨询技术支持。


3 命名含义

各RAID控制卡命名后缀的含义如表3-1所示。

表3-1 RAID控制卡命名后缀的含义

后缀名

是否支持创建RAID组

是否支持带外管理

是否有电容/电池

是否有Cache

IT

IR

iMR

MR


4 技术规格

RAID控制卡的基本特性如表4-1表4-2表4-3所示。

表4-1 基本特性(1)

特性

LSI SAS3008IR

LSI SAS3108

Avago SAS3408iMR

Avago SAS3416iMR

Avago SAS3508

Avago SAS3516

接口速率(Gbit/s)

12

12

12

12

12

12

支持的RAID组数量

2

64

32

32

64

64

单个RAID组支持的最大硬盘数

10

32/240a

32

32

32/240b

32

所有RAID组包含的最大硬盘数量d

14

32/240a

32

32

32/240b

32

是否支持硬盘直通

硬盘直通模式支持的硬盘数量

1000

32/240a

63

63

32/240b

32

支持的最大硬盘数

1000

32/240a

63

63

32/240b

32

是否支持CacheCade

Cache读写比例是否可调

NA

NA

NA

NA

NA

CacheCade支持的SSD最大个数

NA

32

NA

NA

NA

NA

CacheCade最大容量

NA

512GB

NA

NA

NA

NA

CacheCade支持的RAID级别

NA

0/1

NA

NA

NA

NA

CacheCade是否支持热备

NA

NA

NA

NA

NA

是否支持FastPath

是否支持4K盘

支持的RAID级别

0/1/10/1E

0/1/10/5/50/6/60

0/1/10

0/1/10

0/1/10/5/50/6/60

0/1/10/5/50/6/60

是否支持设置条带大小

否(默认为64KB)

是(可设为64KB/128KB/256KB/512KB/1024KB,默认为256KB)

否(默认为64KB)

否(默认为64KB)

是(可设为64KB/128KB/256KB/512KB/1024KB,默认为256KB)

是(可设为64KB/128KB/256KB/512KB/1024KB,默认为256KB)

是否支持电池掉电保护

是否支持超级电容掉电保护

是否支持全局热备

e

e

e

e

e

e

是否支持局部热备

e

e

e

e

e

是否支持紧急热备

支持的热备盘个数

2

32/240a

63

63

32/240b

32

是否支持RAID级别在线迁移

是否支持在线扩容

是否支持自动SMART扫描

是否支持Patrol Read

是否支持一致性校验

e

e

e

e

e

e

是否支持Crypto加密

是否支持带外管理

c

是否支持Cache

是(1G/2G)

是(2G/4G)

是(2G/4G)

是否支持蜂鸣器

a:LSI SAS3108支持2种规格的RAID Key,分别支持32盘和240盘。具体规格请参见6.3.1 支持RAID 0/1/5/6/10/50/60中的表6-4

b:Avago SAS3508支持2种规格的RAID Key,分别支持32盘和240盘。具体规格请参见7.2.1 支持RAID 0/1/5/6/10/50/60中的表7-2

c:LSI SAS3108的PCB版本为.B及以上版本时,支持带外管理功能;PCB版本为.A时,不支持带外管理功能。

d:对于LSI SAS3008IR RAID控制卡,该数量为热备盘与加入RAID组的硬盘数量之和;对于LSI SAS3008IR以外的RAID控制卡,该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

e:RAID 0除外。

 

表4-2 基本特性(2)

特性

Avago MegaRAID SAS 9440-8i

Avago MegaRAID SAS 9460-8i

Avago MegaRAID SAS 9460-16i

BROADCOM MegaRAID SAS 9560-8i

接口速率(Gbit/s)

12

12

12

12

支持的RAID组数量

32

64

64

64

单个RAID组支持的最大硬盘数量

32

240

32

240

所有RAID组包含的最大硬盘数量a

32

240

240

240

是否支持硬盘直通

硬盘直通模式支持的硬盘数量

63

240

240

240

支持的最大硬盘数量

63

240

240

240

是否支持CacheCade

Cache读写比例是否可调

NA

NA

NA

NA

CacheCade支持的SSD最大个数量

NA

NA

NA

NA

CacheCade最大容量

NA

NA

NA

NA

CacheCade支持的RAID级别

NA

NA

NA

NA

CacheCade是否支持热备

NA

NA

NA

NA

是否支持FastPath

是否支持4K盘

支持的RAID级别

0/1/10

0/1/10/5/50/6/60

0/1/10/5/50/6/60

0/1/10/5/50/6/60

是否支持设置条带大小

否(默认为64KB)

是(可设为64KB/128KB/256KB/512KB/1024KB,默认为256KB)

是(可设为64KB/128KB/256KB/512KB/1024KB,默认为256KB)

是(可设为64KB/128KB/256KB/512KB/1024KB,默认为256KB)

是否支持电池掉电保护

是否支持超级电容掉电保护

是否支持全局热备

b

b

b

b

是否支持局部热备

b

b

b

b

是否支持紧急热备

支持的热备盘个数

63

240

240

240

是否支持RAID级别在线迁移

是否支持在线扩容

是否支持自动SMART扫描

是否支持Patrol Read

是否支持一致性校验

b

b

b

b

是否支持Crypto加密

是否支持带外管理

是否支持Cache

是(2G/4G)

是(2G/4G)

是(4G)

是否支持蜂鸣器

a:该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

b:RAID 0除外。

 

表4-3 基本特性(3)

特性

MSCC SmartRAID 3152-8i

MSCC SmartHBA 2100-8i

接口速率 (Gbit/s)

12

12

支持的RAID组数量

64

64

单个RAID组支持的最大硬盘数

128

128

所有RAID组包含的最大硬盘数量

238

238

是否支持硬盘直通

是否支持裸盘

NA

NA

硬盘直通模式支持的硬盘数量

238

238

支持的最大硬盘数

238

238

是否支持MaxCachea

Cache读写比例是否可调

NA

MaxCache支持的SSD最大个数

128

NA

MaxCache最大容量

6.8TB

NA

MaxCache支持的RAID级别

0/1/10/5

NA

MaxCache是否支持热备

NA

是否支持SSD IO Bypass

是否支持4K盘

支持的RAID级别

RAID 0/1/1ADM/10/10ADM/5/50/6/60

RAID 0/1/10

是否支持设置条带大小

是(可设为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认为256KiB)

是(可设为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认为256KiB)

是否支持电池掉电保护

是否支持超级电容掉电保护

是否支持全局热备份功能

是否支持局部热备份功能

是否支持紧急热备份功能

NA

NA

支持的热备盘个数

32

32(每个Array最多支持4个热备盘)

是否支持RAID级别在线迁移

是否支持在线扩容

是否支持自动SMART扫描

是否支持Patrol Read

是否支持一致性校验

是否支持Crypto加密

是否支持带外管理

是否支持520B扇区硬盘

是否支持蜂鸣器

a:MaxCache即CacheCade,Microsemi将该功能定义为“MaxCache”。

 

说明

表中的“NA”表示不涉及。

RAID控制卡支持的各级别RAID的性能及硬盘利用率如表4-4

表4-4 RAID级别比较

RAID级别

可靠性

读性能

写性能

硬盘利用率

RAID 0

100%

RAID 1

50%

RAID 1ADM

33%

RAID 5

(N-1)/N

RAID 6

(N-2)/N

RAID 10

50%

RAID 1E

50%

RAID 10ADM

33%

RAID 50

较高

(N-M)/N

RAID 60

较高

(N-M*2)/N

注:N为RAID成员盘的个数,M为RAID的子组数。

 

各RAID控制卡支持的硬盘接口类型如表4-5所示。

表4-5 RAID控制卡支持的硬盘接口类型

硬盘接口类型

SAS HDD

SATA HDD

SAS SSD

SATA SSD

NVMe PCIe SSD

M.2 SATA SSD

LSI SAS3008IR

支持

支持

支持

支持

不支持

不支持

LSI SAS3108

支持

支持

支持

支持

不支持

不支持

Avago SAS3508

支持

支持

支持

支持

不支持

不支持

Avago SAS3516

支持

支持

支持

支持

不支持

不支持

Avago SAS3408iMR

支持

支持

支持

支持

不支持

不支持

Avago SAS3416iMR

支持

支持

支持

支持

不支持

不支持

Avago MegaRAID SAS 9440-8i

支持

支持

支持

支持

不支持

不支持

Avago MegaRAID SAS 9460-8i

支持

支持

支持

支持

不支持

不支持

Avago MegaRAID SAS 9460-16i

支持

支持

支持

支持

不支持

不支持

MSCC SmartRAID 3152-8i

支持

支持

不支持

支持

不支持

不支持

MSCC SmartHBA 2100-8i

支持

支持

不支持

支持

不支持

不支持

BROADCOM MegaRAID SAS 9560-8i

支持

支持

支持

支持

不支持

不支持

 

说明

各RAID控制卡支持配置的硬盘型号以兼容性列表为准,详细信息可通过兼容性查询助手获得。


5 LSI SAS3008IR

关于本章

本章节主要介绍LSI SAS3008IR RAID控制卡的外观、特性、以及配置方法。

本章节涉及的截图以14.0.0.0Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

5.1  概述

5.2  功能

5.3  初始配置

5.4  常用配置

5.5  故障处理

5.6  管理界面介绍

5.7  OS命令行工具

5.1 概述

LSI SAS3008IR RAID 控制卡(以下简称LSI SAS3008IR)是基于Fusion-MPT™ (消息传递技术)架构的8端口12Gbit/s SAS控制器,并采用PCIe3.0 x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

另外,LSI SAS3008IR提供3Gbit/s、6Gbit/s、12Gbit/s SAS数据通道和3Gbit/s、6Gbit/s SATA数据通道,每个端口支持SSP、SMP、STP等协议。

LSI SAS3008IR的结构如图5-1所示。

图5-1 LSI SAS3008IR外观

 

1

RAID控制卡

2

miniSAS接口(port B)

3

miniSAS接口(port A)

4

Xcede连接器

 

RAID控制卡指示灯

LSI SAS3008IR的指示灯说明如图5-2所示。

图5-2 LSI SAS3008IR指示灯

 

表5-1 指示灯说明

序号

位置

指示灯

颜色

说明

指示灯异常处理策略

1

D1

SYS_ERR0 指示灯

红色

灯亮:RAID控制卡出现ERR0告警

灯灭:RAID控制卡工作正常

如果灯亮,需要更换RAID控制卡

2

D3

心跳指示灯

绿色

闪烁:RAID控制卡心跳正常

灯灭:RAID控制卡心跳异常

如果灯灭,需要更换RAID控制卡

3

D4

VCC_1V8 电源指示灯

绿色

灯亮:电压正常

灯灭:电压异常

如果灯灭,需要更换RAID控制卡

4

D5

VCC_1V5 电源指示灯

绿色

灯亮:电压正常

灯灭:电压异常

如果灯灭,需要更换RAID控制卡

5

D6

VCC_0V9 电源指示灯

绿色

灯亮:电压正常

灯灭:电压异常

如果灯灭,需要更换RAID控制卡

 

5.2 功能

5.2.1 提供高速接口和模块

LSI SAS3008IR的PCIe Core提供x8 PCIe接口,每lane速率为8Gb/s,可以兼容x1、x2、x4配置;支持PCIe 3.0规格,兼容PCIe 2.x和PCIe 1.x。

LSI SAS3008IR的SAS模块提供SAS功能,并定义支持的硬盘速率。LSI SAS3008IR支持的SAS模块包括:

l     12Gb/s SAS、6Gb/s SAS、3Gb/s SAS

l     6Gb/s SATA、3Gb/s SATA、1.5Gb/s SATA

5.2.2 可连接多个扩展设备

LSI SAS3008IR最多支持256个扩展设备,应用在服务器上,主要体现在连接多个硬盘,最多支持40个硬盘。

5.2.3 支持SAS/SATA/SSD硬盘

RAID控制卡支持SAS、SATA、SSD硬盘混合使用,支持SAS RAID、SATA RAID、SSD RAID共存于1个控制器下。

实际使用过程中建议使用同类型同规格的硬盘。

5.2.4 一致性校验

针对有冗余功能的RAID(RAID 1/10/1E),可以实现手动对RAID内的硬盘进行数据的一致性校验,如果发现有数据不一致的情况,会尝试做自动修复并将错误信息保存在Bad Block Table中。

一致性校验只针对已经完成初始化的RAID。

5.2.5 故障自修复

RAID控制卡集成故障自修复工具,当出现轻微的链路故障或硬盘读写闪断时,自动对故障进行修复。

5.2.6 硬盘热备份

热备盘是指定用于替代RAID故障成员盘的硬盘,用于承载被替代硬盘中的数据。

LSI SAS3008IR支持创建最多两个全局热备盘,当RAID的成员盘出现故障时,可以由热备盘替代,防止RAID数据丢失和状态进一步恶化。

热备盘的配置方法可参考5.4.1 配置热备盘。

说明

l     机械盘与固态盘不能互相作为热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID组的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID组成员盘最大容量。

l     除RAID 0外,其他类型的RAID组均支持热备盘。

5.2.7 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

LSI SAS3008IR可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在LSI SAS3008IR下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。

LSI SAS3008IR默认开启硬盘直通功能。

说明

直通模式下的硬盘发生故障后,硬盘Fault指示灯不会被点亮且iBMC不会对其进行告警。

5.2.8 硬盘低格

通过对硬盘反复写0的方式,将硬盘的数据做彻底的格式化和删除动作。

硬盘格式化彻底、耗时长,格式化过程中,不能执行关机,重启,插拔硬盘等操作,否则会导致硬盘被损坏。

 

注意

硬盘格式化完成后,所有的硬盘数据会被清除。请谨慎执行该操作。

5.2.9 硬盘节能

RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。

默认情况下,硬盘节能功能处于开启状态。

当硬盘节能功能开启且在固定时间内没有I/O访问时,RAID控制卡下挂载的空闲状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。

5.2.10 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下取出和更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

说明

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     人为在线插拔RAID组中的硬盘会导致该硬盘所在的RAID组降级或故障,插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

5.2.11 支持RAID 0/1/10/1E

LSI SAS3008IR最多支持2个虚拟磁盘,单个虚拟磁盘中最多支持10个硬盘。所有的虚拟磁盘包含的硬盘总量最多14个,剩余硬盘只能以独立的“Physical drive”方式被LSI SAS3008IR管理。

LSI SAS3008IR支持的具体RAID类型及对应的硬盘个数如表5-2所示。

表5-2 RAID-硬盘参数

RAID类型

支持硬盘数

允许坏盘数

RAID 0

2~10

0

RAID 1

2

1

RAID 10

4~10

硬盘数/2

RAID 1E

3、5、7、9

(硬盘数–1)/2

 

5.2.12 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     动态扩盘

l     完全初始化或后台初始化

l     一致性校验

5.2.13 自动S.M.A.R.T扫描

S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免电脑数据受到损失。

RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,便会记录日志。

5.3 初始配置

文档中描述的关于LSI SAS3008IR的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“SAS3IRCU”命令行工具。

5.3.1 登录管理界面

操作场景

该任务指导用户登录LSI SAS3008IR的配置管理界面。

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

必备事项

前提条件

数据

该操作无需准备数据。

文档

登录远程虚拟控制台的详细方法可参考各服务器的用户指南。

操作步骤

                                步骤 1     重启服务器。当出现如图5-3所示界面时,按“F11”键。

图5-3 BIOS启动界面(1)

 

                                步骤 2     输入密码,并按“Enter”。

进入如图5-4所示界面。

图5-4 BIOS启动界面(2)

 

                                步骤 3     选择“Device Manager”并按“Enter”。

显示当前存在的RAID控制卡列表,如图5-5所示。

图5-5 RAID控制卡列表

 

                                步骤 4     选择要操作的LSI SAS3008IR控制器,按“Enter”。

打开“LSI SAS3 MPT Controller Configuration”界面,如图5-6所示界面。

图5-6 “LSI SAS3 MPT Controller Configuration”界面

 

                                步骤 5     按“Enter”进入LSI SAS3008IR的配置界面。

“Configuration Options”界面如图5-7所示,界面参数如表5-3所示。

图5-7 “Configuration Options”界面

 

表5-3 操作项说明

参数

参数说明

Controller Management

配置管理RAID控制卡属性。

Virtual Disk Management

配置管理虚拟磁盘。

Physical Disk Management

配置管理物理硬盘。

 

----结束

5.3.2 创建RAID 0

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     LSI SAS3008IR支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参看5.2.11 支持RAID 0/1/10/1E。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

对系统的影响

加入到RAID的硬盘数据将会丢失,请提前备份硬盘上的数据。

必备事项

前提条件

已登录管理界面,具体方法请参见5.3.1 登录管理界面。

数据

该操作无需准备数据。

操作步骤

                                步骤 1     进入“Configuration Options”界面。

1.     在主界面中选择“Controller Management”并按“Enter”。

2.     选择“Create Configuration”并按“Enter”。

                                步骤 2     选择RAID级别

1.     通过“↑”、“↓”选择“Select RAID level”并按“Enter”。

显示当前可配置的RAID级别,如图5-8所示。

图5-8 选择RAID级别

 

2.     选择要配置的RAID级别“RAID 0”并按“Enter”。

                                步骤 3     选择成员盘

1.     通过“↑”、“↓”选择“Select Physical Disks”并按“Enter”。

打开硬盘选择界面,如图5-9所示,界面中参数说明如表5-4所示。

图5-9 选择硬盘

 

表5-4 参数说明

参数

说明

Selected RAID Level

已配置的RAID级别。

Select Interface Type

选择硬盘接口类型,若RAID控制卡下挂载多种接口类型的硬盘,可通过该选项过滤。

配置方法:

1.     选中该操作项并按“Enter”。

2.     在打开的列表中选择要配置的参数并按“Enter”。

Select Media Type

选择硬盘类型,若RAID控制卡下挂载多种容量的硬盘,可通过该选项过滤。

配置方法:

1.     选中该操作项并按“Enter”。

2.     在打开的列表中选择要配置的参数并按“Enter”。

0:2:0 SATA HDD-512b 1863GB

可选择的硬盘。

配置方法:

1.     选中该操作项并按“Enter”。

2.     在打开的列表中选择“Enabled”并按“Enter”。

Check All

选中列出的所有硬盘。

配置方法:选中该操作项并按“Enter”。

Uncheck All

取消选中硬盘。

配置方法:选中该操作项并按“Enter”。

 

2.     按表5-4所述选中RAID成员盘。

                                步骤 4     保存配置

1.     通过“↑”、“↓”选择“Apply Changes”并按“Enter”。

打开操作确认界面,如图5-10所示。

图5-10 操作确认界面

 

2.     通过“↑”、“↓”选择“Confirm”并按“Enter”。

3.     通过“↑”、“↓”选择“Yes”并按“Enter”。

提示Operation completed successfully。

4.     通过“↓”选择“OK”并按“Enter”。

配置完成。

                                步骤 5     检查配置结果

1.     在图5-7中选择“Virtual Disk Management”并按“Enter”。

2.     选择“Manage Virtual Disk Properties”并按“Enter”。

显示当前存在的RAID信息。

----结束

5.3.3 创建RAID 1

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     LSI SAS3008IR支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参看5.2.11 支持RAID 0/1/10/1E。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

对系统的影响

加入到RAID的硬盘数据将会丢失,请提前备份硬盘上的数据。

必备事项

前提条件

已登录管理界面,具体方法请参见5.3.1 登录管理界面。

数据

该操作无需准备数据。

操作步骤

                                步骤 1     进入“Configuration Options”界面。

1.     在主界面中选择“Controller Management”并按“Enter”。

2.     选择“Create Configuration”并按“Enter”。

                                步骤 2     选择RAID级别

1.     通过“↑”、“↓”选择“Select RAID level”并按“Enter”。

显示当前可配置的RAID级别,如图5-11所示。

图5-11 选择RAID级别

 

2.     选择要配置的RAID级别“RAID 1”并按“Enter”。

                                步骤 3     选择成员盘

1.     通过“↑”、“↓”选择“Select Physical Disks”并按“Enter”。

打开硬盘选择界面,如图5-12所示,界面中参数说明如表5-5所示。

图5-12 选择硬盘

 

表5-5 参数说明

参数

说明

Selected RAID Level

已配置的RAID级别。

Select Interface Type

选择硬盘接口类型,若RAID控制卡下挂载多种接口类型的硬盘,可通过该选项过滤。

配置方法:

1.     选中该操作项并按“Enter”。

2.     在打开的列表中选择要配置的参数并按“Enter”。

Select Media Type

选择硬盘类型,若RAID控制卡下挂载多种容量的硬盘,可通过该选项过滤。

配置方法:

1.     选中该操作项并按“Enter”。

2.     在打开的列表中选择要配置的参数并按“Enter”。

0:2:0 SATA HDD-512b 1863GB

可选择的硬盘。

配置方法:

1.     选中该操作项并按“Enter”。

2.     在打开的列表中选择“Enabled”并按“Enter”。

Check All

选中列出的所有硬盘。

配置方法:选中该操作项并按“Enter”。

Uncheck All

取消选中硬盘。

配置方法:选中该操作项并按“Enter”。

 

2.     按表5-5所述选中RAID成员盘。

                                步骤 4     保存配置

1.     通过“↑”、“↓”选择“Apply Changes”并按“Enter”。

打开操作确认界面,如图5-13所示。

图5-13 操作确认界面

 

2.     通过“↑”、“↓”选择“Confirm”并按“Enter”。

3.     通过“↑”、“↓”选择“Yes”并按“Enter”。

提示Operation completed successfully。

4.     通过“↓”选择“OK”并按“Enter”。

配置完成。

                                步骤 5     检查配置结果

1.     在图5-7中选择“Virtual Disk Management”并按“Enter”。

2.     选择“Manage Virtual Disk Properties”并按“Enter”。

显示当前存在的RAID信息。

----结束

5.3.4 创建RAID 1E

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     LSI SAS3008IR支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参看5.2.11 支持RAID 0/1/10/1E。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

对系统的影响

加入到RAID的硬盘数据将会丢失,请提前备份硬盘上的数据。

必备事项

前提条件

已登录管理界面,具体方法请参见5.3.1 登录管理界面。

数据

该操作无需准备数据。

操作步骤

                                步骤 1     进入“Configuration Options”界面。

1.     在主界面中选择“Controller Management”并按“Enter”。

2.     选择“Create Configuration”并按“Enter”。

                                步骤 2     选择RAID级别

1.     通过“↑”、“↓”选择“Select RAID level”并按“Enter”。

显示当前可配置的RAID级别,如图5-14所示。

图5-14 选择RAID级别

 

2.     选择要配置的RAID级别“RAID 1E”并按“Enter”。

                                步骤 3     选择成员盘

1.     通过“↑”、“↓”选择“Select Physical Disks”并按“Enter”。

打开硬盘选择界面,如图5-15所示,界面中参数说明如表5-6所示。

图5-15 选择硬盘

 

表5-6 参数说明

参数

说明

Selected RAID Level

已配置的RAID级别。

Select Interface Type

选择硬盘接口类型,若RAID控制卡下挂载多种接口类型的硬盘,可通过该选项过滤。

配置方法:

1.     选中该操作项并按“Enter”。

2.     在打开的列表中选择要配置的参数并按“Enter”。

Select Media Type

选择硬盘类型,若RAID控制卡下挂载多种容量的硬盘,可通过该选项过滤。

配置方法:

1.     选中该操作项并按“Enter”。

2.     在打开的列表中选择要配置的参数并按“Enter”。

0:2:0 SATA HDD-512b 1863GB

可选择的硬盘。

配置方法:

1.     选中该操作项并按“Enter”。

2.     在打开的列表中选择“Enabled”并按“Enter”。

Check All

选中列出的所有硬盘。

配置方法:选中该操作项并按“Enter”。

Uncheck All

取消选中硬盘。

配置方法:选中该操作项并按“Enter”。

 

2.     按表5-6所述选中RAID成员盘。

                                步骤 4     保存配置

1.     通过“↑”、“↓”选择“Apply Changes”并按“Enter”。

打开操作确认界面,如图5-16所示。

图5-16 操作确认界面

 

2.     通过“↑”、“↓”选择“Confirm”并按“Enter”。

3.     通过“↑”、“↓”选择“Yes”并按“Enter”。

提示Operation completed successfully。

4.     通过“↓”选择“OK”并按“Enter”。

配置完成。

                                步骤 5     检查配置结果

1.     在图5-7中选择“Virtual Disk Management”并按“Enter”。

2.     选择“Manage Virtual Disk Properties”并按“Enter”。

显示当前存在的RAID信息。

----结束

5.3.5 创建RAID 10

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     LSI SAS3008IR支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参看5.2.11 支持RAID 0/1/10/1E。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

对系统的影响

加入到RAID的硬盘数据将会丢失,请提前备份硬盘上的数据。

必备事项

前提条件

已登录管理界面,具体方法请参见5.3.1 登录管理界面。

数据

该操作无需准备数据。

操作步骤

                                步骤 1     进入“Configuration Options”界面。

1.     在主界面中选择“Controller Management”并按“Enter”。

2.     选择“Create Configuration”并按“Enter”。

                                步骤 2     选择RAID级别

1.     通过“↑”、“↓”选择“Select RAID level”并按“Enter”。

显示当前可配置的RAID级别,如图5-17所示。

图5-17 选择RAID级别

 

2.     选择要配置的RAID级别“RAID 10”并按“Enter”。

                                步骤 3     选择成员盘

1.     通过“↑”、“↓”选择“Select Physical Disks”并按“Enter”。

打开硬盘选择界面,如图5-18所示,界面中参数说明如表5-7所示。

图5-18 选择硬盘

 

表5-7 参数说明

参数

说明

Selected RAID Level

已配置的RAID级别。

Select Interface Type

选择硬盘接口类型,若RAID控制卡下挂载多种接口类型的硬盘,可通过该选项过滤。

配置方法:

1.     选中该操作项并按“Enter”。

2.     在打开的列表中选择要配置的参数并按“Enter”。

Select Media Type

选择硬盘类型,若RAID控制卡下挂载多种容量的硬盘,可通过该选项过滤。

配置方法:

1.     选中该操作项并按“Enter”。

2.     在打开的列表中选择要配置的参数并按“Enter”。

0:2:0 SATA HDD-512b 1863GB

可选择的硬盘。

配置方法:

1.     选中该操作项并按“Enter”。

2.     在打开的列表中选择“Enabled”并按“Enter”。

Check All

选中列出的所有硬盘。

配置方法:选中该操作项并按“Enter”。

Uncheck All

取消选中硬盘。

配置方法:选中该操作项并按“Enter”。

 

2.     按表5-7所述选中RAID成员盘。

                                步骤 4     保存配置

1.     通过“↑”、“↓”选择“Apply Changes”并按“Enter”。

打开操作确认界面,如图5-19所示。

图5-19 操作确认界面

 

2.     通过“↑”、“↓”选择“Confirm”并按“Enter”。

3.     通过“↑”、“↓”选择“Yes”并按“Enter”。

提示Operation completed successfully。

4.     通过“↓”选择“OK”并按“Enter”。

配置完成。

                                步骤 5     检查配置结果

1.     在图5-7中选择“Virtual Disk Management”并按“Enter”。

2.     选择“Manage Virtual Disk Properties”并按“Enter”。

显示当前存在的RAID信息。

----结束

5.3.6 配置启动项

同一台服务器配置了单个LSI SAS3008IR卡或者多种芯片硬盘控制器的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。

设置启动项的操作方法请参见 BIOS 参数参考的“设置服务器启动设备”章节。

5.4 常用配置

5.4.1 配置热备盘

操作场景

该任务指导用户配置LSI SAS3008IR控制器的全局热备盘。

在LSI SAS3008IR控制器上创建完RAID 1/1E/10后,最多可以配置2个全局热备盘,提升数据安全性。

说明

l     机械盘与固态盘不能互相作为热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID组的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID组成员盘最大容量。

l     除RAID 0外,其他类型的RAID组均支持热备盘。

对系统的影响

用作热备盘的硬盘数据将会丢失,请提前备份硬盘上的数据。

必备事项

配置热备盘之前,需具备如下条件:

l     服务器存在空闲硬盘。

l     已登录管理界面,具体方法请参见5.3.1 登录管理界面。

数据

该操作无需准备数据。

操作步骤

                                步骤 1     进入虚拟磁盘管理界面。

1.     在主界面中选择“Virtual Disk Management”并按“Enter”。

2.     选择“Manage Virtual Disk Properties”并按“Enter”。

打开虚拟磁盘属性管理界面,如图5-20所示。

图5-20 管理虚拟磁盘属性

 

                                步骤 2     配置热备盘

1.     选择“Manage Global Hotspare Disks”并按“Enter”。

打开热备盘设置界面,如图5-21所示。

图5-21 设置热备盘

 

2.     通过“↑”、“↓”选择要配置的硬盘并按“Enter”。

3.     通过“↑”、“↓”选择“Assign Global Hotspare Disk”并按“Enter”。

显示Operation complete successfully。

4.     通过“↓”选择“OK”并按“Enter”。

完成配置。

----结束

5.4.2 删除热备盘

操作场景

该任务指导用户删除LSI SAS3008IR控制器的全局热备盘。

必备事项

前提条件

已登录管理界面,具体方法请参见5.3.1 登录管理界面。

数据

该操作无需准备数据。

操作步骤

                                步骤 1     进入虚拟磁盘管理界面。

1.     在主界面中选择“Virtual Disk Management”并按“Enter”。

2.     选择“Manage Virtual Disk Properties”并按“Enter”。

打开虚拟磁盘属性管理界面,如图5-22所示。

图5-22 管理虚拟磁盘属性

 

                                步骤 2     删除热备盘。

1.     选择“Manage Global Hotspare Disks”并按“Enter”。

打开热备盘设置界面,如图5-23所示。

图5-23 删除热备盘

 

2.     通过“↑”、“↓”选择要删除的热备盘并按“Enter”。

3.     通过“↑”、“↓”选择“Unassign Global Hotspare Disk”并按“Enter”。

显示Operation complete successfully。

4.     通过“↓”选择“OK”并按“Enter”。

完成配置。

----结束

5.4.3 导入/清除外部配置

操作场景

l     对于新安装到服务器系统中的物理硬盘可能已经存在一个存储配置。对于这种外部配置,用户可以运用WebBIOS将其引入到当前RAID控制卡中。

l     当服务器更换RAID控制卡后,用户可以通过该操作将原有的配置信息导入新的RAID控制卡中。

 

注意

l     为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

导入外部配置

                                步骤 1     登录管理界面,具体方法请参见5.3.1 登录管理界面。

                                步骤 2     在主界面中选择“Controller Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如图5-24所示。

图5-24 管理外部配置

 

                                步骤 4     选择“Select Foreign Configuration”并按“Enter”。

                                步骤 5     在打开的列表中选择要导入的外部配置并按“Enter”。

                                步骤 6     选择“View Foreign Configuration”并按“Enter”。

打开查看外部配置的界面,如图5-25所示。

图5-25 查看外部配置

 

                                步骤 7     选择“Import Foreign Configuration”并按“Enter”。

进入操作确认界面,如图5-26所示。

图5-26 操作确认

 

                                步骤 8     通过“↑”、“↓”选择“Confirm”并按“Enter”。

                                步骤 9     通过“↑”、“↓”选择“Yes”并按“Enter”。

提示Operation completed successfully。

                             步骤 10     通过“↓”选择“OK”并按“Enter”。

配置完成。

----结束

清除外部配置

                                步骤 1     登录管理界面,具体方法请参见5.3.1 登录管理界面。

                                步骤 2     在主界面中选择“Controller Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如图5-27所示。

图5-27 管理外部配置

 

                                步骤 4     选择“Select Foreign Configuration”并按“Enter”。

                                步骤 5     在打开的列表中选择要导入的外部配置并按“Enter”。

                                步骤 6     选择“View Foreign Configuration”并按“Enter”。

打开查看外部配置的界面,如图5-28所示。

图5-28 查看外部配置

 

                                步骤 7     通过“↑”、“↓”选择“Clear Foreign Configuration”并按“Enter”。

进入操作确认界面。

                                步骤 8     按“Enter”打开操作确认选项。

                                步骤 9     通过“↑”、“↓”选择“Yes”并按“Enter”。

提示Operation completed successfully。

                             步骤 10     通过“↓”选择“OK”并按“Enter”。

配置完成。

----结束

5.4.4 删除RAID

操作场景

该任务指导用户删除RAID。

当服务器不需要某个RAID时,可以将其删除以释放硬盘。

 

注意

RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。

对系统的影响

该操作对系统正常运行无影响。

必备事项

前提条件

已登录管理界面,具体方法请参见5.3.1 登录管理界面。

数据

该操作无需准备数据。

操作步骤

                                步骤 1     进入虚拟磁盘操作界面。

1.     在主界面中选择“Virtual Disk Management”并按“Enter”。

2.     选择“Select Virtual Disk Operations”并按“Enter”。

进入虚拟磁盘操作界面,如图5-29所示。

图5-29 操作虚拟磁盘

 

                                步骤 2     删除指定RAID。

1.     选择“Select Virtual Disk”并按“Enter”。

2.     在列表中选择要删除的RAID并按“Enter”。

3.     通过“↑”、“↓”选择“Delete Virtual Disk”并按“Enter”。

进入操作确认界面

4.     通过“↑”、“↓”选择“Confirm”并按“Enter”。

5.     通过“↑”、“↓”选择“Yes”并按“Enter”。

显示Operation complete successfully。

6.     通过“↓”选择“OK”并按“Enter”。

完成配置。

----结束

5.4.5 查询RAID控制卡固件版本

查询RAID控制卡固件版本的方法有如下几种:

l     服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见5.7.2.2 查看所有信息。

说明

回显信息中的“Firmware version”字段即为RAID控制卡的固件版本。

l     在RAID控制卡管理界面进行查询,具体方法为:

a.     登录RAID控制卡的管理界面,具体操作请参见5.3.1 登录管理界面。

b.     在主界面中选择“Controller Management”并按“Enter”。

c.     选择“View Controller Properties”并按“Enter”。

显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如图5-30所示。

图5-30 View Controller Properties页面

 

5.5 故障处理

介绍了硬盘故障、RAID控制卡故障的常用处理方法。

更多故障案例请联系技术支持获取。

5.5.1 硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

                                步骤 1     确认故障硬盘槽位。

说明

直通模式下的硬盘发生故障后,硬盘Fault指示灯不会被点亮且iBMC不会对其进行告警。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考5.6.4.1 View Physical Disk Properties。

l     通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考5.7.2.2 查看所有信息。

                                步骤 2     更换新硬盘。

 

注意

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考5.4.3 导入/清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在表5-2查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制器下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组为冗余RAID且已配置热备盘,全局热备盘会自动替换故障硬盘进行数据同步和恢复。在故障硬盘槽位插入新硬盘后,新硬盘会自动变成热备盘。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。

     UEFI模式下创建RAID0的方法请参见5.3.2 创建RAID 0。

     通过命令行方式创建RAID0的方法请参见5.7.2.3 创建和删除RAID。

----结束

5.5.2 RAID控制卡故障

问题描述

当服务器出现如下现象时,说明RAID控制卡故障。

l     数据无法写入RAID控制卡控制的硬盘。

l     服务器上报RAID控制卡故障告警。

处理方法

                                步骤 1     登录iBMC Web界面查看告警信息。

                                步骤 2     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 3     收集和查看日志信息以及其它必要的故障信息。

                                步骤 4     查询兼容性查询助手或者联系技术支持处理。

----结束

5.6 管理界面介绍

5.6.1 登录管理界面

操作场景

该任务指导用户登录LSI SAS3008IR的配置管理界面。

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

必备事项

前提条件

数据

该操作无需准备数据。

文档

登录远程虚拟控制台的详细方法可参考各服务器的用户指南。

操作步骤

                                步骤 1     重启服务器。当出现如图5-31所示界面时,按“F11”键。

图5-31 BIOS启动界面(1)

 

                                步骤 2     输入密码,并按“Enter”。

进入如图5-32所示界面。

图5-32 BIOS启动界面(2)

 

                                步骤 3     选择“Device Manager”并按“Enter”。

显示当前存在的RAID控制卡列表,如图5-33所示。

图5-33 RAID控制卡列表

 

                                步骤 4     选择要操作的LSI SAS3008IR控制器,按“Enter”。

打开“LSI SAS3 MPT Controller Configuration”界面,如图5-34所示界面。

图5-34 “LSI SAS3 MPT Controller Configuration”界面

 

                                步骤 5     按“Enter”进入LSI SAS3008IR的配置界面。

“Configuration Options”界面如图5-35所示,界面参数如表5-8所示。

图5-35 “Configuration Options”界面

 

表5-8 操作项说明

参数

参数说明

Controller Management

配置管理RAID控制卡属性。

Virtual Disk Management

配置管理虚拟磁盘。

Physical Disk Management

配置管理物理硬盘。

 

----结束

5.6.2 Controller Management

界面显示如图5-36所示,操作说明如表5-9所示。

图5-36 Controller Management

 

表5-9 操作说明

操作项

说明

View Controller Properties

查看LSI SAS3008IR属性。

操作方法:选中该操作项并按“Enter”。

Change Controller Properties

修改LSI SAS3008IR属性。

操作方法:选中该操作项并按“Enter”。

Create Configuration

创建并管理RAID。

操作方法:选中该操作项并按“Enter”。

Clear Configuration

清除当前配置。

操作方法:选中该操作项并按“Enter”。

Manage Foreign Configuration

管理外部配置。

仅当LSI SAS3008IR中存在外部配置时,会显示该操作项。

操作方法:选中该操作项并按“Enter”。

Save Controller Events

保存LSI SAS3008IR日志信息。

操作方法:选中该操作项并按“Enter”。

 

5.6.2.1 View Controller Properties

该界面显示LSI SAS3008IR控制器属性。

界面介绍

界面显示如图5-37所示,参数说明如表5-10所示。

图5-37 Controller Properties

 

表5-10 Controller Properties参数说明

参数

说明

Chip Name

RAID控制器名称。

Chip Version

RAID控制卡版本信息。

PCI ID

当前控制器的PCI地址,格式为:总线号:设备号:功能号。

PCI Slot Number

控制卡的PCI槽位号。

Host Interface

RAID控制卡接口类型。

Physical Disk Count

RAID控制卡下挂载的物理磁盘数。

Virtual Disk Count

RAID控制卡下挂载的虚拟磁盘数。

Firmware Type

RAID控制卡固件类型。

Firmware Version

RAID控制卡的固件版本号。

Default NVData Version

默认的RAID配置信息版本号。

Persistent NVData Version

永久性RAID配置信息版本号。

 

5.6.2.2 Change Controller Properties

当OS的处理能力不足时,您可以通过该界面设置RAID重构任务在系统资源中的占用率。

界面介绍

界面显示如图5-38所示。

图5-38 Change Controller Properties

 

修改重构速率

                                步骤 1     按“Enter”打开可修改的速率列表。

                                步骤 2     通过“↑”、“↓”选择要配置的速率并按“Enter”。

                                步骤 3     通过“↑”、“↓”选择“Apply Changes”并按“Enter”。

返回changes were applied。

----结束

5.6.2.3 Create Configuration

您可以通过该界面配置RAID。

界面介绍

界面显示如图5-39所示。

图5-39 Create Configuration

 

配置RAID

                                步骤 1     选择RAID级别

1.     通过“↑”、“↓”选择“Select RAID level”并按“Enter”。

显示当前可配置的RAID级别,如图5-40所示。

图5-40 选择RAID级别

 

2.     选择要配置的RAID级别并按“Enter”。

                                步骤 2     选择成员盘

1.     通过“↑”、“↓”选择“Select Physical Disks”并按“Enter”。

打开硬盘选择界面,如图5-41所示,界面中参数说明如表5-11所示。

图5-41 选择硬盘

 

表5-11 参数说明

参数

说明

Selected RAID Level

已配置的RAID级别。

Select Interface Type

选择硬盘接口类型,若RAID控制卡下挂载多种接口类型的硬盘,可通过该选项过滤。

配置方法:

1.     选中该操作项并按“Enter”。

2.     在打开的列表中选择要配置的参数并按“Enter”。

Select Media Type

选择硬盘类型,若RAID控制卡下挂载多种容量的硬盘,可通过该选项过滤。

配置方法:

1.     选中该操作项并按“Enter”。

2.     在打开的列表中选择要配置的参数并按“Enter”。

0:2:0 SATA HDD-512b 1863GB

可选择的硬盘。

配置方法:

1.     选中该操作项并按“Enter”。

2.     在打开的列表中选择“Enabled”并按“Enter”。

Check All

选中列出的所有硬盘。

配置方法:选中该操作项并按“Enter”。

Uncheck All

取消选中硬盘。

配置方法:选中该操作项并按“Enter”。

 

2.     按表5-11所述选中RAID成员盘。

                                步骤 3     保存配置

1.     通过“↑”、“↓”选择“Apply Changes”并按“Enter”。

打开操作确认界面,如图5-42所示。

图5-42 操作确认界面

 

2.     通过“↑”、“↓”选择“Confirm”并按“Enter”。

3.     通过“↑”、“↓”选择“Yes”并按“Enter”。

提示Operation completed successfully。

4.     通过“↓”选择“OK”并按“Enter”。

配置完成。

----结束

5.6.2.4 Clear Configuration

您可以通过该选项删除当前RAID配置。

删除RAID配置

                                步骤 1     在“Controller Management”界面通过“↑”、“↓”选择“Clear Configuration”并按“Enter”。

打开操作确认界面,如图5-43所示。

图5-43 操作确认界面

 

                                步骤 2     通过“↑”、“↓”选择“Confirm”并按“Enter”。

                                步骤 3     通过“↑”、“↓”选择“Yes”并按“Enter”。

提示Operation completed successfully。

                                步骤 4     通过“↓”选择“OK”并按“Enter”。

配置完成。

----结束

5.6.2.5 Manage Foreign Configuration

您可以通过该界面查看、导入或清除外部配置。

仅当LSI SAS3008IR中存在外部配置时,会显示该操作项。

界面介绍

界面显示如图5-44所示,界面参数如表5-12所示。

图5-44 Manage Foreign Configuration

 

表5-12 参数说明

参数

说明

Select Foreign Configuration

选择要操作的外部配置。

操作方法:

1.     选中该操作项并按“Enter”。

2.     在列表中选择要操作的外部配置并按“Enter”。

View Foreign Configuration

查看外部配置的详细信息。

操作方法:选中该操作项并按“Enter”。

Clear Foreign Configuration

清除外部配置。

操作方法:选中该操作项并按“Enter”。

 

导入外部配置

                                步骤 1     在图5-44中选择“View Foreign Configuration”并按“Enter”。

界面显示如图5-45所示,界面参数如表5-13所示。

图5-45 View Foreign Configuration

 

表5-13 参数说明

参数

说明

Selected Foreign Configuration

已选定的外部配置。

Import Foreign Configuration

导入当前外部配置。

Clear Foreign Configuration

清除当前外部配置。

Last Known Volume State

当前外部配置最近的已知状态。

该参数缺失时,此外部配置无法导入。

 

                                步骤 2     通过“↑”、“↓”选择“Import Foreign Configuration”并按“Enter”。

进入操作确认界面,如图5-46所示。

图5-46 操作确认

 

                                步骤 3     按“Enter”打开操作确认选项。

                                步骤 4     选择“Enabled”并按“Enter”。

                                步骤 5     通过“↑”、“↓”选择“Yes”并按“Enter”。

提示Operation completed successfully。

                                步骤 6     通过“↓”选择“OK”并按“Enter”。

配置完成。

----结束

清除外部配置

                                步骤 1     通过“↑”、“↓”选择“Clear Foreign Configuration”并按“Enter”。

进入操作确认界面。

                                步骤 2     按“Enter”打开操作确认选项。

                                步骤 3     通过“↑”、“↓”选择“Yes”并按“Enter”。

提示Operation completed successfully。

                                步骤 4     通过“↓”选择“OK”并按“Enter”。

配置完成。

----结束

5.6.2.6 Save Controller Events

您可以通过该界面保存控制器的事件日志。

界面介绍

界面显示如图5-47所示,界面参数如表5-14所示。

图5-47 Save Controller Events

 

表5-14 参数说明

参数

说明

Available File Systems

可用的文件系统。

操作方法:

1.     选中该操作项并按“Enter”。

2.     在列表中选择要使用的文件系统并按“Enter”。

Available Directories

可用的文件路径。

操作方法:

1.     选中该操作项并按“Enter”。

2.     在列表中选择要使用的文件系统并按“Enter”。

Enter File Name

输入文件名。

操作方法:

1.     选中该操作项并按“Enter”。

2.     在文本框中输入待设置的文件名并按“Enter”。

说明

事件日志文件格式为“*.bin”。

 

保存事件日志

                                步骤 1     按照表5-14所述配置文件系统、文件路径及文件名。

                                步骤 2     通过“↑”、“↓”选择“Save Events”并按“Enter”。

提示Operation completed successfully。

                                步骤 3     通过“↓”选择“OK”并按“Enter”。

配置完成。

----结束

5.6.3 Virtual Disk Management

界面显示如图5-48所示,操作说明如表5-15所示。

图5-48 Virtual Disk Management

 

表5-15 操作说明

操作项

说明

Manage Virtual Disk Properties

查看并修改指定虚拟磁盘属性,并提供热备盘配置接口。

操作方法:选中该操作项并按“Enter”。

Select Virtual Disk Operations

查看或删除指定虚拟磁盘。

操作方法:选中该操作项并按“Enter”。

 

5.6.3.1 Manage Virtual Disk Properties

界面显示如图5-49所示,参数说明如表5-16所示。

图5-49 Manage Virtual Disk Properties

 

表5-16 参数说明

操作项

说明

Select Virtual Disk

选择要操作的虚拟磁盘。

操作方法:

1.     选中该操作项并按“Enter”。

2.     在列表中选择要操作的虚拟磁盘并按“Enter”。

Virtual Disk ID

虚拟磁盘的ID。

RAID Level

虚拟磁盘的RAID级别。

Virtual Disk Status

虚拟磁盘的状态。

Virtual Disk Capacity

虚拟磁盘的容量。

Virtual Disk Policies

虚拟磁盘的读写策略。

View Associated Physical Disks

查看关联硬盘的属性。

操作方法:选择该操作项按“Enter”。

Manage Global Hotspare Disks

管理热备盘。

操作方法:选择该操作项按“Enter”。

 

查看成员盘属性

                                步骤 1     在图5-49中选择“View Associated Physical Disks”并按“Enter”。

界面显示如图5-50所示,参数说明如表5-17所示。

图5-50 View Associated Physical Disks

 

表5-17 参数说明

操作项

说明

Selected Virtual Disk

选定的虚拟磁盘。

Associated Physical Disks

成员盘列表。

 

                                步骤 2     通过“↑”、“↓”选择要查询的成员盘并按“Enter”。

                                步骤 3     通过“↑”、“↓”选择“View Physical Disk Properties”并按“Enter”。

打开硬盘属性界面,如图5-51所示。

图5-51 硬盘属性

 

                                步骤 4     通过“↑”、“↓”选择“View More Physical Disk Properties”并按“Enter”。

可查看到更多的硬盘属性,如图5-52所示。硬盘属性界面参数如表5-18所示。

图5-52 硬盘属性

 

表5-18 硬盘属性参数说明

操作项

说明

Select Physical Disk

选定要查询的硬盘。

操作方法:

1.     选择该操作项并按“Enter”。

2.     在列表中选择要查询的硬盘并按“Enter”。

Physical Disk ID

物理硬盘的ID。

State

物理硬盘的状态。

Revision

物理硬盘的版本。

Device Type

设备类型。

SAS Address

物理硬盘的SAS地址。

Disk Cache Setting

物理硬盘的Cache使能状态。

Size

物理硬盘的容量。

Disk Protocol

硬盘类型。

Serial Number of Disk

物理硬盘序列号。

Hardware Vendor

物理硬盘的生产厂商。

Model Number

物理硬盘的模块序号。

Hard Disk Drive RPM

物理硬盘转速。

Neg. Disk Transfer Speed

物理硬盘接口速率。

View More Physical Disk Properties

物理硬盘的更多属性。

SMART Status

SMART检测结果。

Hotspare

该物理硬盘是否为热备盘。

Associated Virtual Disk

该物理硬盘所在的虚拟磁盘。

 

----结束

配置热备盘

                                步骤 1     在图5-49中选择“Manage Global Hotspare Disks”并按“Enter”。

界面显示如图5-53所示,参数说明如表5-19所示。

图5-53 Manage Global Hotspare Disks

 

表5-19 参数说明

操作项

说明

Selected Virtual Disk

选定的虚拟磁盘。

Compatible Bare Disks

可设置为热备盘的硬盘列表。

Global Hotspare Disks

当前存在的热备盘列表。

Assign Global Hotspare Disk

配置全局热备盘。

Unassign Global Hotspare Disk

取消选中的全局热备盘。

 

                                步骤 2     通过“↑”、“↓”选择要配置的硬盘并按“Enter”。

                                步骤 3     通过“↑”、“↓”选择“Assign Global Hotspare Disk”并按“Enter”。

显示“Operation complete successfully”。

                                步骤 4     通过“↓”选择“OK”并按“Enter”。

完成配置。

----结束

删除热备盘

                                步骤 1     在图5-53中通过“↑”、“↓”选择要删除的热备盘并按“Enter”。

                                步骤 2     通过“↑”、“↓”选择“Unassign Global Hotspare Disk”并按“Enter”。

显示Operation complete successfully。

                                步骤 3     通过“↓”选择“OK”并按“Enter”。

完成配置。

----结束

5.6.3.2 Select Virtual Disk Operations

界面显示如图5-54所示,参数说明如表5-20所示。

图5-54 Select Virtual Disk Operations

 

表5-20 参数说明

操作项

说明

Select Virtual Disk

选择要操作的虚拟磁盘。

Start Locate / Blink

点亮虚拟磁盘中成员盘的定位指示灯。

Stop Locate / Blink

熄灭虚拟磁盘中成员盘的定位指示灯。

Delete Virtual Disk

删除虚拟磁盘。

Operation in Progress

当前正在处理的操作。

Operation Pending

等待执行的操作。

Allowed Operations

允许执行的操作。

Operation Progress (%)

任务处理进度。

Is Operation in Progress

当前有任务正在处理中。

Start Operation

开始操作。

 

点亮定位指示灯

                                步骤 1     通过“↑”、“↓”选择“Start Locate / Blink”并按“Enter”。

----结束

删除虚拟磁盘

                                步骤 1     通过“↑”、“↓”选择“Delete Virtual Disk”并按“Enter”。

进入操作确认界面。

                                步骤 2     通过“↑”、“↓”选择“Confirm”并按“Enter”。

                                步骤 3     通过“↑”、“↓”选择“Yes”并按“Enter”。

显示Operation complete successfully。

                                步骤 4     通过“↓”选择“OK”并按“Enter”。

完成配置。

----结束

5.6.4 Physical Disk Management

界面显示如图5-55所示,参数说明如表5-21所示。

图5-55 Physical Disk Management

 

表5-21 参数说明

操作项

说明

View Physical Disk Properties

查看硬盘属性。

操作方法:选择该操作项并按“Enter”。

Select Physical Disk Operations

对硬盘进行操作。

操作方法:选择该操作项并按“Enter”。

 

5.6.4.1 View Physical Disk Properties

界面显示如图5-56所示,参数说明如表5-22所示。

图5-56 View Physical Disk Properties

 

表5-22 硬盘属性参数说明

操作项

说明

Select Physical Disk

选定要查询的硬盘。

操作方法:

1.     选择该操作项并按“Enter”。

2.     在列表中选择要查询的硬盘并按“Enter”。

Physical Disk ID

物理硬盘的ID。

State

物理硬盘的状态。

Revision

物理硬盘的版本。

Device Type

设备类型。

SAS Address

物理硬盘的SAS地址。

Disk Cache Setting

物理硬盘的Cache使能状态。

Size

物理硬盘的容量。

Disk Protocol

硬盘类型。

Serial Number of Disk

物理硬盘序列号。

Unit Serial Number(UPD)

物理硬盘的单位序号。

Hardware Vendor

物理硬盘的生产厂商。

Model Number

物理硬盘的模块序号。

Hard Disk Drive RPM

物理硬盘转速。

 

5.6.4.2 Select Physical Disk Operations

界面显示如图5-57所示。

图5-57 Select Physical Disk Operations

 

点亮硬盘定位指示灯

                                步骤 1     通过“↓”、“↑”选择“Select Physical Disk”并按“Enter”。

                                步骤 2     在硬盘列表中选择待操作的硬盘并按“Enter”。

                                步骤 3     通过“↓”、“↑”选择“Start Locate / Blink”并按“Enter”。

----结束

5.6.5 Exit

退出配置界面。

退出配置界面

                                步骤 1     在LSI SAS3008IR主界面按“ESC”,显示如图5-58所示“Device Manager”界面。

图5-58 Device Manager

 

                                步骤 2     按“F10”退出BIOS配置界面。

弹出操作确认对话框。

                                步骤 3     选择“OK”并按“Enter”。

退出BIOS界面,并提示“Press Control+Alt+Delete to reboot”。

----结束

5.7 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

5.7.1 下载和安装SAS3IRCU工具

下载工具

                                步骤 1     登录BROADCOM网站上RAID控制卡的页面

                                步骤 2     单击“Management Software and Tools”。

打开管理软件和工具列表。

                                步骤 3     下载最新版本的“SAS3IRCU”工具。

                                步骤 4     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

                                步骤 1     使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统。

                                步骤 2     在Shell界面中进入SAS3IRCU工具所在目录。

Linux下的SAS3IRCU工具不需安装,此时可执行RAID控制卡命令。

----结束

5.7.2 常用命令

5.7.2.1 查看所有控制器

命令功能

查看所有控制器。

命令格式

sas3ircu list

参数说明

使用实例

# 查看所有控制器

domino:~# ./sas3ircu list

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

        Adapter       Vendor  Device                      SubSys  SubSys

Index    Type           ID      ID    Pci Address         Ven ID  Dev ID

 -----  ------------  ------  ------  -----------------   ------  ------

  0     SAS3008        1000h   97h    00h:01h:00h:00h     1000h   3090h

SAS3IRCU: Utility Completed Successfully.    

5.7.2.2 查看所有信息

命令功能

查看RAID、虚拟磁盘、物理硬盘的详细信息。

命令格式

sas3ircu controller_id display

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

 

使用实例

# 查看RAID、虚拟磁盘、物理硬盘的详细信息。

l     2个硬盘分别设置为第一启动项和第二启动项时,display命令可查询到相关信息,例如:

domino:~# ./sas3ircu 0 display

l     硬盘和RAID组和分别被设置为第一启动项和第二启动项时,display命令可查询到相关信息,例如:

domino:~# ./sas3ircu 0 display

5.7.2.3 创建和删除RAID

命令功能

创建和删除RAID。

说明

删除命令会删除所有RAID组。

命令格式

sas3ircu controller_id create RAIDlevel capacity enclosure_id:slot_id name noprompt

sas3ircu controller_id delete noprompt

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

level

要配置的RAID级别

capacity

要配置的RAID组容量

可以为MAX,表示配置RAID组容量最大容量。

enclosure_id

硬盘所在Enclosure的ID

slot_id

硬盘槽位号

name

RAID组的名字

用户自拟

 

使用实例

# 创建RAID组

domino:~# ./sas3ircu 0 create RAID1 MAX 1:0 1:1 Test01 noprompt

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

Please wait, may take up to a minute...

SAS3IRCU: Volume created successfully.

SAS3IRCU: Command CREATE Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

# 创建RAID组

domino:~# ./sas3ircu 0 create RAID1 MAX 1:2 1:3 Test01 noprompt

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

Please wait, may take up to a minute...

SAS3IRCU: Volume created successfully.

SAS3IRCU: Command CREATE Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

# 删除RAID组

domino:~# ./sas3ircu 0 delete noprompt

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

Please wait, may take up to a minute...

SAS3IRCU: Volume deleted successfully.

SAS3IRCU: Command DELETE Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

5.7.2.4 删除指定的RAID

命令功能

删除指定的RAID组。

命令格式

sas3ircu controller_id deletevolume volume_id noprompt

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

volume_id

RAID组ID

 

使用实例

# 删除ID为322的RAID组

domino:~# ./sas3ircu 0 deletevolume 322 noprompt

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

Please wait, may take up to a minute...

SAS3IRCU: Volume deleted successfully.

SAS3IRCU: Command DELETEVOLUME Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

5.7.2.5 模拟硬盘故障

命令功能

模拟硬盘故障。

命令格式

sas3ircu controller_id action enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

action

要执行的操作

l     setonline:上线

l     setoffline:下线

enclosure_id

硬盘所在Enclosure的ID

slot_id

硬盘槽位号

 

使用实例

# 模拟硬盘下线故障。

domino:~# ./sas3ircu 0 setoffline 1:2

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

SAS3IRCU: Physical disk set to Offline successfully.

SAS3IRCU: Command SETOFFLINE Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

# 模拟硬盘上线故障。

domino:~# ./sas3ircu 0 setonline 1:2

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

SAS3IRCU: Physical disk set to Online successfully.

SAS3IRCU: Command SETONLINE Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

5.7.2.6 热备盘的创建和删除

命令功能

创建、删除热备盘。

命令格式

sas3ircu controller_id hotspare enclosure_id:slot_id

sas3ircu controller_id hotspare delete enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

硬盘槽位号

 

使用实例

# 创建热备盘。

domino:~# ./sas3ircu 0 hotspare 1:2

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

WARNING: Proceeding with this operation may cause data loss or data 

         corruption. Are you sure you want to proceed (YES/NO)?yes

WARNING: This is your last chance to abort this operation. Do you wish 

         to abort (YES/NO)?no

Please wait,may take up to a minute...

SAS3IRCU: Hot Spare disk created successfully.

SAS3IRCU: Command HOTSPARE Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

# 删除热备盘。

domino:~# ./sas3ircu 0 hotspare delete 1:2

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

WARNING: Proceeding with this operation may cause data loss or data 

         corruption. Are you sure you want to proceed (YES/NO)?yes

WARNING: This is your last chance to abort this operation. Do you wish 

         to abort (YES/NO)?no

Please wait,may take up to a minute...

SAS3IRCU: Hot Spare disk deleted successfully.

SAS3IRCU: Command HOTSPARE Completed Successfully.

SAS3IRCU: Utility Completed Successfully.    

5.7.2.7 查看虚拟磁盘状态

命令功能

查看虚拟磁盘状态。

命令格式

sas3ircu controller_id status

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

 

使用实例

# 查看虚拟磁盘状态。

domino:~# ./sas3ircu 0 status

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

Background command progress status for controller 0...

IR volume 1

  Volume ID                              : 323

  Current operation                      : Background Init

  volume Status                          : Enabled

  Volume state                           : Optimal

  Volume wwid                            : 0307b565aa18c1fb

  Physical disk I/Os                     : Not quiesced

  Volume size (in sectors)               : 1560545280

  Number of remaining sectors            : 1558128640

  Percentage complete                    : 0.15%

IR volume 2

  Volume ID                              : 323

  Current operation                      : none

  volume Status                          : Enabled

  Volume state                           : Optimal

  Volume wwid                            : 09fb6da3d1048925

  Physical disk I/Os                     : Not quiesced

SAS3IRCU: Command STATUS Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

5.7.2.8 一致性校验

命令功能

可对指定组做一致性校验。

命令格式

sas3ircu controller_id constchk volume_id noprompt

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

volume_id

RAID组的ID

 

使用实例

# 一致性校验

domino:~# ./sas3ircu 0 constchk 322 noprompt

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

SAS3IRCU: Consistency Check Operation started on IR Volume.

SAS3IRCU: Command CONSTCHK Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

5.7.2.9 激活RAID

命令功能

当有外部配置时,可通过激活RAID组使其生效。

命令格式

sas3ircu controller_id activate volume_id

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

volume_id

待激活RAID组的ID

 

使用实例

# 激活ID为322的RAID组。

domino:~# ./sas3ircu 0 activate 322

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

SAS3IRCU: ACTIVATE Volume 322 Passed!

SAS3IRCU: Command ACTIVATE Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

5.7.2.10 点亮硬盘指示灯

命令功能

点亮指定硬盘的指示灯。

命令格式

sas3ircu controller_id locate enclosure_id:slot_id on

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

硬盘槽位号

 

使用实例

# 点亮指定硬盘的指示灯。

domino:~# ./sas3ircu 0 locate 1:0 on

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

SAS3IRCU: LOCATE command completed successfully.

SAS3IRCU: Command LOCATE Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

5.7.2.11 收集和清除RAID组事件日志

命令功能

收集和清除RAID组事件日志。

命令格式

sas3ircu controller_id logir upload name

sas3ircu controller_id logir clear

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

name

日志文件名

用户自拟

 

使用实例

# 收集RAID组事件日志并存储到本地文件FW.log。

domino:~# ./sas3ircu 0 logir upload FW.log

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

SAS3IRCU: LogIR command successful.

SAS3IRCU: Command LOGIR Completed Successfully.

SAS3IRCU: Utility Completed Successfully.

# 清除RAID组事件日志。

domino:~# ./sas3ircu 0 logir clear

Avago Technologies SAS3 IR Configuration Utility.

Version 13.00.00.00 (2016.03.08)

Copyright (c) 2009-2016 Avago Technologies. All rights reserved.

WARNING: proceeding with this operation will erase all log information

         stored in th controller. Are you sure you want to proceed (YES/NO)? yes

SAS3IRCU: LogIR command successful.

SAS3IRCU: Command LOGIR Completed Successfully.

SAS3IRCU: Utility Completed Successfully.


6 LSI SAS3108

关于本章

本章节主要介绍LSI SAS3108 RAID控制卡的外观、特性、以及配置方法。

本章节涉及的截图以4.660.00-8140 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

6.1  概述

6.2  功能

6.3  初始配置

6.4  常用配置

6.5  故障处理

6.6  管理界面介绍

6.7  OS命令行工具

6.2 概述

LSI SAS3108 RAID 控制卡(以下简称LSI SAS3108)是基于MegaRAID架构的8端口12Gbit/s SAS控制器,并采用PCIe3.0 x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

LSI SAS3108用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

LSI SAS3108自带的Cache对RAID控制卡性能的提升有非常重要的作用,主要体现在:

l     在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

l     在读数据时,如果可以直接在Cache中命中的话,将减少硬盘寻道操作,降低响应时间,提升了数据读速度。

说明

l     Cache数据的掉电保护依赖于与RAID控制卡相连的超级电容。超级电容的外形、连接方式、安装方式可参考各服务器的用户指南。

l     配套超级电容使用的TFM扣卡的指示灯说明如表6-1所示。

LSI SAS3108的结构如图6-1所示。

图6-1 LSI SAS3108外观

 

1

TFM扣卡状态指示灯

2

TFM扣卡故障指示灯

3

TFM扣卡电源指示灯

4

TFM扣卡(配套超级电容使用)

5

超级电容接口

6

超级电容

7

Xcede连接器

8

RAID控制卡

9

miniSAS接口(port A)

10

miniSAS接口(port B)

 

表6-1 TFM扣卡指示灯说明

指示灯

颜色

说明

TFM扣卡电源指示灯

绿色

l     亮:服务器主板掉电时,超级电容激活并为Cache供电。

l     灭:超级电容不供电。

TFM扣卡状态指示灯

蓝色

l     亮:Cache处于读写状态。

l     灭:Cache无数据读写操作。

TFM扣卡故障指示灯

橙色

l     亮:超级电容故障。

l     灭:超级电容正常。

 

RAID控制卡指示灯

LSI SAS3108扣卡包含两种类型,分别如图6-2图6-3所示。

图6-2 LSI SAS3108扣卡(1)

 

表6-2 指示灯说明

序号

位置

指示灯

颜色

说明

指示灯异常处理策略

1

D8

VCC_1V5 电源指示灯

绿色

灯亮:电压正常

灯灭:电压异常

如果灯灭,需要更换RAID控制卡

2

D7

心跳指示灯

绿色

闪烁:RAID控制卡心跳正常

灯灭:RAID控制卡心跳异常

如果灯灭,需要更换RAID控制卡

3

D4

SYS_ERR1 指示灯

红色

灯亮:RAID控制卡出现ERR1告警

灯灭:RAID控制卡工作正常

如果灯亮,需要更换RAID控制卡

4

D1

SYS_ERR0 指示灯

红色

灯亮:RAID控制卡出现ERR0告警

灯灭:RAID控制卡工作正常

如果灯亮,需要更换RAID控制卡

5

D6

Global drive fault 指示灯

红色

灯亮:RAID控制卡FW工作异常

灯灭:RAID控制卡FW工作正常

如果灯亮,需要更换RAID控制卡

6

D5

Write Pending指示灯

红色

灯亮:RAID控制卡当前Cache中有数据

灯灭:RAID控制卡当前Cache中无数据

不涉及

 

图6-3 LSI SAS3108扣卡(2)

 

表6-3 指示灯说明

序号

位置

指示灯

颜色

说明

指示灯异常处理策略

1

D8

VCC_1V5 电源指示灯

绿色

灯亮:电压正常

灯灭:电压异常

如果灯灭,需要更换RAID控制卡

2

D7

心跳指示灯

绿色

闪烁:RAID控制卡心跳正常

灯灭:RAID控制卡心跳异常

如果灯灭,需要更换RAID控制卡

3

D2

SYS_ERR1 指示灯

红色

灯亮:RAID控制卡出现ERR1告警

灯灭:RAID控制卡工作正常

如果灯亮,需要更换RAID控制卡

4

D1

SYS_ERR0 指示灯

红色

灯亮:RAID控制卡出现ERR0告警

灯灭:RAID控制卡工作正常

如果灯亮,需要更换RAID控制卡

5

D4

Global drive fault 指示灯

红色

灯亮:RAID控制卡FW工作异常

灯灭:RAID控制卡FW工作正常

如果灯亮,需要更换RAID控制卡

6

D3

Write Pending指示灯

红色

灯亮:RAID控制卡当前Cache中有数据

灯灭:RAID控制卡当前Cache中无数据

不涉及

 

6.3 功能

6.3.1 支持RAID 0/1/5/6/10/50/60

LSI SAS3108支持的硬盘、虚拟磁盘、硬盘组数量分别为:

l     最多支持32或240个硬盘(LSI SAS3108支持2种规格的RAID Key,分别支持32盘和240盘)。

说明

该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

l     最多支持64个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

l     最多支持64个硬盘组(即配置界面中看到的“Drive Group”),每个硬盘组最多支持32或240个硬盘。

l     每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

LSI SAS3108支持的RAID类型及对应的硬盘个数如表6-4所示。

表6-4 RAID-硬盘参数

RAID级别

支持硬盘数

支持子组数

子组支持硬盘数

允许坏盘数

RAID 0

1~32

不涉及

不涉及

0

RAID 1

2~32(偶数)

硬盘数÷2

RAID 5

3~32

1

RAID 6

3~32

2

RAID 10

4~32/240(偶数)

2~8个RAID 1

2~16/32(偶数)

子组数

RAID 50

6~32/240

2~8个RAID 5

3~16/32

子组数

RAID 60

6~32/240

2~8个RAID 6

3~16/32

子组数x2

 

说明

l     不支持RAID 00级别。

l     子组数:子RAID的个数,例如RAID 50由两个RAID 5组成,则子组数为2。

l     RAID 10、RAID 50每个子组中最多允许1个坏盘。

l     RAID 60每个子组中最多允许2个坏盘。

l     根据配置的RAID Key类型不同,RAID 10、50、60支持的硬盘数有所不同。

l     在Windows硬盘管理界面中,LSI SAS3108的虚拟磁盘(Virtual Drive)和JBOD盘的“Bus Type”均显示为“RAID”。

l     RAID10、50、60包含的总硬盘数由子组数和子组支持的硬盘数共同决定。

6.3.2 硬盘热备份

LSI SAS3108的热备功能分为两种:热备盘和紧急备份。

热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     Global HSP:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的硬盘故障时,全局热备盘均可自动替代。

配置方法请参见6.5.1.1 配置全局热备盘。

l     Dedicated HSP:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的硬盘故障时,局部热备盘可自动替换。

配置方法请参见6.5.1.2 配置局部热备盘。

热备盘容量需大于等于成员盘容量。

说明

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     除RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

紧急备份

使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的空闲盘会自动替代故障成员盘并进行重构,避免数据丢失。

紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。

紧急备份有两种情况,对应了两种设置:

l     当成员盘fail时,空闲盘替代成员盘作为紧急备份。

l     当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。

具体配置方法请参见6.5.2 设置紧急热备功能。

6.3.3 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

说明

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考6.5.9 导入/清除外部配置章节恢复RAID组,无需更换硬盘。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

6.3.4 回拷

具备冗余功能的RAID的一块成员盘故障之后,热备盘自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。

6.3.5 硬盘分条

条带化

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待。

条带化技术是一种自动的将I/O的负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

影响条带化效果的因素有:

l     条带宽度:指同时可以并发读或写的条带数量。

这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。

l     条带大小:指写在每块硬盘上的条带数据块的大小。

分条

硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。

LSI SAS3108支持多种条带大小,包括64KB、128KB、256KB、512KB及1MB,默认配置为256KB。

配置RAID时一般采用默认值。

6.3.6 RAID级别迁移

RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见6.5.5 迁移RAID级别。

当前支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1、RAID 5、RAID 6

l     RAID 1迁移到RAID 0、RAID 5、RAID 6

l     RAID 5迁移到RAID 0、RAID 6

l     RAID 6迁移到RAID 0、RAID 5

RAID迁移对硬盘数量的要求如表6-5所示。

表6-5 RAID迁移的硬盘数量说明

迁移RAID级别

原始硬盘组硬盘数量

迁移后的硬盘组硬盘数量

RAID 0迁移到RAID 1

1~32

2~32(偶数)

RAID 0迁移到RAID 5

1~32

3~32

RAID 0迁移到RAID 6

1~32

3~32

RAID 1迁移到RAID 0

2~32(偶数)

2~32

RAID 1迁移到RAID 5

2~32(偶数)

3~32

RAID 1迁移到RAID 6

2~32(偶数)

3~32

RAID 5迁移到RAID 0

3~32

3~32

RAID 5迁移到RAID 6

3~32

3~32

RAID 6迁移到RAID 0

3~32

3~32

RAID 6迁移到RAID 5

3~32

3~32

 

6.3.7 初始化

VD初始化

创建VD(Virtual Drive)后,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。LSI SAS3108提供了多种相应的初始化方式:

l     快速初始化:属于前台初始化,Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。

l     慢速初始化:属于前台初始化,Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。

l     后台初始化:目的是使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。

     对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。

     对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。

说明

l     一致性校验和后台初始化通常会对性能造成一定损失,直至该操作完成。

l     一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。

硬盘初始化

硬盘可执行的初始化包括:

l     Initialize Drive:对前100MByte空间进行全写0操作。

l     Drive Erase:对全部空间进行写0操作。

说明

不支持停止SATA SSD的擦除和初始化过程。

6.3.8 可用容量扩展

LSI SAS3108支持的容量扩展方式有两种:

l     通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。

详细操作方法可参考6.5.4 添加新硬盘到RAID。

l     通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。

详细操作方法可参考6.5.3 扩展Virtual Drives可用空间。

说明

l     只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。

l     RAID10、RAID 50、RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。

l     当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见6.8.2.30 通过增加成员盘可用容量扩容RAID。

6.3.9 安全数据擦除

安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘和硬盘的安全擦除功能:

l     Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。

l     Normal:对虚拟磁盘或硬盘进行三轮擦除动作。

l     Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。

全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。

LSI SAS3108支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。

6.3.10 写洞保护

系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况,称之为写洞。

将写失败的数据备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:

l     RAID  1、RAID 5、RAID 6、RAID 10、RAID 50,RAID 60支持写洞保护,Write hole数据都保存在掉电保护区,不需要开关控制。

     掉电保护装置可用时,Write hole数据异常掉电重启后会进入恢复流程。

     掉电保护装置不可用时,记录在掉电保护区的Write hole数据异常掉电后丢失,不做Write hole恢复。

l     RAID 1、RAID 5掉线盘时不可做写洞保护。

l     RAID 6掉线一块盘时可做写洞保护。

l     RAID 10、RAID 50、RAID 60部分降级时可做写洞保护,按子组恢复数据。完全降级时不可做写洞保护。

l     不对RAID 0做写洞保护。

6.3.11 读写高速缓存

LSI SAS3108支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:

l     Read:读策略选择“Read Ahead”或“Ahead”模式,LSI SAS3108在读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,提升了数据读速度。

l     Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,LSI SAS3108就向HOST发出数据传输完成的信号。

在写数据时,直接写入Cache,当写入的数据积累到一定程度,LSI SAS3108才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

6.3.12 数据掉电保护

数据写入高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用高速缓存来提升系统性能。

l     开启高速缓存可提升整机写性能,当服务器写压力减小或高速缓存将写满时,数据再由高速缓存写入硬盘。

l     开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。

为了提升整机的高读写性能和高速缓存中数据的安全,可为LSI SAS3108配置超级电容。

超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将高速缓存中的数据写入超级电容模块中的NAND Flash中。

6.3.13 CacheCade

LSI SAS3108在配置了特定的RAID Key后,支持CacheCade Pro 2.0特性。

CacheCade允许RAID控制卡使用SSD硬盘创建一个CacheCade专用的虚拟磁盘作为二级Cache,为当前存在的RAID提供更好的I/O性能。

6.3.14 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     动态扩盘

l     完全初始化或后台初始化

l     一致性校验

6.3.15 自动S.M.A.R.T扫描

S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免电脑数据受到损失。

RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,便会记录日志。

6.3.16 硬盘节能

RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。

默认情况下,硬盘节能功能处于开启状态。

当硬盘节能功能开启且在指定时间内没有I/O访问时,RAID控制卡下挂载的“Uncongfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。

6.3.17 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

LSI SAS3108可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在LSI SAS3108下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。

LSI SAS3108支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

如果需要使能硬盘直通功能,请在图6-94所示界面的“JBOD Mode”参数进行设置。

说明

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

6.3.18 硬盘漫游

硬盘漫游是指在同一控制器下移动物理硬盘。控制器将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行磁盘漫游。

要使用硬盘漫游,按以下步骤操作:

1.     关闭操作系统。

2.     将服务器下电。

3.     将物理硬盘移动到背板所需位置。

4.     执行安全检查。确保正确插入物理硬盘。

5.     将服务器上电。

6.     控制器从物理硬盘上的配置数据中检测到RAID配置。

6.3.19 导入外部配置

如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。

此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置的漫游。

6.3.20 硬盘故障记录

LSI SAS3108提供硬盘故障记录功能:

l     使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。

l     禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,LSI SAS3108会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回烤),此时可能会覆盖新硬盘上原有的数据。

维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。

l     使能该功能后,当硬盘故障时,会点亮Fault指示灯。

l     禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。

默认情况下,LSI SAS3108使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。

6.3.21 一致性校验

针对有冗余功能的RAID 1、5、6、10、50、60,RAID控制卡可以对RAID组的硬盘数据进行一致性校验,对硬盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。

由于RAID 0不具备冗余性,因此不支持一致性校验。

说明

建议每月至少进行一次一致性校验。

6.4 初始配置

文档中描述的关于LSI SAS3108的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。

6.4.1 进入管理界面

操作场景

该任务指导用户登录LSI SAS3108的配置管理界面。

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

                                步骤 1     重启服务器。当出现如图6-4所示界面时,按“F11”键。

图6-4 BIOS启动界面(1)

 

                                步骤 2     输入密码,并按“Enter”。

进入如图6-5所示界面。

图6-5 BIOS启动界面(2)

 

                                步骤 3     选择“Device Manager”并按“Enter”。

显示当前存在的RAID控制卡列表,如图6-6所示。

图6-6 RAID控制卡列表

 

说明

如果Device Manager界面显示“Some drivers are not healthy”,请参见6.6.4 Device Manager中RAID控制卡状态显示Not Healthy进行修复。

                                步骤 4     选择要操作的LSI SAS3108控制器,按“Enter”。

进入如图6-7图6-8所示主界面,界面参数如表6-6所示。

图6-7 LSI SAS3108主界面(1)

 

图6-8 LSI SAS3108主界面(2)

 

表6-6 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

说明

LSI SAS3108不支持在此界面升级FW。

Silence Alarm

板载蜂鸣器的使能状态。

LSI SAS3108未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

6.4.2 创建RAID 0

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     LSI SAS3108支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参看6.3.1 支持RAID 0/1/5/6/10/50/60。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见6.4.1 进入管理界面。

                                步骤 2     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图6-9图6-10所示,参数说明如表6-7所示。

图6-9 Create Virtual Drive(1)

 

图6-10 Create Virtual Drive(2)

 

表6-7 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照6.5.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。默认配置为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认取值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接受到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     默认取值为“Write Back”。

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认取值为Direct。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

默认取值为Read/Write。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

默认取值为Unchanged。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。

                                步骤 4     添加成员盘

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

在打开的列表中选择“Unconfigured Capacity”并按“Enter”。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”打开添加成员盘的界面,如图6-11所示,界面参数如表6-8所示。

图6-11 添加成员盘

 

表6-8 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     按表6-8所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

说明

硬盘后的“[X]”表示该硬盘已选择。

6.     选择“Apply Changes”按“Enter”保存配置。

界面提示“The operation has been performed successfully.”

7.     通过“↓”选择“OK”并按“Enter”,完成成员盘配置。

                                步骤 5     按照表6-7所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照6.5.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 6     保存配置

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     通过“↓”选择“OK”完成配置。

                                步骤 7     检查配置结果

1.     按“ESC”返回上级界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

                                步骤 8     退出配置界面

1.     连续按“ESC”返回BIOS的“Advanced”界面。

2.     按“F10”退出BIOS配置界面。

弹出操作确认框。

3.     选择“Yes”。

提示重启系统。

4.     重启服务器。

----结束

6.4.3 创建RAID 1

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     LSI SAS3108支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参看6.3.1 支持RAID 0/1/5/6/10/50/60。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见6.4.1 进入管理界面。

                                步骤 2     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图6-12图6-13,参数说明如表6-9所示。

图6-12 Create Virtual Drive(1)

 

图6-13 Create Virtual Drive(2)

 

表6-9 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照6.5.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。默认配置为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认取值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接受到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     默认取值为“Write Back”。

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认取值为Direct。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

默认取值为Read/Write。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

默认取值为Unchanged。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。

                                步骤 4     添加成员盘

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

在打开的列表中选择“Unconfigured Capacity”并按“Enter”。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”打开添加成员盘的界面,如图6-14所示,界面参数如表6-9所示。

图6-14 添加成员盘

 

表6-10 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     按表6-10所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

说明

硬盘后的“[X]”表示该硬盘已选择。

6.     选择“Apply Changes”按“Enter”保存配置。

界面提示“The operation has been performed successfully.”

7.     通过“↓”选择“OK”并按“Enter”,完成成员盘配置。

                                步骤 5     按照表6-9所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照6.5.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 6     保存配置

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     通过“↓”选择“OK”完成配置。

                                步骤 7     检查配置结果

1.     按“ESC”返回上级界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

                                步骤 8     退出配置界面

1.     连续按“ESC”返回BIOS的“Advanced”界面。

2.     按“F10”退出BIOS配置界面。

弹出操作确认框。

3.     选择“Yes”。

提示重启系统。

4.     重启服务器。

----结束

6.4.4 创建RAID 5

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     LSI SAS3108支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参看6.3.1 支持RAID 0/1/5/6/10/50/60。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见6.4.1 进入管理界面。

                                步骤 2     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图6-15图6-16所示,参数说明如表6-11所示。

图6-15 Create Virtual Drive(1)

 

图6-16 Create Virtual Drive(2)

 

表6-11 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照6.5.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。默认配置为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认取值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接受到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     默认取值为“Write Back”。

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认取值为Direct。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

默认取值为Read/Write。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

默认取值为Unchanged。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中通过“↑”、“↓”选择要配置的RAID级别“RAID 5”,并按“Enter”。

                                步骤 4     添加成员盘

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

在打开的列表中选择“Unconfigured Capacity”并按“Enter”。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”打开添加成员盘的界面,如图6-17所示,界面参数如表6-11所示。

图6-17 添加成员盘

 

表6-12 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     按表6-12所述配置过滤条件。

5.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

硬盘后的“[X]”表示该硬盘已选择。

6.     选择“Apply Changes”按“Enter”保存配置。

界面提示“The operation has been performed successfully.”

7.     通过“↓”选择“OK”并按“Enter”,完成成员盘配置。

                                步骤 5     按照表6-11所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照6.5.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 6     保存配置

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     通过“↓”选择“OK”完成配置。

                                步骤 7     检查配置结果

1.     按“ESC”返回上级界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

                                步骤 8     退出配置界面

1.     连续按“ESC”返回BIOS的“Advanced”界面。

2.     按“F10”退出BIOS配置界面。

弹出操作确认框。

3.     选择“Yes”。

提示重启系统。

4.     重启服务器。

----结束

6.4.5 创建RAID 6

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     LSI SAS3108支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参看6.3.1 支持RAID 0/1/5/6/10/50/60。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见6.4.1 进入管理界面。

                                步骤 2     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图6-18图6-19所示,参数说明如表6-13所示。

图6-18 Create Virtual Drive(1)

 

图6-19 Create Virtual Drive(2)

 

表6-13 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照6.5.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。默认配置为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认取值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接受到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     默认取值为“Write Back”。

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认取值为Direct。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

默认取值为Read/Write。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

默认取值为Unchanged。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 6”,并按“Enter”。

                                步骤 4     添加成员盘

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

在打开的列表中选择“Unconfigured Capacity”并按“Enter”。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”打开添加成员盘的界面,如图6-20所示,界面参数如表6-14所示。

图6-20 添加成员盘

 

表6-14 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     按表6-14所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

说明

硬盘后的“[X]”表示该硬盘已选择。

6.     选择“Apply Changes”按“Enter”保存配置。

界面提示“The operation has been performed successfully.”

7.     通过“↓”选择“OK”并按“Enter”,完成成员盘配置。

                                步骤 5     按照表6-13所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照6.5.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 6     保存配置

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     通过“↓”选择“OK”完成配置。

                                步骤 7     检查配置结果

1.     按“ESC”返回上级界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

                                步骤 8     退出配置界面

1.     连续按“ESC”返回BIOS的“Advanced”界面。

2.     按“F10”退出BIOS配置界面。

弹出操作确认框。

3.     选择“Yes”。

提示重启系统。

4.     重启服务器。

----结束

6.4.6 创建RAID 10

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     LSI SAS3108支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参看6.3.1 支持RAID 0/1/5/6/10/50/60。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见6.4.1 进入管理界面。

                                步骤 2     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图6-21图6-22所示,参数说明如表6-15所示。

图6-21 Create Virtual Drive(1)

 

图6-22 Create Virtual Drive(2)

 

表6-15 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照6.5.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。默认配置为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认取值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接受到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     默认取值为“Write Back”。

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认取值为Direct。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

默认取值为Read/Write。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

默认取值为Unchanged。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。

                                步骤 4     创建第1个Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

在打开的列表中选择“Unconfigured Capacity”并按“Enter”。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”打开添加成员盘的界面,如图6-23所示,界面参数如表6-16所示。

图6-23 添加成员盘

 

表6-16 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     按表6-16所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

说明

l     硬盘后的“[X]”表示该硬盘已选择。

l     RAID 10支持2~8个Span,每个Span支持的硬盘数为2~16/32(偶数),且各个Span的硬盘数量必须保持一致。

l     RAID 10支持的硬盘总数为4~32/240(偶数)。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过32或240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

界面提示“The operation has been performed successfully.”

7.     通过“↓”选择“OK”并按“Enter”,完成成员盘配置。

                                步骤 5     创建第2个Span

当配置的级别为RAID10时,需要配置多个Span,此时配置界面如图6-24所示。

图6-24 创建RAID 10的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

在打开的列表中选择第2个Span的成员盘。

说明

各个Span的硬盘数量必须保持一致。

3.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

4.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 6     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。

说明

RAID10至少需要创建2个Span,最多可以创建8个Span。

                                步骤 7     按照表6-15所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照6.5.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 8     保存配置

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     通过“↓”选择“OK”完成配置。

                                步骤 9     检查配置结果

1.     按“ESC”返回上级界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

                             步骤 10     退出配置界面

1.     连续按“ESC”返回BIOS的“Advanced”界面。

2.     按“F10”退出BIOS配置界面。

弹出操作确认框。

3.     选择“Yes”。

提示重启系统。

4.     重启服务器。

----结束

6.4.7 创建RAID 50

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     LSI SAS3108支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参看6.3.1 支持RAID 0/1/5/6/10/50/60。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见6.4.1 进入管理界面。

                                步骤 2     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图6-25图6-26所示,参数说明如表6-17所示。

图6-25 Create Virtual Drive(1)

 

图6-26 Create Virtual Drive(2)

 

表6-17 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照6.5.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。默认配置为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认取值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接受到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     默认取值为“Write Back”。

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认取值为Direct。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

默认取值为Read/Write。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

默认取值为Unchanged。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 50”,并按“Enter”。

                                步骤 4     创建第1个Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

在打开的列表中选择“Unconfigured Capacity”并按“Enter”。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”打开添加成员盘的界面,如图6-27所示,界面参数如表6-18所示。

图6-27 添加成员盘

 

表6-18 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     按表6-18所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

说明

l     硬盘后的“[X]”表示该硬盘已选择。

l     RAID 50支持2~8个Span,每个Span支持的硬盘数为3~16/32(取决于RAID Key的规格),且各个Span的硬盘数量必须保持一致。

l     RAID 50支持的硬盘总数为6~32/240(取决于RAID Key的规格)。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过32或240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

界面提示“The operation has been performed successfully.”

7.     通过“↓”选择“OK”并按“Enter”,完成成员盘配置。

                                步骤 5     创建第2个Span

当配置的级别为RAID50时,需要配置多个Span,此时配置界面如图6-28所示。

图6-28 创建RAID 50的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

在打开的列表中选择第2个Span的成员盘。

说明

各个Span的硬盘数量必须保持一致。

3.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

4.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 6     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。

说明

RAID50至少需要创建2个Span,最多可以创建8个Span。

                                步骤 7     按照表6-17所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照6.5.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 8     保存配置

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     通过“↓”选择“OK”完成配置。

                                步骤 9     检查配置结果

1.     按“ESC”返回上级界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

                             步骤 10     退出配置界面

1.     连续按“ESC”返回BIOS的“Advanced”界面。

2.     按“F10”退出BIOS配置界面。

弹出操作确认框。

3.     选择“Yes”。

提示重启系统。

4.     重启服务器。

----结束

6.4.8 创建RAID 60

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     LSI SAS3108支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参看6.3.1 支持RAID 0/1/5/6/10/50/60。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见6.4.1 进入管理界面。

                                步骤 2     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图6-29图6-30所示,参数说明如表6-19所示。

图6-29 Create Virtual Drive(1)

 

图6-30 Create Virtual Drive(2)

 

表6-19 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照6.5.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。默认配置为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认取值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接受到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     默认取值为“Write Back”。

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认取值为Direct。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

默认取值为Read/Write。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

默认取值为Unchanged。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 60”,并按“Enter”。

                                步骤 4     创建第1个Span

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

在打开的列表中选择“Unconfigured Capacity”并按“Enter”。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”打开添加成员盘的界面,如图6-31所示,界面参数如表6-20所示。

图6-31 添加成员盘

 

表6-20 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     按表6-20所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

说明

l     硬盘后的“[X]”表示该硬盘已选择。

l     RAID 60支持2~8个Span,每个Span支持的硬盘数为3~16/32(取决于RAID Key的规格),且各个Span的硬盘数量必须保持一致。

l     RAID 60支持的硬盘总数为6~32/240(取决于RAID Key的规格)。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过32或240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

7.     界面提示“The operation has been performed successfully.”,通过“↓”选择“OK”并按“Enter”,完成成员盘配置。

                                步骤 5     创建第2个Span

当配置的级别为RAID60时,需要配置多个Span,此时配置界面如图6-32所示。

图6-32 创建RAID 60的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

在打开的列表中选择第2个Span的成员盘。

说明

各个Span的硬盘数量必须保持一致。

3.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

4.     单击“OK”完成成员盘配置。

                                步骤 6     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。

说明

RAID60至少需要创建2个Span,最多可以创建8个Span。

                                步骤 7     按照表6-19所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照6.5.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 8     保存配置

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     通过“↓”选择“OK”完成配置。

                                步骤 9     检查配置结果

1.     按“ESC”返回上级界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

                             步骤 10     退出配置界面

1.     连续按“ESC”返回BIOS的“Advanced”界面。

2.     按“F10”退出BIOS配置界面。

弹出操作确认框。

3.     选择“Yes”。

提示重启系统。

4.     重启服务器。

----结束

6.4.9 配置启动项

同一台服务器配置了单个LSI SAS3108卡或者多种芯片硬盘控制器的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。

设置启动项的操作方法请参见 BIOS 参数参考 的“设置服务器启动设备”章节。

6.5 常用配置

6.5.1 管理热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

LSI SAS3108控制卡支持2种类型的热备盘:

l     Global Hotspare:即全局热备盘,为控制卡上所有已配置的RAID所共有,1块控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

l     Dedicated Hotspare:即局部热备盘,为控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

说明

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     除RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

6.5.1.1 配置全局热备盘

操作步骤

                                步骤 1     登录管理界面,具体方法请参见6.4.1 进入管理界面。

                                步骤 2     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如图6-33所示。

图6-33 Drive Management

 

                                步骤 3     配置全局热备盘

1.     将“Operation”设置为“Assign Global Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成配置并返还上级界面。

----结束

6.5.1.2 配置局部热备盘

操作步骤

说明

当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

                                步骤 1     登录管理界面,具体操作方法请参见6.4.1 进入管理界面。

                                步骤 2     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如图6-34所示。

图6-34 Drive Management

 

                                步骤 3     配置局部热备盘

1.     将“Operation”设置为“Assign Dedicated Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

打开当前存在的虚拟磁盘列表。

3.     选择要关联的虚拟磁盘并按“Enter”。

显示The operation has been performed successfully

4.     选择“OK”按“Enter”完成配置并返还上级界面。

----结束

6.5.1.3 删除热备盘

操作场景

该任务指导用户删除热备盘。

当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

必备事项

前提条件

已登录管理界面,具体方法请参见6.4.1 进入管理界面。

数据

该操作无需准备数据。

操作步骤

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如图6-35所示。

图6-35 Drive Management

 

                                步骤 2     删除热备盘

1.     将“Operation”设置为“Unassign Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     将“Confirm”设置为“Enable”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成配置并返还上级界面。

----结束

6.5.2 设置紧急热备功能

操作步骤

                                步骤 1     登录管理界面,具体操作方法请参见6.4.1 进入管理界面。

                                步骤 2     进入“Advanced Controller Properties”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

3.     选择“Advanced Controller Properties”并按“Enter”。

进入“Advanced Controller Properties”界面,如图6-36所示。

图6-36 Advanced Controller Properties(1)

 

                                步骤 3     设置紧急热备。

1.     选择“Spare”并按“Enter”。

2.     将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如图6-37所示。

图6-37 Advanced Controller Properties(2)

 

3.     选择“Apply Changes”并按“Enter”。

4.     选择“OK”并按“Enter”,完成配置。

----结束

6.5.3 扩展Virtual Drives可用空间

操作场景

在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

该任务指导安装调测工程师扩大Virtual Drives的可用空间。

必备事项

前提条件

已登录管理界面,具体方法请参见6.4.1 进入管理界面。

数据

操作之前请备份数据。

操作步骤

                                步骤 1     进入要操作的虚拟磁盘界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如图6-38所示。

图6-38 Virtual Drive Management

 

                                步骤 2     扩容虚拟磁盘

1.     将“Operation”设置为“Expand Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入虚拟磁盘扩容界面,如图6-39界面所示,界面参数如表6-21所示。

图6-39 Expand Virtual Drive

 

表6-21 参数说明

参数

参数说明

Current Capacity

虚拟磁盘当前容量。

Available Capacity

可用于扩展的容量。

Enter a Percentage of Available Capacity

输入扩容比例。

操作方法:

1.     选择该配置项并按“Enter”。

2.     输入要配置的百分比并按“Enter”。

Capacity of Virtual Drive after Expansion

扩容后虚拟磁盘容量。

 

3.     设置扩容百分比。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully。

5.     按“OK”完成配置并返还上级界面。

----结束

6.5.4 添加新硬盘到RAID

操作场景

该任务指导用户添加新硬盘到RAID中。

RAID的扩容方式有如下2种:

l     通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。

l     通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。

 

注意

l     只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。

l     RAID10、RAID 50、RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

对系统的影响

增加硬盘扩容过程中,如果出现硬盘故障,会导致:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID。

请谨慎执行增加硬盘扩容操作。

必备事项

前提条件

添加硬盘扩容之前,需具备如下条件:

l     服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     已登录管理界面,具体方法请参见6.4.1 进入管理界面。

数据

操作之前建议先备份数据。

操作步骤

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”。

进入虚拟磁盘选项界面,如图6-40所示。

图6-40 虚拟磁盘选项界面

 

                                步骤 2     添加新硬盘

1.     选择要进行扩容的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如图6-41所示。

图6-41 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Go”。

4.     选择要扩容的RAID级别。

 

注意

增加硬盘扩容时,请保证该处的RAID级别与原级别一致。

5.     选择“Choose the Operation”,并按“Go”。

进入硬盘选择界面,如图6-42所示。

图6-42 Select Drives

 

6.     选择要增加的硬盘,并按“Apply Changes”。

进入确认操作界面。

说明

l     增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。

l     RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。

7.     选择“Confirm”并按“Yes”。

8.     选择“OK”并按“Enter”。

返回到如图6-43所示界面。

图6-43 Reconfigure Virtual Drives

 

9.     选择“Start Operation”并按“Enter”。

进入如图6-44所示界面,提示操作完成。

图6-44 操作成功

 

10.     选择“OK”并按“Enter”。

按“Esc”返回虚拟磁盘选项界面,验证扩容结果,如图6-45所示,表示RAID正在进行扩容。

图6-45 Virtual Drive Management

 

----结束

6.5.5 迁移RAID级别

操作场景

随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。

在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。

对系统的影响

RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID。

请谨慎执行RAID级别迁移操作。

必备事项

前提条件

迁移RAID级别之前,需具备如下条件:

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     当前存在的硬盘个数满足目标RAID级别要求。

l     已登录管理界面,具体方法请参见6.4.1 进入管理界面。

LSI SAS3108RAID控制卡支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1、RAID 5、RAID 6

l     RAID 1迁移到RAID 0、RAID 5、RAID 6

l     RAID 5迁移到RAID 0、RAID 6

l     RAID 6迁移到RAID 0、RAID 5

RAID迁移对硬盘数量的要求如表6-5所示。

说明

l     当RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     迁移只支持增加与RAID组成员盘同类型同规格的硬盘。

l     为防止数据丢失,请在该操作之前备份当前RAID组的数据。

l     只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。

l     迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。

数据

为防止数据丢失,请在该操作之前备份当前RAID的数据。

操作步骤

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”并按“Enter”。

进入虚拟磁盘选项界面,如图6-46所示。

图6-46 虚拟磁盘选项界面

 

                                步骤 2     选择RAID迁移的目标级别。

下面以将RAID 0迁移到RAID 1为例进行说明。

1.     选择要进行迁移的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如图6-47所示。

图6-47 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”。

4.     选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如图6-48所示。不设置时默认与原RAID组配置一致。

图6-48 Advanced...

 

5.     选择“Go”,并按“Enter”。

进入RAID配置界面,如图6-49所示。

图6-49 Reconfigure Virtual Drives

 

6.     选择“New RAID Level”并按“Enter”。

打开RAID迁移的目标级别选择窗口,如图6-50所示。

图6-50 选择新的RAID级别

 

7.     选择“RAID 1”并按“Enter”。

                                步骤 3     添加硬盘。

1.     选择“Choose the operation”并按“Enter”。

打开硬盘选择窗口。

2.     选择要增加的硬盘并按“Enter”。

说明

l     RAID迁移对硬盘数量的要求请参见表6-5

l     增加的硬盘要与RAID组的成员盘同类型同规格。

3.     选择“Apply Changes”并按“Enter”。

弹出操作确认会话框。

4.     选择“Confirm”并按“Enter”。

5.     选择“Yes”并按“Enter”。

提示操作成功。

6.     选择“OK”并按“Enter”返回图6-49界面。

                                步骤 4     RAID级别迁移。

1.     选择“Start Operation”并按“Enter”。

提示操作成功。

                                步骤 5     查看迁移结果。

1.     进入Virtual Drive Management界面,检查迁移结果,如图6-51所示,表示RAID正在进行迁移。

图6-51 查看迁移结果

 

说明

l     迁移过程中若重启服务器,该任务将在重启后继续进行。

l     迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。

2.     选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 0”变成“RAID 1”,RAID组容量增大,且“Status”状态显示为“Optimal”,表示RAID迁移成功。

----结束

6.5.6 删除RAID

操作场景

该任务指导安装调测工程师如何删除RAID。

必备事项

前提条件

已登录管理界面,具体方法请参见6.4.1 进入管理界面。

数据

操作之前请备份数据。

操作步骤

                                步骤 1     进入“Virtual Dashboard View”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如图6-52所示。

图6-52 Virtual Drive Management

 

                                步骤 2     删除虚拟磁盘

1.     将“Operation”设置为“Delete Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     将“Confirm”设置为“Enable”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成配置并返还上级界面。

----结束

6.5.7 重构RAID

RAID中成员硬盘故障时,无论是更换新硬盘还是使用热备盘替代故障硬盘,都需要进行RAID重构。

默认情况下,当RAID有重构需求,并且有满足同步条件的硬盘存在时,系统自动启动重构操作。但当控制器的“Auto Rebuild”属性为“Disable”时,则需要手动重构。

该任务指导安装调测工程师进行RAID重构操作。

界面介绍

在“Main Menu”界面中选择“Drive Management”节点下具体的硬盘,并按“Enter”可打开该硬盘的操作菜单,如图6-53,可执行的操作如表6-22所示。

图6-53 “Drive Management”操作菜单

 

表6-22 “Drive Group”节点可操作接口

操作

说明

Select operation

选择以下操作。

Star Locate

点亮硬盘定位指示灯。

Stop Locate

熄灭硬盘定位指示灯。

Rebuild

重构RAID。

l     Suspend

l     Resume

l     Stop

Place drive Online

将硬盘上线。

Mark drive as Missing

将离线的硬盘脱离RAID组。

 

重构RAID

                                步骤 1     在菜单中选择“Rebuild”并按“Enter”。

打开Rebuild菜单。

                                步骤 2     选择操作类型,并按“Enter”。

弹出操作确认对话框。

                                步骤 3     选择“YES”并按“Enter”。

----结束

说明

当出现硬盘离线情况时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

6.5.8 查看RAID控制卡属性

操作场景

用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。

该任务指导安装调测工程师查看RAID控制卡属性。

必备事项

前提条件

已登录管理界面,具体方法请参见6.4.1 进入管理界面。

数据

该操作无需准备数据。

操作步骤

                                步骤 1     进入“Controller Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息,如图6-54所示,参数说明如表6-23所示。

图6-54 Controller Management

 

表6-23 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Select Boot Device

当前启动项。

说明

EFI模式下,该配置项不生效。

PCI ID

RAID控制卡的PCI ID。

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Connector Count

RAID控制卡与主板的接口个数。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制器操作。

操作方法:选中该操作项并按“Enter”进入详细配置界面。

Advanced Controller Properties

查看和修改控制器的高级属性。

操作方法:选中该操作项并按“Enter”进入详细配置界面。

 

                                步骤 2     查看控制器高级属性

1.     选择“Advanced Controller Properties”并按“Enter”。

进入控制器高级属性界面,如图6-55所示,参数说明如表6-24所示。

在该界面下,可查看并修改RAID控制卡的高级属性。

图6-55 Advanced Controller Properties

 

表6-24 参数说明

参数

说明

Cache and Memory

查看控制器Cache和Memory信息。

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

Spare

设置控制器热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

LSI SAS3108 RAID控制卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。

Controller BIOS

控制器BIOS的使能情况。

ROC Temperature

控制器温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Expanded Virtual Drive Support

是否支持扩容虚拟磁盘的功能。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见6.5.9 导入/清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验

JBOD Mode

是否使能硬盘直通功能。

 

----结束

6.5.9 导入/清除外部配置

操作场景

l     服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户需要的存储配置,可将该配置导入。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户不需要的存储配置,需要将该配置清空。

该任务指导安装调测工程师进行外部配置导入和清空。

 

注意

l     如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!

l     为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

导入外部配置

                                步骤 1     登录管理界面,具体方法请参见6.4.1 进入管理界面。

                                步骤 2     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 3     选择“Configuration Management”并按“Enter”。

                                步骤 4     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如图6-56所示。

图6-56 Manage Foreign Configuration

 

                                步骤 5     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如图6-57所示。

图6-57 外部配置

 

                                步骤 6     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 7     选择“Confirm”并按“Enter”。

                                步骤 8     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 9     单击“OK”完成配置返回上级界面。

----结束

清除外部配置

                                步骤 1     登录管理界面,具体方法请参见6.4.1 进入管理界面。

                                步骤 2     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 3     选择“Configuration Management”并按“Enter”。

                                步骤 4     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如图6-58所示。

图6-58 Manage Foreign Configuration

 

                                步骤 5     选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     在列表中选择“Enable”并按“Enter”。

                                步骤 8     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 9     单击“OK”完成配置返回上级界面。

----结束

6.5.10 管理CacheCade

LSI SAS3108通过特殊的RAID Key,提供CacheCade功能,扩展Read Caching容量,并引入Write Caching。使用SSD硬盘创建一个CacheCade专用的RAID作为二级Cache,为当前存在的RAID提供更好的I/O性能。

6.5.10.1 创建CacheCade虚拟磁盘

操作场景

该任务指导用户创建CacheCade虚拟磁盘。

LSI SAS3108配置CacheCade的RAID Key后,可在CU界面创建CacheCade虚拟磁盘,为当前存在的RAID提供二级Cache。

必备事项

前提条件

已登录管理界面,具体方法请参见6.4.1 进入管理界面。

数据

硬件

存在空闲的SSD硬盘。

操作步骤

                                步骤 1     确认RAID Key已激活。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     按照“Controller Management > Advanced Controller Management > Manage MegaRAID Advanced Software Options”路径打开“Manage MegaRAID Advanced Software Options”界面。

当界面中存在“CacheCade Pro 2.0”且状态为“Unlimited”时,表明支持CacheCade的Key已激活。

3.     按“ESC”返回“Main Menu”菜单。

确认空闲SSD硬盘已存在。

4.     选择“Drive Management”进入硬盘列表。

5.     确认当前存在空闲的SSD硬盘。

6.     按“ESC”返回“Main Menu”菜单。

                                步骤 2     配置CacheCade虚拟磁盘

1.     按照“Configuration Management > Create CacheCade Virtual Drive”路径打开“Create CacheCade Virtual Drive”界面。

打开“Create CacheCade Virtual Drive”界面如图6-59所示,界面参数如表6-25所示。

图6-59 “Create CacheCade Virtual Drive”界面

 

表6-25 参数说明

参数

说明

CacheCade Virtual Drive Name

用户自定义的CacheCade虚拟磁盘名称。

设置方法:

1.     将光标移至该配置项并按“Enter”。

2.     输入用户自定义的名称并按“Enter”。

Logical Sector Size

CacheCade虚拟磁盘的扇区大小。该参数不可手动修改,系统会根据后续选择的SSD硬盘自动适配。

RAID Level

CacheCade虚拟磁盘的RAID级别。

设置方法:

1.     将光标移至该配置项并按“Enter”。

2.     在菜单中选择要配置的RAID级别并按“Enter”。

说明

CacheCade虚拟磁盘仅支持RAID 0、RAID 1。

Write Cache Policy

CacheCade虚拟磁盘的读写策略,默认为“Write Through”。

l     Write Back:该模式下,CacheCade虚拟磁盘同时用作读写Cache。当由于硬盘故障等原因导致RAID降级时,该CacheCade仅作为Read Cache。

l     Write Through:该模式下,CacheCade虚拟磁盘仅用作Read Cache。

设置方法:

1.     将光标移至该配置项并按“Enter”。

2.     在菜单中选择要配置的读写策略并按“Enter”。

 

2.     按照表6-25所述配置CacheCade虚拟磁盘的名称、RAID级别以及读写策略。

3.     在“SELECT SSD DRIVES”列表中按“Enter”选中要加入CacheCade虚拟磁盘的SSD硬盘。

SSD硬盘前显示“[X]”时,表示该硬盘已选中。

4.     将光标移至“Create CacheCade Virtual Drive”并按“Enter”。

界面提示The operation has been performed successfully。

5.     将光标移至“OK”并按“Enter”。

----结束

6.5.10.2 删除CacheCade虚拟磁盘

操作场景

该任务指导用户删除CacheCade虚拟磁盘。

必备事项

前提条件

已登录管理界面,具体方法请参见6.4.1 进入管理界面。

数据

操作步骤

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Virtual Drive Management”进入虚拟磁盘列表。

                                步骤 3     选择要删除的CacheCade虚拟磁盘并按“Enter”。

进入虚拟磁盘界面,如图6-60所示,界面参数如表6-26所示。

图6-60 虚拟磁盘属性

 

表6-26 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:定位虚拟磁盘的所有硬盘。

l     Stop Locate:取消定位。

l     Delete Virtual Drive:删除虚拟磁盘。

操作方法:

1.     选择该配置项并按“Enter”。

2.     在列表中选择要执行的操作并按“Enter”。

Name

CacheCade虚拟磁盘名称。

操作方法:

1.     将光标移至该配置项并按“Enter”。

2.     输入用户自定义的名称并按“Enter”。

Raid Level

CacheCade虚拟磁盘RAID级别。

Status

CacheCade虚拟磁盘当前运行状态。

Size

CacheCade虚拟磁盘容量。

View Associated Drives

查看CacheCade虚拟磁盘的成员盘属性。

操作方法:选择该配置项并按“Enter”进入详细的操作界面。

Current Write Cache Policy

CacheCade虚拟磁盘的当前读写策略。

l     Write Back:该模式下,CacheCade虚拟磁盘同时用作读写Cache。当由于硬盘故障等原因导致RAID降级时,该CacheCade仅作为Read Cache。

l     Write Through:该模式下,CacheCade虚拟磁盘仅用作Read Cache。

设置方法:

1.     将光标移至该配置项并按“Enter”。

2.     在菜单中选择要配置的读写策略并按“Enter”。

Default Write Cache Policy

CacheCade虚拟磁盘默认的读写策略。

 

                                步骤 4     在“Operation”菜单中选择“Delete Virtual Drive”并按“Enter”。

                                步骤 5     将光标移至“Go”并按“Enter”。

显示操作确认界面。

                                步骤 6     将光标移至“Confirm”并按“Enter”。

使其状态变为“[X]”。

                                步骤 7     选择“Yes”并按“Enter”。

提示CacheCade虚拟磁盘已删除。

                                步骤 8     将光标移“OK”并按“Enter”。

----结束

6.5.10.3 在普通虚拟磁盘上启用SSD Caching

操作场景

有两种方式可以在普通虚拟磁盘上使能SSD Caching:

l     配置CacheCade的RAID Key后,在创建普通虚拟磁盘过程中会提示是否启用SSD Caching功能。

l     配置CacheCade的RAID Key后,可通过修改普通虚拟磁盘的属性来启用SSD Caching功能。

该任务指导用户通过修改普通虚拟磁盘的属性来启用SSD Caching功能。

必备事项

前提条件

已登录管理界面,具体方法请参见6.4.1 进入管理界面。

数据

操作步骤

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Virtual Drive Management”进入虚拟磁盘列表。

                                步骤 3     选择要启用SSD Caching功能的虚拟磁盘并按“Enter”。

进入虚拟磁盘界面,如图6-61所示,界面参数如表6-27所示。

图6-61 Virtual Drive Management

 

表6-27 参数说明

参数

参数说明

Operation

可执行的操作。

Name

虚拟磁盘名称。

Raid Level

虚拟磁盘RAID级别。

Status

虚拟磁盘当前运行状态。

Size

虚拟磁盘容量。

View Associated Drives

查看虚拟磁盘的成员盘属性。

Advanced

查看虚拟磁盘高级属性。

 

                                步骤 4     在“Operation”菜单中选择“Enable SSD Caching”并按“Enter”。

                                步骤 5     将光标移至“Go”并按“Enter”。

显示操作确认界面。

                                步骤 6     将光标移至“Confirm”并按“Enter”。

使其状态变为“[X]”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been started successfully。

                                步骤 8     将光标移“OK”并按“Enter”。

----结束

6.5.11 创建多个VD(Virtual Drive)

该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID0存在一个VD为例,详细操作方法如下:

                                步骤 1     按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如图6-62所示。

图6-62 Create Virtual Drive

 

                                步骤 2     将“Select Drives From”设置为“Free Capacity”,如图6-63所示。

图6-63 Create Virtual Drive

 

                                步骤 3     选择“Select Drive Groups”并按“Enter”。

显示当前存在的RAID组(Drive Group),如图6-64所示。

图6-64 Select Drive Groups

 

                                步骤 4     选择要创建多个VD的RAID组并按“Enter”,如图6-65所示。

图6-65 Select Drive Groups

 

                                步骤 5     选择“Apply Changes”并按“Enter”。

提示操作成功。

                                步骤 6     选择“OK”并按“Enter”返回VD配置界面,如图6-66所示,参数说明如表6-28所示。

图6-66 Create Virtual Drive

 

表6-28 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drive Groups

选择硬盘组。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照6.5.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。默认配置为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认取值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接受到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     默认取值为“Write Back”。

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认取值为Direct。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

默认取值为Read/Write。

Drive Cache

物理硬盘Cache策略。可配置的状态有:

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。

l     Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。

默认取值为Unchanged。

Disable Background Initialization

使能或禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 7     按照表6-28所述配置VD的相关属性。

                                步骤 8     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

                                步骤 9     选择“Confirm”并按“Enter”。

                             步骤 10     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                             步骤 11     选择“OK”并按“Enter”完成配置。

可进入Virtual Drive Management界面,查看当前存在的所有VD,如图6-67所示。

图6-67 Virtual Drive Management

 

----结束

说明

每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤11

6.5.12 设置JBOD模式

LSI SAS3108支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

说明

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     LSI SAS3108的Firmware版本为6121及以上时,方可配置JBOD模式,且服务器必须已安装对应版本的驱动。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

                                步骤 1     登录管理界面,具体操作方法请参见6.4.1 进入管理界面。

                                步骤 2     依次进入Main Menu>Controller Management>Advanced Controller Properties界面,如图6-68所示。

图6-68 Advanced Controller Properties

 

                                步骤 3     选择“JBOD Mode”并按Enter。

                                步骤 4     选择“Enabled”并按“Enter”。

                                步骤 5     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 6     选择“OK”并按“Enter”完成配置。

----结束

6.5.13 查询RAID控制卡固件版本

查询RAID控制卡固件版本的方法有如下几种:

l     在iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。

l     服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见6.8.2.1 查询RAID控制卡配置信息。

说明

回显信息中的“FW Version”字段即为RAID控制卡的固件版本。

l     在RAID控制卡管理界面查询,具体方法为:

a.     登录RAID控制卡的管理界面,具体操作请参见6.4.1 进入管理界面

b.     在主界面中选择“Main Menu”并按“Enter”。

进入“Main Menu”页面,如图6-69所示。

图6-69 Main Menu页面

 

c.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如图6-70所示。

图6-70 Controller Management界面

 

6.6 故障处理

介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

6.6.1 硬盘故障

6.6.1.1 硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

                                步骤 1     确认故障硬盘槽位。

说明

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考6.7.2.4 Drive Management。

l     通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考6.8.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

                                步骤 2     更换新硬盘。

 

注意

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考6.5.9 导入/清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在6.3.1 支持RAID 0/1/5/6/10/50/60查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制器下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。

     UEFI模式下创建RAID0的方法请参见6.4.2 创建RAID 0。

     通过命令行方式创建RAID0的方法请参见6.8.2.2 创建和删除RAID。

----结束

6.6.1.2 硬盘状态为fail或prefail

问题描述

正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。

但当RAID控制卡未设置紧急热备时,成员盘状态显示为fail或prefail时,可使用以下方法处理。

处理方法

                                步骤 1     使用StorCLI工具,具体操作请参考6.8.1 下载和安装StorCLI工具。

                                步骤 2     执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考6.8.2.16 设置硬盘状态。

storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]

说明

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在Enclosure的ID

l     slot_id:物理硬盘槽位ID

                                步骤 3     更换离线硬盘。

                                步骤 4     RAID组自动执行重构。

等待重构完成。

----结束

6.6.1.3 硬盘状态为Unconfigured Bad或UBad

问题描述

硬盘状态显示为Unconfigured Bad或UBad。

处理方法

                                步骤 1     使用StorCLI工具,具体操作请参见6.8.1 下载和安装StorCLI工具。

                                步骤 2     执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见6.8.2.16 设置硬盘状态。

storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]

说明

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在Enclosure的ID

l     slot_id:物理硬盘槽位ID

                                步骤 3     重新查看硬盘状态是否更改为Unconfigured Good或Ugood。具体操作请参见6.7.2.4 Drive Management界面或6.8.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤4

                                步骤 4     查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见6.5.9 导入/清除外部配置或6.8.2.36 查看/导入/清除外部配置。

l     问题解决 => 处理完毕。

l     问题未解决 => 联系技术支持处理。

----结束

6.6.2 RAID控制卡故障

问题描述

当服务器出现如下现象时,说明RAID控制卡故障。

l     数据无法写入RAID控制卡控制的硬盘。

l     服务器上报RAID控制卡故障告警。

处理方法

                                步骤 1     登录iBMC Web界面查看告警信息。

                                步骤 2     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 3     收集和查看日志信息以及其它必要的故障信息。

                                步骤 4     查询兼容性查询助手或者联系技术支持处理。

----结束

6.6.3 电容故障

问题描述

当RAID控制卡电容故障时,可能导致服务器出现如下情况:

l     服务器读写速度显著降低。

l     RAID控制卡的CU界面中显示电容状态异常。

处理方法

                                步骤 1     进入RAID控制卡的CU界面,查看电容状态是否为“Optimal”。

电容状态可查询“Properties”界面的“Battery Status”参数。

l     是 => 处理完毕。

l     否 => 步骤2

                                步骤 2     将服务器下电,打开机箱,并查看RAID控制卡电容是否在位。

l     是 => 步骤4

l     否 => 步骤3

                                步骤 3     检查整机配置,为服务器安装电容,查看电容状态是否为“Optimal”。

l     是 => 处理完毕。

l     否 => 步骤6

                                步骤 4     重新安装RAID控制卡电容,查看电容状态是否为“Optimal”。

l     是 => 处理完毕。

l     否 => 步骤5

                                步骤 5     更换RAID控制卡电容,查看电容状态是否为“Optimal”,且“问题描述”所述的异常状态是否消失。

l     是 => 处理完毕

l     否 => 步骤6

                                步骤 6     联系技术支持处理。

----结束

6.6.4 Device Manager中RAID控制卡状态显示Not Healthy

问题描述

图6-71所示,进入“Device Manager”界面后,显示“Some drivers are not healthy”。

图6-71 状态显示

 

处理方法

                                步骤 1     选择“Some drivers are not healthy”并按“Enter”。

进入健康状态查询界面,如图6-72所示。

图6-72 健康状态查询界面

 

                                步骤 2     选择“Repair the whole platform”,并按“Enter”。

进入“Critical Message”界面。

                                步骤 3     查看“Critical Message”界面的打印信息。

l     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见6.6.4.1 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。

l     显示“There are offline or missing virtual drives with preserved cache.” => 请参见6.6.4.2 There are offline or missing virtual drives with preserved cache。

l     显示“The following VDs have missing disks. ”=> 请参见6.6.4.3 The following VDs have missing disks。

l     显示“Number of disks exceeded the maximum supported count of 32 disks”=> 请参见6.6.4.4 Number of disks exceeded the maximum supported count of 32 disks。

l     显示“Memory/battery problems were detected / Unexpected power-loss occurred”=> 请参见6.6.4.5 Memory/battery problems were detected / Unexpected power-loss occurred。

----结束

说明

RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见A.2 RAID控制卡启动中出现的常见的错误消息及处理方法。

6.6.4.1 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

问题描述

图6-73所示,选择“Repair the whole platform”,进入“Critical Message”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”。

图6-73 状态显示

 

处理建议

该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:

l     下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。

l     忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:

a.     在图6-73中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

b.     输入“c”并按“Enter”。

c.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

d.     输入“y”并按“Enter”。

提示Critical Message handling completed. Please exit。

e.     按“Esc”退出当前界面。

弹出确认保存配置会话框,如图6-74所示。

图6-74 提示保存会话框

 

f.     按“Y”保存配置,操作完成。

g.     按Esc键返回“Device Manager”界面。

h.     选择3108RAID控制卡,并按“Enter”,进入RAID控制卡管理界面。

6.6.4.2 There are offline or missing virtual drives with preserved cache

问题描述

图6-75所示,进入“Critical Message”界面后,显示There are offline or missing virtual drives with preserved cache。

图6-75 状态显示

 

处理方法

                                步骤 1     在图6-75中选择“Enter Your Input Here”并按“Enter”。

弹出输入框,如图6-76所示。

图6-76 状态显示

 

                                步骤 2     输入任意内容,并按“Enter”。

提示Critical Message handling completed. Please exit。

                                步骤 3     按“Esc”键。

弹出操作确认对话框,如图6-77所示。

图6-77 “Critical Message”界面

 

                                步骤 4     按“Y”保存配置。

                                步骤 5     按“Esc”键返回“Dashboard View”界面,如图6-78所示。

图6-78 “Dashboard View”界面

 

                                步骤 6     选择“Discard Preserved Cache”并按“Enter”。

弹出操作确认对话框,如图6-79所示。

图6-79 “Discard Preserved Cache”界面

 

                                步骤 7     选择“Confirm”并按“Enter”。

                                步骤 8     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 9     选择“OK”并按“Enter”。

                             步骤 10     重启服务器。

                             步骤 11     进入“Device Manager”界面,检查界面是否显示The platform is healthy。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

6.6.4.3 The following VDs have missing disks

问题描述

进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。

处理方法

                                步骤 1     修复RAID控制卡。

1.     选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

2.     输入“c”并按“Enter”。

返回“Driver Healthy Protocol Utility”界面。

3.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

4.     输入“y”并按“Enter”。

提示Critical Message handling completed. Please exit。修复完成。

                                步骤 2     按“Esc”退出当前界面。

弹出操作确认对话框。

                                步骤 3     按“Y”保存配置。

                                步骤 4     重启服务器,进入“Device Manager”界面,检查界面是否显示“The platform is healthy”。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

6.6.4.4 Number of disks exceeded the maximum supported count of 32 disks

问题描述

图6-80所示,进入“Driver Healthy Protocol Utility”界面后,显示“Number of disks exceeded the maximum supported count of 32 disks”。

图6-80 状态显示

 

处理方法

出现该打印信息表示当前LSI SAS3108RAID控制卡配置的RAID Key仅支持32个硬盘,请将服务器下电,拔出多余的硬盘,再上电,即会在“Advanced”页签正常显示RAID控制卡信息。如未修复,请联系技术工程师处理。

6.6.4.5 Memory/battery problems were detected / Unexpected power-loss occurred

问题描述

图6-81所示,进入“Driver Healthy Protocol Utility”界面后,显示“Memory/battery problems were detected / Unexpected power-loss occurred”。

图6-81 状态显示

 

处理方法

                                步骤 1     选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

                                步骤 2     输入任意内容,并按“Enter”。

提示Critical Message handling completed. Please exit。修复完成。

                                步骤 3     重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

6.7 管理界面介绍

6.7.1 进入管理界面

操作场景

该任务指导用户登录LSI SAS3108的配置管理界面。

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

                                步骤 1     重启服务器。当出现如图6-82所示界面时,按“F11”键。

图6-82 BIOS启动界面(1)

 

                                步骤 2     输入密码,并按“Enter”。

进入如图6-83所示界面。

图6-83 BIOS启动界面(2)

 

                                步骤 3     选择“Device Manager”并按“Enter”。

显示当前存在的RAID控制卡列表,如图6-84所示。

图6-84 RAID控制卡列表

 

说明

如果Device Manager界面显示“Some drivers are not healthy”,请参见6.6.4 Device Manager中RAID控制卡状态显示Not Healthy进行修复。

                                步骤 4     选择要操作的LSI SAS3108控制器,按“Enter”。

进入如图6-85和图6-86所示主界面,界面参数如表6-29所示。

图6-85 LSI SAS3108主界面(1)

 

图6-86 LSI SAS3108主界面(2)

 

表6-29 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

说明

LSI SAS3108不支持在此界面升级FW。

Silence Alarm

板载蜂鸣器的使能状态。

LSI SAS3108未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

6.7.2 Main Menu

RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。

界面介绍

“Main Menu”界面如图6-87,参数说明如表6-30所示。

图6-87 Main Menu

 

表6-30 参数说明

参数

参数说明

Configuration Management

配置管理RAID。

操作方法:选中该操作项并按“Enter”进入详细配置界面。

Controller Management

管理RAID控制器。

操作方法:选中该操作项并按“Enter”进入详细配置界面。

Virtual Drive Management

管理虚拟磁盘。

操作方法:选中该操作项并按“Enter”进入详细配置界面。

Drive Management

管理硬盘。

操作方法:选中该操作项并按“Enter”进入详细配置界面。

Hardware Components

查询部件信息。

操作方法:选中该操作项并按“Enter”进入详细配置界面。

 

6.7.2.1 Configuration Management

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

“Configuration Management”界面如图6-88,参数说明如表6-31所示。

图6-88 Configuration Management

 

表6-31 参数说明

参数

参数说明

Create Virtual Drive

创建RAID。

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Make JBOD

将硬盘设置为JBOD盘。

Clear Configuration

清除当前所有RAID配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时会显示该参数。

 

快速创建RAID

                                步骤 1     在图6-88中选择“Create Profile Based Virtual Drive”并按“Enter”。

                                步骤 2     通过“↑”、“↓”选择要创建的RAID(以“Generic RAID 6”为例)并按“Enter”。

打开RAID配置界面,如图6-89,参数说明如表6-32所示。

图6-89 RAID配置界面

 

表6-32 参数说明

参数

说明

Drive Selection Criteria

系统自动选择的成员盘。

Virtual Drive Name

系统自定义的RAID组名称。

RAID Level

当前配置的RAID组的级别。

Virtual Drive Size

RAID组的容量。

Power Save Mode

数据掉电保护模式。

Strip Size

RAID组扇区大小。

Read Policy

RAID组的数据读策略。

Write Policy

RAID组的数据写策略。

IO Policy

RAID组I/O策略。

Access Policy

数据读写的策略。

Drive Cache

硬盘Cache策略。

Default Initialization

RAID组默认的初始化方式。

Create Dedicated Hot Spare

是否为RAID组创建局部热备盘。

 

                                步骤 3     按表6-32所示查看或配置相关参数。

                                步骤 4     选择“Save Configuration”并按“Enter”。

弹出操作成功提示界面。

                                步骤 5     按“Enter”。

----结束

查看虚拟磁盘属性

                                步骤 1     在图6-88中选择“View Drive Group Properties”并按“Enter”。

打开的界面如图6-90,参数说明如表6-33所示。

图6-90 View Drive Group Properties

 

表6-33 参数说明

参数

参数说明

Drive Group

硬盘组名称。

Capacity Allocation

硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。

Protected

硬盘组数据保护功能的使能状态。

 

----结束

将硬盘设置为JBOD盘

                                步骤 1     在图6-88中选择“Make JBOD”并按“Enter”。

                                步骤 2     选中要设置成JBOD盘的硬盘,并按“Enter”。

                                步骤 3     选择“Enabled”并按“Enter”。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

清除RAID配置

                                步骤 1     在图6-88中选择“Clear Configuration”并按“Enter”。

进入操作确认界面。

                                步骤 2     选中“Confirm”并按“Enter”。

                                步骤 3     在打开的列表中选择“Enabled”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     按“Enter”。

配置完成。

----结束

6.7.2.2 Controller Management

该界面提供控制器管理接口,可查看并修改控制器的详细参数。

界面介绍

“Controller Management”界面如图6-91,参数说明如表6-34所示。

图6-91 Controller Management

 

表6-34 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Select Boot Device

当前启动项。

说明

EFI模式下,该配置项不生效。

PCI ID

RAID控制卡的PCI ID。

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Connector Count

RAID控制卡与主板的接口个数。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制器操作。

操作方法:选中该操作项并按“Enter”进入详细配置界面。

Advanced Controller Properties

查看和修改控制器的高级属性。

操作方法:选中该操作项并按“Enter”进入详细配置界面。

 

更多控制器操作

                                步骤 1     在图6-91中选择“Advanced Controller Management”并按“Enter”。

界面如图6-92所示,界面中参数说明如表6-35所示。

图6-92 Manage Foreign Configuration

 

表6-35 参数说明

参数

说明

Clear Controller Events

清除控制器的事件日志。

Save Controller Events

保存控制器的事件日志。

操作方法:选择该操作项并按“Enter”进入详细的配置界面。

Save TTY Log

保存终端操作日志。

操作方法:选择该操作项并按“Enter”进入详细的配置界面。

Manage Link Speed

管理接口速率。

操作方法:选择该操作项并按“Enter”进入详细的配置界面。

Manage MegaRAID Advanced Software Options

管理高级软件功能。

操作方法:选择该操作项并按“Enter”进入详细的配置界面。

Schedule Consistency Check

设置一致性校验参数。

操作方法:选择该操作项并按“Enter”进入详细的配置界面。

Set Factory Defaults

恢复为出厂配置。

Switch to JBOD mode

当前暂不支持该功能,请勿进行选择。如果需要使能JBOD,请在图6-94所示界面的“JBOD Mode”选项进行设置。

 

----结束

查看并修改控制器高级属性

                                步骤 1     在图6-91中选择“Advanced Controller Properties”并按“Enter”。

界面如图6-93图6-94所示,界面中参数说明如表6-36所示。

图6-93 Advanced Controller Properties(1)

 

图6-94 Advanced Controller Properties(2)

 

表6-36 参数说明

参数

说明

Cache and Memory

查看控制器Cache和Memory信息。

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

选中该选项并按“Enter”后,会显示“Power Save Setting”界面。界面参数说明如下:

l     Spin Down Unconfigured Good:开启或关闭Unconfigured Good状态的硬盘的休眠功能,默认为关闭状态。

l     Spin Down Hot Spare Drives:开启或关闭热备盘的休眠功能,默认为关闭状态。

l     Drive Standby Time:设置硬盘的空闲时间。

l     Spinup Drive Count:设置同时工作的最大硬盘数。

l     Spinup Delay:RAID控制卡下各硬盘之间进入工作状态的间隔时间(单位为秒)。通过设置该参数,可避免因RAID控制卡下所有硬盘同时进入工作状态导致可能产生设备供电不足的问题。默认值为12。

l     Apply Changes:保存设置。

Spare

设置控制器热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

LSI SAS3108控制器卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制器BIOS的使能情况。

ROC Temperature

控制器温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Expanded Virtual Drive Support

是否支持扩容虚拟磁盘的功能。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见6.5.9 导入/清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

JBOD Mode

硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。

说明

LSI SAS3108的Firmware版本为6121及以上时,方可配置JBOD模式,且服务器必须已安装对应版本的驱动。

Write Verify

写校验。

Large IO Support

启用或禁用大型I/O支持功能。

Apply Changes

保存配置。

 

                                步骤 2     在图6-93中选择“Task Rates”并按“Enter”。界面如图6-95所示,界面中参数说明如表6-37所示。

图6-95 Task Rates

 

表6-37 参数说明

参数

说明

Background Initialization <BGI> Rate

设置执行后台初始化的速率。

说明

数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Consistency Check Rate

设置执行一致性校验的速率。

说明

数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Patrol Read Rate

设置执行巡检读取的速率。

说明

数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Rebuild Rate

设置硬盘发生故障时在新硬盘上执行重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Reconstruction Rate

设置执行RAID级别迁移或在线容量扩展时重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Apply Changes

保存配置。

 

                                步骤 3     按照表6-36所述修改控制器的高级属性参数。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     单击“OK”完成配置。

----结束

配置JBOD模式

                                步骤 1     在图6-93中选中“JBOD Mode”并按“Enter”,选择“Enable”并按“Enter”。

                                步骤 2     通过“↓”选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 3     单击“OK”完成配置。

返回“Drive Management ”界面,如图6-96所示,Unconfigured Good状态下的硬盘自动配置成JBOD模式。

图6-96 Drive Management界面

 

选中配置成JBOD模式的硬盘,并按“Enter”,在“Select operation”中选择“Make Unconfigured Good”并按“Go”,硬盘可再次切换成Unconfigured Good状态,如图6-97所示。

图6-97 Drive Management界面

 

----结束

6.7.2.3 Virtual Drive Management

该界面提供虚拟磁盘的查询和管理接口。

界面介绍

“Virtual Drive Management”界面如图6-98,显示虚拟磁盘列表。

图6-98 Virtual Drive Management

 

选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如图6-99所示,参数说明如表6-38所示。

图6-99 Virtual Drive List

 

表6-38 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:定位虚拟磁盘的所有硬盘。

l     Stop Locate:取消定位。

l     Delete Virtual Drive:删除虚拟磁盘。

l     Expand Virtual Drive:扩展虚拟磁盘容量。

l     Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。

l     Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。

l     Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。

l     Fast Initialization:快速初始化虚拟磁盘。

l     Slow Initialization:安全初始化虚拟磁盘。

l     Check Consistency:一致性校验。

l     Virtual Drive Erase:格式化虚拟磁盘。

Name

虚拟磁盘名称。

Raid Level

虚拟磁盘RAID级别。

Status

虚拟磁盘当前运行状态。

Size

虚拟磁盘容量。

View Associated Drives

查看成员盘属性。

Advanced...

查看虚拟磁盘高级属性。

 

查看成员盘属性

                                步骤 1     在图6-99中选择“View Associated Drives”并按“Enter”。

界面如图6-100,显示成员盘列表。

图6-100 View Associated Drives

 

                                步骤 2     选择要查看的成员盘,将其设置为“Enabled”。

                                步骤 3     选择“View Drive Properties”并按“Enter”。

进入硬盘属性界面,如图6-101界面所示,界面参数如表6-39所示。

图6-101 View Drive Properties

 

表6-39 参数说明

参数

参数说明

Operation

该成员盘可执行的操作,包括:

l     Start Locate

l     Stop Locate

l     Place Drive Offline/Online

Drive ID

成员盘的ID。

Status

成员盘的当前工作状态。

Size

成员盘的容量。

Type

成员盘类型。

Model

成员盘的模块类型。

Hardware Vendor

成员盘的生产厂商。

Associated Virtual Drive

成员盘所在的虚拟磁盘。

Advanced...

查询成员盘更多属性。

操作方法:选择该配置项并按“Enter”进入详细的操作界面。

 

----结束

查看和修改虚拟磁盘高级属性

                                步骤 1     在图6-99中选择“Advanced”并按“Enter”。

界面如图6-102图6-103,界面参数如表6-40所示。

图6-102 Advanced(1)

 

图6-103 Advanced(2)

 

表6-40 参数说明

参数

参数说明

Logical Sector Size

逻辑扇区大小。

Segment Size

条带大小。

Starting Logical Block Addressing

逻辑单元起始地址。

Protected

是否支持硬盘保护。

Bad Blocks

是否支持坏块处理。

SSD Caching

是否支持SSD Caching。

Access

是否支持Access。

Current Write Cache Policy

当前写Cache策略,包括:

l     Write Through:当硬盘子系统接受到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。

l     Write Back:当RAID控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Always Write Back:当未配置超级电容或超级电容故障时,RAID控制卡将不会自动切换到Write Through模式。

操作方法:

1.     选择该配置项并按“Enter”。

2.     在列表中选择要配置的参数并按“Enter”。

说明

“Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR的写数据将会丢失。不推荐使用该模式。

Default Write Cache Policy

默认的写Cache策略。

Disable Background Initialization

是否禁用后台初始化。

操作方法:

1.     选择该配置项并按“Enter”。

2.     在列表中选择要配置的参数并按“Enter”。

Read Cache Policy

当前读Cache策略,包括:

l     No Read Ahend:关闭预读取功能。

l     Read Ahend:使能预读取功能。RAID控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

操作方法:

1.     选择该配置项并按“Enter”。

2.     在列表中选择要配置的参数并按“Enter”。

Drive Cache

是否支持cache。

Input/Output

I/O读取策略,包括:

l     Direct:直接从硬盘读取数据,不经过Cache缓存。

l     Cached:从Cache缓存中读取数据。

操作方法:

1.     选择该配置项并按“Enter”。

2.     在列表中选择要配置的参数并按“Enter”。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Apply Changes

保存配置。

 

                                步骤 2     按照表6-40所述配置“Advanced”的参数。

                                步骤 3     选择“Apply Changes”并按“Enter”。

显示The operation has been performed successfully。

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

6.7.2.4 Drive Management

该界面显示硬盘基本属性,提供硬盘操作接口。

界面介绍

“Drive Management”界面如图6-104所示,显示硬盘列表。

图6-104 Drive List

 

选定要操作的硬盘并按“Enter”进入详细操作界面,如图6-105所示,参数说明如表6-41所示。

图6-105 Drive Management

 

表6-41 参数说明

参数

参数说明

Operation

执行的操作。包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Initialize Drive:硬盘初始化。

l     Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。

     Simple:仅对硬盘进行一轮擦除动作。

     Normal:对硬盘进行三轮擦除动作。

     Thorough:对硬盘进行九轮擦除动作。

     Stop Erase:停止数据擦除操作。

l     Make Unconfigured Good/Bad:修改硬盘状态。

l     Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。

l     Assign Global Hot Spare Drive:设置全局热备盘。

l     Assign Dedicated Hot Spare Drive:设置局部热备盘。

l     Unassign Hot Spare Drive:删除热备盘。

l     Place Drive Online:将Offline状态的硬盘设置为Online。

说明

l     Place Drive Online操作只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。

l     对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。

Drive ID

硬盘的ID。

Status

硬盘的当前工作状态。

Size

硬盘的容量。

Type

硬盘的类型。

Model

硬盘型号。

Hardware Vendor

硬盘的生产厂商。

Associated Virtual Drive

表示硬盘已加入虚拟磁盘,此处显示虚拟磁盘信息。

Advanced...

查询更多硬盘属性。

 

查看硬盘属性

                                步骤 1     选择“Advanced...”并按“Enter”。

打开硬盘属性界面,如图6-106所示,参数说明如表6-42所示。

图6-106 Drive Properties

 

表6-42 参数说明

参数

参数说明

Certified

是否通过认证。

Logical Sector Size

逻辑扇区大小。

Physical Sector Size

物理扇区大小。

SMART Status

SMART功能是否使能。

Revision

硬盘Firmware版本。

Media Error

Media error个数。

Predicted Fail Count

Pred fail个数。

SAS Address

硬盘SAS地址。

Drive Power State

硬盘上电状态。

Emergency Spare

是否支持紧急备份功能更,即是否可以选空闲盘或者热备做备份盘。

Commissioned Hot Spare

是否指定了备份盘,即把一个热备盘指定给一个RAID组使用。

Cache Setting

是否可设置Cache。

Available Size

硬盘可用空间。

Used Space

已使用的硬盘空间。

Disk Protocol

硬盘支持的协议。

Negotiated Drive Transfer Speed

硬盘数据传输速率。

Number of Connections

连接器个数。

FDE Capable

硬盘是否支持FDE(Full Disk Encryption)技术。

Protection Capable

硬盘是否支持数据保护。

Temperature

硬盘温度。

 

----结束

6.7.2.5 Hardware Components

该界面主要提供RAID控制卡传感器信息。

界面介绍

“Hardware Components”界面如图6-107,参数说明如表6-43所示。

图6-107 Hardware Components

 

表6-43 参数说明

参数

参数说明

Temperature Sensors

当前温度传感器状态。

Fans

当前风扇模块工作状态。

Power Supplies

当前供电模块工作状态。

Enclosure Management

部件管理。

 

查看更多传感器信息

                                步骤 1     选择“Enclosure Management”并按“Enter”。

进入部件选择界面,如图6-108所示。

图6-108 选择部件

 

                                步骤 2     选择“Select Enclosure”并按Enter。

                                步骤 3     选择要查看的传感器并按Enter。

                                步骤 4     选择“View Enclosure Status”并按Enter。

显示传感器的详细信息,如图6-109所示。

图6-109 传感器信息

 

                                步骤 5     在TEMPERATUR SENSOR下通过“Select Temperature Sensor”选择要查询的温度传感器。

“Temperature Sensor Status”显示所查询的传感器的状态。

                                步骤 6     在FAN下通过“Select Fan”选择要查询的风扇传感器。

“Fan Status”显示所查询的传感器的状态。

                                步骤 7     在POWER SUPPLY下通过“Select Power Supply”选择要查询的供电模块传感器。

“Power Supply Status”显示所查询的传感器的状态。

----结束

6.7.3 View Server Profile

提供RAID控制卡操作管理接口。

界面介绍

“View Server Profile”界面如图6-110所示,参数说明如表6-44所示。

图6-110 View Server Profile

 

表6-44 参数说明

参数

参数说明

UEFI Spec Version

服务器支持的UEFI Spec版本。

Controller Management

提供控制器管理接口,详细情况请参见6.7.2.2 Controller Management。

Hardware Components

提供控制器部件查询接口,详细情况请参见6.7.2.5 Hardware Components。

Drive Management

提供硬盘管理接口,详细情况请参见6.7.2.4 Drive Management。

Virtual Drive Management

提供虚拟磁盘管理接口,详细情况请参见6.7.2.3 Virtual Drive Management。

 

6.7.4 View Foreign Configuration

该界面可查看、导入、清空外部配置。

界面介绍

“View Foreign Configuration”界面如图6-111所示。

图6-111 View Foreign Configuration

 

查看并导入外部配置

                                步骤 1     选择“Preview Foreign Configuration”并按“Enter”。

                                步骤 2     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     在列表中选择“Enable”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 6     单击“OK”完成配置。

----结束

清除外部配置

                                步骤 1     选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     在列表中选择“Enable”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     单击“OK”完成配置。

----结束

6.7.5 Configure

该界面可清除当前所有配置。

界面介绍

“Configure”界面如图6-112所示。

图6-112 Configure

 

清除当前配置

                                步骤 1     选择“Clear Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     在列表中选择“Enable”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     单击“OK”完成配置。

----结束

6.7.6 Set Factory Defaults

恢复出厂配置

                                步骤 1     在主界面选择“Set Factory Defaults”并按“Enter”。

打开操作确认界面。

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     在列表中选择“Enable”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     单击“OK”完成配置。

----结束

6.7.7 Manage MegaRAID Advanced Software Options

该界面提供RAID控制卡高级软件特性查看和导入接口。

界面介绍

“Manage MegaRAID Advanced Software Options”界面如图6-113所示,界面中参数说明如表6-45所示。

图6-113 Manage MegaRAID Advanced Software Options

 

表6-45 参数说明

参数

说明

SAFE ID

RAID控制卡的安全编码。

Serial Number

RAID控制卡序列号。

Activation Key

待激活的高级特性的Key。

操作方法:

1.     选择该操作项并按“Enter”。

2.     在文本框中输入Key按“Enter”。

Active

激活高级特性。

LSI SAS3108不支持高级特性的激活操作,该功能无效。

Deactive All Trail Software

注销当前所有高级特性。

 

6.7.8 Exit

退出配置界面。

退出配置界面

                                步骤 1     在LSI SAS3108主界面按“ESC”,显示如图6-114所示界面。

图6-114 BIOS Setup Utility

 

                                步骤 2     按F10保存配置。

弹出操作确认窗口。

                                步骤 3     选择“OK”并按Enter。

退出BIOS,显示“ Press Control+Alt+Delete to reboot”。

----结束

6.8 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

6.8.1 下载和安装StorCLI工具

下载工具

                                步骤 1     登录BROADCOM网站上RAID控制卡的页面

                                步骤 2     在“DOWNLOADS”页签中单击“Management Software and Tools”。

打开管理软件和工具列表。

                                步骤 3     下载最新版本的“StorCLI”工具。

                                步骤 4     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

                                步骤 1     使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 2     在Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。

说明

StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

6.8.2 常用命令

6.8.2.1 查询RAID控制卡配置信息

命令功能

查询LSI SAS3108的基本配置信息。

命令格式

storcli64 /ccontroller_id show

参数说明

参数

参数说明

取值

controller_id

控制器ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID

 

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡配置信息。

[root@localhost ~]# ./storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
Product Name = SAS3108
Serial Number =
SAS Address =  50030130f0900000
PCI Address = 00:01:00:00
System Time = 07/07/2018 22:06:42
Mfg. Date = 00/00/00
Controller Time = 07/07/2018 14:06:41
FW Package Build = 24.16.0-0093
BIOS Version = 6.32.02.0_4.17.08.00_0x06150500
FW Version = 4.660.00-8140
Driver Name = megaraid_sas 
Driver Version = 06.811.02.00-rh1
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x5D
SubVendor Id = 0x19E5
SubDevice Id = 0xD207
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Drive Groups = 1
 
TOPOLOGY :
========
 
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace TR
-----------------------------------------------------------------------------
 0 -   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 0 0   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 0 0   0   252:1    18  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
 0 0   1   252:0    48  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
-----------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 1
 
VD LIST :
=======
 
---------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC       Size Name
---------------------------------------------------------------
0/0   RAID1 Optl  RW     Yes     RWBD  -   ON  744.125 GB
---------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 6
 
PD LIST :
=======
 
---------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model               Sp Type
---------------------------------------------------------------------------------
252:0    48 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:1    18 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:2    19 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BA800G4 U  -
252:3    20 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BA800G4 U  -
252:4    49 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:5    47 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
---------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Cachevault_Info :
===============
 
------------------------------------
Model  State   Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 28C  -    2016/11/04
------------------------------------

6.8.2.2 创建和删除RAID

命令功能

创建、删除RAID。

命令格式

命令

说明

storcli64 /ccontroller_id add vd rlevel[0|1|5|6|10|50|60] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [wt|*wb|awb] [nora|*ra] [*direct|cached] [Strip=<8|16|32|64|128|256|1024>] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid]

创建RAID组

storcli64 /ccontroller_id/vraid_id del

删除RAID组

 

说明

*表示默认值。

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

enclosure_id

硬盘所在Enclosure的ID

-

rlevel

要配置的RAID组级别

level可为0、1、5、6、10、50、60,数字分别代表对应的RAID组级别。

size

要配置的RAID组容量

默认值为all,即所有成员盘的容量之和。

name

要配置的RAID组名称

-

drives

要加入RAID组的硬盘

-

startid-endid

硬盘的起始和结束ID

-

slot_id

硬盘ID

-

pdperarray

子组中的硬盘数

创建RAID10、RAID50、RAID60时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。

-

pdcache

设置RAID的成员盘的Cache状态

l     on

l     off

l     default

pi

使能数据保护

-

wrcache

设置RAID组的写Cache属性,完整的命令为wrcache=wt|wb|awb,这里“wrcache=”可省略

l     wt:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     wb:控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”模式。

rdcache

设置RAID组的读Cache属性,完整的命令为rdcache=ra|nora,这里“rdcache=”可省略。

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

iopolicy

设置RAID组的I/O策略,完整的命令为iopolicy=direct|cached,这里“iopolicy=”可省略。

说明

Cache IO的规格后续不再支持,默认为Direct IO,具体信息请查看RAID控制卡固件版本说明书。

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

Strip

设置RAID组条带大小

MR卡:8, 16, 32, 64, 128, 256, 512, 1024

iMR卡:只能为64

单位为KB

EmulationType

控制逻辑盘在OS中上报的扇区

l     0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     1: Disable,如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     2:Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Spares

指定RAID组的热备盘

-

raid_id

要删除的RAID组的ID

-

 

使用指南

使用实例

# 创建RAID 0。

domino:~# ./storcli64 /c0 add vd r0 size=100GB drives=252:0-3
Controller = 0 
Status = Success 
Description = Add VD Succeeded

# 删除RAID。

domino:~# ./storcli64 /c0/v0 del
Controller = 0 
Status = Success 
Description = Delete VD Succeeded

6.8.2.3 查询RAID控制卡/RAID组/物理硬盘信息

命令功能

查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。

命令格式

storcli64 /ccontroller_id show

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

storcli64 /ccontroller_id/vvd_id show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID

enclosure_id

硬盘所在Enclosure的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器连接的硬盘背板的ID

slot_id

物理硬盘槽位编号

可以将该参数设置为all,表示查询所有硬盘的ID

vd_id

虚拟磁盘ID

可以为all,表示查询所有虚拟磁盘信息。

 

使用指南

回显中主要字段的含义如表6-46所示。

表6-46 回显说明

命令格式

字段

含义

举例

storcli64 /ccontroller_id show

Product Name

RAID控制卡的型号

sas3108

FW Version

RAID控制卡的FW版本

4.660.00-8140

Driver Name

RAID控制卡的驱动名称

megaraid_sas

Driver Version

RAID控制卡的驱动版本

06.811.02.00-rh1

Current Personality

RAID控制卡的工作模式

RAID-Mode

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

SN

物理硬盘的序列号

PHWL517601YR800RGN

Manufacturer Id

物理硬盘的供应商ID

ATA

Model Number

物理硬盘的模块序号

INTEL SSDSC2BB800G4

Firmware Revision

物理硬盘的FW版本

D2010370

Raw size

物理硬盘的容量

745.211 GB [0x5d26ceb0 Sectors]

Logical Sector Size

物理硬盘逻辑分区大小

512B

Physical Sector Size

物理扇区大小

4 KB

storcli64 /ccontroller_id/vvd_id show all

TYPE

RAID组的级别

RAID1

State

RAID组的状态

Optl

Access

RAID组数据的访问策略

RW

Cache

RAID组当前的读写策略与I/O Policy

RWTD

Size

RAID组的大小

100.0 GB

PDs for VD0

RAID组下的物理硬盘

-

Strip Size

RAID组的条带大小

256KB

Write Cache(initial setting)

RAID组Cache的写策略

Write Through

Disk Cache Policy

RAID组成员盘的Cache策略

Disk's Default

 

使用实例

#查询RAID控制卡的详细信息。

[root@localhost ~]# ./storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
Product Name = SAS3108
Serial Number =
SAS Address =  50030130f0900000
PCI Address = 00:01:00:00
System Time = 07/07/2018 22:06:42
Mfg. Date = 00/00/00
Controller Time = 07/07/2018 14:06:41
FW Package Build = 24.16.0-0093
BIOS Version = 6.32.02.0_4.17.08.00_0x06150500
FW Version = 4.660.00-8140
Driver Name = megaraid_sas 
Driver Version = 06.811.02.00-rh1
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x5D
SubVendor Id = 0x19E5
SubDevice Id = 0xD207
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Drive Groups = 1
 
TOPOLOGY :
========
 
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace TR
-----------------------------------------------------------------------------
 0 -   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 0 0   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 0 0   0   252:1    18  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
 0 0   1   252:0    48  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
-----------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 1
 
VD LIST :
=======
 
---------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC       Size Name
---------------------------------------------------------------
0/0   RAID1 Optl  RW     Yes     RWBD  -   ON  744.125 GB
---------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 6
 
PD LIST :
=======
 
---------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model               Sp Type
---------------------------------------------------------------------------------
252:0    48 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:1    18 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:2    19 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BA800G4 U  -
252:3    20 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BA800G4 U  -
252:4    49 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:5    47 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
---------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Cachevault_Info :
===============
 
------------------------------------
Model  State   Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 28C  -    2016/11/04
------------------------------------

#查询slot0的物理硬盘的信息。

[root@localhost ~]# ./storcli64 /c0/e252/s0 show all
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
 
 
Drive /c0/e252/s0 :
=================
 
---------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model               Sp Type
---------------------------------------------------------------------------------
252:0    48 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
---------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Drive /c0/e252/s0 - Detailed Information :
========================================
 
Drive /c0/e252/s0 State :
=======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature =  20C (68.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
 
 
Drive /c0/e252/s0 Device attributes :
===================================
SN = PHWL517601YR800RGN
Manufacturer Id = ATA
Model Number = INTEL SSDSC2BB800G4
NAND Vendor = NA
WWN = 55cd2e404c533246
Firmware Revision = D2010370
Raw size = 745.211 GB [0x5d26ceb0 Sectors]
Coerced size = 744.125 GB [0x5d040800 Sectors]
Non Coerced size = 744.711 GB [0x5d16ceb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 6.0Gb/s
NCQ setting = Enabled
Write cache = N/A
Logical Sector Size = 512B
Physical Sector Size = 4 KB
Connector Name = Port A x1
 
 
Drive /c0/e252/s0 Policies/Settings :
===================================
Drive position = DriveGroup:0, Span:0, Row:1
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = No
Wide Port Capable = No
 
Port Information :
================
 
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
   0 Active 6.0Gb/s   0x4433221100000000
-----------------------------------------
 
 
Inquiry Data =
40 00 ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 48 50 4c 57 31 35 36 37 31 30 52 59
30 38 52 30 4e 47 20 20 00 00 00 00 00 00 32 44
31 30 33 30 30 37 4e 49 45 54 20 4c 53 53 53 44
32 43 42 42 30 38 47 30 20 34 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 01 80
00 40 00 2f 00 40 00 00 00 00 07 00 ff 3f 10 00
3f 00 10 fc fb 00 01 bf ff ff ff 0f 00 00 07 00

# 查询VD 0的信息。

[root@rhel6u5 ~]# /opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
 
 
/c0/v0 :
======
 
---------------------------------------------------------
DG/VD TYPE  State Access Consist Cache sCC     Size Name
---------------------------------------------------------
1/0   RAID1 Optl  RW     Yes     RWTD  -   1.089 TB
---------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|B=Blocked|Consist=Consistent|
R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
 
PDs for VD 0 :
============
 
-----------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model            Sp
-----------------------------------------------------------------------
25:22    14 Onln   1 1.089 TB SAS  HDD N   N  512B ST1200MM0007     U
25:23    26 Onln   1 1.089 TB SAS  HDD N   N  512B ST1200MM0007     U
-----------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded
 
 
VD0 Properties :
==============
Strip Size = 256 KB
Number of Blocks = 2341795840
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 2
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = Disabled
Active Operations = None
Exposed to OS = Yes
Creation Date = 04-01-2018
Creation Time = 12:38:35 PM
Emulation type = None

6.8.2.4 查询超级电容的相关信息

命令功能

查询超级电容的名称及TFM Flash卡缓存容量的大小等信息。

命令格式

storcli64 /ccontroller_id/cv show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以为all,表示所有控制器。

 

查看RAID控制卡ID的方法请参见6.8.2.1 查询RAID控制卡配置信息。

使用实例

#查询超级电容的相关信息。

[root@localhost ~]# ./storcli64 /c0/cv show all
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
 
Cachevault_Info :
===============
 
--------------------
Property    Value
--------------------
Type        CVPM02
Temperature 28 C
State       Optimal
--------------------
 
 
Firmware_Status :
===============
 
---------------------------------------
Property                         Value
---------------------------------------
Replacement required             No
No space to cache offload        No
Module microcode update required No
---------------------------------------
 
 
GasGaugeStatus :
==============
 
------------------------------
Property                Value
------------------------------
Pack Energy             294 J
Capacitance             108 %
Remaining Reserve Space 0
------------------------------
 
 
Design_Info :
===========
 
------------------------------------
Property                 Value
------------------------------------
Date of Manufacture      04/11/2016
Serial Number            22417
Manufacture Name         LSI
Design Capacity          288 J
Device Name              CVPM02
tmmFru                   N/A
CacheVault Flash Size    8.0 GB
tmmBatversionNo          0x05
tmmSerialNo              0xee7d
tmm Date of Manufacture  09/12/2016
tmmPcbAssmNo             022544412A
tmmPCBversionNo          0x03
tmmBatPackAssmNo         49571-13A
scapBatversionNo         0x00
scapSerialNo             0x5791
scap Date of Manufacture 04/11/2016
scapPcbAssmNo            1700134483
scapPCBversionNo          A
scapBatPackAssmNo        49571-13A
Module Version           6635-02A
------------------------------------
 
 
Properties :
==========
 
--------------------------------------------------------------
Property             Value
--------------------------------------------------------------
Auto Learn Period    27d (2412000 seconds)
Next Learn time      2018/08/03  17:48:38 (586633718 seconds)
Learn Delay Interval 0 hour(s)
Auto-Learn Mode      Transparent
--------------------------------------------------------------

说明

l     上述回显信息中,“Device Name  CVPM02”表示超级电容的名称为 “CVPM02”,“CacheVault Flash Size   8.0GB”表示TFM Flash卡缓存容量为“8.0GB”。

l     当回显信息的“State”显示为“FAILED”时,需要更换超级电容。

6.8.2.5 查询和设置Patrolread参数

命令功能

查询和设置系统巡检的相关参数。

命令格式

storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number

storcli64 /ccontroller_id set patrolread delay=delaytime

storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}

storcli64 /ccontroller_id show patrolread

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

系统巡检起始时间

例如:2016/07/15 23

说明

起始时间单位为“时”。

number

可同时巡检的硬盘数量

delaytime

系统巡检周期

单位为hour。

 

使用指南

使用实例

# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。

domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

---------------------------------------

Ctrl_Prop          Value

---------------------------------------

PR Starttime       2016/07/15 23:00:00

PR MaxConcurrentPd 2

---------------------------------------

# 使能patrolread并设置为自动模式。

domino:~# ./storcli64 /c0 set patrolread=on mode=auto
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
--------------------------------------- 
Ctrl_Prop        Value 
--------------------------------------- 
Patrol Read Mode auto 
---------------------------------------

# 查询patrolread信息。

domino:~# ./storcli64 /c0 show patrolread

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

--------------------------------------------

Ctrl_Prop          Value

--------------------------------------------

PR Mode       2016/07/15 23:00:00

PR Execution Delay

PR iterations completed 0

PR Next Start time      07/16/2016,00:00:00

PR on SSD               Disabled

PR Current State        Stopped

--------------------------------------------

6.8.2.6 查询和设置Spinup参数

命令功能

查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。

命令格式

storcli64 /ccontroller_id show spinupdelay

storcli64 /ccontroller_id show spinupdrivecount

storcli64 /ccontroller_id set spinupdelay=time

storcli64 /ccontroller_id set spinupdrivecount=count

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

每组起转硬盘间的时间间隔

默认为2,单位为s。

count

上电时允许同时起转的硬盘数量

默认为4。

 

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡Spinup参数。

domino:~# ./storcli64 /c0 show spinupdelay

Controller = 0

Status = Success

Description = None

Controller Properties:

=====================

--------------------------

Ctrl_Prop     Value

--------------------------

Spin Up Delay 2 second(s)

--------------------------

domino:~# ./storcli64 /c0 show spinupdrivecount

Controller = 0

Status = Success

Description = None

Controller Properties:

=====================

--------------------------

Ctrl_Prop           Value

--------------------------

Spin Up Drive Count 4

--------------------------    

# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。

domino:~# ./storcli64 /c0 set spinupdelay=20

Controller = 0

Status = Success

Description = None

Controller Properties:

=====================

--------------------------

Ctrl_Prop     Value

--------------------------

Spin Up Delay 20 second(s)

--------------------------

domino:~# ./storcli64 /c0 set spinupdrivecount=5

Controller = 0

Status = Success

Description = None

Controller Properties:

=====================

--------------------------

Ctrl_Prop           Value

--------------------------

Spin Up Drive Count 5

--------------------------    

6.8.2.7 查询和设置硬盘数据擦除功能

命令功能

设置物理硬盘数据擦除模式,查询擦除进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

硬盘槽位号

mode

数据擦除模式

l     simple:对硬盘进行一轮擦除动作。

l     normal:对硬盘进行三轮擦除动作。

l     thorough:对硬盘进行九轮擦除动作。

 

使用指南

使用实例

# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。

domino:~# ./storcli64 /c0/e252/s3 start erase simple

Controller = 0

Status = Success

Description = Start Drive Erase Succeeded.

domino:~# ./storcli64 /c0/e252/s3 show erase

Controller = 0

Status = Success

Description = Show Drive Erse Status Succeeded.

------------------------------------------------------

Drive-ID    Progress% Status      Estimated Time Left

------------------------------------------------------

/c0/e252/s3         0 In progress 0 Seconds

------------------------------------------------------    

domino:~# ./storcli64 /c0/e252/s3 stop erase

Controller = 0

Status = Success

Description = Stop Drive Erase Succeeded.

6.8.2.8 查询和设置RAID后台初始化

命令功能

暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。

命令格式

storcli64 /ccontroller_id/vraid_id action bgi

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

action

后台初始化的操作

l     show:查看后台初始化进度

l     pause:暂停后台初始化

l     resume:继续后台初始化

l     stop:停止后台初始化

 

使用指南

使用实例

# 查看后台初始化进度。

domino:~# ./storcli64 /c0/v0 show bgi

Controller = 0

Status = Success

Description = Noe

VD Operation Status :

===================

------------------------------------------------------

VD Operation Progress% Staus      Estimated Time Left

------------------------------------------------------

 0 BGI               3 In progress 53 Minutes

------------------------------------------------------

6.8.2.9 查询和设置CacheFlush参数

命令功能

查询和设置Cache的刷新周期。

命令格式

storcli64 /ccontroller_id show cacheflushint

storcli64 /ccontroller_id set cacheflushint time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

Cache的刷新周期

单位为s

 

使用指南

使用实例

# 设置Cache的刷新周期为“10”。

domino:~# ./storcli64 /c0 set cacheflushint=10

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

---------------------------

Ctrl_Prop            Value

---------------------------

Cache Flush Interval 10 sec

---------------------------

# 查询Cache的刷新周期。

domino:~# ./storcli64 /c0 show cacheflushint

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

---------------------------

Ctrl_Prop            Value

---------------------------

Cache Flush Interval 10

---------------------------

6.8.2.10 查询和设置物理硬盘初始化功能

命令功能

设置物理硬盘初始化功能,查询初始化进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

硬盘槽位号

action

要执行的操作

l     show:查看初始化进度

l     start:开始初始化

l     stop:结束初始化

 

使用指南

使用实例

# 初始化slot3硬盘,并查询初始化进度。

domino:~# ./storcli64 /c0/e252/s3 start initialization

Controller = 0

Status = Success

Description = Start Drive Initialization Succeeded.

domino:~# ./storcli64 /c0/e252/s3 show initialization

Controller = 0

Status = Success

Description = Show Drive Initialization Status Succeeded.

------------------------------------------------------

Drive-ID    Progress% Status      Estimated Time Left

------------------------------------------------------

/c0/e252/s3         0 In progress 0 Seconds

------------------------------------------------------    

6.8.2.11 设置RAID重构/回拷/系统巡检功能

命令功能

暂停、继续、停止RAID重构/回拷/系统巡检,并查询进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action function

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

硬盘槽位号

action

要执行的操作

l     show:查看进度

l     pause:暂停进程

l     resume:继续执行

l     stop:停止进程

function

要处理的进程

l     rebuild:RAID重构

l     copyback:回拷

l     patrolread:系统巡检

 

使用指南

使用实例

# 查看RAID重构进度。

domino:~# ./storcli64 /c0/e252/s4 show rebuild

Controller = 0

Status = Success

Description = Show Drive Rebuild Status Succeeded.

------------------------------------------------------

Drive-ID    Progress% Staus       Estimated Time Left

------------------------------------------------------

/c0/e252/s4         9 In progress 12 Minutes

------------------------------------------------------

# 暂停RAID重构。

domino:~# ./storcli64 /c0/e252/s4 pause rebuild

Controller = 0

Status = Success

Description = Pause Drive Rebuild Status Succeeded.    

6.8.2.12 查询和设置Smart扫描周期

命令功能

查询、设置Smart扫描周期。

命令格式

命令

说明

storcli64 /ccontroller_id set smartpollinterval=value

设置Smart扫描周期。

storcli64 /ccontroller_id show smartpollinterval

查询Smart扫描周期。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

value

Smart扫描周期

单位为s。

 

使用指南

使用实例

# 设置Smart扫描周期为“60s”。

domino:~# ./storcli64 /c0 set smartpollinterval=60

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

-------------------------------

Ctrl_Prop         Value

-------------------------------

SmartPollInterval 60 second(s)

-------------------------------

6.8.2.13 查询和设置一致性校验参数

命令功能

查询、设置一致性检查参数。

命令格式

命令

说明

storcli64 /ccontroller_id[/vvd_id]show cc

查询一致性检查参数。

storcli64 /ccontroller_id/vvd_id start cc force

开始进行一致性检查。

storcli64 /ccontroller_id/vvd_id action cc

暂停/停止/继续执行一致性检查。

storcli64 /ccontroller_id set consistencycheck|cc=[off|seq|conc] [delay=value] starttime=time excludevd=evd_id

设置一致性自动检查参数。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

要操作的RAID的ID

-

action

要执行的操作

l     pause:暂停

l     resume:继续执行

l     stop:停止

cc

将一致性检查设置为顺序模式或并行模式,或关闭一致性检查。

l     off:关闭一致性检查

l     seq:顺序模式

l     conc:并行模式

value

一致性检查周期

-

time

一致性检查起始时间

例如:2016/07/14 22

说明

起始时间单位为“时”。

evd_id

不进行一致性检查的虚拟磁盘ID

-

 

使用指南

show命令中不带/vvd_id时,表示查询自动CC参数。

show命令中带/vvd_id时,表示查询CC进度。

使用实例

# 设置一致性自动检查参数。

domino:~# ./storcli64 /c0 set cc=conc delay=1 starttime=2016/07/14 22 excludevd=0

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

------------------------------------

Ctrl_Prop      Value

------------------------------------

CC Mode         CONC

CC delay        1

CC Starttime    2016/07/14 22:00:00

CC ExcludeVD(0) Success

------------------------------------

# 查询CC进度。

domino:~# ./storcli64 /c0/v1 show cc

Controller = 0

Status = Success

Description = None

VD Operation Status :

===================

-----------------------------------------------------------

VD Operation Progress% Status          Estimited Time Left

-----------------------------------------------------------

 0 CC        -         Not in progress -

-----------------------------------------------------------

6.8.2.14 设置热备盘

命令功能

设置全局热备盘和局部热备盘。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=vd_id]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

硬盘槽位号

vd_id

局部热备盘所属虚拟磁盘的ID

 

使用指南

使用实例

# 设置slot 3硬盘为全局热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive

Controller = 0

Status = Success

Description = Add Hot Spare Succeeded.    

# 设置slot 3硬盘为vd0的局部热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive dgs=0

Controller = 0

Status = Success

Description = Add Hot Spare Succeeded.    

6.8.2.15 设置启动项

命令功能

设置虚拟磁盘或物理硬盘为启动项。

命令格式

storcli64 /ccontroller_id/vvd_id set bootdrive=on

storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

vd_id

待设置的虚拟磁盘的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

硬盘槽位号

 

使用指南

使用实例

# 查看VD0为启动项。

domino:~# ./storcli64 /c0/v0 set bootdrive=on

Controller = 0

Status = Success

Description = Noe

Detailed Status :

===============

----------------------------------------

VD Property   Value Staus  ErrCd ErrMsg

----------------------------------------

 0 Boot Drive On    Success    0 -

----------------------------------------

# 查看slot 7硬盘为启动项。

domino:~# ./storcli64 /c0/e252/s7 set bootdrive=on

Controller = 0

Status = Success

Description = Noe

Controller Properties :

=====================

-------------------

Ctrl_Prop Value

-------------------

BootDrive PD:252_7

-------------------

6.8.2.16 设置硬盘状态

命令功能

设置硬盘状态。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

硬盘槽位号

state

要设置的硬盘状态

l     online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。

l     offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。

l     jbod:通过该参数可以将硬盘设置为直通硬盘。

l     good:

     ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置;

     JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。

force

强制设置硬盘状态,为可选参数。

如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force。

-

 

使用指南

使用实例

# 设置slot 7硬盘为JBOD盘。

domino:~# ./storcli64 /c0/e252/s7 set JBOD
Controller = 0 
Status = Success 
Description = Set Drive JBOD Succeeded.

6.8.2.17 设置RAID组访问策略

命令功能

设置RAID的读写策略。

命令格式

storcli64 /ccontroller_id/vraid_id set accesspolicy=mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

mode

RAID读写策略

l     rw:可读可写

l     blocked:禁止访问

l     ro:只读访问

 

使用指南

使用实例

# 设置RAID读写策略为“rw”。

domino:~# ./storcli64 /c0/v0 set accesspolicy=rw

Controller = 0

Status = Success

Description = None

Details Status :

==============

---------------------------------------

VD Property  Value Status  ErrCd ErrMsg

---------------------------------------

 0 AccPolicy RW    Success     0 -

---------------------------------------

6.8.2.18 设置RAID组的I/O策略

命令功能

设置RAID组的I/O策略。

命令格式

storcli64 /ccontroller_id/vraid_id set iopolicy=mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAID的ID

-

mode

设置RAID组的I/O策略

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

 

以上涉及的各个ID的查询方法请参见6.8.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置RAID组的I/O策略为“direct”。

[root@linux ~]# storcli64 /c0/v1 set iopolicy=direct
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.14.0-115.el7a.0.1.aarch64
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
----------------------------------------
VD Property Value  Status  ErrCd ErrMsg
----------------------------------------
 1 IoPolicy Direct Success     0 -
----------------------------------------

6.8.2.19 设置硬盘Cache状态

命令功能

设置RAID组成员盘的Cache状态。

命令格式

storcli64 /ccontroller_id/vvd_id set pdcache=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

RAID组的ID

action

要执行的操作

l     on:打开硬盘Cache

l     off:关闭硬盘Cache

l     default:将硬盘Cache设置为默认状态

 

以上涉及的各个ID的查询方法请参见6.8.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 打开ID为0的RAID组的硬盘Cache。

./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
---------------------------------------
VD Property Value Status  ErrCd ErrMsg
---------------------------------------
 0 PdCac    On    Success     0 -
---------------------------------------

6.8.2.20 设置RAID组的Cache读写策略

命令功能

设置RAID组的Cache读写策略。

命令格式

命令

说明

storcli64 /ccontroller_id/vraid_id set wrcache=wrmode

设置Cache写策略

storcli64 /ccontroller_id/vraid_id set rdcache=rdmode

设置Cache读策略

 

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAID组的ID

-

wrmode

设置Cache写策略

l     wt:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     wb:控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”策略。

rdmode

设置Cache读策略

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

 

查看RAID控制卡ID的方法请参见6.8.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置Cache写模式为“wt”。

domino:~# ./storcli64 /c0/v0 set wrcache=wt
Controller = 0 
Status = Success 
Description = None 
Details Status : 
============== 
--------------------------------------- 
VD Property Value Status  ErrCd ErrMsg 
--------------------------------------- 
 0 wrCache  WT    Success     0 - 
---------------------------------------

6.8.2.21 设置紧急热备功能

命令功能

设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。

命令格式

storcli64 /ccontroller_id set eghs eug=state

storcli64 /ccontroller_id set eghs smarter=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

state

紧急热备功能的启用状态

l     on:启用

l     off:禁用

 

使用指南

使用实例

# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。

domino:~# ./storcli64 /c0 set eghs eug=on
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
------------------ 
Ctrl_Prop   Value 
------------------ 
EmergencyUG ON 
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
----------------------- 
Ctrl_Prop        Value 
----------------------- 
EmergencySmarter ON 
-----------------------

6.8.2.22 设置RAID前台初始化

命令功能

设置RAID前台初始化模式。

命令格式

storcli64 /ccontroller_id/vraid_id start mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

mode

前台初始化模式

l     init:只把RAID的首尾10MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。

l     init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。

 

使用指南

使用实例

# 快速初始化RAID。

domino:~# ./storcli64 /c0/v0 start init

Controller = 0

Status = Success

Description = Start INIT Operation Success

6.8.2.23 设置硬盘直通功能

命令功能

设置RAID控制卡的硬盘直通功能的使能情况,并指定直通硬盘。

命令格式

storcli64 /ccontroller_id set jbod=state

storcli64 /ccontroller_id/eenclosure_id/sslot_id set JBOD

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

硬盘槽位号

state

RAID控制卡JBOD功能的使能情况

l     on

l     off

 

使用指南

使用实例

# 使能RAID控制卡的硬盘直通功能,并设置slot 7硬盘为直通盘。

domino:~# ./storcli64 /c0 set jbod=on

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

----------------

Ctrl_Prop Value

----------------

JBOD      ON

----------------

domino:~# ./storcli64 /c0/e252/s7 set JBOD

Controller = 0

Status = Success

Description = Set Drive JBOD Succeeded.

6.8.2.24 设置硬盘定位指示灯状态

命令功能

点亮和熄灭指定硬盘的定位指示灯。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。

slot_id

硬盘槽位号

可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。

action

要执行的操作

l     start

l     stop

 

使用指南

使用实例

# 点亮slot 7硬盘的定位指示灯。

domino:~# ./storcli64 /c0/e252/s7 start locate

Controller = 0

Status = Success

Description = Start Drive Locate Succeeded.

6.8.2.25 设置硬盘PowerSave功能

命令功能

设置空闲硬盘和热备盘的省电模式。

命令格式

storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID。

state

省电模式的启用状态。

l     on:启用

l     off:禁用

disktype

硬盘类型。

l     1:空闲硬盘

l     2:热备盘

time

等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。

单位为minutes。

 

使用指南

使用实例

# 设置空闲硬盘的省电模式。

domino:~# ./storcli64 /c0 set ds=on type=1 spindowntime=30

Controller = 0

Status = Success

Description = None

Controller Properties:

=====================

--------------------------

Ctrl_Prop    Value

--------------------------

SpnDwnUncDrv Enable

SpnDwnTm     30 minutes

--------------------------    

6.8.2.26 设置后台资源占用率

命令功能

设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。

命令格式

storcli64 /ccontroller_id set action=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

mode

要设置的项目

l     bgirate:后台初始化速率

l     ccrate:一致性校验速率

l     prrate:硬盘巡检速率

l     rebuildrate:RAID重构速率

l     reconrate:RAID扩容和迁移速率

 

使用指南

使用实例

# 设置硬盘巡检速率为“30%”。

domino:~# ./storcli64 /c0 set prrate=30

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

-----------------------

Ctrl_Prop        Value

-----------------------

Patrol Read Rate 30%

-----------------------    

6.8.2.27 设置自动恢复热备盘状态

命令功能

对热备盘进行插拔后,热备盘状态变为Ubad,设置自动恢复热备盘状态后,热备盘状态会自动恢复成hotspare,若不设置自动恢复热备盘状态,则需要手动恢复热备盘状态。

命令格式

storcli64 /ccontroller_id set restorehotspare=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

state

设置启用或禁用自动恢复热备盘状态

on:启用自动恢复热备盘状态

off:禁用自动恢复热备盘状态

 

查看RAID控制卡ID的方法请参见6.8.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 启用热备盘状态自动恢复

# 关闭热备盘状态自动恢复

6.8.2.28 设置BIOS Stop on Error功能

命令功能

设置控制器BIOS在检测到异常时停止继续启动的功能。

命令格式

storcli64 /ccontroller_id set bios mode=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要执行的操作

l     soe:控制器BIOS在检测到异常时停止启动

l     be:忽略检测到的异常

 

使用指南

使用实例

# 开启Stop on error功能。

domino:~# ./storcli64 /c0 set bios mode=soe

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

----------------

Ctrl_Prop Value

----------------

BIOS Mode SOE

----------------

6.8.2.29 查询和清除PreservedCache数据

命令功能

查询和清除PreservedCache数据。

命令格式

storcli64 /ccontroller_id show preservedcache

storcli64 /ccontroller_id/vvd_id delete preservedcache force

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要操作的RAID的ID

 

使用指南

使用实例

# 查询PreservedCache。

domino:~# ./storcli64 /c0 show preservedcache

Controller = 0

Status = Success

Description = No Virtual Drive has Preserved Cache Data.    

6.8.2.30 通过增加成员盘可用容量扩容RAID

命令功能

RAID有2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

命令格式

storcli64 /ccontroller_id/vvd_id exoand size=capacity [expandarray]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

要扩容的RAID的ID

-

capacity

扩容后的容量

-

expandarray

当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。

-

 

使用指南

使用实例

# 查询VD的可扩展容量。

[root@localhost ~]# storcli64 /c0/v1 show expansion
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
EXPANSION INFORMATION :
=====================
 
--------------------------------------------
VD      Size OCE NoArrExp WithArrExp Status
--------------------------------------------
 1 10.000 GB Y   3.627 TB 5.447 TB   -
--------------------------------------------
 
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion
 VD=Virtual Drive | NoArrExp - Without Array Expansion

说明

如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。

# 将VD0的容量扩大“200GB”。

domino:~# ./storcli64 /c0/v0 expand size=200GB
Controller = 0 
Status = Success 
Description = expansion operation succeeded. 
EXPANSION RESULT : 
================ 
-------------------------------------------------------------------------------- 
VD     Size FreSpc     ReqSize  AbsUsrSz   %FreSpc NewSize    Statsu NoArrExp 
-------------------------------------------------------------------------------- 
 0 100.0 GB 457.861 GB 200.0 GB 201.458 GB      44 301.458 GB -      457.861 GB 
-------------------------------------------------------------------------------- 
Size - Current VD size|FreSpc - Freespace available before expansion 
%FreSpc - Requested expansion size in % of available free space 
AbsUsrSz - User size rounded to nearest %

说明

RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。

6.8.2.31 通过增加新盘扩容或迁移RAID

命令功能

RAID有2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

当增加新盘后,可进行RAID级别迁移。

命令格式

storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

vd_id

要操作的RAID的ID

slot_id

要加入RAID的新硬盘的槽位号

level

增加硬盘后RAID的级别

l     与原RAID级别相同时,该命令为扩大RAID容量。

l     与原RAID级别不同时,该命令为RAID级别迁移。

 

使用指南

使用实例

# 在RAID 0中增加slot 2硬盘扩容。

domino:~# ./storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2

Controller = 0

Status = Success

Description = Start MIGRATE Operation Success.    

domino:~# ./storcli64 /c0/v0 show migrate

Controller = 0

Status = Success

Description = None

VD Operation Status :

===================

-------------------------------------------------------

VD Operation Progress% Status      Estimated Time Left

-------------------------------------------------------

 0 Migrate           1 In progress 13 Minutes

-------------------------------------------------------    

# 单盘RAID 0加盘迁移至RAID 1。

domino:~# ./storcli64 /c0/v0 start migrate type=r1 option=add drives=252:3

Controller = 0

Status = Success

Description = Start MIGRATE Operation Success.    

domino:~# ./storcli64 /c0/v0 show migrate

Controller = 0

Status = Success

Description = None

VD Operation Status :

===================

-------------------------------------------------------

VD Operation Progress% Status      Estimated Time Left

-------------------------------------------------------

 0 Migrate           1 In progress 14 Minutes

-------------------------------------------------------    

6.8.2.32 配置CacheCade虚拟磁盘

命令功能

可使用SSD硬盘创建CacheCade虚拟磁盘。

命令格式

storcli64 /ccontroller_id add vd cc raidlevel drives=enclosure_id:disk

storcli64 /ccontroller_id/vvd_id del cachecade

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

level

RAID级别

用于CacheCade的RAID可配置为RAID 0或RAID 1。

disk

成员盘的槽位号

当配置多个成员盘时,参数为槽位范围,例如0–3。

vd_id

待删除的CacheCade RAID的ID

 

使用指南

使用实例

# 配置单盘CacheCade RAID 0。

domino:~# ./storcli64 /c0/ add vd cc raid0 drives=252:0

Controller = 0

Status = Success

Description = Add VD Succeeded    

# 删除CacheCade RAID 0。

domino:~# ./storcli64 /c0/v0 del cachecade

Controller = 0

Status = Success

Description = Disassociation of the Cachecade virtual drive is in progress and can take a few minutes to complete.

The Cachecade virtual drive is deleted after the disassociation is complete.    

6.8.2.33 升级硬盘FW

命令功能

升级硬盘的FW。

命令格式

./storcli64 /ccontroller_id /eenclosure_id/sslot_id download src=FW_name.bin

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

FW_name

硬盘FW的名称

 

以上涉及的各个ID的查询方法请参见6.8.2.1 查询RAID控制卡配置信息。

使用实例

#升级硬盘FW。

[root@localhost ~]# ./storcli64 /c0/e64/s5 download src=5200_D1MU004_Releasefullconcatenatedbinary.bin
Starting microcode update  .....please wait...
Flashing PD image  ..... please wait...
CLI Version = 007.0504.0000.0000 Nov 22,2017
Operation system = Linux 3.10.0-514.el7.x86_64
Controller = 0 
Status = Success 
Description = Firmware Download succeeded. 
 
Drive Firmware Download : 
======================== 
-------------------------------------------------------------------------------- 
Drive     Status  ErrCd    ErrMsg 
-------------------------------------------------------------------------------- 
/c0/e64/s5 Success   0        -
--------------------------------------------------------------------------------

6.8.2.34 手动重构RAID

命令功能

手动重构RAID组。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row

storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

要加入Array的物理硬盘槽位编号

DG

硬盘发生故障的DG的ID

Arr

硬盘发生故障的Array的ID

Row

硬盘发生故障的Array的row number

 

以上涉及的各个ID的查询方法请参见6.8.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

重构RAID分3个步骤进行:

1.通过./storcli64 /c0 show 命令,查询故障硬盘的DG、Arr和Row所对应的数字。

2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。

3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID。

使用实例

# 将硬盘加入RAID组。

[root@localhost ~]# storcli64 /c0/e252/s1 insert dg=0 array=0 row=0
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = Insert Drive Succeeded.

# 手动重构RAID。

[root@localhost ~]# storcli64 /c0/e252/s1 start rebuild
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

6.8.2.35 收集和清除RAID控制卡日志

命令功能

收集和清除RAID控制卡的日志。

命令格式

storcli64 /ccontroller_id show termlog

storcli64 /ccontroller_id delete termlog

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

 

查询RAID控制卡ID的查询方法请参见6.8.2.1 查询RAID控制卡配置信息。

使用指南

使用实例

# 收集RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19  6:48:11: C0:TTY History buffer cleared
 
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None

# 删除RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 delete termlog
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------------------
Ctrl Method Result
----------------------------
   0 Delete Termlog deleted
----------------------------

6.8.2.36 查看/导入/清除外部配置

命令功能

指导用户查看、导入或者清除RAID控制卡的外部配置。

命令格式

storcli64 /ccontroller_id/fall action

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

action

要执行的操作

l     import preview:查看外部配置

l     import:导入外部配置

l     delete:清除外部配置

 

使用指南

使用实例

# 查看RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall import preview
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-957.el7.x86_64
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
 
 
FOREIGN PREVIEW :
===============
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Total foreign drive groups = 0

# 删除RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall delete
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-957.el7.x86_64
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration


7 Avago SAS3508

关于本章

本章节主要介绍Avago SAS3508 RAID控制卡的外观、特性、以及配置方法。

本章节涉及的截图以5.060.00-2262 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

7.1  概述

7.2  功能

7.3  初始配置

7.4  常用配置

7.5  故障处理

7.6  管理界面介绍

7.7  OS命令行工具

7.1 概述

Avago SAS3508 RAID 控制卡(以下简称Avago SAS3508)是基于MegaRAID架构的8端口12Gbit/s SAS控制器,并采用PCIe3.0 x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

Avago SAS3508用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

Avago SAS3508支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考7.2.16 硬盘直通。

Avago SAS3508自带的Cache对RAID控制卡性能的提升有非常重要的作用,主要体现在:

l     在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

l     在读数据时,如果可以直接在Cache中命中的话,将减少硬盘寻道操作,降低响应时间,提升了数据读速度。

说明

l     Cache数据的掉电保护依赖于与RAID控制卡相连的超级电容。超级电容的外形、连接方式、安装方式可参考各服务器的用户指南。

l     Avago SAS3508分为支持配置超级电容与不支持配置超级电容两种形态,只有支持配置超级电容的RAID控制卡具有Cache数据的掉电保护功能。

l     Avago SAS3508不支持flush write verify功能。

Avago SAS3508包含PCIe标卡与扣卡两种形态:

l     Avago SAS3508扣卡与主板通过1个Xcede连接器互连,与硬盘背板通过2个miniSAS线缆互联。

l     Avago SAS3508扣卡包含两种类型,分别如图7-1图7-2所示。

l     Avago SAS3508的PCIe标卡安装在服务器的PCIe槽位上,结构如图7-3图7-4所示。

图7-1 Avago SAS3508扣卡(1)

 

图7-2 Avago SAS3508扣卡(2)

 

图7-3 Avago SAS3508标卡(带超级电容)

 

图7-4 Avago SAS3508标卡(不带超级电容)

 

1

超级电容

2

miniSAS接口(port B)

3

超级电容接口

4

RAID控制卡

5

超级电容错误状态指示灯

6

Avago SAS3508 RAID控制卡写入/读出NAND Flash的状态指示灯

7

单板电源指示灯

8

系统心跳灯

9

Xcede连接器

10

miniSAS接口(port A)

 

Avago SAS3508单板指示灯说明如表7-1所示。

表7-1 RAID控制卡单板指示灯说明

指示灯

颜色

说明

单板电源指示灯

绿色

l     亮:电源正常

l     灭:电源关闭或异常。

超级电容错误状态指示灯

红色

l     亮:超级电容状态异常。

l     灭:超级电容正常或不在位。

Avago SAS3508写入/读出NAND Flash的状态指示灯

绿色

l     亮:Avago SAS3508 RAID控制卡当前处于写入/读出NAND Flash的状态。

l     灭:Avago SAS3508 RAID控制卡当前不处于写入/读出NAND Flash的状态。

系统心跳灯

绿色

l     灯以2s周期闪烁:Avago SAS3508 RAID控制卡正在工作。

l     灯灭:Avago SAS3508 RAID控制卡未开始运行或FW运行异常。

 

7.2 功能

7.2.1 支持RAID 0/1/5/6/10/50/60

Avago SAS3508支持的硬盘、虚拟磁盘、硬盘组数量分别为:

l     最多支持32或240个硬盘(Avago SAS3508支持2种规格的RAID Key,分别支持32盘和240盘)。

说明

该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

l     最多支持64个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

l     最多支持64个硬盘组(即配置界面中看到的“Drive Group”),每个硬盘组最多支持32或240个硬盘。

l     每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

Avago SAS3508支持的RAID类型及对应的硬盘个数如表7-2所示。

表7-2 RAID-硬盘参数

RAID级别

支持硬盘数

支持子组数

子组支持硬盘数

允许坏盘数

RAID 0

1~32

不涉及

不涉及

0

RAID 1

2~32(偶数)

硬盘数÷2

RAID 5

3~32

1

RAID 6

3~32

2

RAID 10

4~32/240(偶数)

2~8个RAID 1

2~16/32(偶数)

子组数

RAID 50

6~32/240

2~8个RAID 5

3~16/32

子组数

RAID 60

6~32/240

2~8个RAID 6

3~16/32

子组数x2

 

说明

l     不支持RAID 00级别。

l     子组数:子RAID的个数,例如RAID 50由两个RAID 5组成,则子组数为2。

l     RAID 10、RAID 50每个子组中最多允许1个坏盘。

l     RAID 60每个子组中最多允许2个坏盘。

l     根据配置的key类型不同,RAID 10、50、60支持的硬盘数有所不同。

l     RAID10、50、60包含的总硬盘数由子组数和子组支持的硬盘数共同决定。

7.2.2 硬盘热备份

Avago SAS3508的热备功能分为两种:热备盘和紧急备份。

热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     Global HSP:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

配置方法请参见7.4.1.1 配置全局热备盘。

l     Dedicated HSP:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

配置方法请参见7.4.1.2 配置局部热备盘。

热备盘容量需大于等于成员盘容量。

说明

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须是SATA硬盘或SAS硬盘,容量不小于RAID成员盘最大容量。

l     除RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

紧急备份

使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。

紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。

紧急备份有两种情况,对应了两种设置:

l     当成员盘fail时,空闲盘替代成员盘作为紧急备份。

l     当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。

具体配置方法请参见7.4.2 设置紧急热备功能。

7.2.3 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

说明

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考7.4.9 导入/清除外部配置章节恢复RAID组,无需更换硬盘。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

7.2.4 回拷

具备冗余功能的RAID的一块成员盘故障之后,热备盘自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。

7.2.5 硬盘分条

条带化

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待。

条带化技术是一种自动的将I/O的负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

影响条带化效果的因素有:

l     条带宽度:指同时可以并发读或写的条带数量。

这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。

l     条带大小:指写在每块硬盘上的条带数据块的大小。

分条

硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。

Avago SAS3508支持多种条带大小,包括64KB、128KB、256KB、512KB及1MB,默认条带大小为256KB。

配置RAID时一般采用默认值。

7.2.6 RAID级别迁移

RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见7.4.5 迁移RAID级别。

当前支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1、RAID 5、RAID 6

l     RAID 1迁移到RAID 0、RAID 5、RAID 6

l     RAID 5迁移到RAID 0、RAID 6

l     RAID 6迁移到RAID 0、RAID 5

RAID迁移对硬盘数量的要求如7.2.6 RAID级别迁移所示。

表7-3 RAID迁移的硬盘数量说明

迁移RAID级别

原始硬盘组硬盘数量

迁移后的硬盘组硬盘数量

RAID 0迁移到RAID 1

1~32

2~32(偶数)

RAID 0迁移到RAID 5

1~32

3~32

RAID 0迁移到RAID 6

1~32

3~32

RAID 1迁移到RAID 0

2~32(偶数)

2~32

RAID 1迁移到RAID 5

2~32(偶数)

3~32

RAID 1迁移到RAID 6

2~32(偶数)

3~32

RAID 5迁移到RAID 0

3~32

3~32

RAID 5迁移到RAID 6

3~32

3~32

RAID 6迁移到RAID 0

3~32

3~32

RAID 6迁移到RAID 5

3~32

3~32

 

7.2.7 初始化

VD初始化

创建VD(Virtual Drive)后,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。Avago SAS3508提供了多种相应的初始化方式:

l     快速初始化:属于前台初始化,Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。

l     慢速初始化:属于前台初始化,Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。

l     后台初始化:目的是使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。

     对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。

     对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。

说明

一致性校验和后台初始化通常会对性能造成一定损失,直至该操作完成。

一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。

硬盘初始化

硬盘可执行的初始化包括:

l     Initialize Drive:对前100MByte空间进行全写0操作。

l     Drive Erase:对全部空间进行写0操作。

说明

不支持停止SATA SSD的擦除和初始化过程。

7.2.8 可用容量扩展

Avago SAS3508支持的容量扩展方式有两种:

l     通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。

详细操作方法可参考7.4.3 添加新硬盘到RAID。

l     通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。

详细操作方法可参考7.4.4 扩展Virtual Drives可用空间。

说明

l     只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。

l     RAID10、RAID 50、RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。

l     当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见7.7.2.29 通过增加成员盘可用容量扩容RAID

7.2.9 安全数据擦除

安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘和硬盘的安全擦除功能:

l     Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。

l     Normal:对虚拟磁盘或硬盘进行三轮擦除动作。

l     Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。

安全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。

Avago SAS3508支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。

7.2.10 写洞保护

系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况,称之为写洞。

将写失败的数据备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:

l     RAID  1、RAID 5、RAID 6、RAID 10、RAID 50,RAID 60支持写洞保护,Write hole数据都保存在掉电保护区,不需要开关控制。

     掉电保护装置可用时,Write hole数据异常掉电重启后会进入恢复流程。

     掉电保护装置不可用时,记录在掉电保护区的Write hole数据异常掉电后丢失,不做Write hole恢复。

l     RAID 1、RAID 5掉线盘时不可做写洞保护。

l     RAID 6掉线一块盘时可做写洞保护。

l     RAID 10、RAID 50、RAID 60部分降级时可做写洞保护,按子组恢复数据。完全降级时不可做写洞保护。

l     不对RAID 0做写洞保护。

7.2.11 读写高速缓存

Avago SAS3508支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:

l     Read:读策略选择“Read Ahead”模式,Avago SAS3508在读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,提升了数据读速度。

l     Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,Avago SAS3508就向HOST发出数据传输完成的信号。

在写数据时,直接写入Cache,当写入的数据积累到一定程度,Avago SAS3508才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

7.2.12 数据掉电保护

数据写入高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用高速缓存来提升系统性能。

l     开启高速缓存可提升整机写性能,当服务器写压力减小或高速缓存将写满时,数据再由高速缓存写入硬盘。

l     开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。

为了提升整机的高读写性能和高速缓存中数据的安全,可为Avago SAS3508配置超级电容。

超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将高速缓存中的数据写入超级电容模块中的NAND Flash中。

说明

Avago SAS3508分为支持配置超级电容与不支持配置超级电容两种形态,只有支持配置超级电容的RAID控制卡可以启用数据掉电保护功能。

超级电容电量校准

由于数据保护需要超级电容的配合,为了记录超级电容的放电曲线,以便RAID控制卡了解超级电容的状态,例如最大和最小电压等,同时为了延长超级电容的寿命,RAID控制卡默认启动超级电容自动校准模式。

RAID控制卡通过如下所述的三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。

1.     RAID控制卡将超级电容的电量充到最大值。

2.     自动启动校准进程,将超级电容完全放电。

3.     重新开始充电,直至达到最大电量。

超级电容电量校准过程中,RAID控制卡写策略自动调整为“WT”模式以保证数据完整性,此时RAID控制卡性能会降低。电量校准的时间取决于超级电容充放电速度。

7.2.13 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     动态扩盘

l     完全初始化或后台初始化

l     一致性校验

7.2.14 自动S.M.A.R.T扫描

S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据受到损失。

RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。

7.2.15 硬盘节能

RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。

默认情况下,硬盘节能功能处于开启状态。

当硬盘节能功能开启且在指定时间内没有I/O访问时,RAID控制卡下挂载的“Uncongfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。

7.2.16 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

Avago SAS3508可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在Avago SAS3508下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。

Avago SAS3508支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

如果需要使能硬盘直通功能,请在图7-62所示界面的“JBOD Mode”参数进行设置。

说明

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

7.2.17 硬盘漫游

硬盘漫游是指在同一控制器下移动物理硬盘。控制器将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。

要使用硬盘漫游,按以下步骤操作:

1.     关闭操作系统。

2.     将服务器下电。

3.     将物理硬盘移动到背板所需位置。

4.     执行安全检查。确保正确插入物理硬盘。

5.     将服务器上电。

6.     控制器从物理硬盘上的配置数据中检测到RAID配置。

7.2.18 导入外部配置

如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。

此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。

7.2.19 硬盘故障记录

Avago SAS3508提供硬盘故障记录功能:

l     使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。

l     禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,Avago SAS3508会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。

维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。

l     使能该功能后,当硬盘故障时,会点亮Fault指示灯。

l     禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。

默认情况下,Avago SAS3508使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。

7.2.20 一致性校验

针对有冗余功能的RAID 1、5、6、10、50、60,RAID控制卡可以对RAID组的硬盘数据进行一致性校验,对硬盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。

由于RAID 0不具备冗余性,因此不支持一致检查。

说明

建议每月至少进行一次一致性校验。

7.3 初始配置

文档中描述的关于Avago SAS3508的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。

7.3.1 进入管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

                                步骤 1     通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 2     重启服务器。

                                步骤 3     重启过程中,当出现如图7-5所示界面时,按“Delete”,进入输入密码界面。

图7-5 BIOS启动界面

 

                                步骤 4     输入密码并按“Enter”。

进入如图7-6所示界面。

图7-6 Setup Utility界面

 

                                步骤 5     通过“”或“→ ”进入“Advanced”页签,如图7-7所示。

图7-7 “Advanced”页签

 

说明

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见7.5.4 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy进行修复。

                                步骤 6     选择“Avago <SAS3508> Configuration Utility”,按“Enter”。

进入Avago SAS3508主界面,如图7-8图7-9所示,界面参数如表7-4所示。

图7-8 Avago SAS3508主界面(1)

 

图7-9 Avago SAS3508主界面(2)

 

表7-4 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

说明

Avago SAS3508不支持在此界面升级FW。

Silence Alarm

板载蜂鸣器的使能状态。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

7.3.2 创建RAID 0

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3508支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参见7.2.1 支持RAID 0/1/5/6/10/50/60。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见7.3.1 进入管理界面。

                                步骤 2     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图7-10图7-11所示,参数说明如表7-5所示。

图7-10 Create Virtual Drive(1)

 

图7-11 Create Virtual Drive(2)

 

表7-5 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照7.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认值为Direct。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。

                                步骤 4     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如图7-12所示,界面参数如表7-6所示。

图7-12 添加成员盘

 

表7-6 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 0支持的硬盘个数为1~32。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

5.     按表7-6所述配置过滤条件。

6.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

7.     选择“OK”并按“Enter”返回上级界面。

                                步骤 5     按照表7-5所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照7.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 6     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 7     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

7.3.3 创建RAID 1

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3508支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参见7.2.1 支持RAID 0/1/5/6/10/50/60。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见7.3.1 进入管理界面

                                步骤 2     进入“Create Virtual Drive”界面。

3.     在主界面中选择“Main Menu”并按“Enter”。

4.     选择“Configuration Management”并按“Enter”。

5.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图7-13图7-14所示,参数说明如表7-7所示。

图7-13 Create Virtual Drive(1)

 

图7-14 Create Virtual Drive(2)

 

表7-7 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照7.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认值为Direct。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。

                                步骤 4     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如图7-15所示,界面参数如表7-8所示。

图7-15 添加成员盘

 

表7-8 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 1支持的硬盘个数为2~32(偶数)。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

5.     按表7-8所述配置过滤条件。

6.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

7.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     按照表7-7所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照7.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 6     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 7     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

7.3.4 创建RAID 5

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3508支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参见7.2.1 支持RAID 0/1/5/6/10/50/60。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见7.3.1 进入管理界面。

                                步骤 2     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图7-16图7-17所示,参数说明如表7-9所示。

图7-16 Create Virtual Drive(1)

 

图7-17 Create Virtual Drive(2)

 

表7-9 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照7.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认值为Direct。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 5”,并按“Enter”。

                                步骤 4     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如图7-18所示,界面参数如表7-10所示。

图7-18 添加成员盘

 

表7-10 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 5支持的硬盘个数为3~32。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

5.     按表7-10所述配置过滤条件。

6.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

7.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     按照表7-9所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照7.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 6     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 7     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

7.3.5 创建RAID 6

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3508支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参见7.2.1 支持RAID 0/1/5/6/10/50/60。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见7.3.1 进入管理界面。

                                步骤 2     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图7-19图7-20所示,参数说明如表7-11所示。

图7-19 Create Virtual Drive(1)

 

图7-20 Create Virtual Drive(2)

 

表7-11 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照7.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认值为Direct。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 6”,并按“Enter”。

                                步骤 4     添加成员盘

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如图7-21所示,界面参数如表7-12所示。

图7-21 添加成员盘

 

表7-12 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 6支持的硬盘个数为3~32。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

5.     按表7-12所述配置过滤条件。

6.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

7.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     按照表7-11所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照7.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 6     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 7     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

7.3.6 创建RAID 10

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3508支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参见7.2.1 支持RAID 0/1/5/6/10/50/60。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见7.3.1 进入管理界面。

                                步骤 2     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图7-22图7-23所示,参数说明如表7-13所示。

图7-22 Create Virtual Drive(1)

 

图7-23 Create Virtual Drive(2)

 

表7-13 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照7.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认值为Direct。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。

                                步骤 4     创建第1个Span。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如图7-24所示,界面参数如表7-14所示。

图7-24 添加成员盘

 

表7-14 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     按表7-14所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 10支持2~8个Span,每个Span支持的硬盘数为2~16/32(偶数),且各个Span的硬盘数量必须保持一致。

l     RAID 10支持的硬盘总数为4~32/240(偶数)。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

7.     单击“OK”完成成员盘配置。

                                步骤 5     创建第2个Span。

当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如图7-25所示。

图7-25 RAID 10的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

3.     在打开的列表中选择第2个Span的成员盘。

说明

各个Span的硬盘数量必须保持一致。

4.     选择完成后,选择“Apply Changes”并“Enter”。

提示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 6     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。

说明

RAID10至少需要创建2个Span,最多可以创建8个Span。

                                步骤 7     按照表7-13所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照7.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 8     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 9     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

7.3.7 创建RAID 50

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3508支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参见7.2.1 支持RAID 0/1/5/6/10/50/60。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见7.3.1 进入管理界面。

                                步骤 2     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图7-26图7-27所示,参数说明如表7-15所示。

图7-26 Create Virtual Drive(1)

 

图7-27 Create Virtual Drive(2)

 

表7-15 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照7.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认值为Direct。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 50”,并按“Enter”。

                                步骤 4     创建第1个Span。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如图7-28所示,界面参数如表7-16所示。

图7-28 添加成员盘

 

表7-16 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     按表7-16所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 50支持2~8个Span,每个Span支持的硬盘数为3~16/32(取决于RAID Key的规格),各个Span的硬盘数量必须保持一致。

l     RAID 50支持的硬盘总数为6~32/240(取决于RAID Key的规格)。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully。

7.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     创建第2个Span。

当配置的级别为RAID 50时,需要配置多个Span,此时配置界面如图7-29所示。

图7-29 RAID 50的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

3.     在打开的列表中选择第2个Span的成员盘。

说明

各个Span的硬盘数量必须保持一致。

4.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 6     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。

说明

RAID50至少需要创建2个Span,最多可以创建8个Span。

                                步骤 7     按照表7-15所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照7.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 8     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 9     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

7.3.8 创建RAID 60

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3508支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参见7.2.1 支持RAID 0/1/5/6/10/50/60。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见7.3.1 进入管理界面。

                                步骤 2     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图7-30图7-31所示,参数说明如表7-17所示。

图7-30 Create Virtual Drive(1)

 

图7-31 Create Virtual Drive(2)

 

表7-17 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照7.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认值为Direct。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 60”,并按“Enter”。

                                步骤 4     创建第1个Span。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如图7-32所示,界面参数如表7-18所示。

图7-32 添加成员盘

 

表7-18 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     按表7-18所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 60支持2~8个Span,每个Span支持的硬盘数为3~16/32(取决于RAID Key的规格),且各个Span的硬盘数量必须保持一致。

l     RAID 60支持的硬盘总数为6~32/240(取决于RAID Key的规格)。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully。

7.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     创建第2个Span。

当配置的级别为RAID 60时,需要配置多个Span,此时配置界面如图7-33所示。

图7-33 RAID 60的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

3.     在打开的列表中选择第2个Span的成员盘。

说明

各个Span的硬盘数量必须保持一致。

4.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 6     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。

说明

RAID60至少需要创建2个Span,最多可以创建8个Span。

                                步骤 7     按照表7-17所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照7.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 8     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 9     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

7.3.9 配置启动项

同一台服务器配置了单个Avago SAS3508卡或者多种芯片硬盘控制器的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。

设置启动项的操作方法请参见BIOS主板参数参考的“设置启动设备”章节。

7.4 常用配置

7.4.1 管理热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

Avago SAS3508支持2种类型的热备盘:

l     Global Hotspare:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

l     Dedicated Hotspare:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

说明

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     除RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

7.4.1.1 配置全局热备盘

操作步骤

                                步骤 1     登录管理界面,具体操作方法请参见7.3.1 进入管理界面。

                                步骤 2     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如图7-34所示。

图7-34 Drive Management

 

                                步骤 3     配置全局热备盘。

1.     将“Operation”设置为“Assign Global Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

显示The operation has been performed successfully。

3.     按“ESC”完成配置并返回上级界面。

----结束

7.4.1.2 配置局部热备盘

操作步骤

说明

当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

                                步骤 1     登录管理界面,具体操作方法请参见7.3.1 进入管理界面。

                                步骤 2     进入“Drive Management”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如图7-35所示。

图7-35 Drive Management

 

                                步骤 3     配置局部热备盘。

1.     将“Operation”设置为“Assign Dedicated Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

打开当前存在的虚拟磁盘列表,如图7-36所示。

图7-36 虚拟磁盘列表

 

3.     选择要关联的虚拟磁盘并按“Enter”。

4.     选择“OK”按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

7.4.1.3 删除热备盘

操作场景

当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

操作步骤

                                步骤 1     登录管理界面,具体操作方法请参见7.3.1 进入管理界面。

                                步骤 2     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如图7-37所示。

图7-37 Drive Management

 

                                步骤 3     删除热备盘。

1.     将“Operation”设置为“Unassign Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully。

5.     按“ESC”完成配置并返回上级界面。

----结束

7.4.2 设置紧急热备功能

操作步骤

                                步骤 1     登录管理界面,具体操作方法请参见7.3.1 进入管理界面。

                                步骤 2     进入“Advanced Controller Properties”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

3.     选择“Advanced Controller Properties”并按“Enter”。

进入“Advanced Controller Properties”界面,如图7-38所示。

图7-38 Advanced Controller Properties(1)

 

                                步骤 3     设置紧急热备。

1.     选择“Spare”并按“Enter”。

2.     将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如图7-39所示。

图7-39 Advanced Controller Properties(2)

 

3.     选择“Apply Changes”并按“Enter”。

显示The operation has been performed successfully。

4.     选择“OK”并按“Enter”,完成配置。

----结束

7.4.3 添加新硬盘到RAID

操作场景

 

注意

l     只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。

l     RAID10、RAID 50、RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。

l     执行添加新硬盘到RAID操作之前,建议先备份数据。

增加硬盘扩容过程中,如果出现硬盘故障,会导致:

l     若出现故障盘后,RAID组中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID组失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID组。

l     请谨慎执行增加硬盘扩容操作。

操作步骤

                                步骤 1     登录管理界面。具体操作方法请参见7.3.1 进入管理界面。

                                步骤 2     进入“Virtual Drive Management”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”。

进入虚拟磁盘选项界面,如图7-40所示。

图7-40 虚拟磁盘选项界面

 

                                步骤 3     添加新硬盘。

1.     选择要进行扩容的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如图7-41所示。

图7-41 Operation

 

3.     选择“Reconfigure Virtual Drives”并按“Enter”

4.     选择“Go”并按“Enter”。

5.     选择要扩容的RAID级别。

 

注意

增加硬盘扩容时,请保证该处的RAID级别与原级别一致。

6.     选择“Choose the Operation”,并按“Enter”。

进入硬盘选择界面,如图7-42所示。

图7-42 Choose the Operation

 

7.     选择要增加的硬盘,并按“Apply Changes”。

进入确认操作界面。

说明

l     增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。

l     RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。

8.     选择“Confirm”并按“Enter”。

9.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully。

10.     选择“OK”并按“Enter”。

返回到如图7-43所示界面。

图7-43 选择操作

 

11.     选择“Start Operation”并按“Enter”。

显示操作成功。返回虚拟磁盘选项界面,验证扩容结果,如图7-44所示,表示RAID正在进行扩容。

图7-44 虚拟磁盘选项界面

 

----结束

7.4.4 扩展Virtual Drives可用空间

操作场景

在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见7.3.1 进入管理界面。

                                步骤 2     进入要操作的虚拟磁盘界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如图7-45所示。

图7-45 Virtual Drive Management

 

                                步骤 3     扩容虚拟磁盘。

1.     将“Operation”设置为“Expand Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入虚拟磁盘扩容界面,如图7-46界面所示,界面参数如表7-19所示。

图7-46 Expand Virtual Drive

 

表7-19 参数说明

参数

参数说明

Current Capacity

虚拟磁盘当前容量。

Available Capacity

可用于扩展的容量。

Enter a Percentage of Available Capacity

输入扩容比例。

Capacity of Virtual Drive after Expansion

扩容后虚拟磁盘容量。

 

3.     设置扩容百分比。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

返回虚拟磁盘选项界面,验证扩容结果,如图7-47所示。

图7-47 查看扩容结果

 

----结束

7.4.5 迁移RAID级别

操作场景

随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。

在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。

Avago SAS3508RAID控制卡支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1、RAID 5、RAID 6

l     RAID 1迁移到RAID 0、RAID 5、RAID 6

l     RAID 5迁移到RAID 0、RAID 6

l     RAID 6迁移到RAID 0、RAID 5

RAID迁移对硬盘数量的要求如表7-3所示。

说明

l     当RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     迁移只支持增加与RAID组成员盘同类型同规格的硬盘。

l     为防止数据丢失,请在该操作之前备份当前RAID组的数据。

l     只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。

l     迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。

RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:

l     若出现故障盘后,RAID组中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID组中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID。

说明

请谨慎执行RAID级别迁移操作。

操作步骤

                                步骤 1     登录管理界面。具体操作方法请参见7.3.1 进入管理界面。

                                步骤 2     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”并按“Enter”。

进入虚拟磁盘选项界面,如图7-48所示。

图7-48 虚拟磁盘选项界面

 

                                步骤 3     选择RAID迁移的目标级别。

下面以将RAID 1迁移到RAID 5为例进行说明。

1.     选择要进行迁移的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如图7-49所示。

图7-49 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”。

4.     选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如图7-50所示。不设置时默认与原RAID组配置一致。

图7-50 Advanced...

 

5.     选择“Go”,并按“Enter”。

进入RAID配置界面,如图7-51所示。

图7-51 Reconfigure Virtual Drives

 

6.     选择“New RAID Level”并按“Enter”。

打开RAID迁移的目标级别选择窗口,如图7-52所示。

图7-52 选择新的RAID级别

 

7.     选择“RAID 5”并按“Enter”。

                                步骤 4     添加硬盘。

1.     选择“Choose the operation”并按“Enter”。

打开硬盘选择窗口。

2.     选择要增加的硬盘并按“Enter”。

说明

l     RAID迁移对硬盘数量的要求请参见表7-3

l     增加的硬盘要与RAID组的成员盘同类型同规格。

3.     选择“Apply Changes”并按“Enter”。

弹出操作确认会话框。

4.     选择“Confirm”并按“Enter”。

5.     选择“Yes”并按“Enter”。

提示操作成功。

6.     选择“OK”并按“Enter”返回图7-51界面。

                                步骤 5     RAID级别迁移。

1.     选择“Start Operation”并按“Enter”。

提示操作成功。

                                步骤 6     查看迁移结果。

1.     进入Virtual Drive Management界面,检查迁移结果,如图7-53所示,表示RAID正在进行迁移。

图7-53 查看迁移结果

 

说明

l     迁移过程中若重启服务器,该任务将在重启后继续进行。

l     迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。

2.     选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 1”变成“RAID 5”,RAID组容量增大,且“Status”状态显示为“Optimal”,表示RAID迁移成功。

----结束

7.4.6 删除RAID

操作场景

 

注意

RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见7.3.1 进入管理界面。

                                步骤 2     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如图7-54所示。

图7-54 Virtual Drive Management

 

                                步骤 3     删除虚拟磁盘。

1.     将“Operation”设置为“Delete Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

7.4.7 重构RAID

操作场景

介绍将带有外部配置的硬盘进行重构的操作方法,不带外部配置硬盘的重构方法请参见7.5.1.1 硬盘故障。

操作步骤

                                步骤 1     在“Main Menu”界面中选择“Drive Management”并按“Enter”。

                                步骤 2     选中要进行重构的硬盘,按“Enter”。

                                步骤 3     将“Operation”设置为“Make Unconfigured Good”。

                                步骤 4     选择“Go”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     按“Enter”完成配置。

硬盘状态变为“(Foreign),Unconfigured Good”。

                                步骤 6     清除外部配置,具体操作请参见7.4.9 导入/清除外部配置。

RAID组开始进行重构。

----结束

说明

当出现硬盘离线情况时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

7.4.8 查看RAID控制卡属性

操作场景

用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。

                                步骤 1     操作步骤登录管理界面,具体操作方法请参见7.3.1 进入管理界面。

 

                                步骤 1     进入“Controller Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息,如图7-55所示,参数说明如表7-20所示。

图7-55 Controller Management

 

表7-20 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见7.3.9 配置启动项。

PCI ID

RAID控制卡的PCI ID。

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Connector Count

RAID控制卡与主板的接口个数。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制器操作。

Advanced Controller Properties

查看和修改控制器的高级属性。

 

                                步骤 2     查看控制器高级属性。

选择“Advanced Controller Properties”并按“Enter”。

进入控制器高级属性界面,如图7-56图7-57所示,参数说明如表7-21所示。

在该界面下,可查看并修改RAID控制卡的高级属性。

图7-56 Advanced Controller Properties (1)

 

图7-57 Advanced Controller Properties (2)

 

表7-21 参数说明

参数

说明

Profile Management

管理快速RAID。

Cache and Memory

查看控制器Cache和Memory信息。

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

Spare

设置控制器热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

Avago SAS3508 RAID控制卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

容量对齐的模式。包括:

l     None

l     128MB

l     1GB

默认为“1GB”。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制器BIOS的使能情况。

ROC Temperature

控制器温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见7.4.9 导入/清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验

JBOD Mode

是否使能硬盘直通功能。

Write Verify

写校验。

Drive Detection Type

随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制器属性。

可用选项为:

l     Disabled

l     High Latency

l     Aggressive

l     Default

Drive Corrective Action

随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致I/O延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。

l     Disabled:禁用该功能

l     Enabled:开启该功能

Drive Error Threshold

通过该选项设置适当的控制器属性。

l     Every 8 hours

l     Every1 hours

l     Every 15 mins

l     Every 5 mins

 

----结束

7.4.9 导入/清除外部配置

操作场景

l     服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入。

 

注意

l     如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!

l     为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

导入外部配置。

                                步骤 1     登录管理界面,具体操作方法请参见7.3.1 进入管理界面。

                                步骤 2     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 3     选择“Configuration Management”并按“Enter”。

                                步骤 4     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如图7-58所示。

图7-58 Manage Foreign Configuration

 

                                步骤 5     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如图7-59所示。

图7-59 外部配置

 

                                步骤 6     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 7     选择“Confirm”并按“Enter”。

                                步骤 8     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 9     按“ESC”完成配置返回上级界面。

----结束

清除外部配置。

                                步骤 1     登录管理界面,具体操作方法请参见7.3.1 进入管理界面。

                                步骤 2     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 3     选择“Configuration Management”并按“Enter”。

                                步骤 4     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如图7-60所示。

图7-60 Manage Foreign Configuration

 

                                步骤 5     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如图7-61所示。

图7-61 外部配置

 

                                步骤 6     选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 7     选择“Confirm”并按“Enter”。

                                步骤 8     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 9     按“ESC”完成配置返回上级界面。

----结束

7.4.10 设置JBOD模式

Avago SAS3508支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

说明

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

                                步骤 1     登录管理界面,具体操作方法请参见7.3.1 进入管理界面。

                                步骤 2     依次进入Main Menu>Controller Management>Advanced Controller Properties界面,如图7-62所示。

图7-62 Advanced Controller Properties

 

                                步骤 3     选择“JBOD Mode”并按Enter。

                                步骤 4     选择“Enabled”并按“Enter”。

                                步骤 5     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 6     选择“OK”并按“Enter”完成配置。

----结束

7.4.11 创建多个VD(Virtual Drive)

该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID0存在一个VD为例,详细操作方法如下:

                                步骤 1     按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如图7-63所示。

图7-63 Create Virtual Drive

 

                                步骤 2     将“Select Drives From”设置为“Free Capacity”,如图7-64所示。

图7-64 Create Virtual Drive

 

                                步骤 3     选择“Select Drive Groups”并按“Enter”。

显示当前存在的RAID组(Drive Group),如图7-65所示。

图7-65 Select Drive Groups

 

                                步骤 4     选择要创建多个VD的RAID组并按“Enter”,如图7-66所示。

图7-66 Select Drive Groups

 

                                步骤 5     选择“Apply Changes”并按“Enter”。

提示操作成功。

                                步骤 6     选择“OK”并按“Enter”返回VD配置界面,如图7-67所示,参数说明如表7-22所示。

图7-67 Create Virtual Drive

 

表7-22 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drive Groups

选择硬盘组。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照7.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当磁盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

默认值为Direct。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略。可配置的状态有:

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。

l     Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

Save Configuration

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

保存当前配置。

 

                                步骤 7     按照表7-22所述配置VD的相关属性。

                                步骤 8     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

                                步骤 9     选择“Confirm”并按“Enter”。

                             步骤 10     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                             步骤 11     选择“OK”并按“Enter”完成配置。

可进入Virtual Drive Management界面,查看当前存在的所有VD,如图7-68所示。

图7-68 Virtual Drive Management

 

----结束

说明

每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤11

7.4.12 查询RAID控制卡固件版本

查询RAID控制卡固件版本的方法有如下几种:

l     在iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。

l     服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见7.7.2.1 查询RAID控制卡配置信息。

说明

回显信息中的“FW Version”字段即为RAID控制卡的固件版本。

l     在RAID控制卡管理界面进行查询,具体方法为:

a.     登录RAID控制卡的管理界面,具体操作请参见7.3.1 进入管理界面。

b.     在主界面中选择“Main Menu”并按“Enter”。

进入“Main Menu”页面,如图7-69所示。

图7-69 Main Menu页面

 

c.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如图7-70所示。

图7-70 Controller Management界面

 

7.5 故障处理

介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

7.5.1 硬盘故障

7.5.1.1 硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

                                步骤 1     确认故障硬盘槽位。

说明

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考7.6.2.4 Drive Management。

l     通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

                                步骤 2     更换新硬盘。

 

注意

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考7.4.9 导入/清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在表7-2查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制器下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。

     UEFI模式下创建RAID0的方法请参见7.3.2 创建RAID 0。

     通过命令行方式创建RAID0的方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

----结束

7.5.1.2 硬盘状态为fail或prefail

问题描述

正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。

但当RAID控制卡未设置紧急热备时,成员盘状态显示为fail或prefail时,可使用以下方法处理。

处理方法

                                步骤 1     使用StorCLI工具,具体操作请参考7.7.1 下载和安装StorCLI工具。

                                步骤 2     执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考7.7.2.16 设置硬盘状态。

storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]

说明

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在Enclosure的ID

l     slot_id:物理硬盘槽位ID

                                步骤 3     更换离线硬盘。

                                步骤 4     RAID组自动执行重构。

等待重构完成。

----结束

7.5.1.3 硬盘状态为Unconfigured Bad或UBad

问题描述

硬盘状态显示为Unconfigured Bad或UBad。

处理方法

                                步骤 1     使用StorCLI工具,具体操作请参见7.7.1 下载和安装StorCLI工具。

                                步骤 2     执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见7.7.2.16 设置硬盘状态。

storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]

说明

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在Enclosure的ID

l     slot_id:物理硬盘槽位ID

                                步骤 3     重新查看硬盘状态是否更改为Unconfigured Good或Ugood。具体操作请参见7.6.2.4 Drive Management界面或7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤4

                                步骤 4     查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见7.4.9 导入/清除外部配置或7.7.2.35 查看/导入/清除外部配置。

l     问题解决 => 处理完毕。

l     问题未解决 => 联系技术支持处理。

----结束

7.5.2 RAID控制卡故障

问题描述

当服务器出现如下现象时,说明RAID控制卡故障。

l     数据无法写入RAID控制卡控制的硬盘。

l     服务器上报RAID控制卡故障告警。

处理方法

                                步骤 1     登录iBMC Web界面查看告警信息。

                                步骤 2     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 3     收集和查看日志信息以及其它必要的故障信息。

                                步骤 4     查询兼容性查询助手或者联系技术支持处理。

----结束

7.5.3 电容故障

问题描述

当RAID控制卡电容故障时,可能导致服务器出现如下情况:

l     服务器读写速度显著降低。

l     RAID控制卡的CU界面中显示电容状态异常。

处理方法

                                步骤 1     确认当前使用的RAID控制卡是否支持配置电容。

l     是 => 步骤2

l     否 => 步骤7

                                步骤 2     进入RAID控制卡的CU界面,查看电容状态是否为“Optimal”。

电容状态可查询7.6.2.5 Hardware Components界面的“Battery Status”参数。

l     是 => 处理完毕

l     否 => 步骤3

                                步骤 3     将服务器下电,打开机箱,并查看RAID控制卡电容是否在位。

l     是 => 步骤5

l     否 => 步骤4

                                步骤 4     检查整机配置,为服务器安装电容,查看电容状态是否为“Optimal”。

l     是 => 处理完毕

l     否 => 步骤7

                                步骤 5     重新安装RAID控制卡电容,查看电容状态是否为“Optimal”。

l     是 => 处理完毕

l     否 => 步骤6

                                步骤 6     更换RAID控制卡电容,查看电容状态是否为“Optimal”,且“问题描述”所述的异常状态是否消失。

l     是 => 处理完毕

l     否 => 步骤7

                                步骤 7     联系技术支持处理。

----结束

7.5.4 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy

问题描述

正常情况下,当服务器配置了RAID控制卡且RAID控制卡状态正常时,进入BIOS的Advanced页签后,会显示RAID控制卡的信息,如图7-71所示。

如果Advanced页签不显示RAID控制卡的信息,如图7-72所示,则:

l     如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:

     如果不显示驱动打印信息,可尝试下电后重新拔插RAID控制卡再上电、下电后更换RAID控制卡再上电或者联系技术支持。

     如果显示“AVAGO EFI SAS Driver SAS3508”,如图7-73所示,则可以通过本章节的指导修复RAID控制卡。

l     如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,如图7-74所示,则可以通过本章节的指导修复RAID控制卡;如果不显示,可尝试下电后重新拔插RAID控制卡再上电、下电更换RAID控制卡再上电或者联系技术支持。

图7-71 Advanced页签(1)

 

图7-72 Advanced页签(2)

 

图7-73 Driver Health Manager

 

图7-74 Advanced页签(3)

 

处理方法

l     当BIOS的版本为0.98之前版本(不包含0.98版本)时:

a.     在Advanced页签选择“Driver Health Manager”并按Enter。

进入“Driver Health Manager”界面。

b.     选择要进行修复的RAID控制卡驱动,如“AVAGO EFI SAS Driver SAS3508”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息:

n     显示“The following VDs have missing disks. ”=> 请参见7.5.4.1 The following VDs have missing disks。

n     显示“There are offline or missing virtual drives with preserved cache.” => 请参见7.5.4.2 There are offline or missing virtual drives with preserved cache

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见7.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。

n     显示“Number of disks exceeded the maximum supported count of 32 disks”=> 请参见7.5.4.4 Number of disks exceeded the maximum supported count of 32 disks。

n     显示“Memory/battery problems were detected / Unexpected power-loss occurred”=> 请参见7.5.4.5 Memory/battery problems were detected / Unexpected power-loss occurred。

l     当BIOS的版本为0.98及以上版本时:

a.     在“Advanced”页签选择“Some drivers are not healthy”。

进入健康状态查询界面。

b.     选择“Repair the whole platform”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息。

n     显示“The following VDs have missing disks. ”=> 请参见7.5.4.1 The following VDs have missing disks。

n     显示“There are offline or missing virtual drives with preserved cache.” => 请参见7.5.4.2 There are offline or missing virtual drives with preserved cache

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见7.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。

n     显示“Number of disks exceeded the maximum supported count of 32 disks”=> 请参见7.5.4.4 Number of disks exceeded the maximum supported count of 32 disks。

n     显示“Memory/battery problems were detected / Unexpected power-loss occurred”=> 请参见7.5.4.5 Memory/battery problems were detected / Unexpected power-loss occurred。

说明

RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见A.2 RAID控制卡启动中出现的常见的错误消息及处理方法。

7.5.4.1 The following VDs have missing disks

问题描述

图7-75所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。

图7-75 状态显示

 

处理方法

                                步骤 1     修复RAID控制卡。

1.     在图7-75中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

2.     输入“C”并按“Enter”。

3.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

4.     输入“y”并按“Enter”。

提示“Critical Message handling completed. Please exit”。修复完成。

                                步骤 2     重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

7.5.4.2 There are offline or missing virtual drives with preserved cache

问题描述

图7-76所示,进入“Driver Healthy Protocol Utility”界面后,显示“There are offline or missing virtual drives with preserved cache”。

图7-76 状态显示

 

处理方法

                                步骤 1     选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

                                步骤 2     输入任意内容,并按“Enter”。

提示Critical Message handling completed. Please exit。修复完成。

                                步骤 3     按Esc。

进入RAID控制卡界面,如图7-77所示。

图7-77 RAID控制卡界面

 

                                步骤 4     选择“Discard Preserved Cache”并按Enter。

弹出操作确认界面,如图7-78所示。

图7-78 操作确认窗口

 

                                步骤 5     选择“Confirm”并按“Enter”。

                                步骤 6     选择“Yes”并按“Enter”。

提示操作成功。

                                步骤 7     重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

7.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

问题描述

图7-79所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”

图7-79 状态显示

 

处理建议

该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:

l     下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。

l     忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:

a.     在图7-79中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

b.     输入“c”并按“Enter”。

c.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

d.     输入“y”并按“Enter”。

提示Critical Message handling completed. Please exit。

e.     按“Esc”退出当前界面。

弹出确认保存配置会话框,如图7-80所示。

图7-80 提示保存会话框

 

f.     按“Y”保存配置,操作完成。

g.     按Esc键返回“Device Manager”界面。

h.     选择3508RAID控制卡,并按“Enter”,进入RAID控制卡管理界面。

7.5.4.4 Number of disks exceeded the maximum supported count of 32 disks

问题描述

图7-81所示,进入“Driver Healthy Protocol Utility”界面后,显示“Number of disks exceeded the maximum supported count of 32 disks”。

图7-81 状态显示

 

处理方法

出现该打印信息表示当前Avago SAS3508RAID控制卡配置的RAID Key仅支持32个硬盘,请将服务器下电,拔出多余的硬盘,再上电,即会在“Advanced”页签正常显示RAID控制卡信息。如未修复,请联系技术工程师处理。

7.5.4.5 Memory/battery problems were detected / Unexpected power-loss occurred

问题描述

图7-82所示,进入“Driver Healthy Protocol Utility”界面后,显示“Memory/battery problems were detected / Unexpected power-loss occurred”。

图7-82 状态显示

 

处理方法

                                步骤 1     选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

                                步骤 2     输入任意内容,并按“Enter”。

提示Critical Message handling completed. Please exit。修复完成。

                                步骤 3     重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

7.5.4.6 Disabling writes to flash as the flash part has gone bad

问题描述

图7-83所示,进入“Driver Healthy Protocol Utility”界面后,显示“Disabling writes to flash as the flash part has gone bad”。

图7-83 状态显示

 

处理方法

                                步骤 1     将服务器下电。

                                步骤 2     更换RAID控制卡。

                                步骤 3     将服务器上电,导入外部配置恢复原来的RAID配置,请参见7.4.9 导入/清除外部配置或7.7.2.35 查看/导入/清除外部配置。

检查提示是否清除。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

7.5.5 将Controller Mode恢复为“RAID”

问题描述

RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD mode将RAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如图7-84所示,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。

图7-84 问题描述

 

说明

当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。

处理方法

                                步骤 1     (可选)登录RAID控制卡管理界面,具体操作请参见7.3.1 进入管理界面。

                                步骤 2     依次进入Main Menu>Controller Management>Advanced Controller Management界面,如图7-85所示。

图7-85 Advanced Controller Management界面

 

                                步骤 3     选择“Switch to RAID mode”并按“Enter”。

提示操作成功,如图7-86所示。

图7-86 操作成功

 

                                步骤 4     选择“OK”并按“Enter”。

返回到“Advanced Controller Management”界面,显示正在切换模式,如图7-87所示。

图7-87 Advanced Controller Management界面

 

                                步骤 5     按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见7.3.1 进入管理界面。

                                步骤 6     依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如图7-88所示。

图7-88 Advanced Controller Management界面

 

l     是 => 处理完毕

l     否 => 请联系技术支持

----结束

7.6 管理界面介绍

7.6.1 进入管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

                                步骤 1     通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 2     重启服务器。

                                步骤 3     重启过程中,当出现如图7-89所示界面时,按“Delete”,进入输入密码界面。

图7-89 BIOS启动界面

 

                                步骤 4     输入密码并按“Enter”。

进入如图7-90所示界面。

图7-90 Setup Utility界面

 

                                步骤 5     通过“”或“→ ”进入“Advanced”页签,如图7-91所示。

图7-91 “Advanced”页签

 

说明

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见7.5.4 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy进行修复。

                                步骤 6     选择“Avago <SAS3508> Configuration Utility”,按“Enter”。

进入Avago SAS3508主界面,如图7-92图7-93所示,界面参数如表7-23所示。

图7-92 Avago SAS3508主界面(1)

 

图7-93 Avago SAS3508主界面(2)

 

表7-23 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

说明

Avago SAS3508不支持在此界面升级FW。

Silence Alarm

板载蜂鸣器的使能状态。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

7.6.2 Main Menu

RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。

界面介绍

“Main Menu”界面如图7-94,参数说明如表7-24所示。

图7-94 Main Menu

 

表7-24 参数说明

参数

参数说明

Configuration Management

配置管理RAID。

Controller Management

管理RAID控制器。

Virtual Drive Management

管理虚拟磁盘。

Drive Management

管理硬盘。

Hardware Components

查询部件信息。

 

7.6.2.1 Configuration Management

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

“Configuration Management”界面如图7-95,参数说明如表7-25所示。

图7-95 Configuration Management

 

表7-25 参数说明

参数

参数说明

Auto Configure RAID 0

自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0。

Create Virtual Drive

创建RAID。

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Clear Configuration

清除当前所有RAID配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时会显示该参数。

 

查看虚拟磁盘属性

图7-95中选择“View Drive Group Properties”并按“Enter”。

打开的界面如图7-96,参数说明如表7-26所示。

图7-96 View Drive Group Properties

 

表7-26 参数说明

参数

参数说明

Drive Group

硬盘组名称。

Capacity Allocation

硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。

 

清除RAID配置

                                步骤 1     选择“Clear Configuration”并按“Enter”。

进入操作确认界面。

                                步骤 2     选中“Confirm”并按“Enter”。

                                步骤 3     在打开的列表中选择“Enabled”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     按“Enter”。

配置完成。

----结束

查看并导入外部配置

                                步骤 1     在图7-95中选择“Manage Foreign Configuration”并按“Enter”。

界面如图7-97所示。

图7-97 Manage Foreign Configuration

 

                                步骤 2     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如图7-98所示。

图7-98 外部配置

 

                                步骤 3     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     在列表中选择“Enable”并按“Enter”。

                                步骤 6     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 7     选择“OK”并按“Enter”完成配置。

----结束

清除外部配置

                                步骤 1     选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     在列表中选择“Enable”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

7.6.2.2 Controller Management

该界面提供控制器管理接口,可查看并修改控制器的详细参数。

界面介绍

“Controller Management”界面如图7-99,参数说明如表7-27所示。

图7-99 Controller Management

 

表7-27 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见7.3.9 配置启动项。

PCI ID

RAID控制卡的PCI ID。

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Connector Count

RAID控制卡与主板的接口个数。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制器操作。

Advanced Controller Properties

查看和修改控制器的高级属性。

 

更多控制器操作

图7-99中选择“Advanced Controller Management”并按“Enter”。

界面如图7-100所示,界面中参数说明如表7-28所示。

图7-100 Advanced Controller Management

 

表7-28 参数说明

参数

说明

Clear Controller Events

清除控制器的事件日志。

Save Controller Events

保存控制器的事件日志。

Save TTY Log

保存终端操作日志。

Manage SAS Storage Link Speed

管理接口速率。

Manage MegaRAID Advanced Software Options

管理高级软件功能。

Schedule Consistency Check

设置一致性校验参数。

Set Factory Defaults

恢复为出厂配置。

Switch to JBOD mode

切换RAID控制卡的工作模式,默认为RAID模式。当RAID控制卡当前的工作模式为RAID时,显示为“Switch to JBOD mode”;当RAID控制卡当前的工作模式为JBOD时,显示为“Switch to RAID mode”。

RAID控制卡的工作模式仅支持设置为“RAID”,请勿修改为“JBOD”。

如已设置为JBOD,请参见7.5.5 将Controller Mode恢复为“RAID”进行恢复;如需要开启JBOD功能,请参见7.4.10 设置JBOD模式进行设置。

Controller Mode

RAID控制卡当前的工作模式。

 

查看并修改控制器高级属性

                                步骤 1     在图7-99中选择“Advanced Controller Properties”并按“Enter”。

界面如图7-101图7-102所示,界面中参数说明如表7-29所示。

图7-101 Advanced Controller Properties(1)

 

图7-102 Advanced Controller Properties(2)

 

表7-29 参数说明

参数

说明

Profile Management

管理快速RAID。

Cache and Memory

查看控制器Cache和Memory信息。

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

Spare

设置控制器热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

Avago SAS3508 RAID控制卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

容量对齐的模式。包括:

l     None

l     128MB

l     1GB

默认为“1GB”。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制器BIOS的使能情况。

ROC Temperature

控制器温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见7.4.9 导入/清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验

JBOD Mode

是否使能硬盘直通功能。

Write Verify

写校验。

Drive Detection Type

随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制器属性。

可用选项为:

l     Disabled

l     High Latency

l     Aggressive

l     Default

Drive Corrective Action

随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致I/O延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。

l     Disabled:禁用该功能

l     Enabled:开启该功能

Drive Error Threshold

通过该选项设置适当的控制器属性。

l     Every 8 hours

l     Every1 hours

l     Every 15 mins

l     Every 5 mins

 

                                步骤 2     在图7-101中选择“Task Rates”并按“Enter”。界面如图7-103所示,界面中参数说明如表7-30所示。

图7-103 Task Rates

 

表7-30 参数说明

参数

说明

Background Initialization <BGI> Rate

设置执行后台初始化的速率。

说明

数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Consistency Check Rate

设置执行一致性校验的速率。

说明

数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Patrol Read Rate

设置执行巡检读取的速率。

说明

数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Rebuild Rate

设置硬盘发生故障时在新硬盘上执行重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Reconstruction Rate

设置执行RAID级别迁移或在线容量扩展时重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Apply Changes

保存配置。

 

                                步骤 3     按照表7-29所述修改控制器的高级属性参数。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     单击“OK”完成配置。

----结束

7.6.2.3 Virtual Drive Management

该界面提供虚拟磁盘的查询和管理接口。

界面介绍

“Virtual Drive Management”界面如图7-104,显示虚拟磁盘列表。

图7-104 Virtual Drive List

 

选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如图7-105所示,参数说明如表7-31所示。

图7-105 Virtual Drive Management

 

表7-31 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:定位虚拟磁盘的所有硬盘。

l     Stop Locate:取消定位。

l     Delete Virtual Drive:删除虚拟磁盘。

l     Expand Virtual Drive:扩展虚拟磁盘容量。

l     Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。

l     Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。

l     Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。

l     Fast Initialization:快速初始化虚拟磁盘。

l     Slow Initialization:安全初始化虚拟磁盘。

l     Check Consistency:一致性校验。

l     Virtual Drive Erase:格式化虚拟磁盘。

Name

虚拟磁盘名称。

Raid Level

虚拟磁盘RAID级别。

Status

虚拟磁盘当前运行状态。

Size

虚拟磁盘容量。

View Associated Drives

查看成员盘属性。

Advanced...

查看虚拟磁盘高级属性。

 

扩展虚拟磁盘容量

                                步骤 1     将“Operation”设置为“Expand Virtual Drive”。

                                步骤 2     选择“Go”并按“Enter”。

进入虚拟磁盘扩容界面,如图7-106界面所示,界面参数如表7-32所示。

图7-106 Expand Virtual Drive

 

表7-32 参数说明

参数

参数说明

Current Capacity

虚拟磁盘当前容量。

Available Capacity

可用于扩展的容量。

Enter a Percentage of Available Capacity

输入扩容比例。

Capacity of Virtual Drive after Expansion

扩容后虚拟磁盘容量。

 

                                步骤 3     设置扩容百分比。

                                步骤 4     选择“OK”并按“Enter”。

显示The operation has been performed successfully。

                                步骤 5     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

查看成员盘属性

                                步骤 1     在图7-105中选择“View Associated Drives”并按“Enter”。

界面如图7-107,显示成员盘列表。

图7-107 View Associated Drives

 

                                步骤 2     选择要查看的成员盘,并按“Enter”。

                                步骤 3     选择“View Drive Properties”并按“Enter”。

进入硬盘属性界面,如图7-108界面所示,界面参数如表7-33所示。

图7-108 View Drive Properties

 

表7-33 参数说明

参数

参数说明

Operation

该成员盘可执行的操作,包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Place Drive Online/Offline:将硬盘上线/离线。

Drive ID

成员盘的ID。

Status

成员盘的当前工作状态。

Size

成员盘的容量。

Type

成员盘类型。

Model

成员盘的模块类型。

Hardware Vendor

成员盘的生产厂商。

Associated Virtual Drive

成员盘所在的虚拟磁盘。

Advanced...

查询成员盘更多属性。

 

----结束

查看和修改虚拟磁盘高级属性

                                步骤 1     在图7-105中选择“Advanced”并按“Enter”。

界面如图7-109图7-110所示,界面参数如表7-34所示。

图7-109 Advanced (1)

 

图7-110 Advanced (2)

 

表7-34 参数说明

参数

参数说明

Logical Sector Size

逻辑扇区大小。

Strip Size

条带大小。

Starting Logical Block Addressing

逻辑单元起始地址。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Bad Blocks

是否支持坏块处理。

SSD Caching

是否支持SSD Caching。

Access

是否支持Access。

Current Write Cache Policy

当前写Cache策略,包括:

l     Write Through:当硬盘子系统接收到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。

l     Write Back:当RAID控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Always Write Back:当未配置超级电容或超级电容故障时,RAID控制卡将不会自动切换到Write Through模式。

说明

“Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR的写数据将会丢失。不推荐使用该模式。

Default Write Cache Policy

默认的写Cache策略。

Disable Background Initialization

是否禁用后台初始化。

Read Cache Policy

当前读Cache策略,包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。RAID控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

Drive Cache

是否支持cache。

Input/Output

I/O读取策略,包括:

l     Direct:直接从硬盘读取数据,不经过Cache缓存。

l     Cached:从Cache缓存中读取数据。

Apply Changes

保存配置。

 

                                步骤 2     按照表7-34所述配置“Advanced”的参数。

                                步骤 3     选择“Apply Changes”并按“Enter”。

显示The operation has been performed successfully。

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

7.6.2.4 Drive Management

该界面显示硬盘基本属性,提供硬盘操作接口。

界面介绍

“Drive Management”界面如图7-111所示,显示硬盘列表。

图7-111 Drive List

 

选定要操作的硬盘并按“Enter”进入详细操作界面,如图7-112所示,参数说明如表7-35所示。

图7-112 Drive Management

 

表7-35 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Initialize Drive:硬盘初始化。

l     Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。

     Simple:仅对硬盘进行一轮擦除动作。

     Normal:对硬盘进行三轮擦除动作。

     Thorough:对硬盘进行九轮擦除动作。

     Stop Erase:停止数据擦除操作。

l     Make Unconfigured Good/Bad:修改硬盘状态。

l     Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。

l     Assign Global Hot Spare Drive:设置全局热备盘。

l     Assign Dedicated Hot Spare Drive:设置局部热备盘。

l     Unassign Hot Spare Drive:删除热备盘。

l     Cryptographic Erase:对加密硬盘进行数据擦除。

l     Place Drive Online:将Offline状态的硬盘设置为Online。

说明

l     Place Drive Online操作只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。

l     对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。

Drive ID

硬盘的ID。

Status

硬盘的当前工作状态。

Size

硬盘的容量。

Type

硬盘的类型。

Model

硬盘型号。

Hardware Vendor

硬盘的生产厂商。

Associated Virtual Drive

表示硬盘已加入虚拟磁盘,此处显示虚拟磁盘信息。

Advanced...

查询更多硬盘属性。

 

安全擦除硬盘数据

说明

该操作会删除硬盘上的数据,请谨慎执行。

                                步骤 1     将“Operation”设置为“Drive Erase”。

                                步骤 2     选择“Erase Mode”并按“Enter”。

                                步骤 3     在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。

                                步骤 4     选择“OK”并按“Enter”。

进入操作确认界面。

                                步骤 5     选择“Confirm”并按“Enter”。

                                步骤 6     选择“Yes”并按“Enter”。

提示操作成功。

----结束

查看硬盘属性

选择“Advanced...”并按“Enter”。

打开硬盘属性界面,如图7-113图7-114所示,参数说明如表7-36所示。

图7-113 Drive Properties (1)

 

图7-114 Drive Properties (2)

 

表7-36 参数说明

参数

参数说明

Logical Sector Size

逻辑扇区大小。

Physical Sector Size

物理扇区大小。

SMART Status

SMART功能是否使能。

Revision

硬盘Firmware版本。

Media Error

Media error个数。

Predicted Fail Count

Pred fail个数。

SAS Address

硬盘SAS地址。

Drive Power State

硬盘上电状态。

Emergency Spare

是否支持紧急备份功能,即是否可以选空闲盘或者热备做备份盘。

Commissioned Hot Spare

是否指定了备份盘,即把一个热备盘指定给一个RAID组使用。

Cache Setting

是否可设置Cache。

Available Size

硬盘可用空间。

Used Space

已使用的硬盘空间。

Disk Protocol

硬盘支持的协议。

Device Speed

设备的速率。

Negotiated Drive Transfer Speed

硬盘数据传输速率。

Number of Connections

连接器个数。

FDE Capable

硬盘是否支持FDE(Full Disk Encryption)技术。

Protection Capable

硬盘是否支持数据保护。

Temperature

硬盘温度。

 

7.6.2.5 Hardware Components

该界面主要提供RAID控制卡传感器信息。

界面介绍

“Hardware Components”界面如图7-115,参数说明如表7-37所示。

图7-115 Hardware Components

 

表7-37 参数说明

参数

参数说明

Battery Status

电容状态。

Temperature Sensors

当前温度传感器状态。

Fans

当前风扇模块工作状态。

Power Supplies

当前供电模块工作状态。

Battery Management

电容管理。

Enclosure Management

查看更多传感器信息。

 

查看更多传感器信息

                                步骤 1     选择“Enclosure Management”并按“Enter”。

进入部件选择界面,如图7-116所示。

图7-116 选择部件

 

                                步骤 2     选择“Select Enclosure”并按“Enter”。

                                步骤 3     选择要操作的部件并按“Enter”。

                                步骤 4     选择“View Enclosure Status”并按“Enter”。

显示传感器的详细信息。

                                步骤 5     在TEMPERATUR SENSOR下通过“Select Temperature Sensor”选择要查询的温度传感器。

“Temperature Sensor Status”显示所查询的传感器的状态。

                                步骤 6     在FAN下通过“Select Fan”选择要查询的风扇传感器。

“Fan Status”显示所查询的传感器的状态。

                                步骤 7     在POWER SUPPLY下通过“Select Power Supply”选择要查询的供电模块传感器。

“Power Supply Status”显示所查询的传感器的状态。

----结束

7.6.3 View Server Profile

提供RAID控制卡操作管理接口。

界面介绍

“View Server Profile”界面如图7-117所示,参数说明如表7-38所示。

图7-117 View Server Profile

 

表7-38 参数说明

参数

参数说明

UEFI Spec Version

服务器支持的UEFI Spec版本。

Controller Management

提供控制器管理接口,详细情况请参见7.6.2.2 Controller Management。

Hardware Components

提供控制器部件查询接口,详细情况请参见7.6.2.5 Hardware Components。

Drive Management

提供硬盘管理接口,详细情况请参见7.6.2.4 Drive Management。

Virtual Drive Management

提供虚拟磁盘管理接口,详细情况请参见7.6.2.3 Virtual Drive Management。

 

7.6.4 View Foreign Configuration

该界面可查看、导入、清空外部配置。

界面介绍

“View Foreign Configuration”界面如图7-118所示。

图7-118 View Foreign Configuration

 

查看并导入外部配置

                                步骤 1     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如图7-119所示。

图7-119 外部配置

 

                                步骤 2     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     单击“OK”完成配置。

----结束

清除外部配置

                                步骤 1     选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 4     单击“OK”完成配置。

----结束

7.6.5 Configure

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

“Configure”界面如图7-120所示,参数说明如表7-39所示。

图7-120 Configure

 

表7-39 参数说明

参数

参数说明

Auto Configure RAID 0

自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0。

Create Virtual Drive

创建RAID。

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Clear Configuration

清除当前所有RAID配置。

Manage Foreign Configuration

管理外部配置。

 

自动创建RAID0

                                步骤 1     选择“Auto Configure RAID 0”并按“Enter”。

打开操作确认界面,如图7-121所示。

图7-121 Warning

 

说明

自动创建RAID0会导致加入RAID组的硬盘数据丢失,请谨慎操作。

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 4     单击“OK”完成配置。

----结束

快速创建RAID

“Create Profile Based Virtual Drive”界面如图7-122所示。

图7-122 Create Profile Based Virtual Drive

 

说明

快速创建RAID会导致加入RAID组的硬盘数据丢失,请谨慎操作。

                                步骤 1     选择要创建的RAID级别(如RAID0),并按“Enter”。

打开RAID组信息界面,如图7-123所示。

图7-123 RAID组信息界面

 

                                步骤 2     在“Drive Selection Criteria”中选择加入RAID组的硬盘类型。

                                步骤 3     选择“Save Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 6     选择“OK”并按“Enter”完成配置。

----结束

查看虚拟磁盘属性

选择“View Drive Group Properties”并按“Enter”。

打开的界面如图7-124,参数说明如表7-40所示。

图7-124 View Drive Group Properties

 

表7-40 参数说明

参数

参数说明

Drive Group

硬盘组名称。

Capacity Allocation

硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。

 

清除当前配置

                                步骤 1     选择“Clear Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 4     单击“OK”完成配置。

----结束

7.6.6 Set Factory Defaults

恢复出厂配置

                                步骤 1     在主界面选择“Set Factory Defaults”并按“Enter”。

打开操作确认界面。

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 4     单击“OK”完成配置。

----结束

7.6.7 Manage MegaRAID Advanced Software Options

该界面提供RAID控制卡高级软件特性查看和导入接口。

界面介绍

“Manage MegaRAID Advanced Software Options”界面如图7-125所示,界面中参数说明如表7-41所示。

图7-125 Manage MegaRAID Advanced Software Options

 

表7-41 参数说明

参数

说明

SAFE ID

RAID控制卡的安全编码。

Serial Number

RAID控制卡序列号。

Activation Key

待激活的高级特性的Key。

Active

激活高级特性。

Avago SAS3508不支持高级特性的激活操作,该功能无效。

Deactive All Trail Software

注销当前所有高级特性。

Avago SAS3508不支持高级特性的激活操作,该功能无效。

 

7.6.8 Exit

退出配置界面。

退出配置界面

                                步骤 1     在Avago SAS3508主界面按“ESC”,显示如图7-126所示界面。

图7-126 BIOS Setup Utility

 

                                步骤 2     按F10退出BIOS。

弹出操作确认窗口。

                                步骤 3     选择“OK”并按Enter。

退出BIOS,显示“ Press Control+Alt+Delete to reboot”。

----结束

7.7 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

7.7.1 下载和安装StorCLI工具

下载工具

                                步骤 1     登录BROADCOM网站上RAID控制卡的页面

                                步骤 2     在“DOWNLOADS”页签中单击“Management Software and Tools”。

打开管理软件和工具列表。

                                步骤 3     下载最新版本的“StorCLI”工具。

                                步骤 4     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

                                步骤 1     使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 2     在Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。

说明

StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

7.7.2 常用命令

7.7.2.1 查询RAID控制卡配置信息

命令功能

查询Avago SAS3508的基本配置信息。

命令格式

storcli64 /ccontroller_id show

参数说明

参数

参数说明

取值

controller_id

控制器ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID

 

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡配置信息。

domino:~# ./storcli64 /c0 show
Controller = 0 
Status = Success
Description = None
Product Name = SAS3508
Serial Number = FW-00000000
SAS Address = 3202017050235207
PCI Address = 00:1b:00:00
System Time = 02/12/2016 18:53:00
Mfg. Date = 00/00/00
Controller Time = 02/12/2016 23:53:00
FW Package Build = 50.1.0-0426
BIOS Version = 07.01.04.0_4.17.08.00_0x0701060
FW Version = 5.010.00-0426
Driver Name = megaraid_sas
Driver Version = 07.701.17.00
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x16
SubVendor Id = 0x19E5
SubDevice Id = 0xD215
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 27
Device Number = 0
Function Number = 0
Drive Groups = 4
TOPOLOGY :
========
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size PDC PI SED DS3 FSpace TR
-----------------------------------------------------------------------------
0 - - - - RAID0 Optl N 278.464 GB dflt N N none N N
0 0 - - - RAID0 Optl N 278.464 GB dflt N N none N N
0 0 0 66:18 12 DRIVE Onln N 278.464 GB dflt N N none - N
1 - - - - RAID1 Dgrd N 893.137 GB dflt N N dflt N N
1 0 - - - RAID1 Dgrd N 893.137 GB dflt N N dflt N N
1 0 0 66:3 19 DRIVE Onln N 893.137 GB dflt N N dflt - N
1 0 1 - - DRIVE Msng - 893.137 GB - - - - - N
2 - - - - RAID0 Optl N 1.744 TB dflt N N none N N
2 0 - - - RAID0 Optl N 1.744 TB dflt N N none N N
2 0 0 66:4 20 DRIVE Onln N 893.137 GB dflt N N none - N
2 0 1 66:5 21 DRIVE Onln N 893.137 GB dflt N N none - N
3 - - - - RAID5 Optl N 1.087 TB dflt N N dflt N N
3 0 - - - RAID5 Optl N 1.087 TB dflt N N dflt N N
3 0 0 66:19 13 DRIVE Onln N 371.597 GB dflt N N dflt - N
3 0 1 66:20 14 DRIVE Onln N 371.597 GB dflt N N dflt - N
3 0 2 66:21 16 DRIVE Onln N 371.597 GB dflt N N dflt - N
3 0 3 66:22 15 DRIVE Onln N 371.597 GB dflt N N dflt - N
-----------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
Missing Drives Count = 1
Missing Drives :
==============
---------------------
Array Row Size
---------------------
1 1 893.137 GB
---------------------
 
Virtual Drives = 4
VD LIST :
=======
---------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC Size Name
---------------------------------------------------------------
0/1 RAID0 Optl RW Yes RWBD - ON 278.464 GB
1/2 RAID1 Dgrd RW No RWBD - ON 893.137 GB
2/3 RAID0 Optl RW No RWBD - ON 1.744 TB
3/0 RAID5 Optl RW No RWBD - ON 1.087 TB
---------------------------------------------------------------
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
Physical Drives = 21
PD LIST :
=======
-----------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp
-----------------------------------------------------------------------------------
66:2 10 JBOD - 837.256 GB SAS HDD N N 4 KB HUC101890CS4200 U
66:3 19 Onln 1 893.137 GB SATA SSD N N 512B SAMSUNG MZ7KM960HAHP-00005 U
66:4 20 Onln 2 893.137 GB SATA SSD N N 512B SAMSUNG MZ7KM960HAHP-00005 U
66:5 21 Onln 2 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U
66:6 23 JBOD - 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U
66:7 25 JBOD - 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U
66:8 24 JBOD - 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U
66:9 26 JBOD - 744.125 GB SATA SSD N N 512B SAMSUNG MZ7LM800HCHP-00005 U
66:10 27 JBOD - 744.125 GB SATA SSD N N 512B SAMSUNG MZ7LM800HCHP-00005 U
66:11 22 UGood - 384.0 MB SATA SSD N N 512B SAMSUNG MZ7GE480HMHP-00003 U
66:12 28 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7WD480HAGM-00003 U
66:13 30 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7LM480HCHP-00003 U
66:14 29 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7WD480HAGM-00003 U
66:15 31 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7LM480HCHP-00005 U
66:16 32 JBOD - 222.585 GB SATA SSD N N 512B SAMSUNG MZ7KM240HAGR-00005 U
66:17 11 JBOD - 1.089 TB SAS HDD N N 512B HUC101812CSS200 U
66:18 12 Onln 0 278.464 GB SAS HDD N N 512B ST300MM0006 U
66:19 13 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U
66:20 14 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U
66:21 16 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U
66:22 15 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U
-----------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
Cachevault_Info :
===============
------------------------------------
Model State Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 28C - 2016/12/06
------------------------------------

7.7.2.2 创建和删除RAID

命令功能

创建、删除RAID。

命令格式

命令

说明

storcli64 /ccontroller_id add vd rlevel[0|1|5|6|10|50|60] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [wt|*wb|awb] [nora|*ra] [*direct|cached] [Strip=<8|16|32|64|128|256|1024>] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid]

创建RAID组

storcli64 /ccontroller_id/vraid_id del

删除RAID组

 

说明

*表示默认值。

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

enclosure_id

硬盘所在Enclosure的ID

-

rlevel

要配置的RAID组级别

level可为0、1、5、6、10、50、60,数字分别代表对应的RAID组级别。

size

要配置的RAID组容量

默认值为all,即所有成员盘的容量之和。

name

要配置的RAID组名称

-

drives

要加入RAID组的硬盘

-

startid-endid

硬盘的起始和结束ID

-

slot_id

硬盘ID

-

pdperarray

子组中的硬盘数

创建RAID10、RAID50、RAID60时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。

-

pdcache

设置RAID的成员盘的Cache状态

l     on

l     off

l     default

pi

使能数据保护

-

wrcache

设置RAID组的写Cache属性,完整的命令为wrcache=wt|wb|awb,这里“wrcache=”可省略

l     wt:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     wb:控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”模式。

rdcache

设置RAID组的读Cache属性,完整的命令为rdcache=ra|nora,这里“rdcache=”可省略。

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

iopolicy

设置RAID组的I/O策略,完整的命令为iopolicy=direct|cached,这里“iopolicy=”可省略。

说明

Cache IO的规格后续不再支持,默认为Direct IO,具体信息请查看RAID控制卡固件版本说明书。

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

Strip

设置RAID组条带大小

MR卡:8, 16, 32, 64, 128, 256, 512, 1024

iMR卡:只能为64

单位为KB

EmulationType

控制逻辑盘在OS中上报的扇区

l     0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     1: Disable,如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     2:Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Spares

指定RAID组的热备盘

-

raid_id

要删除的RAID组的ID

-

 

说明

l     以上涉及的各个ID的查询方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

l     当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid

使用指南

使用实例

# 创建RAID 0。

domino:~# ./storcli64 /c0 add vd r0 size=100GB drives=252:0-3
Controller = 0
Status = Success
Description = Add VD Succeeded

# 删除RAID。

domino:~# ./storcli64 /c0/v0 del
Controller = 0
Status = Success
Description = Delete VD Succeeded

7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息

命令功能

查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。

命令格式

storcli64 /ccontroller_id show

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

storcli64 /ccontroller_id/vvd_id show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID

enclosure_id

硬盘所在Enclosure的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器连接的硬盘背板的ID

slot_id

物理硬盘槽位编号

可以将该参数设置为all,表示查询所有硬盘的ID

vd_id

虚拟磁盘ID

可以为all,表示查询所有虚拟磁盘信息。

 

使用指南

回显中主要字段的含义如表7-42所示。

表7-42 回显说明

命令格式

字段

含义

举例

storcli64 /ccontroller_id show

Product Name

RAID控制卡的型号

sas3108

FW Version

RAID控制卡的FW版本

4.660.00-8140

Driver Name

RAID控制卡的驱动名称

megaraid_sas

Driver Version

RAID控制卡的驱动版本

06.811.02.00-rh1

Current Personality

RAID控制卡的工作模式

RAID-Mode

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

SN

物理硬盘的序列号

PHWL517601YR800RGN

Manufacturer Id

物理硬盘的供应商ID

ATA

Model Number

物理硬盘的模块序号

INTEL SSDSC2BB800G4

Firmware Revision

物理硬盘的FW版本

D2010370

Raw size

物理硬盘的容量

745.211 GB [0x5d26ceb0 Sectors]

Logical Sector Size

物理硬盘逻辑分区大小

512B

Physical Sector Size

物理扇区大小

4 KB

storcli64 /ccontroller_id/vvd_id show all

TYPE

RAID组的级别

RAID1

State

RAID组的状态

Optl

Access

RAID组数据的访问策略

RW

Cache

RAID组当前的读写策略与I/O Policy

RWTD

Size

RAID组的大小

100.0 GB

PDs for VD0

RAID组下的物理硬盘

-

Strip Size

RAID组的条带大小

256KB

Write Cache(initial setting)

RAID组Cache的写策略

Write Through

Disk Cache Policy

RAID组成员盘的Cache策略

Disk's Default

 

使用实例

#查询RAID控制卡的详细信息。

[root@localhost ~]# ./storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
Product Name = SAS3508
Serial Number =
SAS Address =  50030130f0900000
PCI Address = 00:01:00:00
System Time = 07/07/2018 22:06:42
Mfg. Date = 00/00/00
Controller Time = 07/07/2018 14:06:41
FW Package Build = 24.16.0-0093
BIOS Version = 6.32.02.0_4.17.08.00_0x06150500
FW Version = 4.660.00-8140
Driver Name = megaraid_sas 
Driver Version = 06.811.02.00-rh1
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x5D
SubVendor Id = 0x19E5
SubDevice Id = 0xD207
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Drive Groups = 1
 
TOPOLOGY :
========
 
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace TR
-----------------------------------------------------------------------------
 0 -   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 0 0   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 0 0   0   252:1    18  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
 0 0   1   252:0    48  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
-----------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 1
 
VD LIST :
=======
 
---------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC       Size Name
---------------------------------------------------------------
0/0   RAID1 Optl  RW     Yes     RWBD  -   ON  744.125 GB
---------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 6
 
PD LIST :
=======
 
---------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model               Sp Type
---------------------------------------------------------------------------------
252:0    48 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:1    18 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:2    19 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BA800G4 U  -
252:3    20 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BA800G4 U  -
252:4    49 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:5    47 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
---------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Cachevault_Info :
===============
 
------------------------------------
Model  State   Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 28C  -    2016/11/04
------------------------------------

#查询slot0的物理硬盘的信息。

[root@localhost ~]# ./storcli64 /c0/e252/s0 show all
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
 
 
Drive /c0/e252/s0 :
=================
 
---------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model               Sp Type
---------------------------------------------------------------------------------
252:0    48 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
---------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Drive /c0/e252/s0 - Detailed Information :
========================================
 
Drive /c0/e252/s0 State :
=======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature =  20C (68.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
 
 
Drive /c0/e252/s0 Device attributes :
===================================
SN = PHWL517601YR800RGN
Manufacturer Id = ATA
Model Number = INTEL SSDSC2BB800G4
NAND Vendor = NA
WWN = 55cd2e404c533246
Firmware Revision = D2010370
Raw size = 745.211 GB [0x5d26ceb0 Sectors]
Coerced size = 744.125 GB [0x5d040800 Sectors]
Non Coerced size = 744.711 GB [0x5d16ceb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 6.0Gb/s
NCQ setting = Enabled
Write cache = N/A
Logical Sector Size = 512B
Physical Sector Size = 4 KB
Connector Name = Port A x1
 
 
Drive /c0/e252/s0 Policies/Settings :
===================================
Drive position = DriveGroup:0, Span:0, Row:1
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = No
Wide Port Capable = No
 
Port Information :
================
 
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
   0 Active 6.0Gb/s   0x4433221100000000
-----------------------------------------
 
 
Inquiry Data =
40 00 ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 48 50 4c 57 31 35 36 37 31 30 52 59
30 38 52 30 4e 47 20 20 00 00 00 00 00 00 32 44
31 30 33 30 30 37 4e 49 45 54 20 4c 53 53 53 44
32 43 42 42 30 38 47 30 20 34 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 01 80
00 40 00 2f 00 40 00 00 00 00 07 00 ff 3f 10 00
3f 00 10 fc fb 00 01 bf ff ff ff 0f 00 00 07 00

# 查询VD 0的信息。

[root@rhel6u5 ~]# /opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
 
 
/c0/v0 :
======
 
---------------------------------------------------------
DG/VD TYPE  State Access Consist Cache sCC     Size Name
---------------------------------------------------------
1/0   RAID1 Optl  RW     Yes     RWTD  -   1.089 TB
---------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|B=Blocked|Consist=Consistent|
R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
 
PDs for VD 0 :
============
 
-----------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model            Sp
-----------------------------------------------------------------------
25:22    14 Onln   1 1.089 TB SAS  HDD N   N  512B ST1200MM0007     U
25:23    26 Onln   1 1.089 TB SAS  HDD N   N  512B ST1200MM0007     U
-----------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded
 
 
VD0 Properties :
==============
Strip Size = 256 KB
Number of Blocks = 2341795840
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 2
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = Disabled
Active Operations = None
Exposed to OS = Yes
Creation Date = 04-01-2018
Creation Time = 12:38:35 PM
Emulation type = None

7.7.2.4 查询超级电容的相关信息

命令功能

查询超级电容的名称及TFM Flash卡缓存容量的大小等信息。

命令格式

storcli64 /ccontroller_id/cv show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以为all,表示所有控制器。

 

查看RAID控制卡ID的方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用实例

#查询超级电容的相关信息。

[root@localhost ~]# ./storcli64 /c0/cv show all
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
 
Cachevault_Info :
===============
 
--------------------
Property    Value
--------------------
Type        CVPM02
Temperature 28 C
State       Optimal
--------------------
 
 
Firmware_Status :
===============
 
---------------------------------------
Property                         Value
---------------------------------------
Replacement required             No
No space to cache offload        No
Module microcode update required No
---------------------------------------
 
 
GasGaugeStatus :
==============
 
------------------------------
Property                Value
------------------------------
Pack Energy             294 J
Capacitance             108 %
Remaining Reserve Space 0
------------------------------
 
 
Design_Info :
===========
 
------------------------------------
Property                 Value
------------------------------------
Date of Manufacture      04/11/2016
Serial Number            22417
Manufacture Name         LSI
Design Capacity          288 J
Device Name              CVPM02
tmmFru                   N/A
CacheVault Flash Size    8.0 GB
tmmBatversionNo          0x05
tmmSerialNo              0xee7d
tmm Date of Manufacture  09/12/2016
tmmPcbAssmNo             022544412A
tmmPCBversionNo          0x03
tmmBatPackAssmNo         49571-13A
scapBatversionNo         0x00
scapSerialNo             0x5791
scap Date of Manufacture 04/11/2016
scapPcbAssmNo            1700134483
scapPCBversionNo          A
scapBatPackAssmNo        49571-13A
Module Version           6635-02A
------------------------------------
 
 
Properties :
==========
 
--------------------------------------------------------------
Property             Value
--------------------------------------------------------------
Auto Learn Period    27d (2412000 seconds)
Next Learn time      2018/08/03  17:48:38 (586633718 seconds)
Learn Delay Interval 0 hour(s)
Auto-Learn Mode      Transparent
--------------------------------------------------------------

说明

l     上述回显信息中,“Device Name  CVPM02”表示超级电容的名称为 “CVPM02”,“CacheVault Flash Size   8.0GB”表示TFM Flash卡缓存容量为“8.0GB”。

l     当回显信息的“State”显示为“FAILED”时,需要更换超级电容。

7.7.2.5 查询和设置Patrolread参数

命令功能

查询和设置系统巡检的相关参数。

命令格式

storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number

storcli64 /ccontroller_id set patrolread delay=delaytime

storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}

storcli64 /ccontroller_id show patrolread

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

系统巡检起始时间

例如:2016/07/15 23

说明

起始时间单位为“时”。

number

可同时巡检的硬盘数量

delaytime

系统巡检周期

单位为hour。

 

查看RAID控制卡ID的方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。

domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

---------------------------------------

Ctrl_Prop          Value

---------------------------------------

PR Starttime       2016/07/15 23:00:00

PR MaxConcurrentPd 2

---------------------------------------

# 使能patrolread并设置为自动模式。

domino:~# ./storcli64 /c0 set patrolread=on mode=auto
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
--------------------------------------- 
Ctrl_Prop        Value 
--------------------------------------- 
Patrol Read Mode auto 
---------------------------------------

# 查询patrolread信息。

domino:~# ./storcli64 /c0 show patrolread

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

--------------------------------------------

Ctrl_Prop          Value

--------------------------------------------

PR Mode       2016/07/15 23:00:00

PR Execution Delay

PR iterations completed 0

PR Next Start time      07/16/2016,00:00:00

PR on SSD               Disabled

PR Current State        Stopped

--------------------------------------------

7.7.2.6 查询和设置Spinup参数

命令功能

查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。

命令格式

storcli64 /ccontroller_id show spinupdelay

storcli64 /ccontroller_id show spinupdrivecount

storcli64 /ccontroller_id set spinupdelay=time

storcli64 /ccontroller_id set spinupdrivecount=count

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

每组起转硬盘间的时间间隔

默认为2,单位为s。

count

上电时允许同时起转的硬盘数量

默认为4。

 

查看RAID控制卡ID的方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡Spinup参数。

domino:~# ./storcli64 /c0 show spinupdelay
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
domino:~# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 4
--------------------------

# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。

domino:~# ./storcli64 /c0 set spinupdelay=20
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 20 second(s)
--------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 5
--------------------------

7.7.2.7 查询和设置硬盘数据擦除功能

命令功能

设置物理硬盘数据擦除模式,查询擦除进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

硬盘槽位号

mode

数据擦除模式

l     simple:对硬盘进行一轮擦除动作。

l     normal:对硬盘进行三轮擦除动作。

l     thorough:对硬盘进行九轮擦除动作。

 

以上涉及的各个ID的查询方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。

domino:~# ./storcli64 /c0/e252/s3 start erase simple
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.

7.7.2.8 查询和设置RAID后台初始化

命令功能

暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。

命令格式

storcli64 /ccontroller_id/vraid_id action bgi

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

action

后台初始化的操作

l     show:查看后台初始化进度

l     pause:暂停后台初始化

l     resume:继续后台初始化

l     stop:停止后台初始化

 

以上涉及的各个ID的查询方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查看后台初始化进度。

domino:~# ./storcli64 /c0/v0 show bgi
Controller = 0
Status = Success
Description = Noe
VD Operation Status :
===================
------------------------------------------------------
VD Operation Progress% Staus Estimated Time Left
------------------------------------------------------
0 BGI 3 In progress 53 Minutes
------------------------------------------------------

7.7.2.9 查询和设置CacheFlush参数

命令功能

查询和设置Cache的刷新周期。

命令格式

storcli64 /ccontroller_id show cacheflushint

storcli64 /ccontroller_id set cacheflushint time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

Cache的刷新周期

单位为s

 

查看RAID控制卡ID的方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置Cache的刷新周期为“10”。

domino:~# ./storcli64 /c0 set cacheflushint=10
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10 sec
---------------------------

# 查询Cache的刷新周期。

domino:~# ./storcli64 /c0 show cacheflushint
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10
---------------------------

7.7.2.10 查询和设置物理硬盘初始化功能

命令功能

设置物理硬盘初始化功能,查询初始化进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看初始化进度

l     start:开始初始化

l     stop:结束初始化

 

以上涉及的各个ID的查询方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 初始化slot3硬盘,并查询初始化进度。

domino:~# ./storcli64 /c0/e252/s3 start initialization
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show initialization
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------

7.7.2.11 查询和设置RAID重构/回拷/系统巡检功能

命令功能

暂停、继续、停止RAID重构/回拷/系统巡检,并查询进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action function

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看进度

l     pause:暂停进程

l     resume:继续执行

l     stop:停止进程

function

要处理的进程

l     rebuild:RAID重构

l     copyback:回拷

l     patrolread:系统巡检

 

以上涉及的各个ID的查询方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查看RAID重构进度。

domino:~# ./storcli64 /c0/e252/s4 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Staus Estimated Time Left
------------------------------------------------------
/c0/e252/s4 9 In progress 12 Minutes
------------------------------------------------------

# 暂停RAID重构。

domino:~# ./storcli64 /c0/e252/s4 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Status Succeeded.

7.7.2.12 查询和设置Smart扫描周期

命令功能

查询、设置Smart扫描周期。

命令格式

命令

说明

storcli64 /ccontroller_id set smartpollinterval=value

设置Smart扫描周期。

storcli64 /ccontroller_id show smartpollinterval

查询Smart扫描周期。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

value

Smart扫描周期

单位为s。

 

查看RAID控制卡ID的方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置Smart扫描周期为“60s”。

domino:~# ./storcli64 /c0 set smartpollinterval=60
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------

7.7.2.13 查询和设置一致性校验参数

命令功能

查询、设置一致性检查参数。

命令格式

命令

说明

storcli64 /ccontroller_id[/vvd_id]show cc

查询一致性检查参数。

storcli64 /ccontroller_id/vvd_id start cc force

开始进行一致性检查。

storcli64 /ccontroller_id/vvd_id action cc

暂停/停止/继续执行一致性检查。

storcli64 /ccontroller_id set consistencycheck|cc=[off|seq|conc] [delay=value] starttime=time excludevd=evd_id

设置一致性自动检查参数。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

要操作的RAID的ID

-

action

要执行的操作

l     pause:暂停

l     resume:继续执行

l     stop:停止

cc

将一致性检查设置为顺序模式或并行模式,或关闭一致性检查。

l     off:关闭一致性检查

l     seq:顺序模式

l     conc:并行模式

value

一致性检查周期

-

time

一致性检查起始时间

例如:2016/07/14 22

说明

起始时间单位为“时”。

evd_id

不进行一致性检查的虚拟磁盘ID

-

 

以上涉及的各个ID的查询方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

show命令中不带/vvd_id时,表示查询自动CC参数。

show命令中带/vvd_id时,表示查询CC进度。

使用实例

# 设置一致性自动检查参数。

domino:~# ./storcli64 /c0 set cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------
Ctrl_Prop Value
------------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2016/07/14 22:00:00
CC ExcludeVD(0) Success
------------------------------------

# 查询CC进度。

domino:~# ./storcli64 /c0/v1 show cc
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimited Time Left
-----------------------------------------------------------
0 CC - Not in progress -
-----------------------------------------------------------

7.7.2.14 设置热备盘

命令功能

设置全局热备盘和局部热备盘。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=vd_id]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

vd_id

局部热备盘所属虚拟磁盘的ID

 

以上涉及的各个ID的查询方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置slot 3硬盘为全局热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.

# 设置slot 3硬盘为vd0的局部热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive dgs=0
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.

7.7.2.15 设置启动项

命令功能

设置虚拟磁盘或物理硬盘为启动项。

命令格式

storcli64 /ccontroller_id/vvd_id set bootdrive=on

storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

vd_id

待设置的虚拟磁盘的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

 

以上涉及的各个ID的查询方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置VD0为启动项。

domino:~# ./storcli64 /c0/v0 set bootdrive=on
Controller = 0
Status = Success
Description = Noe
Detailed Status :
===============
----------------------------------------
VD Property Value Staus ErrCd ErrMsg
----------------------------------------
0 Boot Drive On Success 0 -
----------------------------------------

# 设置slot 7硬盘为启动项。

domino:~# ./storcli64 /c0/e252/s7 set bootdrive=on
Controller = 0 
Status = Success
Description = Noe
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
BootDrive PD:252_7
-------------------

7.7.2.16 设置硬盘状态

命令功能

设置硬盘状态。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

state

要设置的硬盘状态

l     online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。

l     offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。

l     jbod:通过该参数可以将硬盘设置为直通硬盘。

l     good:

     ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置;

     JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。

l     good:将硬盘设为空闲盘

force

强制设置硬盘状态,为可选参数。

如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force。

-

 

以上涉及的各个ID的查询方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。

domino:~# ./storcli64 /c0/e0/s1 set good
Controller = 0
Status = Success
Description = Set Drive Good Succeeded.

7.7.2.17 设置RAID组访问策略

命令功能

设置RAID的读写策略。

命令格式

storcli64 /ccontroller_id/vraid_id set accesspolicy=mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

mode

RAID读写策略

l     rw:可读可写

l     blocked:禁止访问

l     ro:只读访问

 

以上涉及的各个ID的查询方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置RAID读写策略为“rw”。

domino:~# ./storcli64 /c0/v0 set accesspolicy=rw
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 AccPolicy RW Success 0 -
---------------------------------------

7.7.2.18 设置RAID组的I/O策略

命令功能

设置RAID组的I/O策略。

命令格式

storcli64 /ccontroller_id/vraid_id set iopolicy=mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAID的ID

-

mode

设置RAID组的I/O策略

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

 

以上涉及的各个ID的查询方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。

使用实例

# 设置RAID组的I/O策略为“direct”。

[root@linux ~]# storcli64 /c0/v1 set iopolicy=direct
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.14.0-115.el7a.0.1.aarch64
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
----------------------------------------
VD Property Value  Status  ErrCd ErrMsg
----------------------------------------
 1 IoPolicy Direct Success     0 -
----------------------------------------

7.7.2.19 设置硬盘Cache状态

命令功能

设置RAID组成员盘的Cache状态。

命令格式

storcli64 /ccontroller_id/vvd_id set pdcache=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

RAID组的ID

-

action

要执行的操作

l     on:打开硬盘Cache

l     off:关闭硬盘Cache

l     default:将硬盘Cache设置为默认状态

 

以上涉及的各个ID的查询方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 打开ID为0的RAID组的硬盘Cache。

./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
---------------------------------------
VD Property Value Status  ErrCd ErrMsg
---------------------------------------
 0 PdCac    On    Success     0 -
---------------------------------------

7.7.2.20 设置RAID组的Cache读写策略

命令功能

设置RAID组的Cache读写策略。

命令格式

命令

说明

storcli64 /ccontroller_id/vraid_id set wrcache=wrmode

设置Cache写策略

storcli64 /ccontroller_id/vraid_id set rdcache=rdmode

设置Cache读策略

 

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAID组的ID

-

wrmode

设置Cache写策略

l     wt:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     wb:控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”策略。

rdmode

设置Cache读策略

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

 

以上涉及的各个ID的方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置Cache读写模式为“wt”。

domino:~# ./storcli64 /c0/v0 set wrcache=wt
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 wrCache WT Success 0 -
---------------------------------------

7.7.2.21 设置紧急热备功能

命令功能

设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。

命令格式

storcli64 /ccontroller_id set eghs eug=state

storcli64 /ccontroller_id set eghs smarter=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

state

紧急热备功能的启用状态

l     on:启用

l     off:禁用

 

查看RAID控制卡ID的方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。

domino:~# ./storcli64 /c0 set eghs eug=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------
Ctrl_Prop Value
------------------
EmergencyUG ON
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
EmergencySmarter ON
-----------------------

7.7.2.22 设置RAID前台初始化模式

命令功能

设置RAID前台初始化模式。

命令格式

storcli64 /ccontroller_id/vraid_id start mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

mode

前台初始化模式

l     init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。

l     init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。

 

以上涉及的各个ID的查询方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 快速初始化RAID。

domino:~# ./storcli64 /c0/v0 start init
Controller = 0
Status = Success
Description = Start INIT Operation Success

7.7.2.23 设置硬盘直通功能

命令功能

设置RAID控制卡的硬盘直通功能的使能情况,并指定直通硬盘。

命令格式

storcli64 /ccontroller_id set jbod=state

storcli64 /ccontroller_id/eenclosure_id/sslot_id set JBOD

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

state

RAID控制卡JBOD功能的使能情况

l     on

l     off

 

以上涉及的各个ID的查询方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 使能RAID控制卡的硬盘直通功能,并设置slot 7硬盘为直通盘。

domino:~# ./storcli64 /c0 set jbod=on
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
---------------- 
Ctrl_Prop Value 
---------------- 
JBOD      ON 
----------------
domino:~# ./storcli64 /c0/e252/s7 set JBOD
Controller = 0 
Status = Success 
Description = Set Drive JBOD Succeeded.

7.7.2.24 设置硬盘定位指示灯状态

命令功能

点亮和熄灭指定硬盘的定位指示灯。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。

slot_id

物理硬盘槽位编号

可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。

action

要执行的操作

l     start:点亮硬盘的定位指示灯。

l     stop:熄灭硬盘的定位指示灯。

 

以上涉及的各个ID的查询方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 点亮slot 7硬盘的定位指示灯。

domino:~# ./storcli64 /c0/e252/s7 start locate
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.

7.7.2.25 设置硬盘PowerSave功能

命令功能

设置空闲硬盘和热备盘的省电模式。

命令格式

storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID。

state

省电模式的启用状态。

l     on:启用

l     off:禁用

disktype

硬盘类型。

l     1:空闲硬盘

l     2:热备盘

time

等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。

单位为minutes。

 

查看RAID控制卡ID的方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置空闲硬盘的省电模式。

domino:~# ./storcli64 /c0 set ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
SpnDwnUncDrv Enable
SpnDwnTm 30 minutes
--------------------------

7.7.2.26 设置后台资源占用率

命令功能

设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。

命令格式

storcli64 /ccontroller_id set action=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要设置的项目

l     bgirate:后台初始化速率

l     ccrate:一致性校验速率

l     prrate:硬盘巡检速率

l     rebuildrate:RAID重构速率

l     reconrate:RAID扩容和迁移速率

value

后台任务资源占用率

1~100

 

查看RAID控制卡ID的方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置硬盘巡检速率为“30%”。

domino:~# ./storcli64 /c0 set prrate=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
Patrol Read Rate 30%
-----------------------

7.7.2.27 设置自动恢复热备盘状态

命令功能

对热备盘进行插拔后,热备盘状态变为Ubad,设置自动恢复热备盘状态后,热备盘状态会自动恢复成hotspare,若不设置自动恢复热备盘状态,则需要手动恢复热备盘状态。

命令格式

storcli64 /ccontroller_id set restorehotspare=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

state

设置启用或禁用自动恢复热备盘状态

on:启用自动恢复热备盘状态

off:禁用自动恢复热备盘状态

 

查看RAID控制卡ID的方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 启用热备盘状态自动恢复

# 关闭热备盘状态自动恢复

7.7.2.28 设置BIOS Stop on Error功能

命令功能

设置控制器BIOS在检测到异常时停止继续启动的功能。

命令格式

storcli64 /ccontroller_id set bios mode=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要执行的操作

l     soe:控制器BIOS在检测到异常时停止启动

l     ie:忽略检测到的异常

 

查看RAID控制卡ID的方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 开启Stop on error功能。

domino:~# ./storcli64 /c0 set bios mode=soe
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------

7.7.2.29 通过增加成员盘可用容量扩容RAID

命令功能

RAID有2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

命令格式

storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要扩容的RAID的ID

capacity

扩容后的容量

expandarray

当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。

 

以上涉及的各个ID的查询方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查询VD的可扩展容量。

[root@localhost ~]# storcli64 /c0/v1 show expansion 
CLI Version = 007.1416.0000.0000 July 24, 2020 
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64 
Controller = 0 
Status = Success 
Description = None 
 
 
EXPANSION INFORMATION : 
===================== 
 
-------------------------------------------- 
VD      Size OCE NoArrExp WithArrExp Status 
-------------------------------------------- 
 1 10.000 GB Y   3.627 TB 5.447 TB   - 
-------------------------------------------- 
 
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion 
 VD=Virtual Drive | NoArrExp - Without Array Expansion

说明

如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。

# 将VD0的容量扩大“200GB”。

domino:~# ./storcli64 /c0/v0 expand size=200GB
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
0 100.0 GB 457.861 GB 200.0 GB 201.458 GB 44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %

说明

RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。

7.7.2.30 通过增加新盘扩容或迁移RAID

命令功能

RAID有2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

当增加新盘后,可进行RAID级别迁移。

命令格式

storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

vd_id

要操作的RAID的ID

slot_id

要加入RAID的新硬盘的槽位号

level

增加硬盘后RAID的级别

l     与原RAID级别相同时,该命令为扩大RAID容量。

l     与原RAID级别不同时,该命令为RAID级别迁移。

 

以上涉及的各个ID的查询方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 在RAID 0中增加slot 2硬盘扩容。

domino:~# ./storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 13 Minutes
-------------------------------------------------------

# 单盘RAID 0加盘迁移至RAID 1。

domino:~# ./storcli64 /c0/v0 start migrate type=r1 option=add drives=252:3
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 14 Minutes
-------------------------------------------------------

7.7.2.31 查询和清除PreservedCache数据

命令功能

查询和清除PreservedCache数据。

命令格式

storcli64 /ccontroller_id show preservedcache

storcli64 /ccontroller_id/vvd_id delete preservedcache force

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要操作的RAID的ID

 

以上涉及的各个ID的查询方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查询PreservedCache。

domino:~# ./storcli64 /c0 show preservedcache
Controller = 0
Status = Success
Description = No Virtual Drive has Preserved Cache Data.

7.7.2.32 升级硬盘FW

命令功能

升级硬盘的FW。

命令格式

./storcli64 /ccontroller_id /eenclosure_id/sslot_id download src=FW_name.bin

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

FW_name

硬盘FW的名称

 

以上涉及的各个ID的查询方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用实例

#升级硬盘FW。

[root@localhost ~]# ./storcli64 /c0/e64/s5 download src=5200_D1MU004_Releasefullconcatenatedbinary.bin
Starting microcode update  .....please wait...
Flashing PD image  ..... please wait...
CLI Version = 007.0504.0000.0000 Nov 22,2017
Operation system = Linux 3.10.0-514.el7.x86_64
Controller = 0 
Status = Success 
Description = Firmware Download succeeded. 
 
Drive Firmware Download : 
======================== 
-------------------------------------------------------------------------------- 
Drive     Status  ErrCd    ErrMsg 
-------------------------------------------------------------------------------- 
/c0/e64/s5 Success   0        -
--------------------------------------------------------------------------------

7.7.2.33 手动重构RAID

命令功能

手动重构RAID组。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row

storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

要加入Array的物理硬盘槽位编号

DG

硬盘发生故障的DG的ID

Arr

硬盘发生故障的Array的ID

Row

硬盘发生故障的Array的row number

 

以上涉及的各个ID的查询方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

重构RAID分3个步骤进行:

1.通过./storcli64 /c0 show 命令,查询故障硬盘的DG、Arr和Row所对应的数字。

2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。

3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID。

使用实例

# 将硬盘加入RAID组。

[root@localhost ~]# storcli64 /c0/e252/s1 insert dg=0 array=0 row=0
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = Insert Drive Succeeded.

# 手动重构RAID。

[root@localhost ~]# storcli64 /c0/e252/s1 start rebuild
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

7.7.2.34 收集和清除RAID控制卡日志

命令功能

收集和清除RAID控制卡的日志。

命令格式

storcli64 /ccontroller_id show termlog

storcli64 /ccontroller_id delete termlog

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

 

查询RAID控制卡ID的查询方法请参见7.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 收集RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19  6:48:11: C0:TTY History buffer cleared
 
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None

# 删除RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 delete termlog
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------------------
Ctrl Method Result
----------------------------
   0 Delete Termlog deleted
----------------------------

7.7.2.35 查看/导入/清除外部配置

命令功能

指导用户查看、导入或者清除RAID控制卡的外部配置。

命令格式

storcli64 /ccontroller_id/fall action

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

action

要执行的操作

l     import preview:查看外部配置

l     import:导入外部配置

l     delete:清除外部配置

 

使用指南

使用实例

# 查看RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall import preview
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-957.el7.x86_64
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
 
 
FOREIGN PREVIEW :
===============
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Total foreign drive groups = 0

# 删除RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall delete
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-957.el7.x86_64
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration


8 Avago SAS3516

关于本章

介绍Avago SAS3516的外观、特性以及配置方法。

本章节涉及的截图以5.140.00-3515 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

8.1  概述

8.2  功能

8.3  初始配置

8.4  常用配置

8.5  故障处理

8.6  管理界面介绍

8.7  OS命令行工具

8.1 概述

AVAGO MegaRAID SAS3516 RAID 控制标卡(以下简称Avago SAS3516)是基于MegaRAID架构的16端口12Gbit/s SAS控制器,并采用PCIe3.0x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

Avago SAS3516用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

Avago SAS3516支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考8.2.16 硬盘直通。

Avago SAS3516自带的Cache对标卡性能的提升有非常重要的作用,主要体现在:

l     在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

l     在读数据时,如果可以直接在Cache中命中的话,将减少硬盘寻道操作,降低响应时间,提升了数据读速度。

说明

l     Cache数据的掉电保护依赖于与RAID控制卡相连的超级电容。超级电容的外形、连接方式、安装方式可参考各服务器的用户指南。

l     Avago SAS3516不支持flush write verify功能。

Avago SAS3516结构如图8-1所示。

图8-1 Avago SAS3516标卡

 

1

超级电容接口

2

单板电源指示灯

3

系统心跳灯

4

Avago SAS3516 RAID控制卡写入/读出NAND Flash的状态指示灯

5

超级电容错误状态指示灯

6

miniSAS接口(port A)

7

miniSAS接口(port B)

8

miniSAS接口(port C)

9

miniSAS接口(port D)

-

-

 

Avago SAS3516单板指示灯说明如表8-1所示。

表8-1 RAID控制卡单板指示灯说明

指示灯

颜色

说明

单板电源指示灯

绿色

l     亮:电源正常

l     灭:电源关闭或异常。

超级电容错误状态指示灯

红色

l     亮:超级电容状态异常。

l     灭:超级电容正常或不在位。

Avago SAS3516写入/读出NAND Flash的状态指示灯

绿色

l     亮:Avago SAS3516 RAID控制卡当前处于写入/读出NAND Flash的状态。

l     灭:Avago SAS3516 RAID控制卡当前不处于写入/读出NAND Flash的状态。

系统心跳灯

绿色

l     灯以2s周期闪烁:Avago SAS3516 RAID控制卡正在工作。

l     灯灭:Avago SAS3516 RAID控制卡未开始运行或FW运行异常。

 

8.2 功能

8.2.1 支持RAID 0/1/5/6/10/50/60

Avago SAS3516支持的硬盘、虚拟磁盘、硬盘组数量分别为:

l     最多支持32或240个硬盘(Avago SAS3516支持2种规格的RAID Key,分别支持32盘和240盘)。

说明

该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

l     最多支持64个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

l     最多支持64个硬盘组(即配置界面中看到的“Drive Group”),每个硬盘组最多支持32或240个硬盘。

l     每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

Avago SAS3516支持的RAID类型及对应的硬盘个数如表8-2所示。

表8-2 RAID-硬盘参数

RAID级别

支持硬盘数

支持子组数

子组支持硬盘数

允许坏盘数

RAID 0

1~32

不涉及

不涉及

0

RAID 1

2~32(偶数)

硬盘数÷2

RAID 5

3~32

1

RAID 6

3~32

2

RAID 10

4~32/240(偶数)

2~8个RAID 1

2~16/32(偶数)

子组数

RAID 50

6~32/240

2~8个RAID 5

3~16/32

子组数

RAID 60

6~32/240

2~8个RAID 6

3~16/32

子组数x2

 

说明

l     不支持RAID 00级别。

l     子组数:子RAID的个数,例如RAID 50由两个RAID 5组成,则子组数为2。

l     RAID 10、RAID 50每个子组中最多允许1个坏盘。

l     RAID 60每个子组中最多允许2个坏盘。

l     根据配置的key类型不同,RAID 10、50、60支持的硬盘数有所不同。

l     RAID10、50、60包含的总硬盘数由子组数和子组支持的硬盘数共同决定。

8.2.2 硬盘热备份

Avago SAS3516标卡的热备功能分为两种:热备盘和紧急备份。

热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     Global HSP:即全局热备盘,为控制标卡上所有已配置的RAID所共有,1块控制标卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

配置方法请参看8.4.1.3 配置全局热备盘。

l     Dedicated HSP:即局部热备盘,为控制标卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。配置方法请参看8.4.1.4 配置局部热备盘。

热备盘容量需大于等于成员盘容量。

说明

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     除RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

紧急备份

使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。

紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。

紧急备份有两种情况,对应了两种设置:

l     当成员盘fail时,空闲盘替代成员盘作为紧急备份。

l     当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。

具体配置方法请参看8.4.2 设置紧急热备功能。

8.2.3 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

说明

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考8.4.9 导入/清除外部配置章节恢复RAID组,无需更换硬盘。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

8.2.4 回拷

具备冗余功能的RAID的一块成员盘故障之后,热备盘自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。

8.2.5 硬盘分条

条带化

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待。

条带化技术是一种自动的将I/O的负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

影响条带化效果的因素有:

l     条带宽度:指同时可以并发读或写的条带数量。

这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。

l     条带大小:指写在每块硬盘上的条带数据块的大小。

分条

硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。

Avago SAS3516支持多种条带大小,包括64KB、128KB、256KB、512KB及1MB,默认条带大小为256KB。

配置RAID时一般采用默认值。

8.2.6 RAID级别迁移

RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见8.2.6 RAID级别迁移。

当前支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1、RAID 5、RAID 6

l     RAID 1迁移到RAID 0、RAID 5、RAID 6

l     RAID 5迁移到RAID 0、RAID 6

l     RAID 6迁移到RAID 0、RAID 5

RAID迁移对硬盘数量的要求如表8-3所示。

表8-3 RAID迁移的硬盘数量说明

迁移RAID级别

原始硬盘组硬盘数量

迁移后的硬盘组硬盘数量

RAID 0迁移 RAID 1

1~32

2~32(偶数)

RAID 0迁移到RAID 5

1~32

3~32

RAID 0迁移到RAID 6

1~32

3~32

RAID 1迁移到RAID 0

2~32(偶数)

2~32

RAID 1迁移到RAID 5

2~32(偶数)

3~32

RAID 1迁移到RAID 6

2~32(偶数)

3~32

RAID 5迁移到RAID 0

3~32

3~32

RAID 5迁移到RAID 6

3~32

3~32

RAID 6迁移到RAID 0

3~32

3~32

RAID 6迁移到RAID 5

3~32

3~32

 

8.2.7 初始化

VD初始化

创建VD(Virtual Drive)后,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。Avago SAS3516提供了多种相应的初始化方式:

l     快速初始化:属于前台初始化,Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。

l     慢速初始化:属于前台初始化,Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。

l     后台初始化:目的是使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。

     对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。

     对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。

说明

l     一致性校验和后台初始化通常会对性能造成一定损失,直至该操作完成。

l     一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。

硬盘初始化

硬盘可执行的初始化包括:

l     Initialize Drive:对前100MByte空间进行全写0操作。

l     Drive Erase:对全部空间进行写0操作。

说明

不支持停止SATA SSD的擦除和初始化过程。

8.2.8 可用容量扩展

Avago SAS3516支持的容量扩展方式有两种:

l     通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。

详细操作方法可参考8.4.3 添加新硬盘到RAID。

l     通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。

详细操作方法可参考8.4.4 扩展Virtual Drives可用空间。

说明

l     只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。

l     RAID10、RAID 50、RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。

l     当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见8.7.2.27 通过增加成员盘可用容量扩容RAID。

8.2.9 安全数据擦除

安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘和硬盘的安全擦除功能:

l     Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。

l     Normal:对虚拟磁盘或硬盘进行三轮擦除动作。

l     Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。

安全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。

Avago SAS3516支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。

8.2.10 写洞保护

系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况,称之为写洞。

将写失败的数据备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:

l     RAID  1、RAID 5、RAID 6、RAID 10、RAID 50,RAID 60支持写洞保护,Write hole数据都保存在掉电保护区,不需要开关控制。

     掉电保护装置可用时,Write hole数据异常掉电重启后会进入恢复流程。

     掉电保护装置不可用时,记录在掉电保护区的Write hole数据异常掉电后丢失,不做Write hole恢复。

l     RAID 1、RAID 5掉线盘时不可做写洞保护。

l     RAID 6掉线一块盘时可做写洞保护。

l     RAID 10、RAID 50、RAID 60部分降级时可做写洞保护,按子组恢复数据。完全降级时不可做写洞保护。

l     不对RAID 0做写洞保护。

8.2.11 读写高速缓存

Avago SAS3516支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:

l     Read:读策略选择“Read Ahead”模式,Avago SAS3516在读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,提升了数据读速度。

l     Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,Avago SAS3516就向HOST发出数据传输完成的信号。

在写数据时,直接写入Cache,当写入的数据积累到一定程度,Avago SAS3516才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

8.2.12 数据掉电保护

数据写入高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用高速缓存来提升系统性能。

l     开启高速缓存可提升整机写性能,当服务器写压力减小或高速缓存将写满时,数据再由高速缓存写入硬盘。

l     开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。

为了提升整机的高读写性能和高速缓存中数据的安全,可为Avago SAS3516配置超级电容。

超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将高速缓存中的数据写入超级电容模块中的NAND Flash中。

超级电容电量校准

由于数据保护需要超级电容的配合,为了记录超级电容的放电曲线,以便RAID控制卡了解超级电容的状态,例如最大和最小电压等,同时为了延长超级电容的寿命,RAID控制卡默认启动超级电容自动校准模式。

RAID控制卡通过如下所述的三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。

1.     RAID控制卡将超级电容的电量充到最大值。

2.     自动启动校准进程,将超级电容完全放电。

3.     重新开始充电,直至达到最大电量。

超级电容电量校准过程中,RAID控制卡写策略自动调整为“WT”模式以保证数据完整性,此时RAID控制卡性能会降低。电量校准的时间取决于超级电容充放电速度。

8.2.13 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     动态扩盘

l     完全初始化或后台初始化

l     一致性校验

8.2.14 自动S.M.A.R.T扫描

S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据受到损失。

RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。

8.2.15 硬盘节能

RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。

默认情况下,硬盘节能功能处于开启状态。

当硬盘节能功能开启且在指定时间内没有I/O访问时,RAID控制卡下挂载的“Uncongfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。

8.2.16 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

Avago SAS3516可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在Avago SAS3516下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。

Avago SAS3516支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

如果需要使能硬盘直通功能,请参见8.4.11 设置JBOD模式。

说明

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

8.2.17 硬盘漫游

硬盘漫游是指在同一控制器下移动物理硬盘。控制器将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。

要使用硬盘漫游,按以下步骤操作:

1.     关闭操作系统。

2.     将服务器下电。

3.     将物理硬盘移动到背板所需位置。

4.     执行安全检查。确保正确插入物理硬盘。

5.     将服务器上电。

6.     控制器从物理硬盘上的配置数据中检测到RAID配置。

8.2.18 导入外部配置

如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。

此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。

8.2.19 硬盘故障记录

Avago SAS3516提供硬盘故障记录功能:

l     使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。

l     禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,Avago SAS3516会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。

维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。

l     使能该功能后,当硬盘故障时,会点亮Fault指示灯。

l     禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。

默认情况下,Avago SAS3516使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。具体操作方法请参见查看并修改控制器高级属性

8.3 初始配置

BIOS中“Boot Type”设置为“EFI Boot Type”模式时,打开的管理界面如下所述。

文档中描述的关于Avago SAS3516的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。

如果服务器已经在Legacy或者UEFI模式下安装OS,切换启动方式后将无法进入操作系统,需要切换为安装时的启动方式再进入,如操作系统需要重装,请根据实际情况选择UEFI或Legacy模式安装OS。

当服务器配置了较多的可启动设备时,在Legacy模式下可能出现部分设备无法正常启动,建议使用UEFI模式启动,UEFI模式较Legacy模式可以支持更多可启动设备;如需要使用Legacy模式,建议根据实际业务场景禁用串口重定向或网卡PXE等,确保操作系统可以正常启动,具体操作请参考BIOS参数参考的设置网卡的PXE和设置串口重定向章节。

8.3.1 进入管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

                                步骤 1     通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 2     重启服务器

                                步骤 3     重启过程中,当出现如图8-2所示界面时,按“Delete”,进入输入密码界面。

图8-2 BIOS启动界面

 

                                步骤 4     输入密码并按“Enter”。

进入如图8-3所示界面。

图8-3 Setup Utility界面

 

                                步骤 5     通过“”或“→ ”进入“Advanced”页签,如图8-4所示。

图8-4 “Advanced”页签

 

说明

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见8.5.4 Device Manager中RAID控制卡状态显示Not Healthy进行修复。

                                步骤 6     选择“Avago <SAS3516> Configuration Utility”,按“Enter”。

进入Avago SAS3516主界面,如图8-5图8-6所示,界面参数如表8-4所示。

图8-5 Avago SAS3516主界面(1)

 

图8-6 Avago SAS3516主界面(2)

 

表8-4 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

说明

Avago SAS3516不支持在此界面升级FW。

Silence Alarm

板载蜂鸣器的使能状态。

说明

Avago SAS3516未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

8.3.2 创建RAID 0

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3516支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参看8.2.1 支持RAID 0/1/5/6/10/50/60。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见8.3.1 进入管理界面。

                                步骤 2     进入“Create Virtual Drive”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图8-7图8-8所示,参数说明如表8-5所示。

图8-7 Create Virtual Drive(1)

 

图8-8 Create Virtual Drive(2)

 

表8-5 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

解除映射能力。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。

                                步骤 4     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如图8-9所示,界面参数如表8-6所示。

图8-9 添加成员盘

 

表8-6 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 0支持的硬盘个数为1~32。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

4.     按表8-6所述配置过滤条件。

5.     选择“Apply Changes”并按“Enter”。

6.     选择“Confirm”并按“Enter”。

7.     选择“Yes”并按“Enter”。

8.     按“Enter”完成成员盘配置。

                                步骤 5     配置虚拟磁盘属性。

按照表8-5所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照8.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 6     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 7     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

8.3.3 创建RAID 1

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3516支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参看8.2.1 支持RAID 0/1/5/6/10/50/60。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见8.3.1 进入管理界面。

                                步骤 2     进入“Create Virtual Drive”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图8-10图8-11所示,参数说明如表8-7所示。

图8-10 Create Virtual Drive(1)

 

图8-11 Create Virtual Drive(2)

 

表8-7 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

解除映射能力。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。

                                步骤 4     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如图8-12所示,界面参数如表8-8所示。

图8-12 添加成员盘

 

表8-8 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 1支持的硬盘个数为2~32(偶数)。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

4.     按表8-8所述配置过滤条件。

5.     选择“Apply Changes”并按“Enter”。

6.     选择“Confirm”并按“Enter”。

7.     选择“Yes”并按“Enter”。

8.     按“Enter”完成成员盘配置。

                                步骤 5     配置虚拟磁盘属性。

按照表8-7所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照8.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 6     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 7     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

8.3.4 创建RAID 5

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3516支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参看8.2.1 支持RAID 0/1/5/6/10/50/60。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见8.3.1 进入管理界面。

                                步骤 2     进入“Create Virtual Drive”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图8-13图8-14所示,参数说明如表8-9所示。

图8-13 Create Virtual Drive(1)

 

图8-14 Create Virtual Drive(2)

 

表8-9 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

解除映射能力。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 5”,并按“Enter”。

                                步骤 4     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如图8-15所示,界面参数如表8-10所示。

图8-15 添加成员盘

 

表8-10 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 5支持的硬盘个数为3~32。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

4.     按表8-10所述配置过滤条件。

5.     选择“Apply Changes”并按“Enter”。

6.     选择“Confirm”并按“Enter”。

7.     选择“Yes”并按“Enter”。

8.     按“Enter”完成成员盘配置。

                                步骤 5     配置虚拟磁盘属性。

按照表8-9所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照8.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 6     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 7     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

8.3.5 创建RAID 6

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3516支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参看8.2.1 支持RAID 0/1/5/6/10/50/60。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见8.3.1 进入管理界面。

                                步骤 2     进入“Create Virtual Drive”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图8-16图8-17所示,参数说明如表8-11所示。

图8-16 Create Virtual Drive(1)

 

图8-17 Create Virtual Drive(2)

 

表8-11 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

解除映射能力。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 6”,并按“Enter”。

                                步骤 4     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如图8-18所示,界面参数如表8-12所示。

图8-18 添加成员盘

 

表8-12 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 6支持的硬盘个数为3~32。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

4.     按表8-12所述配置过滤条件。

5.     选择“Apply Changes”并按“Enter”。

6.     选择“Confirm”并按“Enter”。

7.     选择“Yes”并按“Enter”。

8.     按“Enter”完成成员盘配置。

                                步骤 5     配置虚拟磁盘属性。

按照表8-11所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照8.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 6     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 7     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

8.3.6 创建RAID 10

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3516支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参看8.2.1 支持RAID 0/1/5/6/10/50/60。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见8.3.1 进入管理界面。

                                步骤 2     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图8-19图8-20所示,参数说明如表8-13所示。

图8-19 Create Virtual Drive(1)

 

图8-20 Create Virtual Drive(2)

 

表8-13 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

解除映射能力。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。

                                步骤 4     创建第1个Span。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如图8-21所示,界面参数如表8-14所示。

图8-21 为Span1添加成员盘

 

表8-14 添加成员盘的参数说明

参数

参数说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     按表8-14所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 10支持2~8个Span,每个Span支持的硬盘数为2~16/32(偶数),且各个Span的硬盘数量必须保持一致。

l     RAID 10支持的硬盘总数为4~32/240(偶数)。(取决于RAID Key的规格。)

l     当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     选择“Confirm”并按“Enter”。

7.     选择“Yes”并按“Enter”。

8.     按“Enter”完成成员盘配置。

                                步骤 5     创建第2个Span。

1.     当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如图8-22所示。

图8-22 RAID 10的配置界面

 

2.     选择“Add More Spans”并按“Enter”。

3.     选择“Select Drives”并按“Enter”。

4.     在打开的列表中选择第2个Span的成员盘。

5.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

6.     按“Enter”完成成员盘配置。

                                步骤 6     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。

说明

RAID10至少需要创建2个Span,最多可以创建8个Span。

                                步骤 7     配置虚拟磁盘属性。

按照表8-13所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照8.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 8     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

使此处的状态变为“Enabled”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 9     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

8.3.7 创建RAID 50

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3516支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参看8.2.1 支持RAID 0/1/5/6/10/50/60。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见8.3.1 进入管理界面。

                                步骤 2     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图8-23图8-24所示,参数说明如表8-15所示。

图8-23 Create Virtual Drive(1)

 

图8-24 Create Virtual Drive(2)

 

表8-15 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

解除映射能力。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 50”,并按“Enter”。

                                步骤 4     创建第1个Span。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如图8-25所示,界面参数如表8-16所示。

图8-25 添加成员盘

 

表8-16 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     按表8-16所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 50支持2~8个Span,每个Span支持的硬盘数为3~16/32(取决于RAID Key的规格),且各个Span的硬盘数量必须保持一致。

l     RAID 50支持的硬盘总数为6~32/240(取决于RAID Key的规格)。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     创建第2个Span。

1.     当配置的级别为RAID 50时,需要配置多个Span,此时配置界面如图8-26所示。

图8-26 RAID 50的配置界面

 

2.     选择“Add More Spans”并按“Enter”。

3.     选择“Select Drives”并按“Enter”。

4.     在打开的列表中选择第2个Span的成员盘。

5.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 6     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。

说明

RAID50至少需要创建2个Span,最多可以创建8个Span。

                                步骤 7     配置虚拟磁盘属性。

按照表8-15所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照8.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 8     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 9     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

8.3.8 创建RAID 60

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3516支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     各RAID级别所需的硬盘数请参看8.2.1 支持RAID 0/1/5/6/10/50/60。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见8.3.1 进入管理界面。

                                步骤 2     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图8-27图8-28所示,参数说明如表8-17所示。

图8-27 Create Virtual Drive(1)

 

图8-28 Create Virtual Drive(2)

 

表8-17 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

解除映射能力。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 60”,并按“Enter”。

                                步骤 4     创建第1个Span。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如图8-29所示,界面参数如表8-18所示。

图8-29 添加成员盘

 

表8-18 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     按表8-18所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 60支持2~8个Span,每个Span支持的硬盘数为3~16/32(取决于RAID Key的规格),且各个Span的硬盘数量必须保持一致。

l     RAID 60支持的硬盘总数为6~32/240(取决于RAID Key的规格)。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过32/240(取决于RAID Key的规格)时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     创建第2个Span。

1.     当配置的级别为RAID 60时,需要配置多个Span,此时配置界面如图8-30所示。

图8-30 RAID 60的配置界面

 

2.     选择“Add More Spans”并按“Enter”。

3.     选择“Select Drives”并按“Enter”。

4.     在打开的列表中选择第2个Span的成员盘。

5.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 6     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。

说明

RAID60至少需要创建2个Span,最多可以创建8个Span。

                                步骤 7     配置虚拟磁盘属性。

按照表8-17所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照8.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 8     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 9     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

8.3.9 设置启动项

8.3.9.1 设置RAID控制卡下的启动项

请通过8.6.2.2 Controller Management的“Select Boot Device”选项设置启动项。

8.3.9.2 设置服务器的启动项

当一台服务器配置了单张RAID控制卡时,RAID控制卡下的硬盘启动项即为该服务器的硬盘启动项,具体设置方法请参见8.3.9.1 设置RAID控制卡下的启动项。

当服务器配置了多张RAID控制卡时,硬盘启动项需要在BIOS中进行设置,具体设置方法请参见BIOS主板参数参考的“设置服务器启动设备”章节。

8.4 常用配置

8.4.1 管理热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

Avago SAS3516控制标卡支持2种类型的热备盘:

l     Global Hotspare:即全局热备盘,为控制标卡上所有已配置的RAID所共有,1块控制标卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

l     Dedicated Hotspare:即局部热备盘,为控制标卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

说明

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     除RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

8.4.1.3 配置全局热备盘

操作步骤

                                步骤 1     登录管理界面,具体操作方法请参见8.3.1 进入管理界面。

                                步骤 2     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如图8-31所示。

图8-31 Drive Management

 

                                步骤 3     配置全局热备盘。

1.     选择“Operation ”并按“ Enter” 。

2.     选择“Assign Global Hot Spare Drive ”并按“ Enter” 。

3.     选择“Go”并按“Enter”。

4.     进入操作确认界面。

5.     选择“Confirm”并按“ Enter” 。

6.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully。

7.     按“Enter”完成配置并返回上级界面。

----结束

8.4.1.4 配置局部热备盘

操作步骤

说明

当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

                                步骤 1     登录管理界面,具体操作方法请参见8.3.1 进入管理界面。

                                步骤 2     进入“Drive Management”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如图8-32所示。

图8-32 Drive Management

 

                                步骤 3     配置局部热备盘。

1.     将“Operation”设置为“Assign Dedicated Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

打开当前存在的虚拟磁盘列表。

3.     选择要关联的虚拟磁盘并按“Enter”。

4.     选择“OK”按“Enter”。

5.     按“Enter”完成配置并返回上级界面。

----结束

8.4.1.5 删除热备盘

操作场景

当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

操作步骤

                                步骤 1     登录管理界面,具体操作方法请参见8.3.1 进入管理界面。

                                步骤 2     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如图8-33所示。

图8-33 Drive Management

 

                                步骤 3     删除热备盘。

1.     将“Operation”设置为“Unassign Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully。

5.     按“Enter”完成配置并返回上级界面。

----结束

8.4.2 设置紧急热备功能

操作步骤

                                步骤 1     登录管理界面,具体操作方法请参见8.3.1 进入管理界面。

                                步骤 2     进入“Advanced Controller Properties”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

3.     选择“Advanced Controller Properties”并按“Enter”。

进入“Advanced Controller Properties”界面,如图8-34图8-35所示。

图8-34 Advanced Controller Properties(1)

 

图8-35 Advanced Controller Properties(2)

 

                                步骤 3     设置紧急热备。

1.     选择“Spare”并按“Enter”。

2.     将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如图8-34所示。

图8-36 Advanced Controller Properties

 

3.     选择“Apply Changes”并按“Enter”。

4.     选择“OK”并按“Enter”,完成配置。

----结束

8.4.3 添加新硬盘到RAID

操作场景

 

注意

l     只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。

l     RAID10、RAID 50、RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

对系统的影响

增加硬盘扩容过程中,如果出现硬盘故障,会导致:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID。

请谨慎执行增加硬盘扩容操作。

必备事项

前提条件

添加硬盘扩容之前,需具备如下条件:

l     服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     已登录管理界面,具体操作请参见8.3.1 进入管理界面。

数据

操作之前建议先备份数据。

操作步骤

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”并按“Enter”。

进入虚拟磁盘选项界面,如图8-37所示。

图8-37 虚拟磁盘选项界面

 

                                步骤 2     添加新硬盘。

1.     选择要进行扩容的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如图8-38所示。

图8-38 Operation

 

3.     选择“Reconfigure Virtual Drives”并按“Enter”

4.     选择“Go”并按“Enter”。

5.     选择要扩容的RAID级别。

 

注意

增加硬盘扩容时,请保证该处的RAID级别与原级别一致。

6.     选择“Choose the Operation”,并按“Enter”。

进入硬盘选择界面,如图8-39所示。

图8-39 Choose the Operation

 

7.     选择要增加的硬盘,并按“Apply Changes”。

进入确认操作界面。

说明

l     增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。

l     RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。

8.     选择“Confirm”并按“Enter”。

9.     选择“OK”并按“Enter”。

进入如图8-40所示界面。

图8-40 选择操作

 

10.     选择“Start Operation”并按“Enter”。

显示操作成功。返回虚拟磁盘选项界面,验证扩容结果,如图8-41所示,表示RAID正在进行扩容。

图8-41 Virtual Drive Management

 

----结束

8.4.4 扩展Virtual Drives可用空间

操作场景

在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见8.3.1 进入管理界面。

                                步骤 2     进入要操作的虚拟磁盘界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如图8-42所示。

图8-42 Virtual Drive Management

 

                                步骤 3     扩容虚拟磁盘。

1.     将“Operation”设置为“Expand Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入虚拟磁盘扩容界面,如图8-43界面所示,界面参数如表8-19所示。

图8-43 Expand Virtual Drive

 

表8-19 参数说明

参数

参数说明

Current Capacity

虚拟磁盘当前容量。

Available Capacity

可用于扩展的容量。

Enter a Percentage of Available Capacity

输入扩容比例。

Capacity of Virtual Drive after Expansion

扩容后虚拟磁盘容量。

 

3.     设置扩容百分比。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully。

5.     按“Enter”完成配置并返还上级界面。

返回虚拟磁盘选项界面,验证扩容结果。

图8-44 查看扩容结果

 

----结束

8.4.5 迁移RAID级别

操作场景

随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。

在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。

对系统的影响

RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID。

请谨慎执行RAID级别迁移操作。

必备事项

前提条件

迁移RAID级别之前,需具备如下条件:

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     当前存在的硬盘个数满足目标RAID级别要求。

l     已登录管理界面,具体操作请参见8.3.1 进入管理界面。

Avago SAS3516RAID控制卡支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1、RAID 5、RAID 6

l     RAID 1迁移到RAID 0、RAID 5、RAID 6

l     RAID 5迁移到RAID 0、RAID 6

l     RAID 6迁移到RAID 0、RAID 5

RAID迁移对硬盘数量的要求如表8-3所示。

说明

l     当RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     迁移只支持增加与RAID组成员盘同类型同规格的硬盘。

l     为防止数据丢失,请在该操作之前备份当前RAID组的数据。

l     只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。

l     迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。

操作步骤

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”并按“Enter”。

进入虚拟磁盘选项界面,如图8-45所示。

图8-45 虚拟磁盘选项界面

 

                                步骤 2     选择RAID迁移的目标级别。

下面以将RAID 1迁移到RAID 5为例进行说明。

1.     选择要进行迁移的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如图8-46所示。

图8-46 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”。

4.     选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如图8-47所示。不设置时默认与原RAID组配置一致。

图8-47 Advanced...

 

5.     选择“Go”,并按“Enter”。

进入RAID配置界面,如图8-48所示。

图8-48 Reconfigure Virtual Drives(1)

 

6.     选择“New RAID Level”并按“Enter”。

打开RAID迁移的目标级别选择窗口,如图8-49所示。

图8-49 选择新的RAID级别

 

7.     选择“RAID 5”并按“Enter”。

                                步骤 3     添加硬盘。

1.     选择“Choose the operation”并按“Enter”。

打开硬盘选择窗口。

2.     选择要增加的硬盘并按“Enter”。

说明

RAID迁移对硬盘数量的要求请参见表8-3

3.     选择“Apply Changes”并按“Enter”。

弹出操作确认会话框。

4.     选择“Confirm”并按“Enter”。

5.     选择“Yes”并按“Enter”。

提示操作成功。

6.     按“Esc”返回图8-50界面。

图8-50 Reconfigure Virtual Drives(2)

 

                                步骤 4     RAID级别迁移。

1.     选择“Start Operation”并按“Enter”。

提示操作成功。

                                步骤 5     查看迁移结果。

1.     进入Virtual Drive Management界面,检查迁移结果,如图8-51所示,表示RAID正在进行迁移。

图8-51 查看迁移结果

 

说明

l     迁移过程中若重启服务器,该任务将在重启后继续进行。

l     迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。

2.     选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 1”变成“RAID 5”,RAID组容量增大,且“Status”状态显示为“Optimal”时,表示RAID迁移成功。

----结束

8.4.6 删除RAID

操作场景

 

注意

RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。

操作步骤

                                步骤 1     备份硬盘数据,并登录管理界面。具体操作方法请参见8.3.1 进入管理界面。

                                步骤 2     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如图8-52所示。

图8-52 Virtual Drive Management

 

                                步骤 3     删除虚拟磁盘。

1.     将“Operation”设置为“Delete Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully。

5.     按“Enter”完成配置并返回上级界面。

----结束

8.4.7 重构RAID

操作场景

介绍将带有外部配置的硬盘进行重构的操作方法,不带外部配置硬盘的重构方法请参见8.5.1.6 硬盘故障。

操作步骤

                                步骤 1     在“Main Menu”界面中选择“Drive Management”并按“Enter”。

                                步骤 2     选中要进行重构的硬盘,按“Enter”。

                                步骤 3     将“Operation”设置为“Make Unconfigured Good”。

                                步骤 4     选择“Go”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     按“Enter”完成配置。

硬盘状态变为“(Foreign),Unconfigured Good”。

                                步骤 6     清除外部配置,具体操作请参见8.4.9 导入/清除外部配置。

RAID组开始进行重构。

----结束

说明

当出现硬盘离线且RAID组可用时,为避免RAID组数据不一致,不能将离线的成员盘直接“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

8.4.8 查看RAID控制卡属性

操作场景

用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。

操作步骤

                                步骤 1     登录管理界面,具体操作方法请参见8.3.1 进入管理界面。

                                步骤 2     进入“Controller Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息,如图8-53图8-54所示,参数说明如表8-20所示。

图8-53 Controller Management(1)

 

图8-54 Controller Management(2)

 

表8-20 参数说明

参数

参数说明

Product Name

控制标卡名称。

Serial Number

控制标卡序列号。

Controller Status

控制标卡的工作状态。

Personality Mode

控制标卡的模式。

Select Device For Boot Order

设置控制标卡的启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。

PCI ID

控制标卡的PCI ID。

PCI Segment:Bus:Device:Fuction

控制标卡的PCI设备索引。

PCI Slot Number

控制标卡的PCI槽位号。

Package Version

控制标卡的套件版本。

Firmware Version

控制标卡的固件版本号。

NVDATA Version

控制标卡配置信息的版本号。

Supported Device Interfaces

控制标卡支持的设备接口。

Drive Count

控制标卡下挂载的硬盘个数。

Virtual Drive Count

控制标卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制器操作。

Advanced Controller Properties

查看和修改控制器的高级属性。

 

                                步骤 3     查看控制器高级属性。

1.     选择“Advanced Controller Properties”并按“Enter”。

进入控制器高级属性界面,如图8-55图8-56所示,参数说明如表8-21所示。

在该界面下,可查看并修改RAID控制卡的高级属性。

图8-55 Advanced Controller Properties (1)

 

图8-56 Advanced Controller Properties (2)

 

表8-21 参数说明

参数

说明

Cache and Memory

查看控制器Cache和Memory信息。

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

Spare

设置控制器热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

Avago SAS3516控制器标卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

容量对齐的模式。包括:

l     None

l     128MB

l     1GB

默认为“1GB”。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制器BIOS的使能情况。

ROC Temperature

控制器温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见8.4.9 导入/清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验

JBOD Mode

是否使能硬盘直通功能。

Write Verify

写校验。

Large IO Support

启用或禁用大型I/O支持功能。

Unmap Capability

解除映射能力。

Firmware Device Order

该功能开启后,设置为启动项的RAID组盘符为sda。

Apply Changes

保存配置。

 

----结束

8.4.9 导入/清除外部配置

操作场景

l     服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户需要的存储配置,可将该配置导入。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户不需要的存储配置,需要将该配置清空。

 

注意

l     如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!

l     为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

导入外部配置

                                步骤 1     登录管理界面,具体操作方法请参见8.3.1 进入管理界面。

                                步骤 2     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 3     选择“Configuration Management”并按“Enter”。

                                步骤 4     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如图8-57所示。

图8-57 Manage Foreign Configuration

 

                                步骤 5     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如图8-58所示。

图8-58 外部配置

 

                                步骤 6     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 7     选择“Confirm”并按“Enter”。

                                步骤 8     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 9     按“Enter”完成配置返回上级界面。

----结束

清除外部配置

                                步骤 1     登录管理界面,具体操作方法请参见8.3.1 进入管理界面。

                                步骤 2     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 3     选择“Configuration Management”并按“Enter”。

                                步骤 4     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如图8-59所示。

图8-59 Manage Foreign Configuration

 

                                步骤 5     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如图8-60所示。

图8-60 外部配置

 

                                步骤 6     选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 7     选择“Confirm”并按“Enter”。

                                步骤 8     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 9     单击“OK”完成配置返回上级界面。

----结束

8.4.10 创建多个VD(Virtual Drive)

该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID0存在一个VD为例(如图8-61所示),详细操作方法如下:

图8-61 Virtual Drive Management

 

                                步骤 1     按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如图8-62所示。

图8-62 Create Virtual Drive

 

                                步骤 2     将“Select Drives From”设置为“Free Capacity”,如图8-63所示。

图8-63 Create Virtual Drive

 

                                步骤 3     选择“Select Drive Groups”并按“Enter”。

显示当前存在的RAID组(Drive Group),如图8-64所示。

图8-64 Select Drive Groups

 

                                步骤 4     选择要创建多个VD的RAID组,并按“Enter”,如图8-65所示。

图8-65 Select Drive Groups

 

                                步骤 5     选择“Apply Changes”并按“Enter”。

提示操作成功。

                                步骤 6     选择“OK”并按“Enter”返回VD配置界面,如图8-66图8-67所示,参数说明如表8-22所示。

图8-66 Create Virtual Drive(1)

 

图8-67 Create Virtual Drive(2)

 

表8-22 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

解除映射能力。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drive Group

选择硬盘组。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照8.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。可配置的策略包括:

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略。可配置的状态有:

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,数据会丢失。

l     Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 7     按照表8-22所述配置VD的相关属性。

                                步骤 8     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

                                步骤 9     选择“Confirm”并按“Enter”。

                             步骤 10     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                             步骤 11     选择“OK”并按“Enter”完成配置。

可进入Virtual Drive Management界面,查看当前存在的所有VD,如图8-68所示。

图8-68 Virtual Drive Management

 

----结束

说明

每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤11

8.4.11 设置JBOD模式

Avago SAS3516支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

说明

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

                                步骤 1     登录管理界面,具体操作方法请参见8.6.1 进入管理界面。

                                步骤 2     依次进入Main Menu>Controller Management>Advanced Controller Properties界面,如图8-69所示。

图8-69 Advanced Controller Properties

 

                                步骤 3     选择“JBOD Mode”并按Enter。

                                步骤 4     选择“Enabled”并按“Enter”。

                                步骤 5     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 6     选择“OK”并按“Enter”完成配置。

----结束

8.5 故障处理

介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

8.5.1 硬盘故障

8.5.1.6 硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

                                步骤 1     确认故障硬盘槽位。

说明

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考8.6.2.4 Drive Management。

l     通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

                                步骤 2     更换新硬盘。

 

注意

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考8.4.9 导入/清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在8.2.1 支持RAID 0/1/5/6/10/50/60查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制器下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。

     UEFI模式下创建RAID0的方法请参见8.3.2 创建RAID 0。

     通过命令行方式创建RAID0的方法请参见8.7.2.2 创建和删除RAID。

----结束

8.5.1.7 硬盘状态为fail或prefail

问题描述

正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。

但当RAID控制卡未设置紧急热备时,成员盘状态显示为fail或prefail时,可使用以下方法处理。

处理方法

                                步骤 1     使用StorCLI工具,具体操作请参考8.7.1 下载和安装StorCLI工具。

                                步骤 2     执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考8.7.2.15 设置硬盘状态。

storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]

说明

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在Enclosure的ID

l     slot_id:物理硬盘槽位ID

                                步骤 3     更换离线硬盘。

                                步骤 4     RAID组自动执行重构。

等待重构完成。

----结束

8.5.1.8 硬盘状态为Unconfigured Bad或UBad

问题描述

硬盘状态显示为Unconfigured Bad或UBad。

处理方法

                                步骤 1     使用StorCLI工具,具体操作请参见8.7.1 下载和安装StorCLI工具。

                                步骤 2     执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见8.7.2.15 设置硬盘状态。

storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]

说明

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在Enclosure的ID

l     slot_id:物理硬盘槽位ID

                                步骤 3     重新查看硬盘状态是否更改为Unconfigured Good或Ugood。具体操作请参见8.6.2.4 Drive Management界面或8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤4

                                步骤 4     查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见8.4.9 导入/清除外部配置或8.7.2.31 查看/导入/清除外部配置。

l     问题解决 => 处理完毕。

l     问题未解决 => 联系技术支持处理。

----结束

8.5.2 RAID控制卡故障

问题描述

当服务器出现如下现象时,说明RAID控制卡故障。

l     数据无法写入RAID控制卡控制的硬盘。

l     服务器上报RAID控制卡故障告警。

处理方法

                                步骤 1     登录iBMC Web界面查看告警信息。

                                步骤 2     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 3     收集和查看日志信息以及其它必要的故障信息。

                                步骤 4     查询兼容性查询助手或者联系技术支持处理。

----结束

8.5.3 电容故障

问题描述

当RAID控制卡电容故障时,可能导致服务器出现如下情况:

l     服务器读写速度显著降低。

l     RAID控制卡的CU界面中显示电容状态异常。

处理方法

                                步骤 1     进入RAID控制卡的CU界面,查看电容状态是否为“Optimal”。

电容状态可查询8.6.2.5 Hardware Components界面的“Battery Status”参数。

l     是 => 处理完毕

l     否 => 步骤2

                                步骤 2     将服务器下电,打开机箱,并查看RAID控制卡电容是否在位。

l     是 => 步骤4

l     否 => 步骤3

                                步骤 3     检查整机配置,为服务器安装电容,查看电容状态是否为“Optimal”。

l     是 => 处理完毕

l     否 => 步骤6

                                步骤 4     重新安装RAID控制卡电容,查看电容状态是否为“Optimal”。

l     是 => 处理完毕

l     否 => 步骤5

                                步骤 5     更换RAID控制卡电容,查看电容状态是否为“Optimal”,且“问题描述”所述的异常状态是否消失。

l     是 => 处理完毕

l     否 => 步骤6

                                步骤 6     联系技术支持处理。

----结束

8.5.4 Device Manager中RAID控制卡状态显示Not Healthy

问题描述

进入“Advanced”界面后,显示“Some drivers are not healthy”。

处理方法

                                步骤 1     选择“Some drivers are not healthy”。

进入健康状态查询界面。

                                步骤 2     选择“Repair the whole platform”,并按“Enter”。

进入“Driver Healthy Protocol Utility”界面。

                                步骤 3     查看“Driver Healthy Protocol Utility”界面的打印信息。

l     显示“The following VDs have missing disks.” => 请参见8.5.4.1 The following VDs have missing disks。

l     显示“There are offline or missing virtual drives with preserved cache.” => 请参见8.5.4.2 There are offline or missing virtual drives with preserved cache。

l     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见8.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。

l     显示“Memory/battery problems were detected.” => 请参见8.5.4.4 Memory/battery problems were detected。

----结束

说明

RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见A.2 RAID控制卡启动中出现的常见的错误消息及处理方法。

8.5.4.1 The following VDs have missing disks

问题描述

进入“Driver Healthy Protocol Utility”界面后,显示The following VDs have missing disks.。

处理方法

                                步骤 1     修复RAID控制卡。

1.     选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

2.     输入“c”,选择“Yes”并按“Enter”。

返回“Driver Healthy Protocol Utility”界面。

3.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

4.     输入“y”,选择“Yes”并按“Enter”。

提示Critical Message handling completed. Please exit。修复完成。

                                步骤 2     重启服务器,进入“Advanced”界面,检查界面是否显示“The platform is healthy”。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

8.5.4.2 There are offline or missing virtual drives with preserved cache

问题描述

进入“Driver Healthy Protocol Utility”界面后,显示“There are offline or missing virtual drives with preserved cache”。

处理方法

                                步骤 1     选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

                                步骤 2     输入任意内容,选择“Yes”并按“Enter”。

提示Critical Message handling completed. Please exit。

                                步骤 3     按“Esc”键返回到“Device Manager”界面。

                                步骤 4     选择“AVAGO MegaRAID<SAS3516> driver Health Protocol Utility”并按“Enter”。

进入“Configuration Utility”界面。

                                步骤 5     选择“Discard Preserved Cache”并按“Enter”。

弹出操作确认对话框。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 8     选择“OK”并按“Enter”。

                                步骤 9     重启服务器。

                             步骤 10     进入“Advanced”界面,检查界面是否显示The platform is healthy。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

8.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

问题描述

图8-70所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”

图8-70 状态显示

 

处理建议

该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:

l     下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。

l     忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:

a.     在图8-70中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

b.     输入“c”并按“Enter”。

c.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

d.     输入“y”并按“Enter”。

提示Critical Message handling completed. Please exit。

e.     按“Esc”退出当前界面。

弹出确认保存配置会话框,如图8-71所示。

图8-71 提示保存会话框

 

f.     按“Y”保存配置,操作完成。

g.     按Esc键返回“Device Manager”界面。

h.     选择3516RAID控制卡,并按“Enter”,进入RAID控制卡管理界面。

8.5.4.4 Memory/battery problems were detected

问题描述

进入“Driver Healthy Protocol Utility”界面后,显示“Memory/battery problems were detected. The adapter has recovered, but cached data was lost”。

处理方法

                                步骤 1     选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

                                步骤 2     输入任意内容,选择“Yes”并按“Enter”。

提示“Critical Message handling completed. Please exit”。

                                步骤 3     重启服务器,进入“Advanced”界面,检查界面是否显示“The platform is healthy”。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

8.5.4.5 Disabling writes to flash as the flash part has gone bad

问题描述

图8-72所示,进入“Driver Healthy Protocol Utility”界面后,显示“Disabling writes to flash as the flash part has gone bad”。

图8-72 状态显示

 

处理方法

                                步骤 1     将服务器下电。

                                步骤 2     更换RAID控制卡。

                                步骤 3     将服务器上电,导入外部配置恢复原来的RAID配置,请参见8.4.9 导入/清除外部配置或8.7.2.31 查看/导入/清除外部配置。

检查提示是否清除。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

8.5.5 将Controller Mode恢复为“RAID”

问题描述

RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD mode将RAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。

说明

当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。

处理方法

                                步骤 1     (可选)登录RAID控制卡管理界面,具体操作请参见8.3.1 进入管理界面。

                                步骤 2     依次进入Main Menu>Controller Management>Advanced Controller Management界面。

                                步骤 3     选择“Switch to RAID mode”并按“Enter”。

提示操作成功。

                                步骤 4     选择“OK”并按“Enter”。

返回到“Advanced Controller Management”界面,显示正在切换模式。

                                步骤 5     按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见8.3.1 进入管理界面。

                                步骤 6     依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”。

l     是 => 处理完毕

l     否 => 请联系技术支持

----结束

8.6 管理界面介绍

8.6.1 进入管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

                                步骤 1     通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 2     重启服务器

                                步骤 3     重启过程中,当出现如图8-73所示界面时,按“Delete”,进入输入密码界面。

图8-73 BIOS启动界面

 

                                步骤 4     输入密码并按“Enter”。

进入如图8-74所示界面。

图8-74 Setup Utility界面

 

                                步骤 5     通过“”或“→ ”进入“Advanced”页签,如图8-75所示。

图8-75 “Advanced”页签

 

说明

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见8.5.4 Device Manager中RAID控制卡状态显示Not Healthy进行修复。

                                步骤 6     选择“Avago <SAS3516> Configuration Utility”,按“Enter”。

进入Avago SAS3516主界面,如图8-76和图8-77所示,界面参数如表8-23所示。

图8-76 Avago SAS3516主界面(1)

 

图8-77 Avago SAS3516主界面(2)

 

表8-23 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

说明

Avago SAS3516不支持在此界面升级FW。

Silence Alarm

板载蜂鸣器的使能状态。

说明

Avago SAS3516未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

8.6.2 Main Menu

RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。

界面介绍

“Main Menu”界面如图8-78,参数说明如表8-24所示。

图8-78 Main Menu

 

表8-24 参数说明

参数

参数说明

Configuration Management

配置管理RAID。

Controller Management

管理RAID控制器。

Virtual Drive Management

管理虚拟磁盘。

Drive Management

管理硬盘。

Hardware Components

查询部件信息。

 

8.6.2.1 Configuration Management

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

“Configuration Management”界面如图8-79,参数说明如表8-25所示。

图8-79 Configuration Management

 

表8-25 参数说明

参数

参数说明

Auto Configure RAID 0

自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0。

Create Virtual Drive

创建RAID。

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Clear Configuration

清除当前所有RAID配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时会显示该参数。

 

清除RAID配置

                                步骤 1     选择“Clear Configuration”并按“Enter”。

进入操作确认界面。

                                步骤 2     选中“Confirm”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 4     选择“OK”并按“Enter”。

操作完成。

----结束

快速创建RAID

                                步骤 1     选择"Create Profile Based Virtual Drive"并按“Enter”。

                                步骤 2     选择要创建的RAID(以“Generic RAID 0”为例)并按“Enter”。

打开RAID配置界面,如图8-80,参数说明如表8-26所示。

图8-80 RAID配置界面

 

表8-26 参数说明

参数

说明

Drive Selection Criteria

系统自动选择的成员盘。

Virtual Drive Name

系统自定义的RAID组名称。

RAID Level

当前配置的RAID组的级别。

Virtual Drive Size

RAID组的容量。

Power Save Mode

数据掉电保护模式。

Strip Size

RAID组扇区大小。

Read Policy

RAID组的数据读策略。

Write Policy

RAID组的数据写策略。

IO Policy

RAID组I/O策略。

Access Policy

数据读写的策略。

Drive Cache

硬盘Cache策略。

Default Initialization

RAID组默认的初始化方式。

说明

快速创建RAID 0时,出现该选项。初始化类型默认为Fast且不可更改。

Create Dedicated Hot Spare

是否为RAID组创建一块局部热备盘。

说明

快速创建RAID156时,出现该选项

Save Configuration

保存当前配置。

 

                                步骤 3     按表8-26所示查看或配置相关参数。

                                步骤 4     选择“Save Configuration”并按“Enter”。

弹出操作成功提示界面。

                                步骤 5     按“Enter”。

----结束

查看硬盘组属性

                                步骤 1     在图8-79中选择“View Drive Group Properties”并按“Enter”。

打开的界面如图8-81,参数说明如表8-27所示。

图8-81 View Drive Group Properties

 

表8-27 参数说明

参数

参数说明

Drive Group

硬盘组名称。

Capacity Allocation

硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。

 

----结束

8.6.2.2 Controller Management

该界面提供控制器管理接口,可查看并修改控制器的详细参数。

界面介绍

“Controller Management”界面如图8-82图8-83所示,参数说明如表8-28所示。

图8-82 Controller Management(1)

 

图8-83 Controller Management(2)

 

表8-28 参数说明

参数

参数说明

Product Name

控制标卡名称。

Serial Number

控制标卡序列号。

Controller Status

控制标卡的工作状态。

Personality Mode

控制标卡的模式。

Select Device For Boot Order

设置控制标卡的启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。

PCI ID

控制标卡的PCI ID。

PCI Segment:Bus:Device:Fuction

控制标卡的PCI设备索引。

PCI Slot Number

控制标卡的PCI槽位号。

Package Version

控制标卡的套件版本。

Firmware Version

控制标卡的固件版本号。

NVDATA Version

控制标卡配置信息的版本号。

Supported Device Interfaces

控制标卡支持的设备接口。

Drive Count

控制标卡下挂载的硬盘个数。

Virtual Drive Count

控制标卡下已有虚拟磁盘数量。

Advanced Controller Management

管理控制器高级功能。

Advanced Controller Properties

查看和修改控制器的高级属性。

 

更多控制器操作

                                步骤 1     在图8-82中选择“Advanced Controller Management”并按“Enter”。

界面如图8-84所示,界面中参数说明如表8-29所示。

图8-84 Advanced Controller Management

 

表8-29 参数说明

参数

说明

Clear Controller Events

清除控制器的事件日志。

Save Controller Events

保存控制器的事件日志。

Save TTY Log

保存终端操作日志。

Manage SAS Storage  Link Speed

管理RAID控制卡接口速率。

Manage MegaRAID Advanced Software Options

管理高级软件功能。

Schedule Consistency Check

设置一致性校验参数。

Set Factory Defaults

恢复为出厂配置。

Manage Personality Mode

切换RAID控制卡的工作模式。

选择该选项并按“Enter”后,可进入设置RAID控制卡工作模式的界面。

RAID控制卡工作模式默认为RAID模式。当RAID控制卡当前的工作模式为RAID时,“Manage Personality Mode”界面中显示为“Switch to JBOD mode”;当RAID控制卡当前的工作模式为JBOD时,“Manage Personality Mode”界面中显示为“Switch to RAID mode”。

RAID控制卡的工作模式仅支持设置为“RAID”,请勿修改为“JBOD”。

如已设置为“JBOD”,请参见8.5.5 将Controller Mode恢复为“RAID”进行恢复;如需要开启JBOD功能,请参见8.4.11 设置JBOD模式进行设置。

Controller Mode

RAID控制卡当前的工作模式。

 

----结束

查看并修改控制器高级属性

                                步骤 1     在图8-82中选择“Advanced Controller Properties”并按“Enter”。

界面如图8-85图8-86所示,界面中参数说明如表8-30所示。

图8-85 Advanced Controller Properties(1)

 

图8-86 Advanced Controller Properties(2)

 

表8-30 参数说明

参数

说明

Cache and Memory

查看控制器Cache和Memory信息。

Patrol Read

系统巡检。

Power Save Setting

设置节能功能。

Spare

热备属性设置。

Task Rates

设置各种任务占用系统比率。

Alarm Control

Avago SAS3516控制器标卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

容量对齐的模式。包括:

l     None

l     128MB

l     1GB

默认为“1GB”。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errrors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制器BIOS的使能情况。

ROC Temperature

控制器温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见8.4.9 导入/清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

JBOD Mode

硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。

Write Verify

写校验。

Large IO Support

启用或禁用大型I/O支持功能。

Unmap Capability

解除映射能力。

Firmware Device Order

该功能开启后,设置为启动项的RAID组盘符为sda。

Preboot Trace Buffer

启用或禁用RAID控制卡对本次启动过程中的调试信息的收集。

Apply Changes

保存配置。

 

                                步骤 2     在图8-85中选择“Task Rates”并按“Enter”。界面如图8-87所示,界面中参数说明如表8-31所示。

图8-87 Task Rates

 

表8-31 参数说明

参数

说明

Background Initialization <BGI> Rate

设置执行后台初始化的速率。

说明

数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Consistency Check Rate

设置执行一致性校验的速率。

说明

数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Patrol Read Rate

设置执行巡检读取的速率。

说明

数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Rebuild Rate

设置硬盘发生故障时在新硬盘上执行重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Reconstruction Rate

设置执行RAID级别迁移或在线容量扩展时重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Apply Changes

保存配置。

 

                                步骤 3     按照表8-30所述修改控制器的高级属性参数。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     单击“OK”完成配置。

----结束

8.6.2.3 Virtual Drive Management

该界面提供虚拟磁盘的查询和管理接口。

界面介绍

“Virtual Drive Management”界面如图8-88,显示虚拟磁盘列表。

图8-88 Virtual Drive Management

 

选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如图8-89所示,参数说明如表8-32所示。

图8-89 虚拟磁盘操作界面

 

表8-32 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:定位虚拟磁盘的所有硬盘。

l     Stop Locate:取消定位。

l     Delete Virtual Drive:删除虚拟磁盘。

l     Expand Virtual Drive:扩展虚拟磁盘容量。

l     Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。

l     Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。

l     Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。

l     Fast Initialization:快速初始化虚拟磁盘。

l     Slow Initialization:安全初始化虚拟磁盘。

l     Check Consistency:一致性校验。

l     Virtual Drive Erase:格式化虚拟磁盘。

Name

虚拟磁盘名称。

Raid Level

虚拟磁盘RAID级别。

Status

虚拟磁盘当前运行状态。

Size

虚拟磁盘容量。

View Associated Drives

查看成员盘属性。

Advanced...

查看虚拟磁盘高级属性。

 

查看成员盘属性

                                步骤 1     在图8-89中选择“View Associated Drives”并按“Enter”。

界面如图8-90,显示成员盘列表。

图8-90 View Associated Drives

 

                                步骤 2     选择要查看的成员盘,并按“Enter”。

                                步骤 3     选择“View Drive Properties”并按“Enter”。

进入硬盘属性界面,如图8-91界面所示,界面参数如表8-33所示。

图8-91 View Drive Properties

 

表8-33 参数说明

参数

参数说明

Operation

该成员盘可执行的操作,包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Place Drive Online/Offline:将硬盘上线/离线。

Drive ID

成员盘的ID。

Connection

硬盘接口。

Enclosure Position

机箱或背板的位置。

Slot Number

硬盘的槽位号。

Status

成员盘的当前工作状态。

Size

成员盘的容量。

Type

成员盘类型。

Model

成员盘的模块类型。

Hardware Vendor

成员盘的生产厂商。

Associated Virtual Drive

成员盘所在的虚拟磁盘。

Advanced...

查询成员盘更多属性。

 

----结束

查看和修改虚拟磁盘高级属性

图8-89中选择“Advanced...”并按“Enter”。

界面如图8-92图8-93所示,界面参数如表8-34所示。

图8-92 Advanced (1)

 

图8-93 Advanced (2)

 

表8-34 参数说明

参数

参数说明

Logical Sector Size

逻辑扇区大小。

Segment Size

条带大小。

Starting Logical Block Addressing

逻辑单元起始地址。

Emulation Type

控制逻辑盘在OS中上报的扇区。

当成员盘为512B/512B时:

l     Default:逻辑盘扇区为512B/512B。

l     None:逻辑盘扇区为512B/512B。

l     Force:逻辑盘扇区为512B/4KB。

当成员盘为512B/4KB时:

l     Default:逻辑盘扇区为512B/4KB。

l     None:逻辑盘扇区为512B/512B。

l     Force:逻辑盘扇区为512B/4KB。

Protected

是否支持硬盘保护。

Bad Blocks

是否支持坏块处理。

SSD Caching

是否支持SSD Caching。

Access

是否支持Access。

Current Write Cache Policy

当前写Cache策略,包括:

l     Write Through:当硬盘子系统接收到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。

l     Write Back:当RAID控制标卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Always Write Back:当未配置超级电容或超级电容故障时,RAID控制卡将不会自动切换到Write Through模式。

说明

“Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR的写数据将会丢失。不推荐使用该模式。

Default Write Cache Policy

默认的写Cache策略。

Disable Background Initialization

是否禁用后台初始化。

Read Cache Policy

当前读Cache策略,包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。RAID控制标卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

Drive Cache

设置硬盘cache状态。

Input/Output

I/O读取策略,包括:

l     Direct:直接从硬盘读取数据,不经过Cache缓存。

l     Cached:从Cache缓存中读取数据。

Apply Changes

保存配置。

 

                                步骤 2     按照表8-34所述配置“Advanced”的参数。

                                步骤 3     选择“Apply Changes”并按“Enter”。

显示The operation has been performed successfully。

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

8.6.2.4 Drive Management

该界面显示硬盘基本属性,提供硬盘操作接口。

界面介绍

“Drive Management”界面如图8-94所示,显示硬盘列表。

图8-94 Drive List

 

说明

硬盘的标识信息说明如下:

l     ①表示RAID控制卡的Port口编号,其中Drive C0/Drive Port A表示RAID控制卡的Port A口,Drive C1/Drive Port B表示RAID控制卡的Port B口。

l     ②表示机箱或背板的位置ID。

l     ③表示硬盘槽位号。

l     ④表示硬盘类型。

l     ⑤表示硬盘的容量。

l     ⑥表示硬盘的状态。

l     ⑦表示硬盘的扇区大小。

选定要操作的硬盘并按“Enter”进入详细操作界面,如图8-95所示,参数说明如表8-35所示。

图8-95 Drive Management

 

表8-35 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Initialize Drive:硬盘初始化。

l     Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。

     Simple:仅对硬盘进行一轮擦除动作。

     Normal:对硬盘进行三轮擦除动作。

     Thorough:对硬盘进行九轮擦除动作。

     Stop Erase:停止数据擦除操作。

l     Make Unconfigured Good/Bad:修改硬盘状态。

l     Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。

l     Assign Global Hot Spare Drive:设置全局热备盘。

l     Assign Dedicated Hot Spare Drive:设置局部热备盘。

l     Unassign Hot Spare Drive:删除热备盘。

l     Place Drive Online:将Offline状态的硬盘设置为Online。

说明

l     Place Drive Online操作仅仅只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。

l     对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。

Drive ID

硬盘的ID。

Connection

硬盘接口。

Enclosure Position

机箱或背板的位置。

Slot Number

硬盘的槽位号。

Status

硬盘的当前工作状态。

Size

硬盘的容量。

Type

硬盘的类型。

Model

硬盘型号。

Hardware Vendor

硬盘的生产厂商。

Advanced...

查询更多硬盘属性。

 

安全擦除硬盘数据

说明

该操作会删除硬盘上的数据,请谨慎执行。

将“Operation”设置为“Drive Erase”。

                                步骤 1     选择“Erase Mode”并按“Enter”。

                                步骤 2     在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。

                                步骤 3     选择“Go”并按“Enter”。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示操作成功。

----结束

查看硬盘属性

选择“Advanced...”并按“Enter”。

打开硬盘属性界面,如图8-96图8-97所示,参数说明如表8-36所示。

图8-96 Drive Properties (1)

 

图8-97 Drive Properties (2)

 

表8-36 参数说明

参数

参数说明

Certified

硬盘是否通过认证。

Logical Sector Size

逻辑扇区大小。

Physical Sector Size

物理扇区大小。

SMART Status

SMART功能是否使能。

Revision

硬盘Firmware版本。

Media Error

Media error个数。

Predicted Fail Count

Pred fail个数。

SAS Address

硬盘SAS地址。

Multipath

该功能为支持检测和使用从RAID控制器到盘柜中的SAS设备的多条路径,连接到盘柜的设备有多条路径。到设备同一端口的冗余路径,可以保障当其中一条路径发生故障时,控制器和设备之间可以使用另一条路径进行通信。同时使用具有负载平衡的多条路径,而不是单条路径,可以通过冗余来提高可靠性。

当前服务器暂不支持多路径的方式。

Drive Power State

硬盘上电状态。

Cache Setting

是否可设置Cache。

Disk Protocol

硬盘支持的协议。

Capable Speed

设备速率。

Negotiated Speed

硬盘数据传输速率。

Number of Connections

连接器个数。

FDE Capable

硬盘是否支持FDE(Full Disk Encryption)技术。

Cryptographic Erase Capable

硬盘的加密擦除能力。

Unmap Capable

解除映射能力。

Temperature

硬盘温度。

 

8.6.2.5 Hardware Components

该界面主要提供RAID控制卡传感器信息。

界面介绍

“Hardware Components”界面如图8-98,参数说明如表8-37所示。

图8-98 Hardware Components

 

表8-37 参数说明

参数

参数说明

Battery Status

电容的工作状态。

Battery Management

电容管理。

Enclosure Management

查看更多传感器信息。

 

查看更多传感器信息

选择“Enclosure Management”并按“Enter”。

进入部件选择界面。

                                步骤 1     选择“Select Enclosure”并按“Enter”。

                                步骤 2     选择要操作的部件并按“Enter”。

                                步骤 3     选择“View Enclosure Status”并按“Enter”。

显示传感器的详细信息。

----结束

8.6.3 View Server Profile

提供RAID控制卡操作管理接口。

界面介绍

“View Server Profile”界面如图8-99所示,参数说明如表8-38所示。

图8-99 View Server Profile

 

表8-38 参数说明

参数

参数说明

UEFI Spec Version

服务器支持的UEFI Spec版本。

Controller Management

提供控制器管理接口,详细情况请参见8.6.2.2 Controller Management。

Hardware Components

提供控制器部件查询接口,详细情况请参见8.6.2.5 Hardware Components。

Drive Management

提供硬盘管理接口,详细情况请参见8.6.2.4 Drive Management。

Virtual Drive Management

提供虚拟磁盘管理接口,详细情况请参见8.6.2.3 Virtual Drive Management。

 

8.6.4 View Foreign Configuration

该界面可查看、导入、清空外部配置。

界面介绍

“View Foreign Configuration”界面如图8-100所示。

图8-100 View Foreign Configuration

 

查看并导入外部配置

选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如图8-101所示。

图8-101 外部配置

 

                                步骤 2     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     单击“OK”完成配置。

----结束

清除外部配置

选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 3     单击“OK”完成配置。

----结束

8.6.5 Configure

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

“Configure”界面如图8-102所示,参数说明如表8-39所示。

图8-102 Configure

 

表8-39 参数说明

参数

参数说明

Auto Configure RAID 0

自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0。

Create Virtual Drive

创建RAID。

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Clear Configuration

清除当前所有RAID配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置的时候会显示该参数。

 

清除当前配置

选择“Clear Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 3     单击“OK”完成配置。

----结束

8.6.6 Set Factory Defaults

恢复出厂配置

在主界面选择“Set Factory Defaults”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 3     单击“OK”完成配置。

----结束

8.6.7 Update Firmware

该界面提供固件升级接口。

界面介绍

“Update Firmware”界面如图8-103所示,参数说明如表8-40所示。

图8-103 Update Firmware界面

 

表8-40 参数说明

参数

参数说明

Select File System

选择使用的文件系统。

Select Directory

选择文件存放路径。可选路径包括:

Current Dir:当前路径

EFI:自适应路径

Select Image

选择要加载的文件。

 

升级固件

说明

l     进行固件升级时,必须使用FAT12、FAT16或FAT32格式的介质。

l     仅检查支持EFI_SIMPLE_FILE_SYSTEM_PROTOCOL的文件系统。

l     FW镜像文件必须位于根目录或根目录的下一个级别才能进行访问。

按照表8-40所述配置升级参数。

                                步骤 1     选择“Update”并按“Enter”。

打开操作确认界面。

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     在列表中选择“Enable”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     单击“OK”完成配置。

----结束

8.6.8 Manage MegaRAID Advanced Software Options

该界面提供RAID控制卡高级软件特性查看和导入接口。

界面介绍

“Manage MegaRAID Advanced Software Options”界面如图8-104所示,界面中参数说明如表8-41所示。

图8-104 Manage MegaRAID Advanced Software Options

 

表8-41 参数说明

参数

说明

SAFE ID

RAID控制卡的安全编码。

Serial Number

RAID控制卡序列号。

Activation Key

待激活的高级特性的Key。

Active

激活高级特性。

Avago SAS3516不支持高级特性的激活操作,该功能无效。

Deactive All Trail Software

注销当前所有高级特性。

Avago SAS3516不支持高级特性的激活操作,该功能无效。

 

8.6.9 Exit

退出配置界面。

退出配置界面

1.     在Avago SAS3516主界面按“ESC”,显示如图8-105所示“Advanced”界面。

图8-105 Advanced界面

 

2.     按“Esc”退出配置界面。

8.7 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

8.7.1 下载和安装StorCLI工具

下载工具

登录BROADCOM网站上RAID控制卡的页面

                                步骤 1     在“DOWNLOADS”页签中单击“Management Software and Tools”。

打开管理软件和工具列表。

                                步骤 2     下载最新版本的“StorCLI”工具。

                                步骤 3     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 1     在Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。

说明

StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

8.7.2 常用命令

8.7.2.1 查询RAID控制卡配置信息

命令功能

查询Avago SAS3516的基本配置信息。

命令格式

storcli64 /ccontroller_id show

参数说明

参数

参数说明

取值

controller_id

控制器ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID

 

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡配置信息。

[root@localhost ~]# ./storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
Product Name = SAS3516
Serial Number = FW-00000000
SAS Address =  5000000012345678
PCI Address = 00:3b:00:00
System Time = 03/22/2018 06:26:17
Mfg. Date = 00/00/00
Controller Time = 03/22/2018 10:26:15
FW Package Build = 50.3.0-1100
BIOS Version = 7.03.02.1_4.17.08.00_0x07030402
FW Version = 5.030.00-1280
Driver Name = megaraid_sas
Driver Version = 07.703.05.00
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x14
SubVendor Id = 0x19E5
SubDevice Id = 0xD216
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 59
Device Number = 0
Function Number = 0
Drive Groups = 4
 
TOPOLOGY :
========
 
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace TR
-----------------------------------------------------------------------------
 0 -   -   -        -   RAID0 OfLn  N    2.179 TB dflt N  N   none N      N
 0 0   -   -        -   RAID0 Dgrd  N    2.179 TB dflt N  N   none N      N
 0 0   0   -        -   DRIVE Msng  -  744.125 GB -    -  -   -    -      N
 0 0   1   -        -   DRIVE Msng  -  744.125 GB -    -  -   -    -      N
 0 0   2   64:5     4   DRIVE Onln  N  744.125 GB dflt N  N   none -      N
 1 -   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 1 0   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 1 0   0   64:6     23  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
 1 0   1   64:7     22  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
 1 -   -   64:8     21  DRIVE DHS   -  744.125 GB -    -  -   -    -      N
 2 -   -   -        -   RAID0 OfLn  N  445.171 GB dflt N  N   none Y      N
 2 0   -   -        -   RAID0 Dgrd  N  445.171 GB dflt N  N   none Y      N
 2 0   0   -        -   DRIVE Msng  -  222.585 GB -    -  -   -    -      N
 2 0   1   64:2     0   DRIVE Onln  N  222.585 GB dflt N  N   none -      N
 3 -   -   -        -   RAID1 Optl  N  446.102 GB dflt N  N   none N      N
 3 0   -   -        -   RAID1 Optl  N  446.102 GB dflt N  N   none N      N
 3 0   0   64:0     27  DRIVE Onln  N  446.102 GB dflt N  N   none -      N
 3 0   1   64:1     28  DRIVE Onln  N  446.102 GB dflt N  N   none -      N
-----------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Missing Drives Count = 3
 
Missing Drives :
==============
 
---------------------
Array Row       Size
---------------------
    0   0 744.125 GB
    0   1 744.125 GB
    2   0 222.585 GB
---------------------
 
Virtual Drives = 4
 
VD LIST :
=======
 
---------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC       Size Name
---------------------------------------------------------------
0/0   RAID0 OfLn  RW     No      RWBD  -   ON    2.179 TB
1/1   RAID1 Optl  RW     No      RWBD  -   ON  744.125 GB
2/2   RAID0 OfLn  RW     No      RWBD  -   ON  347.102 GB B
3/3   RAID1 Optl  RW     No      RWBD  -   ON  446.102 GB OS
---------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 12
 
PD LIST :
=======
 
----------------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model                      Sp Type
----------------------------------------------------------------------------------------
64:0     27 Onln   3 446.102 GB SATA SSD N   N  512B SAMSUNG MZ7KM480HAHP-00005 U  -
64:1     28 Onln   3 446.102 GB SATA SSD N   N  512B SAMSUNG MZ7KM480HAHP-00005 U  -
64:2      0 Onln   0 222.585 GB SATA SSD N   N  512B INTEL SSDSC2BB240G4        U  -
64:3      2 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4        U  -
64:4      3 UBad   - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4        U  -
64:5      4 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4        U  -
64:6     23 Onln   1 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BA800G4        U  -
64:7     22 Onln   1 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G6        U  -
64:8     21 DHS    1 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G6        U  -
64:9     25 UGood  - 185.333 GB SATA SSD N   N  512B INTEL SSDSC2BA200G4        U  -
64:10    26 UGood  - 185.333 GB SATA SSD N   N  512B INTEL SSDSC2BA200G4        U  -
64:11    24 UGood  - 185.333 GB SATA SSD N   N  512B INTEL SSDSC2BA200G4        U  -
----------------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Cachevault_Info :
===============
 
------------------------------------
Model  State   Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 24C  -    2016/12/06
------------------------------------

8.7.2.2 创建和删除RAID

命令功能

创建、删除RAID。

命令格式

命令

说明

storcli64 /ccontroller_id add vd rlevel[0|1|5|6|10|50|60] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [wt|*wb|awb] [nora|*ra] [*direct|cached] [Strip=<8|16|32|64|128|256|1024>] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid]

创建RAID组

storcli64 /ccontroller_id/vraid_id del

删除RAID组

 

说明

*表示默认值。

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

enclosure_id

硬盘所在Enclosure的ID

-

rlevel

要配置的RAID组级别

level可为0、1、5、6、10、50、60,数字分别代表对应的RAID组级别。

size

要配置的RAID组容量

默认值为all,即所有成员盘的容量之和。

name

要配置的RAID组名称

-

drives

要加入RAID组的硬盘

-

startid-endid

硬盘的起始和结束ID

-

slot_id

硬盘ID

-

pdperarray

子组中的硬盘数

创建RAID10、RAID50、RAID60时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。

-

pdcache

设置RAID的成员盘的Cache状态

l     on

l     off

l     default

pi

使能数据保护

-

wrcache

设置RAID组的写Cache属性,完整的命令为wrcache=wt|wb|awb,这里“wrcache=”可省略

l     wt:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     wb:控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”模式。

rdcache

设置RAID组的读Cache属性,完整的命令为rdcache=ra|nora,这里“rdcache=”可省略。

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

iopolicy

设置RAID组的I/O策略,完整的命令为iopolicy=direct|cached,这里“iopolicy=”可省略。

说明

Cache IO的规格后续不再支持,默认为Direct IO,具体信息请查看RAID控制卡固件版本说明书。

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

Strip

设置RAID组条带大小

MR卡:8, 16, 32, 64, 128, 256, 512, 1024

iMR卡:只能为64

单位为KB

EmulationType

控制逻辑盘在OS中上报的扇区

l     0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     1: Disable,如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     2:Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Spares

指定RAID组的热备盘

-

raid_id

要删除的RAID组的ID

-

 

说明

l     以上涉及的各个ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

l     当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid

使用指南

使用实例

# 创建RAID 0。

[root@localhost ~]# ./storcli64 /c0 add vd r0 size=100GB drives=64:9,10
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = Add VD Succeeded

# 删除RAID。

domino:~# ./storcli64 /c0/v0 del
Controller = 0
Status = Success
Description = Delete VD Succeeded

8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息

查询RAID控制卡/RAID组/物理硬盘信息

命令功能

查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。

命令格式

storcli64 /ccontroller_id show

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

storcli64 /ccontroller_id/vvd_id show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID

enclosure_id

硬盘所在Enclosure的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器连接的硬盘背板的ID

slot_id

物理硬盘槽位编号

可以将该参数设置为all,表示查询所有硬盘的ID

vd_id

虚拟磁盘ID

可以为all,表示查询所有虚拟磁盘信息。

 

使用指南

使用实例

# 查询VD 0的信息。

domino:~# ./storcli64 /c0/v0 show
Controller = 0
Status = Success
Description = None
Virtual Drives :
==============
---------------------------------------------------------
DG/VD TYPE State Access Consist Cache sCC Size Name
---------------------------------------------------------
0/0 RAID1 Optl RW Yes RWBD - 100.0 GB
---------------------------------------------------------
Cac=CacheCad|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded Optl=Optimal|RO=Read
OnlyRW=Read Write|HD=Hidden|B=Blocked|Consist=Consistent|AWB=Always WriteBack|WT=WriteThrough|
C=Cached IOID=Direct IO|sCC=Scheduled Check Consistency

8.7.2.4 查询和设置Patrolread参数

命令功能

查询和设置系统巡检的相关参数。

命令格式

storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number

storcli64 /ccontroller_id set patrolread delay=delaytime

storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}

storcli64 /ccontroller_id show patrolread

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

系统巡检起始时间

例如:2016/07/15 23

说明

起始时间单位为“时”。

number

可同时巡检的硬盘数量

delaytime

系统巡检周期

单位为hour。

 

查看RAID控制卡ID的方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。

domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
--------------------------------------- 
Ctrl_Prop          Value 
--------------------------------------- 
PR Starttime       2016/07/15 23:00:00 
PR MaxConcurrentPd 2 
---------------------------------------

# 使能patrolread并设置为自动模式。

domino:~# ./storcli64 /c0 set patrolread=on mode=auto
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
--------------------------------------- 
Ctrl_Prop        Value 
--------------------------------------- 
Patrol Read Mode auto 
---------------------------------------

# 查询patrolread信息。

domino:~# ./storcli64 /c0 show patrolread
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
-------------------------------------------- 
Ctrl_Prop          Value 
-------------------------------------------- 
PR Mode       2016/07/15 23:00:00 
PR Execution Delay 
PR iterations completed 0 
PR Next Start time      07/16/2016,00:00:00 
PR on SSD               Disabled 
PR Current State        Stopped 
--------------------------------------------

8.7.2.5 查询和设置Spinup参数

命令功能

查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。

命令格式

storcli64 /ccontroller_id show spinupdelay

storcli64 /ccontroller_id show spinupdrivecount

storcli64 /ccontroller_id set spinupdelay=time

storcli64 /ccontroller_id set spinupdrivecount=count

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

每组起转硬盘间的时间间隔

默认为2,单位为s。

count

上电时允许同时起转的硬盘数量

默认为4。

 

查看RAID控制卡ID的方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡Spinup参数。

[root@localhost ~]# ./storcli64 /c0 show spinupdelay
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop     Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
 
 
 
[root@localhost ~]# ./storcli64 /c0 show spinupdrivecount
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop           Value
--------------------------
Spin Up Drive Count 2
--------------------------
 
 
 
[root@localhost ~]#

# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。

domino:~# ./storcli64 /c0 set spinupdelay=20
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 20 second(s)
--------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 5
--------------------------

8.7.2.6 查询和设置硬盘数据擦除功能

命令功能

设置物理硬盘数据擦除模式,查询擦除进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

mode

数据擦除模式

l     simple:对硬盘进行一轮擦除动作。

l     normal:对硬盘进行三轮擦除动作。

l     thorough:对硬盘进行九轮擦除动作。

 

以上涉及的所有ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。

domino:~# ./storcli64 /c0/e252/s3 start erase simple
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.

8.7.2.7 查询和设置RAID后台初始化

命令功能

暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。

命令格式

storcli64 /ccontroller_id/vraid_id action bgi

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

action

后台初始化的操作

l     show:查看后台初始化进度

l     pause:暂停后台初始化

l     resume:继续后台初始化

l     stop:停止后台初始化

 

以上涉及的所有ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查看后台初始化进度。

[root@localhost ~]# ./storcli64 /c0/v0 show bgi
Controller = 0
Status = Success
Description = Noe
 
VD Operation Status :
===================
 
------------------------------------------------------
VD Operation Progress% Staus      Estimated Time Left
------------------------------------------------------
 0 BGI               3 In progress 53 Minutes
------------------------------------------------------

8.7.2.8 查询和设置CacheFlush参数

命令功能

查询和设置Cache的刷新周期。

命令格式

storcli64 /ccontroller_id show cacheflushint

storcli64 /ccontroller_id set cacheflushint time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

Cache的刷新周期

单位为s

 

查看RAID控制卡ID的方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置Cache的刷新周期为“10”。

domino:~# ./storcli64 /c0 set cacheflushint=10
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10 sec
---------------------------

# 查询Cache的刷新周期。

domino:~# ./storcli64 /c0 show cacheflushint
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10
---------------------------

8.7.2.9 查询和设置物理硬盘初始化功能

命令功能

设置物理硬盘初始化功能,查询初始化进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看初始化进度

l     start:开始初始化

l     stop:结束初始化

 

以上涉及的所有ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 初始化slot3硬盘,并查询初始化进度。

[root@localhost ~]# ./storcli64 /c0/e64/s3 start initialization
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
 
[root@localhost ~]# ./storcli64 /c0/e64/s3 show initialization
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e64/s3         0 In progress 0 Seconds
-----------------------------------------------------
 
 
[root@localhost ~]#

8.7.2.10 查询和设置RAID重构/回拷/系统巡检功能

命令功能

暂停、继续、停止RAID重构/回拷/系统巡检,并查询进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action function

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看进度

l     pause:暂停进程

l     resume:继续执行

l     stop:停止进程

function

要处理的进程

l     rebuild:RAID重构

l     copyback:回拷

l     patrolread:系统巡检

 

以上涉及的所有ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查看RAID重构进度。

domino:~# ./storcli64 /c0/e252/s4 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Staus Estimated Time Left
------------------------------------------------------
/c0/e252/s4 9 In progress 12 Minutes
------------------------------------------------------

# 暂停RAID重构。

domino:~# ./storcli64 /c0/e252/s4 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Status Succeeded.

8.7.2.11 查询和设置Smart扫描周期

命令功能

查询、设置Smart扫描周期。

命令格式

命令

说明

storcli64 /ccontroller_id set smartpollinterval=value

设置Smart扫描周期。

storcli64 /ccontroller_id show smartpollinterval

查询Smart扫描周期。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

value

Smart扫描周期

单位为s。

 

查看RAID控制卡ID的方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置Smart扫描周期为“60s”。

domino:~# ./storcli64 /c0 set smartpollinterval=60
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------

8.7.2.12 查询和设置一致性校验参数

命令功能

查询、设置一致性检查参数。

命令格式

命令

说明

storcli64 /ccontroller_id[/vvd_id]show cc

查询一致性检查参数。

storcli64 /ccontroller_id/vvd_id start cc force

开始进行一致性检查。

storcli64 /ccontroller_id/vvd_id action cc

暂停/停止/继续执行一致性检查。

storcli64 /ccontroller_id set consistencycheck|cc=[off|seq|conc] [delay=value] starttime=time excludevd=evd_id

设置一致性自动检查参数。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

要操作的RAID的ID

-

action

要执行的操作

l     pause:暂停

l     resume:继续执行

l     stop:停止

cc

将一致性检查设置为顺序模式或并行模式,或关闭一致性检查。

l     off:关闭一致性检查

l     seq:顺序模式

l     conc:并行模式

value

一致性检查周期

-

time

一致性检查起始时间

例如:2016/07/14 22

说明

起始时间单位为“时”。

evd_id

不进行一致性检查的虚拟磁盘ID

-

 

以上涉及的所有ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

show命令中不带/vvd_id时,表示查询自动CC参数。

show命令中带/vvd_id时,表示查询CC进度。

使用实例

# 设置一致性自动检查参数。

domino:~# ./storcli64 /c0 set cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------
Ctrl_Prop Value
------------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2016/07/14 22:00:00
CC ExcludeVD(0) Success
------------------------------------

# 查询CC进度。

domino:~# ./storcli64 /c0/v1 show cc
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimited Time Left
-----------------------------------------------------------
0 CC - Not in progress -
-----------------------------------------------------------

8.7.2.13 设置热备盘

命令功能

设置全局热备盘和局部热备盘。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=vd_id]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

vd_id

局部热备盘所属虚拟磁盘的ID

 

以上涉及的所有ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置slot 3硬盘为全局热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.

# 设置slot 3硬盘为vd0的局部热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive dgs=0
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.

8.7.2.14 设置启动项

命令功能

设置虚拟磁盘或物理硬盘为启动项。

命令格式

storcli64 /ccontroller_id/vvd_id set bootdrive=on

storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

vd_id

待设置的虚拟磁盘的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

 

以上涉及的所有ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置VD0为启动项。

[root@localhost ~]# ./storcli64 /c0/v0 set bootdrive=on
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
-----------------------------------------
VD Property   Value Status  ErrCd ErrMsg
-----------------------------------------
 0 Boot Drive On    Success     0 -
-----------------------------------------
 
 
 
[root@localhost ~]#

# 设置slot 7硬盘为启动项。

omino:~# ./storcli64 /c0/e252/s7 set bootdrive=on
Controller = 0 
Status = Success 
Description = Noe 
 
Controller Properties : 
===================== 
 
------------------- 
Ctrl_Prop Value 
------------------- 
BootDrive PD:252_7 
-------------------

8.7.2.15 设置硬盘状态

命令功能

设置硬盘状态。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

state

要设置的硬盘状态

l     online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。

l     offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。

l     jbod:通过该参数可以将硬盘设置为直通硬盘。

l     good:

     ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置;

     JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。

l     good:将硬盘设为空闲盘

force

强制设置硬盘状态,为可选参数。

如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force。

-

 

以上涉及的所有ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。

domino:~# ./storcli64 /c0/e0/s1 set good
Controller = 0 
Status = Success 
Description = Set Drive Good Succeeded.

# 设置slot 7硬盘为直通盘。

domino:~# ./storcli64 /c0/e252/s7 set JBOD
Controller = 0 
Status = Success 
Description = Set Drive JBOD Succeeded.

8.7.2.16 设置RAID组访问策略

命令功能

设置RAID的读写策略。

命令格式

storcli64 /ccontroller_id/vraid_id set accesspolicy=mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

mode

RAID读写策略

l     rw:可读可写

l     blocked:禁止访问

l     ro:只读访问

 

以上涉及的所有ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置RAID读写策略为“rw”。

[root@localhost ~]# ./storcli64 /c0/v0 set accesspolicy=rw
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
----------------------------------------
VD Property  Value Status  ErrCd ErrMsg
----------------------------------------
 0 AccPolicy RW    Success     0 -
----------------------------------------
 
 
 
[root@localhost ~]#

8.7.2.17 设置RAID组的I/O策略

命令功能

设置RAID组的I/O策略。

命令格式

storcli64 /ccontroller_id/vraid_id set iopolicy=mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAID的ID

-

mode

设置RAID组的I/O策略

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

 

以上涉及的各个ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

说明

5.140.00-3319及之后的FW版本不支持将I/O策略设置为“Cached”。

使用实例

# 设置RAID组的I/O策略为“direct”。

[root@linux ~]# storcli64 /c0/v1 set iopolicy=direct
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.14.0-115.el7a.0.1.aarch64
Controller = 0
Status = Success
Description = None
Detailed Status :
===============
----------------------------------------
VD Property Value  Status  ErrCd ErrMsg
----------------------------------------
 1 IoPolicy Direct Success     0 -
----------------------------------------

8.7.2.18 设置硬盘Cache状态

命令功能

设置RAID组成员盘的Cache状态。

命令格式

storcli64 /ccontroller_id/vvd_id set pdcache=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

RAID组的ID

-

action

要执行的操作

l     on:打开硬盘Cache

l     off:关闭硬盘Cache

l     default:将硬盘Cache设置为默认状态

 

以上涉及的各个ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 打开ID为0的RAID组的硬盘Cache。

./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
---------------------------------------
VD Property Value Status  ErrCd ErrMsg
---------------------------------------
 0 PdCac    On    Success     0 -
---------------------------------------

8.7.2.19 设置RAID组的Cache读写策略

命令功能

设置RAID组的Cache读写策略。

命令格式

命令

说明

storcli64 /ccontroller_id/vraid_id set wrcache=wrmode

设置Cache写策略

storcli64 /ccontroller_id/vraid_id set rdcache=rdmode

设置Cache读策略

 

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAID组的ID

-

wrmode

设置Cache写策略

l     wt:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     wb:控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”策略。

rdmode

设置Cache读策略

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

 

以上涉及的所有ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置Cache读写模式为“wt”。

[root@localhost ~]# ./storcli64 /c0/v0 set wrcache=wt
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
---------------------------------------
VD Property Value Status  ErrCd ErrMsg
---------------------------------------
 0 wrCache  WT    Success     0 -
---------------------------------------
 
 
 
[root@localhost ~]#

8.7.2.20 设置紧急热备功能

命令功能

设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。

命令格式

storcli64 /ccontroller_id set eghs eug=state

storcli64 /ccontroller_id set eghs smarter=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

state

紧急热备功能的启用状态

l     on:启用

l     off:禁用

 

查看RAID控制卡ID的方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。

[root@localhost ~]# ./storcli64 /c0 set eghs eug=on
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
------------------
Ctrl_Prop   Value
------------------
EmergencyUG ON
------------------
 
 
 
[root@localhost ~]# ./storcli64 /c0 set eghs smarter=on
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-----------------------
Ctrl_Prop        Value
-----------------------
EmergencySmarter ON
-----------------------
 
 
 
[root@localhost ~]#

8.7.2.21 设置RAID前台初始化模式

命令功能

设置RAID前台初始化模式。

命令格式

storcli64 /ccontroller_id/vraid_id start mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

mode

前台初始化模式

l     init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。

l     init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。

 

以上涉及的所有ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 快速初始化RAID。

[root@localhost ~]# ./storcli64 /c0/v4 start init
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = Start INIT Operation Success
 
 
[root@localhost ~]#

8.7.2.22 设置硬盘定位指示灯状态

命令功能

点亮和熄灭指定硬盘的定位指示灯。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。

slot_id

物理硬盘槽位编号

可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。

action

要执行的操作

l     start:点亮硬盘的定位指示灯。

l     stop:熄灭硬盘的定位指示灯。

 

以上涉及的所有ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 点亮slot 7硬盘的定位指示灯。

domino:~# ./storcli64 /c0/e252/s7 start locate
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.

8.7.2.23 设置硬盘PowerSave功能

命令功能

设置空闲硬盘和热备盘的省电模式。

命令格式

storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID。

state

省电模式的启用状态。

l     on:启用

l     off:禁用

disktype

硬盘类型。

l     1:空闲硬盘

l     2:热备盘

time

等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。

单位为minutes。

 

查看RAID控制卡ID的方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置空闲硬盘的省电模式。

[root@localhost ~]# ./storcli64 /c0 set ds=on type=1 spindowntime=30
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
------------------------
Ctrl_Prop    Value
------------------------
SpnDwnUncDrv Enabled
SpnDwnTm     30 minutes
------------------------
 
 
 
[root@localhost ~]#

8.7.2.24 设置后台资源占用率

命令功能

设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。

命令格式

storcli64 /ccontroller_id set action=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要设置的项目

l     bgirate:后台初始化速率

l     ccrate:一致性校验速率

l     prrate:硬盘巡检速率

l     rebuildrate:RAID重构速率

l     reconrate:RAID扩容和迁移速率

value

后台任务资源占用率

1~100

 

查看RAID控制卡ID的方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置硬盘巡检速率为“30%”。

[root@localhost ~]#  ./storcli64 /c0 set prrate=30
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-----------------------
Ctrl_Prop        Value
-----------------------
Patrol Read Rate 30%
-----------------------
 
 
 
[root@localhost ~]#

8.7.2.25 设置BIOS Stop on Error功能

命令功能

设置控制器BIOS在检测到异常时停止继续启动的功能。

命令格式

storcli64 /ccontroller_id set bios mode=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要执行的操作

l     soe:控制器BIOS在检测到异常时停止启动

l     ie:忽略检测到的异常

 

查看RAID控制卡ID的方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 开启Stop on error功能。

[root@localhost ~]# ./storcli64 /c0 set bios mode=soe
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------
 
 
 
[root@localhost ~]#

8.7.2.26 查询和清除PreservedCache数据

命令功能

查询和清除PreservedCache数据。

命令格式

storcli64 /ccontroller_id show preservedcache

storcli64 /ccontroller_id/vvd_id delete preservedcache force

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要操作的RAID的ID

 

以上涉及的所有ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查询PreservedCache。

domino:~# ./storcli64 /c0 show preservedcache
Controller = 0
Status = Success
Description = No Virtual Drive has Preserved Cache Data.

8.7.2.27 通过增加成员盘可用容量扩容RAID

命令功能

RAID有2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

命令格式

storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要扩容的RAID的ID

capacity

扩容后的容量

expandarray

当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。

 

以上涉及的所有ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查询VD的可扩展容量。

[root@localhost ~]# storcli64 /c0/v1 show expansion 
CLI Version = 007.1416.0000.0000 July 24, 2020 
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64 
Controller = 0 
Status = Success 
Description = None 
 
 
EXPANSION INFORMATION : 
===================== 
 
-------------------------------------------- 
VD      Size OCE NoArrExp WithArrExp Status 
-------------------------------------------- 
 1 10.000 GB Y   3.627 TB 5.447 TB   - 
-------------------------------------------- 
 
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion 
 VD=Virtual Drive | NoArrExp - Without Array Expansion

说明

如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。

# 将VD0的容量扩大“200GB”。

domino:~# ./storcli64 /c0/v0 expand size=200GB
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
0 100.0 GB 457.861 GB 200.0 GB 201.458 GB 44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %

说明

RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。

8.7.2.28 通过增加新盘扩容或迁移RAID

命令功能

RAID有2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

当增加新盘后,可进行RAID级别迁移。

命令格式

storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

vd_id

要操作的RAID的ID

slot_id

要加入RAID的新硬盘的槽位号

level

增加硬盘后RAID的级别

l     与原RAID级别相同时,该命令为扩大RAID容量。

l     与原RAID级别不同时,该命令为RAID级别迁移。

 

以上涉及的所有ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 在RAID 0中增加slot 2硬盘扩容。

domino:~# ./storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 13 Minutes
-------------------------------------------------------

# 单盘RAID 0加盘迁移至RAID 1。

domino:~# ./storcli64 /c0/v0 start migrate type=r1 option=add drives=252:3
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 14 Minutes
-------------------------------------------------------

8.7.2.29 升级硬盘FW

命令功能

升级硬盘的FW。

命令格式

./storcli64 /ccontroller_id /eenclosure_id/sslot_id download src=FW_name.bin

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

FW_name

硬盘FW的名称

 

以上涉及的各个ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用实例

#升级硬盘FW。

[root@localhost ~]# ./storcli64 /c0/e64/s5 download src=5200_D1MU004_Releasefullconcatenatedbinary.bin
Starting microcode update  .....please wait...
Flashing PD image  ..... please wait...
CLI Version = 007.0504.0000.0000 Nov 22,2017
Operation system = Linux 3.10.0-514.el7.x86_64
Controller = 0 
Status = Success 
Description = Firmware Download succeeded. 
 
Drive Firmware Download : 
======================== 
-------------------------------------------------------------------------------- 
Drive     Status  ErrCd    ErrMsg 
-------------------------------------------------------------------------------- 
/c0/e64/s5 Success   0        -
--------------------------------------------------------------------------------

8.7.2.30 手动重构RAID

命令功能

手动重构RAID组。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row

storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

要加入Array的物理硬盘槽位编号

DG

硬盘发生故障的DG的ID

Arr

硬盘发生故障的Array的ID

Row

硬盘发生故障的Array的row number

 

以上涉及的各个ID的查询方法请参见8.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

重构RAID分3个步骤进行:

1.通过./storcli64 /c0 show 命令,查询故障硬盘的DG、Arr和Row所对应的数字。

2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。

3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID。

使用实例

# 将硬盘加入RAID组。

[root@localhost ~]# storcli64 /c0/e252/s1 insert dg=0 array=0 row=0
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = Insert Drive Succeeded.

# 手动重构RAID。

[root@localhost ~]# storcli64 /c0/e252/s1 start rebuild
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

8.7.2.31 查看/导入/清除外部配置

命令功能

指导用户查看、导入或者清除RAID控制卡的外部配置。

命令格式

storcli64 /ccontroller_id/fall import preview

storcli64 /ccontroller_id/fall import

storcli64 /ccontroller_id/fall delete

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

 

使用指南

使用实例

# 查看RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall import preview
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-957.el7.x86_64
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
 
 
FOREIGN PREVIEW :
===============
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Total foreign drive groups = 0

# 删除RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall delete
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-957.el7.x86_64
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration


9 Avago SAS3408iMR

关于本章

主要介绍Avago SAS3408iMR RAID控制卡的外观、特性、以及配置方法。

本章节涉及的截图以5.060.01-2262 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

9.1  概述

9.2  功能

9.3  初始配置

9.4  常用配置

9.5  故障处理

9.6  管理界面介绍

9.7  OS命令行工具

9.1 概述

Avago SAS3408iMR RAID 控制卡(以下简称Avago SAS3408iMR)是基于MegaRAID架构的8端口12Gbit/s SAS控制器,并采用PCIex8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

Avago SAS3408iMR用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

Avago SAS3408iMR RAID控制卡不支持虚拟化场景,在安装操作系统前,需要在BIOS中将“Advanced > MISC Config”界面中的参数“Support Smmu”设置为“Disabled”。

Avago SAS3408iMR支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考9.2.13 硬盘直通。

Avago SAS3408iMR包含PCIe标卡与扣卡两种形态:

l     Avago SAS3408iMR扣卡与主板通过1个Xcede连接器互连,与硬盘背板通过2个miniSAS线缆互连,结构如图9-1所示。

l     Avago SAS3408iMR的PCIe标卡安装在服务器的PCIe槽位上,结构如图9-2所示。

图9-1 Avago SAS3408iMR扣卡

 

图9-2 Avago SAS3408iMR标卡

 

1

系统错误灯

2

单板电源指示灯

3

系统心跳灯

4

Xcede连接器

5

miniSAS接口(port A)

6

miniSAS接口(port B)

 

Avago SAS3408iMR单板指示灯说明如表9-1所示。

表9-1 RAID控制卡单板指示灯说明

指示灯

颜色

说明

单板电源指示灯

绿色

l     亮:电源正常。

l     灭:电源关闭或异常。

系统错误灯

红色

l     亮:系统运行异常。

l     灭:系统运行正常。

系统心跳灯

绿色

l     灯以2s周期闪烁:Avago SAS3408iMR RAID控制卡正在工作。

l     灯灭:Avago SAS3408iMR RAID控制卡未开始运行或FW运行异常。

 

9.2 功能

9.2.1 支持RAID 0/1/10

Avago SAS3408iMR支持硬盘以直通方式和加入RAID组两种方式混合使用,其中:

l     硬盘直通模式支持的最大硬盘数量为63。

l     直通模式的硬盘和加入RAID组中的硬盘数量最多为63。

l     所有RAID组包含的最大硬盘数量为32。

说明

该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

l     每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

l     最多支持32个虚拟磁盘(即配置界面中看到的“Virtual Drive”),每个虚拟磁盘最多包含32个硬盘。

Avago SAS3408iMR支持的RAID类型及对应的硬盘个数如表9-2所示。

表9-2 RAID-硬盘参数

RAID级别

支持硬盘数

支持子组数

子组支持硬盘数

允许坏盘数

RAID 0

1~32

不涉及

不涉及

0

RAID 1

2~32(偶数)

硬盘数÷2

RAID 10

4~32(偶数)

2~8个RAID 1

2~16(偶数)

子组数

 

说明

l     不支持RAID 00级别。

l     子组数:子RAID的个数。

l     RAID 10每个子组中最多允许1个坏盘。

l     RAID 10包含的总硬盘数由子组数和子组支持的硬盘数共同决定。

9.2.2 硬盘热备份

Avago SAS3408iMR的热备功能分为两种:热备盘和紧急备份。

热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     Global HSP:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

配置方法请参见9.4.1.1 配置全局热备盘。

l     Dedicated HSP:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

配置方法请参见9.4.1.2 配置局部热备盘。

热备盘容量需大于等于成员盘容量。

说明

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     除RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

紧急备份

使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。

紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。

紧急备份有两种情况,对应了两种设置:

l     当成员盘fail时,空闲盘替代成员盘作为紧急备份。

l     当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。

配置方法请参见9.4.2 设置紧急热备功能。

9.2.3 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

说明

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考9.2.15 导入外部配置章节恢复RAID组,无需更换硬盘。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

9.2.4 回拷

具备冗余功能的RAID的成员盘故障之后,热备盘自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。

9.2.5 硬盘分条

条带化

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数和数据传输率有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待,这时就是所谓的硬盘冲突。

条带化技术是一种自动将I/O负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

影响条带化效果的因素有:

l     条带宽度:指同时可以并发读或写的条带数量。

这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。

在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。

l     条带大小:指写在每块硬盘上的条带数据块的大小。

分条

硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。

Avago SAS3408iMR不支持设置条带大小,默认为64KB。

9.2.6 初始化

VD初始化

创建虚拟磁盘后,需要将其初始化,使其可以被操作系统使用,且使具有冗余功能的虚拟磁盘中各成员盘的数据关系满足相应的RAID级别要求。

Avago SAS3408iMR提供了多种相应的初始化方式:

l     快速初始化:属于前台初始化,Firmware只要把虚拟磁盘的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。

l     慢速初始化:属于前台初始化,Firmware需要把整个虚拟磁盘都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。

l     后台初始化:目的是使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。对于RAID 1/RAID 10,如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。

说明

l     一致性校验和后台初始化通常会对性能造成一定损失,直至该操作完成。

l     一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。

硬盘初始化

硬盘可执行的初始化包括:

l     Initialize Drive:对前100MByte空间进行全写0操作。

l     Drive Erase:对全部空间进行写0操作。

说明

不支持停止SATA SSD的擦除和初始化过程。

9.2.7 RAID级别迁移

RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见9.4.5 迁移RAID级别。

当前支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1

l     RAID 1迁移到RAID 0

RAID迁移对硬盘数量的要求如表9-3所示。

表9-3 RAID迁移的硬盘数量说明

迁移RAID级别

原始硬盘组硬盘数量

迁移后的硬盘组硬盘数量

RAID 0迁移 RAID 1

1~32

2~32(偶数)

RAID 1迁移到RAID 0

2~32(偶数)

2~32

 

9.2.8 可用容量扩展

Avago SAS3408iMR支持的容量扩展方式有两种:

l     通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。

详细操作方法可参考9.4.3 添加新硬盘到RAID。

l     通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。

详细操作方法可参考9.4.4 扩展Virtual Drives可用空间。

说明

l     只有RAID 0、RAID1支持增加硬盘扩容。

l     RAID 10不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。

l     当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见 9.7.2.23 通过增加成员盘可用容量扩容RAID。

9.2.9 安全数据擦除

安全擦除即将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘安全擦除功能:

l     Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。

l     Normal:对虚拟磁盘或硬盘进行三轮擦除动作。

l     Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。

安全数据擦除过程中,主机无法访问该虚拟磁盘。

Avago SAS3408iMR支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。

9.2.10 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     动态扩盘

l     完全初始化或后台初始化

l     一致性校验

9.2.11 自动S.M.A.R.T扫描

S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T 监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据丢失。

RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描。扫描周期可通过S.M.A.R.T Polling设置,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。

9.2.12 硬盘节能

RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。

默认情况下,硬盘节能功能处于开启状态。

当硬盘节能功能开启时,RAID控制卡下挂载的“Unconfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)需要唤醒正处于节能状态的硬盘,该操作会有一定程度的延迟。

9.2.13 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

Avago SAS3408iMR可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在Avago SAS3408iMR下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。

Avago SAS3408iMR支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

如果需要使能硬盘直通功能,请在图9-73所示界面的“JBOD Mode”参数进行设置。

说明

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

9.2.14 硬盘漫游

硬盘漫游是指在同一控制器下移动物理硬盘。控制器将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。

要使用硬盘漫游,按以下步骤操作:

1.     关闭操作系统。

2.     将服务器下电。

3.     将物理硬盘移动到背板所需位置。

4.     执行安全检查。确保正确插入物理硬盘。

5.     将服务器上电。

6.     控制器从物理硬盘上的配置数据中检测到RAID配置。

9.2.15 导入外部配置

如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。

此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。

9.2.16 硬盘故障记录

Avago SAS3408iMR提供硬盘故障记录功能:

l     使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。

l     禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,Avago SAS3408iMR会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。

维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。

l     使能该功能后,当硬盘故障时,会点亮Fault指示灯。

l     禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。

默认情况下,Avago SAS3408iMR使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。

9.2.17 一致性校验

针对有冗余功能的RAID 1、RAID10,RAID控制卡可以对RAID组的硬盘数据进行一致性校验,对硬盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。

由于RAID 0不具备冗余性,因此不支持一致性校验。

说明

建议每月至少进行一次一致性校验。

9.3 初始配置

文档中描述的关于Avago SAS3408iMR的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。

9.3.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如图9-3所示界面时,按“Delete”。

图9-3 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如图9-4所示界面。

图9-4 Setup Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如图9-5所示。

图9-5 “Advanced”页签

 

说明

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见9.5.3 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择要操作的Avago SAS3408iMR控制器,按“Enter”。

进入如图9-6图9-7所示主界面,界面参数如表9-4所示。

图9-6 Avago SAS3408iMR主界面(1)

 

图9-7 Avago SAS3408iMR主界面(2)

 

表9-4 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

说明

Avago SAS3408iMR不支持超级电容,该选项显示为“No”。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

说明

仅当Avago SAS3408iMR存在外部配置时,会显示该选项。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

Silence Alarm

板载蜂鸣器的使能状态。

说明

Avago SAS3408iMR未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

9.3.2 创建RAID 0

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3408iMR支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见9.2.1 支持RAID 0/1/10。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见9.3.1 登录管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图9-8图9-9所示,参数说明如表9-5所示。

图9-8 “Create Virtual Drive”界面(1)

 

图9-9 “Create Virtual Drive”界面(2)

 

表9-5 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照9.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,Avago SAS3408iMR当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

Avago SAS3408iMR当前不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

Avago SAS3408iMR当前不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

Avago SAS3408iMR当前不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如图9-10所示,界面参数如表9-6所示。

图9-10 添加成员盘

 

表9-6 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     按表9-6所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 0支持的硬盘个数为1~32。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。

5.     选择“Apply Changes”并按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照表9-5所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照9.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

弹出操作确认界面。

2.     通过“Enter”键把“Confirm”状态切换成“Enabled”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

9.3.3 创建RAID 1

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3408iMR支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见9.2.1 支持RAID 0/1/10。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见9.3.1 登录管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图9-11图9-12所示,参数说明如表9-7所示。

图9-11 “Create Virtual Drive”界面(1)

 

图9-12 “Create Virtual Drive”界面(2)

 

表9-7 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照9.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,Avago SAS3408iMR当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

Avago SAS3408iMR当前不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

Avago SAS3408iMR当前不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

Avago SAS3408iMR当前不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如图9-13所示,界面参数如表9-8所示。

图9-13 添加成员盘

 

表9-8 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     按表9-8所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 1支持的硬盘个数为2~32(偶数)。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。

5.     选择“Apply Changes”并按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照表9-7所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照9.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

弹出操作确认界面。

2.     通过“Enter”键把“Confirm”状态切换成“Enabled”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

9.3.4 创建RAID 10

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3408iMR支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见9.2.1 支持RAID 0/1/10。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见9.3.1 登录管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

3.     在主界面中选择“Main Menu”并按“Enter”。

4.     选择“Configuration Management”并按“Enter”。

5.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图9-14图9-15所示,参数说明如表9-9所示。

图9-14 Create Virtual Drive (1)

 

图9-15 “Create Virtual Drive” (2)

 

表9-9 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照9.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,Avago SAS3408iMR当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

Avago SAS3408iMR当前不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

Avago SAS3408iMR当前不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

Avago SAS3408iMR当前不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。

                                步骤 3     创建第1个Span。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如图9-16所示,界面参数如表9-10所示。

图9-16 添加成员盘

 

表9-10 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     按表9-10所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 10支持2~8个Span,每个Span支持的硬盘数为2~16(偶数),且各个Span的硬盘数量必须保持一致。

l     RAID 10支持的硬盘总数为4~32。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     创建第2个Span。

当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如图9-17所示。

图9-17 RAID 10的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

3.     在打开的列表中选择第2个Span的成员盘。

说明

各个Span的硬盘数量必须保持一致。

4.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

5.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。

说明

RAID10至少需要创建2个Span,最多可以创建8个Span。

                                步骤 6     配置虚拟磁盘属性。

按照表9-9所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照9.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 7     保存配置。

1.     选择“Save Configuration”并按“Enter”。

弹出操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”界面并按“Enter”。

显示当前存在的RAID信息。

----结束

9.3.5 配置启动项

同一台服务器配置了单个Avago SAS3408iMR卡或者多种芯片硬盘控制器的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。

设置启动项的操作方法请参见BIOS参数参考的“设置启动设备”章节。

9.4 常用配置

9.4.1 管理热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

Avago SAS3408RAID控制卡支持2种类型的热备盘:

l     Global Hotspare:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

l     Dedicated Hotspare:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

说明

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     除RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

9.4.1.1 配置全局热备盘

操作步骤

登录管理界面,具体操作方法请参见9.3.1 登录管理界面。

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如图9-18所示。

图9-18 Drive Management界面

 

                                步骤 2     配置全局热备盘。

1.     将“Operation”设置为“Assign Global Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

显示The operation has been performed successfully。

3.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

9.4.1.2 配置局部热备盘

操作步骤

说明

当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

登录管理界面,具体操作方法请参见9.3.1 登录管理界面。

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如图9-19所示。

图9-19 Drive Management

 

                                步骤 2     配置局部热备盘。

1.     将“Operation”设置为“Assign Dedicated Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

打开当前存在的虚拟磁盘列表。

3.     选择要关联的虚拟磁盘并按“Enter”。

4.     选择“OK”按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”并按“Enter”,完成配置并返回上级界面。

----结束

9.4.1.3 删除热备盘

操作场景

当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

操作步骤

登录管理界面,具体操作方法请参见9.3.1 登录管理界面。

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如图9-20所示。

图9-20 Drive Management

 

                                步骤 2     删除热备盘。

1.     将“Operation”设置为“Unassign Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

9.4.2 设置紧急热备功能

操作步骤

登录管理界面,具体操作方法请参见9.3.1 登录管理界面。

                                步骤 1     进入“Advanced Controller Properties”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

3.     选择“Advanced Controller Properties”并按“Enter”。

                                步骤 2     设置紧急热备。

1.     选择“Spare”并按“Enter”。

2.     将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如图9-21所示。

图9-21 “Spare”界面

 

3.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

----结束

9.4.3 添加新硬盘到RAID

操作场景

 

注意

l     只有RAID 0、RAID 1支持增加硬盘扩容。

l     RAID 10不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

对系统的影响

增加硬盘扩容过程中,如果出现硬盘故障,会导致:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID。

请谨慎执行增加硬盘扩容操作。

必备事项

前提条件

添加硬盘扩容之前,需具备如下条件:

l     服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     已登录管理界面,具体方法请参见9.3.1 登录管理界面。

数据

操作之前建议先备份数据。

操作步骤

进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”。

进入虚拟磁盘选项界面,如图9-22所示。

图9-22 虚拟磁盘选项界面

 

                                步骤 2     添加新硬盘。

1.     选择要进行扩容的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如图9-23所示。

图9-23 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”

4.     选择“Go”并按“Enter”。

5.     选择要扩容的RAID级别。

 

注意

增加硬盘扩容时,请保证该处的RAID级别与原级别一致。

6.     选择“Choose the Operation”,并按“Enter”。

进入硬盘选择界面,如图9-24所示。

图9-24 Choose the Operation

 

7.     选择要增加的硬盘,并按“Enter”。

说明

l     硬盘状态为“【×】”时表示该硬盘已选择。

l     增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。

l     RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。

8.     选择“Apply Changes”并按“Enter”。

进入操作确认界面。

9.     选择“Confirm”并按“Enter”。

10.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully。

11.     选择“OK”并按“Enter”。

返回到如图9-25所示界面。

图9-25 操作界面

 

12.     选择“Start Operation”并按“Enter”。

显示操作成功。

13.     选择“OK”并按“Enter”。

重新进入虚拟磁盘选项界面,验证扩容结果,如图9-26所示,表示RAID正在进行扩容。

图9-26 Reconfigure Virtual Drives

 

说明

扩容属于后台动作,在HII界面只能触发而不能正式开始扩容,所以扩容的进度条一直显示为0%。当进入OS后,扩容才会开始进行。

----结束

9.4.4 扩展Virtual Drives可用空间

操作场景

在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见9.3.1 登录管理界面。

                                步骤 1     进入要操作的虚拟磁盘界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如图9-27所示。

图9-27 Virtual Drive Management

 

                                步骤 2     扩容虚拟磁盘。

1.     将“Operation”设置为“Expand Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入虚拟磁盘扩容界面,如图9-28界面所示,界面参数如表9-11所示。

图9-28 Expand Virtual Drive

 

表9-11 参数说明

参数

参数说明

Current Capacity

虚拟磁盘当前容量。

Available Capacity

可用于扩展的容量。

Enter a Percentage of Available Capacity

输入扩容比例。

Capacity of Virtual Drive after Expansion

扩容后虚拟磁盘容量。

 

3.     设置扩容百分比。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

9.4.5 迁移RAID级别

操作场景

随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。

在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。

对系统的影响

RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID。

请谨慎执行RAID级别迁移操作。

必备事项

前提条件

迁移RAID级别之前,需具备如下条件:

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     当前存在的硬盘个数满足目标RAID级别要求。

l     已登录管理界面,具体方法请参见9.3.1 登录管理界面。

Avago SAS3408iMR RAID控制卡支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1

l     RAID 1迁移到RAID 0

RAID迁移对硬盘数量的要求如表9-3所示。

说明

l     当RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     迁移只支持增加与RAID组成员盘同类型同规格的硬盘。

l     为防止数据丢失,请在该操作之前备份当前RAID组的数据。

l     只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。

l     迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。

操作步骤

进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”并按“Enter”。

进入虚拟磁盘选项界面,如图9-29所示。

图9-29 虚拟磁盘选项界面

 

                                步骤 2     选择RAID迁移的目标级别。

下面以将RAID 1迁移到RAID 0为例进行说明。

1.     选择要进行迁移的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如图9-30所示。

图9-30 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”。

4.     选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如图9-31所示。不设置时默认与原RAID组配置一致。

图9-31 Advanced...

 

5.     选择“Go”,并按“Enter”。

进入RAID配置界面,如图9-32所示。

图9-32 Reconfigure Virtual Drives

 

6.     选择“New RAID Level”并按“Enter”。

打开RAID迁移的目标级别选择窗口,如图9-33所示。

图9-33 选择新的RAID级别

 

7.     选择“RAID 0”并按“Enter”。

                                步骤 3     添加硬盘。

1.     选择“Choose the operation”并按“Enter”。

打开硬盘选择窗口。

2.     选择要增加的硬盘并按“Enter”。

说明

RAID迁移对硬盘数量的要求请参见表9-3

3.     选择“Apply Changes”并按“Enter”。

弹出操作确认会话框。

4.     选择“Confirm”并按“Enter”。

5.     选择“Yes”并按“Enter”。

提示操作成功。

6.     按“Esc”返回图9-32界面。

                                步骤 4     RAID级别迁移。

1.     选择“Start Operation”并按“Enter”。

提示操作成功。

2.     选择“OK”并按“Enter”。

                                步骤 5     查看迁移结果。

1.     进入Virtual Drive Management界面,检查迁移结果,如图9-34所示,表示RAID正在进行迁移。

图9-34 查看迁移结果

 

说明

l     迁移过程中若重启服务器,该任务将在重启后继续进行。

l     迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。

2.     选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 1”变成“RAID 0”,且“Status”状态显示为“Optimal”时,表示RAID迁移成功。

----结束

说明

迁移属于后台动作,在HII界面只能触发而不能正式开始,所以迁移的进度条一直显示为0%。当进入OS后,迁移才会开始进行。

9.4.6 删除RAID

操作场景

 

注意

RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见9.3.1 登录管理界面。

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如图9-35所示。

图9-35 Virtual Drive Management

 

                                步骤 2     删除虚拟磁盘。

1.     将“Operation”设置为“Delete Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

9.4.7 重构RAID

说明

l     当出现硬盘离线情况时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     rebuild属于后台动作,在HII界面只能触发而不能正式开始rebuild,所以rebuild的进度条一直显示为0%。当进入OS后,rebuild才会开始进行。

重构RAID(含外部配置)

在“Main Menu”界面中选择“Drive Management”,并按“Enter”。

                                步骤 1     选择要进行重构的硬盘,并按“Enter”。

                                步骤 2     选择“Operation”并按“Enter”。

显示该硬盘的操作菜单,如图9-36所示。

                                步骤 3     选择“Make Unconfigured Good”并按“Enter”。

                                步骤 4     选择“Go”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     选择“OK”并按“Enter”。

硬盘状态变为“(Foreign)Unconfigured Good”。

                                步骤 6     导入外部配置,具体操作请参见9.4.9 导入/清除外部配置。

RAID组开始进行重构。

                                步骤 7     重新进入该硬盘操作界面可查看重构进度。

----结束

重构RAID(无外部配置)

在“Main Menu”界面中选择“Drive Management”,并按“Enter”。

                                步骤 1     选择要进行重构的硬盘,并按“Enter”。

                                步骤 2     选择“Operation”并按“Enter”。

显示该硬盘的操作菜单。

图9-36 “Select Operation”

 

                                步骤 3     选择“Replace Missing Drive”并按“Enter”。

                                步骤 4     选择“Go”并按“Enter”。

进入“Replace Missing Drive”界面,如图9-37所示。

图9-37 “Replace Missing Drive”

 

                                步骤 5     选择“Drive Group”并按“Enter”。

选择需替换硬盘的RAID。

                                步骤 6     选择“Row Index”并按“Enter”。

选择需要替换的硬盘索引,推荐使用默认配置。

                                步骤 7     选择“Replace Drive”并按“Enter”。

提示“The operation has been performed successfully”。

                                步骤 8     选择“OK”并按“Enter”完成硬盘替换。

                                步骤 9     重新进入该硬盘操作界面,选择“Operation”并按“Enter”。

显示该硬盘的操作菜单,如图9-38所示。

图9-38 硬盘操作菜单

 

                             步骤 10     选择“Rebuild”并按“Enter”。

                             步骤 11     选择“Go”并按“Enter”。

提示“The operation has been started successfully...”,硬盘开始重构。

                             步骤 12     重新进入该硬盘操作界面可查看重构进度。

----结束

9.4.8 查看RAID控制卡属性

操作场景

用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。

操作步骤

登录管理界面,具体操作方法请参见9.3.1 登录管理界面。

                                步骤 1     进入“Controller Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息,如图9-39所示,参数说明如表9-12所示。

图9-39 Controller Management

 

表9-12 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见9.3.5 配置启动项。

PCI ID

RAID控制卡的PCI ID。

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Connector Count

RAID控制卡与主板的接口个数。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制器操作。

Advanced Controller Properties

查看和修改控制器的高级属性。

 

                                步骤 2     查看控制器高级属性。

选择“Advanced Controller Properties”并按“Enter”。

进入控制器高级属性界面,如图9-40所示,参数说明如表9-13所示。

在该界面下,可查看并修改RAID控制卡的高级属性。

图9-40 Advanced Controller Properties界面(1)

 

图9-41 Advanced Controller Properties界面(2)

 

表9-13 参数说明

参数

说明

Profile Management

管理快速RAID。

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

Spare

设置控制器热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

Avago SAS3408iMR控制器卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制器BIOS的使能情况。

ROC Temperature

控制器温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见9.4.9 导入/清除外部配置章节。

SMART Polling

SMART轮巡检测周期。默认值为“300”。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

JBOD Mode

硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。

Drive Detection Type

随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制器属性。

可用选项为:

l     Disabled

l     High Latency

l     Aggressive

l     Default

Drive Corrective Action

随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致I/O延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。

l     Disabled:禁用该功能

l     Enabled:开启该功能

Drive Error Threshold

通过该选项设置适当的控制器属性。

l     Every 8 hours

l     Every1 hours

l     Every 15 mins

l     Every 5 mins

Large IO Support

启用或禁用大型I/O支持功能。

Apply Changes

保存配置。

 

----结束

9.4.9 导入/清除外部配置

操作场景

l     服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或不需要的存储配置,可将该配置导入或者清空。

 

注意

l     如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!

l     为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

导入外部配置

登录管理界面,具体操作方法请参见9.3.1 登录管理界面。

                                步骤 1     在主界面中“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如图9-42所示。

图9-42 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

进入外部配置管理界面,如图9-43所示。

图9-43 Preview Foreign Configuration

 

                                步骤 5     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully。

                                步骤 8     选择“OK”并按“Enter”完成配置返回上级界面。

----结束

清除外部配置

登录管理界面,具体操作方法请参见9.3.1 登录管理界面。

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如图9-44所示。

图9-44 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

进入外部配置管理界面,如图9-45所示。

图9-45 Preview Foreign Configuration

 

                                步骤 5     选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 8     选择“OK”并按“Enter”完成配置返回上级界面。

----结束

9.4.10 设置JBOD模式

Avago SAS3408iMR支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

说明

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

登录管理界面,具体操作方法请参见9.3.1 登录管理界面。

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Properties界面,如图9-46所示。

图9-46 Advanced Controller Properties

 

                                步骤 2     选择“JBOD Mode”并按Enter。

                                步骤 3     选择“Enabled”并按“Enter”。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

9.4.11 创建多个VD(Virtual Drive)

该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID1存在一个VD为例(如图9-47所示),详细操作方法如下:

图9-47 Virtual Drive Management

 

按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如图9-48所示。

图9-48 Create Virtual Drive

 

                                步骤 2     将“Select RAID Level”设置为“RAID1”。

                                步骤 3     将“Select Drives From”设置为“Free Capacity”,如图9-49所示。

图9-49 Create Virtual Drive

 

                                步骤 4     选择“Select Drive Groups”并按“Enter”。

显示当前存在的RAID组(Drive Group),如图9-50所示。

图9-50 Select Drive Groups

 

                                步骤 5     选择要创建多个VD的RAID组,并按“Enter”,如图9-51所示。

图9-51 Select Drive Groups

 

                                步骤 6     选择“Apply Changes”并按“Enter”。

提示操作成功。

                                步骤 7     选择“OK”并按“Enter”返回VD配置界面,如图9-52所示,参数说明如表9-14所示。

图9-52 Create Virtual Drive

 

表9-14 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drive Groups

选择硬盘组。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照9.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,Avago SAS3408iMR当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

Avago SAS3408iMR当前不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

Avago SAS3408iMR当前不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

Avago SAS3408iMR当前不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略。可配置的状态有:

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。

l     Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 8     按照表9-14所述配置VD的相关属性。

                                步骤 9     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

                             步骤 10     选择“Confirm”并按“Enter”。

                             步骤 11     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                             步骤 12     选择“OK”并按“Enter'”完成配置。

可进入Virtual Drive Management界面,查看当前存在的所有VD,如图9-53所示。

图9-53 Virtual Drive Management

 

----结束

说明

每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤12

9.4.12 查询RAID控制卡固件版本

查询RAID控制卡固件版本的方法有如下几种:

l     在iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。

l     服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见9.7.2.1 查询RAID控制卡配置信息。

说明

回显信息中的“FW Version”字段即为RAID控制卡的固件版本。

l     在RAID控制卡管理界面进行查询,具体方法为:

a.     登录RAID控制卡的管理界面,具体操作请参见9.3.1 登录管理界面。

b.     在主界面中选择“Main Menu”并按“Enter”。

进入“Main Menu”页面,如图9-54所示。

图9-54 Main Menu页面

 

c.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如图9-55所示。

图9-55 Controller Management界面

 

9.5 故障处理

介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

9.5.1 硬盘故障

9.5.1.1 硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

确认故障硬盘槽位。

说明

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考9.6.2.4 Drive Management。

l     通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

                                步骤 1     更换新硬盘。

 

注意

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考9.4.9 导入/清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在表9-2查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制器下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成。新插入硬盘后确认rebuild操作是否已经启动,如rebuild操作未启动,需手动启动硬盘重构,操作请参见重构RAID(无外部配置)

如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。

     UEFI模式下创建RAID0的方法请参见9.3.2 创建RAID 0。

     通过命令行方式创建RAID0的方法请参见9.7.2.2 创建和删除RAID。

----结束

9.5.1.2 硬盘状态为fail或prefail

问题描述

正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。

但当RAID控制卡未设置紧急热备时,成员盘状态显示为fail或prefail时,可使用以下方法处理。

处理方法

使用StorCLI工具,具体操作请参考9.7.1 下载和安装StorCLI工具。

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考9.7.2.14 设置硬盘状态。

storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]

说明

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在Enclosure的ID

l     slot_id:物理硬盘槽位ID

                                步骤 2     更换离线硬盘。

                                步骤 3     RAID组自动执行重构。

等待重构完成。

----结束

9.5.1.3 硬盘状态为Unconfigured Bad或UBad

问题描述

硬盘状态显示为Unconfigured Bad或UBad。

处理方法

使用StorCLI工具,具体操作请参见9.7.1 下载和安装StorCLI工具。

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见9.7.2.14 设置硬盘状态。

storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]

说明

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在Enclosure的ID

l     slot_id:物理硬盘槽位ID

                                步骤 2     重新查看硬盘状态是否更改为Unconfigured Good或Ugood。具体操作请参见9.6.2.4 Drive Management界面或9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤4

                                步骤 3     查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见9.4.9 导入/清除外部配置或9.7.2.26 查看/导入/清除外部配置。

l     问题解决 => 处理完毕。

l     问题未解决 => 联系技术支持处理。

----结束

9.5.2 RAID控制卡故障

问题描述

当服务器出现如下现象时,说明RAID控制卡故障。

l     数据无法写入RAID控制卡控制的硬盘。

l     服务器上报RAID控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     查询兼容性查询助手或者联系技术支持处理。

----结束

9.5.3 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy

问题描述

正常情况下,当服务器配置了RAID控制卡且RAID控制卡状态正常时,进入BIOS的Advanced页签后,会显示RAID控制卡的信息,如图9-56所示。

如果Advanced页签不显示RAID控制卡的信息,如图9-57所示,则:

l     如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:

     如果不显示驱动打印信息,可尝试下电后重新拔插RAID控制卡再上电、下电后更换RAID控制卡再上电或者联系技术支持。

     如果显示“AVAGO EFI SAS Driver SAS3408”,则可以通过本章节的指导修复RAID控制卡。

l     如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,则可以通过本章节的指导修复RAID控制卡;如果不显示,可尝试下电后重新拔插RAID控制卡再上电、下电更换RAID控制卡再上电或者联系技术支持。

图9-56 Advanced页签(1)

 

图9-57 Advanced页签(2)

 

处理方法

l     当BIOS的版本为0.98之前版本(不包含0.98版本)时:

a.     在Advanced页签选择“Driver Health Manager”并按Enter。

进入“Driver Health Manager”界面。

b.     选择要进行修复的RAID控制卡驱动,如“AVAGO EFI SAS Driver SAS3408”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息:

n     显示“The following VDs have missing disks. ”=> 请参见9.5.3.1 The following VDs have missing disks。

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见9.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。

l     当BIOS的版本为0.98及以上版本时:

a.     在“Advanced”页签选择“Some drivers are not healthy”。

进入健康状态查询界面。

b.     选择“Repair the whole platform”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息。

n     显示“The following VDs have missing disks. ”=> 请参见9.5.3.1 The following VDs have missing disks。

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见9.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。

说明

RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见A.2 RAID控制卡启动中出现的常见的错误消息及处理方法。

9.5.3.1 The following VDs have missing disks

问题描述

图9-58所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。

图9-58 状态显示

 

处理方法

修复RAID控制卡。

1.     在图9-58中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

2.     输入“C”并按“Enter”。

3.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

4.     输入“y”并按“Enter”。

提示“Critical Message handling completed. Please exit”。修复完成。

                                步骤 1     重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

9.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

问题描述

图9-59所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”

图9-59 状态显示

 

处理建议

该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:

l     下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。

l     忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:

a.     在图9-59中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

b.     输入“c”并按“Enter”。

c.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

d.     输入“y”并按“Enter”。

提示Critical Message handling completed. Please exit。

e.     按“Esc”退出当前界面。

弹出确认保存配置会话框,如图9-60所示。

图9-60 提示保存会话框

 

f.     按“Y”保存配置,操作完成。

g.     按Esc键返回“Device Manager”界面。

h.     选择3408iMR RAID控制卡,并按“Enter”,进入RAID控制卡管理界面。

9.5.3.3 Disabling writes to flash as the flash part has gone bad

问题描述

图9-61所示,进入“Driver Healthy Protocol Utility”界面后,显示“Disabling writes to flash as the flash part has gone bad”。

图9-61 状态显示

 

处理方法

将服务器下电。

                                步骤 1     更换RAID控制卡。

                                步骤 2     将服务器上电,导入外部配置恢复原来的RAID配置,请参见9.4.9 导入/清除外部配置或9.7.2.26 查看/导入/清除外部配置。

检查提示是否清除。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

9.6 管理界面介绍

9.6.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如图9-62所示界面时,按“Delete”。

图9-62 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如图9-63所示界面。

图9-63 Setup Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如图9-64所示。

图9-64 “Advanced”页签

 

说明

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见9.5.3 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择要操作的Avago SAS3408iMR控制器,按“Enter”。

进入如图9-65图9-66所示主界面,界面参数如表9-15所示。

图9-65 Avago SAS3408iMR主界面(1)

 

图9-66 Avago SAS3408iMR主界面(2)

 

表9-15 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

说明

Avago SAS3408iMR不支持超级电容,该选项显示为“No”。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

说明

仅当Avago SAS3408iMR存在外部配置时,会显示该选项。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

Silence Alarm

板载蜂鸣器的使能状态。

说明

Avago SAS3408iMR未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

9.6.2 Main Menu

RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。

界面介绍

“Main Menu”界面如图9-67,参数说明如表9-16所示。

图9-67 Main Menu

 

表9-16 参数说明

参数

参数说明

Configuration Management

配置管理RAID。

Controller Management

管理RAID控制器。

Virtual Drive Management

管理虚拟磁盘。

Drive Management

管理硬盘。

Hardware Components

查询部件信息。

 

9.6.2.1 Configuration Management

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

“Configuration Management”界面如图9-68,参数说明如表9-17所示。

图9-68 Configuration Management

 

表9-17 参数说明

参数

参数说明

Create Virtual Drive

创建RAID。

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Clear Configuration

清除配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时会显示该参数。

 

快速创建RAID

图9-68中选择“Create Profile Based Virtual Drive”并按“Enter”。

                                步骤 1     通过“↑”、“↓”选择要创建的RAID(以“Generic RAID 1”为例)并按“Enter”。

打开RAID配置界面,如图9-69,参数说明如表9-18所示。

图9-69 RAID配置界面

 

表9-18 参数说明

参数

参数说明

Drive Selection Criteria

系统自动选择的成员盘。

Virtual Drive Name

系统自定义的RAID组名称。

RAID Level

当前配置的RAID组的级别。

Virtual Drive Size

RAID组的容量。

Power Save Mode

数据掉电保护模式。

Strip Size

RAID组扇区大小。

Read Policy

RAID组的数据读策略。

Write Policy

RAID组的数据写策略。

IO Policy

RAID组I/O策略。

Access Policy

数据读写的策略。

Drive Cache

硬盘Cache策略。

Create Dedicated Hot Spare

是否为RAID组创建局部热备盘。

Save Configuration

保存当前配置。

 

                                步骤 2     按表9-18所示查看或配置相关参数。

                                步骤 3     选择“Save Configuration”并按“Enter”。

弹出操作确认界面。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 6     选择“OK”并按“Enter”完成配置。

----结束

查看虚拟磁盘属性

图9-68中选择“View Drive Group Properties”并按“Enter”。

打开的界面如图9-70,参数说明如表9-19所示。

图9-70 View Drive Group Properties

 

表9-19 参数说明

参数

参数说明

Drive Group

硬盘组名称。

Capacity Allocation

硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。

 

9.6.2.2 Controller Management

该界面提供控制器管理接口,可查看并修改控制器的详细参数。

界面介绍

“Controller Management”界面如图9-71,参数说明如表9-20所示。

图9-71 Controller Management

 

表9-20 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见9.3.5 配置启动项。

PCI ID

RAID控制卡的PCI ID。

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Connector Count

RAID控制卡与主板的接口个数。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制器操作。

Advanced Controller Properties

查看和修改控制器的高级属性。

 

查看并修改控制器高级属性

图9-71中选择“Advanced Controller Properties”并按“Enter”。

界面如图9-72图9-73所示,界面中参数说明如表9-21所示。

图9-72 Advanced Controller Properties界面(1)

 

图9-73 Advanced Controller Properties界面(2)

 

表9-21 参数说明

参数

说明

Profile Management

管理快速RAID。

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

Spare

设置控制器热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

Avago SAS3408iMR控制器卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制器BIOS的使能情况。

ROC Temperature

控制器温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见9.4.9 导入/清除外部配置章节。

SMART Polling

SMART轮巡检测周期。默认值为“300”。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

JBOD Mode

硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。

Drive Detection Type

随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制器属性。

可用选项为:

l     Disabled

l     High Latency

l     Aggressive

l     Default

Drive Corrective Action

随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致I/O延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。

l     Disabled:禁用该功能

l     Enabled:开启该功能

Drive Error Threshold

通过该选项设置适当的控制器属性。

l     Every 8 hours

l     Every1 hours

l     Every 15 mins

l     Every 5 mins

Large IO Support

启用或禁用大型I/O支持功能。

Apply Changes

保存配置。

 

                                步骤 2     在图9-72中选择“Task Rates”并按“Enter”。界面如图9-74所示,界面中参数说明如表9-22所示。

图9-74 Task Rates

 

表9-22 参数说明

参数

说明

Background Initialization <BGI> Rate

设置执行后台初始化的速率。

说明

数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Consistency Check Rate

设置执行一致性校验的速率。

说明

数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Patrol Read Rate

设置执行巡检读取的速率。

说明

数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Rebuild Rate

设置硬盘发生故障时在新硬盘上执行重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Reconstruction Rate

设置执行RAID级别迁移或在线容量扩展时重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Apply Changes

保存配置。

 

                                步骤 3     按照表9-21所述修改控制器的高级属性参数。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

9.6.2.3 Virtual Drive Management

该界面提供虚拟磁盘的查询和管理接口。

界面介绍

“Virtual Drive Management”界面如图9-75,显示虚拟磁盘列表。

图9-75 Virtual Drive List

 

选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如图9-76所示,参数说明如表9-23所示。

图9-76 Virtual Drive Management

 

表9-23 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:定位虚拟磁盘的所有硬盘。

l     Stop Locate:取消定位。

l     Delete Virtual Drive:删除虚拟磁盘。

l     Expand Virtual Drive:扩展虚拟磁盘容量。

l     Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。

l     Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。

l     Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。

l     Fast Initialization:快速初始化虚拟磁盘。

l     Slow Initialization:安全初始化虚拟磁盘。

l     Check Consistency:一致性校验。

l     Virtual Drive Erase:格式化虚拟磁盘。

Name

虚拟磁盘名称。

Raid Level

虚拟磁盘RAID级别。

Status

虚拟磁盘当前运行状态。

Size

虚拟磁盘容量。

View Associated Drives

查看成员盘属性。

Advanced...

查看虚拟磁盘高级属性。

 

查看成员盘属性

图9-76中选择“View Associated Drives”并按“Enter”。

界面如图9-77,显示成员盘列表。

图9-77 View Associated Drives

 

                                步骤 2     选择要查看的成员盘,并按“Enter”。

                                步骤 3     选择“View Drive Properties”并按“Enter”。

进入硬盘属性界面,如图9-78界面所示,界面参数如表9-24所示。

图9-78 View Drive Properties

 

表9-24 参数说明

参数

参数说明

Operation

该成员盘可执行的操作,包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Place Drive Online/Offline:将硬盘上线/离线。

Drive ID

成员盘的ID。

Status

成员盘的当前工作状态。

Size

成员盘的容量。

Type

成员盘类型。

Model

成员盘的模块类型。

Hardware Vendor

成员盘的生产厂商。

Associated Virtual Drive

成员盘所在的虚拟磁盘。

Advanced...

查询成员盘更多属性。

 

----结束

查看和修改虚拟磁盘高级属性

图9-76中选择“Advanced”并按“Enter”。

界面如图9-79图9-80所示,界面参数如表9-25所示。

图9-79 Advanced界面(1)

 

图9-80 Advanced界面(2)

 

表9-25 参数说明

参数

参数说明

Mirror Data Size

镜像数据大小。

Logical Sector Size

逻辑扇区大小。

Strip Size

条带大小。

Starting Logical Block Addressing

逻辑单元起始地址。

Emulation Type

控制逻辑盘在OS中上报的扇区。

当成员盘为512B/512B时:

l     Default:逻辑盘扇区为512B/512B。

l     None:逻辑盘扇区为512B/512B。

l     Force:逻辑盘扇区为512B/4KB。

当成员盘为512B/4KB时:

l     Default:逻辑盘扇区为512B/4KB。

l     None:逻辑盘扇区为512B/512B。

l     Force:逻辑盘扇区为512B/4KB。

Bad Blocks

是否支持坏块处理。

SSD Caching

是否支持SSD Caching。

Access

数据读取的策略,分以下三种:

l     Read Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Current Write Cache Policy

当前写Cache策略。默认为“Write Through”。

说明

“Write Through”表示当硬盘子系统接收到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。

Default Write Cache Policy

默认的写Cache策略。

Disable Background Initialization

是否禁用后台初始化。

Read Cache Policy

当前读Cache策略,默认为“No Read Ahead”,即关闭预读取功能。

说明

Avago SAS3408iMR不支持在该界面设置读Cache策略。

Drive Cache

是否支持cache。

Input/Output

I/O读取策略,默认为“Direct”,即直接从硬盘读取数据,不经过Cache缓存。

说明

Avago SAS3408iMR不支持在该界面设置I/O读取策略。

Apply Changes

保存配置。

 

                                步骤 2     按照表9-25所述配置“Advanced”的参数。

                                步骤 3     选择“Apply Changes”并按“Enter”。

显示The operation has been performed successfully。

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

9.6.2.4 Drive Management

该界面显示硬盘基本属性,提供硬盘操作接口。

界面介绍

“Drive Management”界面如图9-81所示,显示硬盘列表。

图9-81 Drive List

 

选定要操作的硬盘并按“Enter”进入详细操作界面,如图9-82所示,参数说明如表9-26所示。

图9-82 Drive Management

 

表9-26 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Initialize Drive:硬盘初始化。

l     Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。

     Simple:仅对硬盘进行一轮擦除动作。

     Normal:对硬盘进行三轮擦除动作。

     Thorough:对硬盘进行九轮擦除动作。

     Stop Erase:停止数据擦除操作。

l     Make Unconfigured Good/Bad:修改硬盘状态。

l     Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。

l     Assign Global Hot Spare Drive:设置全局热备盘。

l     Assign Dedicated Hot Spare Drive:设置局部热备盘。

l     Unassign Hot Spare Drive:删除热备盘。

l     Prepare for Removal:硬盘拔出前的准备工作。

l     Place Drive Online:将Offline状态的硬盘设置为Online。

说明

l     Place Drive Online操作只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。

l     对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。

Drive ID

硬盘的ID。

Status

硬盘的当前工作状态。

Size

硬盘的容量。

Type

硬盘的类型。

Model

硬盘型号。

Hardware Vendor

硬盘的生产厂商。

Advanced...

查询更多硬盘属性。

 

安全擦除硬盘数据

说明

该操作会删除硬盘上的数据,请谨慎执行。

将“Operation”设置为“Drive Erase”。

                                步骤 1     选择“Erase Mode”并按“Enter”。

                                步骤 2     在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。

                                步骤 3     选择“Go”并按“Enter”。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示操作成功。

----结束

查看硬盘属性

选择“Advanced...”并按“Enter”。

打开硬盘属性界面,如图9-83图9-84所示,参数说明如表9-27所示。

图9-83 Drive Properties 界面(1)

 

图9-84 “Drive Properties”界面(2)

 

表9-27 参数说明

参数

参数说明

Logical Sector Size

逻辑扇区大小。

Physical Sector Size

物理扇区大小。

SMART Status

SMART功能是否使能。

Revision

硬盘Firmware版本。

Media Error

Media error个数。

Predicted Fail Count

Pred fail个数。

SAS Address

硬盘SAS地址。

Drive Power State

硬盘上电状态。

Cache Setting

是否可设置Cache。

Available Size

硬盘可用空间。

Used Space

已使用的硬盘空间。

Disk Protocol

硬盘支持的协议。

Device Speed

设备的速率。

Negotiated Drive Transfer Speed

硬盘数据传输速率。

Number of Connections

连接器个数。

FDE Capable

硬盘是否支持FDE(Full Disk Encryption)技术。

Cryptographic Erase Capable

硬盘是否支持加密擦除功能。

Temperature

硬盘温度。

 

9.6.2.5 Hardware Components

该界面主要提供RAID控制卡传感器信息。

界面介绍

“Hardware Components”界面如图9-85,参数说明如表9-28所示。

图9-85 Hardware Components

 

表9-28 参数说明

参数

参数说明

Temperature Sensors

当前温度传感器状态。

Fans

当前风扇模块工作状态。

Power Supplies

当前供电模块工作状态。

Enclosure Management

部件管理。

 

9.6.3 View Server Profile

提供RAID控制卡操作管理接口。

界面介绍

“View Server Profile”界面如图9-86所示,参数说明如表9-29所示。

图9-86 View Server Profile

 

表9-29 参数说明

参数

参数说明

UEFI Spec Version

服务器支持的UEFI Spec版本。

Controller Management

提供控制器管理接口,详细情况请参见9.6.2.2 Controller Management。

Hardware Components

提供控制器部件查询接口,详细情况请参见9.6.2.5 Hardware Components。

Drive Management

提供硬盘管理接口,详细情况请参见9.6.2.4 Drive Management。

Virtual Drive Management

提供虚拟磁盘管理接口,详细情况请参见9.6.2.3 Virtual Drive Management。

 

9.6.4 Manage Foreign Configuration

该界面可查看、导入、清空外部配置。

界面介绍

“Manage Foreign Configuration”界面如图9-87所示。

图9-87 Manage Foreign Configuration

 

查看并导入外部配置

选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如图9-88所示。

图9-88 View Foreign Configuration

 

                                步骤 2     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

清除外部配置

选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 3     选择“OK”并按“Enter”完成配置。

----结束

9.6.5 Configure

该界面可清除当前所有配置。

界面介绍

“Configure”界面如图9-89所示,参数说明如表9-30所示。

图9-89 Configure

 

表9-30 参数说明

Parameter

Description

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

View Global HotSpare Drives

查看全局热备盘。

Clear Configuration

清除当前配置。

 

清除当前配置

选择“Clear Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 3     选择“OK”并按“Enter”完成配置。

----结束

9.6.6 Set Factory Defaults

恢复出厂配置

在主界面选择“Set Factory Defaults”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 3     选择“OK”并按“Enter”完成配置。

----结束

9.6.7 Manage MegaRAID Advanced Software Options

该界面提供RAID控制卡高级软件特性查看和导入接口。

界面介绍

“Manage MegaRAID Advanced Software Options”界面如图9-90所示,界面中参数说明如表9-31所示。

图9-90 Manage MegaRAID Advanced Software Options

 

表9-31 参数说明

参数

说明

SAFE ID

RAID控制卡的安全编码。

Serial Number

RAID控制卡序列号。

Activation Key

待激活的高级特性的Key。

Active

激活高级特性。

Avago SAS3408iMR不支持高级特性的激活操作,该功能无效。

Deactive All Trail Software

注销当前所有高级特性。

Avago SAS3408iMR不支持高级特性的激活操作,该功能无效。

 

9.6.8 Exit

退出配置界面

在Avago SAS3408iMR主界面按“ESC”,显示如图9-91所示界面。

图9-91 BIOS Setup Utility

 

                                步骤 2     按F10退出BIOS。

弹出操作确认窗口。

                                步骤 3     选择“OK”并按Enter。

退出BIOS,显示“ Press Control+Alt+Delete to reboot”。

----结束

9.7 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

9.7.1 下载和安装StorCLI工具

下载工具

登录BROADCOM网站上RAID控制卡的页面

                                步骤 1     在“DOWNLOADS”页签中单击“Management Software and Tools”。

打开管理软件和工具列表。

                                步骤 2     下载最新版本的“StorCLI”工具。

                                步骤 3     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 1     在Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。

说明

StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

9.7.2 常用命令

9.7.2.1 查询RAID控制卡配置信息

命令功能

查询Avago SAS3408iMR的基本配置信息。

命令格式

storcli64 /ccontroller_id  show

参数说明

参数

参数说明

取值

controller_id

控制器ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID

 

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡配置信息。

[root@localhost ~]# storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
CLI Version = 007.0916.0000.0000 Apr 05, 2019
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = None
 
Product Name = SAS3408
Serial Number = 024JNF10J2000256
SAS Address =  53ce8246afb3f000
PCI Address = 00:1c:00:00
System Time = 08/06/2019 09:24:12
Mfg. Date = 00/00/00
Controller Time = 08/06/2019 13:24:12
FW Package Build = 50.6.3-0109
BIOS Version = 7.06.02.2_0x07060502
FW Version = 5.060.01-2262
Driver Name = megaraid_sas
Driver Version = 07.709.08.00
Vendor Id = 0x1000
Device Id = 0x17
SubVendor Id = 0x19E5
SubDevice Id = 0xD213
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 28
Device Number = 0
Function Number = 0
Drive Groups = 1
 
TOPOLOGY :
========
 
---------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT     Size PDC  PI SED DS3  FSpace TR
---------------------------------------------------------------------------
 0 -   -   -        -   RAID0 Optl  N  1.089 TB dflt N  N   dflt N      N
 0 0   -   -        -   RAID0 Optl  N  1.089 TB dflt N  N   dflt N      N
 0 0   0   69:0     0   DRIVE Onln  N  1.089 TB dflt N  N   dflt -      N
---------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 1
 
VD LIST :
=======
 
-------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC     Size Name
-------------------------------------------------------------
0/0   RAID0 Optl  RW     Yes     NRWTD -   ON  1.089 TB
-------------------------------------------------------------
 
EID=Enclosure Device ID| VD=Virtual Drive| DG=Drive Group|Rec=Recovery
Cac=CacheCade|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 1
 
PD LIST :
=======
 
--------------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model          Sp Type
--------------------------------------------------------------------------
69:0      0 Onln   0 1.089 TB SATA SSD N   N  512B SSDSC2BB012T7H U  -
--------------------------------------------------------------------------
 
EID=Enclosure Device ID|Slt=Slot No.|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=Unsupported|UGShld=UnConfigured shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported

9.7.2.2 创建和删除RAID

命令功能

创建、删除RAID。

命令格式

命令

说明

storcli64 /ccontroller_id add vd rlevel[0|1|10] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid]

创建RAID组

storcli64 /ccontroller_id/vraid_id del

删除RAID组

 

说明

*表示默认值。

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

enclosure_id

硬盘所在Enclosure的ID

-

rlevel

要配置的RAID组级别

level可为0、1、10,数字分别代表对应的RAID组级别。

size

要配置的RAID组容量

默认值为all,即所有成员盘的容量之和。

name

要配置的RAID组名称

-

drives

要加入RAID组的硬盘

-

startid-endid

硬盘的起始和结束ID

-

slot_id

硬盘ID

-

pdperarray

子组中的硬盘数

创建RAID10时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。

-

pdcache

设置RAID的成员盘的Cache状态

l     on

l     off

l     default

pi

使能数据保护

-

EmulationType

控制逻辑盘在OS中上报的扇区

l     0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     1: Disable,如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     2:Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Spares

指定RAID组的热备盘

-

raid_id

要删除的RAID组的ID

-

 

说明

l     以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

l     当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid

使用指南

使用实例

# 创建RAID 0。

domino:~# ./storcli64 /c0 add vd r0 size=100GB drives=252:0-3
Controller = 0 
Status = Success 
Description = Add VD Succeeded

# 删除RAID。

domino:~# ./storcli64 /c0/v0 del
Controller = 0 
Status = Success 
Description = Delete VD Succeeded

9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息

命令功能

查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。

命令格式

storcli64 /ccontroller_id show

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

storcli64 /ccontroller_id/vvd_id show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID

enclosure_id

硬盘所在Enclosure的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器连接的硬盘背板的ID

slot_id

物理硬盘槽位编号

可以将该参数设置为all,表示查询所有硬盘的ID

vd_id

虚拟磁盘ID

可以将该参数设置为all,表示查询所有虚拟磁盘的ID

 

使用指南

回显中主要字段的含义如表9-32所示。

表9-32 回显说明

命令格式

字段

含义

举例

storcli64 /ccontroller_id show

Product Name

RAID控制卡的型号

sas3408

FW Version

RAID控制卡的FW版本

5.060.01-2262

Driver Name

RAID控制卡的驱动名称

megaraid_sas

Driver Version

RAID控制卡的驱动版本

06.811.02.00-rh1

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

SN

物理硬盘的序列号

PHWL517601YR800RGN

Manufacturer Id

物理硬盘的供应商ID

ATA

Model Number

物理硬盘的模块序号

INTEL SSDSC2BB800G4

Firmware Revision

物理硬盘的FW版本

D2010370

Raw size

物理硬盘的容量

745.211 GB [0x5d26ceb0 Sectors]

Logical Sector Size

物理硬盘逻辑分区大小

512B

Physical Sector Size

物理扇区大小

4 KB

storcli64 /ccontroller_id/vvd_id show all

TYPE

RAID组的级别

RAID1

State

RAID组的状态

Optl

Access

RAID组数据的访问策略

RW

Size

RAID组的大小

100.0 GB

PDs for VD0

RAID组下的物理硬盘

-

Strip Size

RAID组的条带大小

64KB

Write Cache(initial setting)

RAID组Cache的写策略

Write Through

Disk Cache Policy

RAID组成员盘的Cache策略

Disk's Default

 

使用实例

#查询RAID控制卡的详细信息。

domino:~# ./storcli64 /c0 show
Controller = 0
Status = Success
Description = None
 
Product Name = SAS3408
Serial Number = 024JNFCNK2000314
SAS Address =  58cfd18f55442000
PCI Address = 00:03:00:00
System Time = 07/18/2019 14:55:54
Mfg. Date = 00/00/00
Controller Time = 07/18/2019 06:55:53
FW Package Build = 50.6.3-0109
BIOS Version = 7.06.02.2_0x07060502
FW Version = 5.060.01-2262
Driver Name = megaraid_sas
Driver Version = 07.709.08.00
Vendor Id = 0x1000
Device Id = 0x17
SubVendor Id = 0x19E5
SubDevice Id = 0xD213
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 3
Device Number = 0
Function Number = 0
Drive Groups = 1
 
TOPOLOGY :
========
 
---------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT     Size PDC  PI SED DS3  FSpace TR
---------------------------------------------------------------------------
 0 -   -   -        -   RAID0 Optl  N  3.637 TB dflt N  N   dflt N      N
 0 0   -   -        -   RAID0 Optl  N  3.637 TB dflt N  N   dflt N      N
 0 0   0   65:0     41  DRIVE Onln  N  3.637 TB dflt N  N   dflt -      N
---------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 1
 
VD LIST :
=======
 
-------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC     Size Name
-------------------------------------------------------------
0/0   RAID0 Optl  RW     Yes     NRWTD -   ON  3.637 TB
-------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 39
 
PD LIST :
=======
 
------------------------------------------------------------------------------
EID:Slt DID State  DG       Size Intf Med SED PI SeSz Model                Sp
------------------------------------------------------------------------------
65:0     41 Onln    0   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  U
65:1     45 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:2     33 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:3     40 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM115-1YZ107   D
65:4     39 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:5     38 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:6     46 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:7     53 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:8     61 UGUnsp  -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  U
65:9      0 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM115-1YZ107   D
65:10     1 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:11    62 UGUnsp  -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  U
65:12    51 UGood   -   9.094 TB SATA HDD N   N  512B ST10000NM0478-2H7100 D
65:13    52 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:14    50 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:16    57 UGUnsp  -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 U
65:17    58 UGUnsp  -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 U
65:18    42 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:19    44 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:20    49 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:21    43 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:22    48 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:23    47 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  D
65:24     3 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  D
65:25     5 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:26     4 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:27     2 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  D
65:28    59 UGUnsp  -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  U
65:29     6 UGood   - 837.258 GB SAS  HDD N   N  512B ST900MM0168          D
65:30    55 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  D
65:31    60 UGUnsp  -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  U
65:32    56 UGUnsp  -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  U
65:33    35 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:34    34 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:35    37 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:36    36 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:37    30 UGood   - 278.464 GB SAS  HDD N   N  512B AL15SEB030N          D
65:38    32 UGood   -   1.745 TB SATA SSD N   N  512B INTEL SSDSC2KG019T8  U
65:39    31 UGood   - 222.585 GB SATA SSD N   N  512B INTEL SSDSC2KG240G8  U
------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded

#查询slot0的物理硬盘的信息。

[root@localhost ~]# ./storcli64 /c0/e65/s0 show all
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
 
 
Drive /c0/e65/s0 :
================
 
--------------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model               Sp
--------------------------------------------------------------------------
65:0     41 Onln   0 3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 U
--------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Drive /c0/e65/s0 - Detailed Information :
=======================================
 
Drive /c0/e65/s0 State :
======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature =  30C (86.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
 
 
Drive /c0/e65/s0 Device attributes :
==================================
SN = ZC18JNP4
Manufacturer Id = ATA
Model Number = ST4000NM0035-1V4107
NAND Vendor = NA
WWN = 5000c500b3297aee
Firmware Revision = TNA5
Raw size = 3.638 TB [0x1d1c0beb0 Sectors]
Coerced size = 3.637 TB [0x1d1a94800 Sectors]
Non Coerced size = 3.637 TB [0x1d1b0beb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 12.0Gb/s
NCQ setting = Enabled
Write Cache = Disabled
Logical Sector Size = 512B
Physical Sector Size = 512B
Connector Name = C0   & C1
 
 
Drive /c0/e65/s0 Policies/Settings :
==================================
Drive position = DriveGroup:0, Span:0, Row:0
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = Yes
Wide Port Capable = No
 
Port Information :
================
 
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
   0 Active 12.0Gb/s  0x500605b000027380
-----------------------------------------
 
 
Inquiry Data =
5a 0c ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 20 20 20 20 20 20 20 20 20 20 20 20
43 5a 38 31 4e 4a 34 50 00 00 00 00 00 00 4e 54
35 41 20 20 20 20 54 53 30 34 30 30 4d 4e 30 30
35 33 31 2d 34 56 30 31 20 37 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 10 80
00 40 00 2f 00 40 00 02 00 02 07 00 ff 3f 10 00
3f 00 10 fc fb 00 10 5c ff ff ff 0f 00 00 07 00

# 查询VD 0的信息。

[root@rhel6u5 ~]# /opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
 
 
/c0/v0 :
======
 
-------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC     Size Name
-------------------------------------------------------------
0/0   RAID0 Optl  RW     Yes     NRWTD -   ON  3.637 TB
-------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
 
PDs for VD 0 :
============
 
--------------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model               Sp
--------------------------------------------------------------------------
65:0     41 Onln   0 3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 U
--------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
VD0 Properties :
==============
Strip Size = 64 KB
Number of Blocks = 7812499456
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 1
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = None
Active Operations = None
Exposed to OS = Yes
Creation Date = 06-07-2025
Creation Time = 08:44:04 AM
Emulation type = default
Cachebypass size = Cachebypass-64k
Cachebypass Mode = Cachebypass Intelligent
Is LD Ready for OS Requests = Yes
SCSI NAA Id = 68cfd18f554420002ffcf3d4ce5e8046

9.7.2.4 查询和设置Patrolread参数

命令功能

查询和设置系统巡检的相关参数。

命令格式

storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number

storcli64 /ccontroller_id set patrolread delay=delaytime

storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}

storcli64 /ccontroller_id show patrolread

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

系统巡检起始时间

例如:2016/07/15 23

说明

起始时间单位为“时”。

number

可同时巡检的硬盘数量

delaytime

系统巡检周期

单位为hour。

 

查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。

domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

---------------------------------------

Ctrl_Prop          Value

---------------------------------------

PR Starttime       2016/07/15 23:00:00

PR MaxConcurrentPd 2

---------------------------------------

# 使能patrolread并设置为自动模式。

domino:~# ./storcli64 /c0 set patrolread=on mode=auto
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
--------------------------------------- 
Ctrl_Prop        Value 
--------------------------------------- 
Patrol Read Mode auto 
---------------------------------------

# 查询patrolread信息。

domino:~# ./storcli64 /c0 show patrolread

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

--------------------------------------------

Ctrl_Prop          Value

--------------------------------------------

PR Mode       2016/07/15 23:00:00

PR Execution Delay

PR iterations completed 0

PR Next Start time      07/16/2016,00:00:00

PR on SSD               Disabled

PR Current State        Stopped

--------------------------------------------

9.7.2.5 查询和设置Spinup参数

命令功能

查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。

命令格式

storcli64 /ccontroller_id show spinupdelay

storcli64 /ccontroller_id show spinupdrivecount

storcli64 /ccontroller_id set spinupdelay=time

storcli64 /ccontroller_id set spinupdrivecount=count

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

每组起转硬盘间的时间间隔

默认为2,单位为s。

count

上电时允许同时起转的硬盘数量

默认为4。

 

查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡Spinup参数。

domino:~# ./storcli64 /c0 show spinupdelay
[root@localhost ~]# ./storcli64_arm /c0 show spinupdelay
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop     Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
 
domino:~# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop           Value
--------------------------
Spin Up Drive Count 2
--------------------------

# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。

domino:~# ./storcli64 /c0 set spinupdelay=20
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
---------------------------
Ctrl_Prop     Value
---------------------------
Spin Up Delay 20 second(s)
---------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop           Value
--------------------------
Spin Up Drive Count 5
--------------------------

9.7.2.6 查询和设置硬盘数据擦除功能

命令功能

设置物理硬盘数据擦除模式,查询擦除进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

mode

数据擦除模式

l     simple:对硬盘进行一轮擦除动作。

l     normal:对硬盘进行三轮擦除动作。

l     thorough:对硬盘进行九轮擦除动作。

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。

domino:~# ./storcli64 /c0/e252/s3 start erase simple
Controller = 0 
Status = Success 
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0 
Status = Success 
Description = Show Drive Erse Status Succeeded. 
------------------------------------------------------ 
Drive-ID    Progress% Status      Estimated Time Left 
------------------------------------------------------ 
/c0/e252/s3         0 In progress 0 Seconds 
------------------------------------------------------     
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0 
Status = Success 
Description = Stop Drive Erase Succeeded.

9.7.2.7 查询和设置RAID后台初始化

命令功能

暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。

命令格式

storcli64 /ccontroller_id/vraid_id action bgi

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

action

后台初始化的操作

l     show:查看后台初始化进度

l     pause:暂停后台初始化

l     resume:继续后台初始化

l     stop:停止后台初始化

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查看后台初始化进度。

domino:~# ./storcli64 /c0/v0 show bgi
Controller = 0 
Status = Success 
Description = Noe 
VD Operation Status : 
=================== 
------------------------------------------------------ 
VD Operation Progress% Staus      Estimated Time Left 
------------------------------------------------------ 
 0 BGI               3 In progress 53 Minutes 
------------------------------------------------------

9.7.2.8 查询和设置物理硬盘初始化功能

命令功能

设置物理硬盘初始化功能,查询初始化进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看初始化进度

l     start:开始初始化

l     stop:结束初始化

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 初始化slot3硬盘,并查询初始化进度。

domino:~# ./storcli64 /c0/e252/s3 start initialization
Controller = 0 
Status = Success 
Description = Start Drive Initialization Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show initialization
Controller = 0 
Status = Success 
Description = Show Drive Initialization Status Succeeded. 
------------------------------------------------------ 
Drive-ID    Progress% Status      Estimated Time Left 
------------------------------------------------------ 
/c0/e252/s3         0 In progress 0 Seconds 
------------------------------------------------------  

9.7.2.9 查询和设置RAID重构/回拷/系统巡检功能

命令功能

暂停、继续、停止RAID重构/回拷/系统巡检,并查询进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action function

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看进度

l     pause:暂停进程

l     resume:继续执行

l     stop:停止进程

function

要处理的进程

l     rebuild:RAID重构

l     copyback:回拷

l     patrolread:系统巡检

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查看RAID重构进度。

domino:~# ./storcli64 /c0/e252/s4 show rebuild
Controller = 0 
Status = Success 
Description = Show Drive Rebuild Status Succeeded. 
------------------------------------------------------ 
Drive-ID    Progress% Staus       Estimated Time Left 
------------------------------------------------------ 
/c0/e252/s4         9 In progress 12 Minutes 
------------------------------------------------------

# 暂停RAID重构。

domino:~# ./storcli64 /c0/e252/s4 pause rebuild
Controller = 0 
Status = Success 
Description = Pause Drive Rebuild Status Succeeded. 

9.7.2.10 查询和设置Smart扫描周期

命令功能

查询、设置Smart扫描周期。

命令格式

命令

说明

storcli64 /ccontroller_id set smartpollinterval=value

设置Smart扫描周期。

storcli64 /ccontroller_id show smartpollinterval

查询Smart扫描周期。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

value

Smart扫描周期

单位为s。

 

查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置Smart扫描周期为“60s”。

domino:~# ./storcli64 /c0 set smartpollinterval=60
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
------------------------------- 
Ctrl_Prop         Value 
------------------------------- 
SmartPollInterval 60 second(s) 
-------------------------------

9.7.2.11 查询和设置一致性校验参数

命令功能

查询、设置一致性检查参数。

命令格式

命令

说明

storcli64 /ccontroller_id[/vvd_id]show cc

查询一致性检查参数。

storcli64 /ccontroller_id/vvd_id start cc force

开始进行一致性检查。

storcli64 /ccontroller_id/vvd_id action cc

暂停/停止/继续执行一致性检查。

storcli64 /ccontroller_id set consistencycheck|cc=[off|seq|conc] [delay=value] starttime=time excludevd=evd_id

设置一致性自动检查参数。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

要操作的RAID的ID

-

action

要执行的操作

l     pause:暂停

l     resume:继续执行

l     stop:停止

cc

将一致性检查设置为顺序模式或并行模式,或关闭一致性检查。

l     off:关闭一致性检查

l     seq:顺序模式

l     conc:并行模式

value

一致性检查周期

-

time

一致性检查起始时间

例如:2016/07/14 22

说明

起始时间单位为“时”。

evd_id

不进行一致性检查的虚拟磁盘ID

-

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

show命令中不带/vvd_id时,表示查询自动CC参数。

show命令中带/vvd_id时,表示查询CC进度。

使用实例

# 设置一致性自动检查参数。

domino:~# ./storcli64 /c0 set cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
------------------------------------ 
Ctrl_Prop      Value 
------------------------------------ 
CC Mode         CONC 
CC delay        1 
CC Starttime    2016/07/14 22:00:00 
CC ExcludeVD(0) Success 
------------------------------------

# 查询CC进度。

domino:~# ./storcli64 /c0/v1 show cc
Controller = 0 
Status = Success 
Description = None 
VD Operation Status : 
=================== 
----------------------------------------------------------- 
VD Operation Progress% Status          Estimited Time Left 
----------------------------------------------------------- 
 0 CC        -         Not in progress - 
-----------------------------------------------------------

9.7.2.12 设置热备盘

命令功能

设置全局热备盘和局部热备盘。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=vd_id]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

vd_id

局部热备盘所属虚拟磁盘的ID

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置slot 3硬盘为全局热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive
Controller = 0 
Status = Success 
Description = Add Hot Spare Succeeded.    

# 设置slot 3硬盘为vd0的局部热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive dgs=0
Controller = 0 
Status = Success 
Description = Add Hot Spare Succeeded.   

9.7.2.13 设置启动项

命令功能

设置虚拟磁盘或物理硬盘为启动项。

命令格式

storcli64 /ccontroller_id/vvd_id set bootdrive=on

storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

vd_id

待设置的虚拟磁盘的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置VD0为启动项。

domino:~# ./storcli64 /c0/v0 set bootdrive=on
Controller = 0 
Status = Success 
Description = Noe 
Detailed Status : 
=============== 
---------------------------------------- 
VD Property   Value Staus  ErrCd ErrMsg 
---------------------------------------- 
 0 Boot Drive On    Success    0 - 
----------------------------------------

# 设置slot 7硬盘为启动项。

domino:~# ./storcli64 /c0/e252/s7 set bootdrive=on
Controller = 0 
Status = Success 
Description = Noe 
Controller Properties : 
===================== 
------------------- 
Ctrl_Prop Value 
------------------- 
BootDrive PD:252_7 
-------------------

9.7.2.14 设置硬盘状态

命令功能

设置硬盘状态。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

state

要设置的硬盘状态

l     online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。

l     offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。

l     jbod:通过该参数可以将硬盘设置为直通硬盘。

l     good:

     ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置;

     JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。

l     good:将硬盘设为空闲盘

force

强制设置硬盘状态,为可选参数。

如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force。

-

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。

domino:~# ./storcli64 /c0/e0/s1 set good
Controller = 0 
Status = Success 
Description = Set Drive Good Succeeded.

# 设置slot 7硬盘为直通盘。

domino:~# ./storcli64 /c0/e252/s7 set JBOD
Controller = 0 
Status = Success 
Description = Set Drive JBOD Succeeded.

9.7.2.15 设置RAID组访问策略

命令功能

设置RAID组的访问策略。

命令格式

storcli64 /ccontroller_id/vraid_id set accesspolicy=mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAID的ID

-

mode

RAID访问策略

l     rw:可读可写

l     blocked:禁止访问

l     ro:只读访问

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置RAID读写策略为“rw”。

domino:~# ./storcli64 /c0/v0 set accesspolicy=rw
Controller = 0 
Status = Success 
Description = None 
Details Status : 
============== 
--------------------------------------- 
VD Property  Value Status  ErrCd ErrMsg 
--------------------------------------- 
 0 AccPolicy RW    Success     0 - 
---------------------------------------

9.7.2.16 设置硬盘Cache状态

命令功能

设置RAID组成员盘的Cache状态。

命令格式

storcli64 /ccontroller_id/vvd_id set pdcache=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

RAID组的ID

-

action

要执行的操作

l     on:打开硬盘Cache

l     off:关闭硬盘Cache

l     default:将硬盘Cache设置为默认状态

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 打开ID为0的RAID组的硬盘Cache。

./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
---------------------------------------
VD Property Value Status  ErrCd ErrMsg
---------------------------------------
 0 PdCac    On    Success     0 -
---------------------------------------

9.7.2.17 设置紧急热备功能

命令功能

设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。

命令格式

storcli64 /ccontroller_id set eghs eug=state

storcli64 /ccontroller_id set eghs smarter=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

state

紧急热备功能的启用状态

l     on:启用

l     off:禁用

 

查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。

domino:~# ./storcli64 /c0 set eghs eug=on
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
------------------ 
Ctrl_Prop   Value 
------------------ 
EmergencyUG ON 
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
----------------------- 
Ctrl_Prop        Value 
----------------------- 
EmergencySmarter ON 
-----------------------

9.7.2.18 设置RAID前台初始化模式

命令功能

设置RAID前台初始化模式。

命令格式

storcli64 /ccontroller_id/vraid_id start mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

mode

前台初始化模式

l     init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。

l     init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 快速初始化RAID。

domino:~# ./storcli64 /c0/v0 start init
Controller = 0 
Status = Success 
Description = Start INIT Operation Success

9.7.2.19 设置硬盘定位指示灯状态

命令功能

点亮和熄灭指定硬盘的定位指示灯。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。

slot_id

物理硬盘槽位编号

可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。

action

要执行的操作

l     start:点亮硬盘的定位指示灯。

l     stop:熄灭硬盘的定位指示灯。

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 点亮slot 7硬盘的定位指示灯。

domino:~# ./storcli64 /c0/e252/s7 start locate
Controller = 0 
Status = Success 
Description = Start Drive Locate Succeeded.

9.7.2.20 设置硬盘PowerSave功能

命令功能

设置空闲硬盘和热备盘的省电模式。

命令格式

storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID。

state

省电模式的启用状态。

l     on:启用

l     off:禁用

disktype

硬盘类型。

l     1:空闲硬盘

l     2:热备盘

time

等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。

单位为minutes。

 

查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置空闲硬盘的省电模式。

domino:~# ./storcli64 /c0 set ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
------------------------
Ctrl_Prop    Value
------------------------
SpnDwnUncDrv Enabled
SpnDwnTm     30 minutes
------------------------

9.7.2.21 设置后台资源占用率

命令功能

设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。

命令格式

storcli64 /ccontroller_id set action=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要设置的项目

l     bgirate:后台初始化速率

l     ccrate:一致性校验速率

l     prrate:硬盘巡检速率

l     rebuildrate:RAID重构速率

l     reconrate:RAID扩容和迁移速率

value

后台任务资源占用率

1~100

 

查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置硬盘巡检速率为“30%”。

domino:~# ./storcli64 /c0 set prrate=30
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
----------------------- 
Ctrl_Prop        Value 
----------------------- 
Patrol Read Rate 30% 
-----------------------  

9.7.2.22 设置BIOS Stop on Error功能

命令功能

设置控制器BIOS在检测到异常时停止继续启动的功能。

命令格式

storcli64 /ccontroller_id set bios mode=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要执行的操作

l     soe:控制器BIOS在检测到异常时停止启动

l     ie:忽略检测到的异常

 

查看RAID控制卡ID的方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 开启Stop on error功能。

domino:~# ./storcli64 /c0 set bios mode=soe
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
---------------- 
Ctrl_Prop Value 
---------------- 
BIOS Mode SOE 
----------------

9.7.2.23 通过增加成员盘可用容量扩容RAID

命令功能

在虚拟磁盘未占用成员硬盘全部容量时,可通过调整虚拟磁盘的可用空间,扩大虚拟磁盘容量。

命令格式

命令

说明

storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]

扩大虚拟磁盘容量。

storcli64 /ccontroller_id/vvd_id show expansion

查询虚拟磁盘扩容后的容量。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

要扩容的RAID的ID

-

capacity

扩容容量

-

expandarray

当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。

-

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查询VD的可扩展容量。

[root@localhost ~]# storcli64 /c0/v1 show expansion 
CLI Version = 007.1416.0000.0000 July 24, 2020 
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64 
Controller = 0 
Status = Success 
Description = None 
 
 
EXPANSION INFORMATION : 
===================== 
 
-------------------------------------------- 
VD      Size OCE NoArrExp WithArrExp Status 
-------------------------------------------- 
 1 10.000 GB Y   3.627 TB 5.447 TB   - 
-------------------------------------------- 
 
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion 
 VD=Virtual Drive | NoArrExp - Without Array Expansion

说明

如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。

# 将VD0的容量扩大“200GB”。

domino:~# ./storcli64 /c0/v0 expand size=200GB
Controller = 0 
Status = Success 
Description = expansion operation succeeded. 
EXPANSION RESULT : 
================ 
-------------------------------------------------------------------------------- 
VD     Size FreSpc     ReqSize  AbsUsrSz   %FreSpc NewSize    Statsu NoArrExp 
-------------------------------------------------------------------------------- 
 0 100.0 GB 457.861 GB 200.0 GB 201.458 GB      44 301.458 GB -      457.861 GB 
-------------------------------------------------------------------------------- 
Size - Current VD size|FreSpc - Freespace available before expansion 
%FreSpc - Requested expansion size in % of available free space 
AbsUsrSz - User size rounded to nearest %

说明

RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。

9.7.2.24 通过增加新盘扩容或迁移RAID

命令功能

RAID有2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

当增加新盘后,可进行RAID级别迁移。

命令格式

storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

vd_id

要操作的RAID的ID

slot_id

要加入RAID的新硬盘的槽位号

level

增加硬盘后RAID的级别

l     与原RAID级别相同时,该命令为扩大RAID容量。

l     与原RAID级别不同时,该命令为RAID级别迁移。

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 在RAID 0中增加slot 2硬盘扩容。

domino:~# ./storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2
Controller = 0 
Status = Success 
Description = Start MIGRATE Operation Success.     
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0 
Status = Success 
Description = None 
VD Operation Status : 
=================== 
------------------------------------------------------- 
VD Operation Progress% Status      Estimated Time Left 
------------------------------------------------------- 
 0 Migrate           1 In progress 13 Minutes 
-------------------------------------------------------  

# 单盘RAID 0加盘迁移至RAID 1。

domino:~# ./storcli64 /c0/v0 start migrate type=r1 option=add drives=252:3
Controller = 0 
Status = Success 
Description = Start MIGRATE Operation Success.     
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0 
Status = Success 
Description = None 
VD Operation Status : 
=================== 
------------------------------------------------------- 
VD Operation Progress% Status      Estimated Time Left 
------------------------------------------------------- 
 0 Migrate           1 In progress 14 Minutes 
-------------------------------------------------------    

9.7.2.25 手动重构RAID

命令功能

手动重构RAID组。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row

storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

要加入Array的物理硬盘槽位编号

DG

硬盘发生故障的DG的ID

Arr

硬盘发生故障的Array的ID

Row

硬盘发生故障的Array的row number

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

重构RAID分3个步骤进行:

1.通过./storcli64 /c0 show 命令,查询故障硬盘的DG、Arr和Row所对应的数字。

2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。

3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID。

使用实例

# 将硬盘加入RAID组。

[root@localhost ~]# storcli64 /c0/e252/s1 insert dg=0 array=0 row=0
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = Insert Drive Succeeded.

# 手动重构RAID。

[root@localhost ~]# storcli64 /c0/e252/s1 start rebuild
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

9.7.2.26 查看/导入/清除外部配置

命令功能

指导用户查看、导入或者清除RAID控制卡的外部配置。

命令格式

storcli64 /ccontroller_id/fall action

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

action

要执行的操作

l     import preview:查看外部配置

l     import:导入外部配置

l     delete:清除外部配置

 

以上涉及的各个ID的查询方法请参见9.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查看RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall import preview
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-957.el7.x86_64
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
 
 
FOREIGN PREVIEW :
===============
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Total foreign drive groups = 0

# 删除RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall delete
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-957.el7.x86_64
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration


10 Avago SAS3416iMR

关于本章

介绍Avago SAS3416iMR扣卡的外观、特性、以及配置方法。

本章节涉及的截图以5.160.01-3415 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

10.1  概述

10.2  功能

10.3  初始配置

10.4  常用配置

10.5  故障处理

10.6  管理界面介绍

10.7  OS命令行工具

10.1 概述

AVAGO MegaRAID SAS3416 RAID 控制卡(以下简称Avago SAS3416iMR)是基于MegaRAID架构的16端口12Gbit/s SAS控制器,并采用PCIe3.0x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

Avago SAS3416iMR用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

Avago SAS3416iMR支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考10.2.13 硬盘直通。

Avago SAS3416iMR的结构如图10-1所示。

图10-1 Avago SAS3416iMR

 

1

miniSAS接口(port D)

2

miniSAS接口(port C)

3

miniSAS接口(port A)

4

miniSAS接口(port B)

5

RAID控制卡电源指示灯

6

RAID控制卡电源指示灯

7

RAID控制卡电源指示灯

8

系统错误灯

9

系统心跳指示灯

-

-

 

Avago SAS3416iMR单板指示灯说明如表10-1所示。

表10-1 RAID控制卡单板指示灯说明

指示灯

颜色

说明

电源指示灯

绿色

l     亮:电源正常。

l     灭:电源关闭或异常。

系统错误灯

红色

l     亮:系统运行异常。

l     灭:系统运行正常。

系统心跳指示灯

绿色

l     灯以2s周期闪烁:Avago SAS3416iMR RAID控制卡正在工作。

l     灯灭:Avago SAS3416iMR RAID控制卡未开始运行或FW运行异常。

 

10.2 功能

10.2.1 支持RAID 0/1/10

Avago SAS3416iMR支持硬盘以直通方式和加入RAID组两种方式混合使用,其中:

l     硬盘直通模式支持的最大硬盘数量为63。

l     直通模式的硬盘和加入RAID组中的硬盘数量最多为63。

l     所有RAID组包含的最大硬盘数量为32。

说明

该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

l     每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

l     最多支持32个虚拟磁盘(即配置界面中看到的“Virtual Drive”),每个虚拟磁盘最多包含32个硬盘。

Avago SAS3416iMR支持的RAID类型及对应的硬盘个数如表10-2所示。

表10-2 RAID-硬盘参数

RAID级别

支持硬盘数

支持子组数

子组支持硬盘数

允许坏盘数

RAID 0

1~32

不涉及

不涉及

0

RAID 1

2~32(偶数)

硬盘数÷2

RAID 10

4~32(偶数)

2~8个RAID 1

2~16(偶数)

子组数

 

说明

l     不支持RAID 00级别。

l     子组数:子RAID的个数,例如RAID 10由两个RAID 1组成,则子组数为2。

l     RAID 10每个子组中最多允许1个坏盘。

l     RAID 10包含的总硬盘数由子组数和子组支持的硬盘数共同决定。

10.2.2 硬盘热备份

Avago SAS3416iMR扣卡的热备功能分为两种:热备盘和紧急备份。

热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     Global HSP:即全局热备盘,为控制扣卡上所有已配置的RAID所共有,1块控制扣卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

配置方法请参看10.4.1.1 配置全局热备盘。

l     Dedicated HSP:即局部热备盘,为控制扣卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

配置方法请参看10.4.1.2 配置局部热备盘。

热备盘容量需大于等于成员盘容量。

说明

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     除RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

紧急备份

使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。

紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。

紧急备份有两种情况,对应了两种设置:

l     当成员盘fail时,空闲盘替代成员盘作为紧急备份。

l     当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。

配置方法请参看10.4.2 设置紧急热备功能。

10.2.3 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

说明

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考10.4.10 导入/清除外部配置章节恢复RAID组,无需更换硬盘。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

10.2.4 回拷

具备冗余功能的RAID的成员盘故障之后,热备盘自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。

10.2.5 硬盘分条

条带化

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数和数据传输率有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待,这时就是所谓的硬盘冲突。

条带化技术是一种自动将I/O负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

影响条带化效果的因素有:

l     条带宽度:指同时可以并发读或写的条带数量。

这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。

在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。

l     条带大小:指写在每块硬盘上的条带数据块的大小。

分条

硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。

Avago SAS3416iMR不支持设置条带大小,默认为64KB。

10.2.6 RAID级别迁移

RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见1.2 RAID级别介绍。

当前支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1

l     RAID 1迁移到RAID 0

RAID迁移对硬盘数量的要求如表10-3所示。

表10-3 RAID迁移的硬盘数量说明

迁移RAID级别

原始硬盘组硬盘数量

迁移后的硬盘组硬盘数量

RAID 0迁移 RAID 1

1~32

2~32(偶数)

RAID 1迁移到RAID 0

2~32(偶数)

2~32

 

10.2.7 初始化

VD初始化

创建虚拟磁盘后,需要将其初始化,使其可以被操作系统使用,且使具有冗余功能的虚拟磁盘中各成员盘的数据关系满足相应的RAID级别要求。

Avago SAS3416iMR提供了多种相应的初始化方式:

l     快速初始化:属于前台初始化,Firmware只要把虚拟磁盘的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。

l     慢速初始化:属于前台初始化,Firmware需要把整个虚拟磁盘都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。

l     后台初始化:目的是使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。对于RAID 10,如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。

说明

l     一致性校验和后台初始化通常会对性能造成一定损失,直至该操作完成。

l     一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。

l     初始化属于后台动作,在HII界面只能触发而不能正式开始初始化,所以初始化的进度条一直显示为0%。当进入OS后,初始化才会开始进行。

硬盘初始化

硬盘可执行的初始化包括:

l     Initialize Drive:对前100MByte空间进行全写0操作。

l     Drive Erase:对全部空间进行写0操作。

说明

不支持停止SATA SSD的擦除和初始化过程。

10.2.8 可用容量扩展

Avago SAS3416iMR支持的容量扩展方式有两种:

l     通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。

详细操作方法可参考9.4.3 添加新硬盘到RAID。

l     通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。

详细操作方法可参考9.4.4 扩展Virtual Drives可用空间。

说明

l     只有RAID 0、RAID1支持增加硬盘扩容。

l     RAID 10不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。

l     当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见 10.7.2.24 通过增加成员盘可用容量扩容RAID。

10.2.9 安全数据擦除

安全擦除即将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘安全擦除功能:

l     Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。

l     Normal:对虚拟磁盘或硬盘进行三轮擦除动作。

l     Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。

安全数据擦除过程中,主机无法访问该虚拟磁盘。

Avago SAS3416iMR支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。

10.2.10 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     动态扩盘

l     完全初始化或后台初始化

l     一致性校验

10.2.11 自动S.M.A.R.T扫描

S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T 监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据丢失。

RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描。扫描周期可通过S.M.A.R.T Polling设置,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。

10.2.12 硬盘节能

RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。

默认情况下,硬盘节能功能处于开启状态。

当硬盘节能功能开启时,RAID控制卡下挂载的“Unconfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)需要唤醒正处于节能状态的硬盘,该操作会有一定程度的延迟。

10.2.13 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

Avago SAS3416iMR可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在Avago SAS3416iMR下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。

Avago SAS3416iMR支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

如果需要使能硬盘直通功能,请在图10-91所示界面的“JBOD Mode”参数进行设置。

Avago SAS3416iMR默认把所有硬盘的状态设置为“JBOD”,用户需要根据实际情况先把硬盘状态设置为“Unconfigured Good”后,才能配置RAID组。设置硬盘状态为JBOD或Unconfigured Good的方法请参见10.4.12 设置硬盘状态为JBOD或Unconfigured Good。

说明

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

10.2.14 硬盘漫游

硬盘漫游是指在同一控制器下移动物理硬盘。控制器将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。

要使用硬盘漫游,按以下步骤操作:

1.     关闭操作系统。

2.     将服务器下电。

3.     将物理硬盘移动到背板所需位置。

4.     执行安全检查。确保正确插入物理硬盘。

5.     将服务器上电。

6.     控制器从物理硬盘上的配置数据中检测到RAID配置。

10.2.15 导入外部配置

如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。

此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。

10.2.16 硬盘故障记录

Avago SAS3416iMR提供硬盘故障记录功能:

l     使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。

l     禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件(iBMC)不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,Avago SAS3416iMR会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。

维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。

l     使能该功能后,当硬盘故障时,会点亮Fault指示灯。

l     禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。

默认情况下,Avago SAS3416iMR使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。

10.3 初始配置

文档中描述的关于Avago SAS3416iMR的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。

如果服务器已经在Legacy或者UEFI模式下安装OS,切换启动方式后将无法进入操作系统,需要切换为安装时的启动方式再进入,如操作系统需要重装,请根据实际情况选择UEFI 或Legacy模式安装OS。

当服务器配置了较多的可启动设备时,在Legacy模式下可能出现部分设备无法正常启动,建议使用UEFI模式启动,UEFI模式较Legacy模式可以支持更多可启动设备;如需要使用Legacy模式,建议根据实际业务场景禁用串口重定向或网卡PXE等,确保操作系统可以正常启动,具体操作请参考BIOS参数参考》的设置网卡的PXE和设置串口重定向章节。

10.3.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如图10-2所示界面时,按“Delete”。

进入输入密码界面。

图10-2 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如图10-3所示界面。

图10-3 Setup Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如图10-4所示。

图10-4 “Advanced”页签

 

说明

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见10.5.3 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择要操作的Avago SAS3416iMR控制器,按“Enter”。

进入Avago SAS3416iMR操作界面,如图10-5图10-6所示,界面参数如表10-4所示。

图10-5 Avago SAS3416iMR操作界面(1)

 

图10-6 Avago SAS3416iMR操作界面(2)

 

表10-4 Avago SAS3416iMR操作界面参数说明

参数

参数说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

CacheVault

是否支持Cache。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

说明

仅当存在外部配置时显示该参数。

Configure

提供RAID控制卡的配置接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

Silence Alarm

板载蜂鸣器的使能状态。

说明

Avago SAS3416iMR未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID FastPath

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

10.3.2 创建RAID 0

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3416iMR支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参看10.2.1 支持RAID 0/1/10。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见10.3.1 登录管理界面。

                                步骤 1     (可选)将要加入RAID组的硬盘设置为“Unconfigured Good”状态。

说明

只有“Unconfigured Good”状态的硬盘可以用于创建RAID组。Avago SAS3416iMR默认把所有硬盘的状态设置为“JBOD”,用户需要根据实际情况先将硬盘状态设置为“Unconfigured Good”后,才可配置RAID组。设置硬盘状态为Unconfigured Good的方法请参见设置硬盘状态为“Unconfigured Good”

                                步骤 2     进入“Create Virtual Drive”界面。

1.     在Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。

打开“Main Menu”界面,如图10-7所示。

图10-7 “Main Menu”界面

 

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图10-8图10-9所示,参数说明如表10-5所示。

图10-8 Create Virtual Drive界面(1)

 

图10-9 Create Virtual Drive界面(2)

 

表10-5 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

说明

Avago SAS3416iMR当前不支持该功能。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照10.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,Avago SAS3416iMR当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

Avago SAS3416iMR当前不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

Avago SAS3416iMR当前不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

Avago SAS3416iMR当前不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。

                                步骤 4     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如图10-10图10-11所示,界面参数如表10-6所示。

图10-10 添加成员盘(1)

 

图10-11 添加成员盘(2)

 

表10-6 添加成员盘的参数说明

参数

参数说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     按表10-6所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 0支持的硬盘个数为1~32。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     单击“OK”完成成员盘配置。

                                步骤 5     配置虚拟磁盘属性。

1.     按照表10-5所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照10.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 6     保存配置

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 7     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

10.3.3 创建RAID 1

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3416iMR支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参看10.2.1 支持RAID 0/1/10。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见10.3.1 登录管理界面。

                                步骤 1     (可选)将要加入RAID组的硬盘设置为“Unconfigured Good”状态。

说明

只有“Unconfigured Good”状态的硬盘可以用于创建RAID组。Avago SAS3416iMR默认把所有硬盘的状态设置为“JBOD”,用户需要根据实际情况先将硬盘状态设置为“Unconfigured Good”后,才可配置RAID组。设置硬盘状态为Unconfigured Good的方法请参见设置硬盘状态为“Unconfigured Good”

                                步骤 2     进入“Create Virtual Drive”界面。

1.     在Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。

打开“Main Menu”界面,如图10-12所示。

图10-12 “Main Menu”界面

 

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图10-13图10-14所示,参数说明如表10-7所示。

图10-13 Create Virtual Drive界面(1)

 

图10-14 Create Virtual Drive界面(2)

 

表10-7 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

说明

Avago SAS3416iMR当前不支持该功能。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照10.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,Avago SAS3416iMR当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

Avago SAS3416iMR当前不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

Avago SAS3416iMR当前不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

Avago SAS3416iMR当前不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。

                                步骤 4     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如图10-15图10-16所示,界面参数如表10-8所示。

图10-15 添加成员盘(1)

 

图10-16 添加成员盘(2)

 

表10-8 添加成员盘的参数说明

参数

参数说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     按表10-8所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 1支持的硬盘个数为2~32(偶数)。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     单击“OK”完成成员盘配置。

                                步骤 5     配置虚拟磁盘属性。

按照表10-7所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照10.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 6     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 7     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

10.3.4 创建RAID 10

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     Avago SAS3416iMR支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参看10.2.1 支持RAID 0/1/10。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见10.3.1 登录管理界面。

                                步骤 1     (可选)将要加入RAID组的硬盘设置为“Unconfigured Good”状态。

说明

只有“Unconfigured Good”状态的硬盘可以用于创建RAID组。Avago SAS3416iMR默认把所有硬盘的状态设置为“JBOD”,用户需要根据实际情况先将硬盘状态设置为“Unconfigured Good”后,才可配置RAID组。设置硬盘状态为Unconfigured Good的方法请参见设置硬盘状态为“Unconfigured Good”

                                步骤 2     进入“Create Virtual Drive”界面。

1.     在Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。

打开“Main Menu”界面,如图10-17所示。

图10-17 “Main Menu”界面

 

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图10-18图10-19所示,参数说明如表10-9所示。

图10-18 Create Virtual Drive界面(1)

 

图10-19 Create Virtual Drive界面(2)

 

表10-9 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

说明

Avago SAS3416iMR当前不支持该功能。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照10.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,Avago SAS3416iMR当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

Avago SAS3416iMR当前不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

Avago SAS3416iMR当前不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

Avago SAS3416iMR当前不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 3     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。

                                步骤 4     创建第1个Span。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如图10-20所示,界面参数如表10-10所示。

图10-20 为Span1添加成员盘

 

表10-10 添加成员盘的参数说明

参数

参数说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     按表10-10所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 10支持2~8个Span,每个Span支持的硬盘数为2~16(偶数),且各个Span的硬盘数量必须保持一致。

l     RAID 10支持的硬盘总数为4~32。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     单击“OK”完成成员盘配置。

                                步骤 5     创建第2个Span。

当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如图10-21所示。

图10-21 RAID 10的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

3.     在打开的列表中选择第2个Span的成员盘。

4.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

5.     单击“OK”完成成员盘配置。

                                步骤 6     根据业务需要重复步骤6,使用其他空闲硬盘创建多个Span。

说明

RAID10至少需要创建2个Span,最多可以创建8个Span。

                                步骤 7     配置虚拟磁盘属性。

按照表10-9所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照10.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 8     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 9     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

10.3.5 设置启动项

10.3.5.2 设置RAID控制卡下的启动项

请通过图10-88的“Select Boot Device”选项设置启动项。

10.3.5.3 设置服务器的启动项

当一台服务器配置了单张RAID控制卡时,RAID控制卡下的硬盘启动项即为该服务器的硬盘启动项,具体设置方法请参见10.3.5.1 设置RAID控制卡下的启动项。

当服务器配置了多张RAID控制卡时,硬盘启动项需要在BIOS中进行设置,具体设置方法请参见BIOS参数参考 的“设置服务器启动设备”章节。

10.4 常用配置

10.4.1 管理热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

Avago SAS3416iMR控制扣卡支持2种类型的热备盘:

l     Global Hotspare:即全局热备盘,为控制扣卡上所有已配置的RAID所共有,1块控制扣卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

l     Dedicated Hotspare:即局部热备盘,为控制扣卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

说明

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须是SATA硬盘或SAS硬盘,容量不小于RAID成员盘最大容量。

l     除RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

10.4.1.1 配置全局热备盘

操作步骤

登录管理界面,具体操作方法请参见10.3.1 登录管理界面。

                                步骤 1     进入“Drive Management”界面。

1.     在Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。

打开“Main Menu”界面,如图10-22所示。

图10-22 “Main Menu”界面

 

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如图10-23所示。

说明

仅“Unconfigured Good”状态的硬盘,可设置为全局热备盘。

图10-23 硬盘操作界面

 

                                步骤 2     配置全局热备盘。

1.     将“Operation”设置为“Assign Global Hot Spare Drive”并按“Enter”。

2.     选择“Go”并按“Enter”。

显示The operation has been performed successfully。

3.     选择“OK”并按“Enter”完成配置并返回上级界面。

                                步骤 3     检查配置结果。

1.     连续按“ESC”返回“Main Menu”界面。

2.     依次选择“Configuration Management > View Global HotSpare Drives”。

在全局热备盘列表中,可以看到前面所设置的硬盘,如图10-24所示。

图10-24 全局热备盘列表

 

----结束

10.4.1.2 配置局部热备盘

操作步骤

说明

当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

登录管理界面,具体操作方法请参见10.3.1 登录管理界面。

                                步骤 1     进入“Drive Management”界面。

1.     在Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。

打开“Main Menu”界面,如图10-25所示。

图10-25 “Main Menu”界面

 

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如图10-26所示。

说明

仅“Unconfigured Good”状态的硬盘,可设置为局部热备盘。

图10-26 硬盘操作界面

 

                                步骤 2     配置局部热备盘。

1.     将“Operation”设置为“Assign Dedicated Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

打开当前存在的硬盘组列表,如图10-27所示。

图10-27 硬盘组列表

 

3.     选择要关联的硬盘组并按“Enter”。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

                                步骤 3     检查配置结果。

在硬盘列表中,可以看到硬盘的状态变为“Hot Spare”,如图10-28所示。

图10-28 硬盘列表

 

说明

如果需要查硬盘组联的硬盘组信息,可在硬盘列表中选择要查询的硬盘并按“Enter”,在硬盘的“View Associated Drive Groups”节点下进行查看。

----结束

10.4.1.3 删除热备盘

操作场景

当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

操作步骤

登录管理界面,具体操作方法请参见10.3.1 登录管理界面。

                                步骤 1     进入“Drive Management”界面。

1.     在Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。

打开“Main Menu”界面。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的热备盘并按“Enter”进入详细操作界面,如图10-29所示。

图10-29 热备盘操作界面

 

                                步骤 2     删除热备盘。

1.     将“Operation”设置为“Unassign Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

10.4.2 设置紧急热备功能

操作场景

使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的空闲盘会自动替代故障成员盘并进行重构,避免数据丢失。

操作步骤

登录管理界面,具体操作方法请参见10.3.1 登录管理界面。

                                步骤 1     进入“Advanced Controller Properties”界面。

1.     在Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。

打开“Main Menu”界面。

2.     选择“Controller Management”并按“Enter”。

3.     选择“Advanced Controller Properties”并按“Enter”。

进入“Advanced Controller Properties”界面,如图10-30图10-31所示。

图10-30 控制器高级属性(1)

 

图10-31 控制器高级属性(2)

 

                                步骤 2     设置紧急热备。

1.     选择“Spare”并按“Enter”。

进入“Spare”界面,如图10-32所示。

图10-32 热备功能配置界面

 

2.     将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”。

3.     选择“Apply Changes”并按“Enter”。

4.     看到操作成功的提示信息后,选择“OK”并按“Enter”。

----结束

10.4.3 扩展Virtual Drives可用空间

操作场景

在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

操作步骤

备份硬盘数据并登录管理界面,具体操作方法请参见10.3.1 登录管理界面。

                                步骤 1     进入要操作的虚拟磁盘界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如图10-33所示。

图10-33 Virtual Drive Management

 

                                步骤 2     扩容虚拟磁盘。

1.     将“Operation”设置为“Expand Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入虚拟磁盘扩容界面,如图10-34界面所示,界面参数如表10-11所示。

图10-34 Expand Virtual Drive

 

表10-11 参数说明

参数

参数说明

Current Capacity

虚拟磁盘当前容量。

Available Capacity

可用于扩展的容量。

Enter a Percentage of Available Capacity

输入扩容比例。

Capacity of Virtual Drive after Expansion

扩容后虚拟磁盘容量。

 

3.     设置扩容百分比。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

10.4.4 添加新硬盘到RAID

操作场景

RAID的扩容方式有如下2种:

l     通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。

l     通过增加可用空间方式扩容:在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

 

注意

l     只有RAID 0、RAID 1支持增加硬盘扩容。

l     RAID10不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

对系统的影响

增加硬盘扩容过程中,如果出现硬盘故障,会导致:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID。

请谨慎执行增加硬盘扩容操作。

必备事项

前提条件

添加硬盘扩容之前,需具备如下条件:

l     服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     已登录管理界面,具体操作请参见10.3.1 登录管理界面。

数据

该操作无需准备数据。

操作步骤

进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”。

进入虚拟磁盘选项界面,如图10-35所示。

图10-35 虚拟磁盘选项界面

 

                                步骤 2     添加新硬盘。

1.     选择要进行扩容的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如图10-36所示。

图10-36 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”

4.     选择“Go”,并按“Enter”。

进入RAID配置界面,如图10-37所示。

图10-37 Reconfigure Virtual Drives(1)

 

5.     选择要扩容的RAID级别。

说明

增加硬盘扩容时,请保证该处的RAID级别与原级别一致。

6.     选择“Choose the Operation”并按“Enter”。

进入选择硬盘界面,如图10-38所示。

图10-38 选择硬盘界面

 

7.     选择要增加的硬盘并按“Enter”。

说明

l     增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。

l     RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。

8.     选择“Apply Changes”并按“Enter”。

弹出操作确认对话框。

9.     选择“Confirm”并按“Enter”。

10.     选择“Yes”并按“Enter”。

提示操作成功。

11.     选择“OK”并按“Enter”返回图10-37所示界面。

图10-39 Reconfigure Virtual Drives(2)

 

12.     选择“Start Operation”并按“Enter”。

提示操作成功。可进入“Virtual Drive Management”界面,检查扩容结果,如图10-40所示,表示RAID正在进行扩容。

图10-40 Reconfigure Virtual Drives(3)

 

----结束

说明

l     扩容属于后台动作,在HII界面只能触发而不能正式开始扩容,所以扩容的进度条一直显示为0%。当进入OS后,扩容才会开始进行。

l     扩容过程中若重启服务器,该任务将在重启后继续进行。

10.4.5 迁移RAID级别

操作场景

随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。

在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。

对系统的影响

RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID。

请谨慎执行RAID级别迁移操作。

必备事项

前提条件

迁移RAID级别之前,需具备如下条件:

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     当前存在的硬盘个数满足目标RAID级别要求。

l     已登录管理界面,具体操作请参见10.3.1 登录管理界面。

Avago SAS3416iMR卡支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1

l     RAID 1迁移到RAID 0

RAID迁移对硬盘数量的要求如表10-3所示。

说明

l     当RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     迁移只支持增加与RAID组成员盘同类型同规格的硬盘。

l     为防止数据丢失,请在该操作之前备份当前RAID组的数据。

l     只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。

l     迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。

操作步骤

进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”并按“Enter”。

进入虚拟磁盘选项界面,如图10-41所示。

图10-41 虚拟磁盘选项界面

 

                                步骤 2     选择RAID迁移的目标级别。

下面以将RAID 1迁移到RAID 0为例进行说明。

1.     选择要进行迁移的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如图10-42所示。

图10-42 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”。

4.     选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如图10-43所示。不设置时默认与原RAID组配置一致。

图10-43 Advanced...

 

5.     选择“Go”,并按“Enter”。

进入RAID配置界面,如图10-44所示。

图10-44 Reconfigure Virtual Drives(1)

 

6.     选择“New RAID Level”并按“Enter”。

打开RAID迁移的目标级别选择窗口,如图10-45所示。

图10-45 选择新的RAID级别

 

7.     选择“RAID 0”并按“Enter”。

                                步骤 3     添加硬盘。

1.     选择“Choose the operation”并按“Enter”。

打开硬盘选择窗口。

2.     选择要增加的硬盘并按“Enter”。

说明

RAID迁移对硬盘数量的要求请参见表10-3

3.     选择“Apply Changes”并按“Enter”。

弹出操作确认会话框。

4.     选择“Confirm”并按“Enter”。

5.     选择“Yes”并按“Enter”。

提示操作成功。

6.     选择“OK”并按“Enter”返回图10-46界面。

图10-46 Reconfigure Virtual Drives(2)

 

                                步骤 4     RAID级别迁移。

1.     选择“Start Operation”并按“Enter”。

提示操作成功。

2.     选择“OK”并按“Enter”。

                                步骤 5     查看迁移结果。

1.     进入Virtual Drive Management界面,检查迁移结果,如图10-47所示,表示RAID正在进行迁移。

图10-47 查看迁移结果

 

说明

l     迁移过程中若重启服务器,该任务将在重启后继续进行。

l     迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。

2.     选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息,如RAID的级别由“RAID 1”变成“RAID 0”,且“Status”状态显示为“Optimal”,表示RAID迁移成功。

----结束

说明

迁移属于后台动作,在HII界面只能触发而不能正式开始,所以迁移的进度条一直显示为0%。当进入OS后,迁移才会开始进行。

10.4.6 删除RAID

操作场景

 

注意

RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见10.3.1 登录管理界面。

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。

打开“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

打开虚拟磁盘列表。

3.     选择要操作的虚拟磁盘并按“Enter”。

进入虚拟磁盘操作界面,如图10-48所示。

图10-48 虚拟磁盘操作界面

 

                                步骤 2     删除虚拟磁盘。

1.     将“Operation”设置为“Delete Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

10.4.7 重构RAID

说明

l     当出现硬盘离线且RAID组可用时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     Rebuild属于后台动作,在HII界面只能触发而不能正式开始rebuild,所以rebuild的进度条一直显示为0%。当进入OS后,rebuild才会开始进行。

重构RAID(含外部配置)

在“Main Menu”界面中选择“Drive Management”,并按“Enter”。

                                步骤 1     选择要进行重构的硬盘,并按“Enter”。

                                步骤 2     选择“Operation”并按“Enter”。

显示该硬盘的操作菜单。

                                步骤 3     选择“Make Unconfigured Good”并按“Enter”。

                                步骤 4     选择“Go”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     选择“OK”并按“Enter”。

硬盘状态变为“(Foreign)Unconfigured Good”。

                                步骤 6     导入外部配置,具体操作请参见10.4.10 导入/清除外部配置,。

RAID组开始进行重构。

                                步骤 7     重新进入该硬盘操作界面可查看重构进度。

----结束

重构RAID(无外部配置)

在“Main Menu”界面中选择“Drive Management”,并按“Enter”。

                                步骤 1     选择要进行重构的硬盘,并按“Enter”。

                                步骤 2     选择“Operation”并按“Enter”。

显示该硬盘的操作菜单。

图10-49 “Select Operation”

 

                                步骤 3     选择“Replace Missing Drive”并按“Enter”。

                                步骤 4     选择“Go”并按“Enter”。

进入“Replace Missing Drive”界面,如图10-50所示。

图10-50 “Replace Missing Drive”

 

                                步骤 5     选择“Drive Group”并按“Enter”。

选择需替换硬盘的RAID。

                                步骤 6     选择“Row Index”并按“Enter”。

选择需要替换的硬盘索引,推荐使用默认配置。

                                步骤 7     选择“Replace Drive”并按“Enter”。

提示“The operation has been performed successfully”。

                                步骤 8     选择“OK”并按“Enter”完成硬盘替换。

                                步骤 9     重新进入该硬盘操作界面,选择“Operation”并按“Enter”。

显示该硬盘的操作菜单,如图10-51所示。

图10-51 硬盘操作菜单

 

                             步骤 10     选择“Rebuild”并按“Enter”。

                             步骤 11     选择“Go”并按“Enter”。

提示“The operation has been started successfully...”,硬盘开始重构。

                             步骤 12     重新进入该硬盘操作界面可查看重构进度。

----结束

10.4.8 查看RAID控制卡属性

操作场景

用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。

操作步骤

登录管理界面,具体操作方法请参见10.3.1 登录管理界面。

                                步骤 1     进入“Controller Management”界面。

1.     在Avago SAS3416iMR操作界面中选择“Main Menu”并按“Enter”。

打开“Main Menu”界面。

2.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息,如图10-52所示,参数说明如表10-12所示。

图10-52 RAID控制卡基本信息(1)

 

图10-53 RAID控制卡基本信息(2)

 

表10-12 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Personality Mode

RAID控制卡的工作模式。

Select Device For Boot Order

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。

PCI ID

RAID控制卡的PCI ID。

PCI Segment:Bus:Device:Fuction

RAID控制卡的PCI地址,格式为:总线号:设备号:功能号。

PCI Slot Number

RAID控制卡的PCI槽位号,若RAID控制卡为扣卡,则此处显示“Integrated”。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Supported Device Interfaces

RAID控制卡支持的硬盘接口类型。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制器操作。

Advanced Controller Properties

查看和修改控制器的高级属性。

 

                                步骤 2     查看控制器高级属性。

选择“Advanced Controller Properties”并按“Enter”。

进入控制器高级属性界面,如图10-54图10-55所示,参数说明如表10-13所示。

在该界面下,可查看并修改RAID控制卡的高级属性。

图10-54 Advanced Controller Properties界面(1)

 

图10-55 Advanced Controller Properties界面(2)

 

表10-13 参数说明

参数

参数说明

Patrol Read

设置系统巡检参数。

Power Save Setting

设置硬盘休眠参数。

Spare

设置控制器热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

Avago SAS3416iMR控制器扣卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errrors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制器BIOS的使能情况。

ROC Temperature

控制器温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见10.4.10 导入/清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

JBOD Mode

是否使能硬盘直通功能。

说明

Avago SAS3416iMR支持的Online状态与Unconfigured Good状态的硬盘之和最多为32个,当服务器配置的硬盘数超过32个时,请勿关闭RAID控制卡的硬盘直通功能,以免造成服务器重启导致“Online”状态下的硬盘变为“Ubad”状态的问题。

Large IO Support

启用或禁用大型I/O支持功能。

Unmap Capability

解除映射能力。

Apply Changes

保存配置。

 

----结束

10.4.9 设置JBOD模式

Avago SAS3416iMR支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

说明

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

登录管理界面,具体操作方法请参见10.3.1 登录管理界面。

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Properties界面,如图10-56所示。

图10-56 Advanced Controller Properties

 

                                步骤 2     选择“JBOD Mode”并按Enter。

                                步骤 3     选择“Enabled”并按“Enter”。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

10.4.10 导入/清除外部配置

操作场景

l     服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或不需要的存储配置,可将该配置导入或清空。

RAID控制卡的“Auto Import Foreign Configuration”参数可控制外部配置导入操作是否需要人工干涉。

l     该参数值为“Enabled”时,在系统启动过程中,会自动检测当前存在的外部配置并将其导入。

l     该参数值为“Disabled”时,存在的外部配置需要用户操作才可将其导入。

 

注意

l     如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!

l     为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

导入外部配置

登录管理界面,具体操作方法请参见10.3.1 登录管理界面。

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如图10-57所示。

图10-57 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

进入外部配置管理界面,如图10-58所示。

图10-58 Preview Foreign Configuration

 

                                步骤 5     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 8     单击“OK”完成配置返回上级界面。

----结束

清空外部配置

登录管理界面,具体操作方法请参见10.3.1 登录管理界面。

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如图10-59所示。

图10-59 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

进入外部配置管理界面,如图10-60所示。

图10-60 Preview Foreign Configuration

 

                                步骤 5     选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 8     单击“OK”完成配置返回上级界面。

----结束

10.4.11 创建多个VD(Virtual Drive)

该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID0存在一个VD为例(如图10-61所示),详细操作方法如下:

图10-61 Virtual Drive Management

 

按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如图10-62所示。

图10-62 Create Virtual Drive

 

                                步骤 2     将“Select Drives From”设置为“Free Capacity”,如图10-63所示。

图10-63 Create Virtual Drive

 

                                步骤 3     选择“Select Drive Groups”并按“Enter”。

显示当前存在的RAID组(Drive Group),如图10-64所示。

图10-64 Select Drive Groups

 

                                步骤 4     选择要创建多个VD的RAID组并按“Enter”,如图10-65所示。

图10-65 Select Drive Groups

 

                                步骤 5     选择“Apply Changes”并按“Enter”。

提示操作成功。

                                步骤 6     选择“OK”并按“Enter”返回VD配置界面,如图10-66所示,参数说明如表10-5所示。

图10-66 Create Virtual Drive

 

表10-14  

参数

参数说明

Select RAID Level

选择RAID级别。

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

说明

Avago SAS3416iMR当前不支持该功能。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drive Group

选择硬盘组。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照10.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,Avago SAS3416iMR当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

Avago SAS3416iMR当前不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

Avago SAS3416iMR当前不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

Avago SAS3416iMR当前不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略。可配置的状态有:

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。

l     Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 7     按照表10-5所述配置VD的相关属性。

                                步骤 8     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

                                步骤 9     选择“Confirm”并按“Enter”。

                             步骤 10     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                             步骤 11     选择“OK”并按“Enter”完成配置。

可进入Virtual Drive Management界面,查看当前存在的所有VD,如图10-67所示。

图10-67 Virtual Drive Management

 

说明

每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤11

----结束

10.4.12 设置硬盘状态为JBOD或Unconfigured Good

设置硬盘状态为“Unconfigured Good”

说明

Avago SAS3416iMR默认把所有硬盘的状态设置为“JBOD”,用户需要根据实际情况先把硬盘状态设置为“Unconfigured Good”后,才能配置RAID组。

l     将单个JBOD硬盘设置为“Unconfigured Good”的操作方法:

a.     登录管理界面,具体操作方法请参见10.3.1 登录管理界面。

b.     在主界面中依次进入“Main Menu  > Drive Management”,如图10-68所示。

图10-68 Drive Management界面

 

c.     选中要进行操作的硬盘并按“Enter”。

d.     选择“Operation”并按“Enter”。

e.     选择“Make Unconfigured Good”并按“Enter”。

f.     选择“Go”并按“Enter。”

提示The operation has been performed successfully。

g.     选择“OK”并按“Enter”完成配置。

l     通过“Make Unconfigured Good”选项将“JBOD”状态的硬盘设置为“Unconfigured Good”状态:

a.     登录管理界面,具体操作方法请参见10.3.1 登录管理界面。

b.     在主界面中选择“Main Menu”并按“Enter”。

c.     选择“Configuration Management”并按“Enter”。

d.     选择“Make Unconfigured Good”并按“Enter”。

显示当前JBOD状态的硬盘,如图10-69所示。

图10-69 Make Unconfigured Good界面

 

e.     选择要设置为“Unconfigured Good”状态的硬盘并按“Enter”。

f.     选择“OK”并按“Enter”。

弹出操作确认框。

g.     选择“Confirm”并按“Enter”。

h.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

i.     选择“OK”并按“Enter”完成配置。

l     通过关闭JBOD功能将所有JBOD状态的硬盘设置为“Unconfigured Good”状态(已加入RAID组的硬盘状态不受影响):

a.     登录管理界面,具体操作方法请参见10.3.1 登录管理界面。

b.     在主界面中依次进入“Main Menu  > Controller Management > Advanced Controller Properties”,如图10-70所示。

图10-70 Advanced Controller Properties界面

 

c.     选择“JBOD Mode”并按“Enter”。

d.     选择“Disabled”并按“Enter”。

e.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

f.     选择“OK”并按“Enter”。

操作成功。

设置硬盘状态为“JBOD”

l     如果RAID控制卡未开启硬盘直通功能(“JBOD Mode”选项为“Disabled”状态),可通过开启硬盘直通功能,将所有“Unconfigured Good”状态的硬盘同时设置为“JBOD”状态,已加入RAID组的硬盘状态不受影响。具体操作方法:

a.     登录管理界面,具体操作方法请参见10.3.1 登录管理界面。

b.     在主界面中依次进入“Main Menu  > Controller Management > Advanced Controller Properties”,如图10-71所示。

图10-71 Advanced Controller Properties界面

 

c.     选择“JBOD Mode”并按“Enter”。

d.     选择“Enabled”并按“Enter”。

e.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

f.     选择“OK”并按“Enter”。

操作成功。

l     如果RAID控制卡已开启硬盘直通功能(“JBOD Mode”选项为“Enabled”状态):

     可通过硬盘菜单将某一个“Unconfigured Good”状态的硬盘设置为“JBOD”状态。具体操作方法:

i.     登录管理界面,具体操作方法请参见10.3.1 登录管理界面。

ii.     在主界面选择“Drive Management”并按“Enter”。

iii.     选择要设置为“JBOD”状态的硬盘,并按“Enter”。

iv.     选择“Operation”并按“Enter”。

v.     在弹出的菜单中选择“Make JBOD”并按“Enter”。

vi.     选择“Go”并按“Enter”。

提示操作成功。

     通过“Make JBOD”选项将“Unconfigured Good”状态的硬盘设置为“JBOD”状态:

i.     登录管理界面,具体操作方法请参见10.3.1 登录管理界面。

ii.     在主界面中选择“Main Menu”并按“Enter”。

iii.     选择“Configuration Management”并按“Enter”。

iv.     选择“Make JBOD”并按“Enter”。

显示当前“Unconfigured Good”状态的硬盘,如图10-72所示。

图10-72 Make JBOD界面

 

v.     选择要设置为“Unconfigured Good”状态的硬盘并按“Enter”。

vi.     选择“OK”并按“Enter”。

vii.     选择“Confirm”并按“Enter”。

选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

viii.     选择“OK”并按“Enter”完成配置。

10.5 故障处理

介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

10.5.1 硬盘故障

10.5.1.1 硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

确认故障硬盘槽位。

说明

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考10.6.2.6 Drive Management。

l     通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

                                步骤 1     更换新硬盘。

 

注意

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考10.4.10 导入/清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在表10-2查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制器下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成。新插入硬盘后确认rebuild操作是否已经启动,如rebuild操作未启动,需手动启动硬盘重构,操作请参见重构RAID(无外部配置)

如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。

     UEFI模式下创建RAID0的方法请参见10.3.2 创建RAID 0。

     通过命令行方式创建RAID0的方法请参见10.7.2.2 创建和删除RAID。

----结束

10.5.1.2 硬盘状态为fail或prefail

问题描述

正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。

但当RAID控制卡未设置紧急热备时,成员盘状态显示为fail或prefail时,可使用以下方法处理。

处理方法

使用StorCLI工具,具体操作请参考1.1.1下载和安装StorCLI工具。

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考10.7.2.14 设置硬盘状态。

storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]

说明

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在Enclosure的ID

l     slot_id:物理硬盘槽位ID

                                步骤 2     更换离线硬盘。

                                步骤 3     RAID组自动执行重构。

等待重构完成。

----结束

10.5.1.3 硬盘状态为Unconfigured Bad或UBad

问题描述

硬盘状态显示为Unconfigured Bad或UBad。

处理方法

使用StorCLI工具,具体操作请参见1.1.1下载和安装StorCLI工具。

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见10.7.2.14 设置硬盘状态。

storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]

说明

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在Enclosure的ID

l     slot_id:物理硬盘槽位ID

                                步骤 2     重新查看硬盘状态是否更改为Unconfigured Good或Ugood。具体操作请参见10.6.2.6 Drive Management界面或10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤4

                                步骤 3     查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见10.4.10 导入/清除外部配置或10.7.2.27 查看/导入/清除外部配置。

l     问题解决 => 处理完毕。

l     问题未解决 => 联系技术支持处理。

----结束

10.5.2 RAID控制卡故障

问题描述

l     数据无法写入RAID控制卡控制的硬盘。

l     服务器上报RAID控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     查询兼容性查询助手或者联系技术支持处理。

----结束

10.5.3 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy

问题描述

正常情况下,当服务器配置了RAID控制卡且RAID控制卡状态正常时,进入BIOS的Advanced页签后,会显示RAID控制卡的信息,如图10-73所示。

如果Advanced页签不显示RAID控制卡的信息,如图10-74所示,则:

l     如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:

     如果不显示驱动打印信息,可尝试下电后重新拔插RAID控制卡再上电、下电后更换RAID控制卡再上电或者联系技术支持。

     如果显示“AVAGO EFI SAS Driver SAS3416”,则可以通过本章节的指导修复RAID控制卡。

l     如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,则可以通过本章节的指导修复RAID控制卡;如果不显示,可尝试下电后重新拔插RAID控制卡再上电、下电更换RAID控制卡再上电或者联系技术支持。

图10-73 Advanced页签(1)

 

图10-74 Advanced页签(2)

 

处理方法

l     当BIOS的版本为0.98之前版本(不包含0.98版本)时:

a.     在Advanced页签选择“Driver Health Manager”并按Enter。

进入“Driver Health Manager”界面。

b.     选择要进行修复的RAID控制卡驱动,如“AVAGO EFI SAS Driver SAS3416”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息:

n     显示“The following VDs have missing disks. ”=> 请参见10.5.3.1 The following VDs have missing disks。

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见10.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。

l     当BIOS的版本为0.98及以上版本时:

a.     在“Advanced”页签选择“Some drivers are not healthy”。

进入健康状态查询界面。

b.     选择“Repair the whole platform”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息。

n     显示“The following VDs have missing disks. ”=> 请参见10.5.3.1 The following VDs have missing disks。

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见10.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。

说明

RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见A.2 RAID控制卡启动中出现的常见的错误消息及处理方法。

10.5.3.1 The following VDs have missing disks

问题描述

图10-75所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。

图10-75 状态显示

 

处理方法

修复RAID控制卡。

1.     在图10-75中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

2.     输入“c”,选择“Yes”并按“Enter”。

返回“Driver Healthy Protocol Utility”界面。

3.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

4.     输入“y”,选择“Yes”并按“Enter”。

提示Critical Message handling completed. Please exit。修复完成。

                                步骤 1     重启服务器,进入“Advanced”界面,检查界面是否显示The platform is healthy。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

10.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

问题描述

图10-76所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”

图10-76 “Driver Healthy Protocol Utility”界面

 

处理建议

该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:

l     下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。

l     忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:

a.     在图10-76中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

b.     输入“c”并按“Enter”。

c.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

d.     输入“y”并按“Enter”。

提示Critical Message handling completed. Please exit。

e.     按“Esc”退出当前界面。

弹出确认保存配置会话框,如图10-77所示。

图10-77 提示保存会话框

 

f.     按“Y”保存配置,操作完成。

g.     按Esc键返回“Device Manager”界面。

h.     选择3416iMR RAID控制卡,并按“Enter”,进入RAID控制卡管理界面。

10.5.3.3 Disabling writes to flash as the flash part has gone bad

问题描述

图10-78所示,进入“Driver Healthy Protocol Utility”界面后,显示“Disabling writes to flash as the flash part has gone bad”。

图10-78 状态显示

 

处理方法

将服务器下电。

                                步骤 1     更换RAID控制卡。

                                步骤 2     将服务器上电,导入外部配置恢复原来的RAID配置,请参见10.4.10 导入/清除外部配置或10.7.2.27 查看/导入/清除外部配置。

检查提示是否清除。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

10.6 管理界面介绍

10.6.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如图10-79所示界面时,按“Delete”。

进入输入密码界面。

图10-79 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如图10-80所示界面。

图10-80 Setup Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如图10-81所示。

图10-81 “Advanced”页签

 

说明

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见10.5.3 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择要操作的Avago SAS3416iMR控制器,按“Enter”。

进入Avago SAS3416iMR操作界面,如图10-82和图10-83所示,界面参数如表10-15所示。

图10-82 Avago SAS3416iMR操作界面(1)

 

图10-83 Avago SAS3416iMR操作界面(2)

 

表10-15 Avago SAS3416iMR操作界面参数说明

参数

参数说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

CacheVault

是否支持Cache。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

说明

仅当存在外部配置时显示该参数。

Configure

提供RAID控制卡的配置接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

Silence Alarm

板载蜂鸣器的使能状态。

说明

Avago SAS3416iMR未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID FastPath

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

10.6.2 Main Menu

RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。

界面介绍

“Main Menu”界面如图10-84,参数说明如表10-16所示。

图10-84 Main Menu

 

表10-16 参数说明

参数

参数说明

Configuration Management

配置管理RAID。

Controller Management

管理RAID控制器。

Virtual Drive Management

管理虚拟磁盘。

Drive Management

管理硬盘。

Hardware Components

查询部件信息。

 

1.     Configuration Management

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

“Configuration Management”界面如图10-85,参数说明如表10-17所示。

图10-85 Configuration Management

 

表10-17 参数说明

参数

参数说明

Create Virtual Drive

创建RAID。

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

View Global HotSpare Drives

查看全局热备盘属性。

Make JBOD

硬盘直通功能,硬盘不加入RAID,直接使用。

Make Unconfigured Good

配置硬盘状态。

Clear Configuration

清除配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时会显示该参数。

 

清除RAID配置

选择“Clear Configuration”并按“Enter”。

进入操作确认界面。

                                步骤 1     选中“Confirm”并按“Enter”。

                                步骤 2     在打开的列表中选择“Enabled”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 4     按“Enter”。

配置完成。

----结束

快速创建RAID

图10-85中选择“Create Profile Based Virtual Drive”并按“Enter”。

                                步骤 1     通过“↑”、“↓”选择要创建的RAID(以“Generic RAID 0”为例)并按“Enter”。

打开RAID配置界面,如图10-86,参数说明如表10-18所示。

图10-86 RAID配置界面

 

表10-18 参数说明

参数

参数说明

Drive Selection Criteria

系统自动选择的成员盘。

Virtual Drive Name

系统自定义的RAID组名称。

RAID Level

当前配置的RAID组的级别。

Virtual Drive Size

RAID组的容量。

Power Save Mode

数据掉电保护模式。

Strip Size

RAID组扇区大小。

Read Policy

RAID组的数据读策略。

Write Policy

RAID组的数据写策略。

IO Policy

RAID组I/O策略。

Access Policy

数据读写的策略。

Drive Cache

硬盘Cache策略。

Default Initialization

RAID组默认的初始化方式。

Save Configuration

保存当前配置。

 

                                步骤 2     选择“Drive Selection Criteria”并按“Enter”。

                                步骤 3     选择快速RAID所使用的硬盘。

                                步骤 4     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

                                步骤 5     按“Enter”。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 8     单击“OK”完成配置。

----结束

查看硬盘组属性

图10-85中选择“View Drive Group Properties”并按“Enter”。

打开的界面如图10-87,参数说明如表10-19所示。

图10-87 硬盘组属性

 

表10-19 参数说明

参数

参数说明

Drive Group

硬盘组名称。

Capacity Allocation

硬盘组关联内容,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。

Protected

硬盘组数据保护功能的使能状态。

Assigned Dedicated Hot SDpare Drive

硬盘组关联的局部热备盘。

 

10.6.2.4 Controller Management

该界面提供控制器管理接口,可查看并修改控制器的详细参数。

界面介绍

“Controller Management”界面如图10-88,参数说明如表10-20所示。

图10-88 Controller Management(1)

 

图10-89 Controller Management(2)

 

表10-20 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Personality Mode

RAID控制卡的工作模式。

Select Device For Boot Order

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。

PCI ID

RAID控制卡的PCI ID。

PCI Segment:Bus:Device:Fuction

RAID控制卡的PCI地址,格式为:总线号:设备号:功能号。

PCI Slot Number

RAID控制卡的PCI槽位号,若RAID控制卡为扣卡,则此处显示“Integrated”。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Supported Device Interfaces

RAID控制卡支持的硬盘接口类型。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制器操作。

Advanced Controller Properties

查看和修改控制器的高级属性。

 

查看并修改控制器高级属性

图10-88中选择“Advanced Controller Properties”并按“Enter”。

界面如图10-90图10-91所示,界面中参数说明如表10-21所示。

图10-90 Advanced Controller Properties界面(1)

 

图10-91 Advanced Controller Properties界面(2)

 

表10-21 参数说明

参数

参数说明

Patrol Read

设置系统巡检参数。

Power Save Setting

设置硬盘休眠参数。

Spare

设置控制器热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

Avago SAS3416iMR控制器扣卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errrors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制器BIOS的使能情况。

ROC Temperature

控制器温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见10.4.10 导入/清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

JBOD Mode

是否使能硬盘直通功能。

说明

Avago SAS3416iMR支持的Online状态与Unconfigured Good状态的硬盘之和最多为32个,当服务器配置的硬盘数超过32个时,请勿关闭RAID控制卡的硬盘直通功能,以免造成服务器重启导致“Online”状态下的硬盘变为“Ubad”状态的问题。

Large IO Support

启用或禁用大型I/O支持功能。

Unmap Capability

解除映射能力。

Apply Changes

保存配置。

 

                                步骤 2     在图10-90中选择“Task Rates”并按“Enter”。界面如图10-92所示,界面中参数说明如表10-22所示。

图10-92 Task Rates

 

表10-22 参数说明

参数

说明

Background Initialization <BGI> Rate

设置执行后台初始化的速率。

说明

数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Consistency Check Rate

设置执行一致性校验的速率。

说明

数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Patrol Read Rate

设置执行巡检读取的速率。

说明

数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Rebuild Rate

设置硬盘发生故障时在新硬盘上执行重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Reconstruction Rate

设置执行RAID级别迁移或在线容量扩展时重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Apply Changes

保存配置。

 

                                步骤 3     按照表10-21所述修改控制器的高级属性参数。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     单击“OK”完成配置。

----结束

10.6.2.5 Virtual Drive Management

该界面提供虚拟磁盘的查询和管理接口。

界面介绍

“Virtual Drive Management”界面如图10-93,显示虚拟磁盘列表。

图10-93 虚拟磁盘列表

 

选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如图10-94所示,参数说明如表10-23所示。

图10-94 Virtual Drive Management界面

 

表10-23 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:定位虚拟磁盘的所有硬盘。

l     Stop Locate:取消定位。

l     Delete Virtual Drive:删除虚拟磁盘。

l     Expand Virtual Drive:扩展虚拟磁盘容量。

l     Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。

l     Hide/Unhide Virtual Drive:在OS下隐藏/取消隐藏虚拟磁盘。

l     Hide/Unhide Drive Group:在OS下隐藏/取消隐藏硬盘组。

l     Fast Initialization:快速初始化虚拟磁盘。

l     Slow Initialization:安全初始化虚拟磁盘。

l     Check Consistency:一致性校验。

l     Virtual Drive Erase:格式化虚拟磁盘。

Name

虚拟磁盘名称。

RAID Level

虚拟磁盘RAID级别。

Status

虚拟磁盘当前运行状态。

Size

虚拟磁盘容量。

View Associated Drives

查看成员盘属性。

Advanced...

查看虚拟磁盘高级属性。

 

查看成员盘属性

图10-94中选择“View Associated Drives”并按“Enter”。

界面如图10-95,显示成员盘列表。

图10-95 成员盘列表

 

                                步骤 2     选择要查看的成员盘,并按“Enter”。

                                步骤 3     选择“View Drive Properties”并按“Enter”。

进入硬盘属性界面,如图10-96界面所示,界面参数如表10-24所示。

图10-96 成员盘属性

 

表10-24 参数说明

参数

参数说明

Operation

该成员盘可执行的操作,包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Place Drive Online/Offline:将硬盘上线/离线。

Drive ID

成员盘的ID。

Connection

成员盘的接口。

Enclosure Position

Enclosure的位置。

Slot Number

成员盘的槽位号。

Status

成员盘的当前工作状态。

Size

成员盘的容量。

Type

成员盘类型。

Model

成员盘的模块类型。

Serial Number

成员盘的序列号。

Hardware Vendor

成员盘的生产厂商。

Associated Virtual Drive

成员盘所在的虚拟磁盘。

Advanced...

查询成员盘更多属性。

 

----结束

查看和修改虚拟磁盘高级属性

图10-94中选择“Advanced”并按“Enter”。

界面如图10-97图10-98所示,界面参数如表10-25所示。

图10-97 虚拟磁盘高级属性(1)

 

图10-98 虚拟磁盘高级属性(2)

 

表10-25 参数说明

参数

参数说明

Mirror Date Size

RAID中镜像空间的容量。

Logical Sector Size

逻辑扇区大小。

Strip Size

条带大小。

Starting Logical Block Addressing

逻辑单元起始地址。

Emulation Type

控制逻辑盘在OS中上报的扇区。

当成员盘为512B/512B时:

l     Default:逻辑盘扇区为512B/512B。

l     None:逻辑盘扇区为512B/512B。

l     Force:逻辑盘扇区为512B/4KB。

当成员盘为512B/4KB时:

l     Default:逻辑盘扇区为512B/4KB。

l     None:逻辑盘扇区为512B/512B。

l     Force:逻辑盘扇区为512B/4KB。

Bad Blocks

是否支持坏块处理。

Access

当前读写策略。

Current Write Cache Policy

当前的写Cache策略。

Default Write Cache Policy

默认的写Cache策略。

Disable Background Initialization

是否禁用后台初始化。

Read Cache Policy

当前的读Cache策略。

Drive Cache

是否支持cache。

Input/Output

I/O读取策略,包括:

l     Direct:直接从硬盘读取数据,不经过Cache缓存。

l     Cached:从Cache缓存中读取数据。

Unmap Capability

虚拟磁盘解映射功能使能状态。

Apply Changes

保存配置。

 

                                步骤 2     按照表10-25所述配置“Advanced”的参数。

                                步骤 3     选择“Apply Changes”并按“Enter”。

显示The operation has been performed successfully。

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

10.6.2.6 Drive Management

该界面显示硬盘基本属性,提供硬盘操作接口。

界面介绍

“Drive Management”界面如图10-99所示,显示硬盘列表。

图10-99 硬盘列表

 

说明

硬盘的标识信息说明如下:

l     ①表示RAID控制卡的Port口编号,其中Drive C0/Drive Port A表示RAID控制卡的Port A口,Drive C1/Drive Port B表示RAID控制卡的Port B口,Drive C2/Drive Port C表示RAID控制卡的Port C口,Drive C3/Drive Port D表示RAID控制卡的Port D口。

l     ②表示机箱或背板的位置ID。

l     ③表示硬盘槽位号。

l     ④表示硬盘类型。

l     ⑤表示硬盘的容量。

l     ⑥表示硬盘的状态。

l     ⑦表示硬盘的扇区大小。

选定要操作的硬盘并按“Enter”进入详细操作界面,如图10-100所示,参数说明如表10-26所示。

图10-100 硬盘操作界面

 

表10-26 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Initialize Drive:硬盘初始化。

l     Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。

     Simple:仅对硬盘进行一轮擦除动作。

     Normal:对硬盘进行三轮擦除动作。

     Thorough:对硬盘进行九轮擦除动作。

     Stop Erase:停止数据擦除操作。

l     Make Unconfigured Good/Bad:修改硬盘状态。

l     Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。

l     Assign Global Hot Spare Drive:设置全局热备盘。

l     Assign Dedicated Hot Spare Drive:设置局部热备盘。

l     Unassign Hot Spare Drive:删除热备盘。

l     Prepare For Removal:准备移除硬盘。

l     Replace Missing Drive:安装硬盘。

l     Place Drive Online:将Offline状态的硬盘设置为Online。

说明

l     Place Drive Online操作仅仅只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。

l     对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。

Drive ID

硬盘的ID。

Connection

硬盘的接口。

Slot Number

硬盘的槽位号。

Status

硬盘的当前工作状态。

Size

硬盘的容量。

Type

硬盘的类型。

Model

硬盘型号。

Serial Number

硬盘的序列号。

Hardware Vendor

硬盘的生产厂商。

Advanced...

查询更多硬盘属性。

 

安全擦除硬盘数据

说明

该操作会删除硬盘上的数据,请谨慎执行。

将“Operation”设置为“Drive Erase”。

                                步骤 1     选择“Erase Mode”并按“Enter”。

                                步骤 2     在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。

                                步骤 3     选择“Go”并按“Enter”。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示操作成功。

----结束

查看硬盘属性

选择“Advanced...”并按“Enter”。

打开硬盘属性界面,如图10-101图10-102所示,参数说明如表10-27所示。

图10-101 硬盘属性(1)

 

图10-102 硬盘属性(2)

 

表10-27 参数说明

参数

参数说明

Certified

硬盘是否有供应商认证。

Logical Sector Size

逻辑扇区大小。

Physical Sector Size

物理扇区大小。

SMART Status

SMART功能是否使能。

Revision

硬盘Firmware版本。

Media Error

Media error个数。

Predicted Fail Count

Pred fail个数。

SAS Address

硬盘SAS地址。

Multipath

该功能为支持检测和使用从RAID控制器到盘柜中的SAS设备的多条路径,连接到盘柜的设备有多条路径。到设备同一端口的冗余路径,可以保障当其中一条路径发生故障时,控制器和设备之间可以使用另一条路径进行通信。同时使用具有负载平衡的多条路径,而不是单条路径,可以通过冗余来提高可靠性。

当前服务器暂不支持多路径的方式。

Drive Power State

硬盘上电状态。

Cache Setting

是否可设置Cache。

Disk Protocol

硬盘支持的协议。

Capable Speed

硬盘的速率。

Negotiated Speed

硬盘协商速率。

Number of Connections

连接器个数。

FDE Capable

硬盘是否支持FDE(Full Disk Encryption)技术。

Cryptographic Erase Capable

硬盘的加密擦除能力。

Unmap Capable

解除映射能力。

Temperature(C)

硬盘温度。

 

10.6.2.7 Hardware Components

该界面主要提供RAID控制卡传感器信息。

界面介绍

“Hardware Components”界面如图10-103,参数说明如表10-28所示。

图10-103 部件信息

 

表10-28 参数说明

参数

参数说明

Temperature Sensors

当前温度传感器状态。

Fans

当前风扇模块工作状态。

Power Supplies

当前供电模块工作状态。

Enclosure Management

更多部件信息。

 

10.6.3 View Server Profile

提供RAID控制卡操作管理接口。

界面介绍

“View Server Profile”界面如图10-104所示,参数说明如表10-29所示。

图10-104 管理接口

 

表10-29 参数说明

参数

参数说明

UEFI Spec Version

服务器支持的UEFI Spec版本。

Controller Management

提供控制器管理接口,详细情况请参见10.6.2.4 Controller Management。

Hardware Components

提供控制器部件查询接口,详细情况请参见10.6.2.7 Hardware Components。

Drive Management

提供硬盘管理接口,详细情况请参见10.6.2.6 Drive Management。

Virtual Drive Management

提供虚拟磁盘管理接口,详细情况请参见10.6.2.5 Virtual Drive Management。

 

10.6.4 Manage Foreign Configuration

该界面可查看、导入、清空外部配置。

界面介绍

“Manage Foreign Configuration”界面如图10-105所示。

图10-105 外部配置管理接口

 

查看并导入外部配置

选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如图10-106所示。

图10-106 外部配置

 

                                步骤 2     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     单击“OK”完成配置。

----结束

清除外部配置

选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 3     单击“OK”完成配置。

----结束

10.6.5 Configure

该界面可清除当前所有配置。

界面介绍

“Configure”界面如图10-107所示,可执行的操作包括表10-30

图10-107 配置接口

 

表10-30 参数说明

参数

参数说明

Create Virtual Drive

创建RAID。

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

View Global HotSpare Drives

查看全局热备盘属性。

Make JBOD

硬盘直通功能,硬盘不加入RAID,直接使用。

Make Unconfigured Good

配置硬盘状态。

Clear Configuration

清除配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时会显示该参数。

 

清除当前配置

选择“Clear Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 3     单击“OK”完成配置。

----结束

10.6.6 Set Factory Defaults

恢复出厂配置

在主界面选择“Set Factory Defaults”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 3     单击“OK”完成配置。

----结束

10.6.7 Update Firmware

该界面提供固件升级接口。

界面介绍

“Update Firmware”界面如图10-108所示,参数说明如表10-31所示。

图10-108 Update Firmware界面

 

表10-31 参数说明

参数

参数说明

Select File System

选择使用的文件系统。

Select Directory

选择文件存放路径。可选路径包括:

Current Dir:当前路径

EFI:自适应路径

Select Image

选择要加载的文件。

 

升级固件

说明

l     进行固件升级时,必须使用FAT12、FAT16或FAT32格式的介质。

l     仅检查支持EFI_SIMPLE_FILE_SYSTEM_PROTOCOL的文件系统。

l     FW镜像文件必须位于根目录或根目录的下一个级别才能进行访问。

按照表10-31所述配置升级参数。

                                步骤 1     选择“Update”并按“Enter”。

打开操作确认界面。

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     在列表中选择“Enable”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     单击“OK”完成配置。

----结束

10.6.8 Manage MegaRAID Advanced Software Options

该界面提供RAID控制卡高级软件特性查看和导入接口。

界面介绍

“Manage MegaRAID Advanced Software Options”界面如图10-109所示,界面中参数说明如表10-32所示。

图10-109 高级软件特性管理界面

 

表10-32 参数说明

参数

参数说明

SAFE ID

RAID控制卡的安全编码。

Serial Number

RAID控制卡序列号。

Activation Key

待激活的高级特性的Key。

Active

激活高级特性。

Avago SAS3416iMR不支持高级特性的激活操作,该功能无效。

Deactive All Trail Software

注销当前所有高级特性。

 

10.6.9 Exit

退出配置界面

在Avago SAS3416iMR主界面按“ESC”,显示如图10-110所示“界面。

图10-110 BIOS Setup Utility

 

                                步骤 2     按“Esc”退出配置界面。

----结束

10.7 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

1.     下载和安装StorCLI工具

下载工具

登录BROADCOM网站上RAID控制卡的页面

                                步骤 1     在“DOWNLOADS”页签中单击“Management Software and Tools”。

打开管理软件和工具列表。

                                步骤 2     下载最新版本的“StorCLI”工具。

                                步骤 3     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 1     在Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。

说明

StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

10.7.2 常用命令

10.7.2.1 查询RAID控制卡配置信息

命令功能

查询Avago SAS3416iMR的基本配置信息。

命令格式

storcli64 /ccontroller_id show

参数说明

参数

参数说明

取值

controller_id

控制器ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID

 

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡配置信息。

domino:~# ./storcli64 /c0 show
Controller = 0 
Status = Success 
Description = None 
Product Name = SAS3416 
Serial Number = FW-00000000 
SAS Address = 3202017050235207 
PCI Address = 00:1b:00:00 
System Time = 02/12/2016 18:53:00 
Mfg. Date = 00/00/00 
Controller Time = 02/12/2016 23:53:00 
FW Package Build = 50.1.0-0426 
BIOS Version = 07.01.04.0_4.17.08.00_0x0701060 
FW Version = 5.010.00-0426 
Driver Name = megaraid_sas 
Driver Version = 07.701.17.00 
Current Personality = RAID-Mode 
Vendor Id = 0x1000 
Device Id = 0x16 
SubVendor Id = 0x19E5 
SubDevice Id = 0xD215 
Host Interface = PCI-E 
Device Interface = SAS-12G 
Bus Number = 27 
Device Number = 0 
Function Number = 0 
Drive Groups = 4 
TOPOLOGY : 
======== 
----------------------------------------------------------------------------- 
DG Arr Row EID:Slot DID Type State BT Size PDC PI SED DS3 FSpace TR  
----------------------------------------------------------------------------- 
0 - - - - RAID0 Optl N 278.464 GB dflt N N none N N  
0 0 - - - RAID0 Optl N 278.464 GB dflt N N none N N  
0 0 0 66:18 12 DRIVE Onln N 278.464 GB dflt N N none - N  
1 - - - - RAID1 Dgrd N 893.137 GB dflt N N dflt N N   
1 0 - - - RAID1 Dgrd N 893.137 GB dflt N N dflt N N  
1 0 0 66:3 19 DRIVE Onln N 893.137 GB dflt N N dflt - N  
1 0 1 - - DRIVE Msng - 893.137 GB - - - - - N  
2 - - - - RAID0 Optl N 1.744 TB dflt N N none N N  
2 0 - - - RAID0 Optl N 1.744 TB dflt N N none N N  
2 0 0 66:4 20 DRIVE Onln N 893.137 GB dflt N N none - N  
2 0 1 66:5 21 DRIVE Onln N 893.137 GB dflt N N none - N  
3 - - - - RAID5 Optl N 1.087 TB dflt N N dflt N N  
3 0 - - - RAID5 Optl N 1.087 TB dflt N N dflt N N  
3 0 0 66:19 13 DRIVE Onln N 371.597 GB dflt N N dflt - N  
3 0 1 66:20 14 DRIVE Onln N 371.597 GB dflt N N dflt - N 
3 0 2 66:21 16 DRIVE Onln N 371.597 GB dflt N N dflt - N  
3 0 3 66:22 15 DRIVE Onln N 371.597 GB dflt N N dflt - N  
----------------------------------------------------------------------------- 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID 
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded 
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active 
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign 
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present 
TR=Transport Ready 
Missing Drives Count = 1 
Missing Drives : 
============== 
--------------------- 
Array Row Size  
--------------------- 
1 1 893.137 GB  
--------------------- 
Virtual Drives = 4 
VD LIST : 
======= 
--------------------------------------------------------------- 
DG/VD TYPE State Access Consist Cache Cac sCC Size Name  
--------------------------------------------------------------- 
0/1 RAID0 Optl RW Yes RWBD - ON 278.464 GB  
1/2 RAID1 Dgrd RW No RWBD - ON 893.137 GB  
2/3 RAID0 Optl RW No RWBD - ON 1.744 TB  
3/0 RAID5 Optl RW No RWBD - ON 1.087 TB  
--------------------------------------------------------------- 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded 
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked| 
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack| 
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled 
Check Consistency 
Physical Drives = 21 
PD LIST : 
======= 
----------------------------------------------------------------------------------- 
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp  
----------------------------------------------------------------------------------- 
66:2 10 JBOD - 837.256 GB SAS HDD N N 4 KB HUC101890CS4200 U  
66:3 19 Onln 1 893.137 GB SATA SSD N N 512B SAMSUNG MZ7KM960HAHP-00005 U  
66:4 20 Onln 2 893.137 GB SATA SSD N N 512B SAMSUNG MZ7KM960HAHP-00005 U  
66:5 21 Onln 2 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U  
66:6 23 JBOD - 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U  
66:7 25 JBOD - 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U  
66:8 24 JBOD - 893.137 GB SATA SSD N N 512B SAMSUNG MZ7LM960HCHP-00005 U  
66:9 26 JBOD - 744.125 GB SATA SSD N N 512B SAMSUNG MZ7LM800HCHP-00005 U  
66:10 27 JBOD - 744.125 GB SATA SSD N N 512B SAMSUNG MZ7LM800HCHP-00005 U  
66:11 22 UGood - 384.0 MB SATA SSD N N 512B SAMSUNG MZ7GE480HMHP-00003 U  
66:12 28 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7WD480HAGM-00003 U  
66:13 30 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7LM480HCHP-00003 U  
66:14 29 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7WD480HAGM-00003 U  
66:15 31 JBOD - 446.102 GB SATA SSD N N 512B SAMSUNG MZ7LM480HCHP-00005 U  
66:16 32 JBOD - 222.585 GB SATA SSD N N 512B SAMSUNG MZ7KM240HAGR-00005 U   
66:17 11 JBOD - 1.089 TB SAS HDD N N 512B HUC101812CSS200 U  
66:18 12 Onln 0 278.464 GB SAS HDD N N 512B ST300MM0006 U  
66:19 13 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U  
66:20 14 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U  
66:21 16 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U  
66:22 15 Onln 3 371.597 GB SAS SSD N N 512B PX02SMF040 U  
----------------------------------------------------------------------------------- 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup 
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare 
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface 
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info 
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign 
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded 
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded 
Cachevault_Info : 
=============== 
------------------------------------ 
Model State Temp Mode MfgDate  
------------------------------------ 
CVPM02 Optimal 28C - 2016/12/06  
------------------------------------  

10.7.2.2 创建和删除RAID

命令功能

创建、删除RAID。

命令格式

命令

说明

storcli64 /ccontroller_id add vd rlevel[0|1|10] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid]

创建RAID组

storcli64 /ccontroller_id/vraid_id del

删除RAID组

 

说明

*表示默认值。

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

enclosure_id

硬盘所在Enclosure的ID

-

rlevel

要配置的RAID组级别

level可为0、1、10,数字分别代表对应的RAID组级别。

size

要配置的RAID组容量

默认值为all,即所有成员盘的容量之和。

name

要配置的RAID组名称

-

drives

要加入RAID组的硬盘

-

startid-endid

硬盘的起始和结束ID

-

slot_id

硬盘ID

-

pdperarray

子组中的硬盘数

创建RAID10时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。

-

pdcache

设置RAID的成员盘的Cache状态

l     on

l     off

l     default

pi

使能数据保护

-

EmulationType

控制逻辑盘在OS中上报的扇区

l     0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     1: Disable,如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     2:Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Spares

指定RAID组的热备盘

-

raid_id

要删除的RAID组的ID

-

 

说明

l     以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

l     当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid

使用指南

使用实例

# 创建RAID 0。

domino:~# ./storcli64 /c0 add vd r0 size=100GB drives=252:0-3
Controller = 0 
Status = Success 
Description = Add VD Succeeded

# 删除RAID。

domino:~# ./storcli64 /c0/v0 del
Controller = 0 
Status = Success 
Description = Delete VD Succeeded

10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息

命令功能

查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。

命令格式

storcli64 /ccontroller_id show

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

storcli64 /ccontroller_id/vvd_id show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID

enclosure_id

硬盘所在Enclosure的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器连接的硬盘背板的ID

slot_id

物理硬盘槽位编号

可以将该参数设置为all,表示查询所有硬盘的ID

vd_id

虚拟磁盘ID

可以将该参数设置为all,表示查询所有虚拟磁盘的ID

 

使用指南

回显中主要字段的含义如表10-33所示。

表10-33 回显说明

命令格式

字段

含义

举例

storcli64 /ccontroller_id show

Product Name

RAID控制卡的型号

sas3108

FW Version

RAID控制卡的FW版本

4.660.00-8140

Driver Name

RAID控制卡的驱动名称

megaraid_sas

Driver Version

RAID控制卡的驱动版本

06.811.02.00-rh1

Current Personality

RAID控制卡的工作模式

RAID-Mode

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

SN

物理硬盘的序列号

PHWL517601YR800RGN

Manufacturer Id

物理硬盘的供应商ID

ATA

Model Number

物理硬盘的模块序号

INTEL SSDSC2BB800G4

Firmware Revision

物理硬盘的FW版本

D2010370

Raw size

物理硬盘的容量

745.211 GB [0x5d26ceb0 Sectors]

Logical Sector Size

物理硬盘逻辑分区大小

512B

Physical Sector Size

物理扇区大小

4 KB

storcli64 /ccontroller_id/vvd_id show all

TYPE

RAID组的级别

RAID1

State

RAID组的状态

Optl

Access

RAID组数据的访问策略

RW

Cache

RAID组当前的读写策略与I/O Policy

RWTD

Size

RAID组的大小

100.0 GB

PDs for VD0

RAID组下的物理硬盘

-

Strip Size

RAID组的条带大小

256KB

Write Cache(initial setting)

RAID组Cache的写策略

Write Through

Disk Cache Policy

RAID组成员盘的Cache策略

Disk's Default

 

使用实例

#查询RAID控制卡的详细信息。

[root@localhost ~]# ./storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
Product Name = SAS3416iMR
Serial Number =
SAS Address =  50030130f0900000
PCI Address = 00:01:00:00
System Time = 07/07/2018 22:06:42
Mfg. Date = 00/00/00
Controller Time = 07/07/2018 14:06:41
FW Package Build = 24.16.0-0093
BIOS Version = 6.32.02.0_4.17.08.00_0x06150500
FW Version = 4.660.00-8140
Driver Name = megaraid_sas 
Driver Version = 06.811.02.00-rh1
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x5D
SubVendor Id = 0x19E5
SubDevice Id = 0xD207
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Drive Groups = 1
 
TOPOLOGY :
========
 
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace TR
-----------------------------------------------------------------------------
 0 -   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 0 0   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 0 0   0   252:1    18  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
 0 0   1   252:0    48  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
-----------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 1
 
VD LIST :
=======
 
---------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC       Size Name
---------------------------------------------------------------
0/0   RAID1 Optl  RW     Yes     RWBD  -   ON  744.125 GB
---------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 6
 
PD LIST :
=======
 
---------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model               Sp Type
---------------------------------------------------------------------------------
252:0    48 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:1    18 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:2    19 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BA800G4 U  -
252:3    20 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BA800G4 U  -
252:4    49 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:5    47 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
---------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Cachevault_Info :
===============
 
------------------------------------
Model  State   Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 28C  -    2016/11/04
------------------------------------

#查询slot0的物理硬盘的信息。

[root@localhost ~]# ./storcli64 /c0/e252/s0 show all
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
 
 
Drive /c0/e252/s0 :
=================
 
---------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model               Sp Type
---------------------------------------------------------------------------------
252:0    48 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
---------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Drive /c0/e252/s0 - Detailed Information :
========================================
 
Drive /c0/e252/s0 State :
=======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature =  20C (68.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
 
 
Drive /c0/e252/s0 Device attributes :
===================================
SN = PHWL517601YR800RGN
Manufacturer Id = ATA
Model Number = INTEL SSDSC2BB800G4
NAND Vendor = NA
WWN = 55cd2e404c533246
Firmware Revision = D2010370
Raw size = 745.211 GB [0x5d26ceb0 Sectors]
Coerced size = 744.125 GB [0x5d040800 Sectors]
Non Coerced size = 744.711 GB [0x5d16ceb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 6.0Gb/s
NCQ setting = Enabled
Write cache = N/A
Logical Sector Size = 512B
Physical Sector Size = 4 KB
Connector Name = Port A x1
 
 
Drive /c0/e252/s0 Policies/Settings :
===================================
Drive position = DriveGroup:0, Span:0, Row:1
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = No
Wide Port Capable = No
 
Port Information :
================
 
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
   0 Active 6.0Gb/s   0x4433221100000000
-----------------------------------------
 
 
Inquiry Data =
40 00 ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 48 50 4c 57 31 35 36 37 31 30 52 59
30 38 52 30 4e 47 20 20 00 00 00 00 00 00 32 44
31 30 33 30 30 37 4e 49 45 54 20 4c 53 53 53 44
32 43 42 42 30 38 47 30 20 34 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 01 80
00 40 00 2f 00 40 00 00 00 00 07 00 ff 3f 10 00
3f 00 10 fc fb 00 01 bf ff ff ff 0f 00 00 07 00

# 查询VD 0的信息。

[root@rhel6u5 ~]# /opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
 
 
/c0/v0 :
======
 
---------------------------------------------------------
DG/VD TYPE  State Access Consist Cache sCC     Size Name
---------------------------------------------------------
1/0   RAID1 Optl  RW     Yes     RWTD  -   1.089 TB
---------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|B=Blocked|Consist=Consistent|
R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
 
PDs for VD 0 :
============
 
-----------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model            Sp
-----------------------------------------------------------------------
25:22    14 Onln   1 1.089 TB SAS  HDD N   N  512B ST1200MM0007     U
25:23    26 Onln   1 1.089 TB SAS  HDD N   N  512B ST1200MM0007     U
-----------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded
 
 
VD0 Properties :
==============
Strip Size = 256 KB
Number of Blocks = 2341795840
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 2
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = Disabled
Active Operations = None
Exposed to OS = Yes
Creation Date = 04-01-2018
Creation Time = 12:38:35 PM
Emulation type = None

10.7.2.4 查询和设置Patrolread参数

命令功能

查询和设置系统巡检的相关参数。

命令格式

storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number

storcli64 /ccontroller_id set patrolread delay=delaytime

storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}

storcli64 /ccontroller_id show patrolread

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

系统巡检起始时间

例如:2016/07/15 23

说明

起始时间单位为“时”。

number

可同时巡检的硬盘数量

delaytime

系统巡检周期

单位为hour。

 

查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。

domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
---------------------------------------  
Ctrl_Prop          Value 
--------------------------------------- 
PR Starttime       2016/07/15 23:00:00 
PR MaxConcurrentPd 2 
---------------------------------------

# 使能patrolread并设置为自动模式。

domino:~# ./storcli64 /c0 set patrolread=on mode=auto
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
--------------------------------------- 
Ctrl_Prop        Value 
--------------------------------------- 
Patrol Read Mode auto 
---------------------------------------

# 查询patrolread信息。

domino:~# ./storcli64 /c0 show patrolread
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
-------------------------------------------- 
Ctrl_Prop          Value 
-------------------------------------------- 
PR Mode       2016/07/15 23:00:00 
PR Execution Delay 
PR iterations completed 0 
PR Next Start time      07/16/2016,00:00:00 
PR on SSD               Disabled 
PR Current State        Stopped 
--------------------------------------------

10.7.2.5 查询和设置Spinup参数

命令功能

查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。

命令格式

storcli64 /ccontroller_id show spinupdelay

storcli64 /ccontroller_id show spinupdrivecount

storcli64 /ccontroller_id set spinupdelay=time

storcli64 /ccontroller_id set spinupdrivecount=count

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

每组起转硬盘间的时间间隔

默认为2,单位为s。

count

上电时允许同时起转的硬盘数量

默认为4。

 

查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡Spinup参数。

domino:~# ./storcli64 /c0 show spinupdelay
domino:~# ./storcli64 /c0 show spinupdelay
Controller = 0 
Status = Success 
Description = None 
Controller Properties: 
===================== 
-------------------------- 
Ctrl_Prop     Value 
-------------------------- 
Spin Up Delay 2 second(s) 
-------------------------- 
domino:~# ./storcli64 /c0 show spinupdrivecount
Controller = 0 
Status = Success 
Description = None 
Controller Properties: 
===================== 
-------------------------- 
Ctrl_Prop           Value 
-------------------------- 
Spin Up Drive Count 4 
--------------------------    

# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。

domino:~# ./storcli64 /c0 set spinupdelay=20
Controller = 0 
Status = Success 
Description = None 
Controller Properties: 
===================== 
-------------------------- 
Ctrl_Prop     Value 
-------------------------- 
Spin Up Delay 20 second(s) 
-------------------------- 
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0 
Status = Success 
Description = None 
Controller Properties: 
===================== 
-------------------------- 
Ctrl_Prop           Value 
-------------------------- 
Spin Up Drive Count 5 
--------------------------    

10.7.2.6 查询和设置硬盘数据擦除功能

命令功能

设置物理硬盘数据擦除模式,查询擦除进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

mode

数据擦除模式

l     simple:对硬盘进行一轮擦除动作。

l     normal:对硬盘进行三轮擦除动作。

l     thorough:对硬盘进行九轮擦除动作。

 

以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。

domino:~# ./storcli64 /c0/e252/s3 start erase simple
Controller = 0 
Status = Success 
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0 
Status = Success 
Description = Show Drive Erse Status Succeeded. 
------------------------------------------------------ 
Drive-ID    Progress% Status      Estimated Time Left 
------------------------------------------------------ 
/c0/e252/s3         0 In progress 0 Seconds 
------------------------------------------------------     
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0 
Status = Success 
Description = Stop Drive Erase Succeeded.

10.7.2.7 查询和设置RAID后台初始化

命令功能

暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。

命令格式

storcli64 /ccontroller_id/vraid_id action bgi

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

action

后台初始化的操作

l     show:查看后台初始化进度

l     pause:暂停后台初始化

l     resume:继续后台初始化

l     stop:停止后台初始化

 

以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查看后台初始化进度。

domino:~# ./storcli64 /c0/v0 show bgi
Controller = 0 
Status = Success 
Description = Noe 
VD Operation Status : 
=================== 
------------------------------------------------------ 
VD Operation Progress% Staus      Estimated Time Left 
------------------------------------------------------ 
 0 BGI               3 In progress 53 Minutes 
------------------------------------------------------

10.7.2.8 查询和设置物理硬盘初始化功能

命令功能

设置物理硬盘初始化功能,查询初始化进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看初始化进度

l     start:开始初始化

l     stop:结束初始化

 

以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 初始化slot3硬盘,并查询初始化进度。

domino:~# ./storcli64 /c0/e252/s3 start initialization
Controller = 0 
Status = Success 
Description = Start Drive Initialization Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show initialization
Controller = 0 
Status = Success 
Description = Show Drive Initialization Status Succeeded. 
------------------------------------------------------ 
Drive-ID    Progress% Status      Estimated Time Left 
------------------------------------------------------ 
/c0/e252/s3         0 In progress 0 Seconds 
------------------------------------------------------   

10.7.2.9 查询和设置RAID重构/回拷/系统巡检功能

命令功能

暂停、继续、停止RAID重构/回拷/系统巡检,并查询进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action function

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看进度

l     pause:暂停进程

l     resume:继续执行

l     stop:停止进程

function

要处理的进程

l     rebuild:RAID重构

l     copyback:回拷

l     patrolread:系统巡检

 

以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查看RAID重构进度。

domino:~# ./storcli64 /c0/e252/s4 show rebuild
Controller = 0 
Status = Success 
Description = Show Drive Rebuild Status Succeeded. 
------------------------------------------------------ 
Drive-ID    Progress% Staus       Estimated Time Left 
------------------------------------------------------ 
/c0/e252/s4         9 In progress 12 Minutes 
------------------------------------------------------

# 暂停RAID重构。

domino:~# ./storcli64 /c0/e252/s4 pause rebuild
Controller = 0 
Status = Success 
Description = Pause Drive Rebuild Status Succeeded. 

10.7.2.10 查询和设置Smart扫描周期

命令功能

设置Smart扫描周期。

命令格式

storcli64 /ccontroller_id set smartpollinterval=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

value

Smart扫描周期

单位为s。

 

查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置Smart扫描周期为“60s”。

domino:~# ./storcli64 /c0 set smartpollinterval=60
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
------------------------------- 
Ctrl_Prop         Value 
------------------------------- 
SmartPollInterval 60 second(s) 
-------------------------------

10.7.2.11 查询和设置一致性校验参数

命令功能

设置一致性校验参数。

命令格式

storcli64 /ccontroller_id[/vvd_id]show cc

storcli64 /ccontroller_id/vvd_id start cc force

storcli64 /ccontroller_id/vvd_id action cc

storcli64 /ccontroller_id set cc=conc delay=value starttime=time excludevd=evd_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要操作的RAID的ID

action

要执行的操作

l     pause:暂停

l     resume:继续执行

l     stop:停止

value

一致性校验周期

time

一致性校验起始时间

例如:2016/07/14 22

说明

起始时间单位为“时”。

evd_id

不进行一致性校验的虚拟磁盘ID

 

以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

show命令中不带/vvd_id时,表示查询自动CC参数。

show命令中带/vvd_id时,表示查询CC进度。

使用实例

# 设置一致性自动检查参数。

domino:~# ./storcli64 /c0 set cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
------------------------------------ 
Ctrl_Prop      Value 
------------------------------------ 
CC Mode         CONC 
CC delay        1 
CC Starttime    2016/07/14 22:00:00 
CC ExcludeVD(0) Success 
------------------------------------

# 查询CC进度。

domino:~# ./storcli64 /c0/v1 show cc
Controller = 0 
Status = Success 
Description = None
VD Operation Status : 
=================== 
----------------------------------------------------------- 
VD Operation Progress% Status          Estimited Time Left 
----------------------------------------------------------- 
 0 CC        -         Not in progress - 
-----------------------------------------------------------

10.7.2.12 设置热备盘

命令功能

设置全局热备盘和局部热备盘。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=vd_id]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

vd_id

局部热备盘所属虚拟磁盘的ID

 

以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置slot 3硬盘为全局热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive
Controller = 0 
Status = Success 
Description = Add Hot Spare Succeeded. 

# 设置slot 3硬盘为vd0的局部热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive dgs=0
Controller = 0 
Status = Success 
Description = Add Hot Spare Succeeded.

10.7.2.13 设置启动项

命令功能

设置虚拟磁盘或物理硬盘为启动项。

命令格式

storcli64 /ccontroller_id/vvd_id set bootdrive=on

storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

vd_id

待设置的虚拟磁盘的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

 

以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置VD0为启动项。

domino:~# ./storcli64 /c0/v0 set bootdrive=on
Controller = 0 
Status = Success 
Description = Noe 
Detailed Status : 
=============== 
---------------------------------------- 
VD Property   Value Staus  ErrCd ErrMsg 
---------------------------------------- 
 0 Boot Drive On    Success    0 - 
----------------------------------------

# 设置slot 7硬盘为启动项。

domino:~# ./storcli64 /c0/e252/s7 set bootdrive=on
Controller = 0 
Status = Success 
Description = Noe 
Controller Properties : 
===================== 
------------------- 
Ctrl_Prop Value 
------------------- 
BootDrive PD:252_7 
-------------------

10.7.2.14 设置硬盘状态

命令功能

设置硬盘状态。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

state

要设置的硬盘状态

l     online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。

l     offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。

l     jbod:通过该参数可以将硬盘设置为直通硬盘。

l     good:

     ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置;

     JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。

l     good:将硬盘设为空闲盘

force

强制设置硬盘状态,为可选参数。

如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force。

-

 

以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。

domino:~# ./storcli64 /c0/e0/s1 set good
Controller = 0 
Status = Success 
Description = Set Drive Good Succeeded.

10.7.2.15 设置RAID组访问策略

命令功能

设置RAID的读写策略。

命令格式

storcli64 /ccontroller_id/vraid_id set accesspolicy=mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

mode

RAID读写策略

l     rw:可读可写

l     blocked:禁止访问

l     ro:只读访问

 

以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置RAID读写策略为“rw”。

domino:~# ./storcli64 /c0/v0 set accesspolicy=rw
Controller = 0 
Status = Success 
Description = None 
Details Status : 
============== 
--------------------------------------- 
VD Property  Value Status  ErrCd ErrMsg 
--------------------------------------- 
 0 AccPolicy RW    Success     0 - 
---------------------------------------

10.7.2.16 设置硬盘Cache状态

命令功能

设置RAID组成员盘的Cache状态。

命令格式

storcli64 /ccontroller_id/vvd_id set pdcache=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

RAID组的ID

-

action

要执行的操作

l     on:打开硬盘Cache

l     off:关闭硬盘Cache

l     default:将硬盘Cache设置为默认状态

 

以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 打开ID为0的RAID组的硬盘Cache。

./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
---------------------------------------
VD Property Value Status  ErrCd ErrMsg
---------------------------------------
 0 PdCac    On    Success     0 -
---------------------------------------

10.7.2.17 设置紧急热备功能

命令功能

设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。

命令格式

storcli64 /ccontroller_id set eghs eug=state

storcli64 /ccontroller_id set eghs smarter=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

state

紧急热备功能的启用状态

l     on:启用

l     off:禁用

 

查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。

domino:~# ./storcli64 /c0 set eghs eug=on
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
------------------ 
Ctrl_Prop   Value 
------------------ 
EmergencyUG ON 
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
----------------------- 
Ctrl_Prop        Value 
----------------------- 
EmergencySmarter ON 
-----------------------

10.7.2.18 设置RAID前台初始化模式

命令功能

设置RAID前台初始化模式。

命令格式

storcli64 /ccontroller_id/vraid_id start mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

mode

前台初始化模式

l     init:只把RAID的首尾10MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。

l     init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。

 

以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 快速初始化RAID。

domino:~# ./storcli64 /c0/v0 start init
Controller = 0 
Status = Success 
Description = Start INIT Operation Success

10.7.2.19 设置硬盘直通功能

命令功能

设置RAID控制卡的硬盘直通功能的使能情况。

说明

Avago SAS3416iMR支持的Online状态与Unconfigured Good状态的硬盘之和最多为32个,当服务器配置的硬盘数超过32个时,请勿关闭RAID控制卡的硬盘直通功能,以免造成服务器重启导致“Online”状态下的硬盘变为“Ubad”状态的问题。

命令格式

storcli64 /ccontroller_id set jbod=state force

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

state

RAID控制卡JBOD功能的使能情况

l     on:使能RAID控制卡的硬盘直通功能。

l     off:关闭RAID控制卡的硬盘直通功能。

 

查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 使能RAID控制卡的硬盘直通功能。

domino:~# ./storcli64./c0 set jbod=on force
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
---------------- 
Ctrl_Prop Value 
---------------- 
JBOD      ON 
----------------

# 关闭RAID控制卡的硬盘直通功能。

domino:~# ./storcli64./c0 set jbod=off force
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
---------------- 
Ctrl_Prop Value 
---------------- 
JBOD      off 
----------------

10.7.2.20 设置硬盘定位指示灯状态

命令功能

点亮和熄灭指定硬盘的定位指示灯。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。

slot_id

物理硬盘槽位编号

可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。

action

要执行的操作

l     start:点亮硬盘的定位指示灯。

l     stop:熄灭硬盘的定位指示灯。

 

以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 点亮slot 7硬盘的定位指示灯。

domino:~# ./storcli64 /c0/e252/s7 start locate
Controller = 0 
Status = Success 
Description = Start Drive Locate Succeeded.

10.7.2.21 设置硬盘PowerSave功能

命令功能

设置空闲硬盘和热备盘的省电模式。

命令格式

storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID。

state

省电模式的启用状态。

l     on:启用

l     off:禁用

disktype

硬盘类型。

l     1:空闲硬盘

l     2:热备盘

time

等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。

单位为minutes。

 

查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置空闲硬盘的省电模式。

domino:~# ./storcli64 /c0 set ds=on type=1 spindowntime=30
Controller = 0 
Status = Success 
Description = None 
Controller Properties: 
===================== 
-------------------------- 
Ctrl_Prop    Value 
-------------------------- 
SpnDwnUncDrv Enable 
SpnDwnTm     30 minutes 
--------------------------

10.7.2.22 设置后台资源占用率

命令功能

设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。

命令格式

storcli64 /ccontroller_id set action=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要设置的项目

l     bgirate:后台初始化速率

l     ccrate:一致性校验速率

l     prrate:硬盘巡检速率

l     rebuildrate:RAID重构速率

l     reconrate:RAID扩容和迁移速率

value

后台任务资源占用率

1~100

 

查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置硬盘巡检速率为“30%”。

domino:~# ./storcli64 /c0 set prrate=30
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
----------------------- 
Ctrl_Prop        Value 
----------------------- 
Patrol Read Rate 30% 
-----------------------  

10.7.2.23 设置BIOS Stop on Error功能

命令功能

设置控制器BIOS在检测到异常时停止继续启动的功能。

命令格式

storcli64 /ccontroller_id set bios mode=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要执行的操作

l     soe:控制器BIOS在检测到异常时停止启动

l     ie:忽略检测到的异常

 

查看RAID控制卡ID的方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 开启Stop on error功能。

domino:~# ./storcli64 /c0 set bios mode=soe
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
---------------- 
Ctrl_Prop Value 
---------------- 
BIOS Mode SOE 
----------------

10.7.2.24 通过增加成员盘可用容量扩容RAID

命令功能

RAID有2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

命令格式

storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要扩容的RAID的ID

capacity

扩容后的容量

expandarray

当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。

 

以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查询VD的可扩展容量。

[root@localhost ~]# storcli64 /c0/v1 show expansion 
CLI Version = 007.1416.0000.0000 July 24, 2020 
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64 
Controller = 0 
Status = Success 
Description = None 
 
 
EXPANSION INFORMATION : 
===================== 
 
-------------------------------------------- 
VD      Size OCE NoArrExp WithArrExp Status 
-------------------------------------------- 
 1 10.000 GB Y   3.627 TB 5.447 TB   - 
-------------------------------------------- 
 
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion 
 VD=Virtual Drive | NoArrExp - Without Array Expansion

说明

如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。

# 将VD0的容量扩大“200GB”

domino:~# ./storcli64 /c0/v0 expand size=200GB
Controller = 0 
Status = Success 
Description = expansion operation succeeded. 
EXPANSION RESULT : 
================ 
-------------------------------------------------------------------------------- 
VD     Size FreSpc     ReqSize  AbsUsrSz   %FreSpc NewSize    Statsu NoArrExp 
-------------------------------------------------------------------------------- 
 0 100.0 GB 457.861 GB 200.0 GB 201.458 GB      44 301.458 GB -      457.861 GB 
-------------------------------------------------------------------------------- 
Size - Current VD size|FreSpc - Freespace available before expansion 
%FreSpc - Requested expansion size in % of available free space 
AbsUsrSz - User size rounded to nearest %

说明

RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。

10.7.2.25 通过增加新盘扩容或迁移RAID

命令功能

RAID有2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

当增加新盘后,可进行RAID级别迁移。

命令格式

storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

vd_id

要操作的RAID的ID

slot_id

要加入RAID的新硬盘的槽位号

level

增加硬盘后RAID的级别

l     与原RAID级别相同时,该命令为扩大RAID容量。

l     与原RAID级别不同时,该命令为RAID级别迁移。

 

以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 在RAID 0中增加slot 2硬盘扩容。

domino:~# ./storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2
Controller = 0 
Status = Success 
Description = Start MIGRATE Operation Success.     
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0 
Status = Success 
Description = None 
VD Operation Status : 
=================== 
------------------------------------------------------- 
VD Operation Progress% Status      Estimated Time Left 
------------------------------------------------------- 
 0 Migrate           1 In progress 13 Minutes 
-------------------------------------------------------  

# 单盘RAID 0加盘迁移至RAID 1。

domino:~# ./storcli64 /c0/v0 start migrate type=r1 option=add drives=252:3
Controller = 0 
Status = Success 
Description = Start MIGRATE Operation Success.     
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0 
Status = Success 
Description = None 
VD Operation Status : 
=================== 
------------------------------------------------------- 
VD Operation Progress% Status      Estimated Time Left 
------------------------------------------------------- 
 0 Migrate           1 In progress 14 Minutes 
-------------------------------------------------------  

10.7.2.26 手动重构RAID

命令功能

手动重构RAID组。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row

storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

要加入Array的物理硬盘槽位编号

DG

硬盘发生故障的DG的ID

Arr

硬盘发生故障的Array的ID

Row

硬盘发生故障的Array的row number

 

以上涉及的各个ID的查询方法请参见10.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

重构RAID分3个步骤进行:

1.通过./storcli64 /c0 show 命令,查询故障硬盘的DG、Arr和Row所对应的数字。

2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。

3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID。

使用实例

# 将硬盘加入RAID组。

[root@localhost ~]# storcli64 /c0/e252/s1 insert dg=0 array=0 row=0
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = Insert Drive Succeeded.

# 手动重构RAID。

[root@localhost ~]# storcli64 /c0/e252/s1 start rebuild
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

10.7.2.27 查看/导入/清除外部配置

命令功能

指导用户查看、导入或者清除RAID控制卡的外部配置。

命令格式

storcli64 /ccontroller_id/fall import preview

storcli64 /ccontroller_id/fall import

storcli64 /ccontroller_id/fall delete

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

 

使用指南

使用实例

# 查看RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall import preview
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-957.el7.x86_64
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
 
 
FOREIGN PREVIEW :
===============
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Total foreign drive groups = 0

# 删除RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall delete
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-957.el7.x86_64
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration


11 MSCC SmartRAID 3152-8i

关于本章

介绍MSCC SmartRAID 3152-8i RAID控制卡的外观、特性、以及配置方法。

本章节涉及的截图以2.93 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

11.1  概述

11.2  硬盘状态

11.3  功能

11.4  初始配置

11.5  常用任务

11.6  故障处理

11.7  管理界面介绍

11.8  OS命令行工具

11.1 概述

MSCC SmartRAID 3152-8i控制卡(以下简称3152-8i)提供2个12Gbit/s的mini SAS HD接口,支持PCIe 3.0接口,并支持最多8个phy。

3152-8i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

3152-8i自带的Cache对标卡性能的提升有非常重要的作用,主要体现在:

l     在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用 Cache后,整个设备的写数据速度得到提高。

l     在读数据时,如果可以直接在Cache中命中的话,将减少硬盘寻道操作,降低响应时间,提升了数据读速度。

3152-8i安装在服务器的PCIe槽位上,结构如图11-1所示。

图11-1 3152-8i外观

 

11.2 硬盘状态

RAID控制卡下属的物理硬盘有如表11-1所示的状态。

表11-1 物理硬盘状态

状态

说明

Online

硬盘为某个虚拟磁盘的成员盘,可正常使用,处于在线状态。

Hot Spare

被设置为热备盘。

Failed

当“Online”状态或“Hot Spare”状态的硬盘出现不可恢复的错误时,会体现为此状态。

Rebuilding

硬盘正在进行数据重构,此时硬盘的性能会受一定程度的影响。

Not Supported

当前的RAID控制卡不支持该硬盘,需要更换成RAID控制卡支持的硬盘。

Raw(Pass Through)

HBA模式下的裸盘。

Ready

硬盘可用于配置RAID组。

Mixed模式下的直通盘也会显示为该状态。

Predictive Failure

硬盘即将变为Failed状态,应备份硬盘上的数据,并更换硬盘。

Erase In Progress

硬盘正在进行擦除。

 

RAID控制卡下创建的RAID组有如表11-2所示的状态。

表11-2 RAID组状态

状态

说明

Optimal

RAID组状态良好,所有成员盘均在线。

Failed

故障或离线的硬盘数超过了RAID组可容忍的坏盘数。

Interim Recovery

RAID组降级,因为RAID组中存在故障盘,使得RAID组运行性能降低,数据可能丢失。要解决此问题,请检查硬盘是否正确连接设备,或更换故障的硬盘。

Rebuilding

RAID组正在从容错数据盘中进行重构。

Ready for Rebuild

准备执行重构。

 

11.3 功能

11.3.1 支持多种RAID级别

3152-8i最多支持238个硬盘,最多支持64个Array,每个Array最多支持64个LD(Logical Drive),整张RAID控制卡所有Array最多支持64个LD。

说明

Array即通常所说的硬盘组,每个Array可以包括1个或多个LD。

3152-8i支持的RAID级别及对应的硬盘个数如表11-3所示。

表11-3 RAID-硬盘参数

RAID级别

支持硬盘数

允许坏盘数

RAID 0

1 ~ 128

0

RAID 1

2

1

RAID 1ADM

3

2

RAID 5

3 ~ 128

1

RAID 6

4 ~ 128

2

RAID 10

4 ~ 128 (偶数)

NPG数(每个NPG里最多只允许坏1个盘)

RAID 10ADM

6 ~ 128(3的倍数)

NPG数 x 2(每个NPG里最多只允许坏2个盘)

RAID 50

6 ~ 128

NPG数(每个NPG里最多只允许坏1个盘)

RAID 60

8 ~ 128

NPG数 x 2(每个NPG里最多只允许坏2个盘)

 

说明

NPG数:NPG数的个数,例如RAID 50由两个RAID 5组成,则NPG数为2。

MSCC SmartRAID 3152-8i在FW版本4.72后将RAID 1ADM更名为RAID 1Triple,RAID 10ADM更名为RAID 10Triple。

11.3.2 支持多种工作模式

3152-8iRAID控制卡支持三种工作模式,具体如下:

l     RAID模式:控制器下的逻辑盘会上报OS,但直通盘不会报送给OS。

l     HBA模式:控制器的所有RAID功能都被禁用,控制器下所有硬盘都被视为直通盘。

l     Mixed模式:RAID逻辑盘和直通盘都会报送给OS。

默认为“Mixed”模式。

11.3.3 硬盘热备份

热备盘用于替代Array故障成员盘的硬盘,在成员盘故障时承载故障盘中的数据。

3152-8i支持创建最多32个热备盘,使Array在有一个或多个与热备盘同类型的成员盘故障的情况下,可以由热备盘替代,防止Array的数据丢失和状态进一步恶化。

3152-8i支持dedicated spare和auto replace spare两种类型的热备盘:

l     dedicated spare:dedicated模式的热备盘会作为Array的固定热备盘。当Array中某个硬盘发生故障,dedicated模式的热备盘会替代损坏盘并利用其他成员盘和冗余数据重构,生成损坏盘的数据。更换新的硬盘之后,新加入的硬盘会利用其它成员盘和数据继续重构,恢复Array的状态。Array的状态恢复完成后,热备盘恢复原始状态。该模式下的热备盘可以手动与所有的Array进行关联,即作为全局热备盘。

l     auto replace spare:Array中某个硬盘发生故障时,auto replace模式的热备盘会替代故障盘并利用其他成员盘和冗余数据重构,生成故障盘的数据。当更换新的硬盘之后,原始热备盘中的数据继续作为Array的成员盘被使用,而新更换的硬盘将作为新的“热备盘”。该模式下的热备盘只能作为某一个Array的热备盘,即局部热备盘,不能作全局热备盘。

说明

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SAS和SATA两种接口的硬盘,其中当Array的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入Array的硬盘不能配置为热备盘。

l     热备盘必须和Array的成员盘类型相同,且容量不小于Array成员盘最大容量。

11.3.4 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

说明

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

11.3.5 重构

具备冗余功能的Array的成员盘故障之后,热备盘自动替换故障数据盘并开始同步。

说明

重构过程中如果服务器出现重启、下电再上电的情况,服务器上电后,重构将会从零重新开始。

11.3.6 硬盘分条

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数和数据传输率有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待,这时就是所谓的硬盘冲突。

条带化技术是一种自动将I/O负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

影响条带化效果的因素有:

l     条带宽度:指同时可以并发读或写的条带数量。

这个数量等于Array中的物理硬盘数量。增加条带宽度,可以增加Array的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。

在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。

l     条带大小:指写在每块硬盘上的条带数据块的大小。

硬盘分条即把Array中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。

3152-8i支持多种条带大小,包括16KiB、32KiB、64KiB、128KiB、256KiB、512KiB、1024KiB,默认条带大小为256KiB。

11.3.7 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

3152-8i可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在3152-8i下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。

说明

直通模式下的硬盘发生故障时(通常指硬盘本身健康状态不佳),硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

11.3.8 擦除硬盘数据

3152-8i下挂载的硬盘支持安全擦除指定硬盘(Erase Disk/Secure Erase)。擦除硬盘彻底、耗时长。

数据擦除过程中,不能执行关机,重启,插拔硬盘等操作,否则会导致硬盘被损坏。

 

注意

擦除数据完成后,所有的硬盘数据会被清除。请谨慎执行该操作。

11.3.9 容量扩展

3152-8i支持的容量扩展方式有两种:

l     通过增加硬盘方式扩容:在已存在的Array中添加新硬盘,扩大Array容量。

l     通过增加可用空间方式扩容:在LD未占用Array全部容量时,可通过调整LD的可用空间,扩大LD容量

该功能需要下载PMC官方发布的arcconf工具才可进行配置。arcconf工具的下载和安装方法请参见11.8.1 下载和安装ARCCONF工具。

11.3.10 读写高速缓存

3152-8i支持三种加速方法,分别为:

l     maxCache:利用SSD盘组成的RAID组作为高速缓存,为RAID组进行加速。

l     Controller cache:利用控制器的DDR作为高速缓存,为RAID组进行加速。

l     SSD IO Bypass:该特性只适用于由SSD组成的RAID组,数据I/O直通到RAID组,不经过RAID控制卡的Cache。

说明

推荐使用Controller cache。

当LD的加速方法设置为“Controller Cache”,且读写比例未设置成0:100或100:0时,读Cache和写Cache同时被使用。

3152-8i支持数据Cache读写,极大提高了数据读写性能。

设置控制器LD的读写比例的方法请参见11.7.3.1 Modify Controller Settings。

11.3.11 数据掉电保护

当服务器进行大量写操作时,由于将数据写入高速缓存的速度大于数据写入硬盘的速度:

l     开启高速缓存可提升整机写性能,当服务器写压力减小或高速缓存将写满时,数据再由高速缓存写入硬盘。

l     开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。

为了提升整机的高读写性能和高速缓存中数据的安全,可为RAID控制卡配置超级电容。

服务器电源正常时,由服务器电源对高速缓存供电;服务器异常掉电时,超级电容给RAID控制卡、NAND Flash和高速缓存供电,保证高速缓存中的数据转移到NAND Flash中永久保存,数据转移完成后超级电容停止供电。这样就可以在服务器异常掉电时,确保数据安全。在服务器正常上电时,RAID控制卡对高速缓存供电,确保缓存正常使用。

11.3.12 外部配置导入

当包含RAID配置信息的硬盘插入服务器后,服务器在启动过程中识别到当前硬盘配置符合该外部配置要求时,自动导入外部配置。

11.4 初始配置

BIOS中“Boot Type”设置为“UEFI Boot”模式时,打开的管理界面如下所述。

文档中描述的关于3152-8i的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“ARCCONF”命令行工具。

11.4.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如图11-2所示界面时,按“Delete”。

图11-2 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如图11-3所示界面。

图11-3 Setup Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如图11-4所示。

图11-4 “Advanced”页签

 

                                步骤 5     选择“MSCC SmartRAID 3152-8i”,按“Enter”。

进入如图11-5所示界面,参数说明如表11-4所示。

图11-5 MSCC SmartRAID 3152-8i控制器主界面

 

表11-4 参数说明

参数

说明

Controller Information

查看控制器相关的基本信息。

Configure Controller Settings

设置控制器的相关属性。

Array Configuration

创建与管理Array。

Disk Utilities

查看与管理控制器的硬盘。

Set Bootable Device(s) for Legacy Boot Mode

设置控制器在Legacy模式下的第一启动盘与第二启动盘。

Administration

控制器的其他相关操作,包括更新Firmware,收集RAID控制卡日志,恢复RAID控制卡参数为出厂配置等。

 

----结束

11.4.2 创建RAID 0

操作场景

 

注意

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见11.5.5 设置RAID控制卡工作模式。

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     3152-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见11.3.1 支持多种RAID级别。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见11.4.1 登录管理界面。

                                步骤 1     在图11-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create Array。

进入成员盘选择界面,如图11-6所示。

图11-6 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array。

说明

l     硬盘状态为“×”时表示硬盘被选中。

l     RAID 0支持的硬盘个数为1~128。

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如图11-7所示。

图11-7 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID0”,并选择“Proceed to next Form”。

进入Array属性配置界面,如图11-8所示,参数说明如表11-5所示。

图11-8 配置Array属性

 

表11-5 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size。

Size

整个LD的容量大小。

Unit Size

LD的容量计算单位。

SSD Over Provisioning Optimization

设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。

l     Disabled

l     Enabled

说明

l     只有当RAID组由SSD组成时,才能设置该属性。

l     该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。

Acceleration Method

设置LD所采用的加速方法。

l     IO Bypass(只有当LD由SSD组成时,该选项有效)

l     Controller cache(同时使用读Cache和写Cache)

l     None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。)

Submit Changes

确认修改。

 

                                步骤 6     按照表11-5所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 7     (可选)创建多个LD。

说明

当Array的容量小于最大值时,才可进行此操作。

1.     在图11-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图11-9所示。

图11-9 Manage Arrays

 

2.     选择要创建多个LD的Array并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤7

说明

此处根据实际需求,可创建多个LD。

                                步骤 8     检查配置结果。具体操作请参见11.5.1 查看/修改Array属性。

                                步骤 9     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见11.5.7 设置物理硬盘Cache。

----结束

11.4.3 创建RAID 1

操作场景

 

注意

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见11.5.5 设置RAID控制卡工作模式。

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     3152-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见11.3.1 支持多种RAID级别。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见11.4.1 登录管理界面。

                                步骤 1     在图11-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create Array。

进入成员盘选择界面,如图11-10所示。

图11-10 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array。

说明

l     硬盘状态为“×”时表示硬盘被选中。

l     RAID 1支持的硬盘个数为2。

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如图11-11所示。

图11-11 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID1”,并选择“Proceed to next Form”。

进入Array属性配置界面,如图11-12所示,参数说明如表11-6所示。

图11-12 配置Array属性

 

表11-6 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size。

Size

整个LD的容量大小。

Unit Size

LD的容量计算单位。

SSD Over Provisioning Optimization

设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。

l     Disabled

l     Enabled

说明

l     只有当RAID组由SSD组成时,才能设置该属性。

l     该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。

Acceleration Method

设置LD所采用的加速方法。

l     IO Bypass(只有当LD由SSD组成时,该选项有效)

l     Controller cache(同时使用读Cache和写Cache)

l     None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。)

Submit Changes

确认修改。

 

                                步骤 6     按照表11-6所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 7     (可选)创建多个LD。

说明

当Array的容量小于最大值时,才可进行此操作。

1.     在图11-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图11-13所示。

图11-13 Manage Arrays

 

2.     选择要创建多个LD的Array并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤7

说明

此处根据实际需求,可创建多个LD。

                                步骤 8     检查配置结果。具体操作请参见11.5.1 查看/修改Array属性。

                                步骤 9     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见11.5.7 设置物理硬盘Cache。

----结束

11.4.4 创建RAID 1ADM

操作场景

 

注意

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见11.5.5 设置RAID控制卡工作模式。

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     3152-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见11.3.1 支持多种RAID级别。

l     MSCC SmartRAID 3152-8i在FW版本4.72后将RAID 1ADM更名为RAID 1Triple。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见11.4.1 登录管理界面。

                                步骤 1     在图11-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create Array。

进入成员盘选择界面,如图11-14所示。

图11-14 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array。

说明

l     硬盘状态为“×”时表示硬盘被选中。

l     RAID 1ADM支持的硬盘个数为3。

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如图11-15所示。

图11-15 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID1(ADM)”,并选择“Proceed to next Form”。

进入Array属性配置界面,如图11-16所示,参数说明如表11-7所示。

图11-16 配置Array属性

 

表11-7 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size。

Size

整个LD的容量大小。

Unit Size

LD的容量计算单位。

SSD Over Provisioning Optimization

设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。

l     Disabled

l     Enabled

说明

l     只有当RAID组由SSD组成时,才能设置该属性。

l     该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。

Acceleration Method

设置LD所采用的加速方法。

l     IO Bypass(只有当LD由SSD组成时,该选项有效)

l     Controller cache(同时使用读Cache和写Cache)

l     None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。)

Submit Changes

确认修改。

 

                                步骤 6     按照表11-7所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 7     (可选)创建多个LD。

说明

当Array的容量小于最大值时,才可进行此操作。

1.     在图11-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图11-17所示。

图11-17 Manage Arrays

 

2.     选择要创建多个LD的Array并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤7

说明

此处根据实际需求,可创建多个LD。

                                步骤 8     检查配置结果。具体操作请参见11.5.1 查看/修改Array属性。

                                步骤 9     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见11.5.7 设置物理硬盘Cache。

----结束

11.4.5 创建RAID 10

操作场景

 

注意

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见11.5.5 设置RAID控制卡工作模式。

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     3152-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见11.3.1 支持多种RAID级别。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见11.4.1 登录管理界面。

                                步骤 1     在图11-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create Array。

进入成员盘选择界面,如图11-18所示。

图11-18 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array。

说明

l     硬盘状态为“×”时表示硬盘被选中。

l     RAID 10支持的硬盘个数为4~128(偶数)。

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如图11-19所示。

图11-19 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID1+0”,并选择“Proceed to next Form”。

进入Array属性配置界面,如图11-20所示,参数说明如表11-8所示。

图11-20 配置Array属性

 

表11-8 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size。

Size

整个LD的容量大小。

Unit Size

LD的容量计算单位。

SSD Over Provisioning Optimization

设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。

l     Disabled

l     Enabled

说明

l     只有当RAID组由SSD组成时,才能设置该属性。

l     该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。

Acceleration Method

设置LD所采用的加速方法。

l     IO Bypass(只有当LD由SSD组成时,该选项有效)

l     Controller cache(同时使用读Cache和写Cache)

l     None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。)

Submit Changes

确认修改。

 

                                步骤 6     按照表11-8所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 7     (可选)创建多个LD。

说明

当Array的容量小于最大值时,才可进行此操作。

1.     在图11-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图11-21所示。

图11-21 Manage Arrays

 

2.     选择要创建多个LD的Array并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤7

说明

此处根据实际需求,可创建多个LD。

                                步骤 8     检查配置结果。具体操作请参见11.5.1 查看/修改Array属性。

                                步骤 9     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见11.5.7 设置物理硬盘Cache。

----结束

11.4.6 创建RAID 10ADM

操作场景

 

注意

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见11.5.5 设置RAID控制卡工作模式。

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     3152-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见11.3.1 支持多种RAID级别。

l     MSCC SmartRAID 3152-8i在FW版本4.72后将RAID 10ADM更名为RAID 10Triple。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见11.4.1 登录管理界面。

                                步骤 1     在图11-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create Array。

进入成员盘选择界面,如图11-22所示。

图11-22 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array。

说明

l     硬盘状态为“×”时表示硬盘被选中。

l     RAID 10ADM支持的硬盘个数为6~128。

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如图11-23所示。

图11-23 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID10(ADM)”,并选择“Proceed to next Form”。

进入Array属性配置界面,如图11-24所示,参数说明如表11-9所示。

图11-24 配置Array属性

 

表11-9 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size。

Size

整个LD的容量大小。

Unit Size

LD的容量计算单位。

SSD Over Provisioning Optimization

设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。

l     Disabled

l     Enabled

说明

l     只有当RAID组由SSD组成时,才能设置该属性。

l     该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。

Acceleration Method

设置LD所采用的加速方法。

l     IO Bypass(只有当LD由SSD组成时,该选项有效)

l     Controller cache(同时使用读Cache和写Cache)

l     None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。)

Submit Changes

确认修改。

 

                                步骤 6     按照表11-9所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 7     (可选)创建多个LD。

说明

当Array的容量小于最大值时,才可进行此操作。

1.     在图11-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图11-25所示。

图11-25 Manage Arrays

 

2.     选择要创建多个LD的Array并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤7

说明

此处根据实际需求,可创建多个LD。

                                步骤 8     检查配置结果。具体操作请参见11.5.1 查看/修改Array属性。

                                步骤 9     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见11.5.7 设置物理硬盘Cache。

----结束

11.4.7 创建RAID 5

操作场景

 

注意

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见11.5.5 设置RAID控制卡工作模式。

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     3152-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见11.3.1 支持多种RAID级别。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见11.4.1 登录管理界面。

                                步骤 1     在图11-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create Array。

进入成员盘选择界面,如图11-26所示。

图11-26 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array。

说明

l     硬盘状态为“×”时表示硬盘被选中。

l     RAID 5支持的硬盘个数为3~128。

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如图11-27所示。

图11-27 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID5”,并选择“Proceed to next Form”。

进入Array属性配置界面,如图11-28所示,参数说明如表11-10所示。

图11-28 配置Array属性

 

表11-10 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size。

Size

整个LD的容量大小。

Unit size

LD的容量计算单位。

Parity Initialization Method

设置校验初始化的方法。

l     Default:在线进行后台校验初始化,选择该模式的LD会立即上报给OS,在后台进行校验初始化,对性能有一定程度的影响。

l     Rapid:离线进行快速初始化,初始化完成后才会上报给OS。

说明

该选项只在创建RAID5/50/6/60的时候出现。

SSD Over Provisioning optimization

设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。

l     Disabled

l     Enabled

说明

l     只有当RAID组由SSD组成时,才能设置该属性。

l     该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。

Acceleration method

设置LD所采用的加速方法。

l     SSD IO Bypass(只有当LD由SSD组成时,该选项有效)

l     Controller cache(同时使用读Cache和写Cache)

l     None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。)

Submit Changes

确认修改。

 

                                步骤 6     按照表11-10所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 7     (可选)创建多个LD。

说明

当Array的容量小于最大值时,才可进行此操作。

1.     在图11-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图11-29所示。

图11-29 Manage Arrays

 

2.     选择要创建多个LD的Array并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤7

说明

此处根据实际需求,可创建多个LD。

                                步骤 8     检查配置结果。具体操作请参见11.5.1 查看/修改Array属性。

                                步骤 9     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见11.5.7 设置物理硬盘Cache。

----结束

11.4.8 创建RAID 50

操作场景

 

注意

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见11.5.5 设置RAID控制卡工作模式。

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     3152-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见11.3.1 支持多种RAID级别。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见11.4.1 登录管理界面。

                                步骤 1     在图11-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create Array。

进入成员盘选择界面,如图11-30所示。

图11-30 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array。

说明

l     硬盘状态为“×”时表示硬盘被选中。

l     RAID 50支持的硬盘个数为6~128。

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如图11-31所示。

图11-31 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID50”,并选择“Proceed to next Form”。

进入NPG设置界面,如图11-32所示。

图11-32 设置NPG

 

说明

“NPG指LD包含的子组数,如设置为“2”时表示RAID 50包含两个RAID 5。

RAID50的每个NPG中需要包含3个或3个以上硬盘,且每个NPG中包含的硬盘数必须一致。

                                步骤 6     设置RAID 50的NPG个数,选择“Proceed to next Form”并按“Enter”。

进入Array属性配置界面,如图11-33所示,参数说明如表11-11所示。

图11-33 配置Array属性

 

表11-11 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size。

Size

整个LD的容量大小。

Unit size

LD的容量计算单位。

Parity Initialization Method

设置校验初始化的方法。

l     Default:在线进行后台校验初始化,选择该模式的LD会立即上报给OS,在后台进行校验初始化,对性能有一定程度的影响。

l     Rapid:离线进行快速初始化,初始化完成后才会上报给OS。

说明

该选项只在创建RAID5/50/6/60的时候出现。

SSD Over Provisioning optimization

设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。

l     Disabled

l     Enabled

说明

l     只有当RAID组由SSD组成时,才能设置该属性。

l     该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。

Acceleration method

设置LD所采用的加速方法。

l     IO Bypass(只有当LD由SSD组成时,该选项有效)

l     Controller cache(同时使用读Cache和写Cache)

l     None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。)

Submit Changes

确认修改。

 

                                步骤 7     按照表11-11所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 8     (可选)创建多个LD。

说明

当Array的容量小于最大值时,才可进行此操作。

1.     在图11-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图11-34所示。

图11-34 Manage Arrays

 

2.     选择要创建多个LD的Array并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤8

说明

此处根据实际需求,可创建多个LD。

                                步骤 9     检查配置结果。具体操作请参见11.5.1 查看/修改Array属性。

                             步骤 10     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见11.5.7 设置物理硬盘Cache。

----结束

11.4.9 创建RAID 6

操作场景

 

注意

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见11.5.5 设置RAID控制卡工作模式。

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     3152-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见11.3.1 支持多种RAID级别。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见11.4.1 登录管理界面。

                                步骤 1     在图11-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create Array。

进入成员盘选择界面,如图11-35所示。

图11-35 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array。

说明

l     硬盘状态为“×”时表示硬盘被选中。

l     RAID 6支持的硬盘个数为4~128。

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如图11-36所示。

图11-36 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID6(ADG)”,并选择“Proceed to next Form”。

进入Array属性配置界面,如图11-37所示,参数说明如表11-12所示。

图11-37 配置Array属性

 

表11-12 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size。

Size

整个LD的容量大小。

Unit size

LD的容量计算单位。

Parity Initialization Method

设置校验初始化的方法。

l     Default:在线进行后台校验初始化,选择该模式的LD会立即上报给OS,在后台进行校验初始化,对性能有一定程度的影响。

l     Rapid:离线进行快速初始化,初始化完成后才会上报给OS。

说明

该选项只在创建RAID5/50/6/60的时候出现。

SSD Over Provisioning optimization

设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。

l     Disabled

l     Enabled

说明

l     只有当RAID组由SSD组成时,才能设置该属性。

l     该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。

Acceleration method

设置LD所采用的加速方法。

l     IO Bypass(只有当LD由SSD组成时,该选项有效)

l     Controller cache(同时使用读Cache和写Cache)

l     None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。)

Submit Changes

确认修改。

 

                                步骤 6     按照表11-12所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 7     (可选)创建多个LD。

说明

当Array的容量小于最大值时,才可进行此操作。

1.     在图11-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图11-38所示。

图11-38 Manage Arrays

 

2.     选择要创建多个LD的Array并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤7

说明

此处根据实际需求,可创建多个LD。

                                步骤 8     检查配置结果。具体操作请参见11.5.1 查看/修改Array属性。

                                步骤 9     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见11.5.7 设置物理硬盘Cache。

----结束

11.4.10 创建RAID 60

操作场景

 

注意

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见11.5.5 设置RAID控制卡工作模式。

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     3152-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见11.3.1 支持多种RAID级别。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见11.4.1 登录管理界面。

                                步骤 1     在图11-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create Array。

进入成员盘选择界面,如图11-39所示。

图11-39 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array。

说明

l     硬盘状态为“×”时表示硬盘被选中。

l     RAID 60支持的硬盘个数为8~128。

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如图11-40所示。

图11-40 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID60”,并选择“Proceed to next Form”。

进入NPG设置界面,如图11-41所示。

图11-41 设置NPG

 

说明

l     “NPG指LD包含的子组数,如设置为“2”时表示RAID 60包含两个RAID 6。

l     RAID60的每个NPG中需要包含4个或4个以上硬盘,且每个NPG中包含的硬盘数必须一致。

                                步骤 6     设置RAID 60的NPG个数,选择“Proceed to next Form”并按“Enter”。

进入Array属性配置界面,如图11-42所示,参数说明如表11-13所示。

图11-42 配置Array属性

 

表11-13 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size。

Size

整个LD的容量大小。

Unit size

LD的容量计算单位。

Parity Initialization Method

设置校验初始化的方法。

l     Default:在线进行后台校验初始化,选择该模式的LD会立即上报给OS,在后台进行校验初始化,对性能有一定程度的影响。

l     Rapid:离线进行快速初始化,初始化完成后才会上报给OS。

说明

该选项只在创建RAID5/50/6/60的时候出现。

SSD Over Provisioning optimization

设置在创建由SSD组成的RAID组时,是否启用SSD Over Provisioning。

l     Disabled

l     Enabled

说明

l     只有当RAID组由SSD组成时,才能设置该属性。

l     该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。

Acceleration method

设置LD所采用的加速方法。

l     IO Bypass(只有当LD由SSD组成时,该选项有效)

l     Controller cache(同时使用读Cache和写Cache)

l     None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。)

Submit Changes

确认修改。

 

                                步骤 7     按照表11-13所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 8     (可选)创建多个LD。

说明

当Array的容量小于最大值时,才可进行此操作。

1.     在图11-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图11-43所示。

图11-43 Manage Arrays

 

2.     选择要创建多个LD的Array并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤8

说明

此处根据实际需求,可创建多个LD。

                                步骤 9     检查配置结果。具体操作请参见11.5.1 查看/修改Array属性。

                             步骤 10     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见11.5.7 设置物理硬盘Cache。

----结束

11.5 常用任务

11.5.1 查看/修改Array属性

操作步骤

图11-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入

进入“Manage Arrays”界面,如图11-44所示。

图11-44 “Manage Arrays”界面

 

                                步骤 2     选择要进行查看的Array,并按“Enter”。

进入Array操作界面,如图11-45所示,参数说明如表11-14所示。

图11-45 Array相关操作

 

表11-14 参数说明

参数

说明

Array Type

Array的类型。

List Logical Drives

逻辑盘相关的接口,可查看、修改逻辑盘的属性,删除逻辑盘等。

Create Logical Drive

创建逻辑盘。

IO Bypass Settings

设置SSD在不使用Controller Cache时的逻辑盘加速方法。

说明

l     该特性即为11.3.10 读写高速缓存所述的“SSD IO Bypass”。

l     SSD组成的RAID组在使能Controller cache的情况下无法使能IO Bypass功能。如需使能IO Bypass,需要先禁用RAID组的Controller Cache,再使能IO Bypass。

Manage Spare Drives

热备盘相关的接口,可创建,删除热备盘等。

Identify Device

点亮/熄灭硬盘locate灯。

Delete Array

删除Array。

 

----结束

查看LD的属性

图11-45中选择“List Logical Drive”并按“Enter”。

进入LD列表。

                                步骤 1     选择要进行查看的LD并按“Enter”。

进入LD相关操作界面,如图11-46所示,参数说明如表11-15所示。

图11-46 LD相关操作

 

表11-15 参数说明

参数

说明

Logical Drive Details

查看LD的相关属性。

Edit Logical Drive

修改LD的相关属性。

Delete Logical Drive

删除LD。

 

                                步骤 2     选择“Logical Drive Details”并按“Enter”。

显示LD的相关属性,如图11-47所示,界面参数如表11-16所示。

图11-47 LD相关属性

 

表11-16 参数说明

参数

说明

Status

当前LD的状态。

Size

整个LD的容量大小。

RAID level

当前LD的RAID级别。

Legacy disk geometry(C/H/S)

当前LD所处的硬盘几何位置。

Strip Size

整个LD的单个NPG条带大小。

说明

“NPG指LD包含的子组数,如RAID 50包含两个RAID 5时,则RAID 50的NPG为2。

Full Stripe Size

整个LD的分条大小。

Number of Parity Groups(NPG)

整个LD的NPG数量。

说明

当LD的级别为“RAID 50”或“RAID 60”时,显示该参数。

Logical Drive Label

LD的自定义标签。

Acceleration Method

LD的加速方法。

Logical Drive Members

LD的物理成员盘。

 

----结束

修改LD的属性

图11-45中选择“Edit Logical Drive”并按“Enter”。

进入LD列表。

                                步骤 1     选择要修改属性的LD并按“Enter”。

进入LD相关操作界面,如图11-48所示,参数说明如表11-17所示。

图11-48 LD相关操作

 

表11-17 参数说明

参数

说明

Acceleration Method

修改LD所采用的加速方法。

l     IO Bypass(只有当LD由SSD组成时,该选项有效)

l     Controller cache(同时使用读Cache和写Cache)

l     None(禁用加速,表示既不使用SSD IO Bypass,也不使用Controller Cache,即无任何加速。)

Logical Drive Label

修改LD的自定义标签。

Submit Changes

确认修改。

 

                                步骤 2     依照表11-17说明修改LD的相关属性。

                                步骤 3     选择“Submit Changes”并按“Enter”。

----结束

11.5.2 配置热备盘

操作场景

对服务器的硬盘进行Array分组后,一般会配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

说明

l     3152-8i支持dedicated spare和auto replace spare两种类型的热备盘,具体介绍请参见11.3.3 硬盘热备份。

l     只有当“Spare Activation Mode”(热备盘的激活模式)设置为“Predictive Spare Activation”时,RAID0才支持配置热备盘。具体方法请参见11.7.3.1 Modify Controller Settings。

必备事项

前提条件

l     服务器存在空闲硬盘。

l     已登录管理界面,具体操作请参见11.4.1 登录管理界面。

数据

该操作无需准备数据。

操作步骤

图11-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入

进入“Manage Arrays”界面,如图11-49所示。

图11-49 “Manage Arrays”界面

 

                                步骤 2     选择要创建热备盘的Array并按“Enter”。

                                步骤 3     选择“Manage Spare Drives”并按“Enter”。

进入热备盘类型选择界面,如图11-50所示,参数说明如表11-18所示。

图11-50 选择热备盘类型

 

表11-18 参数说明

参数

说明

Assign Dedicated Spare

设置硬盘为dedicated spare drive。

dedicated模式的热备盘会作为Array的固定热备盘。当Array中某个硬盘发生故障,dedicated模式的热备盘会替代损坏盘并利用其他成员盘和冗余数据重构,生成损坏盘的数据。新加入的硬盘会利用其它成员盘和数据继续重构,恢复Array的状态。Array的状态恢复完成后,热备盘恢复原始状态。

该模式下的热备盘可以手动与所有的Array进行关联,即作为全局热备盘。

Assign Auto Replace Spare

设置硬盘为auto replace drives。

该模式下,Array中某个硬盘发生故障时,auto replace模式的热备盘会替代故障盘并利用其他成员盘和冗余数据重构,生成故障盘的数据。当更换新的硬盘之后,原始热备盘中的数据继续作为Array的成员盘被使用,而新更换的硬盘将作为新的“热备盘”。

该模式下的热备盘只能作为某一个Array的热备盘,即局部热备盘,不能作全局热备盘。

 

                                步骤 4     按照表11-18所述,选择要设置的热备盘类型,并按“Enter”。

进入硬盘选择界面。

                                步骤 5     选择要设置的硬盘并按“Enter”。

说明

没有加入Array且与Array成员盘类型一致的硬盘可设置为热备盘。建议使用与Array的成员盘型号、容量一致的硬盘作为热备盘。

                                步骤 6     选择“Assign Dedicated Spare”或“Assign Auto Replace Spare”并按“Enter”。

提示操作成功。

----结束

11.5.3 删除热备盘

操作场景

当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

操作步骤

图11-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入

进入“Manage Arrays”界面,如图11-51所示。

图11-51 “Manage Arrays”界面

 

                                步骤 2     选择要进行操作的Array并按“Enter”。

                                步骤 3     选择“Manage Spare Drives”并按“Enter”。

进入“Manage Spare Drives”界面,如图11-52所示。

图11-52 Manage Spare Drives

 

                                步骤 4     选择“Delete Spare Drives”并按“Enter”。

进入硬盘选择界面,如图11-53所示。

图11-53 选择硬盘

 

                                步骤 5     选择要删除的热备盘并按“Enter”。

                                步骤 6     选择“Delete Spare Drives”并按“Enter”。

提示操作成功。

----结束

11.5.4 删除Array

操作场景

当服务器不需要Array或重新配置Array时,要先删除当前Array配置来释放硬盘。

 

小心

删除Array后,Array上的所有数据和Array下的所有LD都将被删除,请谨慎执行删除Array操作。

必备事项

前提条件

l     已创建Array。

l     已登录管理界面,具体操作请参见11.4.1 登录管理界面。

数据

待删除Array中的数据已备份。

操作步骤

图11-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入“Manage Arrays”界面,如图11-54所示。

图11-54 “Manage Arrays”界面

 

                                步骤 2     选择要删除的Array并按“Enter”。

                                步骤 3     选择“Delete Array”并按“Enter”。

进入操作确认界面。

                                步骤 4     按“Enter”。

提示操作成功。

----结束

11.5.5 设置RAID控制卡工作模式

说明

l     当背板类型为直通背板时,可通过本章节的指导,分别设置Connector 0和Connector 1的工作模式,也可通过设置“Configure Controller Port Mode”参数,将所有Connector的工作模式同时设置为同一模式。具体操作请参见11.7.3.6 Configure Controller Port Mode。

l     当背板类型为Expander时,只能通过设置“Configure Controller Port Mode”参数,将RAID控制卡的工作模式同时设置为同一模式。具体操作请参见11.7.3.6 Configure Controller Port Mode。

操作步骤

进入“Modify Controller Settings”界面。

1.     在图11-5界面中,按照“Configure Controller Settings>Modify Controller Settings”的顺序进入“Modify Controller Settings”界面,如图11-55所示。

图11-55 “Modify Controller Settings”界面

 

说明

当背板类型为直通背板时,才会显示“Port CN0 Mode”和“Port CN1 Mode”参数。

                                步骤 2     设置Connector 0的工作模式。

1.     选择“Port CN0 Mode”并按“Enter”。

弹出工作模式选择菜单。

说明

3152-8iRAID控制卡支持三种工作模式,分别为:

l     RAID:控制器所有的RAID功能都被启用,但直通盘不会报送给OS。

l     Mixed:RAID逻辑盘和直通盘都会报送给OS。

l     HBA:控制器所有的RAID功能都被禁用,控制器下所有硬盘均被视为直通盘。

默认为“Mixed”模式。

2.     根据实际需要选择要设置的工作模式,并按“Enter”。

                                步骤 3     设置Connector 1的工作模式。

1.     选择“Port CN1 Mode”并按“Enter”。

2.     根据实际需要选择要设置的工作模式,并按“Enter”。

说明

两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。

                                步骤 4     选择“Submit Changes”并按“Enter”。

提示操作成功。

----结束

11.5.6 管理maxCache Array

11.5.6.1 创建maxcache Array

 

注意

l     maxcache支持的RAID级别为RAID 0/1/10/5。

l     创建之前请确认服务器已存在RAID组。

l     创建之前请确认RAID控制卡已配置超级电容且超级电容状态正常。查看超级电容状态的方法请参见11.7.3.4 Backup Power Source。

l     加入到maxCache Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     必须使用同类型同规格的硬盘创建maxCache Array。

l     各RAID级别所需的硬盘数请参见11.3.1 支持多种RAID级别。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见11.4.1 登录管理界面。

                                步骤 1     在图11-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create MaxCache Array。

进入成员盘选择界面,如图11-56所示。

图11-56 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array。

说明

硬盘状态为“×”时表示硬盘被选中。

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如图11-57所示。

图11-57 选择RAID级别

 

                                步骤 5     选择要配置的Array级别,并选择“Proceed to next Form”。

进入Array属性配置界面,如图11-58所示,参数说明如表11-19所示。

图11-58 配置Array属性

 

表11-19 参数说明

参数

说明

Size

整个LD的容量大小。

说明

创建Array时,会默认为Array创建一个LD。此处指创建的LD容量大小。

Unit size

LD的容量计算单位。

l     TiB

l     GiB

l     MiB

Cache Write Policy

LD的Cache写策略。

l     Write-Back:当SSD组成的maxCache LD收到所有传输数据后,将给主机返回数据传输完成信号。

l     Write-Through:当硬盘子系统接收到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。

说明

只有Cache的写策略设置为“Write-Back”时,maxCache才能为Array加速。

Cache Line Size

maxcahce创建时的参数之一,该参数可以设置的值有64/128/256,默认值为64,该值越大,maxcache LD能够创建的容量上限越大。

Submit Changes

确认修改。

 

                                步骤 6     按照表11-19所述配置Array属性,选择“Submit Changes”并按“Enter”。

进入Array选择界面,如图11-59所示。

图11-59 选择目标Array

 

说明

此处显示服务器当前存在的所有由HDD组成的Array。

                                步骤 7     选择maxCache Array加速的目标Array,并按“Enter”。

提示操作成功,如图11-60所示。

图11-60 操作成功

 

                                步骤 8     按“Enter”返回主菜单。

----结束

11.5.6.2 修改maxCache Array属性

图11-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入“Manage Arrays”界面,如图11-61所示。

图11-61 “Manage Arrays”

 

                                步骤 2     选择要修改属性的maxCache Array,并按“Enter”。

                                步骤 3     选择“List Logical Drives”,并按“Enter”。

进入LD选择界面,如图11-62所示。

图11-62 LD选择界面

 

                                步骤 4     选择要修改属性的maxCache的LD,并按“Enter”。

进入LD相关操作界面,如图11-63所示。

图11-63 LD操作界面

 

                                步骤 5     选择“Edit Logical Drive”,并按“Enter”。

进入“Edit Logical Drive”界面。在此界面可以修改maxCache的cache写策略。

                                步骤 6     选择“Modify Caching Write Policy”,并按“Enter”。

弹出可设置的写策略菜单。

                                步骤 7     选择要设置的写策略,并按“Enter”。

                                步骤 8     选择“Submit Changes”,并按“Enter”。

提示操作成功。

----结束

11.5.6.3 删除maxCache Array

说明

当maxCache Array的“Cache Write Policy”设置为“Write-Back”时,maxCache Array无法进行删除。需要把maxCache Array的“Cache Write Policy”修改为“Write-Through”后,才可删除maxCache Array。

图11-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入“Manage Arrays”界面,如图11-64所示。

图11-64 “Manage Arrays”

 

                                步骤 2     选择要删除的maxCache Array,并按“Enter”。

                                步骤 3     选择“List Logical Drives”,并按“Enter”。

进入LD选择界面,如图11-65所示。

图11-65 LD选择界面

 

                                步骤 4     选择要删除maxCache的LD,并按“Enter”。

进入LD相关操作界面,如图11-66所示。

图11-66 LD操作界面

 

                                步骤 5     选择“Delete maxCache”,并按“Enter”。

弹出操作确认框。

                                步骤 6     按“Enter”。

----结束

11.5.7 设置物理硬盘Cache

操作步骤

图11-5界面中,按照“Configure Controller Settings”>“Modify Controller Settings”>的顺序进入“Modify Controller Settings”界面,如图11-67所示,参数说明如表11-20所示。

图11-67 Modify Controller Settings

 

表11-20 参数说明

参数

说明

Transformation Priority

设置Array扩展、逻辑盘扩展、逻辑盘迁移、Array收缩/迁移等操作的优先级,分为High/Medium/Low三个选项。

说明

该选项设置为“high”时,会抢占I/O资源,影响读写I/O性能,建议用户保持默认取值。

Rebuild Priority

设置逻辑盘重构的优先级,分为Low/Medium/Medium High/High四个选项。

Surface Scan Analysis Priority

设置两次硬盘表面扫描的时间间隔,硬盘表面扫描主要是检查硬盘健康状态。

可选项为0~31,默认值为3,数字表示controller在下一次surface scan analysis之前的延迟时间,单位为秒。0表示禁用硬盘表面扫描功能。

Current Parallel Surface Scan Count

设置同时启动硬盘表面扫描进程的数量,取值范围为1~16,默认值为1。设置为1时表示禁用硬盘表面扫描功能。

Controller Cache

设置是否使用控制器缓存

Enabled:使用控制器缓存

Disabled:不使用控制器缓存

Spare Activation Mode

设置热备盘的激活模式,可选模式有:

l     Failure Spare Activation:当硬盘出现故障时才触发热备盘重构。

l     Predictive Spare Activation:当硬盘出现预失效就触发热备盘重构。

默认取值为:Failure Spare Activation。

Unconfigured Physical Drive Write Cache State

设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

HBA Physical Drive Write Cache State

设置HBA模式下硬盘的写Cache状态

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

Configured Physical Drive Write Cache State

设置RAID/Mixed模式下RAID组成员盘的写Cache状态。

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

Port CN0 Mode

设置Connector 0端口的模式,有以下三种模式:

l     RAID:控制器所有的RAID功能都被启用,但直通盘不会报送给OS。

l     Mixed:RAID逻辑盘和直通盘都会报送给OS。

l     HBA:controller所有的RAID功能都被禁用,控制器下所有硬盘被视为直通盘。

说明

l     当背板类型为直通背板时,才会显示该参数。

l     两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。

Port CN1 Mode

设置Connector 1端口的模式,有以下三种模式:

l     RAID:控制器所有的RAID功能都被启用,但直通盘不会报送给OS。

l     Mixed:RAID逻辑盘和直通盘都会报送给OS。

l     HBA:controller所有的RAID功能都被禁用,控制器下所有硬盘均被视为直通盘。

说明

l     当背板类型为直通背板时,才会显示该参数。

l     两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。

Submit Changes

确认修改。

 

说明

l     如果要设置RAID/Mixed模式下非RAID组成员盘的写Cache状态,请执行步骤2

l     如果要设置HBA模式下硬盘的写Cache状态,请执行步骤3

l     如果要设置RAID/Mixed模式下RAID组成员盘的写Cache状态,请执行步骤4

                                步骤 2     设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。

1.     选择“Unconfigured Physical Drive Write Cache State”并按“Enter”。

2.     参考表11-20的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。

3.     选择“Submit Changes”并按“Enter”。

提示操作成功。

                                步骤 3     设置HBA模式下硬盘的写Cache状态。

1.     选择“HBA Physical Drive Write Cache State”并按“Enter”。

2.     参考表11-20的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。

3.     选择“Submit Changes”并按“Enter”。

提示操作成功。

                                步骤 4     设置RAID/Mixed模式下RAID组成员盘的写Cache状态。

1.     选择“Configured Physical Drive Write Cache State”并按“Enter”。

2.     参考表11-20的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。

3.     选择“Submit Changes”并按“Enter”。

提示操作成功。

----结束

11.5.8 查询RAID控制卡固件版本

查询RAID控制卡固件版本的方法有如下几种:

l     在iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。

l     服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见11.8.2.3 查询RAID控制卡的FW和驱动版本。

说明

回显信息中的“Firmware”字段即为RAID控制卡的固件版本。

l     在RAID控制卡管理界面进行查询,具体方法为:

a.     登录RAID控制卡的管理界面,具体操作请参见11.4.1 登录管理界面。

b.     在主界面中选择“Controller Information”并按“Enter”。

显示RAID控制卡基本信息。界面中的“Firmware version”即为RAID控制卡的固件版本,如图11-68所示。

图11-68 Controller Information界面

 

11.5.9 擦除硬盘

 

小心

l     擦除硬盘耗时长,所有数据都将被清除,请谨慎执行该操作。

l     擦除期间请勿执行关机,重启,插拔硬盘等操作,否则会导致硬盘被损坏。

登录管理界面。具体操作方法请参见11.4.1 登录管理界面。

                                步骤 1     在主界面中选择“Disk Utilities”并按“Enter”。

显示硬盘列表,如图11-69所示。

图11-69 硬盘列表

 

                                步骤 2     选择要执行擦除操作的硬盘,并按“Enter”。

显示硬盘操作界面,如图11-70所示。

图11-70 硬盘操作界面

 

                                步骤 3     选择“Erase Disk”并按“Enter”。

进入选择擦除模式界面,如图11-71所示。

图11-71 选择擦除模式(1)

 

                                步骤 4     选择“Erase Pattern”并按“Enter”。

显示可选择的擦除模式。

l     Three-passes: Random + Random +All zeroes:对硬盘写入随机数两次,第三次全盘写0

l     Two-passes: Random +All zeroes:对硬盘写入随机数一次,第二次全盘写0

l     One-pass: Write All zeroes:对硬盘全盘写0。

l     Restricted Sanitize Overwrite:受限的硬盘擦除,擦除失败后需要重新做擦除。

l     Unrestricted Sanitize Overwrite:不受限制的硬盘擦除,如果擦除失败,对于可恢复的硬盘,则不影响使用。

                                步骤 5     选择擦除的模式,并按“Enter”。

                                步骤 6     选择“Start Erase”,并按“Enter”。

开始进行擦除。

                                步骤 7     (可选)重新进入“Erase Disk”界面,可查看擦除进度,如图11-72所示。

图11-72 查看擦除进度

 

说明

擦除时选择“Abort Erase”并按“Enter”后,将终止擦除。下一次进行擦除时将重新开始。

----结束

11.6 故障处理

介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

11.6.1 硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘Fault指示灯点亮。

l     硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

说明

直通模式下的硬盘发生故障时(通常指硬盘本身健康状态不佳),硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

处理方法

说明

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

拔掉故障硬盘。

                                步骤 1     判断硬盘故障后,数据是否可恢复。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则数据不可恢复。直接安装新硬盘,重新配置RAID,操作完成。

     EFI/UEFI模式下创建RAID 0的操作请参见11.4.2 创建RAID 0。

     通过命令行创建RAID 0 的操作请参见11.8.2.18 创建和删除RAID。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在11.3.1 支持多种RAID级别查看RAID组支持的最大故障硬盘数量。

l     若RAID组存在热备盘,则热备盘自动补充坏盘,进入rebuild状态同步数据。

l     若RAID组为冗余RAID但不存在热备盘,则需要安装新硬盘进行数据恢复。

                                步骤 2     插入新硬盘。

l     若插入的硬盘无数据,则根据原RAID情况有如下工作方式:

     若原RAID组存在热备盘,热备盘数据自动拷贝至新插入的硬盘中。原热备盘恢复热备状态,操作完成。

     若原RAID组为冗余RAID且不存在热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成。

l     若插入的硬盘存在RAID信息,请执行步骤4

                                步骤 3     对插入的硬盘执行安全擦除操作。

                                步骤 4     手动重构RAID。

----结束

11.6.2 RAID控制卡故障

问题描述

当服务器出现如下现象时,说明RAID控制卡可能存在故障。

l     服务器上报RAID控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     查询兼容性查询助手或者联系技术支持处理。

----结束

11.6.3 电容故障

问题描述

当RAID控制卡电容故障时,会导致Cache不可用,从而降低读写速度。

处理方法

进入OS,查询设备信息。具体操作请参见11.8.2.1 查询RAID控制卡的基本信息

                                步骤 1     查看回显信息中的“Bettery Power Status”信息,如所图11-73所示,根据电容状态进行不同的操作。

图11-73 回显信息

 

l     Failed:电容故障,请更换电容。

l     Ok:表示电容充电完成,状态正常,

l     Not Battery charged:表示电容不在位,请安装电容。

l     No fully charged:表示电容正在充电,请等待15min后操作RAID控制卡。

                                步骤 2     如果仍然存在异常,请联系技术支持处理。

----结束

11.7 管理界面介绍

11.7.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如图11-74所示界面时,按“Delete”。

图11-74 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如图11-75所示界面。

图11-75 Setup Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如图11-76所示。

图11-76 “Advanced”页签

 

                                步骤 5     选择“MSCC SmartRAID 3152-8i”,按“Enter”。

进入如图11-77所示界面,参数说明如表11-21所示。

图11-77 MSCC SmartRAID 3152-8i控制器主界面

 

表11-21 参数说明

参数

说明

Controller Information

查看控制器相关的基本信息。

Configure Controller Settings

设置控制器的相关属性。

Array Configuration

创建与管理Array。

Disk Utilities

查看与管理控制器的硬盘。

Set Bootable Device(s) for Legacy Boot Mode

设置控制器在Legacy模式下的第一启动盘与第二启动盘。

Administration

控制器的其他相关操作,包括更新Firmware,收集RAID控制卡日志,恢复RAID控制卡参数为出厂配置等。

 

----结束

11.7.2 Controller Information

在“Controller Information”界面中,可以查看控制器相关的基本信息。

界面介绍

在如图11-5所示的主界面中选择“Controller Information”,打开“Controller Information”界面,如图11-78图11-79所示,参数说明如表11-22所示。

图11-78 “Controller Information”界面(1)

 

图11-79 “Controller Information”界面(2)

 

表11-22 参数说明

参数

说明

Controller

RAID控制卡的名称。

Device Id

设备编号。

PCI Address

BIOS分配给RAID控制卡的PCI总线地址。

Hardware Revision

硬件修订版本。

Negotiated PCIe Data Rate

PCIe协商速率

Serial Number

RAID控制卡序列号。

WWID

world wide name,RAID控制卡的唯一标识号。

Firmware version

Firmware的版本号。

Firmware release data

Firmware的发布日期。

UEFI Driver version

UEFI驱动版本号。

UEFI Driver release date

UEFI驱动版本发布日期。

Controller Memory Module Size

RAID控制卡的cache大小。

Controller Status

RAID控制卡的状态。

Cache Status

Cache的状态。

Controller Mode

RAID控制卡的当前的使用模式,有RAID/Mixed/HBA三种模式。

l     RAID模式:控制器下的LD会上报OS,但直通盘不会报送给OS。

l     HBA模式:控制器的所有RAID功能都被禁用,控制器下所有硬盘都被视为直通盘。

l     Mixed模式:RAID逻辑盘和直通盘都会报送给OS。

默认为“Mixed”模式。

Supported Mode

RAID控制卡Port口的支持模式。

Port CN0:RAID HBA Mixed

Port CN1:RAID HBA Mixed

 

11.7.3 Configure Controller Settings

在“Configure Controller Settings”界面中,可以设置控制器的相关属性。

界面介绍

在如图11-5所示的配置工具主界面中选择“Configure Controller Settings”,打开“Configure Controller Settings”界面,如图11-80所示,参数说明如表11-23所示。

图11-80 Configure Controller Settings

 

表11-23 参数说明

参数

说明

Modify Controller Settings

修改控制器的相关属性。

Modify Cache Settings

修改Cache的设置。

Advanced Controller Settings

修改控制器的高级属性。

Clear Configuration

清除控制器当前所有的Array与RAID组配置。

Backup Power Source

超级电容(提供超级电容状态信息)。

Manage Power Settings

管理电源设置(修改控制器的电源模式、启用/禁用控制器的生存模式)。

Out of Band Messaging Settings

控制器带外管理,暂不支持该功能。

Configure Controller Port Mode

设置RAID控制卡的使用模式。

 

11.7.3.1 Modify Controller Settings

界面说明

“Modify Controller Settings”界面如图11-81所示,参数说明如表11-24所示。

图11-81 Modify Controller Settings

 

表11-24 参数说明

参数

说明

Transformation Priority

设置Array扩展、逻辑盘扩展、逻辑盘迁移、Array收缩/迁移等操作的优先级,分为High/Medium/Low三个选项。

说明

该选项设置为“high”时,会抢占I/O资源,影响读写I/O性能,建议用户保持默认取值。

Rebuild Priority

设置逻辑盘重构的优先级,分为Low/Medium/Medium High/High四个选项。

Surface Scan Analysis Priority

设置两次硬盘表面扫描的时间间隔,硬盘表面扫描主要是检查硬盘健康状态。

可选项为0~31,默认值为3,数字表示controller在下一次surface scan analysis之前的延迟时间,单位为秒。0表示禁用硬盘表面扫描功能。

Current Parallel Surface Scan Count

设置同时启动硬盘表面扫描进程的数量,取值范围为1~16,默认值为1。设置为1时表示禁用硬盘表面扫描功能。

Spare Activation Mode

设置热备盘的激活模式,可选模式有:

l     Failure Spare Activation:当硬盘出现故障时才触发热备盘重构。

l     Predictive Spare Activation:当硬盘出现预失效就触发热备盘重构。

默认取值为:Failure Spare Activation。

Unconfigured Physical Drive Write Cache State

设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

HBA Physical Drive Write Cache State

设置HBA模式下硬盘的写Cache状态

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

Configured Physical Drive Write Cache State

设置RAID/Mixed模式下RAID组成员盘的写Cache状态。

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

Port CN0 Mode

设置Connector 0端口的模式,有以下三种模式:

l     RAID:控制器所有的RAID功能都被启用,但直通盘不会报送给OS。

l     Mixed:RAID逻辑盘和直通盘都会报送给OS。

l     HBA:controller所有的RAID功能都被禁用,控制器下所有硬盘均被视为直通盘。

说明

l     当背板类型为直通背板时,才会显示该参数。

l     两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。

Port CN1 Mode

设置Connector 1端口的模式,有以下三种模式:

l     RAID:控制器所有的RAID功能都被启用,但直通盘不会报送给OS。

l     Mixed:RAID逻辑盘和直通盘都会报送给OS。

l     HBA:controller所有的RAID功能都被禁用,控制器下所有硬盘均被视为直通盘。

说明

l     当背板类型为直通背板时,才会显示该参数。

l     两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。

Submit Changes

确认修改。

 

说明

当“Surface Scan Analysis priority”选项设置为0或“Current Parallel Surface Scan Count”选项设置为1时,硬盘表面扫描功能(Surface Scan)会被禁用。

11.7.3.2 Advanced Controller Settings

界面说明

“Advanced Controller Settings”界面如图11-82所示,参数说明如表11-25所示。

图11-82 Advanced Controller Settings

 

表11-25 参数说明

参数

说明

Degraded Mode Performance Optimization

对于降级的RAID5,启用此设置,将指示RAID控制卡通过硬盘缓存,提高大规模读请求的性能;禁用此设置,将强制RAID控制卡从相同的硬盘中多次读取数据。

Physical Drive Request Elevator Sort

设置硬盘的写入电梯排序算法的行为。这种调度优化将I/O请求按优先级排序,使硬盘取数臂和磁头运动继续沿同一方向进行。启用电梯排序功能将优化寻道时间;禁用电梯排序功能将增加吞吐量。

RAID6/60 Alternate Inconsistent Repair Policy

禁用该修复策略时,若RAID控制卡检测到奇偶校验信息与硬盘数据不匹配,将指示RAID控制卡更新奇偶校验信息,保持数据不变;启用该修复策略时,若RAID控制卡检测到奇偶校验信息与硬盘数据不匹配,将指示RAID控制卡根据奇偶校验信息更新硬盘上的数据。

Maximum Drive Request Queue Depth

设置RAID控制卡的队列深度,有效取值自动设置为2,4,8,16和32。

Monitor and Performance Analysis Delay

以分钟为单位,设置RAID的监控和性能分析延迟参数。默认参数值为60分钟。若将该值设置为0,将禁用监控和性能分析功能。

HDD Flexible Latency Optimization

为硬盘提供灵活时延优化功能。启用灵活时延优化功能,RAID控制卡会检测I/O请求,设置时延阈值。如果检测到的I/O请求时延满足该阈值,则即时禁用电梯排序功能和业务请求,执行满足阈值的I/O请求,减少高时延I/O请求数量。阈值的有效取值范围如下:

l     Disabled:禁用

l     Low:低值

l     Middle(100ms):中等值

l     High:高值

l     Very High(30ms):较高值

l     Very High(10ms):极高值

Submit Changes

确认修改。

 

11.7.3.3 Clear Configuration

界面说明

“Clear Configuration”界面如图11-83所示,参数说明如表11-26所示。

图11-83 Clear Configuration

 

表11-26 参数说明

参数

说明

Delete All Array Configurations

清除所有Array的配置信息。

Delete Configuration metadata on all physical drives

清除所有不属于Array,但带有Array信息的物理硬盘数据。

 

11.7.3.4 Backup Power Source

界面说明

“Backup Power Source”界面如图11-84所示,参数说明如表11-27所示。

图11-84 Backup Power Source

 

表11-27 参数说明

参数

说明

Backup Power Status

超级电容当前状态。

l     charging:超级电容正在充电。

l     charged:超级电容充电完成。

l     Not Present:未接入超级电容。

 

11.7.3.5 Manage Power Settings

界面说明

“Manage Power Settings”界面如图11-85所示,参数说明如表11-28所示。

图11-85 Manage Power Settings

 

表11-28 参数说明

参数

说明

Power Mode

设置控制器的power mode。

l     Minimum Power:将static设置设为最低级。

l     Balanced:static设置随配置而定。

l     Maximum Performance:将static设置设为最高级。

默认为“Maximum Performance”。

Survival Mode

当RAID控制卡的温度超过阈值时,Survival Mode将允许控制器将所有的功耗配置设置为最小值,选择该模式后,服务器将继续在这种环境下工作,但性能可能会下降。

l     Enabled:启动该特性。

l     Disabled:关闭该特性。

默认取值为“Enabled”。

Submit Changes

确认修改。

 

11.7.3.6 Configure Controller Port Mode

界面说明

“Configure Controller Port Mode”界面如图11-86所示,参数说明如表11-29所示。

图11-86 Configure Controller Port Mode

 

表11-29 参数说明

参数

说明

Current Controller Port Mode

控制器当前的端口模式。

Set Controller Port Mode

设置控制器的端口模式,有以下三种:

l     HBA:该模式下,支持硬盘直通功能,不支持创建RAID组。当有RAID组存在时,不支持切换到该模式。

l     RAID:该模式下,支持创建RAID组,不支持硬盘直通功能。

l     Mixed:支持硬盘直通功能与创建RAID组。

默认为“Mixed”模式。

Submit Changes

确认修改。

 

设置控制器的端口模式

说明

通过该操作,可将所有Connector的工作模式同时设置为同一模式。

图11-86中选择“Set Controller Port Mode”,并按“Enter”。

弹出端口模式菜单。

                                步骤 1     选择要设置的控制器端口模式,并按“Enter”。

                                步骤 2     选择“Submit Changes”,并按“Enter”。

提示操作成功。

----结束

11.7.4 Array Configuration

界面说明

“Array Configuration”界面如图11-87所示,参数说明如表11-30所示。

图11-87 Array Configuration

 

表11-30 参数说明

参数

说明

Create Array

创建Array。

详细介绍可参见11.4.2 创建RAID 0~11.4.10 创建RAID 60。

Create maxCache Array

创建maxCache Array。

详细介绍可参见11.5.6.1 创建maxcache Array。

Manage Arrays

管理Array。

详细介绍可参见11.5.1 查看/修改Array属性。

 

11.7.5 Disk Utilities

界面说明

“Disk Utilities”界面如图11-88所示,显示硬盘列表。

图11-88 Disk Utilities界面(1)

 

说明

硬盘的标识信息说明如下:

l     ①表示RAID控制卡的Port口编号,其中CN0表示RAID控制卡的Port A口,CN1表示RAID控制卡的Port B口。

l     ②表示机箱或背板的位置ID。

l     ③表示硬盘槽位号。

l     ④表示硬盘的容量。

l     ⑤表示硬盘的类型。

l     ⑥表示硬盘的型号。

选定要操作的硬盘,并按“Enter”,显示操作菜单,如图11-89所示,参数说明如表11-31所示。

图11-89 硬盘操作菜单

 

表11-31 参数说明

参数

说明

Device Information

查看硬盘相关信息。

Identify Device

开启/关闭硬盘定位指示灯。

Erase Disk

安全擦除硬盘。

通过该选项可擦除非RAID组成员盘的数据。

说明

l     硬盘擦除耗时长,执行完成后,数据会被清除。

l     硬盘擦除过程中执行上下电,插拔硬盘等操作会导致硬盘数据损坏。

l     请谨慎使用该功能。

Update Device Firmware

升级硬盘的Firmware。

说明

该功能暂不可用。

 

说明

如果当前配置的硬盘背板是Expander类型时,“Disk Utilities”界面还会显示Expander的相关信息,如图11-90所示。

图11-90 Disk Utilities界面(2)

 

查看硬盘属性

图11-88中选择“Device Information”并按“Enter”后,显示硬盘的详细信息,如图11-91所示,参数说明如表11-32所示。

图11-91 Device Information界面

 

表11-32 参数说明

参数

说明

Device Type

硬盘的类型

Model

硬盘型号

Drive Encryption Capability

硬盘加密功能

Serial Number

硬盘序列号

Port:Box:Bay

当前硬盘的物理位置

Firmware version

硬盘固件版本

Logical Sector Size

硬盘的逻辑分区大小

Physical Sector Size

硬盘的物理分区大小

Size

硬盘容量

Speed(rpm)

硬盘转速

Negotiated Link Rate

硬盘链路协商速率

Maximum Link Rate

硬盘链路最大速率

Write Cache Status

硬盘的写Cache状态

Mode

硬盘的工作模式

Temperature

硬盘温度

Associated to Array

硬盘是否已加入Array

 

打开/关闭硬盘定位指示灯

1.     在图11-88中选择“Identify Device”并按“Enter”。

进入如图11-92所示界面。

图11-92 Identify Device界面

 

2.     在“Identification Duration(seconds)”中输入定位指示灯的闪烁时长(范围为1~86400,单位为秒,不设置时默认为86400s)。

3.     选择“Start”并按“Enter”。

定位指示灯开始闪烁。

4.     (可选)选择“Stop”并按“Enter”。

定位指示灯停止闪烁。

安全擦除硬盘数据

具体操作步骤请见11.5.9 擦除硬盘。

11.7.6 Set Bootable Device(s) for Legacy Boot Mode

界面说明

“Set Bootable Device(s) for Legacy Boot Mode”界面如图11-93所示,参数说明如表11-33所示。

图11-93 Set Bootable Device(s) for Legacy Boot Mode

 

表11-33 参数说明

参数

说明

Primary Bootable Device

第一启动盘。

Secondary Bootable Device

第二启动盘。

Select Bootable Logical Drive

设置逻辑盘为第一启动盘或第二启动盘。

Select Bootable Physical Drive

设置物理硬盘为第一启动盘或第二启动盘。

Number of OS bootable drives

设置系统启动盘的数量。

Clear Bootable Device(s)

清除启动盘。

l     Select Boot Precedence:选择将要清除的启动盘。

l     Clear Bootable Device(s):确认清除启动盘。

 

说明

因服务器不支持Legacy模式,该界面的设置无效。

11.7.7 Administration

界面说明

“Administration”界面如图11-94所示,参数说明如表11-34所示。

图11-94 Administration

 

表11-34 参数说明

参数

说明

Flash Controller Firmware

更新RAID控制卡的Firmware。

该接口暂不可用。

Save Support Archive

收集RAID控制卡日志。

该接口暂不可用。

Reset controller settings to factory defaults

将RAID控制卡恢复出厂配置。

 

11.8 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

11.8.1 下载和安装ARCCONF工具

下载工具

登录Microsemi网站上RAID控制卡的页面

                                步骤 1     点击

                                步骤 2     按照提示信息下载ARCCONF工具。

                                步骤 3     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

使用文件传输工具(例如Winscp)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 1     在Linux命令行执行rpm -ivh Arcconfxxx.aarch64.rpm命令安装ARCCONF工具。

说明

ARCCONF工具的安装路径为/usr/Arcconf,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

11.8.2 常用命令

说明

l     为快速获取命令结果,建议在每条命令之后增加nodiskinfo参数,如arcconf list controller_id nodiskinfo

l     ARCCONF工具在23168及以后版本支持nodiskinfo参数。

11.8.2.1 查询RAID控制卡的基本信息

命令功能

查询RAID控制卡的基本信息。

命令格式

arcconf list controller_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

 

使用指南

使用实例

# 查询ID为1的控制器属性。

[root@localhost ~]# arcconf list 1
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
   Controller ID             : Status, Slot, Mode, Name, SerialNumber, WWN
----------------------------------------------------------------------
   Controller 1:             : Optimal, Slot 1, Mixed, MSCC Adaptec SmartRAID 3152-8i, 7A45F30016A, 50000D1E00189F30
 
----------------------------------------------------------------------
Array Information
----------------------------------------------------------------------
   Array ID                  : Status (Interface, TotalSize MB, FreeSpace MB)
----------------------------------------------------------------------
   Array 0                   : Ok (SATA SSD, 305152 MB, 0 MB)
 
----------------------------------------------------------------------
Logical device information
----------------------------------------------------------------------
   Logical ID                : Status (RAID, Interface, Size MB) Name
----------------------------------------------------------------------
   Logical 0                 : Optimal (0, Data, 305190 MB) LogicalDrv 0
 
----------------------------------------------------------------------
maxCache information
----------------------------------------------------------------------
 
----------------------------------------------------------------------
Physical Device information
----------------------------------------------------------------------
   Physical ID               : State (Interface, BlockSize, SizeMB, Vendor, Model, Type) WWN, [Location]
----------------------------------------------------------------------
   Physical 0,0              : Online (SATA, 512 Bytes, 152627MB, ATA     , INTEL SSDSA2BW16, Solid State Drive) 30000D1E00189F30, [Enclosure Direct Attached, Slot 0(Connector 0:CN0)]
   Physical 0,1              : Online (SATA, 512 Bytes, 1526185MB, ATA     , SSDSC2BB016T7H  , Solid State Drive) 30000D1E00189F32, [Enclosure Direct Attached, Slot 1(Connector 0:CN0)]
   Physical 0,4              : Ready (SAS, 512 Bytes, 1716957MB, TOSHIBA , AL14SEB18EQ     , Hard Drive) 500003969812C842, [Enclosure Direct Attached, Slot 4(Connector 1:CN1)]
   Physical 0,5              : Ready (SAS, 512 Bytes, 858483MB, HGST    , HUC101890CSS200 , Hard Drive) 5000CCA0361C09C1, [Enclosure Direct Attached, Slot 5(Connector 1:CN1)]
   Physical 0,6              : Ready (SATA, 512 Bytes, 457862MB, ATA     , MTFDDAK480TDC-1A, Solid State Drive) 30000D1E00189F39, [Enclosure Direct Attached, Slot 6(Connector 1:CN1)]
   Physical 0,7              : Ready (SATA, 512 Bytes, 915715MB, ATA     , MTFDDAK960TDC-1A, Solid State Drive) 30000D1E00189F3B, [Enclosure Direct Attached, Slot 7(Connector 1:CN1)]
   Physical 2,2              : Ready (SES2, Not Applicable, Not Applicable, MSCC    , Virtual SGPIO, Enclosure Services Device) 50000D1E00189F30, [Not Applicable]
 
 
Command completed successfully.

11.8.2.2 查询物理硬盘、Array、LD、maxCache等相关信息

命令功能

查询RAID控制卡的基本信息。

命令格式

表11-35  

命令格式

功能

arcconf getconfig controller_id AD

查询适配器信息

arcconf getconfig controller_id LD

查询所有LD的信息

arcconf getconfig controller_id LD LD_id

查询特定LD的信息

arcconf getconfig controller_id PD

查询所有物理硬盘的信息

arcconf getconfig controller_id PD physical_id

查询特定物理硬盘的信息

arcconf getconfig controller_id AR

查询所有Array的信息

arcconf getconfig controller_id AR AR_id

查询特定Array的信息

arcconf getconfig controller_id MC

查询maxCached的信息

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

LD_id

LD的ID

physical_id

硬盘的physical编号

slot_id

物理硬盘槽位编号

AR_id

Array的ID

 

使用指南

使用实例

# 查询所有Array的信息。

[root@localhost ~]# ./arcconf getconfig 1 ar
Controllers found: 1
----------------------------------------------------------------------
Array Information
----------------------------------------------------------------------
Array Number 0
   Name                                     : A
   Status                                   : Ok
   Interface                                : SATA SSD
   Total Size                               : 305152 MB
   Unused Size                              : 204800 MB
   Block Size                               : 512 Bytes
   Array Utilization                        : 32.77% Used, 67.23% Unused
   Type                                     : Data
   Transformation Status                    : Not Applicable
   Spare Rebuild Mode                       : Dedicated
   SSD I/O Bypass                           : Disabled
   --------------------------------------------------------
   Array Logical Device Information
   --------------------------------------------------------
   Logical 0                                : Optimal (1, Data, 49999 MB) LogicalDrv 0
   --------------------------------------------------------
   Array Physical Device Information
   --------------------------------------------------------
   Device 0                                 : Present (915715MB, SATA, SSD, Channel:0, Device:0)         18031A983BCA
   Device 1                                 : Present (152627MB, SATA, SSD, Channel:0, Device:1) CVPR1461036N160DGN
 
   --------------------------------------------------------
   Array Hotspare Information
   --------------------------------------------------------
   Device 3                                 : Dedicated Hot-Spare (457862MB, SATA, SSD, Channel:0, Device:3)             2029E247
 
 
 
Command completed successfully.
[root@localhost ~]#

# 查询所有LD的基本信息。

[root@localhost ~]# ./arcconf getconfig 1 ld
Controllers found: 1
----------------------------------------------------------------------
Logical device information
----------------------------------------------------------------------
Logical Device number 0
   Logical Device name                      : LogicalDrv 0
   Disk Name                                : /dev/sdd
   Block Size of member drives              : 512 Bytes
   Array                                    : 0
   RAID level                               : 1
   Status of Logical Device                 : Optimal
   Size                                     : 49999 MB
   Stripe-unit size                         : 256 KB
   Full Stripe Size                         : 256 KB
   Interface Type                           : SATA SSD
   Device Type                              : Data
   Boot Type                                : None
   Heads                                    : 255
   Sectors Per Track                        : 32
   Cylinders                                : 12549
   Caching                                  : Enabled
   Mount Points                             : Not Applicable
   LD Acceleration Method                   : Controller Cache
   Volume Unique Identifier                 : 600508B1001C329D07A9BDA053FF081B
   --------------------------------------------------------
   Array Physical Device Information
   --------------------------------------------------------
   Device 0                                 : Present (915715MB, SATA, SSD, Channel:0, Device:0)         18031A983BCA
   Device 1                                 : Present (152627MB, SATA, SSD, Channel:0, Device:1) CVPR1461036N160DGN
 
   --------------------------------------------------------
   Array Hotspare Information
   --------------------------------------------------------
   Device 3                                 : Dedicated Hot-Spare (457862MB, SATA, SSD, Channel:0, Device:3)             2029E247
 
 
 
Command completed successfully.
[root@localhost ~]#

11.8.2.3 查询RAID控制卡的FW和驱动版本

命令功能

查询RAID控制卡的FW和驱动的版本信息。

命令格式

arcconf getversion

使用实例

# 查询RAID控制卡FW和驱动的版本信息。

[root@localhost ~]# ./arcconf getversion
Controllers found: 1
Controller #1
==============
Firmware                               : 1.43[0] (0)
Driver                                 : 0.9.14-100 (0)
 
 
Command completed successfully.
[root@localhost ~]#

11.8.2.4 升级RAID控制卡FW

命令功能

通过该命令可以升级RAID控制卡的Firmware。

命令格式

arcconf romupdate controller_id fwfile

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

fwfile

Firmware升级所需的.bin文件名

-

 

使用实例

# 升级RAID控制卡FW。

[root@linux 2.93]# arcconf romupdate 1 SmartFWx100.bin
Controllers found: 1
 
 
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
Updating controller 1 firmware...
Succeeded
You must restart the system for firmware updates to take effect.
 
 
Command completed successfully.

11.8.2.5 设置RAID控制卡工作模式

命令功能

设置RAID控制卡工作模式。

RAID控制卡工作模式默认为“Mixed”。

命令格式

arcconf setcontrollermode controller_id mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

mode

RAID控制卡工作模式

l     2:设置为HBA模式。

l     3:设置为RAID模式。

l     5:设置为Mixed模式。

说明

3152-8i的工作模式的介绍请参见11.3.2 支持多种工作模式

 

使用指南

使用实例

# 设置RAID控制卡工作模式为“Mixed”。

[root@localhost ~]# ./arcconf setcontrollermode 1 5
Controllers found: 1
 
Command completed successfully.

# 查询RAID控制卡工作模式。

[root@localhost ~]# arcconf getconfig 1
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
   Controller Status                        : Optimal
   Controller Mode                          : Mixed
   Channel description                      : SCSI
   Controller Model                         : MSCC Adaptec SmartRAID 3152-8i
   Controller Serial Number                 : 7A45F30016A
   Controller World Wide Name               : 50000D1E00189F30
   Physical Slot                            : 1
   Temperature                              : 48 C/ 118 F (Normal)
   Host bus type                            : PCIe 3.0
   Host bus speed                           : 7880 MBps
   Host bus link width                      : 8 bit(s)/link(s)
   PCI Address (Bus:Device:Function)        : 0:3b:0:0
   Number of Ports                          : 2
   Internal Port Count                      : 2
   External Port Count                      : 0
   Defunct disk drive count                 : 0
   NCQ status                               : Enabled
   Queue Depth                              : Automatic
   Monitor and Performance Delay            : 60 minutes
   Elevator Sort                            : Enabled
   Degraded Mode Performance Optimization   : Disabled
   Latency                                  : Disabled
   Statistics data collection mode          : Disabled
   Post Prompt Timeout                      : 0 seconds
   Boot Controller                          : False
   Primary Boot Volume                      : None
   Secondary Boot Volume                    : ADDD8BE3B85736315B553DAF0D36B31E
   Driver Name                              : smartpqi
   Driver Supports SSD I/O Bypass           : Yes
   Manufacturing Part Number                : Not Applicable
   Manufacturing Spare Part Number          : Not Applicable
   Manufacturing Wellness Log               : Not Applicable
   NVRAM Checksum Status                    : Passed
   Sanitize Lock Setting                    : None
 
......

说明

回显信息中的“Controller Mode”即为RAID控制卡的工作模式。

11.8.2.6 查询所有适用arcconf工具的RAID控制卡

命令功能

查询所有适用arcconf工具的RAID控制卡。

命令格式

arcconf list

使用实例

# 查询所有适用arcconf工具的RAID控制卡。

[root@localhost ~]# ./arcconf list
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
   Controller ID             : Status, Slot, Mode, Name, SerialNumber, WWN
----------------------------------------------------------------------
   Controller 1:             : Optimal, Slot 1, Mixed, MSCC Adaptec SmartRAID 3152-8i, 7A45F30016A, 50000D1E00189F30
 
Command completed successfully.
[root@localhost ~]#

11.8.2.7 设置启动盘

命令功能

通过该命令可以将PD或LD设置成启动设备,其中,PD在RAID控制卡的工作模式为HBA或MIX时生效,LD在RAID控制卡的工作模式为MIX或RAID时生效。

命令格式

arcconf setboot controller_id  logicaldrive LD_id type boot_type

arcconf setboot controller_id  device physical_id type boot_type

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

LD_id

LD的ID

boot_type

启动项的类型

Primary :将LD或PD设置为第一启动设备。

Secondary :将LD或PD设置为第二启动设备。

physical_id

硬盘的physical ID

 

使用实例

# 设置LD0为第一启动设备。

[root@localhost ~]# arcconf setboot 1 logicaldrive 0 type primary
Controllers found: 1
Do you wish to change the boot type of the selected device.
Press y, then ENTER to continue or press ENTER to abort: y
 
 
Command completed successfully.
[root@localhost ~]#

11.8.2.8 设置热备模式

命令功能

设置热备盘的模式。

命令格式

arcconf setarrayparam controller_id  array_id sparetype mode

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

array_id

array的ID

mode

热备盘的类型

l     1:Dedicated

l     2:Autoreplace

说明

热备盘相关介绍请参见11.3.3 硬盘热备份

 

使用实例

# 设置Array的热备盘模式为:Dedicated。

[root@localhost ~]# arcconf setarrayparam 1 0 sparetype 1
Controllers found: 1
 
Command completed successfully.
[root@localhost ~]#

11.8.2.9 设置硬盘定位指示灯

命令功能

点亮、熄灭控制器的硬盘定位指示灯。

命令格式

表11-36  

命令

功能

arcconf identify controller_id device physical_id time time

对特定的物理硬盘进行点灯,time为可选项表示点灯持续的时间,单位为秒。

arcconf identify controller_id device physical_id

对特定的物理硬盘持续点灯,按任意键会停止点灯。

arcconf identify controller_id all time time

对所有的物理硬盘进行点灯,time为可选项表示点灯持续的时间,单位为秒。

arcconf identify controller_id all stop

对所有的物理硬盘停止点灯

arcconf identify controller_id logicaldrive LD_id time time

对特定的LD进行点灯,time为可选项表示点灯持续的时间,单位为秒。

arcconf identify controller_id logicaldrive LD_id

对特定的LD停止点灯

arcconf identify controller_id array array_id

time time

对特定的Array进行点灯,time为可选项表示点灯持续的时间,单位为秒。

arcconf identify controller_id array array_id

对特定的Array停止点灯

arcconf identify controller_id maxcache

time time

对maxCache进行点灯,time为可选项表示点灯持续的时间,单位为秒。

arcconf identify controller_id maxcache

对maxCache停止点灯

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

LD_id

LD的ID

physical_id

硬盘的physical ID

time

硬盘指示灯点亮的时间。

为可选项表示点灯持续的时间,单位为秒。

array_id

array的ID

 

使用实例

# 对slot 0硬盘的停止指示灯。

[root@localhost ~]# ./arcconf identify 1 device 0 0
Controllers found: 1
Only devices managed by an enclosure processor may be identified
The specified device(s) is/are blinking.
Press any key to stop the blinking.

# 设置所有的盘进行点灯60秒。

[root@localhost ~]# ./arcconf identify 1 all time 60
Controllers found: 1
Only devices managed by an enclosure processor may be identified
 
Command completed successfully.

# 熄灭所有的硬盘指示灯。

[root@localhost ~]# ./arcconf identify 1 all stop
Controllers found: 1
 
Command completed successfully.

11.8.2.10 修改条带大小

命令功能

修改LD的条带大小。

命令格式

arcconf modify controller_id  from LD_id to stripesize size LD_size LD_level physical_id physical_id......

 

注意

为准确修改LD的条带大小,执行该命令前,请提前确认并正确输入LD的容量大小,级别以及成员盘的physical ID。

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

size

修改后的条带大小

16/32/64/128/256/512/1024,单位为KB

LD_size

LD的容量大小

单位为MB

LD_level

LD的RAID级别

physical_id

LD成员盘的physical ID

 

使用实例

# 将LD的条带大小设置为256KB。

[root@localhost ~]# arcconf modify 1 from 0 to stripesize 256 49999 1 0 0 0 1
Controllers found: 1
Reconfiguration of a logical device is a long process.  Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
Reconfiguring logical device: LogicalDrv 0
 
Command completed successfully.

11.8.2.11 通过增加成员盘可用容量扩容RAID

命令功能

在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

命令格式

arcconf modify controller_id from LD_id to LD_size LD_level physical_id physical_id......

 

注意

l     为准确进行扩容,执行该命令前,请提前确认并正确输入RAID级别以及成员盘的physical ID。

l     扩容时需要保证所增加的容量不大于当前LD所在Array剩余容量。

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

LD_id

LD的ID

LD_size

扩容后LD的容量大小

单位为MB

LD_level

LD的RAID级别

physical_id

LD成员盘的physical ID

 

使用实例

# 将LD的容量扩展为89999MB。

[root@localhost ~]# arcconf modify 1 from 0 to  89999 1 0 0 0 1
Controllers found: 1
Reconfiguration of a logical device is a long process.  Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
Reconfiguring logical device: LogicalDrv 0
 
Command completed successfully.

11.8.2.12 通过增加新盘进行扩容

命令功能

在已存在的RAID中添加新硬盘,扩大RAID容量。

通过增加新盘进行扩容分两步进行,先给Array添加硬盘,再进行扩容。

说明

l     RAID1/1ADM/10在加盘扩充中会导致RAID级别升高(依据加入的硬盘数量)。

l     加盘扩容时,RAID0/RAID5/RAID6每次只能增加1个硬盘,RAID50/RAID60每次只能增加2个硬盘,RAID10ADM每次只能增加3个硬盘。

命令格式

arcconf modify controller_id array array_id expand physical_id physical_id......

arcconf modify controller_id from LD_id to LD_size LD_level physical_id physical_id......

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

array_id

Array的id

LD_size

扩容后的RAID容量

physical_id

成员盘的physical ID

 

使用实例

# 为Array添加硬盘。

[root@localhost ~]# arcconf modify 1 array 0 expand 0 2
Controllers found: 1
This will modify the array 0.
 
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
Modifying array: 0
 
Command completed successfully.

# 对LD进行扩容。

[root@localhost ~]# arcconf modify 1 from 0 to  109996 0 0 0 0 1 0 2
Controllers found: 1
Reconfiguration of a logical device is a long process.  Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
Reconfiguring logical device: LogicalDrv 0
 
Command completed successfully.
[root@localhost ~]#

11.8.2.13 迁移RAID级别

命令功能

对RAID级别进行迁移。

说明

l     当RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     迁移只支持增加与RAID组成员盘同类型同规格的硬盘。

l     为防止数据丢失,请在该操作之前备份当前RAID组的数据。

l     只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。

l     迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。

命令格式

arcconf modify controller_id from LD_id to LD_size LD_level physical_id physical_id......

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

LD_id

LD的ID

LD_size

LD迁移前的容量

LD_level

迁移后的LD级别

physical_id

LD成员盘的physical ID

 

使用实例

#从RAID 0迁移到RAID 5。

[root@localhost ~]# arcconf modify 1 from 0 to 305190 5 0 0 0 1 0 6 0 7
Controllers found: 1
Reconfiguration of a logical device is a long process.  Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
Reconfiguring logical device: LogicalDrv 0
 
Command completed successfully.

# 查询迁移进程。

[root@localhost ~]# arcconf getconfig 1 ld
Controllers found: 1
^[[A----------------------------------------------------------------------
Logical device information
----------------------------------------------------------------------
Logical Device number 0
   Logical Device name                      : LogicalDrv 0
   Disk Name                                : /dev/sda
   Block Size of member drives              : 512 Bytes
   Array                                    : 0
   RAID level                               : 5
   Status of Logical Device                 : Optimal(Background Parity Initialization : 51 %)
   Parity Initialization Status             : In Progress
   Size                                     : 305190 MB
   Stripe-unit size                         : 256 KB
   Full Stripe Size                         : 768 KB
   Interface Type                           : SATA SSD
   Device Type                              : Data
   Boot Type                                : None
   Heads                                    : 255
   Sectors Per Track                        : 32
   Cylinders                                : 65535
   Caching                                  : Enabled
   Mount Points                             : Not Applicable
   LD Acceleration Method                   : Controller Cache
   Volume Unique Identifier                 : 600508B1001C7B7C4BBF3ACB01F885BC
   --------------------------------------------------------
   Array Physical Device Information
   --------------------------------------------------------
   Device 0                                 : Present (152627MB, SATA, SSD, Channel:0, Device:0) CVPR1461036N160DGN
   Device 1                                 : Present (1526185MB, SATA, SSD, Channel:0, Device:1) PHDV624000FL1P6EGN
   Device 6                                 : Present (457862MB, SATA, SSD, Channel:0, Device:6)         17501B83246B
   Device 7                                 : Present (915715MB, SATA, SSD, Channel:0, Device:7)         18031A983BCA
 
 
 
 
Command completed successfully.

11.8.2.14 为LD设置热备盘

命令功能

为LD设置热备盘。

命令格式

arcconf setstate controller_id device physical_id hsp array array_id sparetype type

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

physical_id

硬盘的physical ID

array_id

Array的ID

type

热备盘的类型

1 : Dedicated

2 : Autoreplace

说明

热备盘相关介绍请参见11.3.3 硬盘热备份

 

使用实例

# 为LD设置Autoreplace热备盘。

[root@localhost ~]# arcconf setstate 1 device 0 3 hsp array 0 sparetype 2
Controllers found: 1
 
Any existing hot-spare drives of a different sparetype will be removed.
The physical drive used for this operation is connected to Mixed Mode(Smart HBA) connector. Using it will not allow operating system to use the drive contents.
 
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
 
Command completed successfully.
[root@localhost ~]#

11.8.2.15 设置后台任务优先级

命令功能

设置后台任务优先级并使当前任务优先级生效。

后台任务包括后台初始化、RAID重构、迁移、扩容等。

命令格式

arcconf setpriority controller_id priority current

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

priority

后台任务优先级

l     high

l     medium

l     low

 

使用指南

使用实例

# 设置后台任务优先级为“high”并生效。

domino:~# ./arcconf setpriority 1 high current

Controllers found: 1

Command completed successfully.

11.8.2.16 使能和关闭LD的cache功能

命令功能

使能和关闭LD的cache功能。

命令格式

arcconf setcache controller_id logicaldrive LD_id con

arcconf setcache controller_id logicaldrive LD_id coff

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

LD_id

LD的ID

 

使用实例

# 使能LD0的cache功能。

[root@localhost ~]# arcconf setcache 1 logicaldrive 0 con
Controllers found: 1
Cache mode is already set to Enabled.
 
Command aborted.
[root@localhost ~]#

# 关闭LD0的cache功能。

[root@localhost ~]# arcconf setcache 1 logicaldrive 0 coff
Controllers found: 1
 
Command completed successfully.
[root@localhost ~]#

11.8.2.17 设置后台一致性校验的并行个数

命令功能

设置后台一致性校验的并行个数。

命令格式

arcconf consistencycheck controller_id  parallelcount parallelcount_number

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

parallelcount_number

后台一致性校验的并行个数

 

使用实例

# 设置后台一致性校验的并行个数为4。

[root@localhost ~]# arcconf consistencycheck 1 parallelcount 4
Controllers found: 1
 
Command completed successfully.
[root@localhost ~]#
 
 
 CONSISTENCYCHECK <Controller#> PARALLELCOUNT <Count>

11.8.2.18 创建和删除RAID

命令功能

创建、删除RAID。

命令格式

arcconf create controller_id logicaldrive option size level physical_id physical_id......

arcconf delete controller_id logicaldrive ld_id noprompt

参数说明

参数

参数说明

取值

controller_id

RAID控制卡ID

请参照11.8.2.1 查询RAID控制卡的基本信息获取RAID控制卡的controller_id

controller_id从1开始排序,如果有多张RAID控制卡,将按照1,2,3...的方式进行排序。

option

要创建的LD的相关属性,具体请参见表11-37

size

LD的容量大小。

单位为MB,设置时只输入数字即可,如数值设为“1024”,则表示虚拟磁盘的容量为1024MB。

如果设置为“MAX”,表示使用硬盘的所有容量创建虚拟磁盘。

level

要创建的LD的级别。

支持的RAID级别请参照11.3.1 支持多种RAID级别

physical_id

LD成员盘的physical ID

请参照11.8.2.2 查询物理硬盘、Array、LD、maxCache等相关信息获取物理硬盘的ID。

ld_id

虚拟磁盘ID

请参照11.8.2.2 查询物理硬盘、Array、LD、maxCache等相关信息获取虚拟磁盘的ID。

 

表11-37 option

可设置属性

说明

取值

Stripesize

LD的条带大小

16/32/64/128/256/512/1024

Legs

LD的NPG,只在创建RAID 50和RAID 60时可设置。

Name

LD的名称。

Method

LD的初始化的方式。

l     BUILD

l     DEFAULT

Wcache

即IO Bypass,只在创建maxCache时可设置。

l     WT:write-through (Disabled)

l     WB:write-back (Enabled)

LDcache

即Controller Cache。

SSDOverProvisioningOptimization

SSD的特性。

l     enable

l     disable

说明

l     只有当RAID组由SSD组成时,才能设置该属性。

l     该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。

DataLD

被加速的LD的ID。

 

使用指南

使用实例

# 创建RAID 50。

[root@localhost ~]# arcconf create 1 logicaldrive stripesize 256 legs 2 name vd1 method default  ldcache lon    MAX  50  0 0 0 1 0 2 0 3 0 4 0 5
Controllers found: 1
Space will be wasted as devices specified are of different sizes.
 
Do you want to add a logical device to the configuration?
Press y, then ENTER to continue or press ENTER to abort: y
 
Creating logical device: vd1
 
Command completed successfully.

# 删除ID为0的虚拟磁盘。

[root@localhost ~]# arcconf delete 1 logicaldrive 0 noprompt
Controllers found: 1
 
WARNING: Deleting this logical device will automatically delete array 0 because it is the only logical device present on that array.
All data in logical device 0 will be lost.
Deleting: logical device 0 ("Logical Drive 1")
arr
Command completed successfully.

11.8.2.19 创建MaxCache

命令功能

创建MaxCache。

命令格式

arcconf create controller_id maxcache wcache policy datald LD_id size level physical_id physical_id......

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

policy

maxCache的加速策略

wt:设置不为LD进行加速

wb:设置为LD进行加速

LD_id

被加速的LD的ID

size

maxCache 的容量

level

maxCache的级别

0/1/10/5

physical_id

硬盘的physical ID

 

使用实例

# 创建级别为RAID 1的MaxCache。

[root@localhost ~]# arcconf create 1 maxcache  wcache wb datald 0 17000 1 0 0  0 1
Controllers found: 1
Space will be wasted as devices specified are of different sizes.
 
After maxCache creation, the following operations are not allowed on the controller.
 MODIFY on logical device and Array
 SPLITMIRROR on array
 CACHERATIO on controller
 
Do you want to add a logical device to the configuration?
Press y, then ENTER to continue or press ENTER to abort: y
 
Creating maxCache
 
Command completed successfully.
[root@localhost ~]#

11.8.2.20 设置RAID控制卡的读写比例

命令功能

设置RAID控制卡的读写比例。

命令格式

arcconf setcache controller_id cacheratio read write

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

read

读cache的比例

0~100

write

写cache的比例

0~100

 

说明

读cache的比例与写cache的比例总和应为100。

使用实例

# 设置读cache的比例与写cache的比例各为50%。

[root@localhost ~]# arcconf setcache 1 cacheratio 50 50
Controllers found: 1
 
Command completed successfully.
[root@localhost ~]#

11.8.2.21 无电容状态下使用cache

命令功能

该命令允许在没有电容的状态下使用控制器cache。

 

警告

在没有电容的状态下使用控制器cache时,一旦掉电,会导致数据丢失,请谨慎使用该命令。

命令格式

arcconf setcache controller_id nobatterywritecache enable

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

 

使用实例

# 设置无电容状态下使用cache。

[root@localhost ~]# arcconf setcache 1 nobatterywritecache enable
Controllers found: 1
WARNING : Enabling write caching on a cache module without a fully charged battery or capacitor could cause data loss in the event of a power failure.
 
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
 
Command completed successfully.
[root@localhost ~]#

11.8.2.22 使能一致性校验的修复策略

命令功能

使能一致性校验的修复策略。

命令格式

arcconf consistencycheck controller_id inconsistencyrepairpolicy enable

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

 

使用实例

# 使能一致性校验的修复策略。

[root@localhost ~]# arcconf consistencycheck 1 inconsistencyrepairpolicy enable
Controllers found: 1
 
Command completed successfully.
[root@localhost ~]#

11.8.2.23 使能一致性校验生成调试信息并发出通知

命令功能

使能一致性校验生成调试信息并发出通知。

命令格式

arcconf consistencycheck controller_id eventnotify enable

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

 

使用实例

# 使能一致性校验生成调试信息并发出通知。

[root@localhost ~]# arcconf consistencycheck 1 eventnotify enable
Controllers found: 1
 
Command completed successfully.
[root@localhost ~]#
 
 
 CONSISTENCYCHECK <Controller#> EVENTNOTIFY <Enable | Disable>

11.8.2.24 关闭一致性校验

命令功能

关闭一致性校验功能。

命令格式

arcconf consistencycheck controller_id off

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

 

使用实例

# 关闭一致性校验功能。

[root@localhost ~]# arcconf consistencycheck 1 off
Controllers found: 1
 
Command completed successfully.
 
 
 
CONSISTENCYCHECK <Controller#> <On [Delay]|Off> [noprompt] [nologs]

11.8.2.25 查询和设置硬盘写Cache策略

命令功能

查询、设置硬盘写Cache策略。

命令格式

arcconf getconfig controller_id ad

arcconf setcache controller_id drivewritecachepolicy drivetype cachepolicy drivetype cachepolicy...

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

drivetype

要设置写Cache策略的硬盘类型

l     Configured:设置RAID/Mixed模式下RAID组成员盘的写Cache策略。

l     Unconfigured:设置RAID/Mixed模式下非RAID组成员盘的写Cache策略。

l     HBA:设置HBA模式下硬盘的写Cache策略。

cachepolicy

硬盘写Cache策略

l     0:Default(将硬盘的写Cache保持为默认状态)

l     1:Enabled(打开硬盘的写Cache功能)

l     2:Disabled(关闭硬盘的写Cache功能)

 

使用实例

# 设置Configured状态的硬盘Cache写策略为Enabled,设置Unconfigured状态的硬盘Cache写策略为Disabled。

[root@localhost ~]# ./arcconf setcache 1 drivewritecachepolicy Configured 1 Unconfigured 2
Controllers found: 1
Enabling controller drive write cache can increase write performance but risks losing the data in the cache on sudden loss.
 
Command completed successfully.

# 查询当前的硬盘写Cache策略

[root@localhost ~]# ./arcconf getconfig 1 ad
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
   Controller Statue             : Optimal
   Controller Mode               :Mixed
   Channle description           :SCSI
  
...
----------------------------------------------------------------------
Physical Drive Write Cache Policy Information 
----------------------------------------------------------------------
Configured Drives                :Enabled
Unconfigured Drives              :Disabled
HBA Drives                       :Default
----------------------------------------------------------------------
...

11.8.2.26 收集FW日志

命令功能

收集RAID控制卡的Firmware日志。

命令格式

arcconf SAVESUPPORTARCHIVE

使用实例

# 收集RAID控制卡的Firmware日志。

[root@linux /]# arcconf SAVESUPPORTARCHIVE
Controllers found: 1
 
 Usage: SAVESUPPORTARCHIVE [Path] [Firmware|GUI|Arcconf|Storlib|Basecode|Redfish]
 Example: SAVESUPPORTARCHIVE C:\Adaptec\maxView Firmware
 Example: SAVESUPPORTARCHIVE /var/log/maxView Storlib
 Example: SAVESUPPORTARCHIVE
 Example: SAVESUPPORTARCHIVE .
 ===================================================================================
 
 Saves  all the logs
    Path          : directory other than default
    Firmware      : saves Firmware logs
    GUI           : saves GUI logs
    Arcconf       : saves Arcconf logs
    StorLib       : saves StorLib logs
    Basecode      : saves Basecode logs
    Redfish       : saves Redfish logs
 
The path is not specified, Using the default.
The logs are saved in relevant folders in /var/log/Support
 
Command completed successfully.


12 MSCC SmartHBA 2100-8i

关于本章

介绍MSCC SmartHBA 2100-8i RAID控制卡的外观、特性、以及配置方法。

本章节涉及的截图以1.61 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

12.1  概述

12.2  硬盘状态

12.3  功能

12.4  初始配置

12.5  常用任务

12.6  故障处理

12.7  管理界面介绍

12.8  OS命令行工具

12.1 概述

MSCC SmartHBA 2100-8i控制卡(以下简称2100-8i)提供2个12Gbit/s的mini SAS HD接口,支持PCIe 3.0接口,并支持最多8个phy。

2100-8i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

2100-8i的结构如图12-1所示。

图12-1 2100-8i外观

 

12.2 硬盘状态

RAID控制卡下属的物理硬盘有如表12-1所示的状态。

表12-1 物理硬盘状态

状态

说明

Online

硬盘为某个虚拟磁盘的成员盘,可正常使用,处于在线状态。

Hot Spare

被设置为热备盘。

Failed

当“Online”状态或“Hot Spare”状态的硬盘出现不可恢复的错误时,会体现为此状态。

Rebuilding

硬盘正在进行数据重构,此时硬盘的性能会受一定程度的影响。

Not Supported

当前的RAID控制卡不支持该硬盘,需要更换成RAID控制卡支持的硬盘。

Raw(Pass Through)

HBA模式下的裸盘。

Ready

硬盘可用于配置RAID组。

Mixed模式下的直通盘也会显示为该状态。

Predictive Failure

硬盘即将变为Failed状态,应备份硬盘上的数据,并更换硬盘。

Erase In Progress

硬盘正在进行擦除。

 

RAID控制卡下创建的RAID组有如表12-2所示的状态。

表12-2 RAID组状态

状态

说明

Optimal

RAID组状态良好,所有成员盘均在线。

Failed

故障或离线的硬盘数超过了RAID组可容忍的坏盘数。

Interim Recovery

RAID组降级,因为RAID组中存在故障盘,使得RAID组运行性能降低,数据可能丢失。要解决此问题,请检查硬盘是否正确连接设备,或更换故障的硬盘。

Rebuilding

RAID组正在从容错数据盘中进行重构。

Ready for Rebuild

准备执行重构。

 

12.3 功能

12.3.1 支持多种RAID级别

2100-8i最多支持238个硬盘,最多支持64个Array,每个Array最多支持64个LD(Logical Drive),整张RAID控制卡所有Array最多支持64个LD。

说明

Array即通常所说的硬盘组,每个Array可以包括1个或多个LD。

2100-8i支持的RAID级别及对应的硬盘个数如表12-3所示。

表12-3 RAID-硬盘参数

RAID级别

支持硬盘数

允许坏盘数

RAID 0

1 ~ 128

0

RAID 1

2

1

RAID 10

4 ~ 128 (偶数)

子组数(每个子组里最多只允许坏1个盘)

 

说明

l     子组数:子RAID的个数,例如RAID 10由两个RAID 1组成,则子组数为2。

l     不支持RAID 5级别。

12.3.2 支持多种工作模式

2100-8iRAID控制卡支持三种工作模式,具体如下:

l     RAID模式:控制器下的逻辑盘会上报OS,但直通盘不会报送给OS。即在该模式下,硬盘必须先加入RAID组才可以在OS下使用。

l     HBA模式:控制器的所有RAID功能都被禁用,控制器下所有硬盘被视为直通盘。该模式下,硬盘以直通方式使用。

l     Mixed模式:RAID逻辑盘和直通盘都会报送给OS。即该模式支持硬盘以RAID方式和直通方式使用。

默认为“Mixed”模式。

12.3.3 硬盘热备份

热备盘是用于替代Array故障成员盘的硬盘,在成员盘故障时承载故障盘中的数据。

2100-8i支持创建最多32个热备盘,一个Array下最多支持创建4个热备盘,使Array在有一个或多个与热备盘同类型的成员盘故障的情况下,可以由热备盘替代,防止Array的数据丢失和状态进一步恶化。

2100-8i支持dedicated spare和auto replace spare两种类型的热备盘:

l     dedicated spare:dedicated模式的热备盘会作为Array的固定热备盘。当Array中某个硬盘发生故障,dedicated模式的热备盘会替代损坏盘并利用其他成员盘和冗余数据重构,生成损坏盘的数据。更换新的硬盘之后,新加入的硬盘会利用其它成员盘和数据继续重构,恢复Array的状态。Array的状态恢复完成后,热备盘恢复原始状态。该模式下的热备盘可以手动与所有的Array进行关联,即作为全局热备盘。

l     auto replace spare:Array中某个硬盘发生故障时,auto replace模式的热备盘会替代故障盘并利用其他成员盘和冗余数据重构,生成故障盘的数据。当更换新的硬盘之后,原始热备盘中的数据继续作为Array的成员盘被使用,而新更换的硬盘将作为新的“热备盘”。该模式下的热备盘只能作为某一个Array的热备盘,即局部热备盘,不能作全局热备盘。

说明

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SAS和SATA两种接口的硬盘,其中当Array的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入Array的硬盘不能配置为热备盘。

l     热备盘必须和Array的成员盘类型相同,且容量不小于Array成员盘最大容量。

12.3.4 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下取出和更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

说明

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

12.3.5 重构

具备冗余功能的Array的成员盘故障之后,热备盘自动替换故障数据盘并开始同步。

说明

重构过程中如果服务器出现重启、下电再上电的情况,服务器上电后,重构将会从零重新开始。

12.3.6 硬盘分条

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数和数据传输率有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待,这时就是所谓的硬盘冲突。

条带化技术是一种自动将I/O负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

影响条带化效果的因素有:

l     条带宽度:指同时可以并发读或写的条带数量。

这个数量等于Array中的物理硬盘数量。增加条带宽度,可以增加Array的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。

在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。

l     条带大小:指写在每块硬盘上的条带数据块的大小。

硬盘分条即把Array中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。

2100-8i支持多种条带大小,包括16KiB、32KiB、64KiB、128KiB、256KiB、512KiB、1024KiB,默认条带大小为256KiB。

12.3.7 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

2100-8i可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在2100-8i下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。

说明

直通模式下的硬盘发生故障时(通常指硬盘本身健康状态不佳),硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

12.3.8 擦除硬盘数据

2100-8i下挂载的硬盘支持“Erase Disk”,即安全擦除指定硬盘。Erase Disk格式化彻底、耗时长。

数据擦除过程中,不能执行关机,重启,插拔硬盘等操作,否则会导致硬盘被损坏。

 

注意

擦除数据完成后,所有的硬盘数据会被清除。请谨慎执行该操作。

12.3.9 外部配置导入

当包含RAID配置信息的硬盘插入服务器后,服务器在启动过程中识别到当前硬盘配置符合该外部配置要求时,自动导入外部配置。

12.4 初始配置

BIOS中“Boot Type”设置为“UEFI Boot”模式时,打开的管理界面如下所述。

文档中描述的关于2100-8i的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“ARCCONF”命令行工具。

12.4.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如图12-2所示界面时,按“Delete”。

图12-2 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如图12-3所示界面。

图12-3 Setup Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如图12-4所示。

图12-4 “Advanced”页签

 

                                步骤 5     选择“MSCC SmartHBA 2100-8i”,按“Enter”。

进入如图12-5所示界面,参数说明如表12-4所示。

图12-5 MSCC SmartHBA 2100-8i控制器主界面

 

表12-4 参数说明

参数

说明

Controller Information

查看控制器相关的基本信息。

Configure Controller Settings

设置控制器的相关属性。

Array Configuration

创建与管理Array。

Disk Utilities

查看与管理控制器的硬盘。

Set Bootable Device(s) for Legacy Boot Mode

设置控制器在Legacy模式下的第一启动盘与第二启动盘。

Administration

控制器的其他相关操作,包括更新Firmware,收集RAID控制卡日志,恢复RAID控制卡参数为出厂配置等。

 

----结束

12.4.2 创建RAID 0

操作场景

 

注意

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见12.5.5 设置RAID控制卡工作模式。

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     2100-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见12.3.1 支持多种RAID级别。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见12.4.1 登录管理界面。

                                步骤 1     在图12-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择“Create Array”并按Enter。

进入成员盘选择界面,如图12-6所示。

图12-6 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array。

说明

l     硬盘状态为“×”时表示硬盘被选中。

l     创建RAID 0支持的硬盘个数为1~128。

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如图12-7所示。

图12-7 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID0”,并选择“Proceed to next Form”。

进入Array属性配置界面,如图12-8所示,参数说明如表12-5所示。

图12-8 配置Array属性

 

表12-5 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size。

Size

整个LD的容量大小。

Unit size

LD的容量计算单位。

l     TiB

l     GiB

l     MiB

Acceleration method

设置LD所采用的加速方法。

l     IO Bypass(只有当LD由SSD组成时,该选项有效)

l     None(禁用加速)

Submit Changes

确认修改。

 

                                步骤 6     按照表12-5所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 7     (可选)创建多个LD。

说明

在Array未占用成员硬盘全部容量时,才可进行此操作。

1.     在图12-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图12-9所示。

图12-9 Manage Arrays

 

2.     选择要创建多个LD的Array并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤7

说明

此处根据实际需求,可创建多个LD。每个Array最多支持128LD

                                步骤 8     检查配置结果。具体操作请参见12.5.1 查看Array属性。

                                步骤 9     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见12.5.6 设置物理硬盘Cache。

----结束

12.4.3 创建RAID 1

操作场景

 

注意

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见12.5.5 设置RAID控制卡工作模式。

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     2100-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见12.3.1 支持多种RAID级别。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见12.4.1 登录管理界面。

                                步骤 1     在图12-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create Array。

进入成员盘选择界面,如图12-10所示。

图12-10 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array。

说明

l     硬盘状态为“×”时表示硬盘被选中。

l     RAID 1支持的硬盘个数为2。

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如图12-11所示。

图12-11 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID1”,并选择“Proceed to next Form”。

进入Array属性配置界面,如图12-12所示,参数说明如表12-6所示。

图12-12 配置Array属性

 

表12-6 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size。

Size

整个LD的容量大小。

Unit size

LD的容量计算单位。

l     TiB

l     GiB

l     MiB

Acceleration method

设置LD所采用的加速方法。

l     IO Bypass(只有当LD由SSD组成时,该选项有效)

l     None(禁用加速)

Submit Changes

确认修改。

 

                                步骤 6     按照表12-6所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 7     (可选)创建多个LD。

说明

在Array未占用成员硬盘全部容量时,才可进行此操作。

1.     在图12-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图12-13所示。

图12-13 Manage Arrays

 

2.     选择要创建多个LD的Array并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤7

说明

此处根据实际需求,可创建多个LD。每个Array最多支持128LD

                                步骤 8     检查配置结果。具体操作请参见12.5.1 查看Array属性。

                                步骤 9     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见12.5.6 设置物理硬盘Cache。

----结束

12.4.4 创建RAID 10

操作场景

 

注意

l     创建RAID组之前请先确认已将RAID控制卡的工作模式设置为“RAID”或“Mixed”,具体设置方法请参见12.5.5 设置RAID控制卡工作模式。

l     加入到Array的硬盘数据将会被清除,创建Array前请确认硬盘中无数据或数据不需要保留。

l     2100-8i支持的硬盘类型为SAS/SATA HDD和SATA SSD,同一Array必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。建议RAID组下每个成员盘型号、容量保持一致。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见12.3.1 支持多种RAID级别。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见12.4.1 登录管理界面。

                                步骤 1     在图12-5界面中,选择“Array Configuration”。

进入“Array Configuration”界面。

                                步骤 2     选择Create Array。

进入成员盘选择界面,如图12-14所示。

图12-14 添加成员盘

 

                                步骤 3     选中硬盘后,按“Enter”键,将硬盘加入Array。

说明

l     硬盘状态为“×”时表示硬盘被选中。

l     RAID 10支持的硬盘个数为4~128且必须为偶数。

                                步骤 4     选择“Proceed to next Form”并按“Enter”。

进入RAID级别选择界面,如图12-15所示。

图12-15 选择RAID级别

 

                                步骤 5     选择要配置的Array级别“RAID1+0”,并选择“Proceed to next Form”。

进入Array属性配置界面,如图12-16所示,参数说明如表12-7所示。

图12-16 配置Array属性

 

表12-7 参数说明

参数

说明

Logical Drive Label

LD的自定义标签。

Strip Size/Full Stripe Size

l     Strip Size:单个物理盘的条带大小,可设置为16KiB/32KiB/64KiB/128KiB/256KiB/512KiB/1024KiB,默认值为256KiB。

l     Full Stripe Size:整个LD的分条大小。

l     当设定Strip Size后,系统会自动计算出Full Stripe Size。

Size

整个LD的容量大小。

Unit size

LD的容量计算单位。

l     TiB

l     GiB

l     MiB

Acceleration method

设置LD所采用的加速方法。

l     IO Bypass(只有当LD由SSD组成时,该选项有效)

l     None(禁用加速)

Submit Changes

确认修改。

 

                                步骤 6     按照表12-7所述配置Array属性,选择“Submit Changes”并按“Enter”。

提示创建成功。按“Enter”返回主界面。

                                步骤 7     (可选)创建多个LD。

说明

Array未占用成员硬盘全部容量时,才可进行此操作。

1.     在图12-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入Array管理界面,如图12-17所示。

图12-17 Manage Arrays

 

2.     选择要创建多个LD的Array并按“Enter”。

3.     选择“Create Logical Drives”并按“Enter”。

4.     重复步骤6~步骤7

说明

此处根据实际需求,可创建多个LD。每个Array最多支持128LD

                                步骤 8     检查配置结果。具体操作请参见12.5.1 查看Array属性。

                                步骤 9     (可选)创建完Array后,可设置Array成员盘的写Cache状态,具体方法请参见12.5.6 设置物理硬盘Cache。

----结束

12.5 常用任务

12.5.1 查看Array属性

操作步骤

图12-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入

进入“Manage Arrays”界面,如图12-18所示。

图12-18 “Manage Arrays”界面

 

                                步骤 2     选择要进行查看的Array,并按“Enter”。

进入Array操作界面,如图12-19所示,参数说明如表12-8所示。

图12-19 Array相关操作

 

表12-8 参数说明

参数

说明

Array Type

Array的类型,通常显示为“Data”,表示Array是数据盘。

List Logical Drives

逻辑盘相关的接口,可查看、修改逻辑盘的属性,删除逻辑盘等。

Create Logical Drive

创建逻辑盘。

Manage Spare Drives

热备盘相关的接口,可创建,删除热备盘等。

Identify Device

点亮/熄灭整个Array所有硬盘的locate灯。

Delete Array

删除Array。

 

----结束

查看LD的属性

图12-19中选择“List Logical Drive”并按“Enter”。

进入LD列表。

                                步骤 1     选择要进行查看的LD并按“Enter”。

进入LD相关操作界面,如图12-20所示,参数说明如表12-9所示。

图12-20 LD相关操作

 

表12-9 参数说明

参数

说明

Logical Drive Details

查看LD的相关属性。

Edit Logical Drive

修改LD的相关属性。

Delete Logical Drive

删除LD。

 

                                步骤 2     选择“Logical Drive Details”并按“Enter”。

显示LD的相关属性,如图12-21所示,界面参数如表12-10所示。

图12-21 LD相关属性

 

表12-10 参数说明

参数

说明

Status

当前LD的状态。

Size

整个LD的容量大小。

RAID Level

当前LD的RAID级别。

Legacy Disk Geometry(C/H/S)

当前LD所处的硬盘几何位置。

Strip Size

整个LD的单个子组条带大小。

Full Stripe Size

整个LD的分条大小。

Logical Drive Label

LD的自定义标签。

Acceleration Method

LD的加速方法。

l     IO Bypass(只有当LD由SSD组成时,该选项有效)

l     None(禁用加速)

Logical Drive Members

LD的物理成员盘。

 

----结束

12.5.2 配置热备盘

操作场景

对服务器的硬盘进行Array分组后,一般会配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

说明

l     2100-8i支持dedicated spare和auto replace spare两种类型的热备盘,具体介绍请参见12.3.3 硬盘热备份。

l     只有当“Spare Activation Mode”(热备盘的激活模式)设置为“Predictive Spare Activation”时,RAID0才支持配置热备盘。具体方法请参见12.7.3.1 Modify Controller Settings。

必备事项

前提条件

l     服务器存在空闲硬盘。

l     已登录管理界面,具体操作请参见12.4.1 登录管理界面。

数据

该操作无需准备数据。

操作步骤

图12-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入

进入“Manage Arrays”界面,如图12-22所示。

图12-22 “Manage Arrays”界面

 

                                步骤 2     选择要创建热备盘的Array并按“Enter”。

                                步骤 3     选择“Manage Spare Drives”并按“Enter”。

进入热备盘类型选择界面,如图12-23所示,参数说明如表12-11所示。

图12-23 选择热备盘类型

 

表12-11 参数说明

参数

说明

Assign Dedicated Spare

设置硬盘为dedicated spare drive。

dedicated模式的热备盘会作为Array的固定热备盘。当Array中某个硬盘发生故障,dedicated模式的热备盘会替代损坏盘并利用其他成员盘和冗余数据重构,生成损坏盘的数据。更换新的硬盘之后,新加入的硬盘会利用其它成员盘和数据继续重构,恢复Array的状态。Array的状态恢复完成后,热备盘恢复原始状态。

该模式下的热备盘可以手动与所有的Array进行关联,即作为全局热备盘。

Assign Auto Replace Spare

设置硬盘为auto replace drives。

该模式下,Array中某个硬盘发生故障时,auto replace模式的热备盘会替代故障盘并利用其他成员盘和冗余数据重构,生成故障盘的数据。当更换新的硬盘之后,原始热备盘中的数据继续作为Array的成员盘被使用,而新更换的硬盘将作为新的“热备盘”。

该模式下的热备盘只能作为某一个Array的热备盘,即局部热备盘,不能作全局热备盘。

 

                                步骤 4     按照表12-11所述,选择要设置的热备盘类型,并按“Enter”。

进入硬盘选择界面。

                                步骤 5     选择要设置的硬盘并按“Enter”。

说明

没有加入Array且与Array成员盘类型一致的硬盘可设置为热备盘。建议使用与Array的成员盘型号、容量一致的硬盘作为热备盘。

                                步骤 6     选择“Assign Dedicated Spare”或“Assign Auto Replace Spare”并按“Enter”。

提示操作成功。

----结束

12.5.3 删除热备盘

操作场景

当环境中硬盘个数不满足业务需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

操作步骤

图12-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入

进入“Manage Arrays”界面,如图12-24所示。

图12-24 “Manage Arrays”界面

 

                                步骤 2     选择要进行操作的Array并按“Enter”。

                                步骤 3     选择“Manage Spare Drives”并按“Enter”。

进入“Manage Spare Drives”界面,如图12-25所示。

图12-25 Manage Spare Drives

 

                                步骤 4     选择“Delete Spare Drives”并按“Enter”。

进入硬盘选择界面,如图12-26所示。

图12-26 选择硬盘

 

                                步骤 5     选择要删除的热备盘并按“Enter”。

                                步骤 6     选择“Delete Spare Drives”并按“Enter”。

提示操作成功。

----结束

12.5.4 删除Array

操作场景

当服务器不需要Array或需要重新配置Array时,要先删除当前Array配置来释放硬盘。

 

小心

删除Array后,Array上的所有数据和Array下的所有LD都将被删除,请谨慎执行删除Array操作。

必备事项

前提条件

l     已创建Array。

l     已登录管理界面,具体操作请参见12.4.1 登录管理界面。

数据

待删除Array中的数据已备份。

操作步骤

图12-5界面中,按照“Array Configuration>Manage Arrays”的顺序进入“Manage Arrays”界面,如图12-27所示。

图12-27 “Manage Arrays”界面

 

                                步骤 2     选择要删除的Array并按“Enter”。

                                步骤 3     选择“Delete Array”并按“Enter”。

进入操作确认界面。

 

注意

删除Array后,Array上的所有数据和Array下的所有LD都将被删除,请谨慎执行删除Array操作。

                                步骤 4     按“Enter”。

提示操作成功。

----结束

12.5.5 设置RAID控制卡工作模式

说明

l     当背板类型为直通背板时,可通过本章节的指导,分别设置Connector 0和Connector 1的工作模式,也可通过设置“Configure Controller Port Mode”参数,将所有Connector的工作模式同时设置为同一模式。具体操作请参见12.7.3.6 Configure Controller Port Mode。

l     当背板类型为Expander时,只能通过设置“Configure Controller Port Mode”参数,将RAID控制卡的工作模式同时设置为同一模式。具体操作请参见12.7.3.6 Configure Controller Port Mode。

操作步骤

进入“Modify Controller Settings”界面。

图12-5界面中,按照“Configure Controller Settings>Modify Controller Settings”的顺序进入“Modify Controller Settings”界面,如图12-28所示。

图12-28 “Modify Controller Settings”界面

 

说明

当背板类型为直通背板时,才会显示“Port CN0 Mode”和“Port CN1 Mode”参数。

                                步骤 2     设置Connector 0的工作模式。

1.     选择“Port CN0 Mode”并按“Enter”。

弹出工作模式选择菜单。

说明

l     2100-8i支持三种工作模式,分别为:

l     RAID:控制器所有的RAID功能都被启用,但直通盘不会报送给OS。

l     Mixed:RAID逻辑盘和直通盘都会报送给OS。

l     HBA:controller所有的RAID功能都被禁用,控制器下所有硬盘均被视为直通盘。

l     当配置有RAID组时,不支持将RAID控制卡的工作模式切换成HBA模式。

l     默认为“Mixed”模式。

2.     根据实际需要选择要设置的工作模式,并按“Enter”。

                                步骤 3     设置Connector 1的工作模式。

1.     选择“Port CN1 Mode”并按“Enter”。

2.     根据实际需要选择要设置的工作模式,并按“Enter”。

说明

两个Connector Port如果接在同一块expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。

                                步骤 4     选择“Submit Changes”并按“Enter”。

提示操作成功。

----结束

12.5.6 设置物理硬盘Cache

操作步骤

图12-5界面中,按照“Configure Controller Settings”>“Modify Controller Settings”>的顺序进入“Modify Controller Settings”界面,如图12-29所示,参数说明如表12-12所示。

图12-29 Modify Controller Settings

 

表12-12 参数说明

参数

说明

Transformation Priority

设置Array扩展、逻辑盘扩展、逻辑盘迁移、Array收缩/迁移等操作的优先级,分为High/Medium/Low三个选项。

默认取值为“Medium”。

说明

该选项设置为“high”时,会抢占I/O资源,影响读写I/O性能,建议用户保持默认取值。

Rebuild Priority

设置逻辑盘重构的优先级,分为Low/Medium/Medium High/High四个选项。

默认取值为“High”。

Surface Scan Analysis Priority

设置两次硬盘表面扫描的时间间隔,硬盘表面扫描主要是检查硬盘健康状态。

可选项为0~31,默认值为3,数字表示Controller在下一次Surface Scan Analysis之前的延迟时间,单位为秒。0表示禁用硬盘表面扫描功能。

Current Parallel Surface Scan Count

设置同时启动硬盘表面扫描进程的数量,取值范围为1~16,默认值为1。设置为1时表示禁用硬盘表面扫描功能。

Spare Activation Mode

设置热备盘的激活模式,可选模式有:

l     Failure Spare Activation

l     Predictive Spare Activation

默认取值为“Failure Spare Activation”。

Unconfigured Physical Drive Write Cache State

设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

HBA Physical Drive Write Cache State

设置HBA模式下硬盘的写Cache状态

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

Configured Physical Drive Write Cache State

设置RAID/Mixed模式下RAID组成员盘的写Cache状态。

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

Port CN0 Mode

设置Connector 0端口的模式,有以下三种模式:

l     RAID模式:控制器下的LD会上报OS,但直通盘不会报送给OS。即在该模式下,硬盘必须先加入RAID组才可以在OS下使用。

l     HBA模式:控制器的所有RAID功能都被禁用,所有关联的设备都被视为直通盘。该模式下,硬盘以直通方式使用。

l     Mixed模式:RAID逻辑盘和直通盘都会报送给OS。即该模式支持硬盘以RAID方式和直通方式使用。

说明

l     当背板类型为直通背板时,才会显示该参数。

l     两个Connector Port如果接在同一块Expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。

Port CN1 Mode

设置Connector 1端口的模式,有以下三种模式:

l     RAID模式:控制器下的LD会上报OS,但直通盘不会报送给OS。即在该模式下,硬盘必须先加入RAID组才可以在OS下使用。

l     HBA模式:控制器的所有RAID功能都被禁用,所有关联的设备都被视为直通盘。该模式下,硬盘以直通方式使用。

l     Mixed模式:RAID逻辑盘和直通盘都会报送给OS。即该模式支持硬盘以RAID方式和直通方式使用。

说明

l     当背板类型为直通背板时,才会显示该参数。

l     两个Connector Port如果接在同一块Expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。

Submit Changes

确认修改。

 

说明

l     如果要设置RAID/Mixed模式下非RAID组成员盘的写Cache状态,请执行步骤2

l     如果要设置HBA模式下硬盘的写Cache状态,请执行步骤3

l     如果要设置RAID/Mixed模式下RAID组成员盘的写Cache状态,请执行步骤4

                                步骤 2     设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。

1.     选择“Unconfigured Physical Drive Write Cache State”并按“Enter”。

2.     参考表12-12的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。

3.     选择“Submit Changes”并按“Enter”。

提示操作成功。

                                步骤 3     设置HBA模式下硬盘的写Cache状态。

1.     选择“HBA Physical Drive Write Cache State”并按“Enter”。

2.     参考表12-12的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。

3.     选择“Submit Changes”并按“Enter”。

提示操作成功。

                                步骤 4     设置RAID/Mixed模式下RAID组成员盘的写Cache状态。

1.     选择“Configured Physical Drive Write Cache State”并按“Enter”。

2.     参考表12-12的说明,在弹出的菜单中选择要设置的硬盘写Cache状态,并按“Enter”。

3.     选择“Submit Changes”并按“Enter”。

提示操作成功。

----结束

12.5.7 查询RAID控制卡固件版本

查询RAID控制卡固件版本的方法有如下几种:

l     在iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。

l     服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见12.8.2.3 查询RAID控制卡的FW和驱动版本。

说明

回显信息中的“Firmware”字段即为RAID控制卡的固件版本。

l     在RAID控制卡管理界面进行查询,具体方法为:

a.     登录RAID控制卡的管理界面,具体操作请参见12.4.1 登录管理界面。

b.     在主界面中选择“Controller Information”并按“Enter”。

显示RAID控制卡基本信息。界面中的“Firmware version”即为RAID控制卡的固件版本,如图12-30所示。

图12-30 Controller Information界面

 

12.6 故障处理

介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

12.6.1 硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘Fault指示灯点亮。

l     硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

说明

直通模式下的硬盘发生故障时(通常指硬盘本身健康状态不佳),硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

处理方法

说明

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位。

l     新硬盘必须与RAID组成员盘类型一致且容量不小于RAID组成员盘的容量。

l     更换RAID组的硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组(RAID0除外)重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

判断硬盘故障后,数据是否可恢复。

l     若RAID组为RAID 0,则数据不可恢复。直接安装新硬盘,重新配置RAID,操作完成。

l     若RAID组未失效且存在可用热备盘,则热备盘自动替代故障盘,进入Rebuild状态同步数据。

l     若RAID组为冗余未失效的RAID配置且不存在可用热备盘,则需要安装新硬盘进行数据恢复。

                                步骤 1     拔掉故障硬盘。

                                步骤 2     插入新硬盘。

l     若插入的硬盘无数据,则根据原RAID情况有如下工作方式:

     若原RAID组存在热备盘且已完成了数据重构,热备盘数据自动拷贝至新插入的硬盘中。原热备盘恢复热备状态,操作完成。

     若RAID组为冗余未失效的RAID配置且不存在可用热备盘,新插入的硬盘自动执行Rebuild操作重构故障硬盘数据,操作完成。

l     若插入的硬盘存在RAID信息,请执行步骤4

                                步骤 3     对插入的硬盘执行安全擦除操作。

                                步骤 4     手动重构RAID。

----结束

12.6.2 RAID控制卡故障

问题描述

当服务器出现如下现象时,说明RAID控制卡故障。

l     服务器上报RAID控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     查询兼容性查询助手或者联系技术支持处理。

----结束

12.7 管理界面介绍

12.7.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如图12-31所示界面时,按“Delete”。

图12-31 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如图12-32所示界面。

图12-32 Setup Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如图12-33所示。

图12-33 “Advanced”页签

 

                                步骤 5     选择“MSCC SmartHBA 2100-8i”,按“Enter”。

进入如图12-34所示界面,参数说明如表12-13所示。

图12-34 MSCC SmartHBA 2100-8i控制器主界面

 

表12-13 参数说明

参数

说明

Controller Information

查看控制器相关的基本信息。

Configure Controller Settings

设置控制器的相关属性。

Array Configuration

创建与管理Array。

Disk Utilities

查看与管理控制器的硬盘。

Set Bootable Device(s) for Legacy Boot Mode

设置控制器在Legacy模式下的第一启动盘与第二启动盘。

Administration

控制器的其他相关操作,包括更新Firmware,收集RAID控制卡日志,恢复RAID控制卡参数为出厂配置等。

 

----结束

12.7.2 Controller Information

在“Controller Information”界面中,可以查看控制器相关的基本信息。

界面介绍

在如图12-5所示的主界面中选择“Controller Information”,打开“Controller Information”界面,如图12-35所示,参数说明如表12-14所示。

图12-35 “Controller Information”界面

 

表12-14 参数说明

参数

说明

Controller

RAID控制卡的名称。

Device Id

设备编号。

PCI Address

BIOS分配给RAID控制卡的PCI总线地址。

Hardware Revision

硬件修订版本。

Serial Number

RAID控制卡序列号。

WWID

world wide name,RAID控制卡的唯一标识号。

Firmware version

Firmware的版本号。

Firmware release data

Firmware的发布日期。

UEFI Driver version

UEFI驱动版本号。

UEFI Driver release date

UEFI驱动版本发布日期。

Temperature

RAID控制卡当前温度,耐受温度上限为105度,超过80度,即为不正常。

Controller Memory Module Size

RAID控制卡的cache大小。

Controller Mode

RAID控制卡的当前的使用模式,有RAID/Mixed/HBA三种模式。

l     RAID模式:控制器下的逻辑盘会上报OS,但直通盘不会报送给OS。即在该模式下,硬盘必须先加入RAID组才可以在OS下使用。

l     HBA模式:控制器的所有RAID功能都被禁用,控制器下所有硬盘被视为直通盘。该模式下,硬盘以直通方式使用。

l     Mixed模式:RAID逻辑盘和直通盘都会报送给OS。即该模式支持硬盘以RAID方式和直通方式使用。

默认为“Mixed”模式。

Supported Mode

RAID控制卡Port口的支持模式。

l     Port CN0:RAID HBA Mixed

l     Port CN1:RAID HBA Mixed

 

12.7.3 Configure Controller Settings

在“Configure Controller Settings”界面中,可以设置控制器的相关属性。

界面介绍

在如图12-5所示的配置工具主界面中选择“Configure Controller Settings”,打开“Configure Controller Settings”界面,如图12-36所示,参数说明如表12-15所示。

图12-36 Configure Controller Settings

 

表12-15 参数说明

参数

说明

Modify Controller Settings

修改控制器的相关属性。

Advanced Controller Settings

修改控制器的高级属性。

Clear Configuration

清除控制器当前所有的Array与RAID组配置。

Manage Power Settings

控制器能耗设置。

BMC Settings

RAID控制卡带外管理相关的BMC设置。

Configure Controller Port Mode

设置RAID控制卡的使用模式。

 

12.7.3.1 Modify Controller Settings

界面说明

“Modify Controller Settings”界面如图12-37所示,参数说明如表12-16所示。

图12-37 Modify Controller Settings

 

表12-16 参数说明

参数

说明

Transformation Priority

设置Array扩展、逻辑盘扩展、逻辑盘迁移、Array收缩/迁移等操作的优先级,分为High/Medium/Low三个选项。

默认取值为“Medium”。

说明

该选项设置为“high”时,会抢占I/O资源,影响读写I/O性能,建议用户保持默认取值。

Rebuild Priority

设置逻辑盘重构的优先级,分为Low/Medium/Medium High/High四个选项。

默认取值为“High”。

Surface Scan Analysis Priority

设置两次硬盘表面扫描的时间间隔,硬盘表面扫描主要是检查硬盘健康状态。

可选项为0~31,默认值为3,数字表示Controller在下一次Surface Scan Analysis之前的延迟时间,单位为秒。0表示禁用硬盘表面扫描功能。

Current Parallel Surface Scan Count

设置同时启动硬盘表面扫描进程的数量,取值范围为1~16,默认值为1。设置为1时表示禁用硬盘表面扫描功能。

Spare Activation Mode

设置热备盘的激活模式,可选模式有:

l     Failure Spare Activation

l     Predictive Spare Activation

默认取值为“Failure Spare Activation”。

Unconfigured Physical Drive Write Cache State

设置RAID/Mixed模式下非RAID组成员盘的写Cache状态。

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

HBA Physical Drive Write Cache State

设置HBA模式下硬盘的写Cache状态

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

Configured Physical Drive Write Cache State

设置RAID/Mixed模式下RAID组成员盘的写Cache状态。

l     Default:将硬盘的写Cache保持为默认状态

l     Enabled:打开硬盘的写Cache功能

l     Disabled:关闭硬盘的写Cache功能

Port CN0 Mode

设置Connector 0端口的模式,有以下三种模式:

l     RAID模式:控制器下的LD会上报OS,但直通盘不会报送给OS。即在该模式下,硬盘必须先加入RAID组才可以在OS下使用。

l     HBA模式:控制器的所有RAID功能都被禁用,所有关联的设备都被视为直通盘。该模式下,硬盘以直通方式使用。

l     Mixed模式:RAID逻辑盘和直通盘都会报送给OS。即该模式支持硬盘以RAID方式和直通方式使用。

说明

l     当背板类型为直通背板时,才会显示该参数。

l     两个Connector Port如果接在同一块Expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。

Port CN1 Mode

设置Connector 1端口的模式,有以下三种模式:

l     RAID模式:控制器下的LD会上报OS,但直通盘不会报送给OS。即在该模式下,硬盘必须先加入RAID组才可以在OS下使用。

l     HBA模式:控制器的所有RAID功能都被禁用,所有关联的设备都被视为直通盘。该模式下,硬盘以直通方式使用。

l     Mixed模式:RAID逻辑盘和直通盘都会报送给OS。即该模式支持硬盘以RAID方式和直通方式使用。

说明

l     当背板类型为直通背板时,才会显示该参数。

l     两个Connector Port如果接在同一块Expander上,“Port CN0 ”与“Port CN1 ”的工作模式必须一致;如果两个Connector Port连接直通背板,可以将“Port CN0 ”与“Port CN1 ”设置成不同的工作模式。

Submit Changes

确认修改。

 

说明

当“Surface Scan Analysis priority”选项设置为0或“Current Parallel Surface Scan Count”选项设置为1时,硬盘表面扫描功能(Surface Scan)会被禁用。

12.7.3.2 Advanced Controller Settings

界面说明

“Advanced Controller Settings”界面如图12-38所示,参数说明如表12-17所示。

图12-38 Advanced Controller Settings

 

表12-17 参数说明

参数

说明

Degraded Mode Performance Optimization

对于降格的RAID5逻辑驱动器,启用此设置将指示控制器通过缓冲物理驱动器请求,提高大规模读请求的性能;禁用此设置将强制控制器从同一驱动器中多次读取数据。

Physical Drive Request Elevator Sort

设置驱动器的写入电梯排序算法的行为。这种调度优化将I/O请求按优先级排序,使硬盘取数臂和磁头运动继续沿同一方向进行。启用电梯排序功能将优化寻道时间;禁用电梯排序功能将增加吞吐量。

Maximum Drive Request Queue Depth

设置控制器的队列深度,有效取值自动设置为2,4,8,16和32。

Monitor and Performance Analysis Delay

以分钟为单位,设置控制器的监控和性能分析延迟参数。默认参数值为60分钟。若将该值设置为0,将禁用监控和性能分析功能。

HDD Flexible Latency Optimization

为硬盘提供灵活时延优化功能。启用灵活时延优化功能,控制器会检测I/O请求,设置时延阈值。如果检测到的I/O请求时延满足该阈值,则即时禁用电梯排序功能和业务请求,执行满足阈值的I/O请求,减少高时延I/O请求数量。阈值的有效取值范围如下:

l     Disabled:禁用

l     Low:低值

l     Middle(100ms):中等值

l     High:高值

l     Very High(30ms):较高值

l     Very High(10ms):极高值

Submit Changes

确认修改。

 

12.7.3.3 Clear Configuration

界面说明

“Clear Configuration”界面如图12-39所示,参数说明如表12-18所示。

图12-39 Clear Configuration

 

表12-18 参数说明

参数

说明

Delete All Array Configurations

清除所有RAID组的配置信息。

须知

选择该参数会删除当前RAID控制卡下所有的RAID配置信息,请谨慎操作。

Delete Configuration metadata on all physical drives

清除所有不属于RAID组,但带有RAID信息的物理硬盘数据。

 

12.7.3.4 Manage Power Settings

界面说明

“Manage Power Settings”界面如图12-40所示,参数说明如表12-19所示。

图12-40 Manage Power Settings

 

表12-19 参数说明

参数

说明

Power Mode

设置控制器的Power Mode。

l     Minimum Power:将Static设置设为最低级。

l     Maximum Performance:将Static设置设为最高级。

说明

默认为“Maximum Performance”。

Survival Mode

当RAID控制卡的温度超过阈值时,Survival Mode将允许控制器将所有的功耗配置设置为最小值,选择该模式后,服务器将继续在这种环境下工作,但性能可能会下降。

l     Enabled:启动该特性。

l     Disabled:关闭该特性。

默认取值为Enabled。

Submit Changes

确认修改。

 

12.7.3.5 BMC Settings

“BMC Settings”界面如图12-41所示,参数说明如表12-20所示。

图12-41 BMC Settings

 

表12-20 参数说明

参数

说明

I2C Slave Address(Hexadecimal)

设置Controller在I2C总线上的设备地址。

该地址为协议格式中第一个字节(称为slave address),由7位地址和一位R/W读写位(0写1读)组成,设置范围为0xD0~0xFF。

说明

建议该选项保持默认值。

Submit Changes

确认修改。

 

12.7.3.6 Configure Controller Port Mode

界面说明

“Configure Controller Port Mode”界面如图12-42所示,参数说明如表12-21所示。

图12-42 Configure Controller Port Mode

 

表12-21 参数说明

参数

说明

Controller Port Mode

控制器的端口模式,有以下三种:

l     HBA:该模式下,支持硬盘直通功能,不支持创建RAID组。当有RAID组存在时,不支持切换到该模式。

l     RAID:该模式下,支持创建RAID组,不支持硬盘直通功能。

l     Mixed:支持硬盘直通功能与创建RAID组。

默认为“Mixed”模式。

Submit Changes

确认修改。

 

设置控制器的端口模式

说明

通过该操作,可将所有Connector的工作模式同时设置为同一模式。

图12-42中选择“Controller Port Mode”,并按“Enter”。

弹出端口模式菜单。

                                步骤 1     选择要设置的控制器端口模式,并按“Enter”。

                                步骤 2     选择“Submit Changes”,并按“Enter”。

提示操作成功。

----结束

12.7.4 Array Configuration

界面说明

“Array Configuration”界面如图12-43所示,参数说明如表12-22所示。

图12-43 Array Configuration

 

表12-22 参数说明

参数

说明

Create Array

创建Array。

详细介绍可参见12.4.2 创建RAID 0~12.4.4 创建RAID 10

Create maxCache Array

创建maxCache Array。

说明

2100-8i不支持创建maxCache Array。

Manage Arrays

管理已创建的Array。

详细介绍可参见12.5.1 查看Array属性。

 

12.7.5 Disk Utilities

界面说明

“Disk Utilities”界面如图12-44所示。

图12-44 Disk Utilities界面(1)

 

说明

如果当前配置的硬盘背板是Expander类型时,该界面还会显示Expander的相关信息,如图12-45所示。

图12-45 Disk Utilities界面(2)

 

12.7.6 Set Bootable Device(s) for Legacy Boot Mode

界面说明

在“Set Bootable Device(s) for Legacy Boot Mode”界面可设置Legacy模式下的启动盘,如图12-46所示,参数说明如表12-23所示。

图12-46 Set Bootable Device(s) for Legacy Boot Mode

 

表12-23 参数说明

参数

说明

Primary Bootable Device

第一启动盘。

Secondary Bootable Device

第二启动盘。

Select Bootable Logical Drive

设置逻辑盘为第一启动盘或第二启动盘。

Number of OS bootable drives

设置系统启动盘的数量。

Clear Bootable Device(s)

清除启动盘。

l     Select Boot Precedence:选择将要清除的启动盘。

l     Clear Bootable Device(s):确认清除启动盘。

 

说明

因服务器不支持Legacy模式,该界面的设置无效。

12.7.7 Administration

界面说明

“Administration”界面如图12-47所示,参数说明如表12-24所示。

图12-47 Administration

 

表12-24 参数说明

参数

说明

Flash Controller Firmware

更新RAID控制卡的Firmware。

该接口暂不可用。

Save Support Archive

收集RAID控制卡日志。

该接口暂不可用。

Reset controller settings to factory defaults

将RAID控制卡恢复出厂配置。

 

12.8 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

12.8.1 下载和安装ARCCONF工具

下载工具

登录Microsemi网站上RAID控制卡的页面

                                步骤 1     点击

                                步骤 2     按照提示信息下载ARCCONF工具。

                                步骤 3     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

使用文件传输工具(例如Winscp)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 1     在Linux命令行执行rpm -ivh Arcconfxxx.aarch64.rpm命令安装ARCCONF工具。

说明

ARCCONF工具的安装路径为/usr/Arcconf,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

12.8.2 常用命令

说明

l     为快速获取命令结果,建议在每条命令之后增加nodiskinfo参数,如arcconf list controller_id nodiskinfo

l     ARCCONF工具在23168及以后版本支持nodiskinfo参数。

12.8.2.1 查询RAID控制卡的基本信息

命令功能

查询RAID控制卡的基本信息。

命令格式

arcconf list controller_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

 

使用指南

使用实例

# 查询ID为1的控制器属性。

[root@localhost ~]# arcconf list 1
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
   Controller ID             : Status, Slot, Mode, Name, SerialNumber, WWN
----------------------------------------------------------------------
   Controller 1:             : Optimal, Slot 1, RAID (Hide RAW), MSCC Adaptec SmartHBA 2100-8i, 7A4563EDE26, 50000D1703F07180
 
----------------------------------------------------------------------
Array Information
----------------------------------------------------------------------
   Array ID                  : Status (Interface, TotalSize MB, FreeSpace MB)
----------------------------------------------------------------------
   Array 0                   : Has Failed Logical Drive (SATA, 19077120 MB, 0 MB)
   Array 1                   : Ok (SATA, 9538560 MB, 5343744 MB)
 
----------------------------------------------------------------------
Logical device information
----------------------------------------------------------------------
   Logical ID                : Status (RAID, Interface, Size MB) Name
----------------------------------------------------------------------
   Logical 0                 : Failed (10, Data, 4194304 MB) A
   Logical 1                 : Optimal (10, Data, 5344246 MB) B
   Logical 2                 : Optimal (1, Data, 2097152 MB) Logical Drive 3
 
 
----------------------------------------------------------------------
Physical Device information
----------------------------------------------------------------------
   Physical ID               : State (Interface, BlockSize, SizeMB, Vendor, Model, Type) WWN, [Location]
----------------------------------------------------------------------
   Physical 0,8              : Online (SATA, 512 Bytes, 4769307MB, ATA     , HUS726050ALE610 , Hard Drive) 500E004AAAAAAA00, [Enclosure 1, Slot 0(Connector 0:CN0)]
   Physical 0,9              : Online (SATA, 512 Bytes, 4769307MB, ATA     , HGST HUS726050AL, Hard Drive) 500E004AAAAAAA01, [Enclosure 1, Slot 1(Connector 0:CN0)]
   Physical 0,10             : Online (SATA, 512 Bytes, 4769307MB, ATA     , HGST HUS726050AL, Hard Drive) 500E004AAAAAAA02, [Enclosure 1, Slot 2(Connector 0:CN0)]
   Physical 0,11             : Online (SATA, 512 Bytes, 4769307MB, ATA     , HGST HUS726050AL, Hard Drive) 500E004AAAAAAA03, [Enclosure 1, Slot 3(Connector 0:CN0)]
   Physical 0,12             : Online (SATA, 512 Bytes, 4769307MB, ATA     , HGST HUS726050AL, Hard Drive) 500E004AAAAAAA04, [Enclosure 1, Slot 4(Connector 0:CN0)]
   Physical 0,13             : Online (SATA, 512 Bytes, 4769307MB, ATA     , HGST HUS726050AL, Hard Drive) 500E004AAAAAAA05, [Enclosure 1, Slot 5(Connector 0:CN0)]
   Physical 2,0              : Ready (SES2, Not Applicable, Not Applicable, 12G SAS, Expander, Enclosure Services Device) 500E004AAAAAAA1F, [Connector 0:CN0, Enclosure 1]
   Physical 2,3              : Ready (SES2, Not Applicable, Not Applicable, MSCC    , Virtual SGPIO, Enclosure Services Device) 50000D1703F07180, [Not Applicable]
 
 
Command completed successfully.

12.8.2.2 查询物理硬盘、Array、LD等相关信息

命令功能

查询RAID控制卡的基本信息。

命令格式

表12-25  

命令格式

功能

arcconf getconfig controller_id AD

查询适配器信息

arcconf getconfig controller_id LD

查询所有LD的信息

arcconf getconfig controller_id LD LD_id

查询特定LD的信息

arcconf getconfig controller_id PD

查询所有物理硬盘的信息

arcconf getconfig controller_id PD physical_id

查询特定物理硬盘的信息

arcconf getconfig controller_id AR

查询所有Array的信息

arcconf getconfig controller_id AR AR_id

查询特定Array的信息

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

LD_id

LD的ID

physical_id

硬盘的physical编号

AR_id

Array的ID

 

使用指南

使用实例

# 查询所有Array的信息。

[root@localhost ~]# arcconf getconfig 1 ar
Controllers found: 1
----------------------------------------------------------------------
Array Information
----------------------------------------------------------------------
Array Number 0
   Name                                     : A
   Status                                   : Has Failed Logical Drive
   Interface                                : SATA
   Total Size                               : 19077120 MB
   Unused Size                              : 0 MB
   Block Size                               : 512 Bytes
   Array Utilization                        : 100.00% Used, 0.00% Unused
   Type                                     : Data
   Transformation Status                    : Not Applicable
   Spare Rebuild Mode                       : Dedicated
   SSD I/O Bypass                           : Not Applicable
   --------------------------------------------------------
   Array Logical Device Information
   --------------------------------------------------------
   Logical 0                                : Failed (10, Data, 4194304 MB) A
   Logical 1                                : Optimal (10, Data, 5344246 MB) B
   --------------------------------------------------------
   Array Physical Device Information
   --------------------------------------------------------
   Device 8                                 : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:0)             NAG24LBX
   Device 9                                 : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:1) NAG24N8X
   Device 10                                : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:2) NAG24L3X
   Device 11                                : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:3) NAG24L0X
 
 
Array Number 1
   Name                                     : B
   Status                                   : Ok
   Interface                                : SATA
   Total Size                               : 9538560 MB
   Unused Size                              : 5343744 MB
   Block Size                               : 512 Bytes
   Array Utilization                        : 43.97% Used, 56.03% Unused
   Type                                     : Data
   Transformation Status                    : Not Applicable
   Spare Rebuild Mode                       : Dedicated
   SSD I/O Bypass                           : Not Applicable
   --------------------------------------------------------
   Array Logical Device Information
   --------------------------------------------------------
   Logical 2                                : Optimal (1, Data, 2097152 MB) Logical Drive 3
   --------------------------------------------------------
   Array Physical Device Information
   --------------------------------------------------------
   Device 12                                : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:4) NAG24LMX
   Device 13                                : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:5) NAG24NPX
 
 
 
 
Command completed successfully.

# 查询所有LD的基本信息。

[root@localhost ~]# arcconf getconfig 1 ld
Controllers found: 1
----------------------------------------------------------------------
Logical device information
----------------------------------------------------------------------
Logical Device number 0
   Logical Device name                      : A
   Disk Name                                : Not Applicable
   Block Size of member drives              : 512 Bytes
   Array                                    : 0
   RAID level                               : 10
   Status of Logical Device                 : Failed
   Size                                     : 4194304 MB
   Stripe-unit size                         : 256 KB
   Full Stripe Size                         : 512 KB
   Interface Type                           : Serial ATA
   Device Type                              : Data
   Boot Type                                : None
   Heads                                    : 255
   Sectors Per Track                        : 32
   Cylinders                                : 65535
   Mount Points                             : Not Applicable
   LD Acceleration Method                   : None
   Volume Unique Identifier                 : 600508B1001CC135379258C5A0305DB4
   --------------------------------------------------------
   Logical Device segment information
   --------------------------------------------------------
   Group 0, Segment 0                       : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:0)             NAG24LBX
   Group 0, Segment 1                       : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:1) NAG24N8X
   Group 1, Segment 0                       : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:2) NAG24L3X
   Group 1, Segment 1                       : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:3) NAG24L0X
 
 
Logical Device number 1
   Logical Device name                      : B
   Disk Name                                : /dev/sda
   Block Size of member drives              : 512 Bytes
   Array                                    : 0
   RAID level                               : 10
   Status of Logical Device                 : Optimal
   Size                                     : 5344246 MB
   Stripe-unit size                         : 256 KB
   Full Stripe Size                         : 512 KB
   Interface Type                           : Serial ATA
   Device Type                              : Data
   Boot Type                                : None
   Heads                                    : 255
   Sectors Per Track                        : 32
   Cylinders                                : 65535
   Mount Points                             : Not Applicable
   LD Acceleration Method                   : None
   Volume Unique Identifier                 : 600508B1001C2AD867883CE2E456B2DD
   --------------------------------------------------------
   Logical Device segment information
   --------------------------------------------------------
   Group 0, Segment 0                       : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:0)             NAG24LBX
   Group 0, Segment 1                       : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:1) NAG24N8X
   Group 1, Segment 0                       : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:2) NAG24L3X
   Group 1, Segment 1                       : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:3) NAG24L0X
 
 
Logical Device number 2
   Logical Device name                      : Logical Drive 3
   Disk Name                                : /dev/sdb
   Block Size of member drives              : 512 Bytes
   Array                                    : 1
   RAID level                               : 1
   Status of Logical Device                 : Optimal
   Size                                     : 2097152 MB
   Stripe-unit size                         : 256 KB
   Full Stripe Size                         : 256 KB
   Interface Type                           : Serial ATA
   Device Type                              : Data
   Boot Type                                : None
   Heads                                    : 255
   Sectors Per Track                        : 32
   Cylinders                                : 65535
   Mount Points                             : /boot/efi 57220 MB  Partition Number 1 / 476837 MB  Partition Number 2
   LD Acceleration Method                   : None
   Volume Unique Identifier                 : 600508B1001C1B97F48F2E0DC9CC2FCA
   --------------------------------------------------------
   Array Physical Device Information
   --------------------------------------------------------
   Device 12                                : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:4) NAG24LMX
   Device 13                                : Present (4769307MB, SATA, HDD, Connector:CN0, Enclosure:1, Slot:5) NAG24NPX
 
 
 
 
Command completed successfully.

12.8.2.3 查询RAID控制卡的FW和驱动版本

命令功能

查询RAID控制卡的FW和驱动的版本信息。

命令格式

arcconf getversion

使用实例

# 查询RAID控制卡FW和驱动的版本信息。

[root@localhost ~]# arcconf getversion
Controllers found: 1
Controller #1
==============
Firmware                               : 1.43[0] (0)
Driver                                 : Linux 1.1.2-125 (0)
 
 
Command completed successfully.

12.8.2.4 升级RAID控制卡FW

命令功能

通过该命令可以升级RAID控制卡的Firmware。

命令格式

arcconf romupdate controller_id fwfile

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

fwfile

Firmware升级所需的.bin文件名

-

 

使用实例

# 升级RAID控制卡FW。

[root@linux 2.93]# arcconf romupdate 1 SmartFWx100.bin
Controllers found: 1
 
 
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
Updating controller 1 firmware...
Succeeded
You must restart the system for firmware updates to take effect.
 
 
Command completed successfully.

12.8.2.5 设置RAID控制卡工作模式

命令功能

设置RAID控制卡工作模式。

RAID控制卡工作模式默认为“Mixed”。

命令格式

arcconf setcontrollermode controller_id mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

mode

RAID控制卡工作模式

l     2:设置为HBA模式。

l     3:设置为RAID模式。

l     5:设置为Mixed 模式。

说明

2100-8i的工作模式的介绍请参见12.3.2 支持多种工作模式

 

使用指南

使用实例

# 设置RAID控制卡工作模式为“RAID”。

[root@localhost ~]# ./arcconf setcontrollermode 1 3
Controllers found: 1
 
Command completed successfully.

# 查询RAID控制卡工作模式。

[root@localhost ~]# arcconf getconfig 1
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
   Controller Status                        : Optimal
   Controller Mode                          : RAID (Hide RAW)
   Channel description                      : SCSI
   Controller Model                         : MSCC Adaptec SmartHBA 2100-8i
   Controller Serial Number                 : 7A4563EDE26
   Controller World Wide Name               : 50000D1703F07180
   Physical Slot                            : 1
   Temperature                              : 48 C/ 118 F (Normal)
   Host bus type                            : PCIe 3.0
   Host bus speed                           : 7880 MBps
   Host bus link width                      : 8 bit(s)/link(s)
   PCI Address (Bus:Device:Function)        : 0:3b:0:0
   Number of Ports                          : 2
   Internal Port Count                      : 2
   External Port Count                      : 0
   Defunct disk drive count                 : 0
   NCQ status                               : Enabled
   Queue Depth                              : Automatic
   Monitor and Performance Delay            : 60 minutes
   Elevator Sort                            : Enabled
   Degraded Mode Performance Optimization   : Disabled
   Latency                                  : Disabled
   Statistics data collection mode          : Disabled
   Post Prompt Timeout                      : 0 seconds
   Boot Controller                          : False
   Primary Boot Volume                      : None
   Secondary Boot Volume                    : None
   Driver Name                              : smartpqi
   Driver Supports SSD I/O Bypass           : Yes
   Manufacturing Part Number                : Not Applicable
   Manufacturing Spare Part Number          : Not Applicable
   Manufacturing Wellness Log               : Not Applicable
   NVRAM Checksum Status                    : Passed
   Sanitize Lock Setting                    : None
   --------------------------------------------------------
   Power Settings
   --------------------------------------------------------
   Power Consumption                        : 7910 milliWatts
   Current Power Mode                       : Maximum Performance
   Pending Power Mode                       : Not Applicable
   Survival Mode                            : Enabled
   --------------------------------------------------------
   I2C Settings
   --------------------------------------------------------
   I2C Address                              : 0xDE
   I2C Clock Speed                          : 400 KHZ
   I2C Clock Stretching                     : Enabled
   --------------------------------------------------------
   Cache Properties
   --------------------------------------------------------
   Global Physical Device Write Cache Policy: Disabled
   --------------------------------------------------------
   RAID Properties
   --------------------------------------------------------
   Logical devices/Failed/Degraded          : 3/1/0
   Automatic Failover                       : Disabled
   Background consistency check             : Idle
   Consistency Check Delay                  : 3 seconds
   Parallel Consistency Check Supported     : Enabled
   Parallel Consistency Check Count         : 1
   Inconsistency Repair Policy              : Disabled
   Consistency Check Inconsistency Notify   : Disabled
   Rebuild Priority                         : High
   Expand Priority                          : Medium
   --------------------------------------------------------
   Controller Version Information
   --------------------------------------------------------
......

说明

回显信息中的“Controller Mode”即为RAID控制卡的工作模式。

12.8.2.6 查询所有适用arcconf工具的RAID控制卡

命令功能

查询所有适用arcconf工具的RAID控制卡。

命令格式

arcconf list

使用实例

# 查询所有适用arcconf工具的RAID控制卡。

[root@localhost ~]# arcconf list
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
   Controller ID             : Status, Slot, Mode, Name, SerialNumber, WWN
----------------------------------------------------------------------
   Controller 1:             : Optimal, Slot 1, Mixed, MSCC Adaptec SmartHBA 2100-8i, 7A4563EDE26, 50000D1703F07180
 
Command completed successfully.

12.8.2.7 设置启动盘

命令功能

通过该命令可以将PD或LD设置成启动设备,其中,PD在RAID控制卡的工作模式为HBA或MIX时生效,LD在RAID控制卡的工作模式为MIX或RAID时生效。

命令格式

arcconf setboot controller_id  logicaldrive LD_id type boot_type

arcconf setboot controller_id  device physical_id type boot_type

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

LD_id

LD的ID

boot_type

启动项的类型

Primary :将LD或PD设置为第一启动设备。

Secondary :将LD或PD设置为第二启动设备。

physical_id

硬盘的physical ID

 

使用实例

# 设置LD1为第一启动设备。

[root@localhost ~]# arcconf setboot 1 logicaldrive 1 type primary
Controllers found: 1
Do you wish to change the boot type of the selected device.
Press y, then ENTER to continue or press ENTER to abort: y
 
 
Command completed successfully.

12.8.2.8 设置热备模式

命令功能

设置热备盘的模式。

命令格式

arcconf setarrayparam controller_id  array_id sparetype mode

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

array_id

array的ID

mode

热备盘的类型

l     1:Dedicated

l     2:Autoreplace

说明

热备盘相关介绍请参见12.3.3 硬盘热备份

 

使用实例

# 设置Array的热备盘模式为:Dedicated。

[root@localhost ~]# arcconf setarrayparam 1 0 sparetype 1
Controllers found: 1
 
Command completed successfully.
[root@localhost ~]#

12.8.2.9 设置硬盘定位指示灯

命令功能

点亮、熄灭控制器的硬盘定位指示灯。

命令格式

表12-26  

命令

功能

arcconf identify controller_id device physical_id time time

对特定的物理硬盘进行点灯,time为可选项表示点灯持续的时间,单位为秒。

arcconf identify controller_id device physical_id

对特定的物理硬盘持续点灯,按任意键会停止点灯。

arcconf identify controller_id all time time

对所有的物理硬盘进行点灯,time为可选项表示点灯持续的时间,单位为秒。

arcconf identify controller_id all stop

对所有的物理硬盘停止点灯

arcconf identify controller_id logicaldrive LD_id time time

对特定的LD进行点灯,time为可选项表示点灯持续的时间,单位为秒。

arcconf identify controller_id logicaldrive LD_id

对特定的LD停止点灯

arcconf identify controller_id array array_id time time

对特定的Array进行点灯,time为可选项表示点灯持续的时间,单位为秒。

arcconf identify controller_id array array_id

对特定的Array停止点灯

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

LD_id

LD的ID

physical_id

硬盘的physical ID

time

硬盘指示灯点亮的时间。

为可选项表示点灯持续的时间,单位为秒。

array_id

array的ID

 

使用实例

# 对slot 0硬盘的停止指示灯。

[root@localhost ~]# ./arcconf identify 1 device 0 0
Controllers found: 1
Only devices managed by an enclosure processor may be identified
The specified device(s) is/are blinking.
Press any key to stop the blinking.

# 设置所有的盘进行点灯60秒。

[root@localhost ~]# ./arcconf identify 1 all time 60
Controllers found: 1
Only devices managed by an enclosure processor may be identified
 
Command completed successfully.

# 熄灭所有的硬盘指示灯。

[root@localhost ~]# ./arcconf identify 1 all stop
Controllers found: 1
 
Command completed successfully.

12.8.2.10 为LD设置热备盘

命令功能

为LD设置热备盘。

命令格式

arcconf setstate controller_id device physical_id hsp array array_id sparetype type

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

physical_id

硬盘的physical ID

array_id

Array的ID

type

热备盘的类型

1 : Dedicated

2 : Autoreplace

说明

热备盘相关介绍请参见12.3.3 硬盘热备份

 

使用实例

# 为LD设置Autoreplace热备盘。

[root@localhost ~]# arcconf setstate 1 device 0 3 hsp array 0 sparetype 2
Controllers found: 1
 
Any existing hot-spare drives of a different sparetype will be removed.
The physical drive used for this operation is connected to Mixed Mode(Smart HBA) connector. Using it will not allow operating system to use the drive contents.
 
Are you sure you want to continue?
Press y, then ENTER to continue or press ENTER to abort: y
 
 
Command completed successfully.
[root@localhost ~]#

12.8.2.11 设置后台一致性校验的并行个数

命令功能

设置后台一致性校验的并行个数。

命令格式

arcconf consistencycheck controller_id  parallelcount parallelcount_number

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

parallelcount_number

后台一致性校验的并行个数

 

使用实例

# 设置后台一致性校验的并行个数为4。

[root@localhost ~]# arcconf consistencycheck 1 parallelcount 4
Controllers found: 1
 
Command completed successfully.
[root@localhost ~]#
 
 
 CONSISTENCYCHECK <Controller#> PARALLELCOUNT <Count>

12.8.2.12 创建和删除RAID

命令功能

创建、删除RAID。

命令格式

arcconf create controller_id logicaldrive option size level physical_id physical_id......

arcconf delete controller_id logicaldrive ld_id noprompt

参数说明

参数

参数说明

取值

controller_id

RAID控制卡ID

请参照12.8.2.1 查询RAID控制卡的基本信息获取RAID控制卡的controller_id

controller_id从1开始排序,如果有多张RAID控制卡,将按照1,2,3...的方式进行排序。

option

要创建的LD的相关属性,具体请参见表12-27

size

LD的容量大小。

单位为MB,设置时只输入数字即可,如数值设为“1024”,则表示虚拟磁盘的容量为1024MB。

如果设置为“MAX”,表示使用硬盘的所有容量创建虚拟磁盘。

level

要创建的LD的级别。

支持的RAID级别请参照12.3.1 支持多种RAID级别

physical_id

LD成员盘的physical ID

请参照12.8.2.2 查询物理硬盘、Array、LD等相关信息获取物理硬盘的ID。

ld_id

虚拟磁盘ID

请参照12.8.2.2 查询物理硬盘、Array、LD等相关信息获取虚拟磁盘的ID。

 

表12-27 option

可设置属性

说明

取值

Stripesize

LD的条带大小

16/32/64/128/256/512/1024

Name

LD的名称。

LDcache

即Controller Cache。

SSDOverProvisioningOptimization

SSD的特性。

l     enable

l     disable

说明

l     只有当RAID组由SSD组成时,才能设置该属性。

l     该选项设置为“Enabled”后,会在数据写入SSD之前重新分配所有使用的块来优化SSD,可以加快初始化的速度。

DataLD

被加速的LD的ID。

 

使用指南

使用实例

# 创建RAID 0。

[root@localhost ~]# ./arcconf create 1 logicaldrive max 0 0 7
Controllers found: 1
 
Do you want to add a logical device to the configuration?
Press y, then ENTER to continue or press ENTER to abort: y
 
Creating logical device: LogicalDrv 1
 
Command completed successfully.

# 删除ID为1的虚拟磁盘。

[root@localhost ~]# ./arcconf delete 1 logicaldrive 1 noprompt
Controllers found: 1
 
WARNING: Deleting this logical device will automatically delete array 1 because it is the only logical device present on that array.
All data in logical device 1 will be lost.
Deleting: logical device 1 ("LogicalDrv 1")
 
Command completed successfully.

12.8.2.13 使能一致性校验的修复策略

命令功能

使能一致性校验的修复策略。

命令格式

arcconf consistencycheck controller_id inconsistencyrepairpolicy enable

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

 

使用实例

# 使能一致性校验的修复策略。

[root@localhost ~]# arcconf consistencycheck 1 inconsistencyrepairpolicy enable
Controllers found: 1
 
Command completed successfully.
[root@localhost ~]#

12.8.2.14 使能一致性校验生成调试信息并发出通知

命令功能

使能一致性校验生成调试信息并发出通知。

命令格式

arcconf consistencycheck controller_id eventnotify enable

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

 

使用实例

# 使能一致性校验生成调试信息并发出通知。

[root@localhost ~]# arcconf consistencycheck 1 eventnotify enable
Controllers found: 1
 
Command completed successfully.
[root@localhost ~]#
 
 
 CONSISTENCYCHECK <Controller#> EVENTNOTIFY <Enable | Disable>

12.8.2.15 关闭一致性校验

命令功能

关闭一致性校验功能。

命令格式

arcconf consistencycheck controller_id off

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

 

使用实例

# 关闭一致性校验功能。

[root@localhost ~]# arcconf consistencycheck 1 off
Controllers found: 1
 
Command completed successfully.
 
 
 
CONSISTENCYCHECK <Controller#> <On [Delay]|Off> [noprompt] [nologs]

12.8.2.16 查询和设置硬盘写Cache策略

命令功能

查询、设置硬盘写Cache策略。

命令格式

arcconf getconfig controller_id ad

arcconf setcache controller_id drivewritecachepolicy drivetype cachepolicy drivetype cachepolicy...

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

drivetype

要设置写Cache策略的硬盘类型

l     Configured:设置RAID/Mixed模式下RAID组成员盘的写Cache策略。

l     Unconfigured:设置RAID/Mixed模式下非RAID组成员盘的写Cache策略。

l     HBA:设置HBA模式下硬盘的写Cache策略。

cachepolicy

硬盘写Cache策略

l     0:Default(将硬盘的写Cache保持为默认状态)

l     1:Enabled(打开硬盘的写Cache功能)

l     2:Disabled(关闭硬盘的写Cache功能)

 

使用实例

# 设置Configured状态的硬盘Cache写策略为Enabled,设置Unconfigured状态的硬盘Cache写策略为Disabled。

[root@localhost ~]# ./arcconf setcache 1 drivewritecachepolicy Configured 1 Unconfigured 2
Controllers found: 1
Enabling controller drive write cache can increase write performance but risks losing the data in the cache on sudden loss.
 
Command completed successfully.

# 查询当前的硬盘写Cache策略

[root@localhost ~]# ./arcconf getconfig 1 ad
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
   Controller Statue             : Optimal
   Controller Mode               :Mixed
   Channle description           :SCSI
  
...
----------------------------------------------------------------------
Physical Drive Write Cache Policy Information 
----------------------------------------------------------------------
Configured Drives                :Enabled
Unconfigured Drives              :Disabled
HBA Drives                       :Default
----------------------------------------------------------------------
...

12.8.2.17 收集FW日志

命令功能

收集RAID控制卡的Firmware日志。

命令格式

arcconf SAVESUPPORTARCHIVE

使用实例

# 收集RAID控制卡的Firmware日志。

[root@linux /]# arcconf SAVESUPPORTARCHIVE
Controllers found: 1
 
 Usage: SAVESUPPORTARCHIVE [Path] [Firmware|GUI|Arcconf|Storlib|Basecode|Redfish]
 Example: SAVESUPPORTARCHIVE C:\Adaptec\maxView Firmware
 Example: SAVESUPPORTARCHIVE /var/log/maxView Storlib
 Example: SAVESUPPORTARCHIVE
 Example: SAVESUPPORTARCHIVE .
 ===================================================================================
 
 Saves  all the logs
    Path          : directory other than default
    Firmware      : saves Firmware logs
    GUI           : saves GUI logs
    Arcconf       : saves Arcconf logs
    StorLib       : saves StorLib logs
    Basecode      : saves Basecode logs
    Redfish       : saves Redfish logs
 
The path is not specified, Using the default.
The logs are saved in relevant folders in /var/log/Support
 
Command completed successfully.


13 Avago MegaRAID SAS 9460-8i

关于本章

主要介绍Avago MegaRAID SAS 9460-8i RAID控制卡的外观、特性、以及配置方法。

本章节涉及的截图以5.120.01-2904 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

13.1  概述

13.2  功能

13.3  初始配置

13.4  常用配置

13.5  故障处理

13.6  管理界面介绍

13.7  OS命令行工具

13.1 概述

Avago MegaRAID SAS 9460-8i RAID控制卡(以下简称9460-8i)是基于MegaRAID架构的8端口12Gbit/s SAS控制器,并采用PCIe3.0x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

9460-8i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

9460-8i支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考13.2.16 硬盘直通。

9460-8i自带的Cache对RAID控制卡性能的提升有非常重要的作用,主要体现在:

l     在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

l     在读数据时,如果可以直接在Cache中命中的话,将减少硬盘寻道操作,降低响应时间,提升了数据读速度。

说明

Cache数据的掉电保护依赖于与RAID控制卡相连的超级电容。超级电容的外形、连接方式、安装方式可参考各服务器的用户指南。

9460-8i的结构如图13-1图13-2所示。

图13-1 9460-8i(1)

 

图13-2 9460-8i(2)

 

1

超级电容错误状态指示灯

2

芯片过温指示灯

3

心跳灯

4

脏数据缓存指示灯

5

超级电容

6

miniSAS接口(port 0)

7

miniSAS接口(port 1)

8

散热器

 

9460-8i单板指示灯说明如表13-1所示。

表13-1 RAID控制卡单板指示灯说明

指示灯

颜色

说明

芯片过温指示灯

黄色

l     常亮:设备温度传感器超过阈值。

l     灭:设备温度在正常温度范围内。

超级电容错误状态指示灯

黄色

l     常亮:超级电容电源模块故障或者过温。

l     灭:超级电容正常或不在位。

脏数据缓存指示灯

绿色

l     常亮:没有保存到存储设备中的脏缓存。

l     灭:脏数据缓存正常。

心跳灯

绿色

l     闪烁:芯片运行正常,闪烁频率为1Hz。

l     灭:RAID控制卡未开始运行或FW运行异常。

 

13.2 功能

13.2.1 支持RAID 0/1/5/6/10/50/60

9460-8i支持的硬盘、虚拟磁盘、硬盘组数量分别为:

l     最多支持240个硬盘。

说明

该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

l     最多支持64个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

l     最多支持64个硬盘组(即配置界面中看到的“Drive Group”),每个硬盘组最多支持240个硬盘。

l     每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

9460-8i支持的RAID类型及对应的硬盘个数如表13-2所示。

表13-2 RAID-硬盘参数

RAID级别

支持硬盘数

支持子组数

子组支持硬盘数

允许坏盘数

RAID 0

1~32

不涉及

不涉及

0

RAID 1

2~32(偶数)

硬盘数÷2

RAID 5

3~32

1

RAID 6

3~32

2

RAID 10

4~240(偶数)

2~8个RAID 1

2~32(偶数)

子组数

RAID 50

6~240

2~8个RAID 5

3~32

子组数

RAID 60

6~240

2~8个RAID 6

3~32

子组数x2

 

说明

l     不支持RAID 00级别。

l     子组数:子RAID的个数,例如RAID 50由两个RAID 5组成,则子组数为2。

l     RAID 10、RAID 50每个子组中最多允许1个坏盘。

l     RAID 60每个子组中最多允许2个坏盘。

l     RAID10、50、60包含的总硬盘数由子组数和子组支持的硬盘数共同决定。

13.2.2 硬盘热备份

9460-8i的热备功能分为两种:热备盘和紧急备份。

热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     Global HSP:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

配置方法请参见13.4.1.1 配置全局热备盘。

l     Dedicated HSP:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

配置方法请参见13.4.1.2 配置局部热备盘。

热备盘容量需大于等于成员盘容量。

说明

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     除RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

紧急备份

使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。

紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。

紧急备份有两种情况,对应了两种设置:

l     当成员盘fail时,空闲盘替代成员盘作为紧急备份。

l     当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。

具体配置方法请参见13.4.2 设置紧急热备功能。

13.2.3 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

说明

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考13.2.18 导入外部配置章节恢复RAID组,无需更换硬盘。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

13.2.4 回拷

具备冗余功能的RAID的一块成员盘故障之后,热备盘自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。

13.2.5 硬盘分条

条带化

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待。

条带化技术是一种自动的将I/O的负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

影响条带化效果的因素有:

l     条带宽度:指同时可以并发读或写的条带数量。

这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。

l     条带大小:指写在每块硬盘上的条带数据块的大小。

分条

硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。

9460-8i支持多种条带大小,包括64KB、128KB、256KB、512KB及1MB,默认条带大小为256KB。

配置RAID时一般采用默认值。

13.2.6 RAID级别迁移

RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见13.4.5 迁移RAID级别。

当前支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1、RAID 5、RAID 6

l     RAID 1迁移到RAID 0、RAID 5、RAID 6

l     RAID 5迁移到RAID 0、RAID 6

l     RAID 6迁移到RAID 0、RAID 5

RAID迁移对硬盘数量的要求如13.2.6 RAID级别迁移所示。

表13-3 RAID迁移的硬盘数量说明

迁移RAID级别

原始硬盘组硬盘数量

迁移后的硬盘组硬盘数量

RAID 0迁移 RAID 1

1~32

2~32(偶数)

RAID 0迁移到RAID 5

1~32

3~32

RAID 0迁移到RAID 6

1~32

3~32

RAID 1迁移到RAID 0

2~32(偶数)

2~32

RAID 1迁移到RAID 5

2~32(偶数)

3~32

RAID 1迁移到RAID 6

2~32(偶数)

3~32

RAID 5迁移到RAID 0

3~32

3~32

RAID 5迁移到RAID 6

3~32

3~32

RAID 6迁移到RAID 0

3~32

3~32

RAID 6迁移到RAID 5

3~32

3~32

 

13.2.7 初始化

VD初始化

创建VD(Virtual Drive)后,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。9460-8i提供了多种相应的初始化方式:

l     快速初始化:属于前台初始化,Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。

l     慢速初始化:属于前台初始化,Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。

l     后台初始化:目的是使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。

     对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。

     对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。

说明

一致性校验(CC)和后台初始化通常会对性能造成一定损失,直至该操作完成。

一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。

硬盘初始化

硬盘可执行的初始化包括:

l     Initialize Drive:对前100MByte空间进行全写0操作。

l     Drive Erase:对全部空间进行写0操作。

说明

不支持停止SATA SSD的擦除和初始化过程。

13.2.8 可用容量扩展

9460-8i支持的容量扩展方式有两种:

l     通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。

详细操作方法可参考13.4.3 添加新硬盘到RAID。

l     通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。

详细操作方法可参考13.4.4 扩展Virtual Drives可用空间。

说明

l     只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。

l     RAID10、RAID 50、RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。

l     当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见 13.7.2.27 通过增加成员盘可用容量扩容RAID。

13.2.9 安全数据擦除

安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘和硬盘的安全擦除功能:

l     Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。

l     Normal:对虚拟磁盘或硬盘进行三轮擦除动作。

l     Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。

安全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。

9460-8i支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。

13.2.10 写洞保护

系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况,称之为写洞。

将写失败的数据备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:

l     RAID  1、RAID 5、RAID 6、RAID 10、RAID 50,RAID 60支持写洞保护,Write hole数据都保存在掉电保护区,不需要开关控制。

     掉电保护装置可用时,Write hole数据异常掉电重启后会进入恢复流程。

     掉电保护装置不可用时,记录在掉电保护区的Write hole数据异常掉电后丢失,不做Write hole恢复。

l     RAID 1、RAID 5掉线盘时不可做写洞保护。

l     RAID 6掉线一块盘时可做写洞保护。

l     RAID 10、RAID 50、RAID 60部分降级时可做写洞保护,按子组恢复数据。完全降级时不可做写洞保护。

l     不对RAID 0做写洞保护。

13.2.11 读写高速缓存

9460-8i支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:

l     Read:读策略选择“Read Ahead”模式,9460-8i在读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,提升了数据读速度。

l     Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,9460-8i就向HOST发出数据传输完成的信号。

在写数据时,直接写入Cache,当写入的数据积累到一定程度,9460-8i才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

13.2.12 数据掉电保护

数据写入高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用高速缓存来提升系统性能。

l     开启高速缓存可提升整机写性能,当服务器写压力减小或高速缓存将写满时,数据再由高速缓存写入硬盘。

l     开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。

为了提升整机的高读写性能和高速缓存中数据的安全,可为9460-8i配置超级电容。

超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将高速缓存中的数据写入超级电容模块中的NAND Flash中。

说明

9460-8i分为支持配置超级电容与不支持配置超级电容两种形态,只有支持配置超级电容的RAID控制卡可以启用数据掉电保护功能。

超级电容电量校准

由于数据保护需要超级电容的配合,为了记录超级电容的放电曲线,以便RAID控制卡了解超级电容的状态,例如最大和最小电压等,同时为了延长超级电容的寿命,RAID控制卡默认启动超级电容自动校准模式。

RAID控制卡通过如下所述的三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。

1.     RAID控制卡将超级电容的电量充到最大值。

2.     自动启动校准进程,将超级电容完全放电。

3.     重新开始充电,直至达到最大电量。

超级电容电量校准过程中,RAID控制卡写策略自动调整为“WT”模式以保证数据完整性,此时RAID控制卡性能会降低。电量校准的时间取决于超级电容充放电速度。

13.2.13 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     动态扩盘

l     完全初始化或后台初始化

l     一致性校验

13.2.14 自动S.M.A.R.T扫描

S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据受到损失。

RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。

13.2.15 硬盘节能

RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。

默认情况下,硬盘节能功能处于开启状态。

当硬盘节能功能开启且在指定时间内没有I/O访问时,RAID控制卡下挂载的“Uncongfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。

13.2.16 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

9460-8i可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在9460-8i下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。

9460-8i支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

如果需要使能硬盘直通功能,请在图13-98所示界面的“JBOD Mode”参数进行设置。

说明

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

13.2.17 硬盘漫游

硬盘漫游是指在同一控制器下移动物理硬盘。控制器将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。

要使用硬盘漫游,按以下步骤操作:

1.     关闭操作系统。

2.     将服务器下电。

3.     将物理硬盘移动到背板所需位置。

4.     执行安全检查。确保正确插入物理硬盘。

5.     将服务器上电。

6.     控制器从物理硬盘上的配置数据中检测到RAID配置。

13.2.18 导入外部配置

如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。

此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。

13.2.19 硬盘故障记录

9460-8i提供硬盘故障记录功能:

l     使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。

l     禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,9460-8i会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。

维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。

l     使能该功能后,当硬盘故障时,会点亮Fault指示灯。

l     禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。

默认情况下,9460-8i使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。

13.2.20 一致性校验

针对有冗余功能的RAID 1、5、6、10、50、60,RAID控制卡可以对RAID组的硬盘数据进行一致性校验,对硬盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。

由于RAID 0不具备冗余性,因此不支持一致检查。

说明

建议每月至少进行一次一致性校验。

13.3 初始配置

文档中描述的关于9460-8i的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。

13.3.1 进入管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如图13-3所示界面时,按“Delete”,进入输入密码界面。

图13-3 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如图13-4所示界面。

图13-4 Setup Utility界面

 

                                步骤 4     通过“”或“→ ”进入“Advanced”页签,如图13-5所示。

图13-5 “Advanced”页签

 

说明

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见13.5.4 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择“Avago MegaRAID <SAS 9460-8i> Configuration Utility”,按“Enter”。

进入9460-8i主界面,如图13-6图13-7所示,界面参数如表13-4所示。

图13-6 9460-8i主界面(1)

 

图13-7 9460-8i主界面(2)

 

表13-4 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

说明

9460-8i不支持在此界面升级FW。

Silence Alarm

板载蜂鸣器的使能状态。

说明

9460-8i未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

13.3.2 创建RAID 0

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见13.2.1 支持RAID 0/1/5/6/10/50/60。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见13.6.1 进入管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图13-8和图13-9所示,参数说明如表13-5所示。

图13-8 Create Virtual Drive(1)

 

图13-9 Create Virtual Drive(2)

 

表13-5 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照13.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如图13-10所示,界面参数如表13-6所示。

图13-10 添加成员盘

 

表13-6 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 0支持的硬盘个数为1~32。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

5.     按表13-6所述配置过滤条件。

6.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

7.     选择“OK”并按“Enter”返回上级界面。

                                步骤 4     按照表13-5所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照13.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

13.3.3 创建RAID 1

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见13.2.1 支持RAID 0/1/5/6/10/50/60。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见13.6.1 进入管理界面

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图13-11图13-12所示,参数说明如表13-7所示。

图13-11 Create Virtual Drive(1)

 

图13-12 Create Virtual Drive(2)

 

表13-7 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照13.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如图13-13所示,界面参数如表13-8所示。

图13-13 添加成员盘

 

表13-8 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 1支持的硬盘个数为2~32(偶数)。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

5.     按表13-8所述配置过滤条件。

6.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

7.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     按照表13-7所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照13.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

13.3.4 创建RAID 5

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见13.2.1 支持RAID 0/1/5/6/10/50/60。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见13.6.1 进入管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图13-14图13-15所示,参数说明如表13-9所示。

图13-14 Create Virtual Drive(1)

 

图13-15 Create Virtual Drive(2)

 

表13-9 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照13.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 5”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如图13-16所示,界面参数如表13-10所示。

图13-16 添加成员盘

 

表13-10 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 5支持的硬盘个数为3~32。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

5.     按表13-10所述配置过滤条件。

6.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

7.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     按照表13-9所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照13.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

13.3.5 创建RAID 6

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见13.2.1 支持RAID 0/1/5/6/10/50/60。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见13.6.1 进入管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图13-17图13-18所示,参数说明如表13-11所示。

图13-17 Create Virtual Drive(1)

 

图13-18 Create Virtual Drive(2)

 

表13-11 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照13.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 6”,并按“Enter”。

                                步骤 3     添加成员盘

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如图13-19所示,界面参数如表13-12所示。

图13-19 添加成员盘

 

表13-12 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 6支持的硬盘个数为3~32。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

5.     按表13-12所述配置过滤条件。

6.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

7.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     按照表13-11所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照13.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

13.3.6 创建RAID 10

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见13.2.1 支持RAID 0/1/5/6/10/50/60。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见13.6.1 进入管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图13-20图13-21所示,参数说明如表13-13所示。

图13-20 Create Virtual Drive(1)

 

图13-21 Create Virtual Drive(2)

 

表13-13 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照13.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。

                                步骤 3     创建第1个Span。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如图13-22所示,界面参数如表13-14所示。

图13-22 添加成员盘

 

表13-14 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     按表13-14所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 10支持2~8个Span,每个Span支持的硬盘数为2~32(偶数),且各个Span的硬盘数量必须保持一致。

l     RAID 10支持的硬盘总数为4~240(偶数)。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

7.     单击“OK”完成成员盘配置。

                                步骤 4     创建第2个Span。

当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如图13-23所示。

图13-23 RAID 10的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

3.     在打开的列表中选择第2个Span的成员盘。

说明

各个Span的硬盘数量必须保持一致。

4.     选择完成后,选择“Apply Changes”并“Enter”。

提示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。

说明

RAID10至少需要创建2个Span,最多可以创建8个Span。

                                步骤 6     按照表13-13所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照13.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 7     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

13.3.7 创建RAID 50

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见13.2.1 支持RAID 0/1/5/6/10/50/60。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见13.6.1 进入管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图13-24图13-25所示,参数说明如表13-15所示。

图13-24 Create Virtual Drive(1)

 

图13-25 Create Virtual Drive(2)

 

表13-15 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照13.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 50”,并按“Enter”。

                                步骤 3     创建第1个Span。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如图13-26所示,界面参数如表13-16所示。

图13-26 添加成员盘

 

表13-16 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     按表13-16所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 50支持2~8个Span,每个Span支持的硬盘数为3~32,各个Span的硬盘数量必须保持一致。

l     RAID 50支持的硬盘总数为6~240。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully。

7.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     创建第2个Span。

当配置的级别为RAID 50时,需要配置多个Span,此时配置界面如图13-27所示。

图13-27 RAID 50的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

3.     在打开的列表中选择第2个Span的成员盘。

说明

各个Span的硬盘数量必须保持一致。

4.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。

说明

RAID50至少需要创建2个Span,最多可以创建8个Span。

                                步骤 6     按照表13-15所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照13.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 7     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

13.3.8 创建RAID 60

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见13.2.1 支持RAID 0/1/5/6/10/50/60。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见13.6.1 进入管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图13-28图13-29所示,参数说明如表13-17所示。

图13-28 Create Virtual Drive(1)

 

图13-29 Create Virtual Drive(2)

 

表13-17 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照13.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 60”,并按“Enter”。

                                步骤 3     创建第1个Span。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”并按“Enter”。

打开添加成员盘的界面,如图13-30所示,界面参数如表13-18所示。

图13-30 添加成员盘

 

表13-18 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     按表13-18所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 60支持2~8个Span,每个Span支持的硬盘数为3~32,且各个Span的硬盘数量必须保持一致。

l     RAID 60支持的硬盘总数为6~240。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully。

7.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     创建第2个Span。

当配置的级别为RAID 60时,需要配置多个Span,此时配置界面如图13-31所示。

图13-31 RAID 60的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

3.     在打开的列表中选择第2个Span的成员盘。

说明

各个Span的硬盘数量必须保持一致。

4.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。

说明

RAID60至少需要创建2个Span,最多可以创建8个Span。

                                步骤 6     按照表13-17所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照13.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 7     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

13.3.9 配置启动项

同一台服务器配置了单个9460-8i卡或者多种芯片硬盘控制器的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。

设置启动项的操作方法请参见bios 参数参考的“设置启动设备”章节。

13.4 常用配置

13.4.1 管理热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

9460-8i支持2种类型的热备盘:

l     Global Hotspare:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

l     Dedicated Hotspare:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

说明

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     除RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

13.4.1.1 配置全局热备盘

操作步骤

登录管理界面,具体操作方法请参见13.3.1 进入管理界面。

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如图13-32所示。

图13-32 Drive Management

 

                                步骤 2     配置全局热备盘。

1.     将“Operation”设置为“Assign Global Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

显示The operation has been performed successfully。

3.     按“ESC”完成配置并返回上级界面。

----结束

13.4.1.2 配置局部热备盘

操作步骤

说明

当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

登录管理界面,具体操作方法请参见13.3.1 进入管理界面。

                                步骤 1     进入“Drive Management”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如图13-33所示。

图13-33 Drive Management

 

                                步骤 2     配置局部热备盘。

1.     将“Operation”设置为“Assign Dedicated Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

打开当前存在的虚拟磁盘列表,如图13-34所示。

图13-34 虚拟磁盘列表

 

3.     选择要关联的虚拟磁盘并按“Enter”。

4.     选择“OK”按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

13.4.1.3 删除热备盘

操作场景

当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

操作步骤

登录管理界面,具体操作方法请参见13.3.1 进入管理界面。

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如图13-35所示。

图13-35 Drive Management

 

                                步骤 2     删除热备盘。

1.     将“Operation”设置为“Unassign Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully。

5.     按“ESC”完成配置并返回上级界面。

----结束

13.4.2 设置紧急热备功能

操作步骤

登录管理界面,具体操作方法请参见13.3.1 进入管理界面。

                                步骤 1     进入“Advanced Controller Properties”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

3.     选择“Advanced Controller Properties”并按“Enter”。

进入“Advanced Controller Properties”界面,如图13-36所示。

图13-36 Advanced Controller Properties(1)

 

                                步骤 2     设置紧急热备。

1.     选择“Spare”并按“Enter”。

2.     将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如图13-37所示。

图13-37 Advanced Controller Properties(2)

 

3.     选择“Apply Changes”并按“Enter”。

显示The operation has been performed successfully。

4.     选择“OK”并按“Enter”,完成配置。

----结束

13.4.3 添加新硬盘到RAID

操作场景

 

注意

l     只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。

l     RAID10、RAID 50、RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

对系统的影响

增加硬盘扩容过程中,如果出现硬盘故障,会导致:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID。

请谨慎执行增加硬盘扩容操作。

必备事项

前提条件

添加硬盘扩容之前,需具备如下条件:

l     服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     已登录管理界面,具体操作请参见13.3.1 进入管理界面。

数据

操作之前建议先备份数据。

操作步骤

进入“Virtual Drive Management”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”。

进入虚拟磁盘选项界面,如图13-38所示。

图13-38 虚拟磁盘选项界面

 

                                步骤 2     添加新硬盘。

1.     选择要进行扩容的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如图13-39所示。

图13-39 Operation

 

3.     选择“Reconfigure Virtual Drives”并按“Enter”

4.     选择“Go”并按“Enter”。

5.     选择要扩容的RAID级别。

 

注意

增加硬盘扩容时,请保证该处的RAID级别与原级别一致。

6.     选择“Choose the Operation”,并按“Enter”。

进入硬盘选择界面,如图13-40所示。

图13-40 Choose the Operation

 

7.     选择要增加的硬盘,并按“Apply Changes”。

进入确认操作界面。

说明

l     增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。

l     RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。

8.     选择“Confirm”并按“Enter”。

9.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully。

10.     选择“OK”并按“Enter”。

返回到如图13-41所示界面。

图13-41 选择操作

 

11.     选择“Start Operation”并按“Enter”。

显示操作成功。返回虚拟磁盘选项界面,验证扩容结果,如图13-42所示,表示RAID正在进行扩容。

图13-42 虚拟磁盘选项界面

 

----结束

13.4.4 扩展Virtual Drives可用空间

操作场景

在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见13.3.1 进入管理界面。

                                步骤 1     进入要操作的虚拟磁盘界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如图13-43所示。

图13-43 Virtual Drive Management

 

                                步骤 2     扩容虚拟磁盘。

1.     将“Operation”设置为“Expand Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入虚拟磁盘扩容界面,如图13-44界面所示,界面参数如表13-19所示。

图13-44 Expand Virtual Drive

 

表13-19 参数说明

参数

参数说明

Current Capacity

虚拟磁盘当前容量。

Available Capacity

可用于扩展的容量。

Enter a Percentage of Available Capacity

输入扩容比例。

Capacity of Virtual Drive after Expansion

扩容后虚拟磁盘容量。

 

3.     设置扩容百分比。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

返回虚拟磁盘选项界面,验证扩容结果,如图13-45所示。

图13-45 查看扩容结果

 

----结束

13.4.5 迁移RAID级别

操作场景

随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。

在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。

对系统的影响

RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID。

请谨慎执行RAID级别迁移操作。

必备事项

前提条件

迁移RAID级别之前,需具备如下条件:

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     当前存在的硬盘个数满足目标RAID级别要求。

l     已登录管理界面,具体操作请参见13.3.1 进入管理界面。

9460-8i支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1、RAID 5、RAID 6

l     RAID 1迁移到RAID 0、RAID 5、RAID 6

l     RAID 5迁移到RAID 0、RAID 6

l     RAID 6迁移到RAID 0、RAID 5

RAID迁移对硬盘数量的要求如表13-3所示。

说明

l     当RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     迁移只支持增加与RAID组成员盘同类型同规格的硬盘。

l     为防止数据丢失,请在该操作之前备份当前RAID组的数据。

l     只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。

l     迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。

操作步骤

进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”并按“Enter”。

进入虚拟磁盘选项界面,如图13-46所示。

图13-46 虚拟磁盘选项界面

 

                                步骤 2     选择RAID迁移的目标级别。

下面以将RAID 1迁移到RAID 5为例进行说明。

1.     选择要进行迁移的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如图13-47所示。

图13-47 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”。

4.     选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如图13-48所示。不设置时默认与原RAID组配置一致。

图13-48 Advanced...

 

5.     选择“Go”,并按“Enter”。

进入RAID配置界面,如图13-49所示。

图13-49 Reconfigure Virtual Drives

 

6.     选择“New RAID Level”并按“Enter”。

打开RAID迁移的目标级别选择窗口,如图13-50所示。

图13-50 选择新的RAID级别

 

7.     选择“RAID 5”并按“Enter”。

                                步骤 3     添加硬盘。

1.     选择“Choose the operation”并按“Enter”。

打开硬盘选择窗口。

2.     选择要增加的硬盘并按“Enter”。

说明

l     RAID迁移对硬盘数量的要求请参见表13-3

l     增加的硬盘要与RAID组的成员盘同类型同规格。

3.     选择“Apply Changes”并按“Enter”。

弹出操作确认会话框。

4.     选择“Confirm”并按“Enter”。

5.     选择“Yes”并按“Enter”。

提示操作成功。

6.     选择“OK”并按“Enter”返回图13-49界面。

                                步骤 4     RAID级别迁移。

1.     选择“Start Operation”并按“Enter”。

提示操作成功。

                                步骤 5     查看迁移结果。

1.     进入Virtual Drive Management界面,检查迁移结果,如图13-51所示,表示RAID正在进行迁移。

图13-51 查看迁移结果

 

说明

l     迁移过程中若重启服务器,该任务将在重启后继续进行。

l     迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。

2.     选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 1”变成“RAID 5”,RAID组容量增大,且“Status”状态显示为“Optimal”,表示RAID迁移成功。

----结束

13.4.6 删除RAID

操作场景

 

注意

RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见13.3.1 进入管理界面。

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如图13-52所示。

图13-52 Virtual Drive Management

 

                                步骤 2     删除虚拟磁盘。

1.     将“Operation”设置为“Delete Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

13.4.7 重构RAID

操作场景

介绍将带有外部配置的硬盘进行重构的操作方法,不带外部配置硬盘的重构方法请参见13.5.1.1 硬盘故障。

操作步骤

在“Main Menu”界面中选择“Drive Management”并按“Enter”。

                                步骤 1     选中要进行重构的硬盘,按“Enter”。

                                步骤 2     将“Operation”设置为“Make Unconfigured Good”。

                                步骤 3     选择“Go”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 4     按“Enter”完成配置。

硬盘状态变为“(Foreign),Unconfigured Good”。

                                步骤 5     清除外部配置,具体操作请参见13.4.9 导入/清除外部配置。

RAID组开始进行重构。

----结束

说明

当出现硬盘离线情况时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

13.4.8 查看RAID控制卡属性

操作场景

用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。

操作步骤

登录管理界面,具体操作方法请参见13.3.1 进入管理界面。

                                步骤 1     进入“Controller Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息,如图13-53所示,参数说明如表13-20所示。

图13-53 Controller Management

 

表13-20 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见13.3.9 配置启动项。

PCI ID

RAID控制卡的PCI ID。

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Connector Count

RAID控制卡与主板的接口个数。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制器操作。

Advanced Controller Properties

查看和修改控制器的高级属性。

 

                                步骤 2     查看控制器高级属性。

选择“Advanced Controller Properties”并按“Enter”。

进入控制器高级属性界面,如图13-54图13-55所示,参数说明如表13-21所示。

在该界面下,可查看并修改RAID控制卡的高级属性。

图13-54 Advanced Controller Properties (1)

 

图13-55 Advanced Controller Properties (2)

 

表13-21 参数说明

参数

说明

Cache and Memory

查看控制器Cache和Memory信息。

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

Spare

设置控制器热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

9460-8i RAID控制卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。

默认为“pause on error”。

Controller BIOS

控制器BIOS的使能情况。

ROC Temperature

控制器温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见13.4.9 导入/清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验

JBOD Mode

是否使能硬盘直通功能。

Write Verify

-

 

----结束

13.4.9 导入/清除外部配置

操作场景

l     服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入。

 

注意

l     如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!

l     为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

导入外部配置

登录管理界面,具体操作方法请参见13.3.1 进入管理界面。

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如图13-56所示。

图13-56 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如图13-57所示。

图13-57 外部配置

 

                                步骤 5     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 8     按“ESC”完成配置返回上级界面。

----结束

清除外部配置

登录管理界面,具体操作方法请参见13.3.1 进入管理界面。

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如图13-58所示。

图13-58 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如图13-59所示。

图13-59 外部配置

 

                                步骤 5     选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 8     按“ESC”完成配置返回上级界面。

----结束

13.4.10 设置JBOD模式

9460-8i支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

说明

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

登录管理界面,具体操作方法请参见13.3.1 进入管理界面。

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Properties界面,如图13-60所示。

图13-60 Advanced Controller Properties

 

                                步骤 2     选择“JBOD Mode”并按Enter。

                                步骤 3     选择“Enabled”并按“Enter”。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

13.4.11 创建多个VD(Virtual Drive)

该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID0存在一个VD为例,详细操作方法如下:

按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如图13-61所示。

图13-61 Create Virtual Drive

 

                                步骤 2     将“Select Drives From”设置为“Free Capacity”,如图13-62所示。

图13-62 Create Virtual Drive

 

                                步骤 3     选择“Select Drive Groups”并按“Enter”。

显示当前存在的RAID组(Drive Group),如图13-63所示。

图13-63 Select Drive Groups

 

                                步骤 4     选择要创建多个VD的RAID组并按“Enter”,如图13-64所示。

图13-64 Select Drive Groups

 

                                步骤 5     选择“Apply Changes”并按“Enter”。

提示操作成功。

                                步骤 6     选择“OK”并按“Enter”返回VD配置界面,如图13-65所示,参数说明如表13-22所示。

图13-65 Create Virtual Drive

 

表13-22 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Protect Virtual Drive

虚拟磁盘数据保护功能使能状态。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drive Groups

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照13.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

默认值为Read Ahead。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

默认值为Write Back。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略。可配置的状态有:

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。

l     Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 7     按照表13-22所述配置VD的相关属性。

                                步骤 8     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

                                步骤 9     选择“Confirm”并按“Enter”。

                             步骤 10     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                             步骤 11     选择“OK”并按“Enter”完成配置。

可进入Virtual Drive Management界面,查看当前存在的所有VD,如图13-66所示。

图13-66 Virtual Drive Management

 

----结束

说明

每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤11

13.4.12 查询RAID控制卡固件版本

查询RAID控制卡固件版本的方法有如下几种:

l     在iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。

l     服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见13.7.2.1 查询RAID控制卡配置信息。

说明

回显信息中的“FW Version”字段即为RAID控制卡的固件版本。

l     在RAID控制卡管理界面进行查询,具体方法为:

a.     登录RAID控制卡的管理界面,具体操作请参见13.3.1 进入管理界面。

b.     在主界面中选择“Main Menu”并按“Enter”。

进入“Main Menu”页面,如图13-67所示。

图13-67 Main Menu页面

 

c.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如图13-68所示。

图13-68 Controller Management界面

 

13.5 故障处理

介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

13.5.1 硬盘故障

13.5.1.1 硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

确认故障硬盘槽位。

说明

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考13.6.2.8 Drive Management。

l     通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

                                步骤 1     更换新硬盘。

 

注意

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考13.4.9 导入/清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在表13-2查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制器下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。

     UEFI模式下创建RAID0的方法请参见13.3.2 创建RAID 0。

     通过命令行方式创建RAID0的方法请参见13.7.2.2 创建和删除RAID。

----结束

13.5.1.2 硬盘状态为fail或prefail

问题描述

正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。

但当RAID控制卡未设置紧急热备时,成员盘状态显示为fail或prefail时,可使用以下方法处理。

处理方法

使用StorCLI工具,具体操作请参考13.7.1 下载和安装StorCLI工具。

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考13.7.2.16 设置硬盘状态。

storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]

说明

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在Enclosure的ID

l     slot_id:物理硬盘槽位ID

                                步骤 2     更换离线硬盘。

                                步骤 3     RAID组自动执行重构。

等待重构完成。

----结束

13.5.1.3 硬盘状态为Unconfigured Bad或UBad

问题描述

硬盘状态显示为Unconfigured Bad或UBad。

处理方法

使用StorCLI工具,具体操作请参见13.7.1 下载和安装StorCLI工具。

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见13.7.2.16 设置硬盘状态。

storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]

说明

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在Enclosure的ID

l     slot_id:物理硬盘槽位ID

                                步骤 2     重新查看硬盘状态是否更改为Unconfigured Good或Ugood。具体操作请参见13.6.2.8 Drive Management界面或13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤4

                                步骤 3     查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见13.4.9 导入/清除外部配置或13.7.2.33 查看/导入/清除外部配置。

l     问题解决 => 处理完毕。

l     问题未解决 => 联系技术支持处理。

----结束

13.5.2 RAID控制卡故障

问题描述

当服务器出现如下现象时,说明RAID控制卡故障。

l     数据无法写入RAID控制卡控制的硬盘。

l     服务器上报RAID控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     查询兼容性查询助手或者联系技术支持处理。

----结束

13.5.3 电容故障

问题描述

当RAID控制卡电容故障时,可能导致服务器出现如下情况:

l     服务器读写速度显著降低。

l     RAID控制卡的CU界面中显示电容状态异常。

处理方法

进入RAID控制卡的CU界面,查看电容状态是否为“Optimal”。

电容状态可查询13.6.2.9 Hardware Components界面的“Battery Status”参数。

l     是 => 处理完毕

l     否 => 步骤2

                                步骤 1     将服务器下电,打开机箱,并查看RAID控制卡电容是否在位。

l     是 => 步骤4

l     否 => 步骤3

                                步骤 2     检查整机配置,为服务器安装电容,查看电容状态是否为“Optimal”。

l     是 => 处理完毕

l     否 => 步骤6

                                步骤 3     重新安装RAID控制卡电容,查看电容状态是否为“Optimal”。

l     是 => 处理完毕

l     否 => 步骤5

                                步骤 4     更换RAID控制卡电容,查看电容状态是否为“Optimal”,且“问题描述”所述的异常状态是否消失。

l     是 => 处理完毕

l     否 => 步骤6

                                步骤 5     联系技术支持处理。

----结束

13.5.4 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy

问题描述

正常情况下,当服务器配置了RAID控制卡且RAID控制卡状态正常时,进入BIOS的Advanced页签后,会显示RAID控制卡的信息,如图13-69所示。

如果Advanced页签不显示RAID控制卡的信息,如图13-70所示,则:

l     如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:

     如果不显示驱动打印信息,可尝试下电后重新拔插RAID控制卡再上电、下电后更换RAID控制卡再上电或者联系技术支持。

     如果显示“AVAGO EFI SAS Driver”,则可以通过本章节的指导修复RAID控制卡。

l     如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,则可以通过本章节的指导修复RAID控制卡;如果不显示,可尝试下电后重新拔插RAID控制卡再上电、下电更换RAID控制卡再上电或者联系技术支持。

图13-69 Advanced页签(1)

 

图13-70 Advanced页签(2)

 

图13-71 Advanced页签(3)

 

处理方法

l     当BIOS的版本为0.98之前版本(不包含0.98版本)时:

a.     在Advanced页签选择“Driver Health Manager”并按Enter。

进入“Driver Health Manager”界面。

b.     选择要进行修复的RAID控制卡驱动,如“AVAGO EFI SAS Driver SAS3508”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息:

n     显示“The following VDs have missing disks. ”=> 请参见13.5.4.1 The following VDs have missing disks。

n     显示“There are offline or missing virtual drives with preserved cache.” => 请参见13.5.4.2 There are offline or missing virtual drives with preserved cache

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见13.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。

n     显示“Memory/battery problems were detected / Unexpected power-loss occurred”=> 请参见13.5.4.4 Memory/battery problems were detected / Unexpected power-loss occurred。

l     当BIOS的版本为0.98及以上版本时:

a.     在“Advanced”页签选择“Some drivers are not healthy”。

进入健康状态查询界面。

b.     选择“Repair the whole platform”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息。

n     显示“The following VDs have missing disks. ”=> 请参见13.5.4.1 The following VDs have missing disks。

n     显示“There are offline or missing virtual drives with preserved cache.” => 请参见13.5.4.2 There are offline or missing virtual drives with preserved cache

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见13.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。

n     显示“Memory/battery problems were detected / Unexpected power-loss occurred”=> 请参见13.5.4.4 Memory/battery problems were detected / Unexpected power-loss occurred。

说明

RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见A.2 RAID控制卡启动中出现的常见的错误消息及处理方法。

13.5.4.1 The following VDs have missing disks

问题描述

图13-72所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。

图13-72 状态显示

 

处理方法

修复RAID控制卡。

1.     在图13-72中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

2.     输入“C”并按“Enter”。

3.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

4.     输入“y”并按“Enter”。

提示“Critical Message handling completed. Please exit”。修复完成。

                                步骤 1     重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

13.5.4.2 There are offline or missing virtual drives with preserved cache

问题描述

如图13-73所示,进入“Driver Healthy Protocol Utility”界面后,显示“There are offline or missing virtual drives with preserved cache”。

图13-73 状态显示

 

处理方法

选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

                                步骤 1     输入任意内容,并按“Enter”。

提示Critical Message handling completed. Please exit。修复完成。

                                步骤 2     按Esc。

进入RAID控制卡界面,如图13-74所示。

图13-74 RAID控制卡界面

 

                                步骤 3     选择“Discard Preserved Cache”并按Enter。

弹出操作确认界面,如图13-75所示。

图13-75 操作确认窗口

 

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示操作成功。

                                步骤 6     重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

13.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

问题描述

图13-76所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”

图13-76 状态显示

 

处理建议

该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:

l     下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。

l     忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:

a.     在图13-76中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

b.     输入“c”并按“Enter”。

c.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

d.     输入“y”并按“Enter”。

提示Critical Message handling completed. Please exit。

e.     按“Esc”退出当前界面。

弹出确认保存配置会话框,如图13-77所示。

图13-77 提示保存会话框

 

f.     按“Y”保存配置,操作完成。

g.     按Esc键返回“Device Manager”界面。

h.     选择9460-8i RAID控制卡,并按“Enter”,进入RAID控制卡管理界面。

13.5.4.4 Memory/battery problems were detected / Unexpected power-loss occurred

问题描述

如图13-78所示,进入“Driver Healthy Protocol Utility”界面后,显示“Memory/battery problems were detected / Unexpected power-loss occurred”。

图13-78 状态显示

 

处理方法

选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

                                步骤 1     输入任意内容,并按“Enter”。

提示Critical Message handling completed. Please exit。修复完成。

                                步骤 2     重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

13.5.4.5 Disabling writes to flash as the flash part has gone bad

问题描述

图13-79所示,进入“Driver Healthy Protocol Utility”界面后,显示“Disabling writes to flash as the flash part has gone bad”。

图13-79 状态显示

 

处理方法

将服务器下电。

                                步骤 1     更换RAID控制卡。

                                步骤 2     将服务器上电,导入外部配置恢复原来的RAID配置,请参见13.4.9 导入/清除外部配置或13.7.2.33 查看/导入/清除外部配置。

检查提示是否清除。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

13.5.5 将Controller Mode恢复为“RAID”

问题描述

RAID控制卡的“Advanced Controller Management”界面中,通过Switch to JBOD mode将RAID控制卡的工作模式切换为“JBOD”,此时“Controller Mode”选项会显示为“JBOD”,如图13-80所示,RAID控制卡在该状态下运行时可能导致硬盘显示信息异常等问题,需要将RAID控制卡的工作模式切换成“RAID”,使RAID控制卡功能恢复正常。

图13-80 问题描述

 

说明

当“Controller Mode”选项被修改为“JBOD”时,界面会显示“Manage Mode and Params”选项。

处理方法

(可选)登录RAID控制卡管理界面,具体操作请参见13.6.1 进入管理界面。

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Management界面,如图13-81所示。

图13-81 Advanced Controller Management界面

 

                                步骤 2     选择“Switch to RAID mode”并按“Enter”。

提示操作成功,如图13-82所示。

图13-82 操作成功

 

                                步骤 3     选择“OK”并按“Enter”。

返回到“Advanced Controller Management”界面,显示正在切换模式,如图13-83所示。

图13-83 Advanced Controller Management界面

 

                                步骤 4     按“Ctrl+Alt+Del”组合键重启服务器,重新登录RAID控制卡管理界面,具体操作请参见13.6.1 进入管理界面。

                                步骤 5     依次进入Main Menu>Controller Management>Advanced Controller Management界面,查看“Controller Mode”是否显示为“RAID”,如图13-84所示。

图13-84 Advanced Controller Management界面

 

l     是 => 处理完毕

l     否 => 请联系技术支持

----结束

13.6 管理界面介绍

13.6.1 进入管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如图13-85所示界面时,按“Delete”,进入输入密码界面。

图13-85 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如图13-86所示界面。

图13-86 Setup Utility界面

 

                                步骤 4     通过“”或“→ ”进入“Advanced”页签,如图13-87所示。

图13-87 “Advanced”页签

 

说明

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见13.5.4 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择“Avago MegaRAID <SAS 9460-8i> Configuration Utility”,按“Enter”。

进入9460-8i主界面,如图13-88图13-89所示,界面参数如表13-23所示。

图13-88 9460-8i主界面(1)

 

图13-89 9460-8i主界面(2)

 

表13-23 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

说明

9460-8i不支持在此界面升级FW。

Silence Alarm

板载蜂鸣器的使能状态。

说明

9460-8i未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

13.6.2 Main Menu

RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。

界面介绍

“Main Menu”界面如图13-90,参数说明如表13-24所示。

图13-90 Main Menu

 

表13-24 参数说明

参数

参数说明

Configuration Management

配置管理RAID。

Controller Management

管理RAID控制器。

Virtual Drive Management

管理虚拟磁盘。

Drive Management

管理硬盘。

Hardware Components

查询部件信息。

 

1.     Configuration Management

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

“Configuration Management”界面如图13-91,参数说明如表13-25所示。

图13-91 Configuration Management

 

表13-25 参数说明

参数

参数说明

Auto Configure RAID 0

自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0。

Create Virtual Drive

创建RAID。

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Clear Configuration

清除当前所有RAID配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时会显示该参数。

 

查看虚拟磁盘属性

图13-91中选择“View Drive Group Properties”并按“Enter”。

打开的界面如图13-92,参数说明如表13-26所示。

图13-92 View Drive Group Properties

 

表13-26 参数说明

参数

参数说明

Drive Group

硬盘组名称。

Capacity Allocation

硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。

 

清除RAID配置

选择“Clear Configuration”并按“Enter”。

进入操作确认界面。

                                步骤 1     选中“Confirm”并按“Enter”。

                                步骤 2     在打开的列表中选择“Enabled”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 4     按“Enter”。

配置完成。

----结束

查看并导入外部配置

图13-91中选择“Manage Foreign Configuration”并按“Enter”。

界面如图13-93所示。

图13-93 Manage Foreign Configuration

 

                                步骤 2     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如图13-94所示。

图13-94 外部配置

 

                                步骤 3     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     在列表中选择“Enable”并按“Enter”。

                                步骤 6     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 7     选择“OK”并按“Enter”完成配置。

----结束

清除外部配置

选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     在列表中选择“Enable”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

13.6.2.6 Controller Management

该界面提供控制器管理接口,可查看并修改控制器的详细参数。

界面介绍

“Controller Management”界面如图13-95,参数说明如表13-27所示。

图13-95 Controller Management

 

表13-27 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。

PCI ID

RAID控制卡的PCI ID。

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Connector Count

RAID控制卡与主板的接口个数。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制器操作。

Advanced Controller Properties

查看和修改控制器的高级属性。

 

更多控制器操作

图13-95中选择“Advanced Controller Management”并按“Enter”。

界面如图13-96所示,界面中参数说明如表13-28所示。

图13-96 Advanced Controller Management

 

表13-28 参数说明

参数

说明

Clear Controller Events

清除控制器的事件日志。

Save Controller Events

保存控制器的事件日志。

Save TTY Log

保存终端操作日志。

Manage SAS Storage Link Speed

管理接口速率。

Manage MegaRAID Advanced Software Options

管理高级软件功能。

Schedule Consistency Check

设置一致性校验参数。

Set Factory Defaults

恢复为出厂配置。

Switch to JBOD mode

切换RAID控制卡的工作模式,默认为RAID模式。当RAID控制卡当前的工作模式为RAID时,显示为“Switch to JBOD mode”;当RAID控制卡当前的工作模式为JBOD时,显示为“Switch to RAID mode”。

RAID控制卡的工作模式仅支持设置为“RAID”,请勿修改为“JBOD”。

如已设置为JBOD,请参见13.5.5 将Controller Mode恢复为“RAID”进行恢复;如需要开启JBOD功能,请参见13.4.10 设置JBOD模式进行设置。

Controller Mode

RAID控制卡当前的工作模式。

 

查看并修改控制器高级属性

图13-95中选择“Advanced Controller Properties”并按“Enter”。

界面如图13-97图13-98所示,界面中参数说明如表13-29所示。

图13-97 Advanced Controller Properties(1)

 

图13-98 Advanced Controller Properties(2)

 

表13-29 参数说明

参数

说明

Cache and Memory

查看控制器Cache和Memory信息。

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

Spare

设置控制器热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

9460-8iRAID控制卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。

默认为“pause on error”。

Controller BIOS

控制器BIOS的使能情况。

ROC Temperature

控制器温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

磁盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Expanded Virtual Drive Support

是否支持扩容虚拟磁盘的功能。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见13.4.9 导入/清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

JBOD Mode

硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。

 

                                步骤 2     在图13-97中选择“Task Rates”并按“Enter”。界面如图13-99所示,界面中参数说明如表13-30所示。

图13-99 Task Rates

 

表13-30 参数说明

参数

说明

Background Initialization <BGI> Rate

设置执行后台初始化的速率。

说明

数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Consistency Check Rate

设置执行一致性校验的速率。

说明

数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Patrol Read Rate

设置执行巡检读取的速率。

说明

数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Rebuild Rate

设置硬盘发生故障时在新硬盘上执行重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Reconstruction Rate

设置执行RAID级别迁移或在线容量扩展时重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Apply Changes

保存配置。

 

                                步骤 3     按照表13-29所述修改控制器的高级属性参数。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     单击“OK”完成配置。

----结束

13.6.2.7 Virtual Drive Management

该界面提供虚拟磁盘的查询和管理接口。

界面介绍

“Virtual Drive Management”界面如图13-100,显示虚拟磁盘列表。

图13-100 Virtual Drive List

 

选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如图13-101所示,参数说明如表13-31所示。

图13-101 Virtual Drive Management

 

表13-31 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:定位虚拟磁盘的所有硬盘。

l     Stop Locate:取消定位。

l     Delete Virtual Drive:删除虚拟磁盘。

l     Expand Virtual Drive:扩展虚拟磁盘容量。

l     Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。

l     Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。

l     Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。

l     Fast Initialization:快速初始化虚拟磁盘。

l     Slow Initialization:安全初始化虚拟磁盘。

l     Check Consistency:一致性校验。

l     Virtual Drive Erase:格式化虚拟磁盘。

Name

虚拟磁盘名称。

Raid Level

虚拟磁盘RAID级别。

Status

虚拟磁盘当前运行状态。

Size

虚拟磁盘容量。

View Associated Drives

查看成员盘属性。

Advanced...

查看虚拟磁盘高级属性。

 

查看成员盘属性

图13-101中选择“View Associated Drives”并按“Enter”。

界面如图13-102,显示成员盘列表。

图13-102 View Associated Drives

 

                                步骤 2     选择要查看的成员盘,并按“Enter”。

                                步骤 3     选择“View Drive Properties”并按“Enter”。

进入硬盘属性界面,如图13-103界面所示,界面参数如表13-32所示。

图13-103 View Drive Properties

 

表13-32 参数说明

参数

参数说明

Operation

该成员盘可执行的操作,包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Place Drive Online/Offline:将硬盘上线/离线。

Drive ID

成员盘的ID。

Status

成员盘的当前工作状态。

Size

成员盘的容量。

Type

成员盘类型。

Model

成员盘的模块类型。

Hardware Vendor

成员盘的生产厂商。

Associated Virtual Drive

成员盘所在的虚拟磁盘。

Advanced...

查询成员盘更多属性。

 

----结束

查看和修改虚拟磁盘高级属性

图13-101中选择“Advanced”并按“Enter”。

界面如图13-104图13-105所示,界面参数如表13-33所示。

图13-104 Advanced (1)

 

图13-105 Advanced (2)

 

表13-33 参数说明

参数

参数说明

Logical Sector Size

逻辑扇区大小。

Strip Size

条带大小。

Starting Logical Block Addressing

逻辑单元起始地址。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Protected

是否支持硬盘保护。

Bad Blocks

是否支持坏块处理。

SSD Caching

是否支持SSD Caching。

Access

是否支持Access。

Current Write Cache Policy

当前写Cache策略,包括:

l     Write Through:当硬盘子系统接收到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。

l     Write Back:当RAID控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Always Write Back:当未配置超级电容或超级电容故障时,RAID控制卡将不会自动切换到Write Through模式。

说明

“Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR的写数据将会丢失。不推荐使用该模式。

Default Write Cache Policy

默认的写Cache策略。

Disable Background Initialization

是否禁用后台初始化。

Read Cache Policy

当前读Cache策略,包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。RAID控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

Drive Cache

是否支持cache。

Input/Output

I/O读取策略,包括:

l     Direct:直接从硬盘读取数据,不经过Cache缓存。

l     Cached:从Cache缓存中读取数据。

Apply Changes

保存配置。

 

                                步骤 2     按照表13-33所述配置“Advanced”的参数。

                                步骤 3     选择“Apply Changes”并按“Enter”。

显示The operation has been performed successfully。

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

13.6.2.8 Drive Management

该界面显示硬盘基本属性,提供硬盘操作接口。

界面介绍

“Drive Management”界面如图13-106所示,显示硬盘列表。

图13-106 Drive List

 

选定要操作的硬盘并按“Enter”进入详细操作界面,如图13-107所示,参数说明如表13-34所示。

图13-107 Drive Management

 

表13-34 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Initialize Drive:硬盘初始化。

l     Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。

     Simple:仅对硬盘进行一轮擦除动作。

     Normal:对硬盘进行三轮擦除动作。

     Thorough:对硬盘进行九轮擦除动作。

     Stop Erase:停止数据擦除操作。

l     Make Unconfigured Good/Bad:修改硬盘状态。

l     Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。

l     Assign Global Hot Spare Drive:设置全局热备盘。

l     Assign Dedicated Hot Spare Drive:设置局部热备盘。

l     Unassign Hot Spare Drive:删除热备盘。

l     Cryptographic Erase:对加密硬盘进行数据擦除。

l     Place Drive Online:将Offline状态的硬盘设置为Online。

说明

l     Place Drive Online操作只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。

l     对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。

Drive ID

硬盘的ID。

Status

硬盘的当前工作状态。

Size

硬盘的容量。

Type

硬盘的类型。

Model

硬盘型号。

Hardware Vendor

硬盘的生产厂商。

Associated Virtual Drive

表示硬盘已加入虚拟磁盘,此处显示虚拟磁盘信息。

Advanced...

查询更多硬盘属性。

 

安全擦除硬盘数据

说明

该操作会删除硬盘上的数据,请谨慎执行。

将“Operation”设置为“Drive Erase”。

                                步骤 1     选择“Erase Mode”并按“Enter”。

                                步骤 2     在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。

                                步骤 3     选择“OK”并按“Enter”。

进入操作确认界面。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示操作成功。

----结束

查看硬盘属性

选择“Advanced...”并按“Enter”。

打开硬盘属性界面,如图13-108和图13-109所示,参数说明如表13-35所示。

图13-108 Drive Properties (1)

 

图13-109 Drive Properties (2)

 

表13-35 参数说明

参数

参数说明

Certified

硬盘是否有供应商认证。

Logical Sector Size

逻辑扇区大小。

Physical Sector Size

物理扇区大小。

SMART Status

SMART功能是否使能。

Revision

硬盘Firmware版本。

Media Errors

Media error个数。

Predicted Fail Count

Pred fail个数。

SAS Address

硬盘SAS地址。

Drive Power State

硬盘上电状态。

Emergency Spare

是否支持紧急备份功能,即是否可以选空闲盘或者热备做备份盘。

Commissioned Hot Spare

是否指定了备份盘,即把一个热备盘指定给一个RAID组使用。

Cache Setting

是否可设置Cache。

Available Size

硬盘可用空间。

Used Space

已使用的硬盘空间。

Disk Protocol

硬盘支持的协议。

Device Speed

设备速率。

Negotiated Drive Transfer Speed

硬盘数据传输速率。

Number of Connections

连接器个数。

FDE Capable

硬盘是否支持FDE(Full Disk Encryption)技术。

Cryptographic Erase Capable

硬盘是否支持加密擦除功能。

Unmap Capable

解除映射能力。

Temperature

硬盘温度。

 

13.6.2.9 Hardware Components

该界面主要提供RAID控制卡传感器信息。

界面介绍

“Hardware Components”界面如图13-110,参数说明如表13-36所示。

图13-110 Hardware Components

 

表13-36 参数说明

参数

参数说明

Temperature Sensors

当前温度传感器状态。

Fans

当前风扇模块工作状态。

Power Supplies

当前供电模块工作状态。

Battery Management

电容管理。

Enclosure Management

查看更多传感器信息。

 

查看更多传感器信息

选择“Enclosure Management”并按“Enter”。

进入部件选择界面,如图13-111所示。

图13-111 选择部件

 

                                步骤 2     选择“Select Enclosure”并按“Enter”。

                                步骤 3     选择要操作的部件并按“Enter”。

                                步骤 4     选择“View Enclosure Status”并按“Enter”。

显示传感器的详细信息。

                                步骤 5     在TEMPERATUR SENSOR下通过“Select Temperature Sensor”选择要查询的温度传感器。

“Temperature Sensor Status”显示所查询的传感器的状态。

                                步骤 6     在FAN下通过“Select Fan”选择要查询的风扇传感器。

“Fan Status”显示所查询的传感器的状态。

                                步骤 7     在POWER SUPPLY下通过“Select Power Supply”选择要查询的供电模块传感器。

“Power Supply Status”显示所查询的传感器的状态。

----结束

13.6.3 View Server Profile

提供RAID控制卡操作管理接口。

界面介绍

“View Server Profile”界面如图13-112所示,参数说明如表13-37所示。

图13-112 View Server Profile

 

表13-37 参数说明

参数

参数说明

UEFI Spec Version

服务器支持的UEFI Spec版本。

Controller Management

提供控制器管理接口,详细情况请参见13.6.2.6 Controller Management。

Hardware Components

提供控制器部件查询接口,详细情况请参见13.6.2.9 Hardware Components。

Drive Management

提供硬盘管理接口,详细情况请参见13.6.2.8 Drive Management。

Virtual Drive Management

提供虚拟磁盘管理接口,详细情况请参见13.6.2.7 Virtual Drive Management。

 

13.6.4 View Foreign Configuration

该界面可查看、导入、清空外部配置。

界面介绍

“View Foreign Configuration”界面如图13-113所示。

图13-113 View Foreign Configuration

 

查看并导入外部配置

选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如图13-114所示。

图13-114 外部配置

 

                                步骤 2     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     单击“OK”完成配置。

----结束

清除外部配置

选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 3     单击“OK”完成配置。

----结束

13.6.5 Configure

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

“Configure”界面如图13-115所示,参数说明如表13-38所示。

图13-115 Configure

 

表13-38 参数说明

参数

参数说明

Auto Configure RAID 0

自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0。

Create Virtual Drive

创建RAID。

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Clear Configuration

清除当前所有RAID配置。

Manage Foreign Configuration

管理外部配置。

 

清除当前配置

选择“Clear Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 3     单击“OK”完成配置。

----结束

13.6.6 Set Factory Defaults

恢复出厂配置

在主界面选择“Set Factory Defaults”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 3     单击“OK”完成配置。

----结束

13.6.7 Manage MegaRAID Advanced Software Options

该界面提供RAID控制卡高级软件特性查看和导入接口。

界面介绍

“Manage MegaRAID Advanced Software Options”界面如图13-116所示,界面中参数说明如表13-39所示。

图13-116 Manage MegaRAID Advanced Software Options

 

表13-39 参数说明

参数

说明

SAFE ID

RAID控制卡的安全编码。

Serial Number

RAID控制卡序列号。

Activation Key

待激活的高级特性的Key。

Active

激活高级特性。

9460-8i不支持高级特性的激活操作,该功能无效。

Deactive All Trail Software

注销当前所有高级特性。

 

13.6.8 Exit

退出配置界面。

退出配置界面

在9460-8i主界面按“ESC”,显示如图13-117所示界面。

图13-117 BIOS Setup Utility

 

                                步骤 2     按F10退出BIOS。

弹出操作确认窗口。

                                步骤 3     选择“OK”并按Enter。

退出BIOS,显示“ Press Control+Alt+Delete to reboot”。

----结束

13.7 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

13.7.1 下载和安装StorCLI工具

下载工具

登录BROADCOM网站上RAID控制卡的页面

                                步骤 1     在“DOWNLOADS”页签中单击“Management Software and Tools”。

打开管理软件和工具列表。

                                步骤 2     下载最新版本的“StorCLI”工具。

                                步骤 3     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 1     在Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。

说明

StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

13.7.2 常用命令

13.7.2.1 查询RAID控制卡配置信息

命令功能

查询9460-8i的基本配置信息。

命令格式

storcli64 /ccontroller_id show

参数说明

参数

参数说明

取值

controller_id

控制器ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID

 

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡配置信息。

[root@localhost]# ./storcli64_arm /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 4.19.36-vhulk1907.1.0.h453.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
Product Name = AVAGO MegaRAID SAS 9460-8i
Serial Number = SP01022668
SAS Address =  500062b206129f00
PCI Address = 00:01:00:00
System Time = 11/13/2019 04:33:58
Mfg. Date = 03/12/20
Controller Time = 11/13/2019 09:33:56
FW Package Build = 51.13.0-3223
BIOS Version = 7.13.00.0_070D0300
FW Version = 5.130.00-3059
Driver Name = megaraid_sas
Driver Version = 07.713.02.00
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x16
SubVendor Id = 0x1000
SubDevice Id = 0x9461
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Drive Groups = 2
 
TOPOLOGY :
========
 
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace TR
-----------------------------------------------------------------------------
 0 -   -   -        -   RAID0 Optl  N  372.093 GB dflt N  N   none Y      N
 0 0   -   -        -   RAID0 Optl  N  372.093 GB dflt N  N   none Y      N
 0 0   0   133:0    35  DRIVE Onln  N  372.093 GB dflt N  N   none -      N
 1 -   -   -        -   RAID0 Optl  N    3.273 TB dflt N  N   none Y      N
 1 0   -   -        -   RAID0 Optl  N    3.273 TB dflt N  N   none Y      N
 1 0   0   133:1    4   DRIVE Onln  N    3.273 TB dflt N  N   none -      N
-----------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 2
 
VD LIST :
=======
 
-------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC     Size Name
-------------------------------------------------------------
0/0   RAID0 Optl  RW     Yes     RWTD  -   ON  200.0 GB
1/3   RAID0 Optl  RW     Yes     NRWTD -   ON   50.0 GB
-------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 3
 
PD LIST :
=======
 
------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model            Sp Type
------------------------------------------------------------------------------
133:0    35 Onln   0 372.093 GB SAS  SSD N   N  512B HWE32SS3004H001N U  -
133:1     4 Onln   1   3.273 TB SAS  SSD N   N  512B HSSD-D5220AS0200 U  -
133:2     2 UGood  -   3.273 TB SAS  SSD N   N  512B HSSD-D5220AS0200 U  -
------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Cachevault_Info :
===============
 
------------------------------------
Model  State   Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 26C  -    2019/05/16
------------------------------------

13.7.2.2 创建和删除RAID

命令功能

创建、删除RAID。

命令格式

命令

说明

storcli64 /ccontroller_id add vd rlevel[0|1|5|6|10|50|60] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [wt|*wb|awb] [nora|*ra] [Strip=<8|16|32|64|128|256|1024>] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid]

创建RAID组

storcli64 /ccontroller_id/vraid_id del

删除RAID组

 

说明

*表示默认值。

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

enclosure_id

硬盘所在Enclosure的ID

-

rlevel

要配置的RAID组级别

level可为0、1、5、6、10、50、60,数字分别代表对应的RAID组级别。

size

要配置的RAID组容量

默认值为all,即所有成员盘的容量之和。

name

要配置的RAID组名称

-

drives

要加入RAID组的硬盘

-

startid-endid

硬盘的起始和结束ID

-

slot_id

硬盘ID

-

pdperarray

子组中的硬盘数

创建RAID10、RAID50、RAID60时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。

-

pdcache

设置RAID的成员盘的Cache状态

l     on

l     off

l     default

pi

使能数据保护

-

wrcache

设置RAID组的写Cache属性,完整的命令为wrcache=wt|wb|awb,这里“wrcache=”可省略

l     wt:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     wb:控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”模式。

rdcache

设置RAID组的读Cache属性,完整的命令为rdcache=ra|nora,这里“rdcache=”可省略。

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

Strip

设置RAID组条带大小

MR卡:8, 16, 32, 64, 128, 256, 512, 1024

iMR卡:只能为64

单位为KB

EmulationType

控制逻辑盘在OS中上报的扇区

l     0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     1: Disable,如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     2:Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Spares

指定RAID组的热备盘

-

raid_id

要删除的RAID组的ID

-

 

说明

l     以上涉及的各个ID的查询方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

l     当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid

使用指南

使用实例

# 创建RAID 0。

domino:~# ./storcli64 /c0 add vd r0 size=100GB drives=252:0-3
Controller = 0
Status = Success
Description = Add VD Succeeded

# 删除RAID。

domino:~# ./storcli64 /c0/v0 del
Controller = 0
Status = Success
Description = Delete VD Succeeded

13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息

命令功能

查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。

命令格式

storcli64 /ccontroller_id show

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

storcli64 /ccontroller_id/vvd_id show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID

enclosure_id

硬盘所在Enclosure的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器连接的硬盘背板的ID

slot_id

物理硬盘槽位编号

可以将该参数设置为all,表示查询所有硬盘的ID

vd_id

虚拟磁盘ID

可以为all,表示查询所有虚拟磁盘信息。

 

使用指南

回显中主要字段的含义如表13-40所示。

表13-40 回显说明

命令格式

字段

含义

举例

storcli64 /ccontroller_id show

Product Name

RAID控制卡的型号

sas3108

FW Version

RAID控制卡的FW版本

4.660.00-8140

Driver Name

RAID控制卡的驱动名称

megaraid_sas

Driver Version

RAID控制卡的驱动版本

06.811.02.00-rh1

Current Personality

RAID控制卡的工作模式

RAID-Mode

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

SN

物理硬盘的序列号

PHWL517601YR800RGN

Manufacturer Id

物理硬盘的供应商ID

ATA

Model Number

物理硬盘的模块序号

INTEL SSDSC2BB800G4

Firmware Revision

物理硬盘的FW版本

D2010370

Raw size

物理硬盘的容量

745.211 GB [0x5d26ceb0 Sectors]

Logical Sector Size

物理硬盘逻辑分区大小

512B

Physical Sector Size

物理扇区大小

4 KB

storcli64 /ccontroller_id/vvd_id show all

TYPE

RAID组的级别

RAID1

State

RAID组的状态

Optl

Access

RAID组数据的访问策略

RW

Cache

RAID组当前的读写策略与I/O Policy

RWTD

Size

RAID组的大小

100.0 GB

PDs for VD0

RAID组下的物理硬盘

-

Strip Size

RAID组的条带大小

256KB

Write Cache(initial setting)

RAID组Cache的写策略

Write Through

Disk Cache Policy

RAID组成员盘的Cache策略

Disk's Default

 

使用实例

#查询RAID控制卡的详细信息。

[root@localhost ~]# ./storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
Product Name = SAS3508
Serial Number =
SAS Address =  50030130f0900000
PCI Address = 00:01:00:00
System Time = 07/07/2018 22:06:42
Mfg. Date = 00/00/00
Controller Time = 07/07/2018 14:06:41
FW Package Build = 24.16.0-0093
BIOS Version = 6.32.02.0_4.17.08.00_0x06150500
FW Version = 4.660.00-8140
Driver Name = megaraid_sas 
Driver Version = 06.811.02.00-rh1
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x5D
SubVendor Id = 0x19E5
SubDevice Id = 0xD207
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Drive Groups = 1
 
TOPOLOGY :
========
 
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace TR
-----------------------------------------------------------------------------
 0 -   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 0 0   -   -        -   RAID1 Optl  N  744.125 GB dflt N  N   none N      N
 0 0   0   252:1    18  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
 0 0   1   252:0    48  DRIVE Onln  N  744.125 GB dflt N  N   none -      N
-----------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 1
 
VD LIST :
=======
 
---------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC       Size Name
---------------------------------------------------------------
0/0   RAID1 Optl  RW     Yes     RWBD  -   ON  744.125 GB
---------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 6
 
PD LIST :
=======
 
---------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model               Sp Type
---------------------------------------------------------------------------------
252:0    48 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:1    18 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:2    19 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BA800G4 U  -
252:3    20 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BA800G4 U  -
252:4    49 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
252:5    47 UGood  - 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
---------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Cachevault_Info :
===============
 
------------------------------------
Model  State   Temp Mode MfgDate
------------------------------------
CVPM02 Optimal 28C  -    2016/11/04
------------------------------------

#查询slot0的物理硬盘的信息。

[root@localhost ~]# ./storcli64 /c0/e252/s0 show all
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
 
 
Drive /c0/e252/s0 :
=================
 
---------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model               Sp Type
---------------------------------------------------------------------------------
252:0    48 Onln   0 744.125 GB SATA SSD N   N  512B INTEL SSDSC2BB800G4 U  -
---------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Drive /c0/e252/s0 - Detailed Information :
========================================
 
Drive /c0/e252/s0 State :
=======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature =  20C (68.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
 
 
Drive /c0/e252/s0 Device attributes :
===================================
SN = PHWL517601YR800RGN
Manufacturer Id = ATA
Model Number = INTEL SSDSC2BB800G4
NAND Vendor = NA
WWN = 55cd2e404c533246
Firmware Revision = D2010370
Raw size = 745.211 GB [0x5d26ceb0 Sectors]
Coerced size = 744.125 GB [0x5d040800 Sectors]
Non Coerced size = 744.711 GB [0x5d16ceb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 6.0Gb/s
NCQ setting = Enabled
Write cache = N/A
Logical Sector Size = 512B
Physical Sector Size = 4 KB
Connector Name = Port A x1
 
 
Drive /c0/e252/s0 Policies/Settings :
===================================
Drive position = DriveGroup:0, Span:0, Row:1
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = No
Wide Port Capable = No
 
Port Information :
================
 
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
   0 Active 6.0Gb/s   0x4433221100000000
-----------------------------------------
 
 
Inquiry Data =
40 00 ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 48 50 4c 57 31 35 36 37 31 30 52 59
30 38 52 30 4e 47 20 20 00 00 00 00 00 00 32 44
31 30 33 30 30 37 4e 49 45 54 20 4c 53 53 53 44
32 43 42 42 30 38 47 30 20 34 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 01 80
00 40 00 2f 00 40 00 00 00 00 07 00 ff 3f 10 00
3f 00 10 fc fb 00 01 bf ff ff ff 0f 00 00 07 00

# 查询VD 0的信息。

[root@rhel6u5 ~]# /opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
 
 
/c0/v0 :
======
 
---------------------------------------------------------
DG/VD TYPE  State Access Consist Cache sCC     Size Name
---------------------------------------------------------
1/0   RAID1 Optl  RW     Yes     RWTD  -   1.089 TB
---------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|B=Blocked|Consist=Consistent|
R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
 
PDs for VD 0 :
============
 
-----------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model            Sp
-----------------------------------------------------------------------
25:22    14 Onln   1 1.089 TB SAS  HDD N   N  512B ST1200MM0007     U
25:23    26 Onln   1 1.089 TB SAS  HDD N   N  512B ST1200MM0007     U
-----------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded
 
 
VD0 Properties :
==============
Strip Size = 256 KB
Number of Blocks = 2341795840
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 2
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = Disabled
Active Operations = None
Exposed to OS = Yes
Creation Date = 04-01-2018
Creation Time = 12:38:35 PM
Emulation type = None

13.7.2.4 查询超级电容的相关信息

命令功能

查询超级电容的名称及TFM Flash卡缓存容量的大小等信息。

命令格式

storcli64 /ccontroller_id/cv show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以为all,表示所有控制器。

 

查看RAID控制卡ID的方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用实例

#查询超级电容的相关信息。

[root@localhost ~]# ./storcli64 /c0/cv show all
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
 
Cachevault_Info :
===============
 
--------------------
Property    Value
--------------------
Type        CVPM02
Temperature 28 C
State       Optimal
--------------------
 
 
Firmware_Status :
===============
 
---------------------------------------
Property                         Value
---------------------------------------
Replacement required             No
No space to cache offload        No
Module microcode update required No
---------------------------------------
 
 
GasGaugeStatus :
==============
 
------------------------------
Property                Value
------------------------------
Pack Energy             294 J
Capacitance             108 %
Remaining Reserve Space 0
------------------------------
 
 
Design_Info :
===========
 
------------------------------------
Property                 Value
------------------------------------
Date of Manufacture      04/11/2016
Serial Number            22417
Manufacture Name         LSI
Design Capacity          288 J
Device Name              CVPM02
tmmFru                   N/A
CacheVault Flash Size    8.0 GB
tmmBatversionNo          0x05
tmmSerialNo              0xee7d
tmm Date of Manufacture  09/12/2016
tmmPcbAssmNo             022544412A
tmmPCBversionNo          0x03
tmmBatPackAssmNo         49571-13A
scapBatversionNo         0x00
scapSerialNo             0x5791
scap Date of Manufacture 04/11/2016
scapPcbAssmNo            1700134483
scapPCBversionNo          A
scapBatPackAssmNo        49571-13A
Module Version           6635-02A
------------------------------------
 
 
Properties :
==========
 
--------------------------------------------------------------
Property             Value
--------------------------------------------------------------
Auto Learn Period    27d (2412000 seconds)
Next Learn time      2018/08/03  17:48:38 (586633718 seconds)
Learn Delay Interval 0 hour(s)
Auto-Learn Mode      Transparent
--------------------------------------------------------------

说明

l     上述回显信息中,“Device Name  CVPM02”表示超级电容的名称为 “CVPM02”,“CacheVault Flash Size   8.0GB”表示TFM Flash卡缓存容量为“8.0GB”。

l     当回显信息的“State”显示为“FAILED”时,需要更换超级电容。

13.7.2.5 查询和设置Patrolread参数

命令功能

查询和设置系统巡检的相关参数。

命令格式

storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number

storcli64 /ccontroller_id set patrolread delay=delaytime

storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}

storcli64 /ccontroller_id show patrolread

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

系统巡检起始时间

例如:2016/07/15 23

说明

起始时间单位为“时”。

number

可同时巡检的硬盘数量

delaytime

系统巡检周期

单位为hour。

 

查看RAID控制卡ID的方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。

domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

---------------------------------------

Ctrl_Prop          Value

---------------------------------------

PR Starttime       2016/07/15 23:00:00

PR MaxConcurrentPd 2

---------------------------------------

# 使能patrolread并设置为自动模式。

domino:~# ./storcli64 /c0 set patrolread=on mode=auto
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
--------------------------------------- 
Ctrl_Prop        Value 
--------------------------------------- 
Patrol Read Mode auto 
---------------------------------------

# 查询patrolread信息。

domino:~# ./storcli64 /c0 show patrolread

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

--------------------------------------------

Ctrl_Prop          Value

--------------------------------------------

PR Mode       2016/07/15 23:00:00

PR Execution Delay

PR iterations completed 0

PR Next Start time      07/16/2016,00:00:00

PR on SSD               Disabled

PR Current State        Stopped

--------------------------------------------

13.7.2.6 查询和设置Spinup参数

命令功能

查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。

命令格式

storcli64 /ccontroller_id show spinupdelay

storcli64 /ccontroller_id show spinupdrivecount

storcli64 /ccontroller_id set spinupdelay=time

storcli64 /ccontroller_id set spinupdrivecount=count

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

每组起转硬盘间的时间间隔

默认为2,单位为s。

count

上电时允许同时起转的硬盘数量

默认为4。

 

查看RAID控制卡ID的方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡Spinup参数。

domino:~# ./storcli64 /c0 show spinupdelay
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
domino:~# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 4
--------------------------

# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。

domino:~# ./storcli64 /c0 set spinupdelay=20
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 20 second(s)
--------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 5
--------------------------

13.7.2.7 查询和设置硬盘数据擦除功能

命令功能

设置物理硬盘数据擦除模式,查询擦除进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

硬盘槽位号

mode

数据擦除模式

l     simple:对硬盘进行一轮擦除动作。

l     normal:对硬盘进行三轮擦除动作。

l     thorough:对硬盘进行九轮擦除动作。

 

以上涉及的各个ID的查询方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。

domino:~# ./storcli64 /c0/e252/s3 start erase simple
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.

13.7.2.8 查询和设置RAID后台初始化

命令功能

暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。

命令格式

storcli64 /ccontroller_id/vraid_id action bgi

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

action

后台初始化的操作

l     show:查看后台初始化进度

l     pause:暂停后台初始化

l     resume:继续后台初始化

l     stop:停止后台初始化

 

以上涉及的各个ID的查询方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查看后台初始化进度。

domino:~# ./storcli64 /c0/v0 show bgi
Controller = 0
Status = Success
Description = Noe
VD Operation Status :
===================
------------------------------------------------------
VD Operation Progress% Staus Estimated Time Left
------------------------------------------------------
0 BGI 3 In progress 53 Minutes
------------------------------------------------------

13.7.2.9 查询和设置CacheFlush参数

命令功能

查询和设置Cache的刷新周期。

命令格式

storcli64 /ccontroller_id show cacheflushint

storcli64 /ccontroller_id set cacheflushint time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

Cache的刷新周期

单位为s

 

查看RAID控制卡ID的方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置Cache的刷新周期为“10”。

domino:~# ./storcli64 /c0 set cacheflushint=10
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10 sec
---------------------------

# 查询Cache的刷新周期。

domino:~# ./storcli64 /c0 show cacheflushint
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10
---------------------------

13.7.2.10 查询和设置物理硬盘初始化功能

命令功能

设置物理硬盘初始化功能,查询初始化进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看初始化进度

l     start:开始初始化

l     stop:结束初始化

 

以上涉及的各个ID的查询方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 初始化slot3硬盘,并查询初始化进度。

domino:~# ./storcli64 /c0/e252/s3 start initialization
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show initialization
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------

13.7.2.11 查询和设置RAID重构/回拷/系统巡检功能

命令功能

暂停、继续、停止RAID重构/回拷/系统巡检,并查询进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action function

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看进度

l     pause:暂停进程

l     resume:继续执行

l     stop:停止进程

function

要处理的进程

l     rebuild:RAID重构

l     copyback:回拷

l     patrolread:系统巡检

 

以上涉及的各个ID的查询方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查看RAID重构进度。

domino:~# ./storcli64 /c0/e252/s4 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Staus Estimated Time Left
------------------------------------------------------
/c0/e252/s4 9 In progress 12 Minutes
------------------------------------------------------

# 暂停RAID重构。

domino:~# ./storcli64 /c0/e252/s4 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Status Succeeded.

13.7.2.12 查询和设置Smart扫描周期

命令功能

设置Smart扫描周期。

命令格式

storcli64 /ccontroller_id set smartpollinterval=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

value

Smart扫描周期

单位为s。

 

查看RAID控制卡ID的方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置Smart扫描周期为“60s”。

domino:~# ./storcli64 /c0 set smartpollinterval=60
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------

13.7.2.13 查询和设置一致性校验参数

命令功能

设置一致性校验参数。

命令格式

storcli64 /ccontroller_id[/vvd_id]show cc

storcli64 /ccontroller_id/vvd_id start cc force

storcli64 /ccontroller_id/vvd_id action cc

storcli64 /ccontroller_id set cc=conc delay=value starttime=time excludevd=evd_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要操作的RAID的ID

action

要执行的操作

l     pause:暂停

l     resume:继续执行

l     stop:停止

value

一致性校验周期

time

一致性校验起始时间

例如:2016/07/14 22

说明

起始时间单位为“时”。

evd_id

不进行一致性校验的虚拟磁盘ID

 

以上涉及的各个ID的查询方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

show命令中不带/vvd_id时,表示查询自动CC参数。

show命令中带/vvd_id时,表示查询CC进度。

使用实例

# 设置一致性自动检查参数。

domino:~# ./storcli64 /c0 set cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------
Ctrl_Prop Value
------------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2016/07/14 22:00:00
CC ExcludeVD(0) Success
------------------------------------

# 查询CC进度。

domino:~# ./storcli64 /c0/v1 show cc
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimited Time Left
-----------------------------------------------------------
0 CC - Not in progress -
-----------------------------------------------------------

13.7.2.14 设置热备盘

命令功能

设置全局热备盘和局部热备盘。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=vd_id]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

vd_id

局部热备盘所属虚拟磁盘的ID

 

以上涉及的各个ID的查询方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置slot 3硬盘为全局热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.

# 设置slot 3硬盘为vd0的局部热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive dgs=0
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.

13.7.2.15 设置启动项

命令功能

设置虚拟磁盘或物理硬盘为启动项。

命令格式

storcli64 /ccontroller_id/vvd_id set bootdrive=on

storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

vd_id

待设置的虚拟磁盘的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

 

以上涉及的各个ID的查询方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置VD0为启动项。

domino:~# ./storcli64 /c0/v0 set bootdrive=on
Controller = 0
Status = Success
Description = Noe
Detailed Status :
===============
----------------------------------------
VD Property Value Staus ErrCd ErrMsg
----------------------------------------
0 Boot Drive On Success 0 -
----------------------------------------

# 设置slot 7硬盘为启动项。

domino:~# ./storcli64 /c0/e252/s7 set bootdrive=on
Controller = 0 
Status = Success
Description = Noe
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
BootDrive PD:252_7
-------------------

13.7.2.16 设置硬盘状态

命令功能

设置硬盘状态。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

state

要设置的硬盘状态

l     online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。

l     offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。

l     jbod:通过该参数可以将硬盘设置为直通硬盘。

l     good:

     ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置;

     JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。

l     good:将硬盘设为空闲盘

force

强制设置硬盘状态,为可选参数。

如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force。

-

 

以上涉及的各个ID的查询方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。

domino:~# ./storcli64 /c0/e0/s1 set good
Controller = 0
Status = Success
Description = Set Drive Good Succeeded.

13.7.2.17 设置RAID组访问策略

命令功能

设置RAID的读写策略。

命令格式

storcli64 /ccontroller_id/vraid_id set accesspolicy=mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

mode

RAID读写策略

l     rw:可读可写

l     blocked:禁止访问

l     ro:只读访问

 

以上涉及的各个ID的查询方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置RAID读写策略为“rw”。

domino:~# ./storcli64 /c0/v0 set accesspolicy=rw
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 AccPolicy RW Success 0 -
---------------------------------------

13.7.2.18 设置硬盘Cache状态

命令功能

设置RAID组成员盘的Cache状态。

命令格式

storcli64 /ccontroller_id/vvd_id set pdcache=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

RAID组的ID

-

action

要执行的操作

l     on:打开硬盘Cache

l     off:关闭硬盘Cache

l     default:将硬盘Cache设置为默认状态

 

以上涉及的各个ID的查询方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 打开ID为0的RAID组的硬盘Cache。

./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
---------------------------------------
VD Property Value Status  ErrCd ErrMsg
---------------------------------------
 0 PdCac    On    Success     0 -
---------------------------------------

13.7.2.19 设置RAID组的Cache读写策略

命令功能

设置RAID组的Cache读写策略。

命令格式

命令

说明

storcli64 /ccontroller_id/vraid_id set wrcache=wrmode

设置Cache写策略

storcli64 /ccontroller_id/vraid_id set rdcache=rdmode

设置Cache读策略

 

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAID组的ID

-

wrmode

设置Cache写策略

l     wt:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     wb:控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”策略。

rdmode

设置Cache读策略

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

 

以上涉及的各个ID的方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置Cache读写模式为“wt”。

domino:~# ./storcli64 /c0/v0 set wrcache=wt
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 wrCache WT Success 0 -
---------------------------------------

13.7.2.20 设置紧急热备功能

命令功能

设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。

命令格式

storcli64 /ccontroller_id set eghs eug=state

storcli64 /ccontroller_id set eghs smarter=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

state

紧急热备功能的启用状态

l     on:启用

l     off:禁用

 

查看RAID控制卡ID的方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。

domino:~# ./storcli64 /c0 set eghs eug=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------
Ctrl_Prop Value
------------------
EmergencyUG ON
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
EmergencySmarter ON
-----------------------

13.7.2.21 设置RAID前台初始化模式

命令功能

设置RAID前台初始化模式。

命令格式

storcli64 /ccontroller_id/vraid_id start mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

mode

前台初始化模式

l     init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。

l     init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。

 

以上涉及的各个ID的查询方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 快速初始化RAID。

domino:~# ./storcli64 /c0/v0 start init
Controller = 0
Status = Success
Description = Start INIT Operation Success

13.7.2.22 设置硬盘直通功能

命令功能

设置RAID控制卡的硬盘直通功能的使能情况,并指定直通硬盘。

命令格式

storcli64 /ccontroller_id set jbod=state

storcli64 /ccontroller_id/eenclosure_id/sslot_id set JBOD

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

state

RAID控制卡JBOD功能的使能情况

l     on

l     off

 

以上涉及的各个ID的查询方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 使能RAID控制卡的硬盘直通功能,并设置slot 7硬盘为直通盘。

domino:~# ./storcli64 /c0 set jbod=on
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
---------------- 
Ctrl_Prop Value 
---------------- 
JBOD      ON 
----------------
domino:~# ./storcli64 /c0/e252/s7 set JBOD
Controller = 0 
Status = Success 
Description = Set Drive JBOD Succeeded.

13.7.2.23 设置硬盘定位指示灯状态

命令功能

点亮和熄灭指定硬盘的定位指示灯。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。

slot_id

物理硬盘槽位编号

可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。

action

要执行的操作

l     start:点亮硬盘的定位指示灯。

l     stop:熄灭硬盘的定位指示灯。

 

以上涉及的各个ID的查询方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 点亮slot 7硬盘的定位指示灯。

domino:~# ./storcli64 /c0/e252/s7 start locate
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.

13.7.2.24 设置硬盘PowerSave功能

命令功能

设置空闲硬盘和热备盘的省电模式。

命令格式

storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID。

state

省电模式的启用状态。

l     on:启用

l     off:禁用

disktype

硬盘类型。

l     1:空闲硬盘

l     2:热备盘

time

等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。

单位为minutes。

 

查看RAID控制卡ID的方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置空闲硬盘的省电模式。

domino:~# ./storcli64 /c0 set ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
SpnDwnUncDrv Enable
SpnDwnTm 30 minutes
--------------------------

13.7.2.25 设置后台资源占用率

命令功能

设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。

命令格式

storcli64 /ccontroller_id set action=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要设置的项目

l     bgirate:后台初始化速率

l     ccrate:一致性校验速率

l     prrate:硬盘巡检速率

l     rebuildrate:RAID重构速率

l     reconrate:RAID扩容和迁移速率

value

后台任务资源占用率

1~100

 

查看RAID控制卡ID的方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置硬盘巡检速率为“30%”。

domino:~# ./storcli64 /c0 set prrate=30
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-----------------------
Ctrl_Prop Value
-----------------------
Patrol Read Rate 30%
-----------------------

13.7.2.26 设置BIOS Stop on Error功能

命令功能

设置控制器BIOS在检测到异常时停止继续启动的功能。

命令格式

storcli64 /ccontroller_id set bios mode=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要执行的操作

l     soe:控制器BIOS在检测到异常时停止启动

l     ie:忽略检测到的异常

 

查看RAID控制卡ID的方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 开启Stop on error功能。

domino:~# ./storcli64 /c0 set bios mode=soe
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------

13.7.2.27 通过增加成员盘可用容量扩容RAID

命令功能

RAID有2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

命令格式

storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要扩容的RAID的ID

capacity

扩容后的容量

expandarray

当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。

 

以上涉及的各个ID的查询方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查询VD的可扩展容量。

[root@localhost ~]# storcli64 /c0/v1 show expansion 
CLI Version = 007.1416.0000.0000 July 24, 2020 
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64 
Controller = 0 
Status = Success 
Description = None 
 
 
EXPANSION INFORMATION : 
===================== 
 
-------------------------------------------- 
VD      Size OCE NoArrExp WithArrExp Status 
-------------------------------------------- 
 1 10.000 GB Y   3.627 TB 5.447 TB   - 
-------------------------------------------- 
 
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion 
 VD=Virtual Drive | NoArrExp - Without Array Expansion

说明

如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。

# 将VD0的容量扩大“200GB”。

domino:~# ./storcli64 /c0/v0 expand size=200GB
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
0 100.0 GB 457.861 GB 200.0 GB 201.458 GB 44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %

说明

RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。

13.7.2.28 通过增加新盘扩容或迁移RAID

命令功能

RAID有2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

当增加新盘后,可进行RAID级别迁移。

命令格式

storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

vd_id

要操作的RAID的ID

slot_id

要加入RAID的新硬盘的槽位号

level

增加硬盘后RAID的级别

l     与原RAID级别相同时,该命令为扩大RAID容量。

l     与原RAID级别不同时,该命令为RAID级别迁移。

 

以上涉及的各个ID的查询方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 在RAID 0中增加slot 2硬盘扩容。

domino:~# ./storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 13 Minutes
-------------------------------------------------------

# 单盘RAID 0加盘迁移至RAID 1。

domino:~# ./storcli64 /c0/v0 start migrate type=r1 option=add drives=252:3
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 14 Minutes
-------------------------------------------------------

13.7.2.29 查询和清除PreservedCache数据

命令功能

查询和清除PreservedCache数据。

命令格式

storcli64 /ccontroller_id show preservedcache

storcli64 /ccontroller_id/vvd_id delete preservedcache force

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要操作的RAID的ID

 

以上涉及的各个ID的查询方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查询PreservedCache。

domino:~# ./storcli64 /c0 show preservedcache
Controller = 0
Status = Success
Description = No Virtual Drive has Preserved Cache Data.

13.7.2.30 升级硬盘FW

命令功能

升级硬盘的FW。

命令格式

./storcli64 /ccontroller_id /eenclosure_id/sslot_id download src=FW_name.bin

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

FW_name

硬盘FW的名称

 

以上涉及的各个ID的查询方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用实例

#升级硬盘FW。

[root@localhost ~]# ./storcli64 /c0/e64/s5 download src=5200_D1MU004_Releasefullconcatenatedbinary.bin
Starting microcode update  .....please wait...
Flashing PD image  ..... please wait...
CLI Version = 007.0504.0000.0000 Nov 22,2017
Operation system = Linux 3.10.0-514.el7.x86_64
Controller = 0 
Status = Success 
Description = Firmware Download succeeded. 
 
Drive Firmware Download : 
======================== 
-------------------------------------------------------------------------------- 
Drive     Status  ErrCd    ErrMsg 
-------------------------------------------------------------------------------- 
/c0/e64/s5 Success   0        -
--------------------------------------------------------------------------------

13.7.2.31 手动重构RAID

命令功能

手动重构RAID组。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row

storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

要加入Array的物理硬盘槽位编号

DG

硬盘发生故障的DG的ID

Arr

硬盘发生故障的Array的ID

Row

硬盘发生故障的Array的row number

 

以上涉及的各个ID的查询方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

重构RAID分3个步骤进行:

1.通过./storcli64 /c0 show 命令,查询故障硬盘的DG、Arr和Row所对应的数字。

2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。

3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID。

使用实例

# 将硬盘加入RAID组。

[root@localhost ~]# storcli64 /c0/e252/s1 insert dg=0 array=0 row=0
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = Insert Drive Succeeded.

# 手动重构RAID。

[root@localhost ~]# storcli64 /c0/e252/s1 start rebuild
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

13.7.2.32 收集和清除RAID控制卡日志

命令功能

收集和清除RAID控制卡的日志。

命令格式

storcli64 /ccontroller_id show termlog

storcli64 /ccontroller_id delete termlog

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

 

查询RAID控制卡ID的查询方法请参见13.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 收集RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 show termlog
Firmware Term Log Information on controller 0:
05/27/19  6:48:11: C0:TTY History buffer cleared
 
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None

# 删除RAID控制卡的日志。

[root@localhost idriver]# ./storcli64 /c0 delete termlog
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------------------
Ctrl Method Result
----------------------------
   0 Delete Termlog deleted
----------------------------

13.7.2.33 查看/导入/清除外部配置

命令功能

指导用户查看、导入或者清除RAID控制卡的外部配置。

命令格式

storcli64 /ccontroller_id/fall import preview

storcli64 /ccontroller_id/fall import

storcli64 /ccontroller_id/fall delete

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

 

使用指南

使用实例

# 查看RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall import preview
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-957.el7.x86_64
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
 
 
FOREIGN PREVIEW :
===============
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Total foreign drive groups = 0

# 删除RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall delete
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-957.el7.x86_64
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration


14 Avago MegaRAID SAS 9440-8i

关于本章

主要介绍Avago MegaRAID SAS 9440-8i RAID控制卡的外观、特性、以及配置方法。

本章节涉及的截图以5.160.01-3415 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

14.1  概述

14.2  功能

14.3  初始配置

14.4  常用配置

14.5  故障处理

14.6  管理界面介绍

14.7  OS命令行工具

14.1 概述

Avago MegaRAID SAS 9440-8i RAID 控制卡(以下简称9440-8i)是基于MegaRAID架构的8端口12Gbit/s SAS控制器,并采用PCIex8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

9440-8i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

9440-8i不支持虚拟化场景,在安装操作系统前,需要在BIOS中将“Advanced > MISC Config”界面中的参数“Support Smmu”设置为“Disabled”。

说明

9440-8i不支持flush write verify功能。

9440-8i支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考14.2.13 硬盘直通。

9440-8i的结构如图14-1图14-2所示。

图14-1 9440-8i(1)

 

图14-2 9440-8i(2)

 

1

芯片过温指示灯

2

心跳灯

3

散热器

4

miniSAS接口(port 0)

5

miniSAS接口(port 1)

-

-

 

9440-8i单板指示灯说明如表14-1所示。

表14-1 RAID控制卡单板指示灯说明

指示灯

颜色

说明

芯片过温指示灯

黄色

l     常亮:设备温度传感器超过阈值。

l     灭:设备温度在正常温度范围内。

心跳灯

绿色

l     闪烁:芯片运行正常,闪烁频率为1Hz。

l     灭:RAID控制卡未开始运行或FW运行异常。

 

14.2 功能

14.2.1 支持RAID 0/1/10

9440-8i支持硬盘以直通方式和加入RAID组两种方式混合使用,其中:

l     硬盘直通模式支持的最大硬盘数量为63。

l     直通模式的硬盘和加入RAID组中的硬盘数量最多为63。

l     所有RAID组包含的最大硬盘数量为32。

说明

该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

l     每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

l     最多支持32个虚拟磁盘(即配置界面中看到的“Virtual Drive”),每个虚拟磁盘最多包含32个硬盘。

9440-8i支持的RAID类型及对应的硬盘个数如表14-2所示。

表14-2 RAID-硬盘参数

RAID级别

支持硬盘数

支持子组数

子组支持硬盘数

允许坏盘数

RAID 0

1~32

不涉及

不涉及

0

RAID 1

2~32(偶数)

硬盘数÷2

RAID 10

4~32(偶数)

2~8个RAID 1

2~16(偶数)

子组数

 

说明

l     不支持RAID 00、RAID 5和RAID 50级别。

l     子组数:子RAID的个数。

l     RAID 10每个子组中最多允许1个坏盘。

l     RAID 10包含的总硬盘数由子组数和子组支持的硬盘数共同决定。

14.2.2 硬盘热备份

9440-8i的热备功能分为两种:热备盘和紧急备份。

热备盘

对服务器的硬盘进行RAID分组后,一般会配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     Global HSP:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

配置方法请参见14.4.1.1 配置全局热备盘。

l     Dedicated HSP:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

配置方法请参见14.4.1.2 配置局部热备盘。

热备盘容量需大于等于成员盘容量。

说明

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     除RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

紧急备份

使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。

紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。

紧急备份有两种情况,对应了两种设置:

l     当成员盘fail时,空闲盘替代成员盘作为紧急备份。

l     当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。

配置方法请参见14.4.2 设置紧急热备功能。

14.2.3 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

说明

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考14.4.9 导入/清除外部配置章节恢复RAID组,无需更换硬盘。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

14.2.4 回拷

具备冗余功能的RAID的成员盘故障之后,热备盘自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。

14.2.5 硬盘分条

条带化

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数和数据传输率有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待,这时就是所谓的硬盘冲突。

条带化技术是一种自动将I/O负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

影响条带化效果的因素有:

l     条带宽度:指同时可以并发读或写的条带数量。

这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。

在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。

l     条带大小:指写在每块硬盘上的条带数据块的大小。

分条

硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。

9440-8i不支持设置条带大小,默认为64KB。

14.2.6 初始化

VD初始化

创建虚拟磁盘后,需要将其初始化,使其可以被操作系统使用,且使具有冗余功能的虚拟磁盘中各成员盘的数据关系满足相应的RAID级别要求。

9440-8i提供了多种相应的初始化方式:

l     快速初始化:属于前台初始化,Firmware只要把虚拟磁盘的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。

l     慢速初始化:属于前台初始化,Firmware需要把整个虚拟磁盘都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。

l     后台初始化:目的是使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。对于RAID 1/RAID 10,如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。

说明

l     一致性校验和后台初始化通常会对性能造成一定损失,直至该操作完成。

l     一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。

硬盘初始化

硬盘可执行的初始化包括:

l     Initialize Drive:对前100MByte空间进行全写0操作。

l     Drive Erase:对全部空间进行写0操作。

说明

不支持停止SATA SSD的擦除和初始化过程。

14.2.7 RAID级别迁移

RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见14.4.5 迁移RAID级别。

当前支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1

l     RAID 1迁移到RAID 0

RAID迁移对硬盘数量的要求如表14-3所示。

表14-3 RAID迁移的硬盘数量说明

迁移RAID级别

原始硬盘组硬盘数量

迁移后的硬盘组硬盘数量

RAID 0迁移 RAID 1

1~32

2~32(偶数)

RAID 1迁移到RAID 0

2~32(偶数)

2~32

 

14.2.8 可用容量扩展

9440-8i支持的容量扩展方式有两种:

l     通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。

详细操作方法可参考14.4.3 添加新硬盘到RAID。

l     通过增加可用空间方式扩容:在RAID未占用成员硬盘全部容量时,可通过调整RAID的可用空间,扩大RAID容量。

详细操作方法可参考14.4.4 扩展Virtual Drives可用空间。

说明

l     只有RAID 0、RAID1支持增加硬盘扩容。

l     RAID 10不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。

l     当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见 14.7.2.16 通过增加成员盘可用容量扩容RAID。

14.2.9 安全数据擦除

安全擦除即将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘安全擦除功能:

l     Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。

l     Normal:对虚拟磁盘或硬盘进行三轮擦除动作。

l     Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。

安全数据擦除过程中,主机无法访问该虚拟磁盘。

9440-8i支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。

14.2.10 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     动态扩盘

l     完全初始化或后台初始化

l     一致性校验

14.2.11 自动S.M.A.R.T扫描

S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T 监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据丢失。

RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描。扫描周期可通过S.M.A.R.T Polling设置,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。

14.2.12 硬盘节能

RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。

默认情况下,硬盘节能功能处于开启状态。

当硬盘节能功能开启时,RAID控制卡下挂载的“Unconfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)需要唤醒正处于节能状态的硬盘,该操作会有一定程度的延迟。

14.2.13 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

9440-8i可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在9440-8i下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。

9440-8i支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

如果需要使能硬盘直通功能,请在图14-71所示界面的“JBOD Mode”参数进行设置。

说明

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

14.2.14 硬盘漫游

硬盘漫游是指在同一控制器下移动物理硬盘。控制器将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。

要使用硬盘漫游,按以下步骤操作:

1.     关闭操作系统。

2.     将服务器下电。

3.     将物理硬盘移动到背板所需位置。

4.     执行安全检查。确保正确插入物理硬盘。

5.     将服务器上电。

6.     控制器从物理硬盘上的配置数据中检测到RAID配置。

14.2.15 导入外部配置

如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。

此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。

14.2.16 硬盘故障记录

9440-8i提供硬盘故障记录功能:

l     使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。

l     禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,9440-8i会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。

维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。

l     使能该功能后,当硬盘故障时,会点亮Fault指示灯。

l     禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。

默认情况下,9440-8i使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。

14.2.17 一致性校验

针对有冗余功能的RAID 1、RAID10,RAID控制卡可以对RAID组的硬盘数据进行一致性校验,对硬盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。

由于RAID 0不具备冗余性,因此不支持一致性校验。

说明

建议每月至少进行一次一致性校验。

14.3 初始配置

文档中描述的关于9440-8i的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。

14.3.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如图14-3所示界面时,按“Delete”。

图14-3 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如图14-4所示界面。

图14-4 Setup Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如图14-5所示。

图14-5 “Advanced”页签

 

说明

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见14.5.3 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择要操作的9440-8i控制器,按“Enter”。

进入如图14-6图14-7所示主界面,界面参数如表14-4所示。

图14-6 9440-8i主界面(1)

 

图14-7 9440-8i主界面(2)

 

表14-4 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

CacheVault

是否支持Cache。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

说明

仅当9440-8i存在外部配置时,会显示该选项。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

Silence Alarm

板载蜂鸣器的使能状态。

说明

9440-8i未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

14.3.2 创建RAID 0

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9440-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见14.2.1 支持RAID 0/1/10。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见14.3.1 登录管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图14-8图14-9所示,参数说明如表14-5所示。

图14-8 “Create Virtual Drive”界面(1)

 

图14-9 “Create Virtual Drive”界面(2)

 

表14-5 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照14.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,9440-8i当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如图14-10所示,界面参数如表14-6所示。

图14-10 添加成员盘

 

表14-6 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     按表14-6所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 0支持的硬盘个数为1~32。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。

5.     选择“Apply Changes”并按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照表14-5所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照14.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

弹出操作确认界面。

2.     通过“Enter”键把“Confirm”状态切换成“Enabled”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

14.3.3 创建RAID 1

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9440-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见14.2.1 支持RAID 0/1/10。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见14.3.1 登录管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图14-11图14-12所示,参数说明如表14-7所示。

图14-11 “Create Virtual Drive”界面(1)

 

图14-12 “Create Virtual Drive”界面(2)

 

表14-7 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照14.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,9440-8i当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如图14-13所示,界面参数如表14-8所示。

图14-13 添加成员盘

 

表14-8 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     按表14-8所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 1支持的硬盘个数为2~32(偶数)。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。

5.     选择“Apply Changes”并按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照表14-7所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照14.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

弹出操作确认界面。

2.     通过“Enter”键把“Confirm”状态切换成“Enabled”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID信息。

----结束

14.3.4 创建RAID 10

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9440-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参见14.2.1 支持RAID 0/1/10。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见14.3.1 登录管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图14-14图14-15所示,参数说明如表14-9所示。

图14-14 Create Virtual Drive (1)

 

图14-15 “Create Virtual Drive” (2)

 

表14-9 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照14.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,9440-8i当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。

                                步骤 3     创建第1个Span。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如图14-16所示,界面参数如表14-10所示。

图14-16 添加成员盘

 

表14-10 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

3.     按表14-10所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 10支持2~8个Span,每个Span支持的硬盘数为2~16(偶数),且各个Span的硬盘数量必须保持一致。

l     RAID 10支持的硬盘总数为4~32。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过63时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     创建第2个Span。

当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如图14-17所示。

图14-17 RAID 10的配置界面

 

1.     选择“Add More Spans”并按“Enter”。

2.     选择“Select Drives”并按“Enter”。

3.     在打开的列表中选择第2个Span的成员盘。

说明

各个Span的硬盘数量必须保持一致。

4.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

5.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。

说明

RAID10至少需要创建2个Span,最多可以创建8个Span。

                                步骤 6     配置虚拟磁盘属性。

按照表14-9所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照14.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 7     保存配置。

1.     选择“Save Configuration”并按“Enter”。

弹出操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”界面并按“Enter”。

显示当前存在的RAID信息。

----结束

14.3.5 配置启动项

同一台服务器配置了单个9440-8i卡或者多种芯片硬盘控制器的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。

设置启动项的操作方法请参见BIOS 参数参考的“设置启动设备”章节。

14.4 常用配置

14.4.1 管理热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

9440-8i支持2种类型的热备盘:

l     Global Hotspare:即全局热备盘,为RAID控制卡上所有已配置的RAID所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

l     Dedicated Hotspare:即局部热备盘,为RAID控制卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

说明

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     除RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

14.4.1.1 配置全局热备盘

操作步骤

登录管理界面,具体操作方法请参见14.3.1 登录管理界面。

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如图14-18所示。

图14-18 Drive Management界面

 

                                步骤 2     配置全局热备盘。

1.     将“Operation”设置为“Assign Global Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

显示The operation has been performed successfully。

3.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

14.4.1.2 配置局部热备盘

操作步骤

说明

当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

登录管理界面,具体操作方法请参见14.3.1 登录管理界面。

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如图14-19所示。

图14-19 Drive Management

 

                                步骤 2     配置局部热备盘。

1.     将“Operation”设置为“Assign Dedicated Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

打开当前存在的虚拟磁盘列表。

3.     选择要关联的虚拟磁盘并按“Enter”。

4.     选择“OK”按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”并按“Enter”,完成配置并返回上级界面。

----结束

14.4.1.3 删除热备盘

操作场景

当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

操作步骤

登录管理界面,具体操作方法请参见14.3.1 登录管理界面。

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如图14-20所示。

图14-20 Drive Management

 

                                步骤 2     删除热备盘。

1.     将“Operation”设置为“Unassign Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

14.4.2 设置紧急热备功能

操作步骤

登录管理界面,具体操作方法请参见14.3.1 登录管理界面。

                                步骤 1     进入“Advanced Controller Properties”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

3.     选择“Advanced Controller Properties”并按“Enter”。

                                步骤 2     设置紧急热备。

1.     选择“Spare”并按“Enter”。

2.     将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如图14-21所示。

图14-21 “Spare”界面

 

3.     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

----结束

14.4.3 添加新硬盘到RAID

操作场景

 

注意

l     只有RAID 0、RAID 1支持增加硬盘扩容。

l     RAID 10不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。

l     执行添加新硬盘到RAID操作之前,建议先备份数据。

增加硬盘扩容过程中,如果出现硬盘故障,会导致:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID。

请谨慎执行增加硬盘扩容操作。

操作步骤

登录管理界面。具体操作方法请参见14.3.1 登录管理界面。

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”。

进入虚拟磁盘选项界面,如图14-22所示。

图14-22 虚拟磁盘选项界面

 

                                步骤 2     添加新硬盘。

1.     选择要进行扩容的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如图14-23所示。

图14-23 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”

4.     选择“Go”并按“Enter”。

5.     选择要扩容的RAID级别。

 

注意

增加硬盘扩容时,请保证该处的RAID级别与原级别一致。

6.     选择“Choose the Operation”,并按“Enter”。

进入硬盘选择界面,如图14-24所示。

图14-24 Choose the Operation

 

7.     选择要增加的硬盘,并按“Enter”。

说明

l     硬盘状态为“【×】”时表示该硬盘已选择。

l     增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0每次只能增加1块硬盘。

l     RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。

8.     选择“Apply Changes”并按“Enter”。

进入操作确认界面。

9.     选择“Confirm”并按“Enter”。

10.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully。

11.     选择“OK”并按“Enter”。

返回到如图14-25所示界面。

图14-25 操作界面

 

12.     选择“Start Operation”并按“Enter”。

显示操作成功。

13.     选择“OK”并按“Enter”。

重新进入虚拟磁盘选项界面,验证扩容结果,如图14-26所示,表示RAID正在进行扩容。

图14-26 Reconfigure Virtual Drives

 

说明

扩容属于后台动作,在HII界面只能触发而不能正式开始扩容,所以扩容的进度条一直显示为0%。当进入OS后,扩容才会开始进行。

----结束

14.4.4 扩展Virtual Drives可用空间

操作场景

在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见14.3.1 登录管理界面。

                                步骤 1     进入要操作的虚拟磁盘界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如图14-27所示。

图14-27 Virtual Drive Management

 

                                步骤 2     扩容虚拟磁盘。

1.     将“Operation”设置为“Expand Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入虚拟磁盘扩容界面,如图14-28界面所示,界面参数如表14-11所示。

图14-28 Expand Virtual Drive

 

表14-11 参数说明

参数

参数说明

Current Capacity

虚拟磁盘当前容量。

Available Capacity

可用于扩展的容量。

Enter a Percentage of Available Capacity

输入扩容比例。

Capacity of Virtual Drive after Expansion

扩容后虚拟磁盘容量。

 

3.     设置扩容百分比。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

14.4.5 迁移RAID级别

操作场景

随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。

在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。

对系统的影响

RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID。

请谨慎执行RAID级别迁移操作。

必备事项

前提条件

迁移RAID级别之前,需具备如下条件:

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     当前存在的硬盘个数满足目标RAID级别要求。

l     已登录管理界面,具体操作请参见14.3.1 登录管理界面。

9440-8i支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1

l     RAID 1迁移到RAID 0

RAID迁移对硬盘数量的要求如表14-3所示。

说明

l     当RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     迁移只支持增加与RAID组成员盘同类型同规格的硬盘。

l     为防止数据丢失,请在该操作之前备份当前RAID组的数据。

l     只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。

l     迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。

操作步骤

进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”并按“Enter”。

进入虚拟磁盘选项界面,如图14-29所示。

图14-29 虚拟磁盘选项界面

 

                                步骤 2     选择RAID迁移的目标级别。

下面以将RAID 0迁移到RAID 1为例进行说明。

1.     选择要进行迁移的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如图14-30所示。

图14-30 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”。

4.     选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如图14-31所示。不设置时默认与原RAID组配置一致。

图14-31 Advanced...

 

5.     选择“Go”,并按“Enter”。

进入RAID配置界面,如图14-32所示。

图14-32 Reconfigure Virtual Drives

 

6.     选择“New RAID Level”并按“Enter”。

打开RAID迁移的目标级别选择窗口,如图14-33所示。

图14-33 选择新的RAID级别

 

7.     选择“RAID 1”并按“Enter”。

                                步骤 3     添加硬盘。

1.     选择“Choose the operation”并按“Enter”。

打开硬盘选择窗口。

2.     选择要增加的硬盘并按“Enter”。

说明

RAID迁移对硬盘数量的要求请参见表14-3

3.     选择“Apply Changes”并按“Enter”。

弹出操作确认会话框。

4.     选择“Confirm”并按“Enter”。

5.     选择“Yes”并按“Enter”。

提示操作成功。

6.     按“Esc”返回图14-32界面。

                                步骤 4     RAID级别迁移。

1.     选择“Start Operation”并按“Enter”。

提示操作成功。

2.     选择“OK”并按“Enter”。

                                步骤 5     查看迁移结果。

1.     进入Virtual Drive Management界面,检查迁移结果,如图14-34所示,表示RAID正在进行迁移。

图14-34 查看迁移结果

 

说明

l     迁移过程中若重启服务器,该任务将在重启后继续进行。

l     迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。

2.     选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 0”变成“RAID 1”,且“Status”状态显示为“Optimal”时,表示RAID迁移成功。

----结束

说明

迁移属于后台动作,在HII界面只能触发而不能正式开始,所以迁移的进度条一直显示为0%。当进入OS后,迁移才会开始进行。

14.4.6 删除RAID

操作场景

 

注意

RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见14.3.1 登录管理界面。

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如图14-35所示。

图14-35 Virtual Drive Management

 

                                步骤 2     删除虚拟磁盘。

1.     将“Operation”设置为“Delete Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

14.4.7 重构RAID

操作场景

介绍将带有外部配置的硬盘进行重构的操作方法,不带外部配置硬盘的重构方法请参见14.5.1.1 硬盘故障。

操作步骤

在“Main Menu”界面中选择“Drive Management”并按“Enter”。

                                步骤 1     选中要进行重构的硬盘,按“Enter”。

                                步骤 2     将“Operation”设置为“Make Unconfigured Good”。

                                步骤 3     选择“Go”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 4     按“Enter”完成配置。

硬盘状态变为“(Foreign),Unconfigured Good”。

                                步骤 5     清除外部配置,具体操作请参见14.4.9 导入/清除外部配置。

RAID组开始进行重构。

----结束

说明

l     当出现硬盘离线情况时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     rebuild属于后台动作,在HII界面只能触发而不能正式开始rebuild,所以rebuild的进度条一直显示为0%。当进入OS后,rebuild才会开始进行。

14.4.8 查看RAID控制卡属性

操作场景

用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。

操作步骤

登录管理界面,具体操作方法请参见14.3.1 登录管理界面。

                                步骤 1     进入“Controller Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息,如图14-36图14-37所示,参数说明如表14-12所示。

图14-36 Controller Management(1)

 

图14-37 Controller Management(2)

 

表14-12 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Personality Mode

RAID控制卡的模式。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见14.3.5 配置启动项。

PCI ID

RAID控制卡的PCI ID。

PCI Segment:Bus:Device:Fuction

RAID控制卡的PCI设备索引。

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Supported Device Interfaces

支持的设备接口。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制器操作。

Advanced Controller Properties

查看和修改控制器的高级属性。

 

                                步骤 2     查看控制器高级属性。

选择“Advanced Controller Properties”并按“Enter”。

进入控制器高级属性界面,如图14-38所示,参数说明如表14-13所示。

在该界面下,可查看并修改RAID控制卡的高级属性。

图14-38 Advanced Controller Properties界面(1)

 

图14-39 Advanced Controller Properties界面(2)

 

表14-13 参数说明

参数

说明

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

Spare

设置控制器热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

9440-8i控制器卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

表示硬盘容量压缩模式,包括:

l     None

l     128MB

l     1GB

默认为“1GB”。

说明

硬盘压缩模式可以对不同厂商的相同规格硬盘的容量差异进行取整处理,使不同厂商的硬盘强制为相同的容量,以便可以在同一个RAID组中使用。取整单位可以为None、128MB、1GB,其中None表示RAID控制卡对不同厂商的硬盘不做取整处理。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制器BIOS的使能情况。

ROC Temperature

控制器温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见14.4.9 导入/清除外部配置章节。

SMART Polling

SMART轮巡检测周期。默认值为“300”。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

JBOD Mode

硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。

Large IO Support

启用或禁用大型I/O支持功能。

Unmap Capability

解除映射能力。

Firmware Device Order

该功能开启后,设置为启动项的RAID组盘符为sda。

Apply Changes

保存配置。

 

----结束

14.4.9 导入/清除外部配置

操作场景

l     服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或不需要的存储配置,可将该配置导入或者清空。

 

注意

l     如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!

l     为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

导入外部配置

登录管理界面,具体操作方法请参见14.3.1 登录管理界面。

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如图14-40所示。

图14-40 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

进入外部配置管理界面,如图14-41所示。

图14-41 Preview Foreign Configuration

 

                                步骤 5     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully。

                                步骤 8     选择“OK”并按“Enter”完成配置返回上级界面。

----结束

清空外部配置

登录管理界面,具体操作方法请参见14.3.1 登录管理界面。

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如图14-42所示。

图14-42 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

进入外部配置管理界面,如图14-43所示。

图14-43 Preview Foreign Configuration

 

                                步骤 5     选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 8     选择“OK”并按“Enter”完成配置返回上级界面。

----结束

14.4.10 设置JBOD模式

9440-8i支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

说明

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

登录管理界面,具体操作方法请参见14.3.1 登录管理界面。

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Properties界面。

                                步骤 2     选择“JBOD Mode”并按Enter。

                                步骤 3     选择“Enabled”并按“Enter”。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

14.4.11 创建多个VD(Virtual Drive)

该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID0存在一个VD为例(如图14-44所示),详细操作方法如下:

图14-44 Virtual Drive Management

 

按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如图14-45所示。

图14-45 Create Virtual Drive

 

                                步骤 2     将“Select RAID Level”设置为“RAID0”。

                                步骤 3     将“Select Drives From”设置为“Free Capacity”,如图14-46所示。

图14-46 Create Virtual Drive

 

                                步骤 4     选择“Select Drive Groups”并按“Enter”。

显示当前存在的RAID组(Drive Group),如图14-47所示。

图14-47 Select Drive Groups

 

                                步骤 5     选择要创建多个VD的RAID组,并按“Enter”,如图14-48所示。

图14-48 Select Drive Groups

 

                                步骤 6     选择“Apply Changes”并按“Enter”。

提示操作成功。

                                步骤 7     选择“OK”并按“Enter”返回VD配置界面,如图14-49所示,参数说明如表14-14所示。

图14-49 Create Virtual Drive

 

表14-14 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照14.4.11 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,9440-8i当前仅支持64KB的条带规格。

Read Policy

虚拟磁盘的读策略。

不支持设置此参数。

Write Policy

虚拟磁盘的写策略。

不支持设置此参数。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略。可配置的状态有:

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,如果没有保护机制,数据会丢失。

l     Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 8     按照表14-14所述配置VD的相关属性。

                                步骤 9     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

                             步骤 10     选择“Confirm”并按“Enter”。

                             步骤 11     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                             步骤 12     选择“OK”并按“Enter'”完成配置。

可进入Virtual Drive Management界面,查看当前存在的所有VD,如图14-50所示。

图14-50 Virtual Drive Management

 

----结束

说明

每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤12

14.4.12 查询RAID控制卡固件版本

查询RAID控制卡固件版本的方法有如下几种:

l     在iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。

l     服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见14.7.2.1 查询RAID控制卡配置信息。

说明

回显信息中的“FW Version”字段即为RAID控制卡的固件版本。

l     在RAID控制卡管理界面进行查询,具体方法为:

a.     登录RAID控制卡的管理界面,具体操作请参见14.3.1 登录管理界面。

b.     在主界面中选择“Main Menu”并按“Enter”。

进入“Main Menu”页面,如图14-51所示。

图14-51 Main Menu页面

 

c.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如图14-52所示。

图14-52 Controller Management界面

 

14.5 故障处理

介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

14.5.1 硬盘故障

14.5.1.1 硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

确认故障硬盘槽位。

说明

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考14.6.2.4 Drive Management。

l     通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息。

                                步骤 1     更换新硬盘。

 

注意

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘导致,则可以将硬盘设置为Unconfig Good后,参考14.4.9 导入/清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在表14-2查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制器下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。

     UEFI模式下创建RAID0的方法请参见14.3.2 创建RAID 0。

     通过命令行方式创建RAID0的方法请参见14.7.2.8 创建和删除RAID。

----结束

14.5.1.2 硬盘状态为fail或prefail

问题描述

正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。

但当RAID控制卡未设置紧急热备时,成员盘状态显示为fail或prefail时,可使用以下方法处理。

处理方法

使用StorCLI工具,具体操作请参考14.7.1 下载和安装StorCLI工具。

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考14.7.2.20 设置硬盘状态。

storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]

说明

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在Enclosure的ID

l     slot_id:物理硬盘槽位ID

                                步骤 2     更换离线硬盘。

                                步骤 3     RAID组自动执行重构。

等待重构完成。

----结束

14.5.1.3 硬盘状态为Unconfigured Bad或UBad

问题描述

硬盘状态显示为Unconfigured Bad或UBad。

处理方法

使用StorCLI工具,具体操作请参见14.7.1 下载和安装StorCLI工具。

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见14.7.2.20 设置硬盘状态。

storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]

说明

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在Enclosure的ID

l     slot_id:物理硬盘槽位ID

                                步骤 2     重新查看硬盘状态是否更改为Unconfigured Good或Ugood。具体操作请参见14.6.2.4 Drive Management界面或14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤4

                                步骤 3     查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见14.4.9 导入/清除外部配置或14.7.2.24 查看/导入/清除外部配置。

l     问题解决 => 处理完毕。

l     问题未解决 => 联系技术支持处理。

----结束

14.5.2 RAID控制卡故障

问题描述

当服务器出现如下现象时,说明RAID控制卡故障。

l     数据无法写入RAID控制卡控制的硬盘。

l     服务器上报RAID控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     查询兼容性查询助手或者联系技术支持处理。

----结束

14.5.3 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy

问题描述

正常情况下,当服务器配置了RAID控制卡且RAID控制卡状态正常时,进入BIOS的Advanced页签后,会显示RAID控制卡的信息,如图14-53所示。

如果Advanced页签不显示RAID控制卡的信息,如图14-54所示,则:

l     如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:

     如果不显示驱动打印信息,可尝试下电后重新拔插RAID控制卡再上电、下电后更换RAID控制卡再上电或者联系技术支持。

     如果显示“AVAGO EFI SAS Driver”,则可以通过本章节的指导修复RAID控制卡。

l     如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,则可以通过本章节的指导修复RAID控制卡;如果不显示,可尝试下电后重新拔插RAID控制卡再上电、下电更换RAID控制卡再上电或者联系技术支持。

图14-53 Advanced页签(1)

 

图14-54 Advanced页签(2)

 

处理方法

l     当BIOS的版本为0.98之前版本(不包含0.98版本)时:

a.     在Advanced页签选择“Driver Health Manager”并按Enter。

进入“Driver Health Manager”界面。

b.     选择要进行修复的RAID控制卡驱动,如“AVAGO EFI SAS Driver”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息:

n     显示“The following VDs have missing disks. ”=> 请参见14.5.3.1 The following VDs have missing disks。

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见14.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。

l     当BIOS的版本为0.98及以上版本时:

a.     在“Advanced”页签选择“Some drivers are not healthy”。

进入健康状态查询界面。

b.     选择“Repair the whole platform”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息。

n     显示“The following VDs have missing disks. ”=> 请参见14.5.3.1 The following VDs have missing disks。

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见14.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。

说明

RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见A.2 RAID控制卡启动中出现的常见的错误消息及处理方法。

14.5.3.1 The following VDs have missing disks

问题描述

图14-55所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。

图14-55 状态显示

 

处理方法

修复RAID控制卡。

1.     在图14-55中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

2.     输入“C”并按“Enter”。

3.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

4.     输入“y”并按“Enter”。

提示“Critical Message handling completed. Please exit”。修复完成。

                                步骤 1     重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

14.5.3.2 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

问题描述

图14-56所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”

图14-56 状态显示

 

处理建议

该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:

l     下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。

l     忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:

a.     在图14-56中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

b.     输入“c”并按“Enter”。

c.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

d.     输入“y”并按“Enter”。

提示Critical Message handling completed. Please exit。

e.     按“Esc”退出当前界面。

弹出确认保存配置会话框,如图14-57所示。

图14-57 提示保存会话框

 

f.     按“Y”保存配置,操作完成。

g.     按Esc键返回“Device Manager”界面。

h.     选择9440-8i RAID控制卡,并按“Enter”,进入RAID控制卡管理界面。

14.5.3.3 Disabling writes to flash as the flash part has gone bad

问题描述

图14-58所示,进入“Driver Healthy Protocol Utility”界面后,显示“Disabling writes to flash as the flash part has gone bad”。

图14-58 状态显示

 

处理方法

将服务器下电。

                                步骤 1     更换RAID控制卡。

                                步骤 2     将服务器上电,导入外部配置恢复原来的RAID配置,请参见14.4.9 导入/清除外部配置或14.7.2.24 查看/导入/清除外部配置。

检查提示是否清除。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

14.6 管理界面介绍

1.     登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如图14-59所示界面时,按“Delete”。

图14-59 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如图14-60所示界面。

图14-60 Setup Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如图14-61所示。

图14-61 “Advanced”页签

 

说明

如果Advanced界面无法找到RAID控制卡或显示“Some drivers are not healthy”,请参见14.5.3 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择要操作的9440-8i控制器,按“Enter”。

进入如图14-62图14-63所示主界面,界面参数如表14-15所示。

图14-62 9440-8i主界面(1)

 

图14-63 9440-8i主界面(2)

 

表14-15 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

CacheVault

是否支持Cache。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

说明

仅当9440-8i存在外部配置时,会显示该选项。

Configure

提供删除配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

Silence Alarm

板载蜂鸣器的使能状态。

说明

9440-8i未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

14.6.2 Main Menu

RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。

界面介绍

“Main Menu”界面如图14-64,参数说明如表14-16所示。

图14-64 Main Menu

 

表14-16 参数说明

参数

参数说明

Configuration Management

配置管理RAID。

Controller Management

管理RAID控制器。

Virtual Drive Management

管理虚拟磁盘。

Drive Management

管理硬盘。

Hardware Components

查询部件信息。

 

14.6.2.1 Configuration Management

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

“Configuration Management”界面如图14-65,参数说明如表14-17所示。

图14-65 Configuration Management

 

表14-17 参数说明

参数

参数说明

Create Virtual Drive

创建RAID。

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Make JBOD

硬盘直通功能,硬盘不加入RAID,直接使用。

Clear Configuration

清除配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时会显示该参数。

 

快速创建RAID

图14-65中选择“Create Profile Based Virtual Drive”并按“Enter”。

                                步骤 1     通过“↑”、“↓”选择要创建的RAID(以“Generic RAID 1”为例)并按“Enter”。

打开RAID配置界面,如图14-66,参数说明如表14-18所示。

图14-66 RAID配置界面

 

表14-18 参数说明

参数

参数说明

Drive Selection Criteria

系统自动选择的成员盘。

Virtual Drive Name

系统自定义的RAID组名称。

RAID Level

当前配置的RAID组的级别。

Virtual Drive Size

RAID组的容量。

Power Save Mode

数据掉电保护模式。

Strip Size

RAID组扇区大小。

Read Policy

RAID组的数据读策略。

Write Policy

RAID组的数据写策略。

IO Policy

RAID组I/O策略。

Access Policy

数据读写的策略。

Drive Cache

硬盘Cache策略。

Create Dedicated Hot Spare

是否为RAID组创建局部热备盘。

Save Configuration

保存当前配置。

 

                                步骤 2     按表14-18所示查看或配置相关参数。

                                步骤 3     选择“Save Configuration”并按“Enter”。

弹出操作确认界面。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 6     选择“OK”并按“Enter”完成配置。

----结束

查看虚拟磁盘属性

图14-65中选择“View Drive Group Properties”并按“Enter”。

打开的界面如图14-67,参数说明如表14-19所示。

图14-67 View Drive Group Properties

 

表14-19 参数说明

参数

参数说明

Drive Group

硬盘组名称。

Capacity Allocation

硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。

 

14.6.2.2 Controller Management

该界面提供控制器管理接口,可查看并修改控制器的详细参数。

界面介绍

“Controller Management”界面如图14-68图14-69所示,参数说明如表14-20所示。

图14-68 Controller Management(1)

 

图14-69 Controller Management(2)

 

表14-20 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Personality Mode

RAID控制卡的模式。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效,EFI/UEFI模式的启动项配置方法请参见14.3.5 配置启动项。

PCI ID

RAID控制卡的PCI ID。

PCI Segment:Bus:Device:Fuction

RAID控制卡的PCI设备索引。

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Supported Device Interfaces

支持的设备接口。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制器操作。

Advanced Controller Properties

查看和修改控制器的高级属性。

 

查看并修改控制器高级属性

图14-68中选择“Advanced Controller Properties”并按“Enter”。

界面如图14-70图14-71所示,界面中参数说明如表14-21所示。

图14-70 Advanced Controller Properties界面(1)

 

图14-71 Advanced Controller Properties界面(2)

 

表14-21 参数说明

参数

说明

Patrol Read

系统巡检。

Power Save Setting

设置硬盘休眠。

Spare

设置控制器热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

9440-8i控制器卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

表示硬盘容量压缩模式,包括:

l     None

l     128MB

l     1GB

默认为“1GB”。

说明

硬盘压缩模式可以对不同厂商的相同规格硬盘的容量差异进行取整处理,使不同厂商的硬盘强制为相同的容量,以便可以在同一个RAID组中使用。取整单位可以为None、128MB、1GB,其中None表示RAID控制卡对不同厂商的硬盘不做取整处理。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。

默认为“Stop On Errors”。

Controller BIOS

控制器BIOS的使能情况。

ROC Temperature

控制器温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见14.4.9 导入/清除外部配置章节。

SMART Polling

SMART轮巡检测周期。默认值为“300”。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

JBOD Mode

硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。

Large IO Support

启用或禁用大型I/O支持功能。

Unmap Capability

解除映射能力。

Firmware Device Order

该功能开启后,设置为启动项的RAID组盘符为sda。

Apply Changes

保存配置。

 

                                步骤 2     在图14-70中选择“Task Rates”并按“Enter”。界面如图14-72所示,界面中参数说明如表14-22所示。

图14-72 Task Rates

 

表14-22 参数说明

参数

说明

Background Initialization <BGI> Rate

设置执行后台初始化的速率。

说明

数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Consistency Check Rate

设置执行一致性校验的速率。

说明

数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Patrol Read Rate

设置执行巡检读取的速率。

说明

数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Rebuild Rate

设置硬盘发生故障时在新硬盘上执行重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Reconstruction Rate

设置执行RAID级别迁移或在线容量扩展时重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Apply Changes

保存配置。

 

                                步骤 3     按照表14-21所述修改控制器的高级属性参数。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

14.6.2.3 Virtual Drive Management

该界面提供虚拟磁盘的查询和管理接口。

界面介绍

“Virtual Drive Management”界面如图14-73,显示虚拟磁盘列表。

图14-73 Virtual Drive List

 

选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如图14-74所示,参数说明如表14-23所示。

图14-74 Virtual Drive Management

 

表14-23 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:定位虚拟磁盘的所有硬盘。

l     Stop Locate:取消定位。

l     Delete Virtual Drive:删除虚拟磁盘。

l     Expand Virtual Drive:扩展虚拟磁盘容量。

l     Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。

l     Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。

l     Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。

l     Fast Initialization:快速初始化虚拟磁盘。

l     Slow Initialization:安全初始化虚拟磁盘。

l     Check Consistency:一致性校验。

l     Virtual Drive Erase:格式化虚拟磁盘。

Name

虚拟磁盘名称。

Raid Level

虚拟磁盘RAID级别。

Status

虚拟磁盘当前运行状态。

Size

虚拟磁盘容量。

View Associated Drives

查看成员盘属性。

Advanced...

查看虚拟磁盘高级属性。

 

查看成员盘属性

图14-74中选择“View Associated Drives”并按“Enter”。

界面如图14-75,显示成员盘列表。

图14-75 View Associated Drives

 

                                步骤 2     选择要查看的成员盘,并按“Enter”。

                                步骤 3     选择“View Drive Properties”并按“Enter”。

进入硬盘属性界面,如图14-76界面所示,界面参数如表14-24所示。

图14-76 View Drive Properties

 

表14-24 参数说明

参数

参数说明

Operation

该成员盘可执行的操作,包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Place Drive Online/Offline:将硬盘上线/离线。

Drive ID

成员盘的ID。

Connection

硬盘接口。

Enclosure Position

机箱或背板的位置。

Slot Number

硬盘的槽位号。

Status

成员盘的当前工作状态。

Size

成员盘的容量。

Type

成员盘类型。

Model

成员盘的模块类型。

Serial Number

硬盘的序列号。

Hardware Vendor

成员盘的生产厂商。

Associated Virtual Drive

成员盘所在的虚拟磁盘。

Advanced...

查询成员盘更多属性。

 

----结束

查看和修改虚拟磁盘高级属性

图14-74中选择“Advanced”并按“Enter”。

界面如图14-77图14-78所示,界面参数如表14-25所示。

图14-77 Advanced界面(1)

 

图14-78 Advanced界面(2)

 

表14-25 参数说明

参数

参数说明

Logical Sector Size

逻辑扇区大小。

Strip Size

条带大小。

Starting Logical Block Addressing

逻辑单元起始地址。

Emulation Type

控制逻辑盘在OS中上报的扇区。

当成员盘为512B/512B时:

l     Default:逻辑盘扇区为512B/512B。

l     None:逻辑盘扇区为512B/512B。

l     Force:逻辑盘扇区为512B/4KB。

当成员盘为512B/4KB时:

l     Default:逻辑盘扇区为512B/4KB。

l     None:逻辑盘扇区为512B/512B。

l     Force:逻辑盘扇区为512B/4KB。

Bad Blocks

是否支持坏块处理。

Access

数据读取的策略,分以下三种:

l     Read Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Current Write Cache Policy

当前写Cache策略。默认为“Write Through”。

说明

“Write Through”表示当硬盘子系统接收到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。

Default Write Cache Policy

默认的写Cache策略。

Disable Background Initialization

是否禁用后台初始化。

Read Cache Policy

当前读Cache策略,默认为“No Read Ahead”,即关闭预读取功能。

说明

9440-8i不支持在该界面设置读Cache策略。

Drive Cache

是否支持cache。

Input/Output

I/O读取策略,默认为“Direct”,即直接从硬盘读取数据,不经过Cache缓存。

说明

9440-8i不支持在该界面设置I/O读取策略。

Unmap Capability

虚拟磁盘解映射功能使能状态。

不支持设置该功能。

Apply Changes

保存配置。

 

                                步骤 2     按照表14-25所述配置“Advanced”的参数。

                                步骤 3     选择“Apply Changes”并按“Enter”。

显示The operation has been performed successfully。

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

14.6.2.4 Drive Management

该界面显示硬盘基本属性,提供硬盘操作接口。

界面介绍

“Drive Management”界面如图14-79所示,显示硬盘列表。

图14-79 Drive List

 

选定要操作的硬盘并按“Enter”进入详细操作界面,如图14-80所示,参数说明如表14-26所示。

图14-80 Drive Management

 

表14-26 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Initialize Drive:硬盘初始化。

l     Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。

     Simple:仅对硬盘进行一轮擦除动作。

     Normal:对硬盘进行三轮擦除动作。

     Thorough:对硬盘进行九轮擦除动作。

     Stop Erase:停止数据擦除操作。

l     Make Unconfigured Good/Bad:修改硬盘状态。

l     Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。

l     Assign Global Hot Spare Drive:设置全局热备盘。

l     Assign Dedicated Hot Spare Drive:设置局部热备盘。

l     Unassign Hot Spare Drive:删除热备盘。

l     Prepare for Removal:硬盘拔出前的准备工作。

l     Place Drive Online:将Offline状态的硬盘设置为Online。

说明

l     Place Drive Online操作只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。

l     对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。

Drive ID

硬盘的ID。

Connection

硬盘接口。

Enclosure Position

机箱或背板的位置。

Slot Number

硬盘的槽位号。

Status

硬盘的当前工作状态。

Size

硬盘的容量。

Type

硬盘的类型。

Model

硬盘型号。

Serial Number

硬盘的序列号。

Hardware Vendor

硬盘的生产厂商。

Advanced...

查询更多硬盘属性。

 

安全擦除硬盘数据

说明

该操作会删除硬盘上的数据,请谨慎执行。

将“Operation”设置为“Drive Erase”。

                                步骤 1     选择“Erase Mode”并按“Enter”。

                                步骤 2     在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。

                                步骤 3     选择“Go”并按“Enter”。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示操作成功。

----结束

查看硬盘属性

选择“Advanced...”并按“Enter”。

打开硬盘属性界面,如图14-81图14-82所示,参数说明如表14-27所示。

图14-81 Drive Properties 界面(1)

 

图14-82 “Drive Properties”界面(2)

 

表14-27 参数说明

参数

参数说明

Certified

硬盘是否有供应商认证。

Logical Sector Size

逻辑扇区大小。

Physical Sector Size

物理扇区大小。

SMART Status

SMART功能是否使能。

Revision

硬盘Firmware版本。

Media Errors

Media error个数。

Predicted Fail Count

Pred fail个数。

SAS Address

硬盘SAS地址。

Mutipath

该功能为支持检测和使用从RAID控制器到盘柜中的SAS设备的多条路径,连接到盘柜的设备有多条路径。到设备同一端口的冗余路径,可以保障当其中一条路径发生故障时,控制器和设备之间可以使用另一条路径进行通信。同时使用具有负载平衡的多条路径,而不是单条路径,可以通过冗余来提高可靠性。

Drive Power State

硬盘上电状态。

Cache Setting

是否可设置Cache。

Disk Protocol

硬盘支持的协议。

Capable Speed

硬盘速率。

Negotiated Speed

硬盘数据传输速率。

Number of Connections

连接器个数。

FDE Capable

硬盘是否支持FDE(Full Disk Encryption)技术。

Cryptographic Erase Capable

硬盘是否支持加密擦除功能。

Unmap Capable

解除映射能力。

Unmap Capability for Configuration

取消映射配置功能。

Temperature

硬盘温度。

 

14.6.2.5 Hardware Components

该界面主要提供RAID控制卡传感器信息。

界面介绍

“Hardware Components”界面如图14-83,参数说明如表14-28所示。

图14-83 Hardware Components

 

表14-28 参数说明

参数

参数说明

Temperature Sensors

当前温度传感器状态。

Fans

当前风扇模块工作状态。

Power Supplies

当前供电模块工作状态。

Enclosure Management

部件管理。

 

14.6.3 View Server Profile

提供RAID控制卡操作管理接口。

界面介绍

“View Server Profile”界面如图14-84所示,参数说明如表14-29所示。

图14-84 View Server Profile

 

表14-29 参数说明

参数

参数说明

UEFI Spec Version

服务器支持的UEFI Spec版本。

Controller Management

提供控制器管理接口,详细情况请参见14.6.2.2 Controller Management。

Hardware Components

提供控制器部件查询接口,详细情况请参见14.6.2.5 Hardware Components。

Drive Management

提供硬盘管理接口,详细情况请参见14.6.2.4 Drive Management。

Virtual Drive Management

提供虚拟磁盘管理接口,详细情况请参见14.6.2.3 Virtual Drive Management。

 

14.6.4 Manage Foreign Configuration

该界面可查看、导入、清空外部配置。

界面介绍

“Manage Foreign Configuration”界面如图14-85所示。

图14-85 Manage Foreign Configuration

 

查看并导入外部配置

选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如图14-86所示。

图14-86 View Foreign Configuration

 

                                步骤 2     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

清除外部配置

选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 3     选择“OK”并按“Enter”完成配置。

----结束

14.6.5 Configure

该界面可清除当前所有配置。

界面介绍

“Configure”界面如图14-87所示,参数说明如表14-30所示。

图14-87 Configure

 

表14-30 参数说明

参数

参数说明

Create Virtual Drive

创建RAID。

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Make JBOD

硬盘直通功能,硬盘不加入RAID,直接使用。

Clear Configuration

清除当前配置。

 

清除当前配置

选择“Clear Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 3     选择“OK”并按“Enter”完成配置。

----结束

14.6.6 Set Factory Defaults

恢复出厂配置

在主界面选择“Set Factory Defaults”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 3     选择“OK”并按“Enter”完成配置。

----结束

14.6.7 Manage MegaRAID Advanced Software Options

该界面提供RAID控制卡高级软件特性查看和导入接口。

界面介绍

“Manage MegaRAID Advanced Software Options”界面如图14-88所示,界面中参数说明如表14-31所示。

图14-88 Manage MegaRAID Advanced Software Options

 

表14-31 参数说明

参数

说明

SAFE ID

RAID控制卡的安全编码。

Serial Number

RAID控制卡序列号。

Activation Key

待激活的高级特性的Key。

Active

激活高级特性。

说明

9440-8i不支持高级特性的激活操作,该功能无效。

Deactive All Trail Software

注销当前所有高级特性。

 

14.6.8 Exit

退出配置界面

在9440-8i主界面按“ESC”,显示如图14-89所示界面。

图14-89 BIOS Setup Utility

 

                                步骤 2     按F10退出BIOS。

弹出操作确认窗口。

                                步骤 3     选择“OK”并按Enter。

退出BIOS,显示“ Press Control+Alt+Delete to reboot”。

----结束

14.7 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

14.7.1 下载和安装StorCLI工具

下载工具

登录BROADCOM网站上RAID控制卡的页面

                                步骤 1     在“DOWNLOADS”页签中单击“Management Software and Tools”。

打开管理软件和工具列表。

                                步骤 2     下载最新版本的“StorCLI”工具。

                                步骤 3     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 1     在Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。

说明

StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

14.7.2 常用命令

14.7.2.1 查询RAID控制卡配置信息

命令功能

查询9440-8i的基本配置信息。

命令格式

storcli64 /ccontroller_id  show

参数说明

参数

参数说明

取值

controller_id

控制器ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID

 

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡配置信息。

[root@localhost ~]# storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
CLI Version = 007.0913.0000.0000 Jan 11, 2019
Operating system = Linux 4.19.36-vhulk1907.1.0.h608.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
Product Name = AVAGO MegaRAID SAS 9440-8i
Serial Number = SP93000051
SAS Address =  500605b00f3999e0
PCI Address = 00:03:00:00
System Time = 03/03/2020 16:35:38
Mfg. Date = 07/29/19
Controller Time = 03/03/2020 08:35:37
FW Package Build = 51.12.0-3097
BIOS Version = 7.12.03.0_0x070C0300
FW Version = 5.120.01-2995
Driver Name = megaraid_sas
Driver Version = 07.712.02.00
Vendor Id = 0x1000
Device Id = 0x17
SubVendor Id = 0x1000
SubDevice Id = 0x9440
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 3
Device Number = 0
Function Number = 0
Drive Groups = 1
 
TOPOLOGY :
========
 
---------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT     Size PDC  PI SED DS3  FSpace TR
---------------------------------------------------------------------------
 0 -   -   -        -   RAID0 Optl  N  1.089 TB dflt N  N   dflt N      N
 0 0   -   -        -   RAID0 Optl  N  1.089 TB dflt N  N   dflt N      N
 0 0   0   69:0     0   DRIVE Onln  N  1.089 TB dflt N  N   dflt -      N
---------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 1
 
VD LIST :
=======
 
-------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC     Size Name
-------------------------------------------------------------
0/0   RAID0 Optl  RW     Yes     NRWTD -   ON  1.089 TB
-------------------------------------------------------------
 
EID=Enclosure Device ID| VD=Virtual Drive| DG=Drive Group|Rec=Recovery
Cac=CacheCade|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 1
 
PD LIST :
=======
 
--------------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model          Sp Type
--------------------------------------------------------------------------
69:0      0 Onln   0 1.089 TB SATA SSD N   N  512B SSDSC2BB012T7H U  -
--------------------------------------------------------------------------
 
EID=Enclosure Device ID|Slt=Slot No.|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=Unsupported|UGShld=UnConfigured shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported

14.7.2.2 查询和设置Spinup参数

命令功能

查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。

命令格式

storcli64 /ccontroller_id show spinupdelay

storcli64 /ccontroller_id show spinupdrivecount

storcli64 /ccontroller_id set spinupdelay=time

storcli64 /ccontroller_id set spinupdrivecount=count

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

每组起转硬盘间的时间间隔

默认为2,单位为s。

count

上电时允许同时起转的硬盘数量

默认为4。

 

查看RAID控制卡ID的方法请参见14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡Spinup参数。

domino:~# ./storcli64 /c0 show spinupdelay
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop     Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
 
domino:~# ./storcli64 /c0 show spinupdrivecount
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop           Value
--------------------------
Spin Up Drive Count 2
--------------------------

# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。

domino:~# ./storcli64 /c0 set spinupdelay=20
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
---------------------------
Ctrl_Prop     Value
---------------------------
Spin Up Delay 20 second(s)
---------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop           Value
--------------------------
Spin Up Drive Count 5
--------------------------

14.7.2.3 设置硬盘PowerSave功能

命令功能

设置空闲硬盘和热备盘的省电模式。

命令格式

storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID。

state

省电模式的启用状态。

l     on:启用

l     off:禁用

disktype

硬盘类型。

l     1:空闲硬盘

l     2:热备盘

time

等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。

单位为minutes。

 

查看RAID控制卡ID的方法请参见14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置空闲硬盘的省电模式。

domino:~# ./storcli64 /c0 set ds=on type=1 spindowntime=30
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
------------------------
Ctrl_Prop    Value
------------------------
SpnDwnUncDrv Enabled
SpnDwnTm     30 minutes
------------------------

14.7.2.4 查询和设置物理硬盘初始化功能

命令功能

设置物理硬盘初始化功能,查询初始化进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看初始化进度

l     start:开始初始化

l     stop:结束初始化

 

以上涉及的各个ID的查询方法请参见14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 初始化slot3硬盘,并查询初始化进度。

domino:~# ./storcli64 /c0/e252/s3 start initialization
Controller = 0 
Status = Success 
Description = Start Drive Initialization Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show initialization
Controller = 0 
Status = Success 
Description = Show Drive Initialization Status Succeeded. 
------------------------------------------------------ 
Drive-ID    Progress% Status      Estimated Time Left 
------------------------------------------------------ 
/c0/e252/s3         0 In progress 0 Seconds 
------------------------------------------------------  

14.7.2.5 查询和设置硬盘数据擦除功能

命令功能

设置物理硬盘数据擦除模式,查询擦除进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

mode

数据擦除模式

l     simple:对硬盘进行一轮擦除动作。

l     normal:对硬盘进行三轮擦除动作。

l     thorough:对硬盘进行九轮擦除动作。

 

以上涉及的各个ID的查询方法请参见14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。

domino:~# ./storcli64 /c0/e252/s3 start erase simple
Controller = 0 
Status = Success 
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0 
Status = Success 
Description = Show Drive Erse Status Succeeded. 
------------------------------------------------------ 
Drive-ID    Progress% Status      Estimated Time Left 
------------------------------------------------------ 
/c0/e252/s3         0 In progress 0 Seconds 
------------------------------------------------------     
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0 
Status = Success 
Description = Stop Drive Erase Succeeded.

14.7.2.6 设置后台资源占用率

命令功能

设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。

命令格式

storcli64 /ccontroller_id set action=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要设置的项目

l     bgirate:后台初始化速率

l     ccrate:一致性校验速率

l     prrate:硬盘巡检速率

l     rebuildrate:RAID重构速率

l     reconrate:RAID扩容和迁移速率

value

后台任务资源占用率

1~100

 

查看RAID控制卡ID的方法请参见14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置硬盘巡检速率为“30%”。

domino:~# ./storcli64 /c0 set prrate=30
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
----------------------- 
Ctrl_Prop        Value 
----------------------- 
Patrol Read Rate 30% 
-----------------------  

14.7.2.7 设置BIOS Stop on Error功能

命令功能

设置控制器BIOS在检测到异常时停止继续启动的功能。

命令格式

storcli64 /ccontroller_id set bios mode=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要执行的操作

l     soe:控制器BIOS在检测到异常时停止启动

l     ie:忽略检测到的异常

 

查看RAID控制卡ID的方法请参见14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 开启Stop on error功能。

domino:~# ./storcli64 /c0 set bios mode=soe
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
---------------- 
Ctrl_Prop Value 
---------------- 
BIOS Mode SOE 
----------------

14.7.2.8 创建和删除RAID

命令功能

创建、删除RAID。

命令格式

命令

说明

storcli64 /ccontroller_id add vd rlevel[0|1|10] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid]

创建RAID组

storcli64 /ccontroller_id/vraid_id del

删除RAID组

 

说明

*表示默认值。

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

enclosure_id

硬盘所在Enclosure的ID

-

rlevel

要配置的RAID组级别

level可为0、1、10,数字分别代表对应的RAID组级别。

size

要配置的RAID组容量

默认值为all,即所有成员盘的容量之和。

name

要配置的RAID组名称

-

drives

要加入RAID组的硬盘

-

startid-endid

硬盘的起始和结束ID

-

slot_id

硬盘ID

-

pdperarray

子组中的硬盘数

创建RAID10时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。

-

pdcache

设置RAID的成员盘的Cache状态

l     on

l     off

l     default

pi

使能数据保护

-

EmulationType

控制逻辑盘在OS中上报的扇区

l     0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     1: Disable,如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     2:Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Spares

指定RAID组的热备盘

-

raid_id

要删除的RAID组的ID

-

 

说明

l     以上涉及的各个ID的查询方法请参见14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息。

l     当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid

使用指南

使用实例

# 创建RAID 0。

domino:~# ./storcli64 /c0 add vd r0 size=100GB drives=252:0-3
Controller = 0 
Status = Success 
Description = Add VD Succeeded

# 删除RAID。

domino:~# ./storcli64 /c0/v0 del
Controller = 0 
Status = Success 
Description = Delete VD Succeeded

14.7.2.9 设置RAID前台初始化

命令功能

设置RAID前台初始化模式。

命令格式

storcli64 /ccontroller_id/vraid_id start mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

mode

前台初始化模式

l     init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。

l     init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。

 

以上涉及的各个ID的查询方法请参见14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 快速初始化RAID。

domino:~# ./storcli64 /c0/v0 start init
Controller = 0 
Status = Success 
Description = Start INIT Operation Success

14.7.2.10 查询和设置RAID后台初始化

命令功能

暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。

命令格式

storcli64 /ccontroller_id/vraid_id action bgi

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

action

后台初始化的操作

l     show:查看后台初始化进度

l     pause:暂停后台初始化

l     resume:继续后台初始化

l     stop:停止后台初始化

 

以上涉及的各个ID的查询方法请参见14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查看后台初始化进度。

domino:~# ./storcli64 /c0/v0 show bgi
Controller = 0 
Status = Success 
Description = Noe 
VD Operation Status : 
=================== 
------------------------------------------------------ 
VD Operation Progress% Staus      Estimated Time Left 
------------------------------------------------------ 
 0 BGI               3 In progress 53 Minutes 
------------------------------------------------------

14.7.2.11 设置启动项

命令功能

设置虚拟磁盘或物理硬盘为启动项。

命令格式

storcli64 /ccontroller_id/vvd_id set bootdrive=on

storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

vd_id

待设置的虚拟磁盘的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

 

以上涉及的各个ID的查询方法请参见14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置VD0为启动项。

domino:~# ./storcli64 /c0/v0 set bootdrive=on
Controller = 0 
Status = Success 
Description = Noe 
Detailed Status : 
=============== 
---------------------------------------- 
VD Property   Value Staus  ErrCd ErrMsg 
---------------------------------------- 
 0 Boot Drive On    Success    0 - 
----------------------------------------

# 设置slot 7硬盘为启动项。

domino:~# ./storcli64 /c0/e252/s7 set bootdrive=on
Controller = 0 
Status = Success 
Description = Noe 
Controller Properties : 
===================== 
------------------- 
Ctrl_Prop Value 
------------------- 
BootDrive PD:252_7 
-------------------

14.7.2.12 设置紧急热备功能

命令功能

设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。

命令格式

storcli64 /ccontroller_id set eghs eug=state

storcli64 /ccontroller_id set eghs smarter=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

state

紧急热备功能的启用状态

l     on:启用

l     off:禁用

 

查看RAID控制卡ID的方法请参见14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。

domino:~# ./storcli64 /c0 set eghs eug=on
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
------------------ 
Ctrl_Prop   Value 
------------------ 
EmergencyUG ON 
------------------
domino:~# ./storcli64 /c0 set eghs smarter=on
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
----------------------- 
Ctrl_Prop        Value 
----------------------- 
EmergencySmarter ON 
-----------------------

14.7.2.13 设置热备盘

命令功能

设置全局热备盘和局部热备盘。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=vd_id]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

vd_id

局部热备盘所属虚拟磁盘的ID

 

以上涉及的各个ID的查询方法请参见14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置slot 3硬盘为全局热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive
Controller = 0 
Status = Success 
Description = Add Hot Spare Succeeded.    

# 设置slot 3硬盘为vd0的局部热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive dgs=0
Controller = 0 
Status = Success 
Description = Add Hot Spare Succeeded.   

14.7.2.14 查询和设置RAID重构/回拷/系统巡检功能

命令功能

暂停、继续、停止RAID重构/回拷/系统巡检,并查询进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action function

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看进度

l     pause:暂停进程

l     resume:继续执行

l     stop:停止进程

function

要处理的进程

l     rebuild:RAID重构

l     copyback:回拷

l     patrolread:系统巡检

 

以上涉及的各个ID的查询方法请参见14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查看RAID重构进度。

domino:~# ./storcli64 /c0/e252/s4 show rebuild
Controller = 0 
Status = Success 
Description = Show Drive Rebuild Status Succeeded. 
------------------------------------------------------ 
Drive-ID    Progress% Staus       Estimated Time Left 
------------------------------------------------------ 
/c0/e252/s4         9 In progress 12 Minutes 
------------------------------------------------------

# 暂停RAID重构。

domino:~# ./storcli64 /c0/e252/s4 pause rebuild
Controller = 0 
Status = Success 
Description = Pause Drive Rebuild Status Succeeded. 

14.7.2.15 设置Smart扫描周期

命令功能

设置Smart扫描周期。

命令格式

storcli64 /ccontroller_id set smartpollinterval=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

value

Smart扫描周期

单位为s。

 

查看RAID控制卡ID的方法请参见14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置Smart扫描周期为“60s”。

domino:~# ./storcli64 /c0 set smartpollinterval=60
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
------------------------------- 
Ctrl_Prop         Value 
------------------------------- 
SmartPollInterval 60 second(s) 
-------------------------------

14.7.2.16 通过增加成员盘可用容量扩容RAID

命令功能

RAID有2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

命令格式

storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要扩容的RAID的ID

capacity

扩容后的容量

expandarray

当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。

 

以上涉及的各个ID的查询方法请参见14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查询VD的可扩展容量。

[root@localhost ~]# storcli64 /c0/v1 show expansion 
CLI Version = 007.1416.0000.0000 July 24, 2020 
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64 
Controller = 0 
Status = Success 
Description = None 
 
 
EXPANSION INFORMATION : 
===================== 
 
-------------------------------------------- 
VD      Size OCE NoArrExp WithArrExp Status 
-------------------------------------------- 
 1 10.000 GB Y   3.627 TB 5.447 TB   - 
-------------------------------------------- 
 
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion 
 VD=Virtual Drive | NoArrExp - Without Array Expansion

说明

如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。

# 将VD0的容量扩大“200GB”。

domino:~# ./storcli64 /c0/v0 expand size=200GB
Controller = 0 
Status = Success 
Description = expansion operation succeeded. 
EXPANSION RESULT : 
================ 
-------------------------------------------------------------------------------- 
VD     Size FreSpc     ReqSize  AbsUsrSz   %FreSpc NewSize    Statsu NoArrExp 
-------------------------------------------------------------------------------- 
 0 100.0 GB 457.861 GB 200.0 GB 201.458 GB      44 301.458 GB -      457.861 GB 
-------------------------------------------------------------------------------- 
Size - Current VD size|FreSpc - Freespace available before expansion 
%FreSpc - Requested expansion size in % of available free space 
AbsUsrSz - User size rounded to nearest %

说明

RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。

14.7.2.17 通过增加新盘扩容或迁移RAID

命令功能

RAID有2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

当增加新盘后,可进行RAID级别迁移。

命令格式

storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

vd_id

要操作的RAID的ID

slot_id

要加入RAID的新硬盘的槽位号

level

增加硬盘后RAID的级别

l     与原RAID级别相同时,该命令为扩大RAID容量。

l     与原RAID级别不同时,该命令为RAID级别迁移。

 

以上涉及的各个ID的查询方法请参见14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 在RAID 0中增加slot 2硬盘扩容。

domino:~# ./storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2
Controller = 0 
Status = Success 
Description = Start MIGRATE Operation Success.     
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0 
Status = Success 
Description = None 
VD Operation Status : 
=================== 
------------------------------------------------------- 
VD Operation Progress% Status      Estimated Time Left 
------------------------------------------------------- 
 0 Migrate           1 In progress 13 Minutes 
-------------------------------------------------------  

# 单盘RAID 0加盘迁移至RAID 1。

domino:~# ./storcli64 /c0/v0 start migrate type=r1 option=add drives=252:3
Controller = 0 
Status = Success 
Description = Start MIGRATE Operation Success.     
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0 
Status = Success 
Description = None 
VD Operation Status : 
=================== 
------------------------------------------------------- 
VD Operation Progress% Status      Estimated Time Left 
------------------------------------------------------- 
 0 Migrate           1 In progress 14 Minutes 
-------------------------------------------------------    

14.7.2.18 设置一致性校验参数

命令功能

设置一致性校验参数。

命令格式

storcli64 /ccontroller_id[/vvd_id]show cc

storcli64 /ccontroller_id/vvd_id start cc force

storcli64 /ccontroller_id/vvd_id action cc

storcli64 /ccontroller_id set cc=conc delay=value starttime=time excludevd=evd_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要操作的RAID的ID

action

要执行的操作

l     pause:暂停

l     resume:继续执行

l     stop:停止

value

一致性校验周期

time

一致性校验起始时间

例如:2016/07/14 22

说明

起始时间单位为“时”。

evd_id

不进行一致性校验的虚拟磁盘ID

 

以上涉及的各个ID的查询方法请参见14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

show命令中不带/vvd_id时,表示查询自动CC参数。

show命令中带/vvd_id时,表示查询CC进度。

使用实例

# 设置一致性自动检查参数。

domino:~# ./storcli64 /c0 set cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
------------------------------------ 
Ctrl_Prop      Value 
------------------------------------ 
CC Mode         CONC 
CC delay        1 
CC Starttime    2016/07/14 22:00:00 
CC ExcludeVD(0) Success 
------------------------------------

# 查询CC进度。

domino:~# ./storcli64 /c0/v1 show cc
Controller = 0 
Status = Success 
Description = None 
VD Operation Status : 
=================== 
----------------------------------------------------------- 
VD Operation Progress% Status          Estimited Time Left 
----------------------------------------------------------- 
 0 CC        -         Not in progress - 
-----------------------------------------------------------

14.7.2.19 查询和设置Patrolread参数

命令功能

查询和设置系统巡检的相关参数。

命令格式

storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number

storcli64 /ccontroller_id set patrolread delay=delaytime

storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}

storcli64 /ccontroller_id show patrolread

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

系统巡检起始时间

例如:2016/07/15 23

说明

起始时间单位为“时”。

number

可同时巡检的硬盘数量

delaytime

系统巡检周期

单位为hour。

 

查看RAID控制卡ID的方法请参见14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。

domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

---------------------------------------

Ctrl_Prop          Value

---------------------------------------

PR Starttime       2016/07/15 23:00:00

PR MaxConcurrentPd 2

---------------------------------------

# 使能patrolread并设置为自动模式。

domino:~# ./storcli64 /c0 set patrolread=on mode=auto
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
--------------------------------------- 
Ctrl_Prop        Value 
--------------------------------------- 
Patrol Read Mode auto 
---------------------------------------

# 查询patrolread信息。

domino:~# ./storcli64 /c0 show patrolread

Controller = 0

Status = Success

Description = None

Controller Properties :

=====================

--------------------------------------------

Ctrl_Prop          Value

--------------------------------------------

PR Mode       2016/07/15 23:00:00

PR Execution Delay

PR iterations completed 0

PR Next Start time      07/16/2016,00:00:00

PR on SSD               Disabled

PR Current State        Stopped

--------------------------------------------

14.7.2.20 设置硬盘状态

命令功能

设置硬盘状态。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

state

要设置的硬盘状态

l     online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。

l     offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。

l     jbod:通过该参数可以将硬盘设置为直通硬盘。

l     good:

     ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置;

     JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。

l     good:将硬盘设为空闲盘

force

强制设置硬盘状态,为可选参数。

如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force。

-

 

以上涉及的各个ID的查询方法请参见14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。

domino:~# ./storcli64 /c0/e0/s1 set good
Controller = 0 
Status = Success 
Description = Set Drive Good Succeeded.

# 设置slot 7硬盘为直通盘。

domino:~# ./storcli64 /c0/e252/s7 set JBOD
Controller = 0 
Status = Success 
Description = Set Drive JBOD Succeeded.

14.7.2.21 设置硬盘定位指示灯状态

命令功能

点亮和熄灭指定硬盘的定位指示灯。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。

slot_id

物理硬盘槽位编号

可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。

action

要执行的操作

l     start:点亮硬盘的定位指示灯。

l     stop:熄灭硬盘的定位指示灯。

 

以上涉及的各个ID的查询方法请参见14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 点亮slot 7硬盘的定位指示灯。

domino:~# ./storcli64 /c0/e252/s7 start locate
Controller = 0 
Status = Success 
Description = Start Drive Locate Succeeded.

14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息

命令功能

查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。

命令格式

storcli64 /ccontroller_id show

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

storcli64 /ccontroller_id/vvd_id show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID

enclosure_id

硬盘所在Enclosure的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器连接的硬盘背板的ID

slot_id

物理硬盘槽位编号

可以将该参数设置为all,表示查询所有硬盘的ID

vd_id

虚拟磁盘ID

可以将该参数设置为all,表示查询所有虚拟磁盘的ID

 

使用指南

回显中主要字段的含义如表14-32所示。

表14-32 回显说明

命令格式

字段

含义

举例

storcli64 /ccontroller_id show

Product Name

RAID控制卡的型号

sas3108

FW Version

RAID控制卡的FW版本

4.660.00-8140

Driver Name

RAID控制卡的驱动名称

megaraid_sas

Driver Version

RAID控制卡的驱动版本

06.811.02.00-rh1

Current Personality

RAID控制卡的工作模式

RAID-Mode

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

SN

物理硬盘的序列号

PHWL517601YR800RGN

Manufacturer Id

物理硬盘的供应商ID

ATA

Model Number

物理硬盘的模块序号

INTEL SSDSC2BB800G4

Firmware Revision

物理硬盘的FW版本

D2010370

Raw size

物理硬盘的容量

745.211 GB [0x5d26ceb0 Sectors]

Logical Sector Size

物理硬盘逻辑分区大小

512B

Physical Sector Size

物理扇区大小

4 KB

storcli64 /ccontroller_id/vvd_id show all

TYPE

RAID组的级别

RAID1

State

RAID组的状态

Optl

Access

RAID组数据的访问策略

RW

Cache

RAID组当前的读写策略与I/O Policy

RWTD

Size

RAID组的大小

100.0 GB

PDs for VD0

RAID组下的物理硬盘

-

Strip Size

RAID组的条带大小

256KB

Write Cache(initial setting)

RAID组Cache的写策略

Write Through

Disk Cache Policy

RAID组成员盘的Cache策略

Disk's Default

 

使用实例

#查询RAID控制卡的详细信息。

domino:~# ./storcli64 /c0 show
Controller = 0
Status = Success
Description = None
 
Product Name = SAS3408
Serial Number = 024JNFCNK2000314
SAS Address =  58cfd18f55442000
PCI Address = 00:03:00:00
System Time = 07/18/2019 14:55:54
Mfg. Date = 00/00/00
Controller Time = 07/18/2019 06:55:53
FW Package Build = 50.6.3-0109
BIOS Version = 7.06.02.2_0x07060502
FW Version = 5.060.01-2262
Driver Name = megaraid_sas
Driver Version = 07.709.08.00
Vendor Id = 0x1000
Device Id = 0x17
SubVendor Id = 0x19E5
SubDevice Id = 0xD213
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 3
Device Number = 0
Function Number = 0
Drive Groups = 1
 
TOPOLOGY :
========
 
---------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT     Size PDC  PI SED DS3  FSpace TR
---------------------------------------------------------------------------
 0 -   -   -        -   RAID0 Optl  N  3.637 TB dflt N  N   dflt N      N
 0 0   -   -        -   RAID0 Optl  N  3.637 TB dflt N  N   dflt N      N
 0 0   0   65:0     41  DRIVE Onln  N  3.637 TB dflt N  N   dflt -      N
---------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 1
 
VD LIST :
=======
 
-------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC     Size Name
-------------------------------------------------------------
0/0   RAID0 Optl  RW     Yes     NRWTD -   ON  3.637 TB
-------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 39
 
PD LIST :
=======
 
------------------------------------------------------------------------------
EID:Slt DID State  DG       Size Intf Med SED PI SeSz Model                Sp
------------------------------------------------------------------------------
65:0     41 Onln    0   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  U
65:1     45 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:2     33 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:3     40 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM115-1YZ107   D
65:4     39 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:5     38 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:6     46 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:7     53 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:8     61 UGUnsp  -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  U
65:9      0 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM115-1YZ107   D
65:10     1 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:11    62 UGUnsp  -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  U
65:12    51 UGood   -   9.094 TB SATA HDD N   N  512B ST10000NM0478-2H7100 D
65:13    52 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:14    50 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:16    57 UGUnsp  -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 U
65:17    58 UGUnsp  -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 U
65:18    42 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:19    44 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:20    49 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:21    43 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:22    48 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:23    47 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  D
65:24     3 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  D
65:25     5 UGood   -  10.912 TB SATA HDD N   N  512B ST12000NM0007-2A1101 D
65:26     4 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:27     2 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  D
65:28    59 UGUnsp  -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  U
65:29     6 UGood   - 837.258 GB SAS  HDD N   N  512B ST900MM0168          D
65:30    55 UGood   -   3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107  D
65:31    60 UGUnsp  -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  U
65:32    56 UGUnsp  -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  U
65:33    35 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:34    34 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:35    37 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:36    36 UGood   -   5.456 TB SATA HDD N   N  512B ST6000NM0115-1YZ110  D
65:37    30 UGood   - 278.464 GB SAS  HDD N   N  512B AL15SEB030N          D
65:38    32 UGood   -   1.745 TB SATA SSD N   N  512B INTEL SSDSC2KG019T8  U
65:39    31 UGood   - 222.585 GB SATA SSD N   N  512B INTEL SSDSC2KG240G8  U
------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded

#查询slot0的物理硬盘的信息。

[root@localhost ~]# ./storcli64 /c0/e65/s0 show all
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
 
 
Drive /c0/e65/s0 :
================
 
--------------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model               Sp
--------------------------------------------------------------------------
65:0     41 Onln   0 3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 U
--------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Drive /c0/e65/s0 - Detailed Information :
=======================================
 
Drive /c0/e65/s0 State :
======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature =  30C (86.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
 
 
Drive /c0/e65/s0 Device attributes :
==================================
SN = ZC18JNP4
Manufacturer Id = ATA
Model Number = ST4000NM0035-1V4107
NAND Vendor = NA
WWN = 5000c500b3297aee
Firmware Revision = TNA5
Raw size = 3.638 TB [0x1d1c0beb0 Sectors]
Coerced size = 3.637 TB [0x1d1a94800 Sectors]
Non Coerced size = 3.637 TB [0x1d1b0beb0 Sectors]
Device Speed = 6.0Gb/s
Link Speed = 12.0Gb/s
NCQ setting = Enabled
Write Cache = Disabled
Logical Sector Size = 512B
Physical Sector Size = 512B
Connector Name = C0   & C1
 
 
Drive /c0/e65/s0 Policies/Settings :
==================================
Drive position = DriveGroup:0, Span:0, Row:0
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 2
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = Yes
Wide Port Capable = No
 
Port Information :
================
 
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
   0 Active 12.0Gb/s  0x500605b000027380
-----------------------------------------
 
 
Inquiry Data =
5a 0c ff 3f 37 c8 10 00 00 00 00 00 3f 00 00 00
00 00 00 00 20 20 20 20 20 20 20 20 20 20 20 20
43 5a 38 31 4e 4a 34 50 00 00 00 00 00 00 4e 54
35 41 20 20 20 20 54 53 30 34 30 30 4d 4e 30 30
35 33 31 2d 34 56 30 31 20 37 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 10 80
00 40 00 2f 00 40 00 02 00 02 07 00 ff 3f 10 00
3f 00 10 fc fb 00 10 5c ff ff ff 0f 00 00 07 00

# 查询VD 0的信息。

[root@rhel6u5 ~]# /opt/MegaRAID/storcli/storcli64 /c0/v0 show all
Controller = 0
Status = Success
Description = None
 
 
/c0/v0 :
======
 
-------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC     Size Name
-------------------------------------------------------------
0/0   RAID0 Optl  RW     Yes     NRWTD -   ON  3.637 TB
-------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
 
PDs for VD 0 :
============
 
--------------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model               Sp
--------------------------------------------------------------------------
65:0     41 Onln   0 3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 U
--------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
VD0 Properties :
==============
Strip Size = 64 KB
Number of Blocks = 7812499456
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 1
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = None
Active Operations = None
Exposed to OS = Yes
Creation Date = 06-07-2025
Creation Time = 08:44:04 AM
Emulation type = default
Cachebypass size = Cachebypass-64k
Cachebypass Mode = Cachebypass Intelligent
Is LD Ready for OS Requests = Yes
SCSI NAA Id = 68cfd18f554420002ffcf3d4ce5e8046

14.7.2.23 手动重构RAID

命令功能

手动重构RAID组。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row

storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

要加入Array的物理硬盘槽位编号

DG

硬盘发生故障的DG的ID

Arr

硬盘发生故障的Array的ID

Row

硬盘发生故障的Array的row number

 

以上涉及的各个ID的查询方法请参见14.7.2.22 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

重构RAID分3个步骤进行:

1.通过./storcli64 /c0 show 命令,查询故障硬盘的DG、Arr和Row所对应的数字。

2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。

3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID。

使用实例

# 将硬盘加入RAID组。

[root@localhost ~]# storcli64 /c0/e252/s1 insert dg=0 array=0 row=0
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = Insert Drive Succeeded.

# 手动重构RAID。

[root@localhost ~]# storcli64 /c0/e252/s1 start rebuild
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-693.el7.x86_64
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

14.7.2.24 查看/导入/清除外部配置

命令功能

指导用户查看、导入或者清除RAID控制卡的外部配置。

命令格式

storcli64 /ccontroller_id/fall import preview

storcli64 /ccontroller_id/fall import

storcli64 /ccontroller_id/fall delete

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

 

使用指南

使用实例

# 查看RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall import preview
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-957.el7.x86_64
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
 
 
FOREIGN PREVIEW :
===============
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Total foreign drive groups = 0

# 删除RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall delete
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-957.el7.x86_64
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration


15 Avago MegaRAID SAS 9460-16i

关于本章

介绍AVAGO MegaRAID SAS9460-16i的外观、特性以及配置方法。

本章节涉及的截图以5.130.00-3059 Firmware版本为例,不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

15.1  概述

15.2  功能

15.3  初始配置

15.4  常用配置

15.5  故障处理

15.6  管理界面介绍

15.7  OS命令行工具

15.1 概述

AVAGO MegaRAID SAS9460-16i RAID 控制标卡(以下简称9460-16i)是基于MegaRAID架构的16端口12Gbit/s SAS控制器,并采用PCIe3.0x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

9460-16i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

9460-16i支持以直通模式和创建RAID组两种方式使用硬盘,关于直通模式的具体介绍请参考15.2.6 RAID级别迁移。

9460-16i自带的Cache对标卡性能的提升有非常重要的作用,主要体现在:

l     在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

l     在读数据时,如果可以直接在Cache中命中的话,将减少硬盘寻道操作,降低响应时间,提升了数据读速度。

说明

l     Cache数据的掉电保护依赖于与RAID控制卡相连的超级电容。超级电容的外形、连接方式、安装方式可参考各服务器的用户指南。

l     9460-16i不支持flush write verify功能。

9460-16i的结构如图15-1图15-2所示。

图15-1 9460-16i带散热器(1)

 

图15-2 9460-16i不带散热器(2)

 

1

超级电容

2

miniSAS接口(port 0)

3

miniSAS接口(port 1)

4

miniSAS接口(port 2)

5

miniSAS接口(port 3)

6

超级电容错误状态指示灯

7

芯片过温指示灯

8

心跳灯

9

脏数据缓存指示灯

-

-

 

9460-16i单板指示灯说明如表15-1所示。

表15-1 RAID控制卡单板指示灯说明

指示灯

颜色

说明

芯片过温指示灯

黄色

l     常亮:设备温度传感器超过阈值。

l     灭:设备温度在正常温度范围内。

超级电容错误状态指示灯

黄色

l     常亮:超级电容电源模块故障或者过温。

l     灭:超级电容正常或不在位。

心跳灯

绿色

l     闪烁:芯片运行正常,闪烁频率为1Hz。

l     灭:RAID控制卡未开始运行或FW运行异常。

脏数据缓存指示灯

绿色

l     常亮:没有保存到存储设备中的脏缓存。

l     灭:脏数据缓存正常。

 

15.2 功能

15.2.1 支持RAID 0/1/5/6/10/50/60

9460-16i支持的硬盘、虚拟磁盘、硬盘组数量分别为:

l     最多支持240个硬盘。

说明

该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

l     最多支持64个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

l     最多支持64个硬盘组(即配置界面中看到的“Drive Group”),每个硬盘组最多支持240个硬盘。

l     每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

9460-16i支持的RAID类型及对应的硬盘个数如表15-2所示。

表15-2 RAID-硬盘参数

RAID级别

支持硬盘数

支持子组数

子组支持硬盘数

允许坏盘数

RAID 0

1~32

不涉及

不涉及

0

RAID 1

2~32(偶数)

硬盘数÷2

RAID 5

3~32

1

RAID 6

3~32

2

RAID 10

4~240(偶数)

2~8个RAID 1

2~32(偶数)

子组数

RAID 50

6~240

2~8个RAID 5

3~32

子组数

RAID 60

6~240

2~8个RAID 6

3~32

子组数x2

 

说明

l     不支持RAID 00级别。

l     子组数:子RAID的个数,例如RAID 50由两个RAID 5组成,则子组数为2。

l     RAID 10、RAID 50每个子组中最多允许1个坏盘。

l     RAID 60每个子组中最多允许2个坏盘。

l     RAID10、50、60包含的总硬盘数由子组数和子组支持的硬盘数共同决定。

15.2.2 硬盘热备份

9460-16i标卡的热备功能分为两种:热备盘和紧急备份。

热备盘

对服务器的硬盘进行RAID分组后,一般会配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     Global HSP:即全局热备盘,为控制标卡上所有已配置的RAID所共有,1块控制标卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

配置方法请参看15.4.1.1 配置全局热备盘。

l     Dedicated HSP:即局部热备盘,为控制标卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。配置方法请参看15.4.1.2 配置局部热备盘。

热备盘容量需大于等于成员盘容量。

说明

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     除RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

紧急备份

使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。

紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。

紧急备份有两种情况,对应了两种设置:

l     当成员盘fail时,空闲盘替代成员盘作为紧急备份。

l     当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。

具体配置方法请参看15.4.2 设置紧急热备功能。

15.2.3 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

说明

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID级别允许坏盘的数量。

l     人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考15.4.9 导入/清除外部配置章节恢复RAID组,无需更换硬盘。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

15.2.4 回拷

具备冗余功能的RAID的一块成员盘故障之后,热备盘自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。

15.2.5 硬盘分条

条带化

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待。

条带化技术是一种自动的将I/O的负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

影响条带化效果的因素有:

l     条带宽度:指同时可以并发读或写的条带数量。

这个数量等于RAID中的物理硬盘数量。增加条带宽度,可以增加RAID的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。

l     条带大小:指写在每块硬盘上的条带数据块的大小。

分条

硬盘分条即把RAID中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。

9460-16i支持多种条带大小,包括64KB、128KB、256KB、512KB及1MB,默认条带大小为256KB。

配置RAID时一般采用默认值。

15.2.6 RAID级别迁移

RAID的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见15.4.5 迁移RAID级别。

当前支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1、RAID 5、RAID 6

l     RAID 1迁移到RAID 0、RAID 5、RAID 6

l     RAID 5迁移到RAID 0、RAID 6

l     RAID 6迁移到RAID 0、RAID 5

RAID迁移对硬盘数量的要求如表15-3所示。

表15-3 RAID迁移的硬盘数量说明

迁移RAID级别

原始硬盘组硬盘数量

迁移后的硬盘组硬盘数量

RAID 0迁移 RAID 1

1~32

2~32(偶数)

RAID 0迁移到RAID 5

1~32

3~32

RAID 0迁移到RAID 6

1~32

3~32

RAID 1迁移到RAID 0

2~32(偶数)

2~32

RAID 1迁移到RAID 5

2~32(偶数)

3~32

RAID 1迁移到RAID 6

2~32(偶数)

3~32

RAID 5迁移到RAID 0

3~32

3~32

RAID 5迁移到RAID 6

3~32

3~32

RAID 6迁移到RAID 0

3~32

3~32

RAID 6迁移到RAID 5

3~32

3~32

 

15.2.7 初始化

VD初始化

创建VD(Virtual Drive)后,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。9460-16i提供了多种相应的初始化方式:

l     快速初始化:属于前台初始化,Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。

l     慢速初始化:属于前台初始化,Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。

l     后台初始化:目的是使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。

     对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。

     对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。

说明

l     一致性校验(CC)和后台初始化通常会对性能造成一定损失,直至该操作完成。

l     一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。

硬盘初始化

硬盘可执行的初始化包括:

l     Initialize Drive:对前100MByte空间进行全写0操作。

l     Drive Erase:对全部空间进行写0操作。

说明

不支持停止SATA SSD的擦除和初始化过程。

15.2.8 可用容量扩展

9460-16i支持的容量扩展方式有两种:

l     通过增加硬盘方式扩容:在已存在的RAID中添加新硬盘,扩大RAID容量。

详细操作方法可参考15.4.3 添加新硬盘到RAID。

l     通过增加可用空间方式扩容:在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

详细操作方法可参考15.4.4 扩展Virtual Drives可用空间。

说明

l     只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。

l     RAID10、RAID 50、RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。

l     当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要使用命令行的方式进行扩容,具体操作请参见 15.7.2.25 通过增加成员盘可用容量扩容RAID。

15.2.9 安全数据擦除

安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘和硬盘的安全擦除功能:

l     Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。

l     Normal:对虚拟磁盘或硬盘进行三轮擦除动作。

l     Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。

安全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。

9460-16i支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。

15.2.10 写洞保护

系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况,称之为写洞。

将写失败的数据备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:

l     RAID  1、RAID 5、RAID 6、RAID 10、RAID 50,RAID 60支持写洞保护,Write hole数据都保存在掉电保护区,不需要开关控制。

     掉电保护装置可用时,Write hole数据异常掉电重启后会进入恢复流程。

     掉电保护装置不可用时,记录在掉电保护区的Write hole数据异常掉电后丢失,不做Write hole恢复。

l     RAID 1、RAID 5掉线盘时不可做写洞保护。

l     RAID 6掉线一块盘时可做写洞保护。

l     RAID 10、RAID 50、RAID 60部分降级时可做写洞保护,按子组恢复数据。完全降级时不可做写洞保护。

l     不对RAID 0做写洞保护。

15.2.11 读写高速缓存

9460-16i支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:

l     Read:读策略选择“Read Ahead”模式,Avago SAS3516在读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,提升了数据读速度。

l     Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,9460-16i就向HOST发出数据传输完成的信号。

在写数据时,直接写入Cache,当写入的数据积累到一定程度,Avago SAS3516才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

15.2.12 数据掉电保护

数据写入高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用高速缓存来提升系统性能。

l     开启高速缓存可提升整机写性能,当服务器写压力减小或高速缓存将写满时,数据再由高速缓存写入硬盘。

l     开启高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,高速缓存中的数据将会丢失。

为了提升整机的高读写性能和高速缓存中数据的安全,可为9460-16i配置超级电容。

超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将高速缓存中的数据写入超级电容模块中的NAND Flash中。

超级电容电量校准

由于数据保护需要超级电容的配合,为了记录超级电容的放电曲线,以便RAID控制卡了解超级电容的状态,例如最大和最小电压等,同时为了延长超级电容的寿命,RAID控制卡默认启动超级电容自动校准模式。

RAID控制卡通过如下所述的三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。

1.     RAID控制卡将超级电容的电量充到最大值。

2.     自动启动校准进程,将超级电容完全放电。

3.     重新开始充电,直至达到最大电量。

超级电容电量校准过程中,RAID控制卡写策略自动调整为“WT”模式以保证数据完整性,此时RAID控制卡性能会降低。电量校准的时间取决于超级电容充放电速度。

15.2.13 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     动态扩盘

l     完全初始化或后台初始化

l     一致性校验

15.2.14 自动S.M.A.R.T扫描

S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据受到损失。

RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。

15.2.15 硬盘节能

RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。

默认情况下,硬盘节能功能处于开启状态。

当硬盘节能功能开启且在指定时间内没有I/O访问时,RAID控制卡下挂载的“Uncongfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。

15.2.16 硬盘直通

硬盘直通功能,又称指令透传,是不经过传输设备处理,仅保证传输质量的一种数据传输方式。

9460-16i可对所连接的硬盘进行指令透传,在不配置虚拟磁盘的情况下,用户指令可以直接透传到硬盘,方便上层业务软件或管理软件访问控制硬盘。例如,服务器操作系统安装过程中,可以直接找到挂载在9460-16i下的硬盘作为安装盘;而不支持硬盘直通的RAID控制卡,在操作系统安装过程中,只能找到该RAID控制卡下已经配置好的虚拟磁盘作为安装盘。

9460-16i支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

如果需要使能硬盘直通功能,请参见15.4.11 设置JBOD模式。

说明

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

15.2.17 硬盘漫游

硬盘漫游是指在同一控制器下移动物理硬盘。控制器将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。

要使用硬盘漫游,按以下步骤操作:

1.     关闭操作系统。

2.     将服务器下电。

3.     将物理硬盘移动到背板所需位置。

4.     执行安全检查。确保正确插入物理硬盘。

5.     将服务器上电。

6.     控制器从物理硬盘上的配置数据中检测到RAID配置。

15.2.18 导入外部配置

如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。

此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。

15.2.19 硬盘故障记录

9460-16i提供硬盘故障记录功能:

l     使能该功能时,当RAID降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。

l     禁用该功能时,当RAID降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,9460-16i会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。

维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。

l     使能该功能后,当硬盘故障时,会点亮Fault指示灯。

l     禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。

默认情况下,9460-16i使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。具体操作方法请参见查看并修改控制器高级属性

15.3 初始配置

文档中描述的关于9460-16i的所有配置,都需要重启服务器进入配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。

如果服务器已经在Legacy或者UEFI模式下安装OS,切换启动方式后将无法进入操作系统,需要切换为安装时的启动方式再进入,如操作系统需要重装,请根据实际情况选择UEFI或Legacy模式安装OS。

当服务器配置了较多的可启动设备时,在Legacy模式下可能出现部分设备无法正常启动,建议使用UEFI模式启动,UEFI模式较Legacy模式可以支持更多可启动设备;如需要使用Legacy模式,建议根据实际业务场景禁用串口重定向或网卡PXE等,确保操作系统可以正常启动,具体操作请参考《H3C UniServer R4960 G5 服务器 BIOS 用户指南》的设置网卡的PXE和设置串口重定向章节。

15.3.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如图15-3所示界面时,按“Delete”,进入输入密码界面。

图15-3 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如图15-4所示界面。

图15-4 Setup Utility界面

 

                                步骤 4     通过“”或“→ ”进入“Advanced”页签,如图15-5所示。

图15-5 “Advanced”页签

 

说明

如果Device Manager界面显示“Some drivers are not healthy”,请参见15.5.4 Device Manager中RAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择“Avago MegaRAID SAS 9460-16i Configuration Utility”,按“Enter”。

进入如图15-6图15-7所示主界面,界面参数如表15-4所示。

图15-6 9460-16i主界面(1)

 

图15-7 9460-16i主界面(2)

 

表15-4 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

当存在外部配置时才会显示该选项。

Configure

提供创建RAID,快速创建RAID,查看硬盘组属性,清除当前所有RAID配置,管理外部配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

Silence Alarm

板载蜂鸣器的使能状态。

说明

9460-16i未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

15.3.2 创建RAID 0

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-16i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参看15.2.1 支持RAID 0/1/5/6/10/50/60。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见15.3.1 登录管理界面。

                                步骤 1     进入“Create Virtual Drive”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图15-8图15-9所示,参数说明如表15-5所示。

图15-8 Create Virtual Drive(1)

 

图15-9 Create Virtual Drive(2)

 

表15-5 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 0”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如图15-10所示,界面参数如表15-6所示。

图15-10 添加成员盘

 

表15-6 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Apply Changes

保存配置。

 

3.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 0支持的硬盘个数为1~32。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。

4.     按表15-6所述配置过滤条件。

5.     选择“Apply Changes”并按“Enter”。

6.     选择“Confirm”并按“Enter”。

7.     选择“Yes”并按“Enter”。

8.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照表15-5所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照15.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID组信息。

----结束

15.3.3 创建RAID 1

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-16i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参看15.2.1 支持RAID 0/1/5/6/10/50/60。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见15.3.1 登录管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图15-11图15-12所示,参数说明如表15-7所示。

图15-11 Create Virtual Drive(1)

 

图15-12 Create Virtual Drive(2)

 

表15-7 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 1”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如图15-13所示,界面参数如表15-8所示。

图15-13 添加成员盘

 

表15-8 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Apply Changes

保存配置。

 

3.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 1支持的硬盘个数为2~32(偶数)。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。

4.     按表15-8所述配置过滤条件。

5.     选择“Apply Changes”并按“Enter”。

6.     选择“Confirm”并按“Enter”。

7.     选择“Yes”并按“Enter”。

8.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照表15-7所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照15.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID组信息。

----结束

15.3.4 创建RAID 5

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-16i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参看15.2.1 支持RAID 0/1/5/6/10/50/60。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见15.3.1 登录管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图15-14图15-15所示,参数说明如表15-9所示。

图15-14 Create Virtual Drive(1)

 

图15-15 Create Virtual Drive(2)

 

表15-9 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 5”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如图15-16所示,界面参数如表15-10所示。

图15-16 添加成员盘

 

表15-10 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Apply Changes

保存配置。

 

3.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 5支持的硬盘个数为3~32。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。

4.     按表15-10所述配置过滤条件。

5.     选择“Apply Changes”并按“Enter”。

6.     选择“Confirm”并按“Enter”。

7.     选择“Yes”并按“Enter”。

8.     按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照表15-9所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照15.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID组信息。

----结束

15.3.5 创建RAID 6

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-16i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参看15.2.1 支持RAID 0/1/5/6/10/50/60。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见15.3.1 登录管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图15-17图15-18所示,参数说明如表15-11所示。

图15-17 Create Virtual Drive(1)

 

图15-18 Create Virtual Drive(2)

 

表15-11 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 6”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如图15-19所示,界面参数如表15-12所示。

图15-19 添加成员盘

 

表15-12 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Apply Changes

保存配置。

 

3.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 6支持的硬盘个数为3~32。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。

4.     按表15-12所述配置过滤条件。

5.     选择“Apply Changes”并按“Enter”。

6.     选择“Confirm”并按“Enter”。

7.     选择“Yes”并按“Enter”。

8.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     配置虚拟磁盘属性。

按照表15-11所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照15.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 5     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID组信息。

----结束

15.3.6 创建RAID 10

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-16i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参看15.2.1 支持RAID 0/1/5/6/10/50/60。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见15.3.1 登录管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图15-20图15-21所示,参数说明如表15-13所示。

图15-20 Create Virtual Drive(1)

 

图15-21 Create Virtual Drive(2)

 

表15-13 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 10”,并按“Enter”。

                                步骤 3     创建第1个Span。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如图15-22所示,界面参数如表15-14所示。

图15-22 为Span1添加成员盘

 

表15-14 添加成员盘的参数说明

参数

参数说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Apply Changes

保存配置。

 

3.     按表15-14所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 10支持2~8个Span,每个Span支持的硬盘数为2~16(偶数),且各个Span的硬盘数量必须保持一致。

l     RAID 10支持的硬盘总数为4~32(偶数)。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     创建第2个Span。

1.     当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如图15-23所示。

图15-23 RAID 10的配置界面

 

2.     选择“Add More Spans”并按“Enter”。

3.     选择“Select Drives”并按“Enter”。

4.     在打开的列表中选择第2个Span的成员盘。

5.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。

说明

RAID10至少需要创建2个Span,最多可以创建8个Span。

                                步骤 6     配置虚拟磁盘属性。

按照表15-13所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照15.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 7     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID组信息。

----结束

15.3.7 创建RAID 50

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-16i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参看15.2.1 支持RAID 0/1/5/6/10/50/60。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见15.3.1 登录管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图15-24图15-25所示,参数说明如表15-15所示。

图15-24 Create Virtual Drive(1)

 

图15-25 Create Virtual Drive(2)

 

表15-15 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 50”,并按“Enter”。

                                步骤 3     创建第1个Span。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如图15-26所示,界面参数如表15-16所示。

图15-26 添加成员盘

 

表15-16 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Apply Changes

保存配置。

 

3.     按表15-16所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 50支持2~8个Span,每个Span支持的硬盘数为3~16,且各个Span的硬盘数量必须保持一致。

l     RAID 50支持的硬盘总数为6~32。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过32时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     创建第2个Span。

1.     当配置的级别为RAID 50时,需要配置多个Span,此时配置界面如图15-27所示。

图15-27 RAID 50的配置界面

 

2.     选择“Add More Spans”并按“Enter”。

3.     选择“Select Drives”并按“Enter”。

4.     在打开的列表中选择第2个Span的成员盘。

5.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。

说明

RAID50至少需要创建2个Span,最多可以创建8个Span。

                                步骤 6     配置虚拟磁盘属性。

按照表15-15所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照15.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 7     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID组信息。

----结束

15.3.8 创建RAID 60

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID前请确认硬盘中无数据或数据不需要保留。

l     9460-16i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各产品兼容的硬盘信息请参见兼容性查询助手中的“部件兼容性”。

l     各RAID级别所需的硬盘数请参看15.2.1 支持RAID 0/1/5/6/10/50/60。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见15.3.1 登录管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Configuration Management”并按“Enter”。

3.     选择“Create Virtual Drive”并按“Enter”。

打开RAID配置界面,如图15-28图15-29所示,参数说明如表15-17所示。

图15-28 Create Virtual Drive(1)

 

图15-29 Create Virtual Drive(2)

 

表15-17 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。包括:

l     NO:使能后台初始化功能。

l     Yes:禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID级别。

1.     通过“↑”、“↓”选择“Select RAID Level”并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID 60”,并按“Enter”。

                                步骤 3     创建第1个Span。

1.     通过“↑”、“↓”选择“Select Drives From”并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

打开添加成员盘的界面,如图15-30所示,界面参数如表15-18所示。

图15-30 添加成员盘

 

表15-18 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Apply Changes

保存配置。

 

3.     按表15-18所述配置过滤条件。

4.     在下方的硬盘列表中选择要加入的成员盘并按“Enter”。

说明

l     硬盘状态为“×”时表示该硬盘已选择。

l     RAID 60支持2~8个Span,每个Span支持的硬盘数为3~32,且各个Span的硬盘数量必须保持一致。

l     RAID 60支持的硬盘总数为6~240。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

5.     选择“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 4     创建第2个Span。

1.     当配置的级别为RAID 60时,需要配置多个Span,此时配置界面如图15-31所示。

图15-31 RAID 60的配置界面

 

2.     选择“Add More Spans”并按“Enter”。

3.     选择“Select Drives”并按“Enter”。

4.     在打开的列表中选择第2个Span的成员盘。

5.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

6.     选择“OK”并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。

说明

RAID60至少需要创建2个Span,最多可以创建8个Span。

                                步骤 6     配置虚拟磁盘属性。

按照表15-17所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照15.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 7     保存配置。

1.     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”并按“Enter”。

3.     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“ESC”返回至“Main Menu”界面。

2.     选择“Virtual Drive Management”并按“Enter”。

显示当前存在的RAID组信息。

----结束

15.3.9 设置启动项

15.3.9.1 设置RAID控制卡下的启动项

请通过图15-84的“Select Boot Device”选项设置启动项。

15.3.9.2 设置服务器的启动项

当一台服务器配置了单张RAID控制卡时,RAID控制卡下的硬盘启动项即为该服务器的硬盘启动项,具体设置方法请参见15.3.9.1 设置RAID控制卡下的启动项。

当服务器配置了多张RAID控制卡时,硬盘启动项需要在BIOS中进行设置,具体设置方法请参见BIOS参数参考的“设置服务器启动设备”章节。

15.4 常用配置

15.4.1 管理热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

9460-16i支持2种类型的热备盘:

l     Global Hotspare:即全局热备盘,为控制标卡上所有已配置的RAID所共有,1块控制标卡中可配置1个或多个全局热备盘。当任意RAID内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

l     Dedicated Hotspare:即局部热备盘,为控制标卡上某个指定的RAID所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

说明

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID成员盘最大容量。

l     除RAID 0外,其他类型的RAID均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

l     用作热备盘的硬盘数据将会丢失。

15.4.1.1 配置全局热备盘

操作步骤

登录管理界面,具体操作方法请参见15.3.1 登录管理界面。

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如图15-32所示。

图15-32 Drive Management

 

                                步骤 2     配置全局热备盘。

1.     选择“Operation ”并按“ Enter” 。

2.     选择“Assign Global Hot Spare Drive ”并按“ Enter” 。

3.     选择“Go”并按“Enter”。

显示The operation has been performed successfully。

4.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

15.4.1.2 配置局部热备盘

操作步骤

说明

当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

登录管理界面,具体操作方法请参见15.3.1 登录管理界面。

                                步骤 1     进入“Drive Management”界面

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如图15-33所示。

图15-33 Drive Management

 

                                步骤 2     配置局部热备盘。

1.     将“Operation”设置为“Assign Dedicated Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

打开当前存在的虚拟磁盘列表。

3.     选择要关联的虚拟磁盘并按“Enter”。

4.     选择“OK”并按“Enter”。

提示操作成功。

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

15.4.1.3 删除热备盘

操作场景

当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

操作步骤

登录管理界面,具体操作方法请参见15.3.1 登录管理界面。

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Drive Management”并按“Enter”。

3.     选定要操作的硬盘并按“Enter”进入详细操作界面,如图15-34所示。

图15-34 Drive Management

 

                                步骤 2     删除热备盘。

1.     将“Operation”设置为“Unassign Hot Spare Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully。

5.     按“Enter”完成配置并返回上级界面。

----结束

15.4.2 设置紧急热备功能

操作步骤

登录管理界面,具体操作方法请参见15.3.1 登录管理界面。

                                步骤 1     进入“Advanced Controller Properties”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

3.     选择“Advanced Controller Properties”并按“Enter”。

进入“Advanced Controller Properties”界面,如图15-35图15-36所示。

图15-35 Advanced Controller Properties(1)

 

图15-36 Advanced Controller Properties(2)

 

                                步骤 2     设置紧急热备。

1.     选择“Spare”并按“Enter”。

2.     将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如图15-37所示。

图15-37 Advanced Controller Properties

 

3.     选择“Apply Changes”并按“Enter”。

4.     选择“OK”并按“Enter”,完成配置。

----结束

15.4.3 添加新硬盘到RAID

操作场景

 

注意

l     只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。

l     RAID10、RAID 50、RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

对系统的影响

增加硬盘扩容过程中,如果出现硬盘故障,会导致:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID。

请谨慎执行增加硬盘扩容操作。

必备事项

前提条件

添加硬盘扩容之前,需具备如下条件:

l     服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     已登录管理界面,具体操作方法请参见15.3.1 登录管理界面。

数据

操作之前建议先备份数据。

操作步骤

进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”并按“Enter”。

进入虚拟磁盘选项界面,如图15-38所示。

图15-38 虚拟磁盘选项界面

 

                                步骤 2     添加新硬盘。

1.     选择要进行扩容的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如图15-39所示。

图15-39 Operation

 

3.     选择“Reconfigure Virtual Drives”并按“Enter”

4.     选择“Go”并按“Enter”。

5.     选择要扩容的RAID级别。

 

注意

增加硬盘扩容时,请保证该处的RAID级别与原级别一致。

6.     选择“Choose the Operation”,并按“Enter”。

进入硬盘选择界面,如图15-40所示。

图15-40 Choose the Operation

 

7.     选择要增加的硬盘,并按“Apply Changes”。

进入确认操作界面。

说明

l     增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。

l     RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。

8.     选择“Confirm”并按“Enter”。

9.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully。

10.     选择“OK”并按“Enter”完成配置并返回上级界面,如图15-41所示。

图15-41 选择操作

 

11.     选择“Start Operation”并按“Enter”。

显示操作成功。返回虚拟磁盘选项界面,验证扩容结果,如图15-42所示,表示RAID正在进行扩容。

图15-42 Virtual Drive Management

 

----结束

15.4.4 扩展Virtual Drives可用空间

操作场景

在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见15.3.1 登录管理界面。

                                步骤 1     进入要操作的虚拟磁盘界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如图15-43所示。

图15-43 Virtual Drive Management

 

                                步骤 2     扩容虚拟磁盘。

1.     将“Operation”设置为“Expand Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入虚拟磁盘扩容界面,如图15-44界面所示,界面参数如表15-19所示。

图15-44 Expand Virtual Drive

 

表15-19 参数说明

参数

参数说明

Current Capacity

虚拟磁盘当前容量。

Available Capacity

可用于扩展的容量。

Enter a Percentage of Available Capacity

输入扩容比例。

Capacity of Virtual Drive after Expansion

扩容后虚拟磁盘容量。

 

3.     设置扩容百分比。

4.     选择“OK”并按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成配置并返还上级界面。

----结束

15.4.5 迁移RAID级别

操作场景

随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。

在虚拟磁盘RAID迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID迁移操作。

对系统的影响

RAID级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:

l     若出现故障盘后,RAID中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID失效。

l     若出现故障盘后,RAID中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID。

请谨慎执行RAID级别迁移操作。

必备事项

前提条件

迁移RAID级别之前,需具备如下条件:

l     已通过远程虚拟控制台登录到服务器的实时操作桌面。

l     当前存在的硬盘个数满足目标RAID级别要求。

l     已登录管理界面,具体操作方法请参见15.3.1 登录管理界面。

9460-16i支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1、RAID 5、RAID 6

l     RAID 1迁移到RAID 0、RAID 5、RAID 6

l     RAID 5迁移到RAID 0、RAID 6

l     RAID 6迁移到RAID 0、RAID 5

RAID迁移对硬盘数量的要求如表15-3所示。

说明

l     当RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     迁移只支持增加与RAID组成员盘同类型同规格的硬盘。

l     为防止数据丢失,请在该操作之前备份当前RAID组的数据。

l     只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。

l     迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。

操作步骤

进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”并按“Enter”。

进入虚拟磁盘选项界面,如图15-45所示。

图15-45 虚拟磁盘选项界面

 

                                步骤 2     选择RAID迁移的目标级别。

下面以将RAID 1迁移到RAID 5为例进行说明。

1.     选择要进行迁移的RAID并按“Enter”。

2.     选中“Operation”并按“Enter”。

打开操作选项页面,如图15-46所示。

图15-46 Operation

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”。

4.     选择“Advanced...”并按“Enter”可设置RAID组的其他属性,如图15-47图15-48所示。设置完成后按选择“Apply Changes”并按“Enter”保存配置。不设置时默认与原RAID组配置一致。

图15-47 Advanced...(1)

 

图15-48 Advanced...(2)

 

5.     选择“Go”,并按“Enter”。

进入RAID配置界面,如图15-49所示。

图15-49 Reconfigure Virtual Drives

 

6.     选择“New RAID Level”并按“Enter”。

打开RAID迁移的目标级别选择窗口,如图15-50所示。

图15-50 选择新的RAID级别

 

7.     选择“RAID 5”并按“Enter”。

                                步骤 3     添加硬盘。

1.     选择“Choose the operation”并按“Enter”。

打开硬盘选择窗口。

2.     选择要增加的硬盘并按“Enter”。

说明

RAID迁移对硬盘数量的要求请参见表15-3

3.     选择“Apply Changes”并按“Enter”。

弹出操作确认会话框。

4.     选择“Confirm”并按“Enter”。

5.     选择“Yes”并按“Enter”。

提示操作成功。

6.     选择“OK”并按“Enter”返回图15-49界面。

                                步骤 4     RAID级别迁移。

1.     选择“Start Operation”并按“Enter”。

提示操作成功。

                                步骤 5     查看迁移结果。

1.     进入Virtual Drive Management界面,检查迁移结果,如图15-51所示,表示RAID正在进行迁移。

图15-51 查看迁移结果

 

说明

l     迁移过程中若重启服务器,该任务将在重启后继续进行。

l     迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。

2.     选择该虚拟磁盘并按“Enter”,可查看迁移完成后的RAID信息。当RAID的级别由“RAID 1”变成“RAID 5”,RAID组容量增大,且“Status”状态显示为“Optimal”时,表示RAID迁移成功。

----结束

15.4.6 删除RAID

操作场景

 

注意

RAID组被删除后无法进行恢复,请谨慎执行删除RAID操作。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见15.3.1 登录管理界面。

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Virtual Drive Management”并按“Enter”。

3.     选择要操作的虚拟磁盘并按“Enter”。

显示虚拟磁盘基本信息,如图15-52所示。

图15-52 Virtual Drive Management

 

                                步骤 2     删除虚拟磁盘。

1.     将“Operation”设置为“Delete Virtual Drive”。

2.     选择“Go”并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”并按“Enter”。

4.     选择“Yes”并按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”并按“Enter”完成配置并返回上级界面。

----结束

15.4.7 重构RAID

下面描述将带有外部配置的硬盘进行重构的操作方法,不带外部配置硬盘的重构方法请参见15.5.1.1 硬盘故障。

操作步骤

在“Main Menu”界面中选择“Drive Management”并按“Enter”。

                                步骤 1     选中要进行重构的硬盘,按“Enter”。

                                步骤 2     将“Operation”设置为“Make Unconfigured Good”。

                                步骤 3     选择“Go”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 4     按“Enter”完成配置。

硬盘状态变为“(Foreign),Unconfigured Good”。

                                步骤 5     清除外部配置,具体操作请参见15.4.9 导入/清除外部配置。

RAID组开始进行重构。

----结束

15.4.8 查看RAID控制卡属性

操作场景

用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。

操作步骤

登录管理界面,具体操作方法请参见15.3.1 登录管理界面。

                                步骤 1     进入“Controller Management”界面。

1.     在主界面中选择“Main Menu”并按“Enter”。

2.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息,如图15-53图15-54所示,参数说明如表15-20所示。

图15-53 Controller Management(1)

 

图15-54 Controller Management(2)

 

表15-20 参数说明

参数

参数说明

Product Name

控制标卡名称。

Serial Number

控制标卡序列号。

Controller Status

控制标卡的工作状态。

Personality Mode

控制标卡的模式。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。

PCI ID

控制标卡的PCI ID。

PCI Slot Number

控制标卡的PCI槽位号。

Package Version

控制标卡的套件版本。

Firmware Version

控制标卡的固件版本号。

NVDATA Version

控制标卡配置信息的版本号。

Drive Count

控制标卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制器操作。

Advanced Controller Properties

查看和修改控制器的高级属性。

 

                                步骤 2     查看控制器高级属性。

1.     选择“Advanced Controller Properties”并按“Enter”。

进入控制器高级属性界面,如图15-55图15-56所示,参数说明如表15-21所示。

在该界面下,可查看并修改RAID控制卡的高级属性。

图15-55 Advanced Controller Properties (1)

 

图15-56 Advanced Controller Properties (2)

 

表15-21 参数说明

参数

说明

Cache and Memory

查看控制器Cache和Memory信息。

Patrol Read

系统巡检。

Power Save Settings

设置硬盘休眠。

Spare

设置控制器热备状态。

Task Rates

设置各种任务占用系统比率。

Alarm Control

9460-16i控制器标卡未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

容量对齐的模式。包括:

l     None

l     128MB

l     1GB

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。

默认为“Pause on Errors”。

Controller BIOS

控制器BIOS的使能情况。

ROC Temperature

控制器温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见15.4.9 导入/清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验

JBOD Mode

是否使能硬盘直通功能。

Write Verify

-

Drive Detection Type

随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制器属性。

可用选项为:

l     Disabled

l     High Latency

l     Aggressive

l     Default

Drive Corrective Action

随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致I/O延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。

l     Disabled:禁用该功能

l     Enabled:开启该功能

Drive Error Threshold

通过该选项设置适当的控制器属性。

l     Every 8 hours

l     Every1 hours

l     Every 15 mins

l     Every 5 mins

Large IO Support

启用或禁用大型I/O支持功能。

Unmap Capability

解除映射能力。

Apply changes

保存配置。

 

----结束

15.4.9 导入/清除外部配置

操作场景

l     服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户需要的存储配置,可将该配置导入。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户不需要的存储配置,需要将该配置清空。

 

注意

l     如服务器已配置RAID,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID配置丢失。请谨慎操作!

l     为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

导入外部配置

登录管理界面,具体操作方法请参见15.3.1 登录管理界面。

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”(当存在外部配置时显示)并按“Enter”。

进入外部配置管理界面,如图15-57所示。

图15-57 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如图15-58所示。

图15-58 外部配置

 

                                步骤 5     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 8     按“Enter”完成配置返回上级界面。

----结束

清除外部配置

登录管理界面,具体操作方法请参见15.3.1 登录管理界面。

                                步骤 1     在主界面中选择“Main Menu”并按“Enter”。

                                步骤 2     选择“Configuration Management”并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”并按“Enter”。

进入外部配置管理界面,如图15-59所示。

图15-59 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如图15-60所示。

图15-60 外部配置

 

                                步骤 5     选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”并按“Enter”。

                                步骤 7     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 8     单击“OK”完成配置返回上级界面。

----结束

15.4.10 创建多个VD(Virtual Drive)

该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID50存在一个VD为例(如图15-61所示),详细操作方法如下:

图15-61 Virtual Drive Management

 

按照Main Menu>Configuration Management>Create Virtual Drive的路径进入Create Virtual Drive界面,如图15-62所示。

图15-62 Create Virtual Drive

 

                                步骤 2     选择“Select RAID Level”并“Enter”。

                                步骤 3     在弹出的RAID级别菜单中选择“RAID50”并按“Enter”。

                                步骤 4     将“Select Drives From”设置为“Free Capacity”,如图15-63所示。

图15-63 Create Virtual Drive

 

                                步骤 5     选择“Select Drive Groups”并按“Enter”。

显示当前存在的RAID组(Drive Group),如图15-64所示。

图15-64 Select Drive Groups

 

                                步骤 6     选择要创建多个VD的RAID组并按“Enter”,如图15-65所示。

图15-65 Select Drive Groups

 

                                步骤 7     选择“Apply Changes”并按“Enter”。

提示操作成功。

                                步骤 8     选择“OK”并按“Enter”返回VD配置界面,如图15-66图15-67所示,参数说明如表15-22所示。

图15-66 Create Virtual Drive(1)

 

图15-67 Create Virtual Drive(2)

 

表15-22 参数说明

参数

参数说明

Select RAID Level

选择RAID级别。

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:硬盘组中未作为虚拟磁盘使用的空间。

Select Drive Group

选择硬盘组。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照15.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格,默认条带大小为256KB。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略。

不支持设置此参数。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略。可配置的状态有:

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘写Cache,使写性能提升,但当系统意外掉电时,数据会丢失。

l     Disable:读写过程中数据不经过硬盘写Cache,当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 9     按照表15-22所述配置VD的相关属性。

                             步骤 10     选择“Save Configuration”并按“Enter”。

显示操作确认界面。

                             步骤 11     选择“Confirm”并按“Enter”。

                             步骤 12     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                             步骤 13     选择“OK”并按“Enter”完成配置。

可进入Virtual Drive Management界面,查看当前存在的所有VD,如图15-68所示。

图15-68 Virtual Drive Management

 

----结束

说明

每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1~步骤13

15.4.11 设置JBOD模式

9460-16i支持同时以虚拟磁盘和直通方式使用硬盘。如需启用硬盘直通功能,需要开启JBOD模式;如需禁用硬盘直通功能,需关闭JBOD模式。

说明

l     开启JBOD模式后,已经配置为虚拟磁盘的硬盘状态保持不变,其余未配置的硬盘变为直通硬盘(硬盘状态为“JBOD”)。若开启JBOD模式后需将直通硬盘配置为虚拟磁盘来使用,则需要先将JBOD状态的硬盘设置为“Unconfigured good”。

l     JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

登录管理界面,具体操作方法请参见15.3.1 登录管理界面。

                                步骤 1     依次进入Main Menu>Controller Management>Advanced Controller Properties界面,如图15-69所示。

图15-69 Advanced Controller Properties

 

                                步骤 2     选择“JBOD Mode”并按Enter。

                                步骤 3     选择“Enabled”并按“Enter”。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     选择“OK”并按“Enter”完成配置。

----结束

15.4.12 查询RAID控制卡固件版本

查询RAID控制卡固件版本的方法有如下几种:

l     在iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。

l     服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见7.7.2.1 查询RAID控制卡配置信息。

说明

回显信息中的“FW Version”字段即为RAID控制卡的固件版本。

l     在RAID控制卡管理界面进行查询,具体方法为:

a.     登录RAID控制卡的管理界面,具体操作请参见7.3.1 进入管理界面。

b.     在主界面中选择“Main Menu”并按“Enter”。

进入“Main Menu”页面,如图15-70所示。

图15-70 Main Menu页面

 

c.     选择“Controller Management”并按“Enter”。

显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如图15-71所示。

图15-71 Controller Management界面

 

15.5 故障处理

介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

15.5.1 硬盘故障

15.5.1.1 硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

确认故障硬盘槽位。

说明

JBOD模式下的硬盘为UBAD状态时,硬盘Fault指示灯会被点亮,同时iBMC会对其进行告警。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考15.6.2.4 Drive Management。

l     通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

                                步骤 1     更换新硬盘。

 

注意

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考15.4.9 导入/清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在15.2.1 支持RAID 0/1/5/6/10/50/60查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制器下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。

     UEFI模式下创建RAID0的方法请参见15.3.2 创建RAID 0。

     通过命令行方式创建RAID0的方法请参见15.7.2.2 创建和删除RAID。

----结束

15.5.1.2 硬盘状态为fail或prefail

问题描述

正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。

但当RAID控制卡未设置紧急热备时,成员盘状态显示为fail或prefail时,可使用以下方法处理。

处理方法

使用StorCLI工具,具体操作请参考1.1.1下载和安装StorCLI工具。

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考15.7.2.15 设置硬盘状态。

storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]

说明

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在Enclosure的ID

l     slot_id:物理硬盘槽位ID

                                步骤 2     更换离线硬盘。

                                步骤 3     RAID组自动执行重构。

等待重构完成。

----结束

15.5.1.3 硬盘状态为Unconfigured Bad或UBad

问题描述

硬盘状态显示为Unconfigured Bad或UBad。

处理方法

使用StorCLI工具,具体操作请参见1.1.1下载和安装StorCLI工具。

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见15.7.2.15 设置硬盘状态。

storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]

说明

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在Enclosure的ID

l     slot_id:物理硬盘槽位ID

                                步骤 2     重新查看硬盘状态是否更改为Unconfigured Good或Ugood。具体操作请参见15.6.2.4 Drive Management界面或15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤4

                                步骤 3     查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见15.4.9 导入/清除外部配置或15.7.2.28 查看/导入/清除外部配置。

l     问题解决 => 处理完毕。

l     问题未解决 => 联系技术支持处理。

----结束

15.5.2 RAID控制卡故障

问题描述

当服务器出现如下现象时,说明RAID控制卡故障。

l     数据无法写入RAID控制卡控制的硬盘。

l     服务器上报RAID控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     查询兼容性查询助手或者联系技术支持处理。

----结束

15.5.3 电容故障

问题描述

当RAID控制卡电容故障时,可能导致服务器出现如下情况:

l     服务器读写速度显著降低。

l     RAID控制卡的CU界面中显示电容状态异常。

处理方法

进入RAID控制卡的CU界面,查看电容状态是否为“Optimal”。

电容状态可查询图15-100界面的“Battery Status”参数。

l     是 => 处理完毕

l     否 => 步骤2

                                步骤 1     将服务器下电,打开机箱,并查看RAID控制卡电容是否在位。

l     是 => 步骤4

l     否 => 步骤3

                                步骤 2     检查整机配置,为服务器安装电容,查看电容状态是否为“Optimal”。

l     是 => 处理完毕

l     否 => 步骤6

                                步骤 3     重新安装RAID控制卡电容,查看电容状态是否为“Optimal”。

l     是 => 处理完毕

l     否 => 步骤5

                                步骤 4     更换RAID控制卡电容,查看电容状态是否为“Optimal”,且“问题描述”所述的异常状态是否消失。

l     是 => 处理完毕

l     否 => 步骤6

                                步骤 5     联系技术支持处理。

----结束

15.5.4 Device Manager中RAID控制卡状态显示Not Healthy

问题描述

进入“Device Manager”界面后,显示“Some drivers are not healthy”。

处理方法

选择“Some drivers are not healthy”。

进入健康状态查询界面。

                                步骤 1     选择“Repair the whole platform”,并按“Enter”。

进入“Driver Healthy Protocol Utility”界面。

                                步骤 2     查看“Driver Healthy Protocol Utility”界面的打印信息。

l     显示“The following VDs have missing disks.” => 请参见15.5.4.1 The following VDs have missing disks。

l     显示“There are offline or missing virtual drives with preserved cache.” => 请参见15.5.4.2 There are offline or missing virtual drives with preserved cache。

l     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见15.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。

l     显示“Memory/battery problems were detected / Unexpected power-loss occurred”=> 请参见15.5.4.4 Memory/battery problems were detected。

----结束

说明

RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见A.2 RAID控制卡启动中出现的常见的错误消息及处理方法。

15.5.4.1 The following VDs have missing disks

问题描述

进入“Driver Healthy Protocol Utility”界面后,显示The following VDs have missing disks.。

处理方法

修复RAID控制卡。

1.     选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

2.     输入“c”,选择“Yes”并按“Enter”。

返回“Driver Healthy Protocol Utility”界面。

3.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

4.     输入“y”,选择“Yes”并按“Enter”。

提示Critical Message handling completed. Please exit。修复完成。

                                步骤 1     重启服务器,进入“Device Manager”界面,检查界面是否显示“The platform is healthy”。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

15.5.4.2 There are offline or missing virtual drives with preserved cache

问题描述

进入“Driver Healthy Protocol Utility”界面后,显示“There are offline or missing virtual drives with preserved cache”。

处理方法

选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

                                步骤 1     输入任意内容,选择“Yes”并按“Enter”。

提示Critical Message handling completed. Please exit。

                                步骤 2     按“Esc”键返回到“Device Manager”界面。

                                步骤 3     选择“Avago MegaRAID SAS 9460-16i Configuration Utility”并按“Enter”。

进入“Configuration Utility”界面。

                                步骤 4     选择“Discard Preserved Cache”并按“Enter”。

弹出操作确认对话框。

                                步骤 5     选择“Confirm”并按“Enter”。

                                步骤 6     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 7     选择“OK”并按“Enter”。

                                步骤 8     重启服务器。

                                步骤 9     进入“Device Manager”界面,检查界面是否显示The platform is healthy。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

15.5.4.3 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

问题描述

图15-72所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”

图15-72 状态显示

 

处理建议

该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:

l     下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。

l     忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:

a.     在图15-72中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

b.     输入“c”并按“Enter”。

c.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

d.     输入“y”并按“Enter”。

提示Critical Message handling completed. Please exit。

e.     按“Esc”退出当前界面。

弹出确认保存配置会话框,如图15-73所示。

图15-73 提示保存会话框

 

f.     按“Y”保存配置,操作完成。

g.     按Esc键返回“Device Manager”界面。

h.     选择9460-16i RAID控制卡,并按“Enter”,进入RAID控制卡管理界面。

15.5.4.4 Memory/battery problems were detected

问题描述

进入“Driver Healthy Protocol Utility”界面后,显示“Memory/battery problems were detected. The adapter has recovered, but cached data was lost”。

处理方法

选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

                                步骤 1     输入任意内容,选择“Yes”并按“Enter”。

提示“Critical Message handling completed. Please exit”。

                                步骤 2     重启服务器,进入“Device Manager”界面,检查界面是否显示“The platform is healthy”。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

15.5.4.5 Disabling writes to flash as the flash part has gone bad

问题描述

图15-74所示,进入“Driver Healthy Protocol Utility”界面后,显示“Disabling writes to flash as the flash part has gone bad”。

图15-74 状态显示

 

处理方法

将服务器下电。

                                步骤 1     更换RAID控制卡。

                                步骤 2     将服务器上电,导入外部配置恢复原来的RAID配置,请参见15.4.9 导入/清除外部配置或15.7.2.28 查看/导入/清除外部配置。

检查提示是否清除。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

15.6 管理界面介绍

15.6.1 登录管理界面

对系统的影响

进入配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     重启服务器。

                                步骤 2     重启过程中,当出现如图15-75所示界面时,按“Delete”,进入输入密码界面。

图15-75 BIOS启动界面

 

                                步骤 3     输入密码并按“Enter”。

进入如图15-76所示界面。

图15-76 Setup Utility界面

 

                                步骤 4     通过“”或“→ ”进入“Advanced”页签,如图15-77所示。

图15-77 “Advanced”页签

 

说明

如果Device Manager界面显示“Some drivers are not healthy”,请参见15.5.4 Device Manager中RAID控制卡状态显示Not Healthy进行修复。

                                步骤 5     选择“Avago MegaRAID SAS 9460-16i Configuration Utility”,按“Enter”。

进入如图15-78图15-79所示主界面,界面参数如表15-23所示。

图15-78 9460-16i主界面(1)

 

图15-79 9460-16i主界面(2)

 

表15-23 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

当存在外部配置时才会显示该选项。

Configure

提供创建RAID,快速创建RAID,查看硬盘组属性,清除当前所有RAID配置,管理外部配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

Silence Alarm

板载蜂鸣器的使能状态。

说明

9460-16i未配置蜂鸣器,此项设置不起作用。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

15.6.2 Main Menu

RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。

界面介绍

“Main Menu”界面如图15-80,参数说明如表15-24所示。

图15-80 Main Menu

 

表15-24 参数说明

参数

参数说明

Configuration Management

配置管理RAID。

Controller Management

管理RAID控制器。

Virtual Drive Management

管理虚拟磁盘。

Drive Management

管理硬盘。

Hardware Components

查询部件信息。

 

15.6.2.1 Configuration Management

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

“Configuration Management”界面如图15-81,参数说明如表15-25所示。

图15-81 Configuration Management

 

表15-25 参数说明

参数

参数说明

Auto Configure RAID 0

自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0。

Create Virtual Drive

创建RAID。

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Make JBOD

硬盘直通功能,硬盘不加入RAID,直接使用。

Make Unconfigured Good

将硬盘从JBOD状态设置为“Unconfigured Good”状态。

Clear Configuration

清除当前所有RAID配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时才会显示该选项。

 

清除RAID配置

选择“Clear Configuration”并按“Enter”。

进入操作确认界面。

                                步骤 1     选中“Confirm”并按“Enter”。

                                步骤 2     在打开的列表中选择“Enabled”并按“Enter”。

                                步骤 3     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 4     按“Enter”。

配置完成。

----结束

快速创建RAID

通过“↑”、“↓”选择要创建的RAID(以“Generic RAID 0”为例)并按“Enter”。

打开RAID配置界面,如图15-82,参数说明如表15-26所示。

图15-82 RAID配置界面

 

表15-26 参数说明

参数

说明

Drive Selection Criteria

系统自动选择的成员盘。

Virtual Drive Name

系统自定义的RAID组名称。

RAID Level

当前配置的RAID组的级别。

Virtual Drive Size

RAID组的容量。

Power Save Mode

数据掉电保护模式。

Strip Size

RAID组扇区大小。

Read Policy

RAID组的数据读策略。

Write Policy

RAID组的数据写策略。

IO Policy

RAID组I/O策略。

Access Policy

数据读写的策略。

Drive Cache

硬盘Cache策略。

Default Initialization

RAID组默认的初始化方式。

说明

快速创建RAID 0时,出现该选项。初始化类型默认为Fast且不可更改。

Create Dedicated Hot Spare

是否为RAID组创建一块局部热备盘。

说明

快速创建RAID156时,出现该选项

Save Configuration

保存当前配置。

 

                                步骤 2     按表15-26所示查看或配置相关参数。

                                步骤 3     选择“Save Configuration”并按“Enter”。

弹出操作成功提示界面。

                                步骤 4     按“Enter”。

----结束

查看硬盘组属性

图15-81中选择“View Drive Group Properties”并按“Enter”。

打开的界面如图15-83,参数说明如表15-27所示。

图15-83 View Drive Group Properties

 

表15-27 参数说明

参数

参数说明

Drive Group

硬盘组名称。

Capacity Allocation

硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。

 

----结束

15.6.2.2 Controller Management

该界面提供控制器管理接口,可查看并修改控制器的详细参数。

界面介绍

“Controller Management”界面如图15-84图15-85所示,参数说明如表15-28所示。

图15-84 Controller Management(1)

 

图15-85 Controller Management(2)

 

表15-28 参数说明

参数

参数说明

Product Name

控制标卡名称。

Serial Number

控制标卡序列号。

Controller Status

控制标卡的工作状态。

Personality Mode

RAID控制卡的模式。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。

PCI ID

控制标卡的PCI ID。

PCI Slot Number

控制标卡的PCI槽位号。

Package Version

控制标卡的套件版本。

Firmware Version

控制标卡的固件版本号。

NVDATA Version

控制标卡配置信息的版本号。

Drive Count

控制标卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

管理控制器高级功能。

Advanced Controller Properties

查看和修改控制器的高级属性。

 

更多控制器操作

图15-84中选择“Advanced Controller Management”并按“Enter”。

界面如图15-86所示,界面中参数说明如表15-29所示。

图15-86 Advanced Controller Management

 

表15-29 参数说明

参数

说明

Clear Controller Events

清除控制器的事件日志。

Save Controller Events

保存控制器的事件日志。

Save TTY Log

保存终端操作日志。

Manage SAS Storage  Link Speed

管理RAID控制卡接口速率。

Manage MegaRAID Advanced Software Options

管理高级软件功能。

Schedule Consistency Check

设置一致性校验参数。

Set Factory Defaults

恢复为出厂配置。

Manage Personality Mode

设置RAID控制卡当前的工作模式。

Manage Controller Profiles

查看和管理控制器的配置文件。

 

----结束

查看并修改控制器高级属性

图15-84中选择“Advanced Controller Properties”并按“Enter”。

界面如图15-87图15-88所示,界面中参数说明如表15-30所示。

图15-87 Advanced Controller Properties(1)

 

图15-88 Advanced Controller Properties(2)

 

表15-30 参数说明

参数

说明

Cache and Memory

查看控制器Cache和Memory信息。

Patrol Read

系统巡检。

Power Save Settings

设置节能功能。

Spare

热备属性设置。

Task Rates

设置各种任务占用系统比率。

Alarm Control

9460-16i未配置蜂鸣器,此项设置不起作用。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

容量对齐的模式。包括:

l     None

l     128MB

l     1GB

默认为“1GB”。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errrors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。

默认为“Pause on Errors”。

Controller BIOS

控制器BIOS的使能情况。

ROC Temperature

控制器温度。

Shield State Supported

是否支持暂停I/O,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见15.4.9 导入/清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

JBOD Mode

硬盘直通功能,硬盘不加入虚拟磁盘,直接使用。

Write Verify

写校验。

Drive Detection Type

随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制器属性。

可用选项为:

l     Disabled

l     High Latency

l     Aggressive

l     Default

Drive Corrective Action

随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致I/O延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。

l     Disabled:禁用该功能

l     Enabled:开启该功能

Drive Error Threshold

通过该选项设置适当的控制器属性。

l     Every 8 hours

l     Every1 hours

l     Every 15 mins

l     Every 5 mins

Large IO Support

启用或禁用大型I/O支持功能。

Unmap Capability

解除映射能力。

Apply Changes

保存配置。

 

                                步骤 2     在图15-87中选择“Task Rates”并按“Enter”。界面如图15-89所示,界面中参数说明如表15-31所示。

图15-89 Task Rates

 

表15-31 参数说明

参数

说明

Background Initialization <BGI> Rate

设置执行后台初始化的速率。

说明

数值百分比设置在0~100之间。在0%时,初始化仅在系统未执行其他任何操作时运行。在100%时,初始化操作具有优先级高于来自操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Consistency Check Rate

设置执行一致性校验的速率。

说明

数值百分比设置为0~100之间。在0%时,一致性校验操作仅在系统不做任何其他操作时运行。在100%时,一致性校验操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Patrol Read Rate

设置执行巡检读取的速率。

说明

数值百分比设置在0~100之间。设置为0%时,巡检读取操作仅在系统不执行任何其他操作时才会运行。在100%时,巡检读取的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Rebuild Rate

设置硬盘发生故障时在新硬盘上执行重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作仅在系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Reconstruction Rate

设置执行RAID级别迁移或在线容量扩展时重构数据的速率。

说明

数值百分比设置在0~100之间。在0%时,重构操作只有当系统不执行任何其他操作时才会运行。在100%时,重构操作的优先级要高于操作系统的I/O请求。为获得最佳性能,建议设置为约30%。

Apply Changes

保存配置。

 

                                步骤 3     按照表15-30所述修改控制器的高级属性参数。

                                步骤 4     选择“Apply Changes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     单击“OK”完成配置。

----结束

15.6.2.3 Virtual Drive Management

该界面提供虚拟磁盘的查询和管理接口。

界面介绍

“Virtual Drive Management”界面如图15-90,显示虚拟磁盘列表。

图15-90 Virtual Drive Management

 

选定要操作的虚拟磁盘并按“Enter”进入详细操作界面,如图15-91所示,参数说明如表15-32所示。

图15-91 虚拟磁盘操作界面

 

表15-32 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:定位虚拟磁盘的所有硬盘。

l     Stop Locate:取消定位。

l     Delete Virtual Drive:删除虚拟磁盘。

l     Expand Virtual Drive:扩展虚拟磁盘容量。

l     Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。

l     Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。

l     Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。

l     Fast Initialization:快速初始化虚拟磁盘。

l     Slow Initialization:安全初始化虚拟磁盘。

l     Check Consistency:一致性校验。

l     Virtual Drive Erase:格式化虚拟磁盘。

Name

虚拟磁盘名称。

RAID Level

虚拟磁盘RAID级别。

Status

虚拟磁盘当前运行状态。

Size

虚拟磁盘容量。

View Associated Drives

查看成员盘属性。

Advanced...

查看虚拟磁盘高级属性。

 

查看成员盘属性

图15-91中选择“View Associated Drives”并按“Enter”。

界面如图15-92,显示成员盘列表。

图15-92 View Associated Drives

 

                                步骤 2     选择要查看的成员盘并按“Enter”。

                                步骤 3     选择“View Drive Properties”并按“Enter”。

进入硬盘属性界面,如图15-93界面所示,界面参数如表15-33所示。

图15-93 View Drive Properties

 

表15-33 参数说明

参数

参数说明

Operation

该成员盘可执行的操作,包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Place Drive Online/Offline:将硬盘上线/离线。

Drive ID

成员盘的ID。

Connection

硬盘接口。

Enclosure Position

机箱或背板的位置。

Slot Number

硬盘的槽位号。

Status

成员盘的当前工作状态。

Size

成员盘的容量。

Type

成员盘类型。

Model

成员盘的模块类型。

Serial Number

成员盘的序列号。

Associated Virtual Drive

成员盘所在的虚拟磁盘。

Advanced...

查询成员盘更多属性。

 

----结束

查看和修改虚拟磁盘高级属性

图15-91中选择“Advanced...”并按“Enter”。

界面如图15-94图15-95所示,界面参数如表15-34所示。

图15-94 Advanced (1)

 

图15-95 Advanced (2)

 

表15-34 参数说明

参数

参数说明

Parity Size

奇偶校验大小。

Logical Sector Size

逻辑扇区大小。

Strip Size

条带大小。

Starting Logical Block Addressing

逻辑单元起始地址。

Emulation Type

控制逻辑盘在OS中上报的扇区。

当成员盘为512B/512B时:

l     Default:逻辑盘扇区为512B/512B。

l     None:逻辑盘扇区为512B/512B。

l     Force:逻辑盘扇区为512B/4KB。

当成员盘为512B/4KB时:

l     Default:逻辑盘扇区为512B/4KB。

l     None:逻辑盘扇区为512B/512B。

l     Force:逻辑盘扇区为512B/4KB。

Bad Blocks

是否支持坏块处理。

SSD Caching

是否支持SSD Caching。

Access

是否支持Access。

Current Write Cache Policy

当前写Cache策略,包括:

l     Write Through:当硬盘子系统接收到所有传输数据后,RAID控制标卡将给主机返回数据传输完成信号。

l     Write Back:当RAID控制标卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Always Write Back:当未配置超级电容或超级电容故障时,RAID控制标卡将不会自动切换到Write Through模式。

说明

“Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR的写数据将会丢失。不推荐使用该模式。

Default Write Cache Policy

默认的写Cache策略。

Disable Background Initialization

是否禁用后台初始化。

Read Cache Policy

当前读Cache策略,包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。RAID控制标卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

Drive Cache

设置硬盘cache状态。

Input/Output

I/O读取策略,包括:

l     Direct:直接从硬盘读取数据,不经过Cache缓存。

l     Cached:从Cache缓存中读取数据。

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Apply Changes

保存配置。

 

                                步骤 2     按照表15-34所述配置“Advanced”的参数。

                                步骤 3     选择“Apply Changes”并按“Enter”。

显示The operation has been performed successfully。

                                步骤 4     选择“OK”并按“Enter”完成配置。

----结束

15.6.2.4 Drive Management

该界面显示硬盘基本属性,提供硬盘操作接口。

界面介绍

“Drive Management”界面如图15-96所示,显示硬盘列表。

图15-96 Drive List

 

说明

硬盘的标识信息说明如下:

l     ①表示RAID控制卡的Port口编号,其中Drive C0/Drive Port A表示RAID控制卡的Port A口,Drive C1/Drive Port B表示RAID控制卡的Port B口。

l     ②表示机箱或背板的位置ID。

l     ③表示硬盘槽位号。

l     ④表示硬盘类型。

l     ⑤表示硬盘的容量。

l     ⑥表示硬盘的状态。

l     ⑦表示硬盘的扇区大小。

选定要操作的硬盘并按“Enter”进入详细操作界面,如图15-97所示,参数说明如表15-35所示。

图15-97 Drive Management

 

表15-35 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Initialize Drive:硬盘初始化。

l     Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。

     Simple:仅对硬盘进行一轮擦除动作。

     Normal:对硬盘进行三轮擦除动作。

     Thorough:对硬盘进行九轮擦除动作。

     Stop Erase:停止数据擦除操作。

l     Make Unconfigured Good/Bad:修改硬盘状态。

l     Make JBOD:硬盘直通功能,硬盘不加入RAID,直接使用。

l     Assign Global Hot Spare Drive:设置全局热备盘。

l     Assign Dedicated Hot Spare Drive:设置局部热备盘。

l     Unassign Hot Spare Drive:删除热备盘。

l     Place Drive Online:将Offline状态的硬盘设置为Online。

说明

l     Place Drive Online操作仅仅只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。

l     对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。

Drive ID

硬盘的ID。

Connection

硬盘接口。

Enclosure Position

机箱或背板的位置。

Slot Number

硬盘的槽位号。

Status

硬盘的当前工作状态。

Size

硬盘的容量。

Type

硬盘的类型。

Model

硬盘型号。

Serial Number

硬盘的序列号。

Advanced...

查询更多硬盘属性。

 

安全擦除硬盘数据

说明

该操作会删除硬盘上的数据,请谨慎执行。

将“Operation”设置为“Drive Erase”。

                                步骤 1     选择“Erase Mode”并按“Enter”。

                                步骤 2     在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。

                                步骤 3     选择“Go”并按“Enter”。

                                步骤 4     选择“Confirm”并按“Enter”。

                                步骤 5     选择“Yes”并按“Enter”。

提示操作成功。

----结束

查看硬盘属性

选择“Advanced...”并按“Enter”。

打开硬盘属性界面,如图15-98图15-99所示,参数说明如表15-36所示。

图15-98 Drive Properties (1)

 

图15-99 Drive Properties (2)

 

表15-36 参数说明

参数

参数说明

Certified

是否通过认证。

Logical Sector Size

逻辑扇区大小。

Physical Sector Size

物理扇区大小。

SMART Status

SMART功能是否使能。

Revision

硬盘Firmware版本。

Media Error

Media error个数。

Predicted Fail Count

Pred fail个数。

SAS Address

硬盘SAS地址。

Drive Power State

硬盘上电状态。

Cache Setting

是否可设置Cache。

Disk Protocol

硬盘支持的协议。

Device Speed

设备速率。

Negotiated Drive Transfer Speed

硬盘数据传输速率。

Number of Connections

连接器个数。

FDE Capable

硬盘是否支持FDE(Full Disk Encryption)技术。

Cryptographic Erase Capable

硬盘的加密擦除能力。

Unmap Capable

解除映射能力。

Unmap Capability for Configuration

取消映射配置功能。

Temperature

硬盘温度。

 

15.6.2.5 Hardware Components

该界面主要提供RAID控制卡传感器信息。

界面介绍

“Hardware Components”界面如图15-100,参数说明如表15-37所示。

图15-100 Hardware Components

 

表15-37 参数说明

参数

参数说明

Battery Status

电容的工作状态。

Battery Management

电容管理。

Enclosure Management

查看更多传感器信息。

 

15.6.3 View Server Profile

提供RAID控制卡操作管理接口。

界面介绍

“View Server Profile”界面如图15-101所示,参数说明如表15-38所示。

图15-101 View Server Profile

 

表15-38 参数说明

参数

参数说明

UEFI Spec Version

服务器支持的UEFI Spec版本。

Controller Management

提供控制器管理接口,详细情况请参见15.6.2.2 Controller Management。

Hardware Components

提供控制器部件查询接口,详细情况请参见15.6.2.5 Hardware Components。

Drive Management

提供硬盘管理接口,详细情况请参见15.6.2.4 Drive Management。

Virtual Drive Management

提供虚拟磁盘管理接口,详细情况请参见15.6.2.3 Virtual Drive Management。

 

15.6.4 Manage Foreign Configuration

该界面可查看、导入、清空外部配置。

界面介绍

“Manage Foreign Configuration”界面如图15-102所示。

图15-102 Manage Foreign Configuration

 

查看并导入外部配置

选择“Preview Foreign Configuration”并按“Enter”。

显示当前存在的外部配置的详细信息,如图15-103所示。

图15-103 外部配置

 

                                步骤 2     选择“Import Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 3     选择“Confirm”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     单击“OK”完成配置。

----结束

清除外部配置

选择“Clear Foreign Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 3     单击“OK”完成配置。

----结束

15.6.5 Configure

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

“Configure”界面如图15-104所示,参数说明如表15-39所示。

图15-104 Configure

 

表15-39 参数说明

参数

参数说明

Auto Configure RAID 0

自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0。

Create Virtual Drive

创建RAID。

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

当存在硬盘组时会显示该参数。

Make JBOD

硬盘直通功能,硬盘不加入RAID,直接使用。

Make Unconfigured Good

配置硬盘状态。

Clear Configuration

清除当前所有RAID配置。

Manage Foreign Configuration

管理外部配置。

当存在外部配置时才会显示该选项。

 

清除当前配置

选择“Clear Configuration”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 3     单击“OK”完成配置。

----结束

15.6.6 Set Factory Defaults

恢复出厂配置

在主界面选择“Set Factory Defaults”并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”并按“Enter”。

                                步骤 2     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 3     单击“OK”完成配置。

----结束

15.6.7 Update Firmware

该界面提供固件升级接口。

界面介绍

“Update Firmware”界面如图15-105所示,参数说明如表15-40所示。

图15-105 Update Firmware界面

 

表15-40 参数说明

参数

参数说明

Select File System

选择使用的文件系统。

Select Directory

选择文件存放路径。可选路径包括:

Current Dir:当前路径

EFI:自适应路径

Select Image

选择要加载的文件。

 

升级固件

说明

l     进行固件升级时,必须使用FAT12、FAT16或FAT32格式的介质。

l     仅检查支持EFI_SIMPLE_FILE_SYSTEM_PROTOCOL的文件系统。

l     FW镜像文件必须位于根目录或根目录的下一个级别才能进行访问。

按照表15-40所述配置升级参数。

                                步骤 1     选择“Update”并按“Enter”。

打开操作确认界面。

                                步骤 2     选择“Confirm”并按“Enter”。

                                步骤 3     在列表中选择“Enable”并按“Enter”。

                                步骤 4     选择“Yes”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     单击“OK”完成配置。

----结束

15.6.8 Manage MegaRAID Advanced Software Options

该界面提供RAID控制卡高级软件特性查看和导入接口。

界面介绍

“Manage MegaRAID Advanced Software Options”界面如图15-106所示,界面中参数说明如表15-41所示。

图15-106 Manage MegaRAID Advanced Software Options

 

表15-41 参数说明

参数

说明

SAFE ID

RAID控制卡的安全编码。

Serial Number

RAID控制卡序列号。

Activation Key

待激活的高级特性的Key。

Active

激活高级特性。

9460-16i不支持高级特性的激活操作,该功能无效。

Deactive All Trail Software

注销当前所有高级特性。

 

15.6.9 Exit

退出配置界面。

退出配置界面

1.     在主界面按“ESC”,显示如图15-107所示“Advanced”界面。

图15-107 Device Manager

 

2.     按“Esc”退出配置界面。

15.7 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

1.     下载和安装StorCLI工具

下载工具

登录BROADCOM网站上RAID控制卡的页面

                                步骤 1     在“DOWNLOADS”页签中单击“Management Software and Tools”。

打开管理软件和工具列表。

                                步骤 2     下载最新版本的“StorCLI”工具。

                                步骤 3     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 1     在Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。

说明

StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

15.7.2 常用命令

15.7.2.1 查询RAID控制卡配置信息

命令功能

查询9460-16i的基本配置信息。

命令格式

storcli64 /ccontroller_id show

参数说明

参数

参数说明

取值

controller_id

控制器ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID

 

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡配置信息。

[root@localhost ~]# ./storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-957.el7.x86_64
Controller = 0
Status = Success
Description = None
 
Product Name = AVAGO MegaRAID SAS 9460-16i
Serial Number = SP90207195
SAS Address =  500062b20452edc0
PCI Address = 00:d8:00:00
System Time = 07/16/2020 05:16:46
Mfg. Date = 01/19/19
Controller Time = 07/16/2020 09:16:45
FW Package Build = 50.6.3-0109
BIOS Version = 7.06.02.2_0x07060502
FW Version = 5.060.00-2262
Driver Name = megaraid_sas
Driver Version = 07.705.02.00-rh1
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x14
SubVendor Id = 0x1000
SubDevice Id = 0x9460
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 216
Device Number = 0
Function Number = 0
Drive Groups = 1
 
TOPOLOGY :
========
 
---------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT     Size PDC  PI SED DS3  FSpace TR
---------------------------------------------------------------------------
 0 -   -   -        -   RAID1 Optl  N  3.637 TB dflt N  N   none N      N
 0 0   -   -        -   RAID1 Optl  N  3.637 TB dflt N  N   none N      N
 0 0   0   65:2     6   DRIVE Onln  N  3.637 TB dflt N  N   none -      N
 0 0   1   65:3     4   DRIVE Onln  N  3.637 TB dflt N  N   none -      N
---------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 1
 
VD LIST :
=======
 
-----------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC     Size Name
-----------------------------------------------------------------
0/0   RAID1 Optl  RW     No      RWBD  -   ON  3.637 TB RAID1_OS
-----------------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 14
 
PD LIST :
=======
 
-------------------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model               Sp Type
-------------------------------------------------------------------------------
65:0      2 UGood -  1.090 TB SAS  HDD N   N  512B ST1200MM0009        D  -
65:1      3 UGood -  1.090 TB SAS  HDD N   N  512B ST1200MM0009        D  -
65:2      6 Onln  0  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 U  -
65:3      4 Onln  0  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 U  -
65:4      8 UGood -  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 D  -
65:5     13 UGood -  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 D  -
65:6     10 UGood -  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 D  -
65:7      5 UGood -  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 D  -
65:8     12 UGood -  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 D  -
65:9     15 UGood -  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 D  -
65:10    14 UGood -  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 D  -
65:11     9 UGood -  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 D  -
65:12     7 UGood -  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 D  -
65:13    11 UGood -  3.637 TB SATA HDD N   N  512B ST4000NM0035-1V4107 D  -
-------------------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down/PowerSave|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded
 
 
Cachevault_Info :
===============
 
------------------------------------
Model  State   Temp Mode MfgDate
------------------------------------
CVPM05 Optimal 31C  -    2019/06/24
------------------------------------

15.7.2.2 创建和删除RAID

命令功能

创建、删除RAID。

命令格式

命令

说明

storcli64 /ccontroller_id add vd rlevel[0|1|5|6|10|50|60] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [wt|*wb|awb] [nora|*ra] [Strip=<8|16|32|64|128|256|1024>] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid]

创建RAID组

storcli64 /ccontroller_id/vraid_id del

删除RAID组

 

说明

*表示默认值。

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

enclosure_id

硬盘所在Enclosure的ID

-

rlevel

要配置的RAID组级别

level可为0、1、5、6、10、50、60,数字分别代表对应的RAID组级别。

size

要配置的RAID组容量

默认值为all,即所有成员盘的容量之和。

name

要配置的RAID组名称

-

drives

要加入RAID组的硬盘

-

startid-endid

硬盘的起始和结束ID

-

slot_id

硬盘ID

-

pdperarray

子组中的硬盘数

创建RAID10、RAID50、RAID60时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。

-

pdcache

设置RAID的成员盘的Cache状态

l     on

l     off

l     default

pi

使能数据保护

-

wrcache

设置RAID组的写Cache属性,完整的命令为wrcache=wt|wb|awb,这里“wrcache=”可省略

l     wt:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     wb:控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”模式。

rdcache

设置RAID组的读Cache属性,完整的命令为rdcache=ra|nora,这里“rdcache=”可省略。

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

Strip

设置RAID组条带大小

MR卡:8, 16, 32, 64, 128, 256, 512, 1024

iMR卡:只能为64

单位为KB

EmulationType

控制逻辑盘在OS中上报的扇区

l     0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     1: Disable,如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     2:Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Spares

指定RAID组的热备盘

-

raid_id

要删除的RAID组的ID

-

 

说明

l     以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

l     当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid

使用指南

使用实例

# 创建RAID 0。

[root@localhost ~]# ./storcli64 /c0 add vd r0 size=100GB drives=64:9,10
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = Add VD Succeeded

# 删除RAID。

domino:~# ./storcli64 /c0/v0 del
Controller = 0
Status = Success
Description = Delete VD Succeeded

15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息

命令功能

查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。

命令格式

storcli64 /ccontroller_id show

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

storcli64 /ccontroller_id/vvd_id show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID

enclosure_id

硬盘所在Enclosure的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器连接的硬盘背板的ID

slot_id

物理硬盘槽位编号

可以将该参数设置为all,表示查询所有硬盘的ID

vd_id

虚拟磁盘ID

可以为all,表示查询所有虚拟磁盘信息。

 

使用指南

使用实例

# 查询VD 0的信息。

domino:~# ./storcli64 /c0/v0 show
Controller = 0
Status = Success
Description = None
Virtual Drives :
==============
---------------------------------------------------------
DG/VD TYPE State Access Consist Cache sCC Size Name
---------------------------------------------------------
0/0 RAID1 Optl RW Yes RWBD - 100.0 GB
---------------------------------------------------------
Cac=CacheCad|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded Optl=Optimal|RO=Read
OnlyRW=Read Write|HD=Hidden|B=Blocked|Consist=Consistent|AWB=Always WriteBack|WT=WriteThrough|
C=Cached IOID=Direct IO|sCC=Scheduled Check Consistency

15.7.2.4 查询和设置Patrolread参数

命令功能

查询和设置系统巡检的相关参数。

命令格式

storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number

storcli64 /ccontroller_id set patrolread delay=delaytime

storcli64 /ccontroller_id set patrolread={on mode=<auto|manual>}|{off}

storcli64 /ccontroller_id show patrolread

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

系统巡检起始时间

例如:2016/07/15 23

说明

起始时间单位为“时”。

number

可同时巡检的硬盘数量

delaytime

系统巡检周期

单位为hour。

 

查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置patrolread的起始时间为“2016/07/15 23”,同时巡检的硬盘数为“2”。

domino:~# ./storcli64 /c0 set patrolread starttime=2016/07/15 23 maxconcurrentpd=2
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
--------------------------------------- 
Ctrl_Prop          Value 
--------------------------------------- 
PR Starttime       2016/07/15 23:00:00 
PR MaxConcurrentPd 2 
---------------------------------------

# 使能patrolread并设置为自动模式。

domino:~# ./storcli64 /c0 set patrolread=on mode=auto
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
--------------------------------------- 
Ctrl_Prop        Value 
--------------------------------------- 
Patrol Read Mode auto 
---------------------------------------

# 查询patrolread信息。

domino:~# ./storcli64 /c0 show patrolread
Controller = 0 
Status = Success 
Description = None 
Controller Properties : 
===================== 
-------------------------------------------- 
Ctrl_Prop          Value 
-------------------------------------------- 
PR Mode       2016/07/15 23:00:00 
PR Execution Delay 
PR iterations completed 0 
PR Next Start time      07/16/2016,00:00:00 
PR on SSD               Disabled 
PR Current State        Stopped 
--------------------------------------------

15.7.2.5 查询和设置Spinup参数

命令功能

查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。

命令格式

storcli64 /ccontroller_id show spinupdelay

storcli64 /ccontroller_id show spinupdrivecount

storcli64 /ccontroller_id set spinupdelay=time

storcli64 /ccontroller_id set spinupdrivecount=count

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

每组起转硬盘间的时间间隔

默认为2,单位为s。

count

上电时允许同时起转的硬盘数量

默认为4。

 

查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡Spinup参数。

[root@localhost ~]# ./storcli64 /c0 show spinupdelay
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-957.el7.x86_64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop     Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------
 
[root@localhost ~]# ./storcli64 /c0 show spinupdrivecount
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-957.el7.x86_64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop           Value
--------------------------
Spin Up Drive Count 2
--------------------------

# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。

domino:~# ./storcli64 /c0 set spinupdelay=20
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Delay 20 second(s)
--------------------------
domino:~# ./storcli64 /c0 set spinupdrivecount=5
Controller = 0
Status = Success
Description = None
Controller Properties:
=====================
--------------------------
Ctrl_Prop Value
--------------------------
Spin Up Drive Count 5
--------------------------

15.7.2.6 查询和设置硬盘数据擦除功能

命令功能

设置物理硬盘数据擦除模式,查询擦除进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase

storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

mode

数据擦除模式

l     simple:对硬盘进行一轮擦除动作。

l     normal:对硬盘进行三轮擦除动作。

l     thorough:对硬盘进行九轮擦除动作。

 

以上涉及的所有ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。

domino:~# ./storcli64 /c0/e252/s3 start erase simple
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
domino:~# ./storcli64 /c0/e252/s3 show erase
Controller = 0
Status = Success
Description = Show Drive Erse Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Status Estimated Time Left
------------------------------------------------------
/c0/e252/s3 0 In progress 0 Seconds
------------------------------------------------------
domino:~# ./storcli64 /c0/e252/s3 stop erase
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.

15.7.2.7 查询和设置RAID后台初始化

命令功能

暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。

命令格式

storcli64 /ccontroller_id/vraid_id action bgi

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

action

后台初始化的操作

l     show:查看后台初始化进度

l     pause:暂停后台初始化

l     resume:继续后台初始化

l     stop:停止后台初始化

 

以上涉及的所有ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查看后台初始化进度。

[root@localhost ~]# ./storcli64 /c0/v0 show bgi
Controller = 0
Status = Success
Description = Noe
 
VD Operation Status :
===================
 
------------------------------------------------------
VD Operation Progress% Staus      Estimated Time Left
------------------------------------------------------
 0 BGI               3 In progress 53 Minutes
------------------------------------------------------

15.7.2.8 查询和设置CacheFlush参数

命令功能

查询和设置Cache的刷新周期。

命令格式

storcli64 /ccontroller_id show cacheflushint

storcli64 /ccontroller_id set cacheflushint time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

Cache的刷新周期

单位为s

 

查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置Cache的刷新周期为“10”。

domino:~# ./storcli64 /c0 set cacheflushint=10
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10 sec
---------------------------

# 查询Cache的刷新周期。

domino:~# ./storcli64 /c0 show cacheflushint
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
---------------------------
Ctrl_Prop Value
---------------------------
Cache Flush Interval 10
---------------------------

15.7.2.9 查询和设置物理硬盘初始化功能

命令功能

设置物理硬盘初始化功能,查询初始化进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看初始化进度

l     start:开始初始化

l     stop:结束初始化

 

以上涉及的所有ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 初始化slot3硬盘,并查询初始化进度。

[root@localhost ~]# ./storcli64 /c0/e64/s3 start initialization
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
 
[root@localhost ~]# ./storcli64 /c0/e64/s3 show initialization
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
 
 
-----------------------------------------------------
Drive-ID   Progress% Status      Estimated Time Left
-----------------------------------------------------
/c0/e64/s3         0 In progress 0 Seconds
-----------------------------------------------------
 
 
[root@localhost ~]#

15.7.2.10 查询和设置RAID重构/回拷/系统巡检功能

命令功能

暂停、继续、停止RAID重构/回拷/系统巡检,并查询进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action function

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看进度

l     pause:暂停进程

l     resume:继续执行

l     stop:停止进程

function

要处理的进程

l     rebuild:RAID重构

l     copyback:回拷

l     patrolread:系统巡检

 

以上涉及的所有ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查看RAID重构进度。

domino:~# ./storcli64 /c0/e252/s4 show rebuild
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Staus Estimated Time Left
------------------------------------------------------
/c0/e252/s4 9 In progress 12 Minutes
------------------------------------------------------

# 暂停RAID重构。

domino:~# ./storcli64 /c0/e252/s4 pause rebuild
Controller = 0
Status = Success
Description = Pause Drive Rebuild Status Succeeded.

15.7.2.11 查询和设置Smart扫描周期

命令功能

查询、设置Smart扫描周期。

命令格式

命令

说明

storcli64 /ccontroller_id set smartpollinterval=value

设置Smart扫描周期。

storcli64 /ccontroller_id show smartpollinterval

查询Smart扫描周期。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

value

Smart扫描周期

单位为s。

 

查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置Smart扫描周期为“60s”。

domino:~# ./storcli64 /c0 set smartpollinterval=60
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
-------------------------------
Ctrl_Prop Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------

15.7.2.12 查询和设置一致性校验参数

命令功能

查询、设置一致性检查参数。

命令格式

命令

说明

storcli64 /ccontroller_id[/vvd_id]show cc

查询一致性检查参数。

storcli64 /ccontroller_id/vvd_id start cc force

开始进行一致性检查。

storcli64 /ccontroller_id/vvd_id action cc

暂停/停止/继续执行一致性检查。

storcli64 /ccontroller_id set consistencycheck|cc=[off|seq|conc] [delay=value] starttime=time excludevd=evd_id

设置一致性自动检查参数。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

要操作的RAID的ID

-

action

要执行的操作

l     pause:暂停

l     resume:继续执行

l     stop:停止

cc

将一致性检查设置为顺序模式或并行模式,或关闭一致性检查。

l     off:关闭一致性检查

l     seq:顺序模式

l     conc:并行模式

value

一致性检查周期

-

time

一致性检查起始时间

例如:2016/07/14 22

说明

起始时间单位为“时”。

evd_id

不进行一致性检查的虚拟磁盘ID

-

 

以上涉及的所有ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

show命令中不带/vvd_id时,表示查询自动CC参数。

show命令中带/vvd_id时,表示查询CC进度。

使用实例

# 设置一致性自动检查参数。

domino:~# ./storcli64 /c0 set cc=conc delay=1 starttime=2016/07/14 22 excludevd=0
Controller = 0
Status = Success
Description = None
Controller Properties :
=====================
------------------------------------
Ctrl_Prop Value
------------------------------------
CC Mode CONC
CC delay 1
CC Starttime 2016/07/14 22:00:00
CC ExcludeVD(0) Success
------------------------------------

# 查询CC进度。

domino:~# ./storcli64 /c0/v1 show cc
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimited Time Left
-----------------------------------------------------------
0 CC - Not in progress -
-----------------------------------------------------------

15.7.2.13 设置热备盘

命令功能

设置全局热备盘和局部热备盘。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=vd_id]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

vd_id

局部热备盘所属虚拟磁盘的ID

 

以上涉及的所有ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置slot 3硬盘为全局热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.

# 设置slot 3硬盘为vd0的局部热备盘。

domino:~# ./storcli64 /c0/e252/s3 add hotsparedrive dgs=0
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.

15.7.2.14 设置启动项

命令功能

设置虚拟磁盘或物理硬盘为启动项。

命令格式

storcli64 /ccontroller_id/vvd_id set bootdrive=on

storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

vd_id

待设置的虚拟磁盘的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

 

以上涉及的所有ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置VD0为启动项。

[root@localhost ~]# ./storcli64 /c0/v0 set bootdrive=on
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
-----------------------------------------
VD Property   Value Status  ErrCd ErrMsg
-----------------------------------------
 0 Boot Drive On    Success     0 -
-----------------------------------------
 
 
 
[root@localhost ~]#

# 设置slot 7硬盘为启动项。

omino:~# ./storcli64 /c0/e252/s7 set bootdrive=on
Controller = 0 
Status = Success 
Description = Noe 
 
Controller Properties : 
===================== 
 
------------------- 
Ctrl_Prop Value 
------------------- 
BootDrive PD:252_7 
-------------------

15.7.2.15 设置硬盘状态

命令功能

设置硬盘状态。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

state

要设置的硬盘状态

l     online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。

l     offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。

l     jbod:通过该参数可以将硬盘设置为直通硬盘。

l     good:

     ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置;

     JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。

l     good:将硬盘设为空闲盘

force

强制设置硬盘状态,为可选参数。

如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force。

-

 

以上涉及的所有ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 将“Unconfigured Bad”状态下的slot 1硬盘设置为“Unconfigured Good”状态。

domino:~# ./storcli64 /c0/e0/s1 set good
Controller = 0 
Status = Success 
Description = Set Drive Good Succeeded.

# 设置slot 7硬盘为直通盘。

domino:~# ./storcli64 /c0/e252/s7 set JBOD
Controller = 0 
Status = Success 
Description = Set Drive JBOD Succeeded.

15.7.2.16 设置RAID组访问策略

命令功能

设置RAID的读写策略。

命令格式

storcli64 /ccontroller_id/vraid_id set accesspolicy=mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

mode

RAID读写策略

l     rw:可读可写

l     blocked:禁止访问

l     ro:只读访问

 

以上涉及的所有ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置RAID读写策略为“rw”。

[root@localhost ~]# ./storcli64 /c0/v0 set accesspolicy=rw
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
----------------------------------------
VD Property  Value Status  ErrCd ErrMsg
----------------------------------------
 0 AccPolicy RW    Success     0 -
----------------------------------------
 
 
 
[root@localhost ~]#

15.7.2.17 设置硬盘Cache状态

命令功能

设置RAID组成员盘的Cache状态。

命令格式

storcli64 /ccontroller_id/vvd_id set pdcache=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

-

vd_id

RAID组的ID

-

action

要执行的操作

l     on:打开硬盘Cache

l     off:关闭硬盘Cache

l     default:将硬盘Cache设置为默认状态

 

以上涉及的各个ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 打开ID为0的RAID组的硬盘Cache。

./storcli64 /c0/v0 set pdcache=on
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
---------------------------------------
VD Property Value Status  ErrCd ErrMsg
---------------------------------------
 0 PdCac    On    Success     0 -
---------------------------------------

15.7.2.18 设置紧急热备功能

命令功能

设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。

命令格式

storcli64 /ccontroller_id set eghs eug=state

storcli64 /ccontroller_id set eghs smarter=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

state

紧急热备功能的启用状态

l     on:启用

l     off:禁用

 

查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。

[root@localhost ~]# ./storcli64 /c0 set eghs eug=on
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
------------------
Ctrl_Prop   Value
------------------
EmergencyUG ON
------------------
 
 
 
[root@localhost ~]# ./storcli64 /c0 set eghs smarter=on
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-----------------------
Ctrl_Prop        Value
-----------------------
EmergencySmarter ON
-----------------------
 
 
 
[root@localhost ~]#

15.7.2.19 设置硬盘PowerSave功能

命令功能

设置空闲硬盘和热备盘的省电模式。

命令格式

storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID。

state

省电模式的启用状态。

l     on:启用

l     off:禁用

disktype

硬盘类型。

l     1:空闲硬盘

l     2:热备盘

time

等待时间,硬盘经过等待时间没有I/O,则停转进入休眠状态。

单位为minutes。

 

查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置空闲硬盘的省电模式。

[root@localhost ~]# ./storcli64 /c0 set ds=on type=1 spindowntime=30
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
------------------------
Ctrl_Prop    Value
------------------------
SpnDwnUncDrv Enabled
SpnDwnTm     30 minutes
------------------------
 
 
 
[root@localhost ~]#

15.7.2.20 设置后台资源占用率

命令功能

设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。

命令格式

storcli64 /ccontroller_id set action=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要设置的项目

l     bgirate:后台初始化速率

l     ccrate:一致性校验速率

l     prrate:硬盘巡检速率

l     rebuildrate:RAID重构速率

l     reconrate:RAID扩容和迁移速率

value

后台任务资源占用率

1~100

 

查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置硬盘巡检速率为“30%”。

[root@localhost ~]#  ./storcli64 /c0 set prrate=30
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-----------------------
Ctrl_Prop        Value
-----------------------
Patrol Read Rate 30%
-----------------------
 
 
 
[root@localhost ~]#

15.7.2.21 设置BIOS Stop on Error功能

命令功能

设置控制器BIOS在检测到异常时停止继续启动的功能。

命令格式

storcli64 /ccontroller_id set bios mode=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要执行的操作

l     soe:控制器BIOS在检测到异常时停止启动

l     ie:忽略检测到的异常

 

查看RAID控制卡ID的方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 开启Stop on error功能。

[root@localhost ~]# ./storcli64 /c0 set bios mode=soe
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------
 
 
 
[root@localhost ~]#

15.7.2.22 设置RAID组的Cache读写策略

命令功能

设置RAID组的Cache读写策略。

命令格式

命令

说明

storcli64 /ccontroller_id/vraid_id set wrcache=wrmode

设置Cache写策略

storcli64 /ccontroller_id/vraid_id set rdcache=rdmode

设置Cache读策略

 

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAID组的ID

-

wrmode

设置Cache写策略

l     wt:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     wb:控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”策略。

rdmode

设置Cache读策略

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

 

以上涉及的所有ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置Cache读写模式为“wt”。

[root@localhost ~]# ./storcli64 /c0/v0 set wrcache=wt
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = None
 
Detailed Status :
===============
 
---------------------------------------
VD Property Value Status  ErrCd ErrMsg
---------------------------------------
 0 wrCache  WT    Success     0 -
---------------------------------------
 
 
 
[root@localhost ~]#

15.7.2.23 设置RAID前台初始化模式

命令功能

设置RAID前台初始化模式。

命令格式

命令

说明

storcli64 /ccontroller_id/vraid_id start mode [Force]

开始进行RAID前台初始化。

storcli64 /ccontroller_id/vraid_id stop init

停止RAID前台初始化。

storcli64 /ccontroller_id/vraid_id show init

查询RAID前台初始化进度。

 

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAID的ID

-

mode

前台初始化模式

l     init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。

l     init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。

Force

如果RAID组有用户数据,必须增加该参数进行初始化。

-

 

以上涉及的所有ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 快速初始化RAID。

[root@localhost ~]# ./storcli64 /c0/v4 start init
CLI Version = 007.0409.0000.0000 Nov 06, 2017
Operating system = Linux3.10.0-514.el7.x86_64
Controller = 0
Status = Success
Description = Start INIT Operation Success
 
 
[root@localhost ~]#

15.7.2.24 设置硬盘定位指示灯状态

命令功能

点亮和熄灭指定硬盘的定位指示灯。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。

slot_id

物理硬盘槽位编号

可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。

action

要执行的操作

l     start:点亮硬盘的定位指示灯。

l     stop:熄灭硬盘的定位指示灯。

 

以上涉及的所有ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 点亮slot 7硬盘的定位指示灯。

domino:~# ./storcli64 /c0/e252/s7 start locate
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.

15.7.2.25 通过增加成员盘可用容量扩容RAID

命令功能

RAID有2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

命令格式

storcli64 /ccontroller_id/vvd_id expand size=capacity [expandarray]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要扩容的RAID的ID

capacity

扩容后的容量

expandarray

当通过更换成员盘使硬盘组的可用容量增大,且需扩展的容量超过硬盘组原来的可用容量时,需要增加该参数。

 

以上涉及的所有ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查询VD的可扩展容量。

[root@localhost ~]# storcli64 /c0/v1 show expansion 
CLI Version = 007.1416.0000.0000 July 24, 2020 
Operating system = Linux 4.19.36-vhulk1907.1.0.h691.eulerosv2r8.aarch64 
Controller = 0 
Status = Success 
Description = None 
 
 
EXPANSION INFORMATION : 
===================== 
 
-------------------------------------------- 
VD      Size OCE NoArrExp WithArrExp Status 
-------------------------------------------- 
 1 10.000 GB Y   3.627 TB 5.447 TB   - 
-------------------------------------------- 
 
OCE - Online Capacity Expansion | WithArrExp - With Array Expansion 
 VD=Virtual Drive | NoArrExp - Without Array Expansion

说明

如上面回显所示,如扩展容量小于3.627TB,不需要加expandarray参数;如扩展容量大于3.627TB且小于5.446TB,需要加expandarray参数。

# 将VD0的容量扩大“200GB”。

domino:~# ./storcli64 /c0/v0 expand size=200GB
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
0 100.0 GB 457.861 GB 200.0 GB 201.458 GB 44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %

说明

RAID控制卡会根据不同硬盘调整实际扩容的大小,扩容结果以实际扩容的大小为准。

15.7.2.26 通过增加新盘扩容或迁移RAID

命令功能

RAID有2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

当增加新盘后,可进行RAID级别迁移。

命令格式

storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

vd_id

要操作的RAID的ID

slot_id

要加入RAID的新硬盘的槽位号

level

增加硬盘后RAID的级别

l     与原RAID级别相同时,该命令为扩大RAID容量。

l     与原RAID级别不同时,该命令为RAID级别迁移。

 

以上涉及的所有ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 在RAID 0中增加slot 2硬盘扩容。

domino:~# ./storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 13 Minutes
-------------------------------------------------------

# 单盘RAID 0加盘迁移至RAID 1。

domino:~# ./storcli64 /c0/v0 start migrate type=r1 option=add drives=252:3
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
domino:~# ./storcli64 /c0/v0 show migrate
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 14 Minutes
-------------------------------------------------------

15.7.2.27 查询和清除PreservedCache数据

命令功能

查询和清除PreservedCache数据。

命令格式

storcli64 /ccontroller_id show preservedcache

storcli64 /ccontroller_id/vvd_id delete preservedcache force

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要操作的RAID的ID

 

以上涉及的所有ID的查询方法请参见15.7.2.3 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查询PreservedCache。

domino:~# ./storcli64 /c0 show preservedcache
Controller = 0
Status = Success
Description = No Virtual Drive has Preserved Cache Data.

15.7.2.28 查看/导入/清除外部配置

命令功能

指导用户查看、导入或者清除RAID控制卡的外部配置。

命令格式

storcli64 /ccontroller_id/fall import preview

storcli64 /ccontroller_id/fall import

storcli64 /ccontroller_id/fall delete

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

 

使用指南

使用实例

# 查看RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall import preview
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-957.el7.x86_64
Controller = 0
Status = Success
Description = Operation on foreign configuration Succeeded
 
 
FOREIGN PREVIEW :
===============
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Total foreign drive groups = 0

# 删除RAID控制卡的外部配置。

[root@localhost ~]# ./storcli64 /c0/fall delete
CLI Version = 007.0504.0000.0000 Nov 22, 2017
Operating system = Linux 3.10.0-957.el7.x86_64
Controller = 0
Status = Success
Description = Successfully deleted foreign configuration


16 BROADCOM MegaRAID SAS 9560-8i

关于本章

主要介绍BROADCOM MegaRAID SAS 9560-8i RAID控制卡的外观、特性、以及配置方法。

BROADCOM MegaRAID SAS 9560-8i RAID控制卡支持的服务器可通过计算产品兼容性查询助手获取。

不同Firmware版本的RAID控制卡界面有差异,具体请以实际为准。

16.1  概述

16.2  功能

16.3  初始配置

16.4  常用配置

16.5  故障处理

16.6  管理界面介绍

16.7  OS命令行工具

16.1 概述

BROADCOM MegaRAID SAS 9560-8i RAID控制卡(以下简称9560-8i)是基于MegaRAID架构的8端口12Gbit/s SAS控制器,并采用PCIe4.0x8接口,提供强大的I/O存储引擎,可透明执行所有的数据保护、数据检验和恢复任务。

9560-8i用以提高系统性能,并提供数据容错存储功能,支持数据的多硬盘分片存储,支持多硬盘同时读/写访问,有效降低硬盘数据访问延时。

9560-8i自带的Cache对RAID控制卡性能的提升有非常重要的作用,主要体现在:

l     在写数据时,直接写入Cache,当写入的数据积累到一定程度,RAID控制卡才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

l     在读数据时,如果可以直接在Cache中命中的话,将减少硬盘寻道操作,降低响应时间,提升了数据读速度。

说明

l     Cache数据的掉电保护依赖于与RAID控制卡相连的超级电容。超级电容的外形、连接方式、安装方式可参考各服务器的用户指南。

l     9560-8i分为支持配置超级电容与不支持配置超级电容两种形态,只有支持配置超级电容的RAID控制卡具有Cache数据的掉电保护功能。

l     9560-8i不支持flush write verify功能。

9560-8i的结构如图16-1图16-2所示。

图16-1 9560-8i正面

 

图16-2 9560-8i背面

 

1

心跳灯

2

芯片过温指示灯

3

Mini-SAS接口

4

散热器

5

超级电容

6

超级电容错误状态指示灯

 

9560-8i单板指示灯说明如表16-1所示。

表16-1 RAID控制卡单板指示灯说明

指示灯

颜色

说明

芯片过温指示灯

黄色

l     常亮:设备温度传感器超过阈值。

l     灭:设备温度在正常温度范围内。

超级电容错误状态指示灯

黄色

l     常亮:超级电容电源模块故障或者过温。

l     灭:超级电容正常或不在位。

心跳灯

绿色

l     闪烁:芯片运行正常,闪烁频率为1Hz。

l     灭:RAID控制卡未开始运行或FW运行异常。

 

16.2 功能

16.2.1 支持RAID 0/1/5/6/10/50/60

9560-8i支持的硬盘、虚拟磁盘、硬盘组数量分别为:

l     最多支持240个硬盘。

说明

该数量为热备盘,空闲盘(Unconfigured Good状态的硬盘)与加入RAID组的硬盘数量之和。

l     最多支持64个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

l     最多支持64个硬盘组(即配置界面中看到的“Drive Group”),每个硬盘组最多支持240个硬盘。

l     每个硬盘组(即配置界面中看到的“Drive Group”)最多支持16个虚拟磁盘(即配置界面中看到的“Virtual Drive”)。

9560-8i支持的RAID类型及对应的硬盘个数如表16-2所示。

表16-2 RAID-硬盘参数

RAID级别

支持硬盘数

支持子组数

子组支持硬盘数

允许坏盘数

RAID 0

1~32

不涉及

不涉及

0

RAID 1

2~32(偶数)

硬盘数÷2

RAID 5

3~32

1

RAID 6

4~32

2

RAID 10

4~240(偶数)

2~8个RAID 1

2~32(偶数)

子组数

RAID 50

6~240

2~8个RAID 5

3~32

子组数

RAID 60

8~240

2~8个RAID 6

4~32

子组数×2

 

说明

l     不支持RAID 00级别。

l     故障硬盘的数量不能大于当前RAID组最大允许故障盘数量。

l     子组数:子RAID组的个数,例如RAID 50由两个RAID 5组成,则子组数为2。

l     RAID 10、RAID 50每个子组中最多允许故障1个硬盘。

l     RAID 60每个子组中最多允许故障2个硬盘。

l     RAID10、50、60包含的总硬盘数由子组数和子组支持的硬盘数共同决定。

16.2.2 硬盘热备份

9560-8i的热备功能分为两种:热备盘和紧急备份。

热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

l     Global HSP:即全局热备盘,为RAID控制卡上所有已配置的RAID组所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID组内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

配置方法请参见16.4.1.1 配置全局热备盘。

l     Dedicated HSP:即局部热备盘,为RAID控制卡上某个指定的RAID组所专有,每个RAID都可以配置1个或多个局部热备盘。当指定RAID组内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

配置方法请参见16.4.1.2 配置局部热备盘。

热备盘容量需大于等于成员盘容量。

说明

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID组的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID组成员盘最大容量。

l     除RAID 0外,其他类型的RAID组均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

紧急备份

使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。

紧急备份要求用于备份的空闲盘容量大于等于成员盘容量。

紧急备份有两种情况,对应了两种设置:

l     当成员盘fail时,空闲盘替代成员盘作为紧急备份。

l     当检测到成员盘prefail时,空闲盘替代成员盘作为紧急备份。

具体配置方法请参见16.4.2 设置紧急热备功能。

16.2.3 硬盘热插拔

热插拔即带电插拔,可以在不关闭系统、不切断电源的情况下取出和更换损坏的硬盘,从而提高了系统的容灾能力、扩展性和灵活性等。

说明

l     请确认拔掉硬盘与插上硬盘的时间间隔在30s以上,以避免造成硬盘无法被识别。

l     插拔前需确认该硬盘逻辑状态以及该RAID组级别允许坏盘的数量。

l     人为在线插拔RAID组中的硬盘会使得硬盘被标识为外部RAID组的成员盘,从而导致该硬盘故障。如出现该问题,可以将硬盘设置为Unconfigured Good后,参考16.4.9 导入/清除外部配置章节恢复RAID组,无需更换硬盘。

l     在不关闭操作系统的情况下插拔直通盘可能会导致该硬盘在系统下的盘符发生变化,插拔前需记录该硬盘在系统下对应的盘符。

16.2.4 回拷

具备冗余功能的RAID组的一块成员盘故障之后,热备盘自动替换故障数据盘并开始同步。当更换新的数据盘之后,热备盘中的数据会回拷至新数据盘,回拷完毕后,原热备盘会恢复其热备状态。

16.2.5 硬盘分条

条带化

当多个进程同时访问一个硬盘时,可能会出现硬盘冲突。大多数硬盘系统都对访问次数(每秒的I/O操作)和数据传输率(每秒传输的数据量)有限制。当达到这些限制时,后面需要访问硬盘的进程就需要等待。

条带化技术是一种自动的将I/O的负载均衡到多个物理硬盘上的技术。条带化技术将一块连续的数据分成多个小部分并将其分别存储到不同硬盘上去。这就能使多个进程同时访问数据的多个不同部分而不会造成硬盘冲突,而且在需要对这种数据进行顺序访问的时候可以获得最大程度上的I/O并行能力。

影响条带化效果的因素有:

l     条带宽度:指同时可以并发读或写的条带数量。

这个数量等于RAID组中的物理硬盘数量。增加条带宽度,可以增加RAID组的读写性能,增加更多的硬盘,也就增加了可以同时并发读或写的条带数量。在其他条件一样的前提下,一个由8块18G硬盘组成的阵列相比一个由4块36G硬盘组成的阵列具有更高的传输性能。

l     条带大小:指写在每块硬盘上的条带数据块的大小。

分条

硬盘分条即把RAID组中每个成员盘的存储空间按照设置的条带大小进行分条,数据在写入时也会按照条带大小划分数据块。

9560-8i支持多种条带大小,包括64KB、128KB、256KB、512KB及1MB。

配置RAID组时一般采用默认值。

16.2.6 RAID级别迁移

RAID组的当前配置不满足需求,在不影响数据完整性的情况下,可对RAID级别进行修改,具体操作请参见16.4.5 迁移RAID级别。

当前支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1、RAID 5、RAID 6

l     RAID 1迁移到RAID 0、RAID 5、RAID 6

l     RAID 5迁移到RAID 0、RAID 6

l     RAID 6迁移到RAID 0、RAID 5

RAID组迁移对硬盘数量的要求如表16-3所示。

表16-3 RAID组迁移的硬盘数量说明

迁移RAID级别

原始硬盘组硬盘数量

迁移后的硬盘组硬盘数量

RAID 0迁移 RAID 1

1~32

2~32(偶数)

RAID 0迁移到RAID 5

1~32

3~32

RAID 0迁移到RAID 6

1~32

4~32

RAID 1迁移到RAID 0

2~32(偶数)

2~32

RAID 1迁移到RAID 5

2~32(偶数)

3~32

RAID 1迁移到RAID 6

2~32(偶数)

4~32

RAID 5迁移到RAID 0

3~32

3~32

RAID 5迁移到RAID 6

3~32

4~32

RAID 6迁移到RAID 0

4~32

4~32

RAID 6迁移到RAID 5

4~32

4~32

 

16.2.7 初始化

VD初始化

创建VD(Virtual Drive)后,需要初始化VD,使其可以被操作系统使用,且使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。9560-8i提供了多种相应的初始化方式:

l     前台初始化

     快速初始化:属于前台初始化,Firmware只要把Virtual Drive的前100MByte空间进行全写0操作,就可以完成初始化。整个过程中,VD的状态始终为“Optimal”。

     慢速初始化:属于前台初始化,Firmware需要把整个VD都初始化为0,才会结束初始化过程。整个过程中,VD的状态始终为“Optimal”。

l     后台初始化:目的是使具有冗余功能的VD中各成员盘的数据关系满足相应的RAID级别要求。

     对于RAID 1/RAID 10:如果主从成员盘之间的数据不一致,后台初始化时会把主盘数据拷贝至从盘,覆盖从盘原有数据。

     对于RAID 5/RAID 6/RAID 50/RAID 60:后台初始化时会读取各个成员盘中的数据并做奇偶运算,如果运算结果和校验盘中的数据不一致,则用新生成的数据覆盖校验盘中原数据。

说明

一致性校验(CC)和后台初始化通常会对性能造成一定损失,直至该操作完成。

一致性校验和后台初始化均执行纠正奇偶校验错误的相似功能。但是,一致性校验会记录不一致数据区域,且可以进行修复,而后台初始化则不能。可以手动启动一致性校验,但不能手动启动后台初始化。

硬盘初始化

硬盘可执行的初始化包括:

l     Initialize Drive:对前100MByte空间进行全写0操作。

l     Drive Erase:对全部空间进行写0操作。

16.2.8 可用容量扩展

9560-8i支持的容量扩展方式有两种:

l     通过增加硬盘方式扩容:在已存在的RAID组中添加新硬盘,扩大RAID组容量。

详细操作方法可参考16.4.3 添加新硬盘到RAID。

l     通过增加可用空间方式扩容:在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

详细操作方法可参考16.4.4 扩展Virtual Drives可用空间。

说明

l     只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。

l     RAID10、RAID 50、RAID 60不支持增加硬盘扩容。

l     当单个RAID组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。

16.2.9 安全数据擦除

安全擦除即使用安全擦除工具将硬盘上的数据彻底删除,使其无法恢复。RAID控制卡提供了三种级别的虚拟磁盘和硬盘的安全擦除功能:

l     Simple:仅对虚拟磁盘或硬盘进行一轮擦除动作。

l     Normal:对虚拟磁盘或硬盘进行三轮擦除动作。

l     Thorough:对虚拟磁盘或硬盘进行九轮擦除动作。

安全数据擦除过程中,主机无法访问该虚拟磁盘或硬盘。

9560-8i支持安全擦除硬盘数据和安全擦除虚拟磁盘数据。

16.2.10 写洞保护(Write hole

系统故障时(异常掉电等),导致写未完成(非写失败场景),分条内一些分条单元的数据进入了不确定状态,特别的是一些分条的校验单元也进入了不确定状态。当分条处于该状态下,后续的分条写前计算就会出现错误。这种情况,称之为写洞。

将写失败的数据备份在掉电保护区,在适当的时机进行重写,从而解决写洞问题。主要的保护场景:

l     对于RAID 5、RAID 6、RAID 50,Write hole数据都保存在掉电保护区,不需要开关控制。

     掉电保护装置可用时,Write hole数据异常掉电重启后会进入恢复流程。

     掉电保护装置不可用时,记录在掉电保护区的Write hole数据异常掉电后丢失,不做Write hole恢复。

l     RAID 6掉线一块盘时可做写洞保护。

l     RAID 50部分降级时可做写洞保护,按子组恢复数据。RAID 50完全降级时不可做写洞保护。

l     不对RAID 0、RAID 1和RAID 10做写洞保护。

16.2.11 读写高速缓存

9560-8i支持数据Cache读写,极大提高了数据读写性能,主要体现在如下读写策略上:

l     Read:读策略选择“Read Ahead”模式,9560-8i在读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,提升了数据读速度。

l     Write:写策略选择“Write Back”模式,Cache收到HOST发送的数据时,9560-8i就向HOST发出数据传输完成的信号。

在写数据时,直接写入Cache,当写入的数据积累到一定程度,9560-8i才将数据刷新到硬盘,这样不但实现了批量写入,而且Cache作为快速读写设备,其本身的读写速度都远高于硬盘,因此采用Cache后,整个设备的写数据速度得到提高。

16.2.12 数据掉电保护

数据写入RAID控制卡高速缓存的速度大于数据写入硬盘的速度,一次在服务器进行大量写操作时,都使用RAID控制卡高速缓存来提升系统性能。

l     开启RAID控制卡高速缓存可提升整机写性能,当服务器写压力减小或RAID控制卡高速缓存将写满时,数据再由RAID控制卡高速缓存写入硬盘。

l     开启RAID控制卡高速缓存提升写性能的同时,也增大了数据丢失的风险,在整机意外掉电时,RAID控制卡高速缓存中的数据将会丢失。

为了提升整机的高读写性能和RAID控制卡高速缓存中数据的安全,可为9560-8i配置超级电容。

超级电容保护模块的原理是在发生系统意外掉电时,利用其超级电容供电,将RAID控制卡高速缓存中的数据写入超级电容模块中的NAND Flash中。

说明

9560-8i分为支持配置超级电容与不支持配置超级电容两种形态,只有支持配置超级电容的RAID控制卡可以启用数据掉电保护功能。

超级电容电量校准

由于数据保护需要超级电容的配合,为了记录超级电容的放电曲线,以便RAID控制卡了解超级电容的状态,例如最大和最小电压等,同时为了延长超级电容的寿命,RAID控制卡默认启动超级电容自动校准模式。

RAID控制卡通过如下所述的三段式充放电操作对超级电容的电量进行校准,使其保持在一个相对稳定的值。

1.     RAID控制卡将超级电容的电量充到最大值。

2.     自动启动校准进程,将超级电容完全放电。

3.     重新开始充电,直至达到最大电量。

超级电容电量校准过程中,RAID控制卡写策略自动调整为“Write Through”模式以保证数据完整性,此时RAID控制卡性能会降低。电量校准的时间取决于超级电容充放电速度。

16.2.13 硬盘巡检

硬盘巡检功能设计为预防性措施,用于确保物理硬盘正常运行和数据完整性。巡检读取可以扫描并解决已配置的物理硬盘上的潜在问题。

硬盘巡检根据未完成的硬盘I/O调整专用于硬盘巡检操作的资源量。例如,如果系统正忙于处理I/O操作,则硬盘巡检将使用较少的资源,以使I/O获得更高的优先级。

硬盘巡检不能在参与以下任何操作的任何硬盘上运行:

l     RAID热备修复

l     动态扩盘

l     完全初始化或后台初始化

l     一致性校验(CC)

16.2.14 自动S.M.A.R.T扫描

S.M.A.R.T(Self-Monitoring Analysis and Report Technology)即自动检测分析及报告技术,可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免服务器数据受到损失。

RAID控制卡支持周期性对其管理的硬盘进行S.M.A.R.T扫描,默认300s。当扫描到硬盘有SMART error时,RAID控制卡便会记录日志。

16.2.15 硬盘节能

RAID控制卡具备硬盘省电功能。此功能根据硬盘配置和I/O活动允许硬盘停转。所有SAS和SATA机械硬盘均支持此功能。

默认情况下,硬盘节能功能处于开启状态。

当硬盘节能功能开启且在指定时间内没有I/O访问时,RAID控制卡下挂载的“Uncongfigured Good”状态的硬盘和空闲热备盘均处于节能状态。当有相关操作(例如创建RAID,创建热备盘,动态扩盘,进行热备重构)时可唤醒正处于节能状态的硬盘。

16.2.16 磁盘漫游

硬盘漫游是指在同一RAID控制器下移动物理硬盘。RAID控制器将自动识别重新定位的物理硬盘,并从逻辑上将其置于属于硬盘组一部分的虚拟磁盘中。仅当系统关闭时才能执行硬盘漫游。

要使用硬盘漫游,按以下步骤操作:

1.     关闭操作系统。

2.     将服务器下电。

3.     将物理硬盘移动到背板上所需的硬盘槽位。

4.     执行安全检查。确保正确插入物理硬盘。

5.     将服务器上电。

6.     RAID控制器从物理硬盘上的配置数据中检测到RAID配置。

16.2.17 导入外部配置

如果RAID控制卡检测到物理硬盘包含RAID配置信息,则会将该物理硬盘标记为“Foreign”,表明检测到外部硬盘。

此时,可执行导入操作将该外部配置在当前RAID控制卡环境中生效,实现配置迁移。

16.2.18 硬盘故障记录

9560-8i提供硬盘故障记录功能:

l     使能该功能时,当RAID组降级或硬盘故障时,服务器管理软件能够接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Bad”状态,在把硬盘状态转换成“Unconfigured Good”后,用户可以自行决定清除或导入外部数据。

l     禁用该功能时,当RAID组降级或硬盘故障时,服务器管理软件不会接收到相关告警。且新插入的带有RAID数据的硬盘会显示为“Unconfigured Good”,9560-8i会自动根据当前RAID组的实际需要对新插入的硬盘进行处理(例如RAID重构或数据回拷),此时可能会覆盖新硬盘上原有的数据。

维持硬盘故障记录功能还会影响硬盘Fault指示灯的点灯状态。

l     使能该功能后,当硬盘故障时,会点亮Fault指示灯。

l     禁用该功能后,当硬盘故障时,不会点亮Fault指示灯。

默认情况下,9560-8i使能该功能,可通过“Advanced Controller Properties”界面设置使能状态。

16.2.19 一致性校验

针对有冗余功能的RAID 1、5、6、10、50、60,RAID控制卡可以对RAID组的硬盘数据进行一致性校验,对硬盘数据进行检验和计算,并与对应的冗余数据进行比较。如果发现有数据不一致的情况,会尝试做自动修复并保存错误信息。

由于RAID 0不具备冗余性,因此不支持一致性校验。

说明

建议每月至少进行一次一致性校验。

16.3 初始配置

文档中描述的关于9560-8i的所有配置,都需要重启服务器进入BIOS配置界面进行操作。若需要在操作系统运行过程中监测RAID状态、获取配置信息,可在操作系统下使用“StorCLI”命令行工具。

16.3.1 登录管理界面

对系统的影响

进入BIOS配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     将服务器上电或重启服务器。

                                步骤 2     在服务器硬件自检过程中,当出现如图16-3所示界面时,按“Delete”,进入输入密码界面。

图16-3 BIOS启动界面

 

                                步骤 3     输入密码,并按“Enter”。

进入如图16-4所示界面。

图16-4 Set Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如图16-5所示。

图16-5 Advanced页签

 

                                步骤 5     按“↓”选择“BROADCOM <MegaRAID SAS9560-8i 4GB> Configuration Utility”,按“Enter”。

进入如图16-6图16-7所示主界面,界面参数如表16-4所示。

图16-6 9560-8i主界面(1)

 

图16-7 9560-8i主界面(2)

 

表16-4 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

当存在外部配置时才会显示该参数。

Configure

提供创建RAID组,快速创建RAID组,查看硬盘组属性,清除当前所有RAID配置,管理外部配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

Silence Alarm

板载蜂鸣器的使能状态。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

16.3.2 创建RAID 0

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。

l     9560-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各服务器兼容的硬盘信息请咨询技术支持。

l     各RAID级别所需的硬盘数请参见16.2.1 支持RAID 0/1/5/6/10/50/60。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见16.3.1 登录管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Configuration Management”,并按“Enter”。

3.     选择“Create Virtual Drive”,并按“Enter”。

打开RAID配置界面,如图16-8图16-9所示,参数说明如表16-5所示。

图16-8 Create Virtual Drive(1)

 

图16-9 Create Virtual Drive(2)

 

表16-5 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照16.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

l     Yes:使能后台初始化功能

l     No:禁用后台初始化功能

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID组级别。

1.     通过“↑”、“↓”选择“Select RAID Level”,并按“Enter”。

2.     在打开的列表中选择要配置的RAID组级别“RAID0”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”,并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”,并按“Enter”。

打开添加成员盘的界面,如图16-10所示,界面参数如表16-6所示。

图16-10 添加成员盘

 

表16-6 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

说明

l     RAID0支持的硬盘个数为1~32。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

5.     按表16-6所述配置过滤条件。

6.     选择“Apply Changes”,并按“Enter”。

提示The operation has been performed successfully。

7.     选择“OK”,并按“Enter”返回上级界面。

                                步骤 4     按照表16-5所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照16.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”,并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”,并按“Enter”。

3.     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”,并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“Esc”返回“Main Menu”界面。

2.     选择“Virtual Drive Management”,并按“Enter”。

显示当前存在的RAID组信息。

----结束

16.3.3 创建RAID 1

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。

l     9560-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各服务器兼容的硬盘信息请咨询技术支持。

l     各RAID级别所需的硬盘数请参见16.2.1 支持RAID 0/1/5/6/10/50/60。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见16.3.1 登录管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Configuration Management”,并按“Enter”。

3.     选择“Create Virtual Drive”,并按“Enter”。

打开RAID组配置界面,如图16-11图16-12所示,参数说明如表16-7所示。

图16-11 Create Virtual Drive(1)

 

图16-12 Create Virtual Drive(2)

 

表16-7 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照16.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

l     Yes:使能后台初始化功能

l     No:禁用后台初始化功能

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID组级别。

1.     通过“↑”、“↓”选择“Select RAID Level”,并按“Enter”。

2.     在打开的列表中选择要配置的RAID级别“RAID1”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”,并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”,并按“Enter”。

打开添加成员盘的界面,如图16-13所示,界面参数如表16-8所示。

图16-13 添加成员盘

 

表16-8 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

说明

l     RAID1支持的硬盘个数为2~32(偶数)。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

5.     按表16-8所述配置过滤条件。

6.     选择“Apply Changes”,并按“Enter”。

提示The operation has been performed successfully。

7.     选择“OK”,并按“Enter”完成成员盘配置。

                                步骤 4     按照表16-7所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照16.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”,并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”,并按“Enter”。

3.     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”,并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“Esc”返回“Main Menu”界面。

2.     选择“Virtual Drive Management”,并按“Enter”。

显示当前存在的RAID信息。

----结束

16.3.4 创建RAID 5

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。

l     9560-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各服务器兼容的硬盘信息请咨询技术支持。

l     各RAID级别所需的硬盘数请参见16.2.1 支持RAID 0/1/5/6/10/50/60。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见16.3.1 登录管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Configuration Management”,并按“Enter”。

3.     选择“Create Virtual Drive”,并按“Enter”。

打开RAID组配置界面,如图16-14图16-15所示,参数说明如表16-9所示。

图16-14 Create Virtual Drive(1)

 

图16-15 Create Virtual Drive(2)

 

表16-9 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照16.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

l     Yes:使能后台初始化功能

l     No:禁用后台初始化功能

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID组级别。

1.     通过“↑”、“↓”选择“Select RAID Level”,并按“Enter”。

2.     在打开的列表中选择要配置的RAID组级别“RAID5”,并按“Enter”。

                                步骤 3     添加成员盘。

1.     通过“↑”、“↓”选择“Select Drives From”,并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”,并按“Enter”。

打开添加成员盘的界面,如图16-16所示,界面参数如表16-10所示。

图16-16 添加成员盘

 

表16-10 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

说明

l     RAID5支持的硬盘个数为3~32。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

5.     按表16-10所述配置过滤条件。

6.     选择“Apply Changes”,并按“Enter”。

提示The operation has been performed successfully。

7.     选择“OK”,并按“Enter”完成成员盘配置。

                                步骤 4     按照表16-9所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照16.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”,并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”,并按“Enter”。

3.     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”,并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按两次“Esc”返回“Main Menu”界面。

2.     选择“Virtual Drive Management”,并按“Enter”。

显示当前存在的RAID信息。

----结束

16.3.5 创建RAID 6

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。

l     9560-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各服务器兼容的硬盘信息请咨询技术支持。

l     各RAID级别所需的硬盘数请参见16.2.1 支持RAID 0/1/5/6/10/50/60。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见16.3.1 登录管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Configuration Management”,并按“Enter”。

3.     选择“Create Virtual Drive”,并按“Enter”。

打开RAID组配置界面,如图16-17图16-18所示,参数说明如表16-11所示。

图16-17 Create Virtual Drive(1)

 

图16-18 Create Virtual Drive(2)

 

表16-11 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间。

Select Drives

选择成员盘。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照16.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

l     Yes:使能后台初始化功能

l     No:禁用后台初始化功能

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID组级别。

1.     通过“↑”、“↓”选择“Select RAID Level”,并按“Enter”。

2.     在打开的列表中选择要配置的RAID组级别“RAID6”,并按“Enter”。

                                步骤 3     添加成员盘

1.     通过“↑”、“↓”选择“Select Drives From”,并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”,并按“Enter”。

打开添加成员盘的界面,如图16-19所示,界面参数如表16-12所示。

图16-19 添加成员盘

 

表16-12 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

说明

l     RAID6支持的硬盘个数为4~32。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

5.     按表16-12所述配置过滤条件。

6.     选择“Apply Changes”,并按“Enter”。

提示The operation has been performed successfully。

7.     选择“OK”,并按“Enter”完成成员盘配置。

                                步骤 4     按照表16-11所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照16.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 5     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”,并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”,并按“Enter”。

3.     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”,并按“Enter”完成配置。

                                步骤 6     检查配置结果。

1.     按“Esc”返回上级界面。

2.     选择“Virtual Drive Management”,并按“Enter”。

显示当前存在的RAID信息。

----结束

16.3.6 创建RAID 10

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。

l     9560-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各服务器兼容的硬盘信息请咨询技术支持。

l     各RAID级别所需的硬盘数请参见16.2.1 支持RAID 0/1/5/6/10/50/60。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见16.3.1 登录管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Configuration Management”,并按“Enter”。

3.     选择“Create Virtual Drive”,并按“Enter”。

打开RAID组配置界面,如图16-20图16-21所示,参数说明如表16-13所示。

图16-20 Create Virtual Drive(1)

 

图16-21 Create Virtual Drive(2)

 

表16-13 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间。

Span 0:

第一个Span。

Select Drives

选择成员盘。

Add More Spans

添加更多Span。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照16.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID组级别。

1.     通过“↑”、“↓”选择“Select RAID Level”,并按“Enter”。

2.     在打开的列表中选择要配置的RAID组级别“RAID10”,并按“Enter”。

                                步骤 3     创建第1个Span。

1.     通过“↑”、“↓”选择“Select Drives From”,并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”,并按“Enter”。

打开添加成员盘的界面,如图16-22所示,界面参数如表16-14所示。

图16-22 添加成员盘

 

表16-14 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     按表16-14所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

说明

l     RAID10支持2~8个Span,每个Span支持的硬盘数为2~32(偶数),且各个Span的硬盘数量必须保持一致。

l     RAID10支持的硬盘总数为4~240(偶数)。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

7.     单击“OK”完成成员盘配置。

                                步骤 4     创建第2个Span。

当配置的级别为RAID 10时,需要配置多个Span,此时配置界面如图16-23所示。

图16-23 RAID 10的配置界面

 

1.     选择“Add More Spans”,并按“Enter”。

2.     选择“Select Drives”,并按“Enter”。

3.     在打开的列表中选择第2个Span的成员盘。

说明

各个Span的硬盘数量必须保持一致。

4.     选择完成后,选择“Apply Changes”并“Enter”。

提示The operation has been performed successfully。

5.     选择“OK”,并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。

说明

RAID10至少需要创建2个Span,最多可以创建8个Span。

                                步骤 6     按照表16-13所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照16.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 7     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”,并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”,并按“Enter”。

3.     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”,并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“Esc”返回“Main Menu”界面。

2.     选择“Virtual Drive Management”,并按“Enter”。

显示当前存在的RAID信息。

----结束

16.3.7 创建RAID 50

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。

l     9560-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各服务器兼容的硬盘信息请咨询技术支持。

l     各RAID级别所需的硬盘数请参见16.2.1 支持RAID 0/1/5/6/10/50/60。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见16.3.1 登录管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Configuration Management”,并按“Enter”。

3.     选择“Create Virtual Drive”,并按“Enter”。

打开RAID组配置界面,如图16-24图16-25所示,参数说明如表16-15所示。

图16-24 Create Virtual Drive(1)

 

图16-25 Create Virtual Drive(2)

 

表16-15 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间。

Span 0:

第一个Span。

Select Drives

选择成员盘。

Add More Spans

添加更多Span。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照16.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID组级别。

1.     通过“↑”、“↓”选择“Select RAID Level”,并按“Enter”。

2.     在打开的列表中选择要配置的RAID组级别“RAID 50”,并按“Enter”。

                                步骤 3     创建第1个Span。

1.     通过“↑”、“↓”选择“Select Drives From”,并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”,并按“Enter”。

打开添加成员盘的界面,如图16-26所示,界面参数如表16-16所示。

图16-26 添加成员盘

 

表16-16 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     按表16-16所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

说明

l     RAID 50支持2~8个Span,每个Span支持的硬盘数为3~32,各个Span的硬盘数量必须保持一致。

l     RAID 50支持的硬盘总数为6~240。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully。

7.     选择“OK”,并按“Enter”完成成员盘配置。

                                步骤 4     创建第2个Span。

当配置的级别为RAID 50时,需要配置多个Span,此时配置界面如图16-27所示。

图16-27 RAID 50的配置界面

 

1.     选择“Add More Spans”,并按“Enter”。

2.     选择“Select Drives”,并按“Enter”。

3.     在打开的列表中选择第2个Span的成员盘。

说明

各个Span的硬盘数量必须保持一致。

4.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully。

5.     选择“OK”,并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。

说明

RAID50至少需要创建2个Span,最多可以创建8个Span。

                                步骤 6     按照表16-15所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照16.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 7     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”,并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”,并按“Enter”。

3.     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”,并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“Esc”返回“Main Menu”界面。

2.     选择“Virtual Drive Management”,并按“Enter”。

显示当前存在的RAID信息。

----结束

16.3.8 创建RAID 60

操作场景

 

注意

l     加入到RAID组的硬盘数据将会被清除,创建RAID组前请确认硬盘中无数据或数据不需要保留。

l     9560-8i支持的硬盘类型为SAS/SATA HDD和SAS/SATA SSD,同一RAID组必须使用同类型的硬盘,但可以使用不同容量或不同厂商的硬盘。

l     硬盘需为服务器兼容的硬盘,各服务器兼容的硬盘信息请咨询技术支持。

l     各RAID级别所需的硬盘数请参见16.2.1 支持RAID 0/1/5/6/10/50/60。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见16.3.1 登录管理界面。

                                步骤 1     进入“Create Virtual Drive”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Configuration Management”,并按“Enter”。

3.     选择“Create Virtual Drive”,并按“Enter”。

打开RAID配置界面,如图16-28图16-29所示,参数说明如表16-17所示。

图16-28 Create Virtual Drive(1)

 

图16-29 Create Virtual Drive(2)

 

表16-17 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间。

Span 0:

第一个Span。

Select Drives

选择成员盘。

Add More Spans

添加更多Span。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照16.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 2     选择RAID组级别。

1.     通过“↑”、“↓”选择“Select RAID Level”,并按“Enter”。

2.     在打开的列表中选择要配置的RAID组级别“RAID 60”,并按“Enter”。

                                步骤 3     创建第1个Span。

1.     通过“↑”、“↓”选择“Select Drives From”,并按“Enter”。

2.     在打开的列表中选择成员盘来源,并按“Enter”。

下面以“Unconfigured Capacity”为例说明配置过程。

3.     通过“↑”、“↓”选择“Select Drives”,并按“Enter”。

打开添加成员盘的界面,如图16-30所示,界面参数如表16-18所示。

图16-30 添加成员盘

 

表16-18 参数说明

参数

说明

Select Media Type

硬盘介质类型。

Select Interface Type

硬盘接口类型。

Logical Sector Size

分区大小。

Check All

选中所有硬盘。

Uncheck All

取消所有选中的硬盘。

Apply Changes

保存配置。

 

4.     按表16-18所述配置过滤条件。

5.     在下方的硬盘列表中通过“↑”、“↓”选择要加入的成员盘,并按“Enter”。

说明

l     RAID 60支持2~8个Span,每个Span支持的硬盘数为4~32,且各个Span的硬盘数量必须保持一致。

l     RAID 60支持的硬盘总数为8~240。

l     当RAID控制卡下面所有RAID组中的硬盘总数超过240时,硬盘无法加入RAID组。

6.     选择“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully。

7.     选择“OK”,并按“Enter”完成成员盘配置。

                                步骤 4     创建第2个Span。

当配置的级别为RAID 60时,需要配置多个Span。

1.     选择“Add More Spans”,并按“Enter”。

2.     选择“Select Drives”,并按“Enter”。

3.     在打开的列表中选择第2个Span的成员盘。

说明

各个Span的硬盘数量必须保持一致。

4.     选择完成后,将光标移至“Apply Changes”按“Enter”保存配置。

提示The operation has been performed successfully。

5.     选择“OK”,并按“Enter”完成成员盘配置。

                                步骤 5     根据业务需要重复步骤5,使用其他空闲硬盘创建多个Span。

                                步骤 6     按照表16-17所述配置虚拟磁盘的其他属性。

说明

如果需要创建多个VD,“Virtual Drive Size”参数请按实际要求设置,创建第一个VD后,再参照16.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

                                步骤 7     保存配置。

1.     通过“↑”、“↓”选择“Save Configuration”,并按“Enter”。

显示操作确认界面。

2.     选择“Confirm”,并按“Enter”。

3.     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully。

4.     选择“OK”,并按“Enter”完成配置。

                                步骤 8     检查配置结果。

1.     按两次“Esc”返回“Main Menu”界面。

2.     选择“Virtual Drive Management”,并按“Enter”。

显示当前存在的RAID信息。

----结束

16.3.9 设置启动项

同一台服务器配置了单个9560-8i卡或者多种芯片硬盘控制器的情况下,EFI/UEFI模式下的硬盘启动项需要在BIOS中进行设置。

设置启动项的操作方法请参见BIOS 参数参考的“设置启动设备”章节。

16.4 常用配置

16.4.1 管理热备盘

对服务器的硬盘进行RAID分组后,可以配置热备盘来提高安全性,降低硬盘故障对系统业务的影响。

9560-8i支持2种类型的热备盘:

l     Global Hotspare:即全局热备盘,为RAID控制卡上所有已配置的RAID组所共有,1块RAID控制卡中可配置1个或多个全局热备盘。当任意RAID组内的与热备盘同类型的硬盘故障时,全局热备盘均可自动替代。

l     Dedicated Hotspare:即局部热备盘,为RAID控制卡上某个指定的RAID组所专有,每个RAID组都可以配置1个或多个局部热备盘。当指定RAID组内的与热备盘同类型的硬盘故障时,局部热备盘可自动替换。

说明

l     机械盘与固态盘不能互相作为热备盘。

l     机械盘分为SAS和SATA两种接口的硬盘,其中当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘,当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

l     空闲硬盘可配置为热备盘,已加入RAID组的硬盘不能配置为热备盘。

l     热备盘必须和RAID组成员盘类型相同,且容量不小于RAID组成员盘最大容量。

l     除RAID 0外,其他类型的RAID组均支持热备盘。

l     全局热备盘和局部热备盘之间不能直接转换,需要先将硬盘恢复为空闲状态,再重新按需设置为全局热备盘或局部热备盘。

16.4.1.1 配置全局热备盘

操作步骤

登录管理界面。具体操作方法请参见16.3.1 登录管理界面。

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Drive Management”,并按“Enter”。

3.     选定要操作的硬盘,并按“Enter”进入详细操作界面,如图16-31所示。

图16-31 Drive Management

 

                                步骤 2     配置全局热备盘。

1.     将“Operation”设置为“Assign Global Hot Spare Drive”。

2.     选择“Go”,并按“Enter”。

显示The operation has been performed successfully。

3.     按“Esc”完成配置并返回上级界面。

----结束

16.4.1.2 配置局部热备盘

操作步骤

说明

当RAID组的成员盘为SAS盘时,支持SATA盘作为局部热备盘;当成员盘为SATA盘时,不支持SAS盘作为局部热备盘。

登录管理界面。具体操作方法请参见16.3.1 登录管理界面。

                                步骤 1     进入“Drive Management”界面

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Drive Management”,并按“Enter”。

3.     选定要操作的硬盘,并按“Enter”进入详细操作界面,如图16-32所示。

图16-32 Drive Management

 

                                步骤 2     配置局部热备盘。

1.     将“Operation”设置为“Assign Dedicated Hot Spare Drive”。

2.     选择“Go”,并按“Enter”。

打开当前存在的虚拟磁盘列表,如图16-33所示。

图16-33 虚拟磁盘列表

 

3.     选择要关联的虚拟磁盘,并按“Enter”。

4.     选择“OK”按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”,并按“Enter”完成配置并返回上级界面。

----结束

16.4.1.3 删除热备盘

操作场景

当环境中硬盘个数不满足需求时,可将当前存在的热备盘删除,使其恢复为普通硬盘。

操作步骤

登录管理界面。具体操作方法请参见16.3.1 登录管理界面。

                                步骤 1     进入“Drive Management”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Drive Management”,并按“Enter”。

3.     选定要操作的硬盘,并按“Enter”进入详细操作界面,如图16-34所示。

图16-34 Drive Management

 

                                步骤 2     删除热备盘。

1.     将“Operation”设置为“Unassign Hot Spare Drive”。

2.     选择“Go”,并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”,并按“Enter”。

4.     选择“Yes”,并按“Enter”。

显示The operation has been performed successfully。

5.     按“Esc”完成配置并返回上级界面。

----结束

16.4.2 设置紧急热备功能

操作步骤

登录管理界面。具体操作方法请参见16.3.1 登录管理界面。

                                步骤 1     进入“Advanced Controller Properties”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Controller Management”,并按“Enter”。

3.     选择“Advanced Controller Properties”,并按“Enter”。

进入“Advanced Controller Properties”界面,如图16-35所示。

图16-35 Advanced Controller Properties

 

                                步骤 2     设置紧急热备。

1.     选择“Spare”,并按“Enter”。

2.     将“Emergency Spare”设置为“Unconfigured Good and Global Hotspare”,如图16-36所示。

图16-36 Spare

 

3.     选择“Apply Changes”,并按“Enter”。

显示The operation has been performed successfully。

4.     选择“OK”,并按“Enter”,完成配置。

----结束

16.4.3 添加新硬盘到RAID

操作场景

 

注意

l     只有RAID 0、RAID 1、RAID 5、RAID 6支持增加硬盘扩容。

l     RAID10、RAID 50、RAID 60不支持增加硬盘扩容。

l     当硬盘组中包含了2个或2个以上的VD时,无法通过添加新硬盘扩容。

l     RAID控制卡不支持同时对两个RAID及以上的RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     添加硬盘扩容之前,请确认服务器存在未加入RAID组且状态为“Unconfigured Good”的硬盘。

增加硬盘扩容过程中,如果出现硬盘故障,会导致:

l     若出现故障盘后,RAID组中已无冗余数据(例如RAID 0扩容过程中出现1个故障盘),则RAID组失效。

l     若出现故障盘后,RAID组中仍存在冗余数据(例如RAID 1扩容过程中出现1个故障盘),则扩容操作会继续进行。需要等待扩容完成后,重新更换新硬盘并手动重构RAID组。

请谨慎执行增加硬盘扩容操作。

操作步骤

登录管理界面。具体操作方法请参见16.3.1 登录管理界面。

                                步骤 1     进入“Virtual Drive Management”界面

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”。

进入虚拟磁盘选项界面,如图16-37所示。

图16-37 虚拟磁盘选项界面

 

                                步骤 2     添加新硬盘。

1.     选择要进行扩容的RAID组,并按“Enter”。

2.     选中“Operation”,并按“Enter”。

打开操作选项页面,如图16-38所示。

图16-38 Options

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”

4.     选择“Go”,并按“Enter”。

5.     选择要扩容的RAID组级别。

 

注意

增加硬盘扩容时,请保证该处的RAID组级别与原级别一致。

6.     选择“Choose the Operation”,并按“Enter”。

进入硬盘选择界面,如图16-39所示。

图16-39 Choose the Operation

 

7.     选择要增加的硬盘,并按“Apply Changes”。

进入确认操作界面。

说明

l     增加的硬盘要与RAID组的成员盘同类型,且容量不能小于RAID组的最小容量的硬盘。

l     添加硬盘进行扩容时,RAID1每次需要增加2块硬盘,RAID 0、RAID 5、RAID 6每次只能增加1块硬盘。

l     RAID控制卡不支持同时对两个及以上的RAID组进行扩容操作。

8.     选择“Confirm”,并按“Enter”。

9.     选择“Yes”,并按“Enter”。

显示The operation has been performed successfully。

10.     选择“OK”,并按“Enter”。

返回到如图16-40所示界面。

图16-40 选择操作

 

11.     选择“Start Operation”,并按“Enter”。

显示操作成功。

12.     返回虚拟磁盘选项界面,验证扩容结果。

选择对应的RAID组按“Enter”。查看当前扩盘进度。如图16-41所示。

图16-41 查看扩盘进度

 

----结束

16.4.4 扩展Virtual Drives可用空间

操作场景

在Virtual Drives未占用成员硬盘全部容量时,可通过调整Virtual Drives的可用空间,扩大Virtual Drives容量。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见16.3.1 登录管理界面。

                                步骤 1     进入要操作的虚拟磁盘界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Virtual Drive Management”,并按“Enter”。

3.     选择要操作的虚拟磁盘,并按“Enter”。

显示虚拟磁盘基本信息,如图16-42所示。

图16-42 Virtual Drive Management

 

                                步骤 2     扩容虚拟磁盘。

1.     将“Operation”设置为“Expand Virtual Drive”。

2.     选择“Go”,并按“Enter”。

进入虚拟磁盘扩容界面,如图16-43界面所示,界面参数如表16-19所示。

图16-43 Expand Virtual Drive

 

表16-19 参数说明

参数

参数说明

Current Capacity

虚拟磁盘当前容量。

Available Capacity

可用于扩展的容量。

Enter a Percentage of Available Capacity

输入扩容比例。

Capacity of Virtual Drive after Expansion

扩容后虚拟磁盘容量。

 

3.     设置扩容百分比。

4.     选择“OK”,并按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”,并按“Enter”完成配置并返回上级界面。

6.     返回虚拟磁盘选项界面,选择对应的RAID组并按“Enter“。

验证扩容进度,如图16-44所示。

图16-44 查看扩容进度

 

----结束

16.4.5 迁移RAID级别

操作场景

随着系统中数据和硬盘数量的增长,RAID控制卡支持用户将虚拟磁盘的RAID级别从当前的级别迁移到其他RAID级别。

在虚拟磁盘迁移过程中,用户可以保持原有物理硬盘数量不变或者增加物理硬盘配置。用户可以通过WebBIOS对已经存在的虚拟磁盘进行RAID组迁移操作。

9560-8i支持以下级别类型的迁移:

l     RAID 0迁移到RAID 1、RAID 5、RAID 6

l     RAID 1迁移到RAID 0、RAID 5、RAID 6

l     RAID 5迁移到RAID 0、RAID 6

l     RAID 6迁移到RAID 0、RAID 5

RAID组迁移对硬盘数量的要求如表16-3所示。

说明

l     当RAID组中包含了2个或2个以上的VD时,不支持RAID级别迁移。

l     RAID控制卡不支持同时对两个RAID组进行重新配置(即“Reconfigure Virtual Drives”操作,包括进行加盘扩容或迁移RAID级别),请在当前进程完成后再对下一个RAID组进行操作。

l     迁移只支持增加与RAID组成员盘同类型同规格的硬盘。

l     为防止数据丢失,请在该操作之前备份当前RAID组的数据。

l     只支持对“Optimal”状态的RAID组执行迁移RAID级别操作。

l     迁移RAID级别时,迁移后的RAID容量应不小于迁移前RAID容量。例如RAID 0迁移至RAID 1时,需增加硬盘,否则无法迁移。

RAID组级别迁移过程中,如果出现硬盘故障,可能会造成以下影响:

l     若出现故障盘后,RAID组中已无冗余数据(例如RAID 0迁移过程中出现1个故障盘),则RAID组失效。

l     若出现故障盘后,RAID组中仍存在冗余数据(例如RAID 1迁移过程中出现1个故障盘),则迁移操作会继续进行。需要等待迁移完成后,重新更换新硬盘并手动重构RAID组。

请谨慎执行RAID组级别迁移操作。

操作步骤

登录管理界面。具体操作方法请参见16.3.1 登录管理界面。

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     在管理界面中选择“Virtual Drive Management”,并按“Enter”。

进入虚拟磁盘选项界面,如图16-45所示。

图16-45 虚拟磁盘选项界面

 

                                步骤 2     选择RAID组迁移的目标级别。

下面以将RAID 0迁移到RAID 5为例进行说明。

1.     选择要进行迁移的RAID组,并按“Enter”。

2.     选中“Operation”,并按“Enter”。

打开操作选项页面,如图16-46所示。

图16-46 Options

 

3.     选择“Reconfigure Virtual Drives”,并按“Enter”。

4.     选择“Advanced...”,并按“Enter”可设置RAID组的其他属性,如图16-47图16-48所示。不设置时默认与原RAID组配置一致。

图16-47 Advanced...(1)

 

图16-48 Advanced...(2)

 

5.     选择“Go”,并按“Enter”。

进入RAID组配置界面,如图16-49所示。

图16-49 Reconfigure Virtual Drives

 

6.     选择“New RAID Level”,并按“Enter”。

打开RAID组迁移的目标级别选择窗口。

7.     选择“RAID 5”,并按“Enter”。

                                步骤 3     添加硬盘。

1.     选择“Choose the operation”,并按“Enter”。

打开硬盘选择窗口,如图16-50所示。

图16-50 选择硬盘

 

2.     选择要增加的硬盘,并按“Enter”。

说明

l     RAID组迁移对硬盘数量的要求请参见表16-3

l     增加的硬盘要与RAID组的成员盘同类型同规格。

3.     选择“Apply Changes”,并按“Enter”。

弹出操作确认会话框。

4.     选择“Confirm”,并按“Enter”。

5.     选择“Yes”,并按“Enter”。

提示操作成功。

6.     选择“OK”,并按“Enter”返回图16-49界面。

                                步骤 4     RAID组级别迁移。

1.     选择“Start Operation”,并按“Enter”。

提示操作成功。

                                步骤 5     查看迁移结果。

1.     进入Virtual Drive Management界面,选择对应的RAID组并按“Enter”。

检查迁移进度,如图16-51所示,表示RAID组正在进行迁移。

图16-51 查看迁移进度

 

说明

l     迁移过程中若重启服务器,该任务将在重启后继续进行。

l     迁移完成后,RAID组将自动进行后台初始化。后台初始化是RAID组的自校验过程,将不会导致用户的配置数据丢失。

2.     选择该虚拟磁盘,并按“Enter”,可查看迁移完成后的RAID组信息。当RAID组的级别由“RAID 1”变成“RAID 5”,RAID组容量增大,且“Status”状态显示为“Optimal”,表示RAID组迁移成功。

----结束

16.4.6 删除RAID

操作场景

 

注意

RAID组被删除后无法进行恢复,请谨慎执行删除RAID组操作。

操作步骤

备份硬盘数据,并登录管理界面。具体操作方法请参见16.3.1 登录管理界面。

                                步骤 1     进入“Virtual Drive Management”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Virtual Drive Management”,并按“Enter”。

3.     选择要操作的虚拟磁盘,并按“Enter”。

显示虚拟磁盘基本信息,如图16-52所示。

图16-52 Virtual Drive Management

 

                                步骤 2     删除虚拟磁盘。

1.     将“Operation”设置为“Delete Virtual Drive”。

2.     选择“Go”,并按“Enter”。

进入操作确认界面。

3.     选择“Confirm”,并按“Enter”。

4.     选择“OK”,并按“Enter”。

显示The operation has been performed successfully。

5.     选择“OK”,并按“Enter”完成配置并返回上级界面。

----结束

16.4.7 重构RAID

操作场景

介绍将带有外部配置的硬盘进行重构的操作方法,不带外部配置硬盘的重构方法请参见16.5.1 硬盘故障。

操作步骤

在“Main Menu”界面中选择“Drive Management”并按“Enter”。

                                步骤 1     选中要进行重构的硬盘,按“Enter”。

                                步骤 2     将“Operation”设置为“Make Unconfigured Good”。

                                步骤 3     选择“Go”并按“Enter”。

提示The operation has been performed successfully。

                                步骤 4     按“Enter”完成配置。

硬盘状态变为“(Foreign),Unconfigured Good”。

                                步骤 5     清除外部配置,具体操作请参见16.4.9 导入/清除外部配置。

RAID组开始进行重构。

----结束

说明

当出现硬盘离线且RAID组可用时,为避免RAID组数据不一致,不能直接将离线的成员盘“Make Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

16.4.8 查看RAID控制卡属性

操作场景

用户可以通过查看RAID控制卡属性的方式确定当前RAID控制卡是否符合实际需求。

操作步骤

登录管理界面。具体操作方法请参见16.3.1 登录管理界面。

                                步骤 1     进入“Controller Management”界面。

1.     在主界面中选择“Main Menu”,并按“Enter”。

2.     选择“Controller Management”,并按“Enter”。

显示RAID控制卡基本信息,如图16-53所示,参数说明如表16-20所示。

图16-53 Controller Management

 

表16-20 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Personality Mode

RAID控制卡的模式。

Select Boot Device

当前启动项。

PCI ID

RAID控制卡的PCI ID。

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

更多的控制器操作。

Advanced Controller Properties

查看和修改控制器的高级属性。

 

                                步骤 2     查看控制器高级属性。

选择“Advanced Controller Properties”,并按“Enter”。

进入控制器高级属性界面,如图16-54图16-55所示,参数说明如表16-21所示。

在该界面下,可查看并修改RAID控制卡的高级属性。

图16-54 Advanced Controller Properties (1)

 

图16-55 Advanced Controller Properties (2)

 

表16-21 参数说明

参数

说明

Cache and Memory

查看控制器Cache和Memory信息。

Patrol Read

系统巡检。

Power Save Settings

设置硬盘休眠。

Spare

设置控制器热备状态。

Task Rates

设置各种任务的处理速率。

External Key Management

管理外部密钥。

Alarm Control

板载蜂鸣器使能状态。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

硬盘容量压缩模式。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。

默认为“Pause on Errors”。

Controller BIOS

控制器BIOS的使能情况。

ROC Temperature (C)

控制器温度。

Shield State Supported

是否支持暂停IO,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad(Foreign),且不会自动执行Rebuild操作。

如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见16.4.9 导入/清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

Write Verify

写校验。暂不支持。

Drive Detection Type

随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制器属性。

可用选项为:

l     Disabled

l     High Latency

l     Aggressive

l     Default

Drive Corrective Action

随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致IO延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。

l     Disabled:禁用该功能

l     Enabled:开启该功能

Drive Error Threshold

通过该选项设置适当的控制器属性。

l     Every 8 hours

l     Every1 hours

l     Every 15 mins

l     Every 5 mins

Large IO Support

启用或禁用大型IO支持功能。

Unmap Capability

解除映射能力。

Apply Changes

保存配置。

 

----结束

16.4.9 导入/清除外部配置

操作场景

l     服务器更换RAID控制卡后,需要将原有配置导入新的RAID控制卡中。

l     新安装到服务器系统中的物理硬盘可能已经存在一个用户需要或者不需要的存储配置,可将该配置导入。

 

注意

l     如当前RAID控制卡已配置RAID组,在更换新RAID控制卡后,会将当前的RAID配置判定为“Foreign Configuration”。此时如果执行了清除外部配置操作,将会导致RAID组配置丢失。请谨慎操作!

l     为避免导入外部配置失败,更换的RAID控制卡的型号要与原来的RAID控制卡保持一致。

l     当硬盘故障或缺失的数量超过RAID组允许的最大数量时,RAID组无法正常导入。

导入外部配置

登录管理界面。具体操作方法请参见16.3.1 登录管理界面。

                                步骤 1     在主界面中选择“Main Menu”,并按“Enter”。

                                步骤 2     选择“Configuration Management”,并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”,并按“Enter”。

进入外部配置管理界面,如图16-56所示。

图16-56 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”,并按“Enter”。

显示当前存在的外部配置的详细信息,如图16-57所示。

图16-57 外部配置

 

                                步骤 5     选择“Import Foreign Configuration”,并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”,并按“Enter”。

                                步骤 7     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully。

                                步骤 8     按“Esc”完成配置返回上级界面。

----结束

清除外部配置

登录管理界面。具体操作方法请参见16.3.1 登录管理界面。

                                步骤 1     在主界面中选择“Main Menu”,并按“Enter”。

                                步骤 2     选择“Configuration Management”,并按“Enter”。

                                步骤 3     选择“Manage Foreign Configuration”,并按“Enter”。

进入外部配置管理界面,如图16-58所示。

图16-58 Manage Foreign Configuration

 

                                步骤 4     选择“Preview Foreign Configuration”,并按“Enter”。

显示当前存在的外部配置的详细信息,如图16-59所示。

图16-59 外部配置

 

                                步骤 5     选择“Clear Foreign Configuration”,并按“Enter”。

打开操作确认界面。

                                步骤 6     选择“Confirm”,并按“Enter”。

                                步骤 7     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully。

                                步骤 8     按“Esc”完成配置返回上级界面。

----结束

16.4.10 创建多个VD(Virtual Drive)

该场景为使用已存在一个或多个VD的RAID组的空闲容量创建多个VD,以RAID0存在一个VD为例,详细操作方法如下:

按照Main Menu > Configuration Management > Create Virtual Drive的路径进入“Create Virtual Drive”界面,如图16-60所示。

图16-60 “Create Virtual Drive”

 

                                步骤 2     将“Select Drives From”设置为“Free Capacity”,如图16-61所示。

图16-61 Create Virtual Drive

 

                                步骤 3     选择“Select Drive Groups”,并按“Enter”。

显示当前存在的RAID组(Drive Group),如图16-62所示。

图16-62 Select Drive Groups

 

                                步骤 4     选择要创建多个VD的RAID组,并按“Enter”,如图16-63所示。

图16-63 Select Drive Groups

 

                                步骤 5     选择“Apply Changes”,并按“Enter”。

提示操作成功。

                                步骤 6     选择“OK”,并按“Enter”返回VD配置界面,如图16-64图16-65所示,参数说明如表16-22所示。

图16-64 Create Virtual Drive(1)

 

图16-65 Create Virtual Drive(2)

 

表16-22 参数说明

参数

参数说明

Select RAID Level

选择RAID组级别。

Secure Virtual Drive

RAID组加密功能使能状态。

l     Enabled

l     Disabled

Unmap Capability

虚拟磁盘解映射功能使能状态。

l     Enabled

l     Disabled

Select Drives From

虚拟磁盘成员盘来源。

成员盘来源分为:

l     Unconfigured Capacity:未加入过虚拟磁盘的空闲硬盘。

l     Free Capacity:已存在的虚拟磁盘的剩余空间,创建多个VD时选择此选项。

Select Drive Group

选择虚拟磁盘组。

Virtual Drive Name

虚拟磁盘名称。

Virtual Drive Size

虚拟磁盘的容量,默认为当前状况下支持的最大容量。

说明

如果需要创建多个VD,需要按照实际需要设置容量创建第一个VD,然后参照16.4.10 创建多个VD(Virtual Drive)章节增加其他VD。

Virtual Drive Size Unit

容量单位。

Strip Size

虚拟磁盘条带大小,支持64KB、128KB、256KB、512KB、1MB等规格。

Read Policy

虚拟磁盘的读策略。可配置的策略包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。控制器可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

说明

一般情况下,对于HDD(机械硬盘),读策略设置为“Read Ahead”性能更优,对于SSD(固态硬盘),读策略设置为“No Read Ahead”性能更优。

Write Policy

虚拟磁盘的写策略。可配置的策略包括:

l     Write Back:当控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Write Through:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     Always Write Back:在RAID控制卡无电容或电容损坏的情况下,强制使用“Write Back”模式。

说明

l     “Always Write Back”模式下,当服务器出现异常下电时,如果电容不在位或在充电状态下,RAID控制卡中DDR(即Cache)的写数据将会丢失。不推荐使用该模式。

l     一般情况下,对于HDD(机械硬盘),写策略设置为“Write Back”性能更优,对于SSD(固态硬盘),写策略设置为“Write Through”性能更优。

I/O Policy

虚拟磁盘的I/O策略,应用于特殊的虚拟磁盘读取,不影响预读取Cache。

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

说明

不支持将虚拟磁盘的I/O策略设置为Cached。

Access Policy

数据读取的策略,分以下三种:

l     Read/Write:可读可写。

l     Read Only:只读访问。

l     Blocked:禁止访问。

Drive Cache

物理硬盘Cache策略(仅对有Cache的硬盘有效):

l     Unchanged:保持当前硬盘Cache策略。

l     Enable:读写过程中数据经过硬盘Cache,使读写性能提升。但当系统意外掉电时,如果没有保护机制,Cache中数据会丢失。

l     Disable:读写过程中数据不经过硬盘Cache。当系统意外掉电时,数据不会丢失。

Disable Background Initialization

使能或禁用后台初始化功能。

l     Yes:使能后台初始化功能

l     No:禁用后台初始化功能

Default Initialization

默认的初始化方式,包括:

l     No:不进行初始化。

l     Fast:快速初始化。

l     Full:完全初始化。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Save Configuration

保存当前配置。

 

                                步骤 7     按照表16-22所述配置VD的相关属性。

                                步骤 8     选择“Save Configuration”,并按“Enter”。

显示操作确认界面。

                                步骤 9     选择“Confirm”,并按“Enter”。

                             步骤 10     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully。

                             步骤 11     选择“OK”,并按“Enter”完成配置。

可进入Virtual Drive Management界面,查看当前存在的所有VD,如图16-66所示。

图16-66 Virtual Drive Management

 

----结束

说明

每个RAID组最多支持创建16个VD,如需要继续创建VD,请重复执行步骤1步骤11

16.4.11 查询RAID控制卡固件版本

查询RAID控制卡固件版本的方法有如下几种:

l     在iBMC Web界面查询,具体操作请参见iBMC用户指南的“系统信息”章节。

l     服务器启动完成后,在OS下通过RAID控制卡命令行工具进行查询,具体操作请参见16.5.2.1 查询RAID控制卡配置信息。

说明

回显信息中的“FW Version”字段即为RAID控制卡的固件版本。

l     在RAID控制卡管理界面进行查询,具体方法为:

a.     登录RAID控制卡的管理界面。具体操作方法请参见16.3.1 登录管理界面。

b.     在主界面中选择“Main Menu”,并按“Enter”。

进入“Main Menu”页面,如图16-67所示。

图16-67 Main Menu页面

 

c.     选择“Controller Management”,并按“Enter”。

显示RAID控制卡基本信息。界面中的“Firmware Version”即为RAID控制卡的固件版本,如图16-68所示。

图16-68 Controller Management界面

 

16.5 故障处理

介绍了硬盘故障、RAID控制卡故障、电池/电容故障的常用处理方法。

更多故障案例请联系技术支持获取。

16.5.1 硬盘故障

16.5.1.1 硬盘故障

问题描述

当服务器出现如下现象时,说明硬盘故障。

l     硬盘故障指示灯常亮。

l     服务器开机状态下,硬盘在位指示灯不亮。

l     服务器上报硬盘故障告警。

处理方法

确认故障硬盘槽位。

说明

JBOD模式下的硬盘为UBAD状态时,硬盘故障指示灯会被点亮,同时iBMC会对其进行告警。

l     通过硬盘故障指示灯处于橙色常亮状态确认故障硬盘槽位,请参考各型号服务器用户指南硬盘编号章节。

l     通过管理软件iMana/iBMC硬盘告警信息确认故障硬盘槽位,请参考iMana/iBMC告警参考。

l     通过RAID控制卡GUI界面确认故障硬盘槽位信息,参考16.4.2.4 Drive Management。

l     通过RAID控制卡命令行工具确认故障硬盘槽位信息,参考16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

                                步骤 1     更换新硬盘。

 

注意

l     更换硬盘前,为避免拔错硬盘导致RAID组失效,请务必提前确认好硬盘槽位,参考步骤1。如硬盘故障为人为在线插拔RAID组中的硬盘或硬盘背板故障导致,则可以将硬盘设置为Unconfig Good后,参考16.4.9 导入/清除外部配置章节恢复RAID组,无需更换硬盘。

l     若故障硬盘属于直通盘或非冗余RAID组(即RAID0),则硬盘数据不可恢复。

l     若故障硬盘属于冗余RAID组且已故障硬盘数量未超过RAID组支持的最大故障硬盘数量时,则RAID组数据不会丢失;否则RAID组数据会丢失。请在16.2.1 支持RAID 0/1/5/6/10/50/60查看RAID组支持的最大故障硬盘数量。

l     更换硬盘时,故障硬盘在脱离硬盘背板后,需要等待30秒后再完全拔出,插入新硬盘。此时硬盘告警依然存在,待RAID组重构完成后告警消除。为避免新硬盘二次离线告警,请避免反复高频率在线插拔硬盘。

l     新插入的硬盘不能带有RAID信息,若插入的硬盘存在RAID信息,则需要在原RAID创建时使用的同型号RAID控制器下删除RAID信息或者进行硬盘低格,具体请参考各型号RAID控制卡删除RAID信息或硬盘低格章节。

拔出故障硬盘,在故障硬盘槽位插入新硬盘,新硬盘根据原故障硬盘的RAID配置情况有如下恢复方式:

l     若故障硬盘所属RAID组已配置热备盘,新插入的硬盘在热备盘重构完成后会进行回拷动作。新硬盘回拷完成后,原热备盘恢复热备状态。

l     若故障硬盘所属RAID组为冗余RAID且未配置热备盘,新插入的硬盘自动执行rebuild操作重构故障硬盘数据,操作完成;如RAID组中故障硬盘数量超过1块,则需要按照硬盘故障时间由远及近的顺序逐一更换,且需要在已更换硬盘重构完成后再依次更换其他故障硬盘。

l     若故障硬盘为直通盘,则直接更换即可。

l     若故障硬盘属于非冗余RAID组(即RAID0),则需要重新创建RAID0。

     UEFI模式下创建RAID0的方法请参见16.3.2 创建RAID 0。

     通过命令行方式创建RAID0的方法请参见16.5.2.9 创建和删除RAID。

----结束

16.5.1.2 硬盘状态为fail或prefail

问题描述

正常情况下,使能RAID控制卡的紧急备份功能后,任意一个具备冗余功能的RAID组中硬盘故障且没有指定热备盘时,该RAID控制卡下的与故障盘同类型的空闲盘会自动替代fail或prefail状态的成员盘并进行重构,避免数据丢失。

但当RAID控制卡未设置紧急热备时,成员盘状态显示为fail或prefail时,可使用以下方法处理。

处理方法

使用StorCLI工具,具体操作请参考16.5.1 下载和安装StorCLI工具。

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为离线,具体操作请参考16.5.2.24 设置硬盘状态。

storcli64 /ccontroller_id/eenclosure_id/sslot_id set offline [force]

说明

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在Enclosure的ID

l     slot_id:物理硬盘槽位ID

                                步骤 2     更换离线硬盘。

                                步骤 3     RAID组自动执行重构。

等待重构完成。

----结束

16.5.1.3 硬盘状态为Unconfigured Bad或UBad

问题描述

硬盘状态显示为Unconfigured Bad或UBad。

处理方法

使用StorCLI工具,具体操作请参见16.5.1 下载和安装StorCLI工具。

                                步骤 1     执行以下命令,将RAID组成员盘状态设置为good,具体操作请参见16.5.2.24 设置硬盘状态。

storcli64 /ccontroller_id/eenclosure_id/sslot_id set good [force]

说明

l     controller_id硬盘所在RAID控制卡的ID

l     enclosure_id硬盘所在Enclosure的ID

l     slot_id:物理硬盘槽位ID

                                步骤 2     重新查看硬盘状态是否更改为Unconfigured Good或Ugood。具体操作请参见16.4.2.4 Drive Management界面或16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤4

                                步骤 3     查看硬盘是否存在外部配置,如存在外部配置则导入或清除外部配置。具体操作请参见16.4.9 导入/清除外部配置或9.7.2.26 查看/导入/清除外部配置。

l     问题解决 => 处理完毕。

l     问题未解决 => 联系技术支持处理。

----结束

16.5.2 RAID控制卡故障

问题描述

当服务器出现如下现象时,说明RAID控制卡可能存在故障。

l     数据无法写入RAID控制卡控制的硬盘。

l     服务器上报RAID控制卡故障告警。

处理方法

登录iBMC Web界面查看告警信息。

                                步骤 1     根据告警信息,参考iBMC告警处理处理。

l     问题解决 => 处理完毕。

l     问题未解决 => 步骤3

                                步骤 2     收集和查看日志信息以及其它必要的故障信息。

                                步骤 3     联系技术支持处理。

----结束

16.5.3 电容故障

问题描述

当RAID控制卡电容故障时,可能导致服务器出现如下情况:

l     服务器读写速度显著降低。

l     RAID控制卡的CU界面中显示电容状态异常。

处理方法

确认当前使用的RAID控制卡是否支持配置电容。

l     是 => 步骤2

l     否 => 联系技术支持处理。

                                步骤 1     进入RAID控制卡的CU界面,查看电容状态是否为“Optimal”。

电容状态可查询16.4.2.5 Hardware Components界面的“Battery Status”参数。

l     是 => 处理完毕

l     否 => 步骤3

                                步骤 2     将服务器下电,打开机箱,并查看RAID控制卡电容是否在位。

l     是 => 步骤5

l     否 => 步骤4

                                步骤 3     检查整机配置,为服务器安装电容,查看电容状态是否为“Optimal”。

l     是 => 处理完毕

l     否 => 步骤7

                                步骤 4     重新安装RAID控制卡电容,查看电容状态是否为“Optimal”。

l     是 => 处理完毕

l     否 => 步骤6

                                步骤 5     更换RAID控制卡电容,查看电容状态是否为“Optimal”,且“问题描述”所述的异常状态是否消失。

l     是 => 处理完毕

l     否 => 步骤7

                                步骤 6     联系技术支持处理。

----结束

16.5.4 BIOS下的Advanced界面无法找到RAID控制卡或Advanced中RAID控制卡状态显示Not Healthy

问题描述

正常情况下,当服务器配置了RAID控制卡且RAID控制卡状态正常时,进入BIOS的Advanced页签后,会显示RAID控制卡的信息,如图16-69所示。

如果Advanced页签不显示RAID控制卡的信息,如图16-70所示,则:

l     如果BIOS的版本为0.98之前版本(不包含0.98版本),需要从Advanced页签中进入“Driver Health Manager”界面,查看驱动打印信息:

     如果不显示驱动打印信息,可尝试下电后重新拔插RAID控制卡再上电、下电后更换RAID控制卡再上电或者联系技术支持。

     如果显示“AVAGO EFI SAS Driver”,则可以通过本章节的指导修复RAID控制卡。

l     如果BIOS的版本为0.98及以上版本,则查看“Advanced”页签是否有显示“Some drivers are not healthy”,如果有,则可以通过本章节的指导修复RAID控制卡;如果不显示,可尝试下电后重新拔插RAID控制卡再上电、下电更换RAID控制卡再上电或者联系技术支持。

图16-69 Advanced页签(1)

 

图16-70 Advanced页签(2)

 

处理方法

l     当BIOS的版本为0.98之前版本(不包含0.98版本)时:

a.     在Advanced页签选择“Driver Health Manager”并按Enter。

进入“Driver Health Manager”界面。

b.     选择要进行修复的RAID控制卡驱动,如“AVAGO EFI SAS Driver”,并按“Enter”。

进入“Critical Message”界面。

c.     查看“Critical Message”界面的打印信息:

n     显示“The following VDs have missing disks. ”=> 请参见1.1.1.1The following VDs have missing disks。

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见16.3.1.4 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。

l     当BIOS的版本为0.98及以上版本时:

16.1 在“Advanced”页签选择“Some drivers are not healthy”。

进入健康状态查询界面。

16.2 选择“Repair the whole platform”,并按“Enter”。

进入“Critical Message”界面。

16.3 查看“Critical Message”界面的打印信息。

n     显示“The following VDs have missing disks. ”=> 请参见1.1.1.1The following VDs have missing disks。

n     显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone”=> 请参见16.3.1.4 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone。

说明

RAID控制卡启动过程中或RAID控制卡管理界面显示的更多启动消息的介绍及处理建议请参见A.2 RAID控制卡启动中出现的常见的错误消息及处理方法。

1.     The following VDs have missing disks

问题描述

图16-71所示,进入“Driver Healthy Protocol Utility”界面后,显示“The following VDs have missing disks.”。

图16-71 状态显示

 

处理方法

修复RAID控制卡。

1.     在图16-71中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

2.     输入“C”并按“Enter”。

3.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

4.     输入“y”并按“Enter”。

提示“Critical Message handling completed. Please exit”。修复完成。

                                步骤 1     重启服务器,进入“Advanced”界面,检查是否显示RAID控制卡信息。

l     是 => 处理完毕。

l     否 => 请联系技术支持处理。

----结束

16.3.1.4 Some configured disks have been removed from your system/All of the disks from your previous configuration are gone

问题描述

图16-72所示,进入“Driver Healthy Protocol Utility”界面后,显示“Some configured disks have been removed from your system”或“All of the disks from your previous configuration are gone。”

图16-72 状态显示

 

处理建议

该信息为提示信息,提示RAID控制卡检测到有硬盘不在位,非RAID控制卡本身故障问题。建议用户根据实际业务场景进行操作:

l     下电服务器,检查线缆是否都已接好,是否有硬盘被拔出。确认无误后重新上电,检查该提示是否消除。如提示消除,则问题解决。如提示仍然存在,可联系技术支持定位。

l     忽略该提示信息,参照以下步骤进入RAID控制卡管理界面:

a.     在图16-72中选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

b.     输入“c”并按“Enter”。

c.     再次选择“Enter Your Input Here”并按“Enter”。

弹出输入框。

d.     输入“y”并按“Enter”。

提示Critical Message handling completed. Please exit。

e.     按“Esc”退出当前界面。

弹出确认保存配置会话框,如图16-73所示。

图16-73 提示保存会话框

 

f.     按“Y”保存配置,操作完成。

g.     按Esc键返回“Device Manager”界面。

h.     选择9560-8i RAID控制卡,并按“Enter”,进入RAID控制卡管理界面。

16.4 管理界面介绍

16.4.1 登录管理界面

对系统的影响

进入BIOS配置管理界面需要重启服务器,会导致服务器业务中断。

操作步骤

通过服务器远程虚拟控制台登录服务器实时桌面。

                                步骤 1     将服务器上电或重启服务器。

                                步骤 2     在服务器硬件自检过程中,当出现如图16-74所示界面时,按“Delete”,进入输入密码界面。

图16-74 BIOS启动界面

 

                                步骤 3     输入密码,并按“Enter”。

进入如图16-75所示界面。

图16-75 Set Utility界面

 

                                步骤 4     按“→”切换到“Advanced”页签,如图16-76所示。

图16-76 Advanced页签

 

                                步骤 5     按“↓”选择“BROADCOM <MegaRAID SAS9560-8i 4GB> Configuration Utility”,按“Enter”。

进入如图16-77图16-78所示主界面,界面参数如表16-23所示。

图16-77 9560-8i主界面(1)

 

图16-78 9560-8i主界面(2)

 

表16-23 参数说明

参数

说明

Main Menu

RAID控制卡主菜单,包含了RAID控制卡的所有操作。

Help

获取帮助信息。

Status

RAID控制卡当前工作状态。

Backplane

背板个数。

BBU

超级电容在位情况。

Enclosure

部件个数。

Drives

挂载的硬盘数。

Drive Groups

存在的硬盘组个数。

Virtual Drives

存在的虚拟磁盘个数。

View Server Profile

查看/管理RAID控制卡特性。

View Foreign Configuration

查看/管理外部配置。

当存在外部配置时才会显示该参数。

Configure

提供创建RAID组,快速创建RAID组,查看硬盘组属性,清除当前所有RAID配置,管理外部配置的接口。

Set Factory Defaults

恢复出厂设置。

Update Firmware

升级固件。

Silence Alarm

板载蜂鸣器的使能状态。

Virtual Drive Operations in Progress

是否存在正在后台处理的虚拟磁盘操作。

Drive Operations in Progress

是否存在正在后台处理的硬盘操作。

MegaRAID xxx

高级特性的使能状态。

Manage MegaRAID Advanced Software Options

管理高级特性。

 

----结束

16.4.2 Main Menu

RAID控制卡主菜单,提供配置、管理RAID控制卡的接口。

界面介绍

“Main Menu”界面如图16-79,参数说明如表16-24所示。

图16-79 Main Menu

 

表16-24 参数说明

参数

参数说明

Configuration Management

配置管理RAID组。

Controller Management

管理RAID控制器。

Virtual Drive Management

管理虚拟磁盘。

Drive Management

管理硬盘。

Hardware Components

查询部件信息。

 

16.4.2.1 Configuration Management

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

“Configuration Management”界面如图16-80,参数说明如表16-25所示。

图16-80 Configuration Management

 

表16-25 参数说明

参数

参数说明

Auto Configure RAID 0

自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0。

Create Virtual Drive

创建RAID组。

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

Make JBOD

硬盘直通功能,硬盘不加入RAID,直接使用。

Clear Configuration

清除当前所有RAID配置。

Manage Foreign Configuration

管理外部配置。

 

清除RAID配置

选择“Clear Configuration”,并按“Enter”。

进入操作确认界面。

                                步骤 1     选中“Confirm”,并按“Enter”。

                                步骤 2     在打开的列表中选择“Enabled”,并按“Enter”。

                                步骤 3     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully。

                                步骤 4     按“Enter”。

配置完成。

----结束

查看虚拟磁盘属性

图16-80中选择“View Drive Group Properties”,并按“Enter”。

打开的界面如图16-81,参数说明如表16-26所示。

图16-81 View Drive Group Properties

 

表16-26 参数说明

参数

参数说明

Drive Group

硬盘组名称。

Capacity Allocation

硬盘组容量,显示硬盘组包含的虚拟磁盘名称、RAID级别、容量、状态等。

Secured

是否加密。

 

16.4.2.2 Controller Management

该界面提供控制器管理接口,可查看并修改控制器的详细参数。

界面介绍

“Controller Management”界面如图16-82图16-83所示,参数说明如表16-27所示。

图16-82 Controller Management(1)

 

图16-83 Controller Management(2)

 

表16-27 参数说明

参数

参数说明

Product Name

RAID控制卡名称。

Serial Number

RAID控制卡序列号。

Controller Status

RAID控制卡的工作状态。

Controller Status

RAID控制卡的工作状态。

Select Boot Device

当前启动项。

说明

此处设置的是Legacy模式下的启动项,配置结果只在Legacy模式下生效。

PCI ID

RAID控制卡的PCI ID。

PCI Slot Number

RAID控制卡的PCI槽位号。

Package Version

RAID控制卡的套件版本。

Firmware Version

RAID控制卡的固件版本号。

NVDATA Version

RAID控制卡配置信息的版本号。

Drive Count

RAID控制卡下挂载的硬盘个数。

Virtual Drive Count

RAID控制卡下已有虚拟磁盘数量。

Advanced Controller Management

高级控制器操作。

Advanced Controller Properties

查看和修改控制器的高级属性。

 

更多控制器操作

图16-82中选择“Advanced Controller Management”,并按“Enter”。

界面如图16-84所示,界面中参数说明如表16-28所示。

图16-84 Advanced Controller Management

 

表16-28 参数说明

参数

说明

Clear Controller Events

清除控制器的事件日志。

Save Controller Events

保存控制器的事件日志。

Save TTY Log

保存终端操作日志。

Enable Drive Security

使能硬盘加密功能。

Disable Drive Security

关闭硬盘加密功能。

Change Security Settings

修改硬盘加密功能的设置,包括修改密码、修改加密模式等。

Manage SAS Storage Link Speed

管理接口速率。

Manage PCIe Storage Interface

管理RAID控制卡的链路宽度和lane的速率。

Manage MegaRAID Advanced Software Options

管理高级软件功能。

Schedule Consistency Check

设置一致性校验参数。

Set Factory Defaults

恢复为出厂配置。

Enable Host LED Management for JBOD

管理JBOD模式的host的LED。

Manage Personality Mode

设置RAID控制卡当前的工作模式。

Manage Controller Profiles

查看和管理控制器的配置文件。

 

查看并修改控制器高级属性

图16-82中选择“Advanced Controller Properties”,并按“Enter”。

界面如图16-85图16-86所示,界面中参数说明如表16-29所示。

图16-85 Advanced Controller Properties(1)

 

图16-86 Advanced Controller Properties(2)

 

表16-29 参数说明

参数

说明

Cache and Memory

查看控制器Cache和Memory信息。

Patrol Read

系统巡检。

Power Save Settings

设置硬盘休眠。

Spare

设置控制器热备状态。

Task Rates

设置各种任务的处理速率。

External Key Management

管理外部密钥。

Alarm Control

板载蜂鸣器使能状态。

Auto Import Foreign Configuration

是否自动导入外部配置。

Coercion Mode

硬盘容量压缩模式。

Boot Mode

表示BIOS在检测到异常时的处理方式,包括:

l     Stop On Errors:控制器BIOS在检测到异常时停止继续启动,需要用户确认是否继续启动。

l     Pause on Errors:控制器BIOS在检测到异常时暂停启动,经过一段时间用户不确认则继续启动。

l     Ignore Errors:控制器BIOS在检测到异常时,忽略异常信息继续启动。通常用于系统诊断。

l     Safe Mode on Errors:控制器BIOS在检测到异常时采用安全模式启动。

默认为“Pause on Errors”。

Controller BIOS

控制器BIOS的使能情况。

ROC Temperature (C)

控制器温度。

Shield State Supported

是否支持暂停IO,对硬盘进行诊断。

默认为“Yes”。

Drive Security

硬盘加密功能的启用状态。

T10-PI

信息保护技术的使能状态。

Maintain Drive Fail History

表示是否使能硬盘故障记录功能,默认为使能状态。

说明

l     该参数设置为“Disabled”时:

l     当出现硬盘故障、RAID降级等情况时,不会上报告警,在管理软件侧无法看到对应的告警信息。

l     新插入的硬盘不管是否已有RAID配置信息,或者对冗余RAID组中硬盘进行在线热插拔时,该硬盘均自动执行Rebuild操作重构故障硬盘数据。

l     该参数设置为“Enabled”时:

l     新插入的硬盘无RAID配置信息时,则硬盘自动重构故障硬盘数据。

l     新插入的硬盘有RAID配置信息时,或对冗余RAID组中的硬盘进行在线热插拔时,硬盘状态将被标识为Unconfigured Bad (Foreign),且不会自动执行Rebuild操作。如需要该硬盘重构RAID,则需要将硬盘设置为Unconfigured Good,具体操作请参见16.4.9 导入/清除外部配置章节。

SMART Polling

SMART轮巡检测周期。

Stop Consistency Check on Error

遇到异常时是否停止一致性校验。

Write Verify

写校验。

Drive Detection Type

随着时间的推移,硬盘往往会出现介质错误,可能会降低硬盘以及整个系统的性能。 FW会尝试检测性能始终不佳的硬盘。可根据实际需求,设置适当的控制器属性。

可用选项为:

l     Disabled

l     High Latency

l     Aggressive

l     Default

Drive Corrective Action

随着时间的推移,硬盘往往会出现介质错误,这可能会降低硬盘以及整个系统的性能。 如果硬盘中有一定数量的受影响介质,导致IO延迟持续下降,则FW会使该特定硬盘发生故障,从而使硬盘开始进行重构/回拷。 FW还会记录适当的事件来警告用户。

l     Disabled:禁用该功能

l     Enabled:开启该功能

Drive Error Threshold

通过该选项设置适当的控制器属性。

l     Every 8 hours

l     Every1 hours

l     Every 15 mins

l     Every 5 mins

Large IO Support

启用或禁用大型IO支持功能。

Unmap Capability

解除映射能力。

Apply Changes

保存配置。

 

                                步骤 2     按照表16-29所述修改控制器的高级属性参数。

                                步骤 3     选择“Apply Changes”,并按“Enter”。

提示The operation has been performed successfully。

                                步骤 4     单击“OK”完成配置。

----结束

16.4.2.3 Virtual Drive Management

该界面提供虚拟磁盘的查询和管理接口。

界面介绍

“Virtual Drive Management”界面如图16-87,显示虚拟磁盘列表。

图16-87 Virtual Drive List

 

选定要操作的虚拟磁盘,并按“Enter”进入详细操作界面,如图16-88所示,参数说明如表16-30所示。

图16-88 Virtual Drive Management

 

表16-30 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:定位虚拟磁盘的所有硬盘。

l     Stop Locate:取消定位。

l     Delete Virtual Drive:删除虚拟磁盘。

l     Expand Virtual Drive:扩展虚拟磁盘容量。

l     Reconfigure Virtual Drives:重新配置虚拟磁盘。RAID控制卡不支持同时对两个及以上的虚拟磁盘进行重新配置。

l     Hide/Unhide Virtual Drive:隐藏/取消隐藏虚拟磁盘。

l     Hide/Unhide Drive Group:隐藏/取消隐藏硬盘组。

l     Fast Initialization:快速初始化虚拟磁盘。

l     Slow Initialization:安全初始化虚拟磁盘。

l     Check Consistency:一致性校验。

l     Virtual Drive Erase:格式化虚拟磁盘。

Name

虚拟磁盘名称。

RAID Level

虚拟磁盘RAID级别。

Status

虚拟磁盘当前运行状态。

Size

虚拟磁盘容量。

View Associated Drives

查看成员盘属性。

Advanced...

查看虚拟磁盘高级属性。

 

查看成员盘属性

图16-88中选择“View Associated Drives”,并按“Enter”。

界面如图16-89,显示成员盘列表。

图16-89 View Associated Drives

 

                                步骤 2     选择要查看的成员盘,并按“Enter”。

                                步骤 3     选择“View Drive Properties”,并按“Enter”。

进入硬盘属性界面,如图16-90界面所示,界面参数如表16-31所示。

图16-90 View Drive Properties

 

表16-31 参数说明

参数

参数说明

Operation

该成员盘可执行的操作,包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Place Drive Online/Offline:将硬盘上线/离线。

l     Replace Drive:替换硬盘。

Drive ID

成员盘的ID。

Connection

成员盘的接口。

Enclosure Position

Enclosure的位置。

Slot Number

成员盘的槽位号。

Status

成员盘的当前工作状态。

Size

成员盘的容量。

Type

成员盘类型。

Model

成员盘的模块类型。

Serial Number

成员盘的序列号。

Hardware Vendor

成员盘的生产厂商。

Associated Virtual Drive

成员盘所在的虚拟磁盘。

Advanced...

查询成员盘更多属性。

 

----结束

查看和修改虚拟磁盘高级属性

图16-88中选择“Advanced”,并按“Enter”。

图16-92

图16-91 Advanced(1)

 

图16-92 Advanced(2)

 

表16-32 参数说明

参数

参数说明

Mirror Data Size

镜像数据大小。

Logical Sector Size

逻辑扇区大小。

Strip Size

条带大小。

Starting Logical Block Addressing (LBA)

逻辑单元起始地址。

Emulation Type

控制逻辑盘在OS中上报的扇区。

l     Default:只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     Disable:如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     Force: 即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Secured

是否支持RAID组的加密功能。

Bad Blocks

是否支持坏块处理。

Access

是否支持Access。

Current Write Cache Policy

当前写Cache策略,包括:

l     Write Through:当硬盘子系统接收到所有传输数据后,RAID控制卡将给主机返回数据传输完成信号。

l     Write Back:当RAID控制卡Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     Force Write Back:当未配置超级电容或超级电容故障时,RAID控制卡将自动切换到Write Through模式。

Default Write Cache Policy

默认的写Cache策略。

Disable Background Initialization

是否禁用后台初始化。

Read Cache Policy

当前读Cache策略,包括:

l     No Read Ahead:关闭预读取功能。

l     Read Ahead:使能预读取功能。RAID控制卡可以预读取顺序数据或预测需要即将使用到的数据并存储在Cache中。

Drive Cache

是否支持cache。

Input/Output

I/O读取策略,包括:

l     Direct:直接从硬盘读取数据,不经过Cache缓存。

l     Cached:从Cache缓存中读取数据。

Unmap Capability

解除映射能力。

Apply Changes

保存配置。

 

                                步骤 2     按照表16-32所述配置“Advanced”的参数。

                                步骤 3     选择“Apply Changes”,并按“Enter”。

显示The operation has been performed successfully。

                                步骤 4     选择“OK”,并按“Enter”完成配置。

----结束

16.4.2.4 Drive Management

该界面显示硬盘基本属性,提供硬盘操作接口。

界面介绍

“Drive Management”界面如图16-93所示,显示硬盘列表。

图16-93 Drive List

 

说明

硬盘的标识信息说明如下:

l     ①表示RAID控制卡的Port口编号。

l     ②表示机箱或背板的位置ID。

l     ③表示硬盘槽位号。

l     ④表示硬盘类型。

l     ⑤表示硬盘的容量。

l     ⑥表示硬盘的状态。

l     ⑦表示硬盘的扇区大小。

选定要操作的硬盘,并按“Enter”进入详细操作界面,如图16-94所示,参数说明如表16-33所示。

图16-94 Drive Management

 

表16-33 参数说明

参数

参数说明

Operation

可执行的操作。包括:

l     Start Locate:打开硬盘定位状态。

l     Stop Locate:关闭硬盘定位状态。

l     Initialize Drive:硬盘初始化。

l     Drive Erase:对硬盘进行擦除操作。RAID组成员盘需要先删除其所在的RAID组;热备盘需要取消热备盘设置;JBOD硬盘需要先设置成Unconfigured Good状态。

     Simple:仅对硬盘进行一轮擦除动作。

     Normal:对硬盘进行三轮擦除动作。

     Thorough:对硬盘进行九轮擦除动作。

     Stop Erase:停止数据擦除操作。

l     Make Unconfigured Good/Bad:修改硬盘状态。

l     Make JBOD:硬盘直通功能,硬盘不加入RAID组,直接使用。

l     Assign Global Hot Spare Drive:设置全局热备盘。

l     Assign Dedicated Hot Spare Drive:设置局部热备盘。

l     Unassign Hot Spare Drive:删除热备盘。

l     Cryptographic Erase:对加密硬盘进行数据擦除。

l     Place Drive Online:将Offline状态的硬盘设置为Online。

说明

l     Place Drive Online操作仅仅只是将硬盘的状态由Offline变为Online,硬盘中的数据不会发生改变,并且通过此功能将硬盘设置Online后,会导致RAID组中数据不一致。当出现硬盘离线情况时,为避免RAID组数据不一致,不能将离线的成员盘直接“Place Drive Online”,需要选择Rebuild操作将离线的成员盘加入RAID组。

l     如果所有硬盘已设置为JBOD模式,则此处不显示“Make JBOD”选项;如果所有硬盘已设置为Unconfigured Good,则此处不显示“Make Unconfigured Good”选项。

l     对硬盘执行初始化或擦除等操作会删除硬盘上的数据,请谨慎执行。

Drive ID

硬盘的ID。

Connection

硬盘的接口。

Enclosure Position

Enclosure的位置。

Slot Number

硬盘的槽位号。

Status

硬盘的当前工作状态。

Size

硬盘的容量。

Type

硬盘的类型。

Model

硬盘型号。

Serial Number

硬盘序列号。

Advanced...

查询更多硬盘属性。

 

安全擦除硬盘数据

说明

该操作会删除硬盘上的数据,请谨慎执行。

将“Operation”设置为“Drive Erase”。

                                步骤 1     选择“Erase Mode”,并按“Enter”。

                                步骤 2     在弹出的窗口中选择要进行的硬盘擦除类型,并按“Enter”。

                                步骤 3     选择“OK”,并按“Enter”。

进入操作确认界面。

                                步骤 4     选择“Confirm”,并按“Enter”。

                                步骤 5     选择“Yes”,并按“Enter”。

提示操作成功。

----结束

查看硬盘属性

选择“Advanced...”,并按“Enter”。

打开硬盘属性界面,如图16-95图16-96所示,参数说明如表16-34所示。

图16-95 Advanced(1)

 

图16-96 Advanced(2)

 

表16-34 参数说明

参数

参数说明

Certified

硬盘是否通过供应商认证。

Logical Sector Size

逻辑扇区大小。

Physical Sector Size

物理扇区大小。

SMART Status

SMART功能是否使能。

Revision

硬盘Firmware版本。

Media Errors

Media error个数。

Predicted Fail Count

Pred fail个数。

SAS Address

硬盘SAS地址。

Drive Power State

硬盘上电状态。

Cache Setting

是否可设置Cache。

Disk Protocol

硬盘支持的协议。

Disk Speed

硬盘的速率。

Negotiated Drive Transfer Speed

硬盘数据传输速率。

Number of Connections

连接器个数。

FDE Capable

硬盘是否支持FDE(Full Disk Encryption)技术。

Cryptographic Erase Capable

硬盘的加密擦除能力。

Unmap Capable

解除映射能力。

Temperature

硬盘温度。

 

16.4.2.5 Hardware Components

该界面主要提供RAID控制卡传感器信息。

界面介绍

“Hardware Components”界面如图16-97所示,参数说明如表16-35所示。

图16-97 Hardware Components界面

 

表16-35 参数说明

参数

参数说明

Battery Status

当前电池工作状态。

Temperature Sensors

当前温度传感器状态。

Fans

当前风扇模块工作状态。

Power Supplies

当前供电模块工作状态。

Battery Management

电池管理

Enclosure Management

组件管理。

 

电池管理

图16-97选择“Battery Management”进入如图16-98所示界面,参数说明如表16-36所示。

图16-98 “Battery Management”界面

 

表16-36 参数说明

参数

说明

Type

电池类型。

Status

电池状态。

Temperature

电池当前温度。

Capacitance

电池当前容量。

Advanced

更多操作。

 

图16-98选择“Advanced”进入如图16-99所示界面,参数说明如表16-35所示。

图16-99 Advanced Battery Management

 

表16-37 参数说明

参数

说明

Start Manual Learn Cycle

手动超级电容的电量校准。

Set Automatic Learn Cycle Properties

设置超级电容的电量校准属性。

Manufacturer

电池制造商。

Serial Number

电池序列号。

Date of Manufacture

电池生产日期。

Module Version

电池模块版本。

Status

电池当前状态。

Voltage

电池电压。

Current

电池的电流。

Design Capacity

电池的设计容量。

Remaining Capacity

电池的剩余容量。

Auto_learn Mode

自学习模式。

Next Learn Cycle Time

下一次超级电容的电量校准时间。

 

组件管理

图16-97选择“Enclosure Management”,并按“Enter”。

进入部件选择界面,如图16-100所示。

图16-100 选择部件

 

表16-38 参数说明

参数

说明

Select Enclosure

选择机框。

Vendor ID

厂商iD。

Enclosure ID

机框ID。

Enclosure Model

机框型号。

Enclosure Location

机框位置。

Product Revision Level

产品修订级别。

Number of slots

槽位数量。

Attached Drives

关联硬盘。

View Enclosure Status

查看机框状态。

 

----结束

16.4.3 View Server Profile

提供RAID控制卡操作管理接口。

界面介绍

“View Server Profile”界面如图16-101所示,参数说明如表16-39所示。

图16-101 View Server Profile

 

表16-39 参数说明

参数

参数说明

UEFI Spec Version

服务器支持的UEFI Spec版本。

Controller Management

提供控制器管理接口,详细情况请参见16.4.2.2 Controller Management。

Hardware Components

提供控制器部件查询接口,详细情况请参见16.4.2.5 Hardware Components。

Drive Management

提供硬盘管理接口,详细情况请参见16.4.2.4 Drive Management。

Virtual Drive Management

提供虚拟磁盘管理接口,详细情况请参见16.4.2.3 Virtual Drive Management。

 

16.4.4 View Foreign Configuration

该界面可查看、导入、清空外部配置。当存在外部配置时才会显示该选项。

界面介绍

“View Foreign Configuration”界面如图16-102所示。

图16-102 View Foreign Configuration

 

查看并导入外部配置

选择“Preview Foreign Configuration”,并按“Enter”。

显示当前存在的外部配置的详细信息,如图16-103所示。

图16-103 外部配置

 

                                步骤 2     选择“Import Foreign Configuration”,并按“Enter”。

打开操作确认界面。

                                步骤 3     选择“Confirm”,并按“Enter”。

                                步骤 4     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully。

                                步骤 5     单击“OK”完成配置。

----结束

清除外部配置

选择“Clear Foreign Configuration”,并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”,并按“Enter”。

                                步骤 2     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully。

                                步骤 3     单击“OK”完成配置。

----结束

16.4.5 Configure

可通过该页面进入配置、管理虚拟磁盘、硬盘组、外部配置的接口,并提供清除配置功能。

界面介绍

“Configure”界面如图16-104所示,参数说明如表16-40所示。

图16-104 Configure

 

表16-40 参数说明

参数

参数说明

Auto Configure RAID 0

自动将所有Unconfigured Good状态的硬盘创建为单盘RAID0。

Create Virtual Drive

创建RAID组。

Create Profile Based Virtual Drive

根据用户选择,将所有Unconfigured Good状态的硬盘创建成特定级别的RAID组。

View Drive Group Properties

查看硬盘组属性。

Make JBOD

硬盘直通功能,硬盘不加入RAID组,直接使用。

Clear Configuration

清除当前所有RAID配置。

 

清除当前配置

选择“Clear Configuration”,并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”,并按“Enter”。

                                步骤 2     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully。

                                步骤 3     单击“OK”完成配置。

----结束

16.4.6 Set Factory Defaults

恢复出厂配置

在主界面选择“Set Factory Defaults”,并按“Enter”。

打开操作确认界面。

                                步骤 1     选择“Confirm”,并按“Enter”。

                                步骤 2     选择“Yes”,并按“Enter”。

提示The operation has been performed successfully。

                                步骤 3     单击“OK”完成配置。

----结束

16.4.7 Manage MegaRAID Advanced Software Options

该界面提供RAID控制卡高级软件特性查看和导入接口。

界面介绍

“Manage MegaRAID Advanced Software Options”界面如图16-105所示,界面中参数说明如表16-41所示。

图16-105 Manage MegaRAID Advanced Software Options

 

表16-41 参数说明

参数

说明

SAFE ID

RAID控制卡的安全编码。

Serial Number

RAID控制卡序列号。

Activation Key

待激活的高级特性的Key。

Active

激活高级特性。

9560-8i不支持高级特性的激活操作,该功能无效。

Deactive All Trail Software

注销当前所有高级特性。

9560-8i不支持高级特性的激活操作,该功能无效。

 

16.4.8 Exit

退出配置界面。

退出配置界面

在9560-8i主界面按“Esc”,显示如图16-106所示界面。

图16-106 BIOS Setup Utility

 

                                步骤 2     按“F10”退出BIOS。

弹出操作确认窗口。

                                步骤 3     选择“OK”,并按“Enter”。

退出BIOS,显示“ Press Control+Alt+Delete to reboot”。

----结束

16.5 OS命令行工具

使用OS命令行工具可以在服务器正常运行过程中对RAID控制卡进行操作,不需要重启服务器。

16.5.1 下载和安装StorCLI工具

下载工具

登录BROADCOM网站上RAID控制卡的页面

                                步骤 1     在“DOWNLOADS”页签中单击“Management Software and Tools”。

打开管理软件和工具列表。

                                步骤 2     下载最新版本的“StorCLI”工具。

                                步骤 3     解压后得到适用于不同操作系统的工具包。

----结束

安装工具

使用文件传输工具(例如Putty)将适用Linux的工具包上传到服务器操作系统任意目录,以/tmp为例。

                                步骤 1     在Linux命令行执行rpm -ivh /tmp/StorCLIxxx.aarch64.rpm命令安装StorCLI工具。

说明

StorCLI的安装路径为/opt/MegaRAID/storcli/,需进入该目录后执行RAID控制卡相关命令。

安装完毕后,即可执行RAID控制卡命令。

----结束

16.5.2 常用命令

16.5.2.1 查询RAID控制卡配置信息

命令功能

查询9560-8i的基本配置信息。

命令格式

storcli64 /ccontroller_id show

参数说明

参数

参数说明

取值

controller_id

控制器ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID

 

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡配置信息。

[root@localhost ~]# storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
CLI Version = 007.1416.0000.0000 July 24, 2020
Operating system = Linux 4.18.0-147.8.1.el7.aarch64
Controller = 0
Status = Success
Description = None
 
Product Name = MegaRAID 9560-8i 4GB
Serial Number = SKB3166087
SAS Address =  500062b2082428c0
PCI Address = 00:04:00:00
System Time = 04/11/2022 09:19:35
Mfg. Date = 08/03/21
Controller Time = 04/11/2022 01:19:35
FW Package Build = 52.20.0-4341
BIOS Version = v7.20.01.0_0x07140000
FW Version = 5.200.02-3618
Driver Name = megaraid_sas
Driver Version = 07.720.04.00
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x10E2
SubVendor Id = 0x1000
SubDevice Id = 0x4010
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 4
Device Number = 0
Function Number = 0
Domain ID = 0
Security Protocol = None
Drive Groups = 10
 
TOPOLOGY :
========
 
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace TR
-----------------------------------------------------------------------------
 0 -   -   -        -   RAID1 Optl  N  893.750 GB dflt N  N   none N      N
 0 0   -   -        -   RAID1 Optl  N  893.750 GB dflt N  N   none N      N
 0 0   0   251:12   9   DRIVE Onln  N  893.750 GB dflt N  N   none -      N
 0 0   1   251:13   0   DRIVE Onln  N  893.750 GB dflt N  N   none -      N
 1 -   -   -        -   RAID5 Optl  N   18.190 TB dflt N  N   dflt N      N
 1 0   -   -        -   RAID5 Optl  N   18.190 TB dflt N  N   dflt N      N
 1 0   0   251:0    5   DRIVE Onln  N    9.094 TB dflt N  N   dflt -      N
 1 0   1   251:2    7   DRIVE Onln  N    9.094 TB dflt N  N   dflt -      N
 1 0   2   251:6    2   DRIVE Onln  N    9.094 TB dflt N  N   dflt -      N
 2 -   -   -        -   RAID1 Optl  N    9.094 TB dflt N  N   dflt N      N
 2 0   -   -        -   RAID1 Optl  N    9.094 TB dflt N  N   dflt N      N
 2 0   0   251:4    3   DRIVE Onln  N    9.094 TB dflt N  N   dflt -      N
 2 0   1   251:7    1   DRIVE Onln  N    9.094 TB dflt N  N   dflt -      N
 3 -   -   -        -   RAID0 Optl  N    9.094 TB dflt N  N   dflt N      N
 3 0   -   -        -   RAID0 Optl  N    9.094 TB dflt N  N   dflt N      N
 3 0   0   251:5    6   DRIVE Onln  N    9.094 TB dflt N  N   dflt -      N
 4 -   -   -        -   RAID0 Optl  N    9.094 TB dflt N  N   dflt N      N
 4 0   -   -        -   RAID0 Optl  N    9.094 TB dflt N  N   dflt N      N
 4 0   0   251:15   14  DRIVE Onln  N    9.094 TB dflt N  N   dflt -      N
 5 -   -   -        -   RAID0 Optl  N   10.913 TB dflt N  N   dflt N      N
 5 0   -   -        -   RAID0 Optl  N   10.913 TB dflt N  N   dflt N      N
 6 -   -   -        -   RAID0 Optl  N    9.094 TB dflt N  N   dflt N      N
 6 0   -   -        -   RAID0 Optl  N    9.094 TB dflt N  N   dflt N      N
 6 0   0   251:3    8   DRIVE Onln  N    9.094 TB dflt N  N   dflt -      N
 7 -   -   -        -   RAID0 Optl  N   10.913 TB dflt N  N   dflt N      N
 7 0   -   -        -   RAID0 Optl  N   10.913 TB dflt N  N   dflt N      N
 7 0   0   251:11   12  DRIVE Onln  N   10.913 TB dflt N  N   dflt -      N
 8 -   -   -        -   RAID0 Optl  N   10.913 TB dflt N  N   dflt N      N
 8 0   -   -        -   RAID0 Optl  N   10.913 TB dflt N  N   dflt N      N
 8 0   0   251:8    10  DRIVE Onln  N   10.913 TB dflt N  N   dflt -      N
 9 -   -   -        -   RAID0 Optl  N   12.732 TB dflt N  N   dflt N      N
 9 0   -   -        -   RAID0 Optl  N   12.732 TB dflt N  N   dflt N      N
 9 0   0   251:14   16  DRIVE Onln  N   12.732 TB dflt N  N   dflt -      N
-----------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Optl=Optimal|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 10
 
VD LIST :
=======
 
------------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC       Size Name
------------------------------------------------------------------
9/230 RAID0 Optl  RW     Yes     RWBD  -   ON   12.732 TB raid0_6
8/231 RAID0 Optl  RW     Yes     RWBD  -   ON   10.913 TB raid0_5
7/232 RAID0 Optl  RW     Yes     RWBD  -   ON   10.913 TB raid0_4
6/233 RAID0 Optl  RW     Yes     RWBD  -   ON    9.094 TB raid0_3
5/234 RAID0 Optl  RW     Yes     RWBD  -   ON   10.913 TB raid0_2
4/235 RAID0 Optl  RW     Yes     RWBD  -   ON    9.094 TB raid0_1
3/236 RAID0 Optl  RW     Yes     RWBD  -   ON    9.094 TB raid0_0
2/237 RAID1 Optl  RW     No      RWBD  -   ON    9.094 TB raid1_0
1/238 RAID5 Optl  RW     No      RWBD  -   ON   18.190 TB raid5_0
0/239 RAID1 Optl  RW     Yes     RWBD  -   ON  893.750 GB
------------------------------------------------------------------
 
VD=Virtual Drive| DG=Drive Group|Rec=Recovery
Cac=CacheCade|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|dflt=Default|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady|B=Blocked|
Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
JBOD Drives = 2
 
JBOD LIST :
=========
 
----------------------------------------------------------------------------------------
ID EID:Slt DID State Intf Med      Size SeSz Model                Vendor   Port
----------------------------------------------------------------------------------------
 1 251:1     4 Onln  SATA HDD  9.095 TB 512B ST10000NM0478-2H7100 ATA      C0.0 & C0.1
 9 251:9    11 Onln  SATA HDD 10.914 TB 512B ST12000NM001G-2MV103 ATA      C0.0 & C0.1
----------------------------------------------------------------------------------------
 
ID=JBOD Target ID|EID=Enclosure Device ID|Slt=Slot No.|DID=Device ID|Onln=Online|
Offln=Offline|Intf=Interface|Med=Media Type|SeSz=Sector Size
 
Physical Drives = 16
 
PD LIST :
=======
 
-------------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model                   Sp Type
-------------------------------------------------------------------------------------
251:0     5 Onln   1   9.094 TB SATA HDD N   N  512B ST10000NM0478-2H7100    U  -
251:1     4 Onln   -   9.095 TB SATA HDD N   N  512B ST10000NM0478-2H7100    U  JBOD
251:2     7 Onln   1   9.094 TB SATA HDD N   N  512B ST10000NM0478-2H7100    U  -
251:3     8 Onln   6   9.094 TB SATA HDD N   N  512B ST10000NM0478-2H7100    U  -
251:4     3 Onln   2   9.094 TB SATA HDD N   N  512B ST10000NM0478-2H7100    U  -
251:5     6 Onln   3   9.094 TB SATA HDD N   N  512B ST10000NM0478-2H7100    U  -
251:6     2 Onln   1   9.094 TB SATA HDD N   N  512B ST10000NM0478-2H7100    U  -
251:7     1 Onln   2   9.094 TB SATA HDD N   N  512B ST10000NM0478-2H7100    U  -
251:8    10 Onln   8  10.913 TB SATA HDD N   N  512B ST12000NM001G-2MV103    U  -
251:9    11 Onln   -  10.914 TB SATA HDD N   N  512B ST12000NM001G-2MV103    U  JBOD
251:10   13 Onln   5  10.913 TB SATA HDD N   N  512B ST12000NM001G-2M        U  -
251:11   12 Onln   7  10.913 TB SATA HDD N   N  512B ST12000NM001G-2MV103    U  -
251:12    9 Onln   0 893.750 GB SATA SSD N   N  512B MTFDDAK960TDD-1AT1ZABYY U  -
251:13    0 Onln   0 893.750 GB SATA SSD N   N  512B MTFDDAK960TDD-1AT1ZABYY U  -
251:14   16 Onln   9  12.732 TB SATA HDD N   N  512B ST14000NM001G-2KJ103    U  -
251:15   14 Onln   4   9.094 TB SATA HDD N   N  512B ST10000NM0478-2H7100    U  -
-------------------------------------------------------------------------------------
 
EID=Enclosure Device ID|Slt=Slot No.|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Sntze=Sanitize|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=UGood Unsupported|UGShld=UGood shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported|Rbld=Rebuild
 
Enclosures = 1
 
Enclosure LIST :
==============
 
---------------------------------------------------------------------------------------
EID State Slots PD PS Fans TSs Alms SIM Port#          ProdID           VendorSpecific
---------------------------------------------------------------------------------------
251 OK       16 16  0    0   0    0   0 C0.0 & C0.1 x8 Expander 12G16T0
---------------------------------------------------------------------------------------
 
EID=Enclosure Device ID |PD=Physical drive count |PS=Power Supply count|
TSs=Temperature sensor count |Alms=Alarm count |SIM=SIM Count ||ProdID=Product ID
 
 
Cachevault_Info :
===============
 
------------------------------------
Model  State   Temp Mode MfgDate
------------------------------------
CVPM05 Optimal 26C  -    2021/11/01
------------------------------------

16.5.2.2 查询和设置Spin up参数

命令功能

查询和设置每组起转硬盘间的时间间隔以及上电时允许同时起转的硬盘数量。

命令格式

命令

说明

storcli64 /ccontroller_id show spinupdelay

查询RAID控制卡Spinup参数。

storcli64 /ccontroller_id show spinupdrivecount

查询上电时允许同时起转的硬盘数量。

storcli64 /ccontroller_id set spinupdelay=time

设置每组起转硬盘间的时间间隔。

storcli64 /ccontroller_id set spinupdrivecount=count

设置上电时允许同时起转的硬盘数量。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

每组起转硬盘间的时间间隔

默认为2,单位为s。

count

上电时允许同时起转的硬盘数量

默认为4。

 

查看RAID控制卡ID的方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

建议保持默认配置。

使用实例

# 查询RAID控制卡Spin up参数。

[root@localhost ~]# storcli64 /c0 show spinupdelay
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop     Value
--------------------------
Spin Up Delay 2 second(s)
--------------------------

# 查询上电时允许同时起转的硬盘数量。

[root@localhost ~]# storcli64 /c0 show spinupdrivecount
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop           Value
--------------------------
Spin Up Drive Count 2
--------------------------

# 设置RAID控制卡“spinupdelay”为“20s”,设置“spinupdrivecount”为“5”。

[root@localhost ~]# storcli64 /c0 set spinupdelay=20
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
---------------------------
Ctrl_Prop     Value
---------------------------
Spin Up Delay 20 second(s)
---------------------------
 
[root@localhost ~]# storcli64 /c0 set spinupdrivecount=5
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
--------------------------
Ctrl_Prop           Value
--------------------------
Spin Up Drive Count 5
--------------------------

16.5.2.3 查询和设置Spin down参数

命令功能

通过设置Spin down参数,可以主动让处于空闲状态的HDD硬盘进入节能模式,进入节能模式后的硬盘会被Firmware标记为移除状态,需要手动将设置Spinup后才能进行RAID创建、删除、硬盘Firmware升级等操作。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id spindown

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

 

查看RAID控制卡ID的方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 设置Spin down功能。

[root@localhost ~]# storcli64 /c0 /e249/s10 spindown
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Spin Down Drive Succeeded.

说明

进入节能模式的硬盘,状态显示为“D”,如图16-107所示。

图16-107 状态显示

 

16.5.2.4 设置硬盘PowerSave功能

命令功能

设置空闲硬盘和热备盘的省电模式。

命令格式

storcli64 /ccontroller_id set ds= state type= disktype spindowntime= time

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID。

state

省电模式的启用状态。

l     on:启用

l     off:禁用

disktype

硬盘类型。

l     1:空闲硬盘

l     2:热备盘

time

等待时间,硬盘经过等待时间没有IO,则停转进入休眠状态。

单位为minutes。

 

查看RAID控制卡ID的方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

# 设置空闲硬盘的省电模式。

[root@localhost ~]# storcli64 /c0 set ds=on type=1 spindowntime=30
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
------------------------
Ctrl_Prop    Value
------------------------
SpnDwnUncDrv Enabled
SpnDwnTm     30 minutes
------------------------

16.5.2.5 查询和设置物理硬盘初始化功能

命令功能

设置物理硬盘初始化功能,查询初始化进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action initialization

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看初始化进度

l     start:开始初始化

l     stop:结束初始化

 

以上涉及的各个ID的查询方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

# 初始化slot3硬盘,并查询初始化进度。

[root@localhost ~]# storcli64 /c0/e249/s11 start initialization
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Start Drive Initialization Succeeded.
 
[root@localhost ~]# storcli64 /c0/e249/s11 show initialization
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Show Drive Initialization Status Succeeded.
 
 
-------------------------------------------------------
Drive-ID     Progress% Status      Estimated Time Left
-------------------------------------------------------
/c0/e249/s11         0 In progress 0 Seconds
-------------------------------------------------------

16.5.2.6 查询和设置硬盘数据擦除功能

命令功能

设置物理硬盘数据擦除模式,查询擦除进度。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id show erase

查询硬盘擦除进度。

storcli64 /ccontroller_id/eenclosure_id/sslot_id stop erase

中止硬盘擦除。

storcli64 /ccontroller_id/eenclosure_id/sslot_id start erase mode

设置硬盘擦除模式并开始擦除。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

硬盘槽位号

mode

数据擦除模式

l     simple:对硬盘进行一轮擦除动作。

l     normal:对硬盘进行三轮擦除动作。

l     thorough:对硬盘进行九轮擦除动作。

 

以上涉及的各个ID的查询方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

# 对slot 3硬盘进行simple数据擦除,并查询擦除进度。

[root@localhost ~]# storcli64 /c0/e249/s9 start erase simple
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Start Drive Erase Succeeded.
 
[root@localhost ~]# storcli64 /c0/e249/s9 show erase
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Show Drive Erase Status Succeeded.
 
 
------------------------------------------------------
Drive-ID    Progress% Status      Estimated Time Left
------------------------------------------------------
/c0/e249/s9         0 In progress 0 Seconds
------------------------------------------------------
 
[root@localhost ~]# storcli64 /c0/e249/s9 stop erase
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Stop Drive Erase Succeeded.

16.5.2.7 设置后台资源占用率

命令功能

设置后台初始化速率、一致性校验速率、硬盘巡检速率、RAID重构速率、RAID扩容和迁移速率等。

命令格式

storcli64 /ccontroller_id set action=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要设置的项目

l     bgirate:后台初始化速率

l     ccrate:一致性校验速率

l     prrate:硬盘巡检速率

l     rebuildrate:RAID重构速率

l     reconrate:RAID扩容和迁移速率

value

后台任务资源占用率

1~100

 

查看RAID控制卡ID的方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

# 设置硬盘巡检速率为“30%”。

[root@localhost ~]# storcli64 /c0 set prrate=30
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-----------------------
Ctrl_Prop        Value
-----------------------
Patrol Read Rate 30%
-----------------------

16.5.2.8 设置BIOS Stop on Error功能

命令功能

设置控制器BIOS在检测到异常时停止继续启动的功能。

命令格式

storcli64 /ccontroller_id set bios mode=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要执行的操作

l     soe:控制器BIOS在检测到异常时停止启动

l     ie:忽略检测到的异常

 

查看RAID控制卡ID的方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

# 开启Stop on error功能。

[root@localhost ~]# storcli64 /c0 set bios mode=soe
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------
Ctrl_Prop Value
----------------
BIOS Mode SOE
----------------

16.5.2.9 创建和删除RAID

命令功能

创建、删除RAID。

命令格式

命令

说明

storcli64 /ccontroller_id add vd rlevel[0|1|5|6|10|50|60] [size=<VD1_Sz>,<VD2_Sz>,..|*all] [name=<VDNAME1>,..] drives=enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid [pdperarray=pdperarray] [pdcache=on|off|*default][pi] [wt|*wb|awb] [nora|*ra] [*direct|cached] [Strip=<8|16|32|64|128|256|1024>] [EmulationType=0|1|2] [Spares=[enclosure_id:slot_id|enclosure_id:startid-endid,enclosure_id:slot_id|enclosure_id:startid-endid]

创建RAID组

storcli64 /ccontroller_id/vraid_id del

删除RAID组

 

说明

*表示默认值。

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

enclosure_id

硬盘所在Enclosure的ID

-

rlevel

要配置的RAID组级别

level可为0、1、5、6、10、50、60,数字分别代表对应的RAID组级别。

size

要配置的RAID组容量

默认值为all,即所有成员盘的容量之和。

name

要配置的RAID组名称

-

drives

要加入RAID组的硬盘

-

startid-endid

硬盘的起始和结束ID

-

slot_id

硬盘ID

-

pdperarray

子组中的硬盘数

创建RAID10、RAID50、RAID60时,需要设置此参数,创建其他级别的RAID组时,不需要设置此参数。

-

pdcache

设置RAID的成员盘的Cache状态

l     on

l     off

l     default

pi

使能数据保护

-

wrcache

设置RAID组的写Cache属性,完整的命令为wrcache=wt|wb|awb,这里“wrcache=”可省略

l     wt:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     wb:控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”模式。

rdcache

设置RAID组的读Cache属性,完整的命令为rdcache=ra|nora,这里“rdcache=”可省略。

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

iopolicy

设置RAID组的I/O策略,完整的命令为iopolicy=direct|cached,这里“iopolicy=”可省略。

说明

Cache IO的规格后续不再支持,默认为Direct IO,具体信息请查看RAID控制卡固件版本说明书。

l     Direct:在读、写场景中的定义不同:

     在读场景中,直接从硬盘读取数据。(“Read Policy”设置为“Read Ahead”时除外,此时读数据经过RAID控制卡的Cache处理。)

     在写场景中,写数据经过RAID控制卡的Cache处理。(“Write Policy”设置为“Write Through”时除外,此时写数据不经过RAID控制卡的Cache处理,直接写入硬盘。)

l     Cached:所有读和写均经过RAID控制卡Cache处理。仅在配置CacheCade 1.1时需要设置为此参数值,其他场景不推荐。

Strip

设置RAID组条带大小

64, 128, 256, 512, 1024

单位为KB。

EmulationType

控制逻辑盘在OS中上报的扇区

l     0: Default,只要成员盘中有512e类型的硬盘,扇区大小显示为512e(4K)。如果成员盘类型中没有512e类型的硬盘,扇区大小显示为512n。

l     1: Disable,如果成员盘中没有512e类型的硬盘,扇区大小显示为512n。

l     2:Force,即使成员盘中没有512e类型的硬盘,扇区大小仍然显示512e(4K)。

Spares

指定RAID组的热备盘

-

raid_id

要删除的RAID组的ID

-

 

说明

l     以上涉及的各个ID的查询方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

l     当加入到RAID组的中硬盘为多个硬盘时,需要使用逗号隔开,单个槽位硬盘表示为enclosure_id:slot_id,连续槽位的硬盘表示为:enclosure_id:startid-endid

使用指南

无。

使用实例

# 创建RAID 0。

[root@localhost ~]# storcli64 /c0 add vd r0 size=100GB drives=249:7-8
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Add VD Succeeded.

# 删除RAID。

[root@localhost ~]# storcli64 /c0/v239 del
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Delete VD succeeded

16.5.2.10 设置RAID组的Cache读写属性

命令功能

设置RAID组的Cache读写属性。

命令格式

命令

说明

storcli64 /ccontroller_id/vraid_id set wrcache=wrmode

设置Cache写策略

storcli64 /ccontroller_id/vraid_id set rdcache=rdmode

设置Cache读策略

 

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

-

raid_id

待设置的RAID组的ID

-

wrmode

设置Cache写策略

l     wt:当硬盘子系统接收到所有传输数据后,控制器将给主机返回数据传输完成信号。

l     wb:控制器Cache收到所有的传输数据后,将给主机返回数据传输完成信号。

l     awb:在RAID控制卡无电容或电容损坏的情况下,强制使用“wb”策略。

rdmode

设置Cache读策略

l     ra:从虚拟磁盘中读取所需数据时,会把后续数据同时读出放在Cache中,用户随后访问这些数据时可以直接在Cache中命中,将减少硬盘寻道操作,节省响应时间,提高了数据读取速度。

l     nora:RAID控制卡接收到数据读取命令时,才从虚拟磁盘读取数据,不会做预读取的操作。

 

以上涉及的各个ID的方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

# 设置Cache写模式为“wt”。

[root@localhost ~]# storcli64 /c0/v239 set wrcache=wt
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 wrCache WT Success 0 -
---------------------------------------

16.5.2.11 设置RAID访问策略

命令功能

设置RAID的读写策略。

命令格式

storcli64 /ccontroller_id/vraid_id set accesspolicy=mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

mode

RAID读写策略

l     rw:可读可写

l     blocked:禁止访问

l     ro:只读访问

 

以上涉及的各个ID的查询方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

# 设置RAID读写策略为“rw”。

[root@localhost ~]# storcli64 /c0/v239 set accesspolicy=rw
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
Details Status :
==============
---------------------------------------
VD Property Value Status ErrCd ErrMsg
---------------------------------------
0 AccPolicy RW Success 0 -
---------------------------------------

16.5.2.12 设置RAID前台初始化

命令功能

设置RAID前台初始化模式。

命令格式

storcli64 /ccontroller_id/vraid_id start mode

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

mode

前台初始化模式

l     init:只把RAID的前100MByte空间进行全写0操作,随后此RAID的状态就变为“Optimal”。

l     init full:把整个RAID都初始化为0,才会结束初始化过程,在此之前RAID状态为“initialization”。

 

以上涉及的各个ID的查询方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

# 快速初始化RAID。

[root@localhost ~]# storcli64 /c0/v238 start init
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Start INIT Operation Success

16.5.2.13 查询和设置RAID后台初始化

命令功能

暂停、继续和停止RAID后台初始化,以及查看后台初始化进度。

命令格式

storcli64 /ccontroller_id/vraid_id action bgi

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

raid_id

待设置的RAID的ID

action

后台初始化的操作

l     show:查看后台初始化进度

l     pause:暂停后台初始化

l     resume:继续后台初始化

l     stop:停止后台初始化

 

以上涉及的各个ID的查询方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

# 查看后台初始化进度。

[root@localhost ~]# storcli64 /c0/v239 show bgi
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Noe
VD Operation Status :
===================
------------------------------------------------------
VD Operation Progress% Staus Estimated Time Left
------------------------------------------------------
0 BGI 3 In progress 53 Minutes
------------------------------------------------------

16.5.2.14 设置启动项

命令功能

设置虚拟磁盘或物理硬盘为启动项。

命令格式

命令

说明

storcli64 /ccontroller_id/vvd_id set bootdrive=on

设置虚拟磁盘为启动项。

storcli64 /ccontroller_id/eenclosure_id/sslot_id set bootdrive=on

设置物理硬盘为启动项。

 

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

vd_id

待设置的虚拟磁盘的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

 

以上涉及的各个ID的查询方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

# 设置VD239为启动项。

[root@localhost ~]# storcli64 /c0/v239 set bootdrive=on
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Noe
Detailed Status :
===============
----------------------------------------
VD Property Value Staus ErrCd ErrMsg
----------------------------------------
0 Boot Drive On Success 0 -
----------------------------------------

# 设置slot 7硬盘为启动项。

[root@localhost ~]# storcli64 /c0/e239/s7 set bootdrive=on
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0 
Status = Success
Description = Noe
Controller Properties :
=====================
-------------------
Ctrl_Prop Value
-------------------
BootDrive PD:249_7
-------------------

16.5.2.15 设置紧急热备功能

命令功能

设置是否启用紧急热备功能,并设置SMART Error时是否启动紧急热备功能。

命令格式

storcli64 /ccontroller_id set eghs eug=state

storcli64 /ccontroller_id set eghs smarter=state

参数说明

参数

参数说明

取值

controller_id

RAID控制卡的ID

state

紧急热备功能的启用状态

l     on:启用

l     off:禁用

 

查看RAID控制卡ID的方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

# 开启紧急热备功能,并允许硬盘在SMART Error时使用紧急热备功能。

[root@localhost ~]# storcli64 /c0 set eghs eug=on
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
Controller Properties :
=====================
 
------------------
Ctrl_Prop   Value
------------------
EmergencyUG ON
------------------
 
[root@localhost ~]# storcli64 /c0 set eghs smarter=on
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-----------------------
Ctrl_Prop        Value
-----------------------
EmergencySmarter ON
-----------------------

16.5.2.16 设置热备盘

命令功能

设置全局热备盘和局部热备盘。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id add hotsparedrive [dgs=vd_id]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

vd_id

局部热备盘所属虚拟磁盘的ID

 

以上涉及的各个ID的查询方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

# 设置slot 3硬盘为全局热备盘。

[root@localhost ~]# storcli64 /c0/e249/s9 add hotsparedrive
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.

# 设置slot 3硬盘为vd0的局部热备盘。

[root@localhost ~]# storcli64 /c0/e249/s3 add hotsparedrive dgs=0
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Add Hot Spare Succeeded.

16.5.2.17 查询和设置RAID重构/回拷/系统巡检功能

命令功能

暂停、继续、停止RAID重构/回拷/系统巡检,并查询进度。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action function

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

action

要执行的操作

l     show:查看进度

l     pause:暂停进程

l     resume:继续执行

l     stop:停止进程

function

要处理的进程

l     rebuild:RAID重构

l     copyback:回拷

l     patrolread:系统巡检

 

以上涉及的各个ID的查询方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

# 查看RAID重构进度。

[root@localhost ~]# storcli64 /c0/e252/s4 show rebuild
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Show Drive Rebuild Status Succeeded.
------------------------------------------------------
Drive-ID Progress% Staus Estimated Time Left
------------------------------------------------------
/c0/e252/s4 9 In progress 12 Minutes
------------------------------------------------------

# 暂停RAID重构。

[root@localhost ~]# storcli64 /c0/e252/s4 pause rebuild
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Pause Drive Rebuild Status Succeeded.

16.5.2.18 设置SMART扫描周期

命令功能

设置SMART扫描周期。

命令格式

storcli64 /ccontroller_id set smartpollinterval=value

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

value

SMART扫描周期

单位为s。

 

查看RAID控制卡ID的方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

# 设置SMART扫描周期为“60s”。

[root@localhost ~]# storcli64 /c0 set smartpollinterval=60
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-------------------------------
Ctrl_Prop         Value
-------------------------------
SmartPollInterval 60 second(s)
-------------------------------

16.5.2.19 通过增加成员盘可用容量扩容RAID

命令功能

RAID有2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

命令格式

storcli64 /ccontroller_id/vvd_id expand size=capacity

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要扩容的RAID的ID

capacity

扩容后的容量

 

以上涉及的各个ID的查询方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

# 将VD239的容量扩大“200GB”。

[root@localhost ~]# storcli64 /c0/v239 expand size=200GB
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = expansion operation succeeded.
EXPANSION RESULT :
================
--------------------------------------------------------------------------------
VD Size FreSpc ReqSize AbsUsrSz %FreSpc NewSize Statsu NoArrExp
--------------------------------------------------------------------------------
239 100.0 GB 457.861 GB 200.0 GB 201.458 GB 44 301.458 GB - 457.861 GB
--------------------------------------------------------------------------------
Size - Current VD size|FreSpc - Freespace available before expansion
%FreSpc - Requested expansion size in % of available free space
AbsUsrSz - User size rounded to nearest %

16.5.2.20 通过增加新盘扩容或迁移RAID

命令功能

RAID有2种扩容方式:

l     通过增加成员盘可用容量来扩大RAID容量。

l     通过增加新硬盘来扩大RAID容量。

当增加新盘后,可进行RAID级别迁移。

命令格式

storcli64 /ccontroller_id/vvd_id start migrate type=rlevel option=add drives=enclosure_id:slot_id

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

vd_id

要操作的RAID的ID

slot_id

要加入RAID的新硬盘的槽位号

level

增加硬盘后RAID的级别

l     与原RAID级别相同时,该命令为扩大RAID容量。

l     与原RAID级别不同时,该命令为RAID级别迁移。

 

以上涉及的各个ID的查询方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

# 在RAID 0中增加slot 2硬盘扩容。

[root@localhost ~]# storcli64 /c0/v0 start migrate type=r0 option=add drives=252:2
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
[root@localhost ~]# storcli64 /c0/v0 show migrate
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
0 Migrate 1 In progress 13 Minutes
-------------------------------------------------------

# 单盘RAID 0加盘迁移至RAID 1。

[root@localhost ~]# storcli64 /c0/v239 start migrate type=r1 option=add drives=252:3
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Start MIGRATE Operation Success.
 
[root@localhost ~]# storcli64 /c0/v239 show migrate
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
VD Operation Status :
===================
-------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-------------------------------------------------------
239 Migrate 1 In progress 14 Minutes
-------------------------------------------------------

16.5.2.21 设置一致性校验参数

命令功能

设置一致性校验参数。

命令格式

命令

说明

storcli64 /ccontroller_id[/vvd_id]show cc

查询虚拟磁盘一致性校验进度。

storcli64 /ccontroller_id/vvd_id start cc force

开始一致性校验。

storcli64 /ccontroller_id/vvd_id action cc

设置一致性校验操作。

storcli64 /ccontroller_id set cc=conc delay=value starttime=time excludevd=evd_id

设置一致性校验参数。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

vd_id

要操作的RAID的ID

action

要执行的操作

l     pause:暂停

l     resume:继续执行

l     stop:停止

value

一致性校验周期

time

一致性校验起始时间

例如:2016/07/14 22

说明

起始时间单位为“时”。

evd_id

不进行一致性校验的虚拟磁盘ID

 

以上涉及的各个ID的查询方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

show命令中不带/vvd_id时,表示查询自动CC参数。

show命令中带/vvd_id时,表示查询CC进度。

使用实例

# 设置一致性自动检查参数。

[root@localhost ~]# storcli64 /c0 set cc=conc delay=1 starttime=2022/04/05 22 excludevd=0
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Failure
Description = None
 
Detailed Status :
===============
 
----------------------------------
Ctrl_Prop       Value
----------------------------------
CC ExcludeVD(0) Invalid VD Number
----------------------------------
 
 
 
Controller Properties :
=====================
 
---------------------------------
Ctrl_Prop    Value
---------------------------------
CC Mode      CONC
CC delay     1
CC Starttime 2022/04/05 22:00:00
---------------------------------

# 查询CC进度。

[root@localhost ~]# storcli64 /c0/v238 show cc
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
VD Operation Status :
===================
 
------------------------------------------------------------
 VD Operation Progress% Status          Estimated Time Left
------------------------------------------------------------
238 CC        -         Not in progress -
------------------------------------------------------------

16.5.2.22 查询和设置Patrol read参数

命令功能

查询和设置系统巡检的相关参数。

命令格式

命令

说明

storcli64 /ccontroller_id set patrolread starttime=time maxconcurrentpd=number

设置系统巡检的相关参数。

storcli64 /ccontroller_id set patrolread delay=delaytime

设置系统巡检周期。

storcli64 /ccontroller_id show patrolread

产看系统巡检进度。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

系统巡检起始时间

例如:2016/07/15 23

说明

起始时间单位为“时”。

number

可同时巡检的硬盘数量

delaytime

系统巡检周期

单位为hour。

 

查看RAID控制卡ID的方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

# 设置patrol read的起始时间为“2022/04/05 23”,同时巡检的硬盘数为“2”。

[root@localhost ~]# storcli64 /c0 set patrolread starttime=2022/04/05 23 maxconcurrentpd=2
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
---------------------------------------
Ctrl_Prop          Value
---------------------------------------
PR Starttime       2022/04/05 23:00:00
PR MaxConcurrentPd 2
---------------------------------------

# 查询patrol read信息。

[root@localhost ~]# storcli64 /c0 show patrolread
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
---------------------------------------------
Ctrl_Prop               Value
---------------------------------------------
PR Mode                 Auto
PR Execution Delay      168 hours
PR iterations completed 0
PR Next Start time      04/05/2022, 23:00:00
PR on SSD               Disabled
PR Current State        Stopped
PR Excluded VDs         None
PR MaxConcurrentPd      2
---------------------------------------------

16.5.2.23 查询和设置Cache Flush参数

命令功能

查询和设置Cache的刷新周期。

命令格式

命令

说明

storcli64 /ccontroller_id show cacheflushint

查询Cache的刷新周期。

storcli64 /ccontroller_id set cacheflushint time

设置Cache的刷新周期。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

time

Cache的刷新周期

单位为s

 

查看RAID控制卡ID的方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

# 设置Cache的刷新周期为“10”。

[root@localhost ~]# storcli64 /c0 set cacheflushint=10
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
---------------------------
Ctrl_Prop            Value
---------------------------
Cache Flush Interval 10
---------------------------

# 查询Cache的刷新周期。

[root@localhost ~]# storcli64 /c0 show cacheflushint
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------------------
Ctrl_Prop            Value
----------------------------
Cache Flush Interval 10 sec

16.5.2.24 设置硬盘状态

命令功能

设置硬盘状态。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id set state [force]

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

state

要设置的硬盘状态

l     online:将硬盘上线。当Degraded状态的RAID组中有成员盘是offline状态时,可通过该参数,将RAID组中offline的成员盘重新加入RAID组,使offline状态的成员盘重新变成online状态。

l     offline:将硬盘离线。使用该参数,会将目标硬盘脱离RAID组,导致具有冗余功能的RAID组降级(如果离线的硬盘数量超过RAID组最大故障硬盘数量,RAID组也会变成offline状态);没有冗余功能的RAID组会直接变成Failed(故障)状态。

l     jbod:通过该参数可以将硬盘设置为直通硬盘。

l     good:

     ubad状态的硬盘,使用该参数可将硬盘设为ugood(foreign)状态,此时可选择导入或清除外来配置;

     JBOD状态的硬盘,使用该参数可将硬盘设为ugood状态,ugood状态的硬盘可用于创建RAID或者热备盘。

force

强制设置硬盘状态,为可选参数。

如果硬盘上存在OS(操作系统)或FS(文件系统),则将硬盘从JBOD状态设置成ugood状态时必须加force。

-

 

以上涉及的各个ID的查询方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

# 将“Unconfigured Bad”状态下的slot 9硬盘设置为“Unconfigured Good”状态。

[root@localhost ~]# storcli64 /c0/e249/s9 set good
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Set Drive Good Succeeded.

16.5.2.25 设置硬盘点灯

命令功能

点亮和熄灭指定硬盘的定位指示灯。

命令格式

storcli64 /ccontroller_id/eenclosure_id/sslot_id action locate

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

可以为all,表示点亮所有Enclosure下属的硬盘的定位指示灯。

slot_id

物理硬盘槽位编号

可以为all,表示点亮Enclosure下属的所有硬盘的定位指示灯。

action

要执行的操作

l     start:点亮硬盘的定位指示灯。

l     stop:熄灭硬盘的定位指示灯。

 

以上涉及的各个ID的查询方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

# 点亮slot 10硬盘的定位指示灯。

[root@localhost ~]# storcli64 /c0/e249/s10 start locate
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Start Drive Locate Succeeded.

16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息

命令功能

查询RAID控制卡、虚拟磁盘、物理硬盘的详细信息。

命令格式

命令

说明

storcli64 /ccontroller_id show

查询RAID控制卡的详细信息。

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

查询物理硬盘的详细信息。

storcli64 /ccontroller_id/vvd_id show all

查询虚拟磁盘的详细信息。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器的ID

enclosure_id

硬盘所在Enclosure的ID

可以将该参数设置为all,表示查询该工具可管理的所有控制器连接的硬盘背板的ID

slot_id

物理硬盘槽位编号

可以将该参数设置为all,表示查询所有硬盘的ID

vd_id

虚拟磁盘ID

可以为all,表示查询所有虚拟磁盘信息。

 

以上涉及的各个ID的查询方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

回显中主要字段的含义如表16-42所示。

表16-42 回显说明

命令格式

字段

含义

举例

storcli64 /ccontroller_id show

Product Name

RAID控制卡的型号

MegaRAID 9560-8i 4GB

FW Version

RAID控制卡的FW版本

5.190.02-3610

Driver Name

RAID控制卡的驱动名称

megaraid_sas

Driver Version

RAID控制卡的驱动版本

07.710.50.00-rh1

Current Personality

RAID控制卡的工作模式

RAID-Mode

storcli64 /ccontroller_id/eenclosure_id/sslot_id show all

SN

物理硬盘的序列号

PHWL517601YR800RGN

Manufacturer Id

物理硬盘的供应商ID

ATA

Model Number

物理硬盘的模块序号

INTEL SSDSC2BB800G4

Firmware Revision

物理硬盘的FW版本

D2010370

Raw size

物理硬盘的容量

745.211 GB [0x5d26ceb0 Sectors]

Logical Sector Size

物理硬盘逻辑分区大小

512B

Physical Sector Size

物理扇区大小

4 KB

storcli64 /ccontroller_id/vvd_id show all

TYPE

RAID组的级别

RAID1

State

RAID组的状态

Optl

Access

RAID组数据的访问策略

RW

Cache

RAID组当前的读写策略与IO Policy

RWTD

Size

RAID组的大小

100.0 GB

PDs for VD0

RAID组下的物理硬盘

-

Strip Size

RAID组的条带大小

256KB

Write Cache(initial setting)

RAID组Cache的写策略

Write Through

Disk Cache Policy

RAID组成员盘的Cache策略

Disk's Default

 

使用实例

#查询RAID控制卡的详细信息。

[root@localhost ~]# storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.
 
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
Product Name = MegaRAID 9560-8i 4GB
Serial Number = SKB3166429
SAS Address =  500062b2082427c0
PCI Address = 00:04:00:00
System Time = 10/25/2019 00:59:23
Mfg. Date = 08/03/21
Controller Time = 10/25/2019 04:59:22
FW Package Build = 52.19.0-4294
BIOS Version = 7.19.00.0_0x07130200
FW Version = 5.190.02-3610
Driver Name = megaraid_sas
Driver Version = 07.714.04.00
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x10E2
SubVendor Id = 0x1000
SubDevice Id = 0x4010
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 4
Device Number = 0
Function Number = 0
Domain ID = 0
Security Protocol = None
Drive Groups = 2
 
TOPOLOGY :
========
 
-----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace TR
-----------------------------------------------------------------------------
 0 -   -   -        -   RAID0 Optl  N    1.089 TB dflt N  N   dflt Y      N
 0 0   -   -        -   RAID0 Optl  N    1.089 TB dflt N  N   dflt Y      N
 0 0   0   249:7    45  DRIVE Onln  N  558.406 GB dflt N  N   dflt -      N
 0 0   1   249:8    43  DRIVE Onln  N  558.406 GB dflt N  N   dflt -      N
 1 -   -   -        -   RAID0 Optl  N    2.181 TB dflt N  N   dflt Y      N
 1 0   -   -        -   RAID0 Optl  N    2.181 TB dflt N  N   dflt Y      N
 1 0   0   249:4    47  DRIVE Onln  N    1.636 TB dflt N  N   dflt -      N
 1 0   1   249:5    44  DRIVE Onln  N    1.090 TB dflt N  N   dflt -      N
-----------------------------------------------------------------------------
 
DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Optl=Optimal|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present
TR=Transport Ready
 
Virtual Drives = 2
 
VD LIST :
=======
 
---------------------------------------------------------------
DG/VD TYPE  State Access Consist Cache Cac sCC       Size Name
---------------------------------------------------------------
1/238 RAID0 Optl  RW     Yes     RWBD  -   ON  100.000 GB
0/239 RAID0 Optl  RW     Yes     RWBD  -   ON  100.000 GB
---------------------------------------------------------------
 
VD=Virtual Drive| DG=Drive Group|Rec=Recovery
Cac=CacheCade|OfLn=OffLine|Pdgd=Partially Degraded|Dgrd=Degraded
Optl=Optimal|dflt=Default|RO=Read Only|RW=Read Write|HD=Hidden|TRANS=TransportReady
B=Blocked|Consist=Consistent|R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
Physical Drives = 12
 
PD LIST :
=======
 
------------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model            Sp Type
------------------------------------------------------------------------------
249:0    49 UGood -    1.636 TB SAS  HDD N   N  512B ST1800MM0129     D  -
249:1    46 UGood -    1.636 TB SAS  HDD N   N  512B ST1800MM0129     D  -
249:2    50 UGood -    2.182 TB SAS  HDD N   N  512B ST2400MM0129     D  -
249:3    48 UGood -    1.636 TB SAS  HDD N   N  512B ST1800MM0129     D  -
249:4    47 Onln  1    1.636 TB SAS  HDD N   N  512B ST1800MM0129     U  -
249:5    44 Onln  1    1.090 TB SAS  HDD N   N  512B AL15SEB120N      U  -
249:6    51 UGood -    1.090 TB SAS  HDD N   N  512B AL15SEB120N      D  -
249:7    45 Onln  0  558.406 GB SAS  HDD N   N  512B AL15SEB060N      U  -
249:8    43 Onln  0  558.406 GB SAS  HDD N   N  512B AL15SEB060N      U  -
249:9    54 GHS   -  837.843 GB SAS  HDD N   N  512B ST900MM0006      U  -
249:10   53 UGood -  837.843 GB SAS  HDD N   N  512B ST900MM0006      D  -
249:11   52 UGood -  837.843 GB SAS  HDD N   N  512B ST900MM0006      U  -
------------------------------------------------------------------------------
 
EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Sntze=Sanitize|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=UGood Unsupported|UGShld=UGood shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported|Rbld=Rebuild
 
Enclosures = 1
 
Enclosure LIST :
==============
 
---------------------------------------------------------------------------------------
EID State Slots PD PS Fans TSs Alms SIM Port#          ProdID           VendorSpecific
---------------------------------------------------------------------------------------
249 OK       16 12  0    0   0    0   0 C0.0 & C0.1 x8 Expander 12G16F1
---------------------------------------------------------------------------------------
 
EID=Enclosure Device ID | PD=Physical drive count | PS=Power Supply count
TSs=Temperature sensor count | Alms=Alarm count | SIM=SIM Count | ProdID=Product ID
 
 
Cachevault_Info :
===============
 
------------------------------------
Model  State   Temp Mode MfgDate
------------------------------------
CVPM05 Optimal 24C  -    2019/06/26
------------------------------------

#查询slot0的物理硬盘的信息。

[root@localhost ~]# storcli64 /c0/e249/s0 show all
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Show Drive Information Succeeded.
 
 
Drive /c0/e249/s0 :
=================
 
----------------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model            Sp Type
----------------------------------------------------------------------------
249:0    49 UGood -  1.636 TB SAS  HDD N   N  512B ST1800MM0129     D  -
----------------------------------------------------------------------------
 
EID=Enclosure Device ID|Slt=Slot No|DID=Device ID|DG=DriveGroup
DHS=Dedicated Hot Spare|UGood=Unconfigured Good|GHS=Global Hotspare
UBad=Unconfigured Bad|Sntze=Sanitize|Onln=Online|Offln=Offline|Intf=Interface
Med=Media Type|SED=Self Encryptive Drive|PI=Protection Info
SeSz=Sector Size|Sp=Spun|U=Up|D=Down|T=Transition|F=Foreign
UGUnsp=UGood Unsupported|UGShld=UGood shielded|HSPShld=Hotspare shielded
CFShld=Configured shielded|Cpybck=CopyBack|CBShld=Copyback Shielded
UBUnsp=UBad Unsupported|Rbld=Rebuild
 
 
Drive /c0/e249/s0 - Detailed Information :
========================================
 
Drive /c0/e249/s0 State :
=======================
Shield Counter = 0
Media Error Count = 0
Other Error Count = 0
Drive Temperature =  30C (86.00 F)
Predictive Failure Count = 0
S.M.A.R.T alert flagged by drive = No
 
 
Drive /c0/e249/s0 Device attributes :
===================================
SN = WBN1C8HC0000K9232ADZ
Manufacturer Id = SEAGATE
Model Number = ST1800MM0129
NAND Vendor = NA
WWN = 5000C500BCC792B4
Firmware Revision = C0D3
Firmware Release Number = N/A
Raw size = 1.636 TB [0xd196e9b0 Sectors]
Coerced size = 1.636 TB [0xd1860000 Sectors]
Non Coerced size = 1.636 TB [0xd186e9b0 Sectors]
Device Speed = 12.0Gb/s
Link Speed = 12.0Gb/s
Write Cache = Disabled
Logical Sector Size = 512B
Physical Sector Size = 4 KB
Connector Name = C0.0 & C0.1
 
 
Drive /c0/e249/s0 Policies/Settings :
===================================
Enclosure position = 1
Connected Port Number = 0(path0)
Sequence Number = 1
Commissioned Spare = No
Emergency Spare = No
Last Predictive Failure Event Sequence Number = 0
Successful diagnostics completion on = N/A
FDE Type = None
SED Capable = No
SED Enabled = No
Secured = No
Cryptographic Erase Capable = No
Sanitize Support = Not supported
Locked = No
Needs EKM Attention = No
PI Eligible = No
Certified = No
Wide Port Capable = No
Unmap capable = No
Unmap capable for LDs = No
Multipath = No
 
Port Information :
================
 
-----------------------------------------
Port Status Linkspeed SAS address
-----------------------------------------
   0 Active 12.0Gb/s  0x5000c500bcc792b5
   1 Active 12.0Gb/s  0x0
-----------------------------------------
 
 
Inquiry Data =
00 00 06 12 8b 01 10 02 53 45 41 47 41 54 45 20
53 54 31 38 30 30 4d 4d 30 31 32 39 20 20 20 20
43 30 44 33 57 42 4e 31 43 38 48 43 00 00 00 00
00 00 00 00 00 00 00 00 00 00 00 a2 0c 60 20 e0
04 60 04 c0 00 00 00 00 00 00 00 00 00 00 00 00
00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
00 43 6f 70 79 72 69 67 68 74 20 28 63 29 20 32
30 31 39 20 53 65 61 67 61 74 65 20 41 6c 6c 20

# 查询VD 0的信息。

[root@localhost ~]# storcli64 /c0/v239 show all
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
/c0/v0 :
======
 
---------------------------------------------------------
DG/VD TYPE  State Access Consist Cache sCC     Size Name
---------------------------------------------------------
0/239   RAID1 Optl  RW     Yes     RWTD  -   1.089 TB
---------------------------------------------------------
 
Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|B=Blocked|Consist=Consistent|
R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency
 
 
PDs for VD 0 :
============
 
-----------------------------------------------------------------------
EID:Slt DID State DG     Size Intf Med SED PI SeSz Model            Sp
-----------------------------------------------------------------------
25:22    14 Onln   1 1.089 TB SAS  HDD N   N  512B ST1200MM0007     U
25:23    26 Onln   1 1.089 TB SAS  HDD N   N  512B ST1200MM0007     U
-----------------------------------------------------------------------
 
EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded
 
 
VD0 Properties :
==============
Strip Size = 256 KB
Number of Blocks = 2341795840
VD has Emulated PD = No
Span Depth = 1
Number of Drives Per Span = 2
Write Cache(initial setting) = WriteThrough
Disk Cache Policy = Disk's Default
Encryption = None
Data Protection = Disabled
Active Operations = None
Exposed to OS = Yes
Creation Date = 04-01-2018
Creation Time = 12:38:35 PM
Emulation type = None

16.5.2.27 查询超级电容的相关信息

命令功能

查询超级电容的名称及TFM Flash卡缓存容量的大小等信息。

命令格式

storcli64 /ccontroller_id/cv show all

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

可以为all,表示所有控制器。

 

查看RAID控制卡ID的方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

#查询超级电容的相关信息。

[root@localhost ~]# storcli64 /c0/cv show all
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Cachevault_Info :
===============
 
--------------------
Property    Value
--------------------
Type        CVPM05
Temperature 24 C
State       Optimal
--------------------
 
 
Firmware_Status :
===============
 
---------------------------------------
Property                         Value
---------------------------------------
NVCache State                    OK
Replacement required             No
No space to cache offload        No
Module microcode update required No
---------------------------------------
 
 
GasGaugeStatus :
==============
 
------------------------------
Property                Value
------------------------------
Pack Energy             77 J
Capacitance             91 %
Remaining Reserve Space 0
------------------------------
 
 
Design_Info :
===========
 
------------------------------------
Property                 Value
------------------------------------
Date of Manufacture      26/06/2019
Serial Number            3707
Manufacture Name         LSI
Design Capacity          103 J
Device Name              CVPM05
tmmFru                   N/A
CacheVault Flash Size    23.625 GB
scapBatversionNo         0x00
scapSerialNo             0x0e7b
scap Date of Manufacture 26/06/2019
scapPcbAssmNo            1700264483
scapPCBversionNo          C
scapBatPackAssmNo        49571-222
Module Version            241-4GB
------------------------------------
 
 
Properties :
==========
 
------------------------------------------------------------------------
Property                   Value
------------------------------------------------------------------------
Auto Learn Period          27d (2412000 seconds)
Next Learn time            2019/11/21  11:03:45 (627649425 seconds)
Learn Delay Interval       0 hour(s)
Auto-Learn Mode            Transparent
Last Successful Learn Time Completed, THU, October 24, 2019 at 13:03:45
------------------------------------------------------------------------

说明

l     上述回显信息中,“Device Name  CVPM02”表示超级电容的名称为 “CVPM02”,“CacheVault Flash Size   8.0GB”表示TFM Flash卡缓存容量为“8.0GB”。

l     当回显信息的“State”显示为“FAILED”时,需要更换超级电容。

16.5.2.28 升级硬盘FW

命令功能

升级硬盘的FW。

命令格式

./storcli64 /ccontroller_id /eenclosure_id/sslot_id download src=FW_name.bin

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

FW_name

硬盘FW的名称

 

以上涉及的各个ID的查询方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

#升级硬盘FW。

[root@localhost ~]# storcli64 /c0/e249/s5 download src=5200_D1MU004_Releasefullconcatenatedbinary.bin
Starting microcode update  .....please wait...
Flashing PD image  ..... please wait...
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0 
Status = Success 
Description = Firmware Download succeeded. 
 
Drive Firmware Download : 
======================== 
-------------------------------------------------------------------------------- 
Drive     Status  ErrCd    ErrMsg 
-------------------------------------------------------------------------------- 
/c0/e249/s5 Success   0        -
--------------------------------------------------------------------------------

16.5.2.29 手动重构RAID

命令功能

手动重构RAID组。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row

将硬盘加入RAID组。

storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild

手动重构RAID组。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

要加入Array的物理硬盘槽位编号

DG

硬盘发生故障的DG的ID

Arr

硬盘发生故障的Array的ID

Row

硬盘发生故障的Array的row number

 

以上涉及的各个ID的查询方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

重构RAID分3个步骤进行:

1.通过./storcli64 /c0 show 命令,查询故障硬盘的DG、Arr和Row所对应的数字。

2.通过storcli64 /ccontroller_id/eenclosure_id/sslot_id insert dg=DG array=Arr row=Row 命令,将硬盘加入RAID组。

3.执行storcli64 /ccontroller_id/eenclosure_id/sslot_id start rebuild命令,手动重构RAID。

使用实例

# 将硬盘加入RAID组。

[root@localhost ~]# storcli64 /c0/e249/s1 insert dg=0 array=0 row=0
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Insert Drive Succeeded.

# 手动重构RAID。

[root@localhost ~]# storcli64 /c0/e249/s1 start rebuild
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = Start Drive Rebuild Succeeded.

16.5.2.30 设置硬盘直通功能

命令功能

设置RAID控制卡的直通硬盘。

命令格式

命令

说明

storcli64 /ccontroller_id/eenclosure_id/sslot_id set JBOD

设置物理硬盘硬盘直通。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

enclosure_id

硬盘所在Enclosure的ID

slot_id

物理硬盘槽位编号

 

以上涉及的各个ID的查询方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

# 设置slot 7硬盘为直通盘。

[root@localhost ~]# storcli64 /c0/e249/s7 set JBOD
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0 
Status = Success 
Description = Set Drive JBOD Succeeded.

16.5.2.31 收集和清除RAID控制卡日志

命令功能

收集和清除RAID控制卡的日志。

命令格式

命令

说明

storcli64 /ccontroller_id show termlog

收集RAID控制卡的日志。

storcli64 /ccontroller_id delete termlog

清除RAID控制卡的日志。

 

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

 

查询RAID控制卡ID的查询方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

无。

使用实例

# 收集RAID控制卡的日志。

[root@localhost ~]# storcli64 /c0 show termlog
Firmware Term Log Information on controller 0:
509:    (0x13b|74:47) Interrupt CHIPRESET_TIMER (assert) Additional Data = 0x00000000
T 10/25/2019 03:15:43.933:    (0x13c|75:6D) Processing EVT_SYS_LITE_RESET_OFF event in STATE_FLUSHES_COMPLETE
T 10/25/2019 03:15:43.933:    (0x13d|76:6D) Interrupt SYS_LITE_RESET (deassert) Additional Data = 0x00000000
T 10/25/2019 03:15:52.313:    (0x13e|77:77) Processing EVT_CPU0_READY_FOR_OFFLOAD event in STATE_FLUSHES_COMPLETE
T 10/25/2019 03:15:52.313:    (0x13f|78:77) Processing EVT_ENTRY event in STATE_IDLE
T 10/25/2019 03:15:52.313:    (0x141|7A:77) E000E100: 048408CF
T 10/25/2019 03:15:52.313:    (0x143|7C:77) E000E200: C1681030
T 10/25/2019 03:16:05.618:    (0x144|7D:7D) Processing EVT_SYS_LITE_RESET_UNARMED event in STATE_IDLE
T 10/25/2019 03:16:05.618:    (0x145|7E:7D) Processing EVT_ENTRY event in STATE_SUBMIT_REC_CDB
T 10/25/2019 03:16:05.618:    (0x146|7F:7D) Interrupt SYS_LITE_RESET (assert) Additional Data = 0x00000010
T 10/25/2019 03:16:05.618:    (0x147|00:7D) Interrupt SYS_LITE_TIMER (assert) Additional Data = 0x00000000
T 10/25/2019 03:16:05.618:    (0x148|01:7D) Interrupt DOORBELL0 (assert) Additional Data = 0x00000009
T 10/25/2019 03:16:05.618:    (0x149|02:7D) Interrupt DOORBELL1 (assert) Additional Data = 0x00000009
T 10/25/2019 03:16:05.618:    (0x14a|03:7D) Processing EVT_INT_A15WFI_CPU1 event in STATE_SUBMIT_REC_CDB
T 10/25/2019 03:16:05.618:    (0x14b|04:7D) Processing EVT_INT_A15WFI_CPU0 event in STATE_SUBMIT_REC_CDB
T 10/25/2019 03:16:05.618:    (0x14c|05:7D) Processing EVT_INT_REC event in STATE_SUBMIT_REC_CDB
T 10/25/2019 03:16:05.618:    (0x14d|06:7D) Processing EVT_INT_A15WFI_L2 event in STATE_SUBMIT_REC_CDB
T 10/25/2019 03:16:05.618:    (0x14e|07:7D) Processing EVT_ENTRY event in STATE_FLUSHES_COMPLETE
T 10/25/2019 03:16:05.618:    (0x150|09:7D) E000E100: 448408CA
T 10/25/2019 03:16:05.618:    (0x152|0B:7D) E000E200: 812C1031
T 10/25/2019 03:16:05.629:    (0x153|0C:7E) Flush Time = 533 microseconds
T 10/25/2019 03:16:05.629:    (0x156|0F:7E) 00004004: 1F9672F6 1F96A716
T 10/25/2019 03:16:05.895:    (0x157|10:10) Processing EVT_SYS_LITE_RESET_OFF event in STATE_FLUSHES_COMPLETE
T 10/25/2019 03:16:05.896:    (0x158|11:10) Interrupt SYS_LITE_RESET (deassert) Additional Data = 0x00000000
 
                        RMC Ring Buffer - end -
... ...

# 删除RAID控制卡的日志。

[root@localhost ~]# storcli64 /c0 delete termlog
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
----------------------------
Ctrl Method Result
----------------------------
   0 Delete Termlog deleted
----------------------------

16.5.2.32 查询和设置bootwithpinnedcache参数

命令格式

storcli64 /ccontroller_id set bootwithspinnedcache=action

参数说明

参数

参数说明

取值

controller_id

硬盘所在RAID控制卡的ID

action

要执行的操作

l     on

l     off

 

查看RAID控制卡ID的方法请参见16.5.2.26 查询RAID控制卡/RAID组/物理硬盘信息。

使用指南

使用实例

# 查询bootwithpinnedcache功能的使能状态。

[root@localhost ~]# storcli64 /c0 show bootwithpinnedcache
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-----------------------------
Ctrl_Prop              Value
-----------------------------
Boot With Pinned Cache OFF
-----------------------------

# 开启bootwithpinnedcache功能。

[root@localhost ~]# storcli64 /c0 set bootwithpinnedcache=on
CLI Version = 007.1907.0000.0000 Sep 13, 2021
Operating system = Linux 4.19.36-vhulk1905.1.0.h273.eulerosv2r8.aarch64
Controller = 0
Status = Success
Description = None
 
 
Controller Properties :
=====================
 
-----------------------------
Ctrl_Prop              Value
-----------------------------
Boot With Pinned Cache ON
-----------------------------


A 附录

A.1 常用操作

A.1.1 RAID控制卡驱动下载和安装

RAID控制卡驱动下载和安装的方法请联系技术支持。

A.1.2 通过iBMC管理RAID控制卡

iBMC提供了带外管理RAID功能。您可以通过iBMC Web界面或命令行对支持带外管理的RAID控制卡进行基本的查询和配置操作。

详细操作信息请参见iBMC用户指南。

说明

可通过“技术规格”章节查询各RAID控制卡是否支持带外管理功能。

A.2 RAID控制卡启动中出现的常见的错误消息及处理方法

表A-1描述了MegaRAID固件中出现的启动错误消息。

表A-1 启动消息

序号

显示的启动消息

原因及处理方法/建议

1

Memory or battery problems were detected.

The adapter has recovered, but cached data was lost.

Press any key to continue, or press C to load the configuration utility.

原因:缓存数据丢失,无法检索。

处理方法:进行内存和电池测试。如果需要,更换电池或RAID控制卡。

2

This is a test message. You can press a key to ignore it, or you can wait five seconds.

No further action is required.

Press any key to continue, or press C to load the configuration utility.

这是一条测试消息,可以按任意键忽略,或者等待五秒,无需进一步处理。

3

Firmware version inconsistency was detected. The adapter has recovered, but cached data was lost.

Press any key to continue, or press C to load the configuration utility.

原因:检测到固件版本不一致。适配器已恢复,但是缓存的数据已经丢失。

处理方法:确保另一个控制器也具有相同的固件版本。

4

Foreign configuration(s) found on adapter.

Press any key to continue or press C to load the configuration utility or press F to import foreign configuration(s) and continue.

原因:插入了一个存储设备,其中的元数据不属于控制器识别的任何RAID组。

处理方法:导入已插入的存储设备的配置或删除RAID组。

5

Previous configuration cleared or missing.

Importing configuration created on %02d/%02d%2d:%02d.

Press any key to continue, or press C to load the configuration utility.

原因:控制器无法识别当前RAID组配置。

处理方法:导入配置或删除存储设备上的外部配置。

6

Firmware package: %s

7

Firmware version: %s

8

This firmware is a TEST version. It has not completed any validation.

原因:控制器无法识别当前RAID组配置。

处理方法:将固件升级到正确的版本。

9

This firmware is an ALPHA version – It has not completed all validation.

The validation stamp is:

%s"""

原因:控制器无法识别当前RAID组配置。

处理方法:将固件升级到正确的版本。

10

This firmware is BETA version – It has not completed all validation.

The validation stamp is:

%s"""

原因:控制器无法识别当前RAID组配置。

处理方法:将固件升级到正确的版本。

11

An enclosure was found that contains both SAS and SATA drives, but

this controller does not allow mixed drive types in a single enclosure.

Correct the problem then restart your system.

Press any key to continue, or press C to load the configuration utility.

原因:不能使用同时包含SAS和SATA盘的Enclosure,因为控制器不支持包含混合硬盘类型的Enclosure。

处理方法:

l     只使用一种类型的硬盘(SAS或SATA)。

l     更换控制器为支持单个Enclosure包含混合硬盘类型的控制器。

l     联系技术支持启用该特性。

12

SAS drives were detected, but this controller does not support SAS drives.

Remove the SAS drives then restart your system.

Press any key to continue, or press C to load the configuration utility.

原因:该控制器不支持SAS盘。

处理方法:更换SAS盘为SATA盘并重启系统。

13

SATA drives were detected, but this controller does not support SATA drives.

Remove the SATA drives then restart your system.

Press any key to continue, or press C to load the configuration utility.

原因:该控制器不支持SATA盘。

处理方法:将SATA盘替换为SAS盘并重启系统。

14

There are %d enclosures connected to connector %s, but only maximum of %d enclosures can be connected to a single SAS connector.

Remove the extra enclosures then restart your system.

原因:该控制器只支持特定数量的Enclosure。

处理方法:移除多余的Enclosure或插入满足需求的控制器。

15

Invalid SAS topology detected.

Check your cable configurations, repair the problem, and restart your system.

原因:控制器检测到无效的SAS拓扑。

处理方法:检查线缆或重新配置连接的设备以创建有效的SAS拓扑。

16

The battery is currently discharged or disconnected. Verify the connection  and  allow 30  minutes  for charging.

If the battery is properly connected and it has not returned to operational state after 30 minutes of charging then contact technical support for additional assistance.

原因:电池当前处于放电或断开状态。

处理方法:

l     检查电池线缆,确保电池线缆连接正常。

l     确保电池充电正常。

l     如果电池电量耗尽,请联系技术支持更换电池。

17

The battery hardware is missing or malfunctioning, or the battery is unconnected, or the battery could be fully discharged.

If you continue to boot the system, the battery-backed cache will not function. If battery is connected and has been allowed to charge for 30 minutes and this message continues to appear, contact technical support for assistance.

Press D to disable this warning (if your controller does not have a battery)

原因:电池硬件缺失或故障,或电池未连接,或电池完全放电。

处理方法:

l     检查电池线缆,确保电池线缆连接正常。

l     确保电池充电正常。

l     如果电池电量耗尽,请联系技术支持更换电池。

18

Invalid SAS Address present in MFC data.

Program a valid SAS Address and restart your system.

原因:可能存在无效的SAS地址。

处理方法:

1.     将系统下电,移除控制器。

2.     联系技术支持,对SAS地址重新编程。

19

Some configured disks have been removed from your system, or are no longer accessible.

Check your cables and also make sure all disks are present.

Press any key to continue, or press C to load the configuration utility.

原因:控制器无法找到已配置的硬盘。

处理方法:

l     检查已配置的硬盘是否在位、连接是否正常。

l     进入BIOS,查看这些设备是否有显示。

l     确保硬盘已启动并有电源供应。

l     如果有背板,检查连接器,确保硬盘有电源供应。

20

The following VDs have missing disks: %s.

If you proceed (or load the configuration utility), these VDs will be marked OFFLINE and will be inaccessible.

Check your cables and make sure all disks are present.

Press any key to continue, or press C to load the configuration utility.

原因:控制器无法找到已配置的硬盘。

处理方法:

l     检查已配置的硬盘是否在位、连接是否正常。

l     进入BIOS,查看这些设备是否有显示。

l     确保硬盘已启动并有电源供应。

l     如果有背板,检查连接器,确保硬盘有电源供应。

21

The following VDs are missing: %s.

If you proceed (or load the configuration utility), these VDs will be removed from your configuration.

If you wish to use them at a later time, they will have to be imported. If you believe these VDs should be present, power off your system and check your cables to make sure all disks are present.

Press any key to continue, or press C to load the configuration utility.

原因:控制器无法找到已配置的硬盘。

处理方法:

l     检查已配置的硬盘是否在位、连接是否正常。

l     进入BIOS,查看这些设备是否有显示。

l     确保硬盘已启动并有电源供应。

l     如果有背板,检查连接器,确保硬盘有电源供应。

22

The following VDs are missing complete spans: %s. If you proceed (or load the configuration utility), these VDs will be removed from your configuration and the remaining drives marked as foreign.

If you wish to use them at a later time, restore the missing span(s) and use a foreign import to recover the VDs.

If you believe these VDs should be present, please power off your system and check your cables to make sure all disks are present.

Press any key to continue, or press C to load the configuration utility.

原因:控制器无法找到已配置的硬盘。

处理方法:

l     检查已配置的硬盘是否在位、连接是否正常。

l     进入BIOS,查看这些设备是否有显示。

l     确保硬盘已启动并有电源供应。

l     如果有背板,检查连接器,确保硬盘有电源供应。

23

All of the disks from your previous configuration are gone. If this is an unexpected message, power off your system and check your cables to make sure all disks are present.

Press any key to continue, or press C to load the configuration utility.

原因:控制器无法找到已配置的硬盘。

处理方法:

l     检查已配置的硬盘是否在位、连接是否正常。

l     进入BIOS,查看这些设备是否有显示。

l     确保硬盘已启动并有电源供应。

l     如果有背板,检查连接器,确保硬盘有电源供应。

24

The cache contains dirty data, but some VDs are missing or will go offline, so the cached data can not be written to disk. If this is an unexpected error, power off your system and check your cables to make sure all disks

are present. If you continue, the data in cache will be permanently discarded.

Press X to acknowledge and permanently destroy the cached data.

原因:控制器无法找到已配置的硬盘。

处理方法:

l     检查已配置的硬盘是否在位、连接是否正常。

l     进入BIOS,查看这些设备是否有显示。

l     确保硬盘已启动并有电源供应。

l     如果有背板,检查连接器,确保硬盘有电源供应。

25

Your VDs that are configured for Write-Back are

temporarily running in Write-Through mode. This is caused by the battery being charged, missing, or bad.

Allow the battery to charge for 24 hours before evaluating the battery for replacement. The following VDs are affected: %s

Press any key to continue.

原因:配置为Write Back策略的虚拟磁盘暂时以Write Through方式运行。因为电池正在充电,或者电池已经丢失、损坏。

处理方法:

l     检查电池线缆,确保电池线缆连接正常。

l     确保电池充电正常。

l     如果电池电量耗尽,联系技术支持更换电池。

26

Invalid memory configuration detected.

Contact your system support. System has halted.

原因:检测到无效内存配置。

处理方法:更换RAID控制卡。

27

Cache data was lost due to an unexpected power-off or reboot during a write operation, but the adapter has recovered. This could be because of memory problems, bad battery, or you might not have a battery installed.

Press any key to continue or C to load the configuration utility.

原因:在写操作过程中,可能因为内存问题、电池损坏、或者未安装电池等原因,造成意外断电或重启,导致缓存数据丢失,但适配器已恢复。

处理方法:

l     检查电池线缆,确保电池线缆连接正常。

l     确保电池充电正常。

l     如果电池电量耗尽,联系技术支持更换电池。

28

Entering the configuration utility in this state will result in drive configuration changes.

Press Y to continue loading the configuration utility or power off your system and check your cables to make sure all disks are present and reboot the system.

原因:控制器无法找到已配置的硬盘。

处理方法:

l     检查已配置的硬盘是否在位、连接是否正常。

l     进入BIOS,查看这些设备是否有显示。

l     确保硬盘已启动并有电源供应。

l     如果有背板,检查连接器,确保硬盘有电源供应。

l     如果使用控制器通过重用硬盘来创建新的配置,则清除现有数据,然后继续。

29

Multibit ECC errors were detected on the RAID controller. If you continue, data corruption can occur.

Contact technical support to resolve this issue.

Press X to continue, otherwise power off the system, replace the controller, and reboot.

原因:在RAID控制器上检测到Multibit(多比特)ECC错误。如果继续,可能会导致数据损坏。

处理方法:

1.     更换RAID控制卡。

2.     如果问题仍然存在,联系技术支持。

30

Single-bit ECC errors were detected on the RAID controller.

Contact technical support to resolve this issue.

Press X to continue or else power off the system, replace the controller, and reboot.

原因:在RAID控制器上检测到单比特(Single-bit)ECC错误。

处理方法:

1.     更换RAID控制卡。

2.     重启系统。

3.     如果问题仍然存在,联系技术支持。

31

Single-bit overflow ECC errors were detected on the RAID controller. If you continue, data corruption    can occur.

Contact technical support to resolve this issue.

Press X to continue or else power off the system, replace the controller, and reboot.

原因:RAID控制器上检测到单比特(Single-bit)溢出ECC错误。如果继续,可能会导致数据损坏。

处理方法:

3.     更换RAID控制卡。

4.     重启系统。

5.     如果问题仍然存在,联系技术支持。

32

Multibit ECC errors were detected on the RAID controller. The DIMM on the controller needs replacement.

Contact technical support to resolve this issue. If you continue, data corruption can occur.

Press X to continue, otherwise power off the system and replace the DIMM module and reboot. If you have replaced the DIMM press X to continue.

原因:在RAID控制器上检测到Multibit(多比特)ECC错误。

处理方法:

1.     更换RAID控制卡。

2.     重启系统。

3.     如果问题仍然存在,联系技术支持。

33

Single-bit ECC errors were detected during the previous boot of the RAID controller. The DIMM on the controller needs replacement.

Contact technical support to resolve this issue.

Press X to continue, otherwise power off the system and replace the DIMM module and reboot. If you have replaced the DIMM press X to continue.

原因:RAID控制器在上一次启动过程中检测到单比特(Single-bit)ECC错误。

处理方法:

1.     更换RAID控制卡。

2.     重启系统。

3.     如果问题仍然存在,联系技术支持。

34

Single-bit overflow ECC errors were detected during the previous boot of the RAID controller. The DIMM on the controller needs replacement.

Contact technical support to resolve this issue. If you continue, data corruption can occur.

Press X to continue, otherwise power off the system and replace the DIMM module and reboot. If you have replaced the DIMM press X to continue.

原因:RAID控制器在上一次启动过程中检测到单比特(Single-bit)溢出ECC错误。

处理方法:

1.     更换RAID控制卡。

2.     重启系统。

3.     如果问题仍然存在,联系技术支持。

35

The attached enclosure does not support in controller's Direct mapping mode.

Contact your system support.

The system has halted because of an unsupported configuration.

原因:可能存在过多串联的Enclosure,也可能与硬盘中的安全特性有关。

处理方法:

l     移除不支持的硬盘。

l     减少硬盘数量。

l     更换为另一个Enclosure。

l     确保固件版本已经更新。

l     如果问题仍然存在,联系技术支持。

36

Expander detected in controller with direct mapping mode.

Reconfiguring automatically to persistent mapping mode. Automatic reboot would happen in 10 seconds.

原因:在直接映射模式下,控制器检测到了Expander。

处理方法:无需处理。控制器将自身配置为持久映射模式然后重新启动。

如果问题仍然存在,联系技术支持。

37

Your controller's I/O processor has a fault

that can potentially cause data corruption. Your controller needs replacement.

Contact your system support.

To continue, press Y to acknowledge.

原因:控制器的I/O处理器有一个可能导致数据损坏的故障。

处理方法:联系技术支持更换控制器。

38

The number of disks exceeded the maximum supported count of %d disks.

Remove the extra drives and reboot system to avoid losing data.

Press Y to continue with extra drives.

原因:硬盘数量超过上限。

处理方法:

l     将系统下电,移除控制器。

l     移除超出的硬盘以缩小拓扑。

l     将当前控制器更换为支持更大拓扑的控制器。

39

The number of devices exceeded the maximum limit of devices per

quad. Remove the extra drives and reboot the system to avoid losing data.

System has halted due to unsupported configuration.

原因:硬盘数量超过上限。

处理方法:

l     将系统下电,移除控制器。

l     移除超出的硬盘以缩小拓扑。

l     将当前控制器更换为支持更大拓扑的控制器。

40

A discovery error has occurred, power cycle the system and all the enclosures attached to this system.

原因:发生了Discovery错误,对系统及所有与系统连接的Enclosure进行上下电。

处理方法:

l     关闭并重启系统以及所有与系统连接的Enclosure。

l     确保所有线缆正确连接。如存在坏盘,缩小拓扑。

l     如果问题仍然存在,请收集系统日志、驱动日志和固件日志,并联系技术支持。

41

Drive security is enabled on this controller and a pass phrase is required. Enter the pass phrase.

原因:控制器上启用了硬盘安全特性,需要输入密码。

处理方法:输入密码。

42

Invalid pass phrase. Enter the pass phrase.

原因:无效的密码。

处理方法:输入有效的密码。

43

There was a drive security key error. All secure drives will be marked as foreign.

Press any key to continue, or C to load the configuration utility.

原因:硬盘安全key错误,所有安全硬盘将被标记为Foreign。

处理方法:检查控制器是否支持自加密硬盘。

44

Invalid pass phrase. If you continue, a drive security key error will occur and all secure configurations will be marked as foreign.

Reboot the machine to retry the pass phrase or press any key to continue.

原因:无效的密码。

处理方法:重启系统重试密码或按任意键继续。

45

Unable to communicate to EKMS. If you continue, there will be a drive security key error and all secure configurations will be marked as foreign.

Check the connection with the EKMS, reboot the machine to retry the EKMS or press any key to continue.

原因:无法与EKMS通信。

处理方法:检查与EKMS的连接,重启系统,重新建立与EKMS的连接。

46

Unable to change security to EKMS as not able to communicate to

EKMS. If you continue, the drive security will remain to existing security mode.

Check the connection with the EKMS, reboot the machine to retry the EKMS or press any key to continue.

原因:无法与EKMS通信,无法将安全模式修改为EKMS。

处理方法:检查与EKMS的连接,重启系统,重新建立与EKMS的连接。

47

DKM existing key request failed; existing secure configurations will be labeled foreign and will not be accessible.

Reboot the server to retry.

原因:DKM现有key请求失败;现有的安全配置将被标记为“Foreign”且不能访问。

处理方法:检查与EKMS的连接,重启系统,重新建立与EKMS的连接。

48

DKM new key request failed; controller security mode transition was not successful.

Reboot the server to retry request, or press any key to continue.

原因:DKM新key请求失败;控制器安全模式转换不成功。

处理方法:检查与EKMS的连接,重启系统,重新建立与EKMS的连接。

49

Firmware did not find valid NVDATA image.

Program a valid NVDATA image and restart your system.

Press any key to continue.

原因:固件没有找到有效的NVDATA镜像。

处理方法:

l     刷新一个有合适NVDATA镜像的固件包。

l     检查当前固件版本,如有必要,更新到最新固件版本。更新到最新固件版本可能需要导入外部Volume。

50

IR to MR Migration failed.

Press any key to continue with MR defined NVDATA values

原因:IR到MR迁移失败,按任意键继续使用MR定义的NVDATA值。

处理方法:

51

Two BBUs are connected to the adapter. This is not a supported configuration. Battery and caching operations are disabled. Remove one BBU and reboot to restore battery and caching operations. If dirty cache is lost in this boot, that could have been because of dual battery presence.

原因:适配器连接着两个BBU,由于不支持这种配置,电池和缓存操作已被禁用。

处理方法:移除一个BBU,重启系统,恢复电池和缓存操作。

由于存在双电池,在系统重启过程中,可能会丢失脏缓存中的数据。

52

Offline or missing virtual drives with preserved cache exist.

Check the cables and make sure that all drives are present.

Press any key to continue, or C to load the configuration utility.

原因:控制器无法找到已配置的硬盘。

处理方法:

l     检查已配置的硬盘是否在位、连接是否正常。

l     进入BIOS,查看这些设备是否有显示。

l     确保硬盘已启动并有电源供应。

l     如果有背板,检查连接器,确保硬盘有电源供应。

l     如果恢复了丢失的硬盘,则会发生缓存卸载。

53

Offline or missing virtual drives with preserved cache exist.

Check the cables and make sure that all drives are present.

Press any key to enter the configuration utility.

原因:控制器无法找到已配置的硬盘。

处理方法:

l     检查已配置的硬盘是否在位、连接是否正常。

l     进入BIOS,查看这些设备是否有显示。

l     确保硬盘已启动并有电源供应。

l     如果有背板,检查连接器,确保硬盘有电源供应。

l     如果恢复了丢失的硬盘,则会发生缓存卸载。

54

Invalid SAS Address present in SBR. Contact

your system support.

Press any key to continue with Default SAS Address.

原因:SBR中存在无效的SAS地址。

处理方法:联系技术支持恢复出厂配置默认值。

55

Incompatible secondary iButton present!

Insert the correct iButton and restart the system.

Press any key to continue but OEM specific features will not be upgraded!

原因:存在不兼容的RAID key。

处理方法:插入正确RAID key,重启系统。如果问题仍然存在,联系技术支持更换RAID key。

56

Upgrade Key Missing! An upgrade key was present on a previous power cycle, but it is not connected.

This can result in inaccessible data unless it is addressed.

Re-attach the upgrade key and reboot.

原因:前一个上下电周期中存在的升级key可能无法连接。

处理方法:重新连接key并重启系统。如果问题仍然存在,联系技术支持更换升级key。

57

The native configuration is not supported by the controller.

Check the controller, iButton or key-vault. If you continue the configuration will be marked foreign.

Press any key to continue.

原因:控制器不支持本地配置。

处理方法:插入正确的RAID key,并重启系统。如果问题仍然存在,联系技术支持更换RAID key。

58

The battery is currently discharged or disconnected. Verify the connection  and    allow 30  minutes  for charging. If the battery is properly connected and it has not returned to operational state after 30 minutes of charging, contact technical support for additional assistance.

Press D to disable this warning (if your controller does not have a battery).

原因:电池当前处于放电或断开状态。

处理方法:

l     检查电池线缆,确保电池线缆连接正常。

l     确保电池充电正常。

l     如果电池电量耗尽,联系技术支持更换电池。

59

The battery is currently discharged or disconnected. VDs configured in

Write-Back mode will run in Write-Through mode to protect your data and will return to the Write-Back policy when the battery is operational.

If VDs have not returned to Write-Back mode after 30 minutes of charging then contact technical support for additional assistance.

The following VDs are affected: %s.

Press any key to continue.

原因:电池当前处于放电或断开状态。在Write Back模式下配置的虚拟磁盘将以Write Through模式运行以保护数据,当电池运行时将返回Write Back模式。

处理方法:

l     检查电池线缆,确保电池线缆连接正常。

l     确保电池充电正常。

l     如果电池电量耗尽,请联系技术支持更换电池。

60

Cache data was lost, but the controller has recovered. This could be because your controller had protected cache after an unexpected power loss and your system was without power longer than the battery backup time.

Press any key to continue or C to load the configuration utility.

原因:缓存数据丢失,但控制器已恢复。这可能是因为控制器在意外断电后保护了缓存,而系统的断电时间超过了电池的备份时间。

处理方法:

l     检查内存和电池。

l     掉电时,检查电压水平和缓存卸载时间。

l     必要时更换内存或电池。

61

A snapshot rollback is in progress on VDs %s, the controller cannot boot until the rollback operation completes.

Press any key to enter the configuration utility.

原因:虚拟磁盘上正在进行快照回滚,在完成之前控制器无法启动。

处理方法:等待一段时间,直到回滚完成。

62

The following VDs: %s have Rollback active and the corresponding Repository is missing. If you continue to boot the system or enter the configuration utility, these VDs will become unusable.

Press any key to Continue.

原因:这可能与快照特性有关,MegaRAID 12Gb/s SAS RAID控制器不支持快照特性。

处理方法:等待一段时间,直到回滚完成。

63

Snapshot Repository VDs %s have been removed from your system, or are no longer accessible.

Check the cables and make sure all disks are present. If you continue to boot the system, the snapshot related data will be lost.

Press any key to continue, or C to load the configuration utility.

原因:控制器无法找到已配置的硬盘。

处理方法:

l     检查已配置的硬盘是否在位、连接是否正常。

l     进入BIOS,查看这些设备是否有显示。

l     确保硬盘已启动并有电源供应。

l     如果有背板,检查连接器,确保硬盘有电源供应。

64

The most recent configuration command could not be committed and must be retried.

Press any key to continue, or C to load the configuration utility.

原因:无法提交最近的配置命令,必须重试。

处理方法:

65

Firmware could not synchronize the configuration or property changes for some of the VD's/PD's.

Press any key to continue, or C to load the configuration utility.

原因:固件无法同步某些虚拟磁盘或物理硬盘的配置或属性更改。

处理方法:按任意键继续,或按“C”键加载Configuration Utility。如果问题仍然存在,联系技术支持。

66

On-board expander firmware or manufacturing image is corrupted. The flash expander firmware and manufacturing image use the recovery tools.

原因:Expander存在软件失效问题。

处理方法:

联系技术支持。

67

The native configuration is not supported by the current firmware.

Make sure that the correct controller firmware is being used. If you continue, the configuration will be marked as foreign.

Press any key to continue.

原因:当前固件不支持本地配置。

处理方法:

l     收集系统日志、驱动日志和固件日志。

l     确保固件版本正确,并更新到最新版本。

l     如果问题仍然存在,联系技术支持。

68

Foreign configuration import did not import any drives.

Press any key to continue.

原因:外部配置导入没有导入任何硬盘。

处理方法

l     检查控制器的固件版本。

l     更换控制器后重试。

l     如果问题仍然存在,联系技术支持。

69

Valid memory detected. Firmware is upgraded from iMR to MR.

Reboot the system for the MR firmware to run.

原因:检测到有效内存。固件从iMR升级到MR。

处理方法:重启系统,使MR固件运行。

70

Advanced software options keys were detected, features activated – %s.

原因:检测到Advanced Software Options选项,特性正在被激活。

处理方法:

71

Advanced software options keys were missing, features deactivated – %s.

原因:Advanced Software Options选项丢失,特性正在被停用。

处理方法

l     检查线缆连接。

l     检查是否有Advanced Software Options选项。

l     如果问题仍然存在,联系技术支持。

72

Cannot communicate with iButton to retrieve premium features. This is probably because of extreme temperatures.

The system has halted!

原因:无法与RAID key通信进行高级特性检索。这可能是由极端温度引起的。

处理方法:

l     检查线缆连接。

l     确保RAID key在位。

l     检查RAID key周边的环境温度。

l     如果问题仍然存在,联系技术支持。

73

Consecutive power loss detected during I/O transactions on non-optimal write-back volumes. This might have resulted in data integrity issues.

Press 'X' to proceed.

原因:在非最优的write-back写策略的volume上,I/O活动期间发生连续多次掉电。这可能导致数据完整性问题。

处理方法:

l     检查控制器是否牢牢固定在PCI插槽中。

l     检查电源、电池和超级电容。

l     如发现硬件缺陷,联系技术支持。

74

USB cache device is not responding.

Power down the system for 2 minutes to attempt recovery and avoid cache data loss, and then power-on.

原因:USB缓存设备无响应。

处理方法:

l     LSI SAS2208控制器支持USB缓存卸载。确保USB缓存在位且安全。

l     插拔并更换USB缓存。

l     将系统断电2分钟,以尝试恢复和避免缓存数据丢失,然后上电。

75

Bad or missing RAID controller memory module detected.

Press D to downgrade the RAID controller to iMR mode.

Warning! Downgrading to iMR mode, might result in incompatible Logical drives.

Press any other key to continue, controller shall boot to safe mode.

原因:检测到RAID控制器内存模块损坏或丢失。

处理方法:更换RAID控制卡。

 

不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!

新华三官网
联系我们