手册下载
H3C UIS标准版超融合管理平台
开局指导
资料版本:5W102-20240515
Copyright © 2024 新华三技术有限公司 版权所有,保留一切权利。
非经本公司书面许可,任何单位和个人不得擅自摘抄、复制本文档内容的部分或全部,并不得以任何形式传播。
除新华三技术有限公司的商标外,本手册中出现的其它公司的商标、产品标识及商品名称,由各自权利人拥有。
本文档中的信息可能变动,恕不另行通知。
H3C UIS 超融合产品是H3C公司面向企业和行业数据中心推出的软硬件融合一体机,遵循开放架构标准,在通用的x86和ARM服务器硬件上无缝集成计算虚拟化、网络虚拟化、存储虚拟化、虚拟化安全、运维监控管理、云计算业务流程交付等软件技术,利用高速网络聚合多套超融合设备,实现资源模块化的横向弹性伸缩,形成统一的计算与存储资源池,不仅可以精简数据中心服务器数量,整合数据中心IT基础设施资源,精简IT操作,提高管理效率,以达到提高物理资源利用率和降低整体运营成本的目的,而且可以利用先进的云管理理念和互联网化的软件定义存储技术,建立安全的、可审核的、资源可按需调配和近线性扩展的数据中心环境。为业务部门提供成本更低、服务水平更高的基础架构,从而能够针对业务部门的需求做出快速的响应。
H3C UIS 超融合产品由超融合硬件服务器和超融合内核与管理软件两部分构成,软硬件在实验室完成充分预优化与预验证、供应链预集成与预安装,并可根据客户对硬件配件要求灵活自定义,超融合一体机设备到达客户现场之后,开箱即用,开箱即云,简化现场实施部署复杂度,加速业务上线速度与效率。
H3C UIS超融合一体机服务器分为UIS-Cell 3000、UIS 4500 G3、UIS 5000 G3、UIS 6000 、UIS 9000和UIS 2000等款型。
UIS-Cell 3000 G3包括4种机型,具体机型及每种机型支持的主要规格请参见表1-1,详细产品描述请查阅《H3C UIS-Cell 3000 G3系列超融合一体机安装部署指导》:
表1-1 UIS-Cell 3000 G3 4种机型规格表
|
机型 |
UIS-Cell 3010 G3 |
UIS-Cell 3020 G3 |
UIS-Cell 3030 G3 |
UIS-Cell 3040 G3 |
|
CPU |
最多支持2路Intel Xeon Skylake-SP CPU |
|||
|
内存 |
最多支持24根RDIMM DDR4内存条,最大内存容量为768GB(24*32GB) |
|||
|
硬盘配置 |
前部8SFF硬盘 |
前部25SFF硬盘 |
前部12LFF硬盘 |
前部8LFF硬盘 |
UIS 4500 G3机型支持的主要规格请参见表1-2,详细产品描述请查阅《H3C UIS 4500 G3系列超融合一体机安装部署指导》
表1-2 UIS 4500 G3机型规格表
|
机型 |
UIS 4500 G3 |
|
CPU |
最多可支持2路英特尔® 至强® 可扩展处理器 |
|
内存 |
最多支持24根RDIMM DDR4内存条,最大容量3.0TB,可选NVDIMM* |
|
硬盘配置 |
服务器支持前部24LFF硬盘配置,且支持后部扩展LFF硬盘和SFF硬盘 |
UIS 5000 G3机型支持的主要规格请参见表1-3,详细产品描述请查阅《H3C UIS 5000 G3系列超融合一体机安装部署指导》:
表1-3 UIS 5000 G3机型规格表
|
机型 |
UIS 5000 G3 |
|
CPU |
最多可支持4路英特尔® 至强® 可扩展处理器 |
|
内存 |
最多支持48根RDIMM DDR4内存条,最大容量6.0TB 支持24根英特尔®傲腾®数据中心级持久内存(DCPMM) |
|
硬盘配置 |
支持多种配置,参考《H3C UIS 5000 G3系列超融合一体机 安装部署指导》 |
UIS-Cell 6000机型支持的主要规格请参见表1-4,详细产品描述请查阅《H3C UIS-Cell 6000 G3系列超融合一体机安装部署指导》:
表1-4 UIS-Cell 6000 机型规格表
|
机型 |
UIS-Cell 6000 |
|
CPU |
最多可支持4路英特尔® 至强® 可扩展处理器 |
|
内存 |
最多支持48根RDIMM DDR4内存条,最大内存容量为1536GB(48*32GB) |
|
硬盘配置 |
支持多种配置,参考《H3C UIS 6000 G3系列超融合一体机 安装部署指导》 |
UIS 2000机型支持的主要规格请参见表1-5,详细产品描述请查阅《H3C UIS 2000 G3系列超融合一体机用户指南》:
表1-5 UIS 2000主要机型规格表
|
机型 |
UIS 2000-A1 G3 |
UIS 2000-A2 G3 |
UIS 2000-A3 G3 |
|
产品编码 |
9801A3DY (UIS-2000-A1-G3) |
9801A3DV (UIS-2000-A2-G3) |
9801A3DX (UIS-2000-A3-G3) |
|
特色 |
单C双节点,低门槛,超融合型 适合预算紧张、资源需求少、两节点集群最佳选择 |
单C双节点,高性价比,超融合节点 适合中等业务规模(3节点≤14个业务系统) |
双C双节点,主力型,超融合节点 适合较大业务规模(3节点≤30个业务系统) |
|
CPU |
4216(2.1GHz/16核) *2 |
5218R(2.1GHz/20核) *2 |
5218R(2.1GHz/20核) *4 |
|
内存 |
64GB *4(可扩展64GB *4) |
64GB *8 |
64GB *8(可扩展64GB *8) |
|
系统盘 |
480GB SATA SSD *2 (注:每节点单系统盘) |
480GB SATA SSD *4 (注:每节点双系统盘) |
480GB SATA SSD *4 (注:每节点双系统盘) |
|
缓存盘 |
960GB NVMe *2 |
960GB NVMe *2 |
960GB NVMe *2 |
|
数据盘 |
4TB SATA HDD *10 |
8TB SATA HDD *6 (可扩展8TB *2) |
8TB SATA HDD *8 |
|
网卡 |
2端口10GE光接口网卡(BCM957412) *2 (每节点可扩展1块万兆网卡或1块HBA卡) |
||
|
2端口RJ45千兆(板载自带)*2 |
|||
|
光模块 |
SFP+ 万兆模块(850nm,300m,LC) *4(可随网卡扩展) |
||
|
机框 |
UIS 2000 G3硬件平台(机框+主板+钛金级电源+风扇等) *1 |
||
|
说明 |
2U双节点,每节点可独立插拔, 以上资源为2节点之和 |
||
UIS超融合支持X86(INTEL/AMD/海光)和ARM(鲲鹏)架构的服务器;具体型号可参考软硬件兼容列表
G5机型要支持NVME点灯,需手动在BIOS内设置开启VMD功能
H3C UIS工程实施前,需要提前做好工程开局的准备工作,比如确认现场环境是否具备,是否有足够的机柜空间,足够的电源,服务器配置是否满足要求等。
在安装设备时,需要参考硬件机型安装部署指导,确认机柜尺寸、机房供电、温度、湿度等是否满足。
表2-1 UIS-Cell 3000服务器的物理参数表:
|
项目 |
说明 |
|
产品规格 |
2U1N(机架) |
|
尺寸(高x宽x深) |
87.5mm(高)*445.4mm(宽)*768.45mm(深) |
|
最大重量 |
· 8SFF 硬盘机型:26.55kg · 8LFF 硬盘机型:31.33kg · 12LFF 硬盘机型:36.65kg · 25SFF 硬盘机型:34.25kg |
表2-2 UIS 4500 G3服务器的规格表:
|
项目 |
说明 |
|
产品规格 |
4U1N(机架) |
|
尺寸(高x宽x深) |
174.8mm(高)*447mm(宽)*804mm(深) |
|
最大重量 |
56kg |
表2-3 UIS 5000 G3服务器的规格表:
|
项目 |
说明 |
|
产品规格 |
4U1N(机架) |
|
尺寸(高x宽x深) |
87.5mm(高)*445.4mm(宽)*769mm(深) |
|
最大重量 |
29.5kg |
表2-4 UIS Cell 6000服务器的规格表:
|
项目 |
说明 |
|
产品规格 |
2U1N(机架) |
|
尺寸(高x宽x深) |
174.8mm(高)*444mm(宽)*829.7mm(深) |
|
最大重量 |
67kg |
表2-5 UIS 2000 服务器的规格表:
|
项目 |
说明 |
|
产品规格 |
2U1N(机架) |
|
尺寸(高x宽x深) |
88mm(高)*438mm(宽)*724mm(深) |
|
最大重量 |
27.3kg |
下表所示的功率信息为设备单路供电时的电源要求,设备可以正常启动运行,但是在实际安装时需要考虑电源冗余,建议采用双路供电。
表2-6 UIS 3000 服务器可选的电源模块功率表:
|
产品型号 |
功率 |
|
UN-PSR550-12A-F1 |
550W 电源 |
|
UN-PSR800-12A-F1 |
800W 电源 |
|
PSR800-12AHD-FIO |
800W 钛金电源 |
|
UN-PSR1200-12A-F1 |
1200W 电源 |
表2-7 UIS 4500 G3服务器可选的电源模块功率表:
|
产品型号 |
功率 |
|
UN-PSR550-12A-F1 |
550W 电源 |
|
UN-PSR800-12A-F1 |
800W 电源 |
|
PSR800-12AHD-FIO |
800W 钛金电源 |
|
UN-PSR1200-12A-F1 |
1200W 电源 |
表2-8 UIS 5000 G3服务器可选的电源模块功率表:
|
产品型号 |
功率 |
|
UN-PSR550-12A-F1 |
550W 电源 |
|
UN-PSR800-12A-F1 |
800W 电源 |
|
PSR800-12AHD-FIO |
800W 钛金电源 |
|
UN-PSR1200-12A-F1 |
1200W 电源 |
表2-9 UIS 6000服务器可选的电源模块功率表:
|
产品型号 |
功率 |
|
PSR800-12A-F2 |
800W 电源 |
|
PSR800-12AHD-F1 |
800W 电源(支持336V 高压直流) |
|
PSR1200-12A-F2 |
1200W 电源 |
|
PSR1600-12A-FIO |
1600W 电源 |
表2-10 UIS 2000 服务器可选的电源模块功率表:
|
模块 |
说明 |
|
电源 |
1200W 1+1冗余电源支持 |
|
交流电压/频率 |
200V-240V ;50Hz-60Hz |
表格中是机箱各模块的最大功耗。实际使用中,各模块的真实功耗和具体配置相关(例如配置几个CPU、几个硬盘等),请以实际情况为准。
H3C UIS超融合平台部署分为两种场景,计算虚拟化和超融合架构,其中计算虚拟化仅需部署虚拟化管理平台,无须部署分布式存储,虚拟化平台使用的存储由外部IP SAN或FC SAN存储提供。超融合架构同时部署虚拟化管理平台和分布式存储管理平台,虚拟化平台使用的存储由分布式存储提供,也可以由外部IP SAN或FC SAN存储提供。
· 如部署计算虚拟化,则最少一台UIS超融合一体机即可部署。
· 如部署超融合架构,要求至少准备两台UIS超融合一体机。
|
指标项 |
指标值 |
|
数量 |
≥1台 |
|
CPU |
主频≥2GHz |
|
内存 |
≥64GB |
|
系统硬盘 |
2*300GB及以上 HDD |
|
网卡 |
≥ 1*4端口千兆以太网卡 |
|
指标项 |
指标值 |
|
数量 |
≥3台 |
|
CPU |
主频≥2GHz |
|
内存 |
≥256GB |
|
系统硬盘 |
2*300GB及以上HDD |
|
分布式存储硬盘 |
4*4TB及以上HDD+1*1TB及以上NVMe SSD |
|
网卡 |
≥1*4端口千兆以太网卡+2*2端口万兆网卡,推荐全部使用万兆网卡 |
· 如果集群内主机数量小于或者等于六台,则UIS-Sec网关组件可以和业务网共用网卡(需要UIS标准版E0720及E0720之后版本),建议共用的网卡配置为万兆网卡。否则,部署UIS-Sec网关组件和UIS-Sec安全组件的服务器需要多预留2个万兆网络端口,用于承载UIS-Sec的跨网段通信流量(包括东西向和南北向通信流量)。
· UIS-Sec网关业务通道支持普通和高性能两种模式,普通模式网络性能一般,可选择千兆或者万兆网卡,且必须做网口聚合;高性能模式网络性能强,必须使用支持DPDK的万兆网卡,且必须做网口聚合。如果集群内主机数量大于六台,则必须使用支持DPDK的万兆网卡。
· UIS-Sec所在集群内至少需要为UIS-Sec管理组件预留三块480G以上硬盘(硬盘型号不限),为UIS-Sec管理组件预留的硬盘应分布在不同主机上,构成UIS-Sec管理组件需要的存储资源池。UIS-Sec管理组件的系统盘必须独占该存储资源池,不允许其他业务使用该存储池及关联的硬盘池,在使用过程中禁止操作该存储池相关的硬盘池、数据池、块设备、业务主机及业务主机组,避免出现存储异常的情况。两节点组网也可以选择预留两块800G以上硬盘给UIS-Sec管理组件独占。
搭建计算虚拟化场景时,服务器有两种角色,包括管理节点和业务节点。
· 管理节点:提供管理、运维整个超融合系统的Web用户页面。初始化部署前用户需指定一台服务器作为管理节点并为该服务器配置管理IP地址。
· 业务节点:提供计算业务的节点。
一台服务器可以同时承担管理节点和业务节点两种角色。
计算虚拟化场景提供两种管理节点部署方案,包括管理节点融合部署和管理节点分离部署。
· 管理节点融合部署:管理节点同时作为业务节点。
· 管理节点分离部署:管理节点不作为业务节点。
服务器数量为N时,推荐采用如表3-1所示的部署方案:
|
服务器数量 |
推荐部署方案 |
|
1≤N<16 |
管理节点融合部署 |
|
16≤N≤32 |
管理节点分离部署 |
搭建超融合架构场景时,服务器有两种角色,包括管理节点和业务节点。
· 管理节点:提供管理、运维整个超融合系统的Web用户页面。初始化部署前用户需指定一台服务器作为管理节点并为该服务器配置管理IP地址。
· 业务节点:提供计算、存储业务的节点。
一台服务器可以同时承担管理节点和业务节点两种角色。
在分布式存储中,业务节点又分为存储节点和监控节点。
· 存储节点:提供数据存储服务。超融合场景下至少部署两个存储节点。
· 监控节点:维护整个集群存储系统的全局状态,持有整个存储系统的元数据信息。监控节点数量最小为3,最大为7,且必须为奇数。一台服务器可以同时作为存储节点和监控节点。UIS集群默认自动调整监控节点数量,不需要专门手动配置。
当单集群中存储节点数量为N时,推荐监控节点的数量如下:
· 2≤N≤4时,推荐设置3个监控节点。
· 5≤N≤10,推荐设置5个监控节点。
· N≥11时,推荐设置7个监控节点。
当只有两个存储节点时,由于监控节点最少设置三个,所以必须规划一个外部监控节点。
超融合架构场景提供两种管理节点部署方案,包括管理节点融合部署和管理节点分离部署。
· 管理节点融合部署:管理节点同时作为业务节点。
· 管理节点分离部署:管理节点不作为业务节点。
服务器数量为N时,推荐采用如表3-2所示的部署方案:
|
服务器数量 |
推荐部署方案 |
|
2≤N<30 |
管理节点融合部署 |
|
30≤N |
管理节点分离部署 |
仅两节点场景下,必须规划一个外部监控节点。
外部监控节点可以是瘦终端或者虚拟机,其硬件配置要求如表3-3所示、表3-4所示。推荐使用H3C C105V云终端。
虚拟机是在其他虚拟化平台中创建,虚拟化平台类型无要求,虚拟机能安装UIS超融合系统,网络连通即可。
|
指标项 |
规格 |
|
CPU |
核数≥2,主频≥1.6GHz |
|
内存 |
≥4GB |
|
硬盘 |
≥128GB SSD |
|
网卡 |
≥1端口千兆以太网网卡 |
|
指标项 |
规格 |
|
CPU |
核数≥4,主频≥1.6GHz |
|
内存 |
≥8GB |
|
硬盘 |
≥200GB |
|
网卡 |
≥1端口千兆以太网网卡+2端口万兆以太网网卡 |
· 若采用虚拟机作为外部监控节点,则要求其宿主机的CPU利用率不超过80%,内存利用率不超过80%,硬盘时延不超过20ms。
· 当外部监控节点仅提供单端口千兆以太网口时,需确保监控节点与管理网、存储内网和存储外网互通,此时无法保证物理冗余。
· 外部监控节点安装的UIS标准版软件的版本需与两节点物理服务器保持一致。
UIS超融合集群在逻辑上分为五个网络平面:管理网络、业务网络、存储外网、存储内网和公网。各网络之间使用VLAN隔离。
表3-5 超融合集群逻辑网络平面定义表
|
逻辑网络平面 |
描述 |
要求 |
|
管理网 |
用户可以通过管理网络访问UIS集群,对UIS主机节点进行管理和维护 |
千兆或万兆网络,推荐万兆 |
|
业务网 |
UIS超融合集群对外提供业务的网络 |
千兆或万兆网络, 推荐万兆 |
|
存储外网 |
UIS虚拟机及其应用的IO业务通过存储外网与UIS分布式存储集群进行通信 |
万兆网络 |
|
存储内网 |
UIS分布式存储集群内部的节点通过存储内网相互通信,用于数据平衡、恢复等,并不对外提供服务 |
万兆网络 |
|
公网 |
UIS-Sec网关组件使用,用于业务私网跨网段通信,或者业务私网与公网通信 |
千兆或万兆网络, 推荐万兆 |
· 管理网络、存储外网、存储内网建议分离,承载在不同的物理网口上。
· 管理网络和业务网络根据需求选择千兆或者万兆网络进行通信。
· 存储外网和存储内网属于重要的网络平面,必须使用万兆网卡,且必须做链路聚合。
· 公网属于重要的网络平面,公网流量由UIS-Sec网关组件承载,UIS-Sec网关业务通道支持普通和高性能两种模式,普通模式,可选择千兆或者万兆网卡,且必须做网口聚合;高性能模式,必须使用支持DPDK的万兆网卡,且必须做网口聚合。如果UIS Sec网关组件上的流量超过1G,则必须使用支持DPDK的万兆网卡。
当采用两台服务器部署UIS超融合架构时,必须采用管理节点融合部署方案,同时需设置外部监控节点。
图3-1 两节点方案逻辑网络拓扑(瘦终端)
图3-2 两节点方案逻辑网络拓扑(虚拟机)
管理节点、业务节点、外部监控节点各逻辑网络端口复用配置说明如表3-6所示。
|
类别 |
网卡配置举例 |
逻辑网络端口复用配置举例 |
|
管理节点、业务节点 |
1*4端口千兆以太网网卡 1*2端口万兆以太网网卡 |
· 管理网、存储外网、存储内网:复用2个万兆端口,端口聚合 · 业务网:2个千兆端口,端口聚合 |
|
外部监控节点-瘦终端 |
单端口千兆以太网网卡 |
管理网、存储外网、存储内网复用一个千兆端口 |
|
外部监控节点-虚拟机 |
· 1个千兆网卡 · 2个万兆网卡 |
· 管理网:千兆网卡 · 存储外网:万兆网卡1 · 存储内网:万兆网卡2 |
当采用三台及以上服务器部署UIS超融合架构时,无需设置外部监控节点。
图3-3 三节点及以上-管理节点融合部署方案逻辑网络拓扑
图3-4 三节点及以上-管理节点分离部署方案逻辑网络拓扑
图3-5 UI-Sec逻辑网络拓扑
· 分离部署场景,管理节点必须规划管理网和存储外网,业务网和存储内网不涉及。
· 以上部署拓扑为建议拓扑,请根据实际生产环境网络拓扑及服务器数量进行调整。
· 管理网络、存储外网、存储内网建议分离部署,承载在不同的物理网口上。
· 请确认连接UIS一体机的交换机上已开启了STP等防环路功能,否则可能引起网络风暴。
UIS存储内外网配置原则:
· HDD数据盘不超过72块,SSD数据盘不超过12块,允许内外网复用。内外网复用情况下,不允许扩容超出此规格;
· 4U高密机型或需考虑未来容量扩展需求(服务器没插满硬盘),强制要求存储内外网分离;
· 多硬盘池并且存在混闪+全闪配置时,要求存储内外网分离。
服务器配置不同网卡时,各逻辑网络使用网络端口的推荐配置如表3-7所示:
|
序号 |
服务器网卡配置举例 |
逻辑网络端口配置举例 |
|
方案1 |
4*2端口万兆以太网卡 |
管理网络:2个万兆端口,端口聚合 业务网络:2个万兆端口,端口聚合 存储外网:2个万兆端口,端口聚合 存储内网:2个万兆端口,端口聚合 |
|
方案2 |
1*4端口千兆以太网卡 2*2端口万兆以太网卡 |
管理网络:2个千兆端口,端口聚合 业务网络:2个千兆端口,端口聚合 存储外网:2个万兆端口,端口聚合 存储内网:2个万兆端口,端口聚合 |
|
方案3 |
1*4端口千兆以太网卡 1*2端口万兆以太网卡 |
管理网络:2个千兆端口,端口聚合 业务网络:2个千兆端口,端口聚合 存储外网、存储内网:复用2个万兆端口,端口聚合 |
|
方案4 |
2*2端口万兆以太网卡 |
管理网络、业务网络:复用2个千兆端口,端口聚合 存储外网、存储内网:复用2个万兆端口,端口聚合 |
· 基于集群仲裁考虑,外部监控节点的存储外网、存储内网IP地址必须大于管理节点和业务节点的存储外网、存储内网IP地址。
· 初始化部署时,会设置起始IP(分配给管理节点),系统默认加入集群的各业务节点IP在设置的起始IP基础上依次加1(也支持自定义,但不允许比起始IP小),请提前规划和预留好IP地址,以应对集群扩容需求。
· 方案3和方案4适用于6节点以下集群。
· 当UIS集群作为外置存储提供给集群外UIS/CAS或其他虚拟化使用时,三层通信需要通过存储外网写路由打通;不能通过管理网打通。
超融合场景部署,规划以下4个网络,下表是服务器iLO网卡、管理网卡、业务网卡和存储网卡的IP地址配置举例(举例给出的IP地址是系统默认设置网段,请根据现场情况进行调整):
· 管理网:网络地址(172.20.1.0/24),网关(172.20.1.254),VLAN ID(100)
· 存储外网:网络地址(10.10.9.0/24),网关(10.10.9.254),VLAN ID(101)
· 存储内网:网络地址(10.10.10.0/24),网关(10.10.10.254),VLAN ID(102)
· 业务网:网络地址(192.168.1.0/24),网关(192.168.1.254),VLAN ID(103)
表3-8 网络地址规划表
|
主机节点 |
iLO网卡(VLAN10) |
管理网卡(VLAN100) |
存储外网(VLAN101) |
存储内网(VLAN102) |
业务网卡(VLAN103) |
|
管理节点#1 |
192.168.0.1 |
172.20.1.1 |
10.10.9.1 |
10.10.10.1 |
可以不配置 |
|
主机节点#2 |
192.168.0.2 |
172.20.1.2 |
10.10.9.2 |
10.10.10.2 |
可以不配置 |
|
主机节点#3 |
192.168.0.3 |
172.20.1.3 |
10.10.9.3 |
10.10.10.3 |
可以不配置 |
|
主机节点#4 |
192.168.0.4 |
172.20.1.4 |
10.10.9.4 |
10.10.10.4 |
可以不配置 |
表3-9 网络地址规划(双机热备)表
|
主机节点 |
iLO网卡(VLAN10) |
管理网卡(VLAN100) |
存储外网(VLAN101) |
存储内网(VLAN102) |
业务网卡(VLAN103) |
|
双机管理VIP |
|
172.20.1.10 |
|
|
|
|
存储组件VIP |
|
172.20.1.11 |
|
|
|
|
管理节点#1 |
192.168.0.1 |
172.20.1.1 |
10.10.9.1 |
10.10.10.1 |
可以不配置 |
|
管理节点#2 |
192.168.0.2 |
172.20.1.2 |
10.10.9.2 |
10.10.10.2 |
可以不配置 |
|
主机节点#3 |
192.168.0.3 |
172.20.1.3 |
10.10.9.3 |
10.10.10.3 |
可以不配置 |
|
主机节点#4 |
192.168.0.4 |
172.20.1.4 |
10.10.9.4 |
10.10.10.4 |
可以不配置 |
超融合场景部署,规划以下5个网络,下表是服务器iLO网卡、管理网卡、业务网卡、存储网卡和公网的IP地址配置举例:
· 管理网:网络地址(172.20.1.0/24),网关(172.20.1.254),VLAN ID(100)
· 存储外网:网络地址(10.10.9.0/24),网关(10.10.9.254),VLAN ID(101)
· 存储内网:网络地址(10.10.10.0/24),网关(10.10.10.254),VLAN ID(102)
· 业务网1:网络地址(192.168.1.0/24),网关(192.168.1.254),VLAN ID(103)
· 业务网2:网络地址(192.168.2.0/24),网关(192.168.2.254),VLAN ID(104)
· 公网:网络地址(100.100.1.0/24),网关(100.100.1. 254),VLAN ID(105)
表3-10 网络地址规划表
|
主机节点 |
iLO网卡(VLAN10) |
管理网卡(VLAN100) |
存储外网(VLAN101) |
存储内网(VLAN102) |
业务网卡(VLAN103,104) |
UIS-Sec网关业务通道网卡(VLAN103,104,105) |
|
管理节点#1 |
192.168.0.1 |
172.20.1.1 |
10.10.9.1 |
10.10.10.1 |
可以不配置 |
可以不配置 |
|
主机节点#2 |
192.168.0.2 |
172.20.1.2 |
10.10.9.2 |
10.10.10.2 |
可以不配置 |
可以不配置 |
|
主机节点#3 |
192.168.0.3 |
172.20.1.3 |
10.10.9.3 |
10.10.10.3 |
可以不配置 |
可以不配置 |
|
主机节点#4 |
192.168.0.4 |
172.20.1.4 |
10.10.9.4 |
10.10.10.4 |
可以不配置 |
可以不配置 |
|
UIS-Sec管理节点虚拟机#1 |
|
172.20.1.5 |
|
|
可以不配置 |
可以不配置 |
|
UIS-Sec业务节点虚拟机#1 |
|
172.20.1.6 |
|
|
可以不配置 |
可以不配置 |
|
UIS-Sec业务节点虚拟机#2 |
|
172.20.1.7 |
|
|
可以不配置 |
可以不配置 |
表3-11 网络地址规划(双机热备)表
|
主机节点 |
iLO网卡(VLAN10) |
管理网卡(VLAN100) |
存储外网(VLAN101) |
存储内网(VLAN102) |
业务网卡(VLAN103,104) |
UIS-Sec网关业务通道网卡(VLAN103,104,105) |
|
双机管理VIP |
|
172.20.1.10 |
|
|
|
|
|
存储组件VIP |
|
172.20.1.11 |
|
|
|
|
|
管理节点#1 |
192.168.0.1 |
172.20.1.1 |
10.10.9.1 |
10.10.10.1 |
可以不配置 |
可以不配置 |
|
管理节点#2 |
192.168.0.2 |
172.20.1.2 |
10.10.9.2 |
10.10.10.2 |
可以不配置 |
可以不配置 |
|
主机节点#3 |
192.168.0.3 |
172.20.1.3 |
10.10.9.3 |
10.10.10.3 |
可以不配置 |
可以不配置 |
|
主机节点#4 |
192.168.0.4 |
172.20.1.4 |
10.10.9.4 |
10.10.10.4 |
可以不配置 |
可以不配置 |
|
UIS-Sec管理节点虚拟机#1 |
|
172.20.1.5 |
|
|
可以不配置 |
可以不配置 |
|
UIS-Sec业务节点虚拟机#1 |
|
172.20.1.6 |
|
|
可以不配置 |
可以不配置 |
|
UIS-Sec业务节点虚拟机#2 |
|
172.20.1.7 |
|
|
可以不配置 |
可以不配置 |
· 开局现场的环境网络规划和地址设置以现场网络规划为准。
· 管理平台IP支持自定义,推荐与起始主机IP保持一致。
· 后续扩容时,扩容节点的各网段IP均不能小于开局部署时配置的起始IP,因此,若后续可能有扩容需求,开局部署请提前做好网络规划。
UIS超融合管理平台支持同一个物理端口或聚合端口的网络复用,适用于6节点以下集群主机网络端口数量不足的场景,同时,网络复用也可以避免网络带宽浪费,在同样的物理环境下,提高链路的冗余性。例如一台服务器配置了两张2端口的万兆网卡,配置eth0和eth1链路聚合用于管理网络和业务网络,管理网络带宽占用需求较小,此时可以提供给业务网较高的带宽占比,两端口链路聚合,同时提高了两个网络的冗余性。同样的,eth2和eth3链路聚合用于存储外网和存储内网的聚合。网络复用使超融合网络配置更加灵活,且大大提高了用户的投资价值。
配置网络复用时需要对网络进行带宽权重占比划分,初始化完成后,系统默认对复用的逻辑网络进行权重占比划分,下表是常见网络复用时的默认带宽权重占比。
表3-12 默认带宽权重占比
|
复用场景 |
管理网络 |
业务网络 |
存储外网 |
存储内网 |
|
管理网络和业务网络复用 |
49% |
50% |
/ |
/ |
|
存储外网和存储内网复用 |
/ |
/ |
18% |
80% |
· 进入主机管理的虚拟交换机界面,可以配置网络带宽占比,如图。
图3-6 配置带宽占比
· 网络带宽默认保留1%~2%占比用于系统内部转发,不推荐3个及以上逻辑网络复用。
· 网络带宽占比并非按照设置的比例进行网络限速,比如存储内网只占了10%的带宽,存储外网有较高带宽需求,此时允许存储外网占用更高的带宽。
· 网络带宽占比设置的意义在发生带宽抢占时,优先保证拥有更高带宽占比的逻辑网络转发,比如存储外网已经占据了70%的网络带宽,存储内网有需求占据50%,按照默认80/18的比例,存储内网会慢慢抢占网络带宽,优先保证存储内网转发。
UIS计算虚拟化集群在逻辑上可分为三个网络平台:管理网络、存储网络(IP/FC SAN)和业务网络。
表3-13 计算虚拟化集群逻辑网络平面定义表
|
逻辑网络平面 |
描述 |
要求 |
|
管理网 |
用户可以通过管理网络访问UIS集群,对UIS主机节点进行管理和维护 |
千兆或万兆网络 |
|
存储网络 |
IP/FC SAN,UIS虚拟机及其应用的IO业务通过存储网络与外部IP/FC存储设备进行通信 |
万兆/FC网络 |
|
业务网 |
UIS计算集群对外提供业务的网络 |
千兆或万兆网络 |
管理节点融合部署方案的逻辑网络拓扑示意图,如图3-7所示:
管理节点分离部署方案的逻辑网络拓扑,如图3-8所示:
在管理节点分离部署方案中,管理节点无需规划业务网络。
· 以上部署拓扑为建议拓扑,请根据实际生产环境网络拓扑及服务器数量进行调整。
· 管理网和业务网建议分离部署,承载在不同的物理网口上。
· 计算虚拟化场景中需提前规划管理网IP地址,该IP地址需要是管理PC可访问的IP地址。
计算虚拟化场景部署,规划以下3个网络,其中IP SAN或FC SAN存储根据实际需要进行规划。下表3-14、表3-15是服务器iLO网卡、管理网卡、业务网卡和存储网卡的IP地址配置举例:
· 管理网:网络地址(172.20.1.0/24),网关(172.20.100.254),VLAN ID(100)。
· IP/FC SAN存储网络:IP SAN网络地址(10.10.11.0/24),网关(10.10.11.254),VLAN ID(20)网络地址规划。
· 业务网:网络地址(192.168.1.0/24),网关(192.168.1.254),VLAN ID(30)。
|
主机节点 |
iLO网卡(VLAN10) |
管理网卡(VLAN100) |
IP SAN(VLAN101) |
业务网卡(VLAN103) |
|
管理节点#1 |
192.168.0.1 |
172.20.1.1 |
10.10.11.1 |
可以不配置 |
|
主机节点#2 |
192.168.0.2 |
172.20.1.2 |
10.10.11.2 |
可以不配置 |
|
主机节点#3 |
192.168.0.3 |
172.20.1.3 |
10.10.11.3 |
可以不配置 |
|
主机节点#4 |
192.168.0.4 |
172.20.1.4 |
10.10.11.4 |
可以不配置 |
|
主机节点 |
iLO网卡(VLAN10) |
管理网卡(VLAN100) |
IP SAN(VLAN101) |
业务网卡(VLAN103) |
|
双机管理VIP |
|
172.20.1.10 |
|
|
|
管理节点#1 |
192.168.0.1 |
172.20.1.1 |
10.10.11.1 |
可以不配置 |
|
管理节点#2 |
192.168.0.2 |
172.20.1.2 |
10.10.11.2 |
可以不配置 |
|
主机节点#3 |
192.168.0.3 |
172.20.1.3 |
10.10.11.3 |
可以不配置 |
|
主机节点#4 |
192.168.0.4 |
172.20.1.4 |
10.10.11.4 |
可以不配置 |
· 开局现场的环境网络规划和地址设置以现场网络规划为准。
· 管理平台IP支持自定义,推荐与起始主机IP保持一致。
· 后续扩容时,扩容节点的各网段IP均不能小于开局部署时配置的起始IP,因此,若后续可能有扩容需求,开局部署请提前做好网络规划。
· 无网口聚合时,基于网络分离原则,将存储外网/内网网络的网口根据网络不同,分别连接到不同交换机上。
· 推荐使用两台及两台以上的交换机通过IRF技术做堆叠,网口做动态链路聚合,链路聚合的对端连到不同的交换机上。
· 如果交换机启动了生成树协议(交换机默认设置为启动生成树协议),则需要将所有连接服务器的交换机端口配置为边缘端口。详细方法参考第16.3 章。
· 交换机跨框转发时间时长参数IRF link-delay 要求设置为毫秒级。
各角色独立部署情况对CPU、内存的要求。
|
节点角色 |
CPU要求 |
内存大小要求 |
备注 |
|
管理节点 |
≥4GHz |
≥12GB |
UIS-Manager+Handy |
|
监控节点 |
≥2GHz |
≥4GB |
|
|
存储节点 |
≥2GHz*OSD进程数 |
≥64GB |
|
单颗CPU频率大于1.6GHz即可,对于总节点核数,根据占用CPU线程计算方式来评估,最低要求16线程,数据盘越多所需要的CPU线程越多,CPU核数=CPU线程/2,另外,对于性能要求高的场景,建议配置更强劲CPU。
为了保障系统的稳定运行,UIS默认设置了系统内存预留,确保在内存紧张的情况下系统不会崩溃,避免业务中断。预留内存大小为:主机总内存*20%和64G两者之间取小。
表3-16 块存储两节点环境单台服务器硬盘数量最低要求表
|
分布式存储部署方式 |
系统盘 |
缓存盘 |
数据盘 |
硬盘总数 |
|
闪存加速 |
2块HDD |
至少1块SSD |
至少3块HDD |
至少6块 |
|
全SSD |
2块HDD |
不涉及 |
至少3块SSD |
至少5块 |
|
全HDD |
2块HDD |
不涉及 |
至少3块HDD |
至少5块 |
|
快慢池 |
2块HDD |
不涉及 |
至少3块硬盘(HDD、SSD类型不要求) |
至少5块 |
表3-17 块存储三节点及以上环境单台服务器硬盘数量最低要求表
|
分布式存储部署方式 |
系统盘 |
缓存盘 |
数据盘 |
硬盘总数 |
|
闪存加速 |
2块HDD |
至少1块SSD |
至少2块HDD |
至少5块 |
|
全SSD |
2块HDD |
不涉及 |
至少2块SSD |
至少4块 |
|
全HDD |
2块HDD |
不涉及 |
至少2块HDD |
至少4块 |
|
快慢池 |
2块HDD |
不涉及 |
至少2块硬盘(HDD、SSD类型不要求) |
至少4块 |
表3-18 文件/对象存储环境单台服务器硬盘数量最低要求表
|
分布式存储部署方式 |
系统盘 |
缓存盘 |
数据盘 |
硬盘总数 |
|
闪存加速 |
2块HDD |
至少1块SSD |
至少3块HDD |
至少6 块 |
|
全SSD |
2块HDD |
不涉及 |
至少3块SSD |
至少5块 |
|
全HDD |
2块HDD |
不涉及 |
至少3块HDD |
至少5块 |
部署方式为闪存加速时,需使用NVMe SSD;
为了保持节点间的数据平衡,节点间的硬盘数量之差应不大于1;
只支持盘符为sd/df/nvme/fct/fio/hio开头的HDD、SSD做数据盘;
只有块存储支持2节点部署,文件和对象存储配置要求至少三节点。
硬盘池是集群节点池中以硬盘为单位组成的存储区域单元,不同硬盘池中包含节点池内若干台集群内主机中的若干硬盘,为用户提供不同的存储业务服务。通过硬盘池也可以满足不同存储业务数据间的隔离,以及用户使用不同性能的存储需求。
表3-19 硬盘池介绍表
|
服务类型 |
描述 |
|
块存储 |
该硬盘池只承载块存储业务 |
|
文件存储 |
该硬盘池承载文件元数据、数据存储业务 |
|
文件存储-元数据池 |
该硬盘池只承载文件元数据存储业务 |
|
文件存储-数据池 |
该硬盘池只承载文件数据业务 |
|
对象存储 |
该硬盘池只承载对象元数据、数据存储业务 |
|
对象存储-元数据池 |
该硬盘池只承载对象元数据存储业务 |
|
对象存储-数据池 |
该硬盘池只承载对象数据业务 |
表3-20 块存储硬盘池规划表
|
服务类型 |
数据盘类型 |
缓存盘类型 |
描述 |
|
块存储 |
HDD |
SSD |
块存储硬盘池 |
表3-21 文件存储硬盘池规划
|
服务类型 |
数据盘类型 |
加速方式 |
缓存盘类型 |
描述 |
|
文件存储 |
HDD |
缓存盘 |
SSD |
文件存储硬盘池 |
|
文件存储-数据池 |
HDD |
缓存盘 |
SSD |
文件存储硬盘池 |
|
文件存储-元数据池 |
SSD |
- |
- |
文件存储硬盘池 |
表3-22 对象存储硬盘池规划
|
服务类型 |
数据盘类型 |
缓存盘类型 |
描述 |
|
对象存储 |
HDD |
SSD |
|
|
对象存储-数据池 |
HDD |
SSD |
对象存储硬盘池 |
|
对象存储-元数据池 |
SSD |
- |
对象存储硬盘池 |
服务类型二选其一,即部署一个对象存储硬盘池,或者服分别部署对象存储-数据池和对象存储-元数据池两个硬盘池。
集群中服务类型为“文件存储”的硬盘池只能创建一个;服务类型为“对象存储”或“对象存储-数据池”的硬盘池同一个节点池只能创建一个。
· UIS超融合一体机出厂预装UIS管理软件,一体机使用2块硬盘以RAID1形式安装UIS管理软件。
· 系统盘至少配置转速为10K及以上的SAS硬盘,有条件可以选配SSD硬盘,如低于这个配置,在较大数据业务压力下,会导致系统盘繁忙。
· 系统盘不允许配置成LVM方式,不支持配置热备盘。
· 存储节点必配,除系统盘外,每台服务器至少配2块数据盘。
· 为保证集群健康,推荐使用同一厂商、相同接口类型(SAS/SATA)、相同转速、相同容量的硬盘,建议转速在10K以上。
· 原则上各物理服务器的数据盘个数要保持一致。
· 如果不满足,则各物理服务器的数据盘数量差异不得超过20%((硬盘数最大-最小)÷最大数)。
· 同一个硬盘池的硬盘容量必须保持一致。
· 为保证数据安全性,建议使用3副本。
· UIS分布式存储集群冗余策略配置为副本方式时,如果使用N副本,则可用容量是裸容量的N分之1,需要预留15%的空间,用于在故障时候有空间及时进行数据恢复,保障数据的可靠性。
· 超融合所有节点的硬盘缓存需要关闭,出厂默认已关闭,无须修改。
· 本地硬盘仅支持SSD,包括NVMe SSD和SATA SSD,不支持HDD。
· 若本地盘通过RAID卡连接,本地盘SATA SSD要求以单盘RAID 0或双盘RAID 1方式使用。
· 若本地盘通过HBA卡连接,本地盘SATA SSD以直通方式使用。
· 若未经过RAID卡连接的NVMe盘,可以直接使用本地NVMe盘。
· 每节点支持的本地盘最多不超过两块,且仅支持RAID 0或RAID 1(不支持数据盘以板载RAID1或软RAID1模式使用);不支持配置热备盘。
· UIS-Sec所在集群内至少需要为UIS-Sec管理组件预留三块480G以上硬盘(硬盘型号不限),为UIS-Sec管理组件预留的硬盘应分布在不同主机上,构成UIS-Sec管理组件需要的存储资源池。UIS-Sec管理组件的系统盘必须独占该存储资源池,不允许其他业务使用该存储池及关联的硬盘池,在使用过程中禁止操作该存储池相关的硬盘池、数据池、块设备、业务主机及业务主机组,避免出现存储异常的情况。
部署闪存加速场景时,请使用NVMe SSD硬盘做缓存,起到读写加速效果。UIS超融合一体机出厂默认将非系统盘盘逐一配置RAID0,非UIS一体机需要手动配置RAID0。
闪存加速为较常用方式配置缓存加速时比例要求,请注意:
· 若服务器配置的是SATA SSD,则要求每台服务器的SSD硬盘个数:HDD硬盘个数≥1:5。
· 若服务器配置的是NVMe SSD,则要求每台服务器的SSD硬盘个数:HDD硬盘个数≥1:10。
· 例如:某台服务器上,SSD硬盘的个数只有1个,而HDD硬盘的个数有15个。此时,禁止开启缓存加速。
· 对带宽要求较高的场景,受限于SSD的接口带宽,当SSD硬盘个数:HDD硬盘个数<1:5时,软件允许部署,开启缓存加速可能不仅起不到加速效果,SSD盘压力过大会降低UIS分布式存储集群的整体性能,严重时会导致集群存储服务异常。
· 必须关闭所有节点硬盘缓存,确认及关闭方法详见附录16.2 。
· 如果缓存盘为RI型NVMe,则要求容量在960GB及以上
· 同一个硬盘池下,RAID卡的型号相同,缓存盘大小偏差控制在20%以内
· UIS分布式存储集群一个SSD缓存分区分配给一个HDD硬盘使用。
· 在SSD缓存空间足够的情况下,建议尽可能的增大缓存分区的大小;推荐缓存分区设置为300GB以上。
· 在SSD空间容量足够的情况下,使用SSD实际总容量/HDD磁盘个数,即为每个缓存分区空间大小。例如,某存储节点有10块HHD数据盘,2块NVMe SSD缓存盘,缓存盘实际空间为920G,在不考虑后续扩容HDD磁盘的情况下,可以配置缓存分区大小为920GB/5≈180GB。
· 配置容量时,请注意保证:缓存容量*数据盘数<SSD容量。
· 不支持在线修改缓存配置,建议提前规划部署。
· 为保证硬盘长期稳定安全运行,UIS 2000 G3必须使用H3C原厂提供的硬盘,严禁使用第三方厂商磁盘;请使用UIS 2000 G3配套指导书列表中的硬盘(如下表所示) 。
|
编码 |
硬盘规格 |
品牌 |
硬盘型号 |
FW版本 |
|
9803A06N |
4TB/SATA/7200PRM/3.5寸HDD硬盘模块-国内版 |
Seagate/WD |
ST4000NM002A/HUS726T4TALE6L4 |
SC03 /VKGAW4J0 |
|
9803A06V |
6TB/SATA/7200PRM/3.5寸HDD硬盘模块-国内版 |
Seagate/WD |
ST6000NM021A/HUS726T6TALE6L4 |
SC03 /VKGAW4J0 |
|
9803A06F |
8TB/SATA/7200PRM/3.5寸HDD硬盘模块-国内版 |
Seagate/WD |
ST8000NM000A/HUS728T8TALE6L4 |
SC03 /V8GAW4J0 |
|
9803A06J |
12TB/SATA/7200PRM/3.5寸HDD硬盘模块-国内版 |
Seagate/WD |
ST12000NM001G/HUH721212ALE600 |
SN03 /LEBDT6G0 |
|
9803A06T |
14TB/SATA/7200PRM/3.5寸HDD硬盘模块-国内版 |
Seagate/WD/Toshiba |
ST14000NM001G/WUH721414ALE6L4/MG07ACA14TE |
SN03 /LDGAW07G /4305 |
|
9803A06X |
480GB/SATA/3.5寸 S4510 SSD硬盘模块-国内版 |
INTEL |
SSDSC2KB480G801 |
XCV10132 |
|
9803A06E |
480GB/SATA/3.5寸 S4610 SSD硬盘模块-国内版 |
INTEL |
SSDSC2KG480G801 |
XCV10132 |
|
9803A06M |
960GB/SATA/3.5寸 S4510 SSD硬盘模块-国内版 |
INTEL |
SSDSC2KB960G801 |
XCV10132 |
|
9803A06S |
960GB/SATA/3.5寸 S4610 SSD硬盘模块-国内版 |
INTEL |
SSDSC2KG960G801 |
XCV10132 |
|
9803A06D |
1.92TB/SATA/3.5寸 S4510 SSD硬盘模块-国内版 |
INTEL |
SSDSC2KB019T801 |
XCV10132 |
|
9803A06L |
1.92TB/SATA/3.5寸 S4610 SSD硬盘模块-国内版 |
INTEL |
SSDSC2KG019T801 |
XCV10132 |
|
9803A06R |
3.84TB/SATA/3.5寸 S4510 SSD硬盘模块-国内版 |
INTEL |
SSDSC2KB038T801 |
XCV10132 |
|
0231AEJ0 |
7.68TB/SATA/3.5寸 5300PRO SSD硬盘模块-国内版 |
MICRON |
MTFDDAK7T6TDS-1AW1ZABYY |
D3MU801 |
|
9803A06U |
960GB/M.2/22110/NVMe/PCIex4/企业级/读取型SSD硬盘模块-国内版 |
SAMSUNG |
MZ1L2960HCJR-00A07 |
|
表3-23 硬盘缓存规划表:
|
类型 |
SSD系统盘 |
HDD系统盘 |
SSD加速盘 |
HDD数据盘 |
SSD数据盘 |
|
阵列硬盘缓存 |
关闭 |
关闭 |
关闭 |
关闭 |
关闭 |
|
RAID卡读缓存 |
关闭 |
打开(E0721版本开始设置为关闭) |
关闭 |
打开(E0721版本开始设置为关闭) |
关闭 |
|
RAID卡写缓存 |
关闭 |
打开 |
关闭 |
打开 |
关闭 |
1、仅LSI RAID卡涉及,其他厂商RAID卡不涉及。
2、未关闭上述功能,可能会影响存储性能。
3、部署存储集群前,若storcli64命令可能不可用;请在存储集群部署完成后,重新执行本小节即可。
4、更换RAID卡或升级了RAID卡驱动/Firmware,需要重新执行本操作。
执行/opt/MegaRAID/storcli/storcli64 /call set cc=off关闭consistency check功能,见下图示例。
执行/opt/MegaRAID/storcli/storcli64 /call set pr=off关闭Patrol Read功能,见下图示例。
· 副本是将原始数据复制多份,每一份称为一个副本。副本是分别存放在不同存储节点的不同磁盘上。当磁盘出现故障时,只要其余健康磁盘中任一个磁盘拥有副本,用户就可以获取该数据。副本个数越多,安全性越高,但存储数据所需空间也成倍增长。
· 副本个数:数据备份的副本的个数,使用N副本的可用容量是裸容量的N分之一。
· 5节点(包含)以下副本个数最大为存储节点数,5节点(不包含)以上副本个数最大为6,重要业务推荐3副本。
· 机架创建与规划建议依照实际物理摆放,尽量不要一个机架上只有一个节点。
· 单个机架上存储节点数目不能超过10个。
(1) 存储池规划
表3-24 存储池规划
|
Pool名称 |
节点池 |
硬盘池 |
冗余策略 |
备注 |
|
|
|
|
|
|
· Pool名称:存储池的名称。
· 节点池:为存储池选择所在节点池。
· 硬盘池:为存储池选择所在硬盘池。
· 冗余策略:副本。
(2) 存储卷规划
表3-25 存储卷规划
|
节点池 |
硬盘池 |
存储池 |
存储卷名称 |
存储卷大小 |
描述 |
备注 |
|
|
|
|
|
|
|
|
· 节点池:存储卷所在节点池。
· 硬盘池:存储卷所在硬盘池。
· 存储池:为存储卷选择存储池。
· 存储卷名称:为存储卷指定名称。
· 存储卷大小:配置存储卷的容量大小。
· 描述:存储卷的相关描述信息。
· 若存储采用精简配置,则只有当使用的时候才会占用存储空间,而非划出一部分空间预留的方式。如集群的可用容量10T,创建一个1T的2副本池中的存储块,集群的可用容量并不会减少,仍为10T。当向存储块中写入0.5T数据,占用集群容量0.5T*2 (2副本)=1T,集群剩余可用容量为9T。若存储采用厚配置,则为划出一部分空间预留的方式。
(3) 存储外网网段规划
表3-26 存储外网网段规划
|
IPv4块服务网段 |
IPv6块服务网段 |
备注 |
|
|
|
|
· 一旦配置了存储外网段,则无法修改。
· 建议四网分离,即与存储内网网段分离。
· 存储内网络不能是存储外网络的子网。
(4) 业务主机规划
表3-27 业务主机规划
|
名称 |
操作系统 |
IP地址 |
描述 |
启动器 |
备注 |
|
|
|
|
|
|
|
· 名称:配置业务主机的名称。
· 操作系统:业务主机的操作系统,支持部分windows、 H3C UIS、H3C CAS、Fusion Compute 6.5、Fusion Compute 6.5.1、CentOS 7.5、CentOS 7.6、RHEL 7.5、RHEL 7.6、ESXi 6U7。
· IP地址:业务主机与存储外网连通的IP地址。
· 描述:业务主机的描述信息
· 启动器:业务主机上用于连接存储卷的启动器的名称
(5) 业务主机组规划
表3-28 业务主机组规划
|
名称 |
描述 |
备注 |
|
|
|
|
(6) iSCSI高可用
|
高可用IP |
高可用组ID(VRID) |
负载均衡 |
多路径 |
主用节点 |
备用节点 |
备注 |
|
|
|
|
|
|
|
|
· 高可用IP:用户通过iSCSI访问存储卷的IP地址。
· 高可用组IP:iSCSI高可用的编组ID号,该ID号会下发至同组内所有主备节点,只拥有相同高可用组ID号的节点之间才能进行相应高可用IP的故障切换。
· 负载均衡:分发用户请求到集群中承担块存储业务服务的节点,实现集群的负载分担。
· 多路径:允许用户通过多个IP地址访问存储卷。
· 主用节点:提供iSCSI接入点的主机。
· 备用节点:当主用节点故障时提供iSCSI接入点的主机。
(1) 存储池规划
表3-29 存储池规划
|
Pool名称 |
节点池 |
硬盘池 |
冗余策略 |
备注 |
|
|
|
|
|
|
· Pool名称:存储池的名称。
· 节点池:为存储池选择所在节点池。
· 硬盘池:为存储池选择所在硬盘池。
· 冗余策略:元数据池和数据池的冗余策略请参考数据池冗余策略规划。
(2) NAS组规划
表3-30 NAS组规划
|
组名 |
网卡类型 |
动态业务IP类型 |
动态业务IP |
IPv4子网掩码/IPv6掩码长度 |
IPv4业务网关 |
备注 |
|
|
|
|
|
|
|
|
· 组名:NAS组的名称,将多个NAS服务器规划在一个NAS组内,方便统一管理。
· 网卡类型:集群支持的ETH网卡的类型。
· 动态业务IP类型:IPv4或者IPv6。
· 动态业务IP:填写地址规划中的业务网动态IP。
· IPv4子网掩码/IPv6掩码长度:填写规划的业务网络掩码。
· IPv4业务网关:请根据客户实际需求填写,若客户业务不需要跨网段访问则无需填写。
(3) 负载均衡规划
|
域名 |
DNS IP地址 |
IPv4子网掩码 |
IPv6掩码长度 |
备注 |
|
|
|
|
|
|
· 域名:负载均衡的域名名称。域名由字母、数字和“-”组成,不能以“-”开头和结尾,顶级域名不能全为数字,各级子域名用“.”隔开,域名总长度不能超过63个字符。
· DNS IP地址:DNS服务器IP地址,按DNS IP类型具体分为DNS IPv4地址和DNS IPv6地址。
· IPv4子网掩码:DNS服务器IPv4地址的子网掩码。
· IPv6掩码长度:DNS服务器IPv6地址的前缀长度。
(4) NFS共享规划
表3-31 NFS共享规划
|
共享名 |
共享目录 |
允许访问的主机 |
权限 |
新建目录/文件权限 |
备注 |
|
|
|
|
|
|
|
· 共享名:NFS共享的名称,NFS共享指通过NFS协议共享文件给Linux用户或Mac OS用户。
· 共享目录:NFS共享所共享的目录,根目录无法用于共享目录。
· 允许访问主机:允许访问NFS共享的主机的IP地址或网段,“*”表示允许所有主机访问。
· 权限:允许访问的主机对共享文件的权限,分为“读写”与“只读”两种。
· 新创建的文件权限:包括“rwx/u”和“rwx/ugo”两种。其中rwx代表文件的权限:r表示可读,w表示可写,x表示可执行。ugo代表文件权限的所有者:u表示文件所有者,g表示文件所有者所在组的成员,o表示其它用户。
· 不支持同一个目录创建多个NFS共享
· 允许访问主机参数配置项是用于管理客户端主机挂载,缺省配置允许任意主机挂载
· 共享方式控制客户端对共享目录读写权限,缺省配置只读权限
· 新建文件权限控制客户端用户对文件的权限,缺省配置rwx/u
· NFS共享创建后不支持共享名、共享目录的修改
(5) CIFS共享规划
表3-32 CIFS共享规划
|
共享名 |
共享目录 |
允许访问的主机 |
禁止访问的主机 |
备注 |
|
|
|
|
|
|
· 共享名:CIFS共享的名称,CIFS共享指通过CIFS协议共享文件给Windows用户或Mac OS用户。
· 共享目录:CIFS共享所共享的目录,根目录无法用于共享目录。
· 允许访问的主机:允许访问CIFS共享的主机的IP地址或网段,“*”表示允许所有主机访问。
· 禁止访问主机:禁止访问CIFS共享的主机的IP地址或网段。
(6) FTP共享规划
表3-33 FTP共享规划
|
目录 |
备注 |
|
|
|
目录:用于FTP共享的目录,根目录无法用于FTP共享。
· 集群同时支持创建允许匿名用户访问FTP,创建时会在根目录自动生成/ftp目录。
· 根目录无法用于FTP共享。
(7) HTTP共享规划
表3-34 HTTP共享规划
|
共享名 |
共享目录 |
禁止访问的主机 |
WebDAV功能 |
最大上传文件 |
备注 |
|
|
|
|
|
|
|
· 共享名:HTTP共享的名称,用于区分HTTP共享,是HTTP共享的唯一标识。
· 共享目录:HTTP共享所共享的目录,根目录无法用作共享目录。
· 禁止访问的主机:禁止访问HTTP共享的主机IP,“*”表示允许所有主机访问,也可以配置某一网段,例如172.17.55.0/24。
· WebDAV功能:开启后,WebDAV客户端将对共享目录拥有完全的控制权限。
· 最大上传文件:在WebDAV客户端中,对共享目录单次上传(写入)文件的最大值,单位是MB,0表示无限制。
(1) 对象网关规划
表3-35 对象网关规划
|
节点池 |
硬盘池 |
冗余策略 |
选择主机 |
存储加密 |
备注 |
|
|
|
|
|
|
|
· 节点池:选择集群上的节点池。
· 硬盘池:选择对象存储业务的硬盘池
· 冗余策略:根据用户业务需求选择。
· 选择主机:选择作为对象网关的主机。
· 存储加密:开启存储加密,对象用户可以通过加密密钥对写入的数据进行加密。
(2) 负载均衡规划
|
域名 |
DNS IP地址 |
IPv4子网掩码 |
备注 |
|
|
|
|
|
· 域名:负载均衡的域名名称。
· DNS IP地址:DNS服务器IP地址,支持DNS IPv4地址。
· IPv4子网掩码:DNS服务器IPv4地址的子网掩码。
(3) 系统管理员规划
表3-36 系统管理员规划
|
名称 |
所在组 |
备注 |
|
|
|
|
名称:系统管理员的用户名。
所在组:系统管理员所属的用户组。
(4) 租户规划
表3-37 租户规划
|
名称 |
管理用户 |
备注 |
|
|
|
|
· 名称:租户的名称。
· 管理用户:选择租户管理员(系统管理员规划中创建的管理员),支持选择多个租户管理员。
(5) 用户规划
表3-38 用户规划
|
用户名称 |
Emali地址 |
备注 |
|
|
|
|
· 用户名称:用户的名称。
· Email地址:用户的Email地址,一个邮箱仅能创建一个用户。
在计算虚拟化的使用场景中,H3C UIS超融合一体机需要连接外置的IP SAN或FC SAN存储设备。
· 连接外置IP SAN存储时,UIS-Cell超融合一体机作为iSCSI Initiator与存储卷的Target完成连接。UIS-Cell超融合一体机完成初始化部署后,系统会自动生成一个iQN标识符,请使用此标识符与Target建立连接。
· 连接外置FC SAN存储时,UIS-Cell超融合一体机需要配置FC HBA卡。
· IP SAN或FC SAN上创建的存储卷在主机上有多种挂载方式,建议使用共享文件系统的方式挂载存储卷,为上层虚拟化业务提供共享存储的服务。
· 超融合集群最少使用2台主机,最大不超过32台主机。
· 超融合集群建议不超过32个共享文件系统。
· 共享文件系统最大支持64TB的存储卷,建议使用10TB~64TB的存储卷。
· 创建集群后会默认创建一个存储卷并挂载为共享存储,大小为集群可用容量的30%,最大不超过16TB。
主机规划主要包括主机名和密码的规划,需要按照客户的规范要求进行规划。最大长度为32,只允许输入字母、数字和减号,且首字符只允许为字母。主机名前缀请提前规划好,主机名在初始化过程中自动配置,初始化完成后,不允许修改主机名。
当初始化密码设置完成后,不可以再在后台修改密码。
使用默认配置时集群中各台主机名是按第一台规划节点并按设备序号进行排序后依次递增,如有冲突则是通过+1的方式依次递增。如果有明确的主机名规划,则建议在部署中对每台主机名进行明确设定,以免集群中名称冲突导致导致主机名不为预期。eg:
· 设备序号 000000003
· 设备序号 000000005
· 设备序号 000000007
· 设备序号 000000009
场景一:如果原先主机名与规划没冲突则默认配置下 a为cvknode01,b为cvknode02,c为cvknode03,d为cvknode04。
场景二:如果b主机名在没配置情况下主机名就为cvknode02则默认配置下a为cvknode01,b为cvknode03,c为cvknode04,d为cvknode05。
· H3C UIS超融合系统同时支持分布式存储和外部IP/FC SAN存储设备。并且在挂载存储卷时支持多种类型,建议使用共享文件系统挂载存储卷。
· 一个iSCSI/FC共享文件系统最大可以被一个集群下的32台主机同时使用。
· 一个iSCSI/FC共享文件系统最大支持64TB的存储卷,建议使用10TB~64TB的存储卷。
· 服务器的Initiator信息需要保证唯一性,否则会导致共享文件系统异常。
· 如果存储设备为本地分布式存储,在分布式存储集群将Target和块设备创建完成后,即可挂载给主机作为共享存储使用,无须配置IQN认证等信息。
· 如果存储设备为外部FC SAN存储时,要求服务器配置FC HBA卡完成与存储设备的连接。
· 如果存储设备为外部IP SAN存储时,服务器作为iSCSI Initiator与存储卷的Target完成连接。
根据现场实际业务需要配置虚拟机的CPU个数、内存大小和磁盘容量。
· 根据虚拟机的重要级别,对于不同级别的虚拟机分配不同的优先级(高、中、低),保证在发生资源抢占的情况下重要级别的虚拟机优先分配资源。
· 虚拟机启动后会占用内存资源,为了保证业务的正常运行,需要预留1/3的空闲内存资源。
· UIS系统支持三种类型的网卡“普通网卡”、“高速网卡”和“Intel E1000网卡”。建议使用“高速网卡”,并启用内核加速功能。较老的Linux系统(比如RHEL 4.x)为保证兼容性建议使用E1000网卡。
· Windows操作系统默认不支持“高速网卡”,需要通过CAStools加载高速网卡驱动。
选择“普通网卡”时,不管物理网口是千兆或者万兆,虚拟机均显示百兆网卡,而选择“Virtio”时,则不会有该问题。
· UIS系统支持的硬盘类型为“IDE硬盘”、 “SCSI硬盘”、“USB硬盘”、”高速硬盘”和“高速SCSI硬盘”。“高速硬盘”是虚拟化环境中经过优化的硬盘类型,提高了磁盘的I/O性能,因此推荐使用高速硬盘(高速 SCSI应用在较新操作系统,比如CentOS7.x);较老操作系统选择使用IDE硬盘,比如CentOS4.x系列、CentOS5.3以前的版本。
· 虚拟机的存储卷支持高速和智能两种格式,推荐使用智能延迟置零和置零。
· 对于数据库服务等磁盘I/O有较高要求的,建议虚拟机使用块设备类型(iSCSI/FC网络存储)的存储卷,缺点是不能支持快照等功能。
· 推荐虚拟机使用独立的系统盘和数据盘。对于IP SAN存储虚拟机可以通过iSCSI软件直接使用存储卷资源作为虚拟机的数据盘。
· 虚拟机支持directsync、writethrough、writeback、none这四种缓存方式。
UIS超融合一体机出厂默认预装了UIS超融合管理软件,如果无预装版本或预装软件版本与实际开局版本不一致,请参考《H3C UIS超融合管理平台 安装部署指导》进行软件版本安装。
集群初始化部署前,需确保主机时间与当前实际时间保持一致。
超融合平台软件的平稳高效运行,依赖于服务器的正确设置,鉴于超融合软件越来越多的运行在不同架构、不同厂商、不同配置的服务器上,请在初始化之前按照《H3C UIS超融合管理平台
性能调优最佳实践》操作。
UIS超融合一体机自带HDM管理平台,通过该平台提供的功能可以非常方便的查看硬件状态或安装操作系统等操作。
(1) 指定一台做UIS管理节点的超融合一体机,将HDM专用网口连接到管理网络,通过默认IP地址192.168.1.2/24登录HDM管理平台,输入默认用户名和密码admin/Password@_
(如有修改,请输入修改后的用户名/密码)。
(2) 登录HDM界面后打开控制台。
(3) 进入配置界面,输入出厂默认用户名密码root/Sys@1234,选择【Network and Management Interface】,继续,配置选择【Configure Management Interface】管理网口IP地址为静态IP,配置子网掩码、网关和管理网VLAN ID。
UIS E0715之前版本默认用户名密码为root/root。
两节点方案中,外部监控节点需要修改root密码,以虚拟机为例介绍修改步骤:
(1) 进入外部监控节点参数配置页面,如图4-1所示。
(2) 通过<↑><↓>键选择<Authentication>选项,单击<Enter>键进入Authentication页面。
(3) 选择<Change Password>,单击<Enter>键,弹出Login对话框,输入root密码(默认为Sys@1234)单击<Enter>键登录节点。
图4-2 Login对话框
(4) 再次单击<Enter>键,弹出Change Password对话框,输入旧密码、新密码,单击<Enter>键完成密码修改。
图4-3 Change Password对话框
· 密码最小长度为8,当前要求:密码不能由单一的字母、数字或特殊字符组成,不能输入空格&/|`''''";()<>\
· 初始化UIS超融合集群时,外部监控节点的密码必须与物理服务器的密码一致,所以请提前规划所有节点的root密码。物理服务器的密码在初始化部署过程中进行设置。
使用两节点方案搭建UIS超融合集群前,必须先完成外部监控节点的存储内网、存储外网IP地址配置。
· 外部监控节点的存储内网、存储外网IP地址需大于两个物理服务器的存储内网、存储外网IP。
· 如果存储内网、存储外网配置了VLAN,连接瘦终端的物理交换机端口一定要配置为trunk口,并且PVID是管理网的VLAN ID。
外部监控节点设置存储内网和存储外网的IP地址,使用脚本命令行“uis_cfg_thin.sh”自动配置。
命令格式:uis_cfg_thin.sh –i|e|a X.X.X.X –m X.X.X.X [ –g X.X.X.X ] [ -v X] –l –c
–l:可选项,查询网络配置项信息。
-c:可选项。清除或保留瘦终端配置信息。
-i|e|a:必选其一,配置存储内网或存储外网。
-i:用于为瘦终端配置存储内网IP地址,该IP地址配置在瘦终端管理网口上。
-e:用于为瘦终端配置存储外网IP地址,该IP地址配置在瘦终端管理网口上。
-a:用于为虚拟机配置存储内网、存储外网IP地址,可以选择指定网口进行配置。
-m:必选项,配置的子网掩码。
-g:可选项,配置的网关。
-v:可选项,配置的VLAN ID。
(1) 由于瘦终端通常只有一个千兆以太网网卡,因此,瘦终端需要配置网络复用,单千兆网卡复用管理网、存储内网和存储外网。
表4-1 瘦终端网口IP规划举例表
|
网络类型 |
网口名称 |
IP地址 |
子网掩码 |
|
管理网 |
eth0(vswitch0) |
172.168.100.20 |
255.255.255.0 |
|
存储内网 |
eth0(vs_storage_in) |
10.10.10.97 |
255.255.255.0 |
|
存储外网 |
eth0(vs_storage_ex) |
10.10.9.98 |
255.255.255.0 |
(2) 瘦终端配置存储内网和存储外网的示例如下:使用SSH软件登录系统,默认用户名为root,密码为Sys@1234。
a. 存储内网IP地址配置命令举例:
[root@cvknode ~]#uis_cfg_thin.sh –i 10.10.10.97 –m 255.255.255.0。
b. 配置示例如图4-4所示。
图4-4 存储内网IP地址配置示例
c. 存储外网IP地址配置命令举例:
[root@cvknode ~]#uis_cfg_thin.sh –e 10.10.9.98 –m 255.255.255.0。
d. 配置示例如图4-5所示。
图4-5 存储外网IP地址配置示例
(1) 虚拟机做外部监控节点,要求其网卡配置最低为1个千兆以太网网卡和2个万兆以太网网卡。
表4-2 虚拟机网口IP规划举例表
|
网络类型 |
网口名称 |
IP地址 |
子网掩码 |
|
管理网 |
eth0(vswitch0) |
172.20.100.20 |
255.255.0.0 |
|
存储内网 |
eth1(vs_storage_in) |
10.10.9.97 |
255.255.255.0 |
|
存储外网 |
eth2(vs_storage_ex) |
10.10.10.97 |
255.255.255.0 |
(2) 使用SSH软件登录系统,默认用户名为root,密码为Sys@1234。
(3) 为虚拟机的指定网卡配置存储网地址的配置命令举例:
[root@cvknode ~]#uis_cfg_thin.sh –a 10.10.9.97 –m 255.255.255.0
[INFO]:please enter one eth as storage network interface from folowing ---eth1 eth3:eth3
此处需要选择指定的物理网口,为eth3配置完IP地址后,还需重复步骤(3),为eth1配置IP地址。
(4) 配置示例如下图示:
图4-6 指定网卡配置存储网地址
打开客户端浏览器,推荐使用Chrome85+版本,在地址栏中输入管理IP地址,http://<UIS-Cell的管理IP地址>,进入UIS超融合管理平台登录界面。
(1) 在登录界面输入用户名和密码admin/Cloud@1234,单击【登录】按钮,进入初始化引导流程界面,选择部署场景。UIS E0715之前版本默认用户名密码为admin/admin。
· 计算虚拟化:仅部署虚拟化内核平台,不部署分布式存储,适用于使用外部IP SAN或FC SAN存储的场景。
· 超融合架构:同时部署虚拟化内核平台和分布式存储的超融合架构,适用于计算存储网络虚拟化超融合的场景。多角色集群和多集群配置必须配置为超融合架构集群。
(2) 以选择超融合架构场景为例,进入下一步,规划网络:
· 根据网络规划分别配置管理平台IP、管理网、存储内外网的起始IP地址、子网掩码和网关,后续加入集群的主机将以该地址作为起始地址继续增加,例如集群内有3台主机,则管理网IP地址从输出的IP(172.20.1.1)开始,分别为172.20.1.1~3。存储内外网IP地址为内部访问使用,如无特殊要求,保留默认即可。
· 选择物理接口和聚合模式,如需配置VLAN隔离,需要在交换机侧配置Trunk模式,并允许相应的VLAN通过。
表4-3 参数说明表:
|
参数名称 |
参数说明 |
|
集群名 |
长度不超过16个字符,允许字母、数字、下划线“_”,且只能以字母或数字开头。 |
|
主机名前缀 |
设置主机名前缀。最大长度为28,只允许输入字母、数字和减号,且首字符只允许为字母。主机名前缀请提前规划好,主机名在初始化过程中自动配置,初始化完成后,不允许修改主机名。 |
|
主机名起始序号 |
加入集群的主机,其名称由主机名前缀和主机名序号构成。起始序号分配给管理节点,后续加入集群的主机,其名称序号在主机名起始序号基础上依次加1。例如主机名前缀为cvknode,起始序号为1,则管理节点的名称为cvknode1,后续加入集群的各主机名称依次为cvknode2、cvknode3、cvknode4等。 |
|
管理平台IP |
管理平台的IP地址;该地址默认承载在当前初始化的主机上,建议与起始主机IP一致。 |
|
起始IP |
根据网络规划分别配置管理网、存储内外网的起始IP地址;起始IP分配给管理节点,系统默认后续加入集群的各业务主机IP在设置的起始IP基础上依次加1,若同网段有被占用的IP,则跳过被占用的IP;同时业务主机管理网、存储内外网IP支持自定义,请提前规划和预留好IP地址,以应对集群扩容需求。 存储内外网IP地址为内部访问使用,如无特殊要求,保留默认即可。 业务网IP无需设置。 |
|
子网掩码 |
根据网络规划分别配置管理网、存储内网、存储外网的子网掩码地址。 |
|
网关 |
根据网络规划配置管理网的网关地址。 |
|
VLAN ID |
若管理网需要配置VLAN ID,请在每台主机的Xconsole界面完成配置,方法同4.2 。 存储内外网的VLAN ID可以在此处直接配置。 |
·
当管理网为独立端口时,要求交换机上连接管理网的端口设置成access口,服务器侧不配置VLAN。
(3) 网络配置完成后,单击<下一步>按钮弹出提示对话框。
图4-7 提示对话框
(4) 根据主机序列号和网卡MAC地址等信息,确认选择要加入集群的主机;单击Manager节点后的“配置网卡”按钮,网卡配置模板选择为“是”,为网络选择对应的网卡和聚合模式,然后单击“下一步”,弹出的设置密码对话框输入新密码;
· 本文为管理节点融合部署方案,如果采用管理节点分离部署方案,请将管理主机只作为管理节点来使用,不勾选“业务节点”;此处备节点不勾选。
· 仅2台主机部署UIS超融合集群时,只能选择管理节点融合部署方案。
· 主机加入集群的顺序根据勾选主机的顺序而定。
表4-4 主要参数说明表
|
参数名称 |
参数说明 |
|
主机名 |
如果有明确的主机名规划,则建议对每台主机的名称进行明确设定,否则主机名称采取自动分配原则。 |
|
网卡配置模板 |
开启后,加入集群的其他主机会根据此主机的网络配置进行自动设置,实现批量部署。要使用此功能,须保证其他待加入集群的主机与此模板主机有相同名称且处于活动状态的物理接口,且各物理接口速率应满足对应网络的最低配置要求。例如,开启网卡配置模板功能的主机A的配置为管理网eth0,业务网eth1,存储内外网复用eth2、eth3,则其他待加入集群的主机上也必须存在eth0,eth1,eth2,eth3四个活动状态的物理接口,且eth0、eth1的速率需大于等于1000Mbps,eth2、eth3的速率需大于等于10000Mbps。对于不满足条件的主机,需要手工指定各网络使用的物理接口。集群中需有一台主机开启网卡配置模板。 |
|
纯存储主机 |
该主机加入集群后只能承担存储相关业务,不能承担计算相关的业务。 |
|
IP地址 |
主机各网络的IP地址若不单独指定,则采取自动分配原则,在各网络设置的起始IP的基础上依次加1。主机的业务网无需配置IP地址。 |
|
物理接口 |
主机管理网、存储内网、存储外网所使用的物理接口必须配置。业务网所使用的物理接口选配。若不为业务网配置物理接口,则在初始化完成后,主机上不会自动创建业务网络类型的虚拟交换机,需手工在UIS超融合管理平台中添加。 |
(6) 在弹框页面中单击
图标,弹出选择物理接口对话框,如下图所示,依次配置主机管理网、业务网、存储内网和存储外网使用的物理接口。
表4-5 主要参数说明表
|
参数名称 |
参数说明 |
|
链路聚合模式 |
物理接口之间的链路聚合方式,包括静态链路聚合和动态链路聚合,推荐使用动态链路聚合。当此参数设置为“动态链路聚合”时,物理交换机侧需要开启LACP(链路汇聚控制协议)。选择多个物理接口时,才允许配置此参数。 |
|
负载分担模式 |
物理接口之间的负载分担模式,包括高级负载分担、基本负载分担和主备负载分担。选择多个物理接口时,才允许配置此参数。 高级负载分担:根据转发报文的以太网类型、IP报文协议、源IP地址、目的IP地址、应用层源端口和目的端口进行负载分担,适用于对负载分担有特殊需求的场景,推荐使用高级负载分担。 基本负载分担:根据转发报文的源MAC地址和VLAN Tag进行负载分担。主备负载分担:根据物理接口主备进行负载分担。主接口出现故障时,自动使用备接口进行网络流量的处理。当链路聚合模式为“静态链路聚合”时,此参数才可选。 |
· 主机的链路聚合和负载分担模式不同,对应交换机侧的聚合配置如表4-6所示:
|
主机侧链路聚合模式 |
主机侧负载分担模式 |
交换机侧的链路聚合模式 |
|
静态链路聚合 |
主备负载分担 |
不配置聚合 |
|
静态链路聚合 |
基本负载分担 |
静态聚合 |
|
静态链路聚合 |
高级负载分担 |
静态聚合 |
|
动态链路聚合 |
基本负载分担 |
动态聚合 |
|
动态链路聚合 |
高级负载分担 |
动态聚合 |
· 推荐使用“动态链路聚合、高级负载分担”。“主备负载分担”只有一条链路工作,另一台链路作为备份链路;“高级负载分担”根据转发报文的以太网类型、IP报文协议、源IP地址、目的IP地址、应用层源端口和目的端口进行负载分担,适用于对负载分担有特殊需求的场景。
· 初始化时,如果交换机已经配置完成了聚合模式,此时所有主机节点并未配置聚合,在集群初始化时可能出现无法发现主机的问题,对于三种聚合模式请参考如下处理方式:
¡ 如果物理交换机未配置聚合,主机端计划配置为“静态链路聚合”,且负载分担模式为“主备负载分担”方式,此场景不存在无法发现主机的问题。
¡ 如果物理交换机配置了“静态链路聚合”,且负载分担模式为“基本/高级负载分担”,集群初始化时存在无法发现主机的可能,此时需要shutdown交换机侧连接主机eth1(非vSwitch0绑定端口)的端口。再次扫描主机
¡ 如果管理网物理交换机配置了“动态链路聚合”,且负载分担模式为“基本/高级负载分担”,此时交换机连接主机端口需配置lacp edge-port(解决交换机配置聚合,主机未配置聚合时管理口可能无法收到报文的问题),初始化完成后删除该配置即可。配置方法参考附录13.3。
· 如果各主机的物理接口顺序不一致,可通过“对端端口”信息确认虚拟交换机所选端口。
· 初始化网络配置中,如果节点添加失败,主机名和网段会回退到默认值。需要重启服务器,检查网络配置,再进行节点添加。
(7) 当所有目标主机都配置完成后,在选择主机页面单击<设置密码>按钮,弹出设置密码对话框。统一设置所有主机root用户的密码,单击查看按钮查看常用密码的校验提示,设置完成后单击<确定>按钮完成密码设置。
密码最小长度为8,密码不能由单一的字母、数字或特殊字符组成,不能输入空格&/|`''''";()<>\
(8) 配置完成后,在选择主机页面单击<下一步>按钮,弹出主机配置确认对话框。查看已配置主机的主机名、管理网IP和存储内外网IP是否符合预先规划。
(9) 单击<确定>按钮,弹出配置主机对话框。
初始化配置中,如果主机加入集群失败,其主机名和网络设置会回退到默认值,此时需要重启主机,检查网络配置,再进行添加主机。
(10) 待所有主机配置完成后自动进入配置存储页面。
图4-8 配置存储
· 初始化部署超融合块存储集群;如需部署文件存储或者对象存储,在初始化集群完成后,通过创建硬盘池或子集群部署。
表4-7 主要参数说明表
|
参数名称 |
参数说明 |
|
部署方式 |
块存储支持四种部署方式,包括闪存加速、全SSD、全HDD和快慢池。初始化完成后,系统会自动在存储中创建硬盘池,硬盘池是基于所有数据盘创建的一组硬盘集合。 闪存加速:系统会自动创建1个硬盘池,数据盘使用HDD盘,缓存加速盘使用SSD盘。闪存加速为较常用方式。 全SSD:系统会自动创建1个硬盘池,数据盘使用SSD盘,无缓存加速盘,提供高性能的存储服务。 全HDD:系统会自动创建1个硬盘池,数据盘使用HDD盘,无缓存加速盘,提供普通存储服务。 快慢池:系统会自动创建2个硬盘池,数据盘使用SSD和HDD盘,SSD盘被划分到快池,HDD盘被划分到慢池,快池用来提供高性能服务,慢池用来提供普通存储服务。 |
|
配置方式 |
系统自动创建的硬盘池的配置方式。该参数决定了在硬盘池中创建的块设备占用存储空间的分配方式以及容量是否能够超配。 厚配置:在此类型硬盘池中,创建块设备时就为该块设备分配最大容量的存储空间,块设备的容量不允许超配。 精简配置:此类型硬盘池中,块设备占用存储空间的容量是按需分配的,块设备的容量允许超配。 注意:硬盘池的厚配置/精简配置模式在集群搭建完毕后不支持修改,建议提前规划部署。 |
|
副本个数 |
初始化完成后,系统会自动创建一个块设备,块设备使用的冗余策略为此处设置的副本个数。 |
|
缓存大小 |
只有当部署方式为闪存加速时才会出现此选项。使用闪存加速作为部署方式时会使用HDD盘作为数据盘,SSD盘作为缓存盘。系统会根据数据盘的个数对SSD盘进行分区,一个数据盘对应一个缓存分区。 缓存大小最小150GB,缓存分区值越大,性能越好。配置缓存分区大小时,请保证:缓存分区大小*HDD数据盘数量 < SSD缓存盘总容量。缓存分区大小配置后不能修改,如果后续可能扩容HDD数据盘,请提前预留相应的SSD缓存盘容量。具体请参见SSD磁盘容量规划。 注意:不支持在线修改缓存配置,建议提前规划部署。 |
|
缓存保护级别 |
只有当部署方式为闪存加速时才会出现此选项。缓存保护级别分一般和高级两种。 一般:硬盘池内的存储节点以RAID 0方式将缓存及元数据存储至缓存盘。 高级:硬盘池内的存储节点以RAID 1方式将缓存及元数据存储至缓存盘。目前仅部分型号的物理主机支持高级级别,详细支持情况请参考相应规格文档中的说明。 |
|
故障域 |
故障域是集群数据分布的最小单元。集群存储数据时,一份数据的不同副本或分片会被分布存储在不同的故障域内,根据冗余策略的配置,允许一定数量的故障域故障而不丢失数据,从而提高集群数据存储的可靠性。 “机架”故障域:集群内每个机架为一个故障域,一份数据的不同副本或分片分布存储在不同的机架中。推荐集群规模较大、机架较多的情况下选择此类型。 “主机”故障域:集群内每台主机为一个故障域,一份数据的不同副本或分片分布存储在不同的主机中(可在同一个机架中)。缺省情况下,故障域类型为“主机”。 注意:主机数量超过8台的集群,推荐使用机架故障域。 |
|
数据盘类型 |
用于存储数据的硬盘的类型,只有符合所选类型的硬盘才可以添加至系统自动创建的 硬盘池中。 |
(11) 扫描磁盘分区。UIS只支持将无分区的磁盘分配为缓存盘或数据盘,当磁盘已存在磁盘分区时,可根据需要对已有磁盘分区的磁盘进行清理。
单击<扫描磁盘分区>按钮,在弹出的对话框中可以查看集群中所有主机上已存在磁盘分区的磁盘,此时可根据需要勾选相应的主机及磁盘,单击<清除磁盘分区>按钮,即可清除所选磁盘的磁盘分区。
(12) 当超融合集群中只有两个物理主机时,需要增加外部监控节点。单击<增加外部监控节点>按钮,在弹出的对话框中输入外部监控节点的IP地址,root用户密码,单击<检测>按钮,检测通过后单击<增加>按钮完成操作。
图4-9 UIS初始化部署引导流程-配置存储(两节点)
初始化部署时,只能增加一个外部监控节点。外部监控节点的root用户密码必须和步骤(7)中修改的主机密码保持一致。若不一致,请先修改外部监控节点的root密码。
图4-10 增加外部监控节点对话框
(13) 外部监控节点增加完成后,进入图4-13所示页面。
(14) 配置主机机架:单击主机列表中的机架下拉选项框,选择“配置机架”菜单项,弹出配置机架对话框,如图4-14所示。单击<增加机架>按钮,弹出增加机架对话框,如图4-15所示,配置机架名称和机架个数。单击<确定>按钮,返回配置机架对话框,选择已增加的机架,单击<确定>按钮完成选择。
· 增加主机到集群中时需要选择机架,集群最多允许创建512个机架,创建机架时,机架名称不能与硬盘池名称或主机名称相同。
· 建议根据需要部署的物理服务器所摆放机架的实际情况创建机架。比如有六台物理服务器,摆放在两个机架上,则根据实际的机架名称创建2个机架。
(15) 单击主机操作列
图标,弹出修改主机对话框,修改主机用途、主机加入存储集群的数据盘或缓存盘。
图4-14 修改主机对话框
· 仅两台主机部署UIS超融合集群时,主机用途只能设置为“存储节点和监控节点”。
· 两节点环境,单台主机所选数据盘数量不能少于3块。
· 三节点及以上环境,单台主机所选数据盘数量不能少于2块。
(16) 在配置存储页面中单击<完成>按钮,弹出风险提示对话框。
图4-15 风险提示对话框
(17) 单击<确定>按钮,弹出操作确认对话框。
图4-16 操作确认对话框
(18) 单击<确定>按钮进入自动安装和配置分布式存储页面,分布式存储集群初始化完成后系统会自动跳转到UIS超融合管理平台首页页面。
图4-17 自动安装和配置分布式存储页面
集群初始化部署完成后,自动登录到系统首页界面,显示如下图所示。主要包括系统健康度、集群监控、主机和虚拟机监控、系统告警等信息。页面上方可以分别进入虚拟机、网络、存储、主机、云业务等界面。
(1) 初始化完成系统会提示“是否立即前往配置双机热备”;单击“确定”,页面跳转至双机热备配置页面,参考第5章。
LLDP不支持虚拟链接(VC),UIS 8000、UIS 9000初始化完成后需确认网卡LLDP为禁用状态。
(2) 双机热备搭建完成后,进入主机页签,查看集群配置,确认HA处于启用状态。
UIS超融合管理平台中的主机之间的系统时间必须保持一致,可以通过配置NTP服务器实现。
UIS软件安装完成后,系统默认开启了NTP服务,建议将UIS管理节点作为NTP的服务端,其他业务主机作为NTP的客户端,与管理节点的主机时间保持一致(双机热备环境时使用虚IP)。
NTP服务配置完成后,建议不要随意更改;
在已运行业务的情况下,修改NTP服务器,可能会影响当前业务。
(1) 在[管理]页面,选择[NTP时间服务器]菜单项。
(2) 在NTP时间服务器配置页面,输入UIS管理节点的IP地址(双机热备环境时使用虚IP),单击<保存>按钮,完成NTP配置。
请参考《H3C UIS超融合产品 License支持情况说明》和《H3C UIS Manager&Edge本地授权 License使用指南》
UIS分布式存储集群概要界面展示存储集群健康度、存储集群IOPS、集群容量、IO吞吐量及磁盘读写延时等信息,使用户能够方便的监控分布式存储集群状态。
图8-1 分布式存储概览
机架管理用于管理存储集群中的机架,包括增加机架,删除机架等操作。
图8-2 增加机架
机架配置注意:
· 创建机架时,机架名称不能与硬盘池名称、主机名称相同。
· 存储集群最多允许创建512个机架。
· 机架中存在主机时,不允许删除机架。
节点管理能够监控每个节点的存储网IP、网络状态、磁盘状态(鼠标移至状态图标,会有对应说明浮现)、存储容量和利用率、CPU利用率、内存大小和利用率等信息。
图8-3 节点管理
· 界面下方的磁盘配置界面能够对该节点的未配置的磁盘进行操作。
· 配置:用户增加磁盘后,可以通过配置磁盘操作,将磁盘配置为RAID0,然后增加到该存储节点。
· 移除:将某磁盘从存储节点移出,注意该动作会触发数据平衡,影响性能。
· 磁盘灯:打开磁盘灯操作可以方便的使用户了解所操作的磁盘或状态异常的磁盘。
· 配置RAID:对未使用RAID0的磁盘配置RAID0。
(1) 单击导航树中的[存储]菜单项,进入分布式存储管理页面。
(2) 选择“节点管理”页签,进入节点管理页面。
(3) 在磁盘里找到未使用状态的磁盘,单击操作列的<配置>按钮,在弹出的对话框中选择硬盘池,单击<确定>;如果加入缓存加速的硬盘池,还需选择对应的缓存盘。
图8-4 配置磁盘
若需要删除存储节点上最后一个硬盘或所有硬盘,只能通过删除此存储节点来实现。
(1) 单击导航树中的[存储]菜单项,进入分布式存储管理页面。
(2) 选择“节点管理”页签,进入节点管理页面。
(3) 选择待删除硬盘,单击操作列的<移除>按钮,如所示,在下图弹出的对话框中单击<确定>按钮完成操作。
图8-5 删除磁盘
(1) 更换/维护硬盘时需满足表8-1所列要求,否则可能导致数据丢失、硬盘损坏。
表8-1 更换/维护硬盘的要求
|
· 支持设备管理的环境支持更换硬盘。 · 更换硬盘操作仅支持在同一存储节点内进行,禁止跨存储节点进行更换硬盘,例如将存储节点A上正常使用中的某个硬盘拔下后插到存储节点B上,可能会导致无法预测的问题。 · 仅当新硬盘的活动指示灯处于绿色常亮状态且状态指示灯未处于红色或蓝色状态时,才可以执行更换硬盘操作。 · 用新硬盘更换旧硬盘之后,若又将原旧硬盘重新插回了存储节点,则必须立即对旧硬盘进行格式化,且在格式化完成之前禁止重启该存储节点,否则由于旧硬盘依然残留OSD信息,会导致系统中出现两个相同OSD的异常错误。 |
|||||
|
场景要求 |
|||||
|
维护对象 |
具体情形 |
拔插要求 |
容量要求 |
接口要求 |
插槽要求 |
|
SATA或SAS接口的数据盘、缓存盘、一般保护级别的元数据盘 |
硬盘和槽位均不变(即修复操作) |
下电拔插或没有写业务的情况下带电拔插 |
无 |
无 |
无 |
|
硬盘不变,更换槽位 |
下电拔插或没有写业务的情况下带电拔插 |
无 |
无 |
要求新插槽已经做了RAID 0 |
|
|
槽位不变,更换硬盘 |
可带电拔插,对业务无要求 |
新盘容量不小于原盘容量,并且不大于原盘容量的120%。 |
新盘接口类型与原盘保持一致 |
无 |
|
|
硬盘和槽位同时更换 |
可带电拔插,对业务无要求 |
新盘容量不小于原盘容量,并且不大于原盘容量的120%。 |
新盘接口类型与原盘保持一致 |
无 |
|
|
NVMe接口的数据盘、缓存盘、一般保护级别的元数据盘 |
硬盘和槽位均不变(即修复操作) |
可带电拔插,对业务无要求 |
无 |
无 |
无 |
|
硬盘不变,更换槽位 |
可带电拔插,对业务无要求 |
无 |
无 |
无 |
|
|
槽位不变,更换硬盘 |
可带电拔插,对业务无要求 |
新盘容量不小于原盘容量 |
新盘接口类型与原盘保持一致 |
无 |
|
|
硬盘和槽位同时更换 |
可带电拔插,对业务无要求 |
新盘容量不小于原盘容量 |
新盘接口类型与原盘保持一致 |
无 |
|
(2) 单击导航树中的[存储]菜单项,进入分布式存储管理页面。
(3) 选择“节点管理”页签,进入节点管理页面。
(4) 选中需要更换的一个或多个硬盘,单击<更换硬盘>按钮,在弹出的图8-6对话框中,确认满足提示的更换要求后,单击<确定>按钮,进入更换硬盘页面。
(5) 如图8-7所示,在左侧“硬盘信息”列表中,单击选中需要更换的硬盘,然后在右侧“可替换硬盘信息”列表中,单击选择更换后的硬盘。若同时更换多个硬盘,则再次操作可继续设置其他硬盘的更换。可在下方“所选择的硬盘信息”列表中查看已设置的硬盘更换信息。
(6) 单击<下一步>按钮,进入图8-8所示确认信息页面,确认硬盘更换信息设置正确后,单击<完成>按钮完成操作。
· 关闭存储节点数据平衡:主机更换硬件(CPU、内存、电源、风扇)前,可以先关闭其数据平衡功能。主机在关闭数据平衡后下电,存储集群不会将该主机当作异常节点,不会将该主机上的数据迁移到集群中的其他主机上,但在关闭数据平衡之前已经发生的数据迁移不因数据平衡的关闭而中断。主机关闭数据平衡后,将禁止删除该主机,同时禁止对该主机进行增加或删除硬盘的操作。建议停止该主机上的所有业务后再关闭数据平衡功能。
· 启动存储节点数据平衡:恢复该主机在存储集群内的数据同步功能。
(1) 单击导航树中的[存储][节点管理]菜单项,进入存储节点页面,选中一个存储节点,单击<关闭数据平衡>按钮,在弹出对话框中选择开启或关闭,单击<确定>按钮完成操作。
图8-9 关闭数据平衡
单击导航树中的[存储][节点管理]菜单项,进入存储节点页面,选中一个存储节点,单击<同步磁盘>按钮,完成磁盘信息更新操作。
将主机的磁盘分配给不同的硬盘池,系统会将一份数据的多个副本或分片存放在某一指定的硬盘池内。根据冗余策略的配置,一定数量的硬盘出现故障后不会丢失数据。
根据用户需求将硬盘划分不同的硬盘池,可满足用户多种性能需求,同时实现服务器硬盘异构兼容
(1) 单击导航树中的[存储]菜单项,进入分布式存储管理页面。
(2) 选择“硬盘池管理”页签,进入硬盘池页面,如图所示。
(3) 单击<增加>按钮,在弹出的对话框中输入硬盘池相关信息,单击<确定>按钮。
表8-2 增加硬盘池参数说明表
|
参数名称 |
参数说明 |
|
服务类型 |
选择硬盘池提供的存储服务类型。本节以“块存储”为例。 |
|
恢复策略 |
数据平衡时,存储数据流量中用于数据平衡的流量速率高度,从高到低的顺序为优先重构>自适应>优先业务。 |
|
配置方式 |
硬盘池的配置方式决定了在使用该硬盘池的数据池中创建的块设备占用存储空间的分配方式以及容量是否能够超配。 · 厚配置:在此类型硬盘池中,创建块设备时就为该块设备分配最大容量的存储空间。在使用该类型硬盘池的数据池中创建块设备时,设置的容量不能超过数据池的可用容量。 · 精简配置:此类型硬盘池中,块设备占用存储空间的容量是按需分配的。在使用该类型硬盘池的数据池中创建块设备时,设置的容量可以超过数据池的可用容量。 |
|
部署方式 |
硬盘池的部署方式,包括闪存加速、全SSD和全HDD。 · 闪存加速:数据盘只能选择HDD盘,读/写缓存加速盘只能选择SSD盘。 · 全SSD:数据盘选择SSD盘,无读/写缓存加速盘,提供高性能的存储服务。 · 全HDD:数据盘选择HDD盘,无读/写缓存加速盘,提供普通存储服务。 |
|
缓存分区大小 |
只有当部署方式为闪存加速时才会出现此选项。使用闪存加速作为部署方式时会使用HDD盘作为数据盘,SSD盘作为缓存盘。系统会根据数据盘的个数对SSD盘进行分区,一个数据盘对应一个缓存分区,当实际业务数据量比较大时,可以将此值适当调大。 |
|
数据盘类型 |
用于存储数据的硬盘的类型,只有符合所选类型的硬盘才可以添加至该硬盘池中。 |
|
缓存保护级别 |
缓存保护级别分一般和高级两种。当部署方式选择闪存加速时可以配置此参数。 · 一般:硬盘池内的存储节点以RAID 0方式将缓存及元数据存储至缓存盘。 · 高级:硬盘池内的存储节点以RAID 1方式将缓存及元数据存储至缓存盘。目前仅部分型号的物理主机支持高级级别,详细支持情况请参考相应规格文档中的说明。 |
· 一个节点池内最多可以创建10个硬盘池。
· 创建硬盘池时,硬盘池名称不能与节点池名称、机架名称或存储节点的主机名称相同。
为保持各节点间的数据平衡,增加硬盘时,同一硬盘池中不同节点上的硬盘数量相差不允许超过1个。
(1) 单击导航树中的[存储]菜单项,进入分布式存储管理页面。
(2) 选择“硬盘池管理”页签,进入硬盘池页面。
(3) 选中一个硬盘池,单击操作列的<配置>按钮,在弹出的对话框中单击<确定>按钮,进入选择磁盘页面。
(4) 选中一个主机,在主机区域中会显示出当前主机上的硬盘信息,单击硬盘,即可将该硬盘添加到硬盘池区域中(除添加数据盘外,还可以按需要添加缓存盘)。
(5) (可选)若需要删除硬盘池区域中的某个硬盘,直接单击该硬盘即可。
(6) (可选)单击<下一步>按钮,在页面中选择“硬盘池”或“主机”页签,可从硬盘池或主机的维度查看已添加到硬盘池中的硬盘。
(7) 单击<完成>按钮完成操作。
(1) 单击导航树中的[存储]菜单项,进入分布式存储管理页面。
(2) 选择“硬盘池管理”页签,进入硬盘池页面,如图所示。
(3) 查看集群中已创建的硬盘池信息。若仅需要查看某硬盘池的信息,选中该硬盘池,单击操作列的<配置>按钮,在弹出的页面中可以查看对应硬盘池的磁盘信息。
当硬盘池内存在硬盘时,不允许删除硬盘池。
(1) 单击导航树中的[存储]菜单项,进入分布式存储管理页面。
(2) 选择“硬盘池管理”页签,进入硬盘池页面,如图所示。
(3) 选中一个空硬盘池(即硬盘池中不存在硬盘),单击<删除>按钮,在弹出的对话框中单击<确定>按钮完成操作。
UIS分布式存储集群部署成功后,用户可以根据业务需求创建数据池,最多可以创建5个数据池。冗余策略为副本:
(1) 单击左侧导航树[数据池管理]菜单项,进入数据池列表页面。
图8-10 数据池列表页面
(2) 单击<增加>按钮,弹出增加数据池对话框。
图8-11 增加数据池对话框
(3) 输入数据池名称,选择所用硬盘池和冗余策略。若冗余策略类型选择为“副本”,则需要选择副本个数。单击<确定>按钮完成操作。
表8-3 增加数据池参数说明表
|
参数名称 |
参数说明 |
|
所用硬盘池 |
选择数据池所在的硬盘池。 |
|
冗余策略 |
数据池的冗余策略,包括副本。 · 副本:将数据存储为多个副本,副本个数越多,数据安全性越高。 |
|
副本个数 |
将原始数据复制多份,每一份称为一个副本。若该分区下的存储节点个数小于等于5,则副本个数最大为存储节点数。副本个数越多,安全性越高,但存储数据所需要的空间也成倍增长。数据备份的副本的个数,使用N副本的可用容量是裸容量的N分之一。对于关键业务和可靠性要求高的场景,两副本冗余性不足,建议采用三副本及以上方式进行部署。 |
· 此步骤只针对UIS超融合集群外主机使用本集群存储资源。
· 对于UIS超融合集群内的主机,系统在初始化完成后已将其自动添加为业务主机,管理员无需再手工增加,可以跳过此步骤。
(1) 单击左侧导航树[块设备/映射管理]菜单项,进入业务主机组列表页面。单击“业务主机”页签,进入业务主机列表页面。
图8-12 业务主机列表页面
(2) 单击<增加>按钮,弹出增加业务主机组对话框。
图8-13 增加业务主机对话框

(3) 输入要添加的业务主机的名称,选择操作系统,输入主机的IP地址、标识符和描述,单击<确定>按钮。相关参数说明见下表。
表8-4 增加业务主机参数说明表
|
参数 |
说明 |
|
IP地址 |
业务主机与UIS集群存储外网网段连通的IP地址。 |
|
标识符 |
业务主机的iqn标识符信息。业务主机通过此iqn标识符建立与块设备的连接。 |
· 对于UIS超融合集群外主机,增加为业务主机之后,还需将业务主机加入业务主机组。
· 对于UIS超融合集群内的业务主机,系统在初始化完成后已为其默认创建了一个业务主机组uistorHostGroup。该业务主机组不允许删除。若用户需要为其创建新的业务主机组,需要先将主机从uistorHostGroup中移除,然后再创建。
(1) 单击左侧导航树[块设备/映射管理]菜单项,进入业务主机组列表页面。
图8-14 业务主机组列表页面
(2) 单击<增加>按钮,弹出增加业务主机组对话框。
图8-15 创建业务主机组对话框

(3) 输入主机组名称和描述,单击<确定>按钮。
(4) 选中新创建的业务主机组,单击下方<添加>按钮,弹出添加业务主机对话框。
图8-16 为业务主机组添加业务主机
(5) 勾选要添加的业务主机,也可以单击<增加>按钮添加新的集群外主机。单击<确定>按钮。
图8-17 添加业务主机对话框
(6) 此时即可看到业务主机组中添加的主机。
(1) 单击左侧导航树[块设备/映射管理]菜单项,进入业务主机组列表页面。单击“iSCSI高可用”页签,进入iSCSI高可用列表页面。
图8-18 iSCSI高可用列表页面
(2) 单击<增加>按钮,弹出增加iSCSI高可用对话框。
图8-19 增加iSCSI高可用对话框
(3) 输入iSCSI高可用IP,选择高可用组ID、主节点IP和备节点IP,单击<确定>按钮。相关参数说明见下表。
表8-5 增加iSCSI高可用参数说明表
|
参数 |
说明 |
|
高可用IP |
用户通过iSCSI访问存储集群块设备的IP地址,此IP必须是存储外网网段内的IP。 |
|
高可用组ID |
iSCSI高可用IP的编组ID号,该ID号会下发至同组内所有主备节点,只有拥有相同高可用组ID号的节点之间才能进行相应高可用IP的故障切换。 |
|
主节点IP |
提供iSCSI接入点的节点的存储外网IP。 |
|
备节点IP |
当主节点故障时,提供iSCSI接入点的节点的存储外网IP。 |
(4) 等待添加成功,即可在iSCSI高可用列表看到新添加的iSCSI高可用。
(1) 单击左侧导航树[块设备/块设备管理]菜单项,进入块设备列表页面。
(2) 单击<增加>按钮,弹出增加块设备对话框。
图8-20 增加块设备对话框
(3) 设置好相关参数,单击<确定>按钮完成操作。
|
参数 |
说明 |
|
所用数据池 |
块设备中存储数据的备份方式依据所选数据池而定。 |
|
业务主机组 |
建立块设备与业务主机组的映射关系,只有属于该业务主机组内的业务主机才能发现此块设备,使用其对应的存储资源。 |
|
可用容量 |
创建块设备时,数据池实际可用容量。 |
|
容量 |
设置块设备的容量。 · 当块设备所用硬盘池采用精简配置时,块设备占用存储空间的容量是按需分配的。创建块设备时,此处设置的容量可以超过数据池的可用容量; · 当块设备所用硬盘池采用厚配置时,创建块设备时就为该块设备分配最大容量的存储空间。此处设置的容量不能超过数据池的可用容量。 |
|
条带大小 |
设置条带的大小,条带大小指的是写在每块磁盘上的条带数据块的大小;条带大小与条带数量大小均为0时,表示不启用条带功能。 |
|
条带数量 |
设置条带的数量,条带数量等于RAID中的物理硬盘数量;条带大小与条带数量大小均为0时,表示不启用条带功能。 |
对于集群内主机,创建块设备之后,可以直接在块设备列表界面将块设备挂载为共享文件系统给主机使用,也可以通过本集群添加共享存储中的步骤将块设备挂载为共享文件系统给主机使用。
块设备直接挂载为共享文件系统供集群内主机使用,步骤如下。
(1) 单击左侧导航树[块设备/块设备管理]菜单项,进入块设备列表页面。
图8-21 块设备列表页面
(2) 单击新建块设备的
图标,弹出对话框。如果允许自动部署虚拟机,则业务存储选择“是”,否则选“否”。然后单击<查询可用主机>按钮。
图8-22 挂载为共享系统对话框
(3) 勾选要使用此共享文件系统的主机,单击<确定>按钮,弹出操作确认框。
图8-23 操作确认框
(4) 单击<确定>按钮,在弹出的格式化共享文件系统对话框中单击<确定>按钮,完成操作。
图8-24 格式化共享文件系统
可以在存储池页面,通过增加共享存储的方式将块设备挂载为共享文件系统,供集群内主机使用,步骤如下。
(1) 单击左侧导航树[存储池]菜单项,进入存储池列表页面。
图8-25 存储池列表页面
(2) 单击<增加>按钮,弹出增加共享存储对话框。输入共享存储的名称、显示名称,存储类型选择“共享存储”,类型选择“ISCSI共享文件系统”。
图8-26 增加共享存储-基本信息
(3) 单击<下一步>按钮进入LUN信息页面。
图8-27 增加共享存储-LUN信息1
表8-7 LUN信息配置参数说明表
|
参数名称 |
参数说明 |
|
目标路径 |
共享文件系统在主机上的挂载点。 |
|
IP地址 |
对于系统中的分布式存储,管理节点融合部署场景,建议填写127.0.0.1或iSCSI高可用IP,管理节点分离部署场景,建议填写iSCSI高可用IP。 |
|
LUN |
选择共享文件系统所使用的LUN。此处选择在创建块设备步骤中创建的块设备。 |
|
NAA |
存储服务器上LUN的唯一标识符。共享文件系统的类型为iSCSI时,此参数由所选择的LUN确定。 |
|
业务存储 |
开启时表示系统自动向集群部署虚拟机时,可使用该共享文件系统,建议开启此项。 |
图8-28 增加共享存储-LUN信息2
(4) 单击<下一步>按钮,进入选择主机页面。
图8-29 增加共享存储-选择主机
(5) 勾选需要使用此共享存储的主机,单击<完成>按钮,弹出操作确认对话框。
(6) 单击<确定>按钮,弹出格式化共享文件系统对话框。
图8-30 格式化共享文件系统对话框
(7) 单击<确定>按钮完成增加共享存储池操作。
对于集群外主机,创建块设备之后,需要在目标主机上进行相应配置才能发现和使用块设备。
本文以UIS计算虚拟化集群作为外部集群,添加本集群的块设备为共享存储。
本文以在UIS计算虚拟化集群中添加本集群的块设备作为共享存储为例,介绍如何在外部集群中使用本超融合集群的块设备。
(1) 登录外部UIS计算虚拟化集群,单击左侧导航树[存储池]菜单项,进入存储池列表页面。
图8-31 存储池列表页面
(2) 单击<增加>按钮,弹出增加共享存储对话框。输入共享存储的名称、显示名称,存储类型选择“共享存储”,类型选择“ISCSI共享文件系统”。
图8-32 增加共享存储-基本信息
(3) 单击<下一步>按钮进入LUN信息页面。
图8-33 增加共享存储-LUN信息
表8-8 LUN信息配置参数说明表
|
参数名称 |
参数说明 |
|
IP地址 |
填写UIS超融合集群iSCSI高可用IP。 |
|
LUN |
选择共享文件系统所使用的LUN。此处选择在创建块设备步骤中创建的块设备。 |
|
NAA |
存储服务器上LUN的唯一标识符。共享文件系统的类型为iSCSI时,此参数由所选择的LUN确定。 |
|
业务存储 |
开启时表示系统自动向集群部署虚拟机时,可使用该共享文件系统,建议开启此项。 |
(4) 单击<下一步>按钮,进入选择主机页面。
图8-34 增加共享存储-选择主机
(5) 勾选需要使用此共享存储的主机,单击<完成>按钮,弹出操作确认对话框。
图8-35 操作确认框
(6) 单击<确定>按钮,弹出格式化共享文件系统对话框。
图8-36 格式化共享文件系统对话框
(7) 单击<确定>按钮完成增加共享存储池操作。
UIS-NAS文件存储是指通过文件系统管理存储资源的一种存储服务,该存储方式是以文件为基本单位对数据进行存取。
UIS-NAS采用CAPFS分布式文件系统,能够自动整合不同节点内的硬盘资源,并对外显示为一个根目录。
要客户端能够访问UIS-NAS的存储资源,需要完成文件存储的基础配置,包括建立文件系统、指定NAS服务器、创建共享目录、指定文件共享访问方式、创建访问的用户等。
管理界面提供了两种配置方法供用户选择:
l 配置向导
l 创建文件系统
前者配置方法简单快捷,后者配置方法灵活丰富。
图8-37 文件存储配置
图8-38 配置文件存储基础服务流程
选择顶部“存储”页签,选择“文件存储”导航栏,选择“NAS管理”栏,选择“负载均衡”页签,进入负载均衡页面,单击<新建>按钮,输入域名,选择DNS IP类型并添加相应IP类型的一到多个DNS IP地址及其掩码,单击<确定>按钮,完成操作。
图8-39 创建负载均衡
DNS域名访问时,使用NAS组名+域名的地址。
本功能用于引导用户搭建整个文件存储架构。配置向导包括对文件系统、NAS管理、用户管理三部分内容的配置。具体的配置顺序与配置内容如表8-9所示。
|
配置顺序 |
配置内容 |
|
文件系统 |
元数据池 数据池 |
|
NAS管理 |
NAS组 NAS服务器 (可选)NFS共享 (可选)CIFS共享 |
|
用户管理 |
本地鉴权或匿名接入的配置 |
该功能用于创建文件系统,文件系统名称缺省为CAPFS。
选择导航栏“文件存储”,选择“配置向导”页签,进入文件系统页面,填写存储池相关信息,完成操作(配置向导默认配置所有存储节点为MDS节点)。
图8-40 填写创建存储池相关信息
表8-10 参数说明
|
参数 |
说明 |
|
文件系统名 |
创建的文件系统的名称,缺省为CAPFS,且不可更改 |
|
元数据池 |
元数据池的信息,包括名称和副本个数,其中名称缺省为Metadata,且不可更改 |
|
数据池 |
数据池的信息,包括名称和冗余策略信息 |
|
元数据服务 |
元数据服务器的IP地址信息 |
· 文件系统是其他文件存储操作的基础,需要首先进行配置。
· 一个集群仅支持创建一个文件系统。
依次点击导航栏“文件存储”---->选择“配置向导”页签,进入文件系统页面,填写NAS组相关信息,完成操作。
图8-41 填写NAS组相关信息
图8-42 选择集群内NAS节点
表8-11 参数说明
|
参数 |
说明 |
设置 |
|
组名 |
创建的NAS组的名称 |
支持1~9位字母、数字、中划线,且不能以中划线开头和结尾 |
|
动态业务IP添加方式 |
动态业务IP添加方式 |
支持单个IP和IP段 |
|
动态业务IP类型 |
动态业务IP的类型 |
支持IPv4和IPv6 |
|
动态业务IP地址 |
分为动态业务IPv4地址和动态业务IPv6地址。具有动态绑定、故障时可“漂移”的特性,保证业务高可用;同时用于实现负载均衡 |
配置向导中的动态业务IP地址最多可创建5条,且必须使用业务网段、管理网段、存储前端网段或存储后端网段内的IP地址,推荐使用业务网段内的IP地址 |
|
IPv4子网掩码 |
动态业务IPv4地址的子网掩码 |
- |
|
IPv4业务网关 |
动态业务IPv4地址所在网络的网关地址 |
- |
|
IPv6掩码长度 |
动态业务IPv6地址的前缀长度 |
- |
图8-43 创建NFS共享
表8-12 参数说明
|
参数 |
说明 |
设置 |
|
共享名 |
创建的NFS共享的名称 |
支持1~30位字母、数字、中划线、下划线、小数点,且只能以字母和数字开头,不能以小数点结尾 |
|
共享目录 |
NFS共享所共享的目录的名称 |
支持1~30位字母、数字、中划线、下划线、小数点,且只能以字母和数字开头,不能以小数点结尾 |
|
允许访问的主机 |
允许访问NFS共享的主机的IP地址或网段 |
支持添加多个取值范围合法的网络地址或网段,*表示所有主机均可访问NFS共享 |
|
共享方式 |
允许访问的主机对共享文件的权限 |
可选择“读写”或“只读” |
|
新建文件权限 |
共享目录下新创建的文件的权限 |
可选择“rwx/u”或“rwx/ugo”,其中rwx代表文件的权限:r表示可读,w表示可写,x表示可执行。ugo代表文件权限的所有者:u表示文件所有者,g表示文件所有者所在组的成员,o表示其它用户 |
图8-44 创建CIFS共享
表8-13 参数说明
|
参数 |
说明 |
设置 |
|
共享名 |
创建的CIFS共享的名称 |
支持1~30位字母、数字、中划线、下划线、小数点,且只能以字母和数字开头,不能以小数点结尾 |
|
共享目录 |
CIFS共享所共享的目录的名称 |
支持1~30位字母、数字、中划线、下划线、小数点,且只能以字母和数字开头,不能以小数点结尾 |
|
允许访问的主机 |
允许访问CIFS共享的主机的IP地址或网段 |
支持添加多个取值范围合法的网络地址或网段。*表示除禁止访问的主机外,所有主机均可访问CIFS共享 |
|
禁止访问的主机 |
禁止访问CIFS共享的主机的IP地址 |
取值合法的主机IP地址或IP网段(IP网段合法输入形式举例:192.168.1.0/24) |
图8-45 配置用户管理(匿名鉴权)
表8-14 参数说明
|
参数 |
说明 |
设置 |
|
本地鉴权 |
用户鉴权的一种方式,仅允许UIS-NAS自身创建的用户访问CIFS共享 |
- |
|
匿名接入 |
用户鉴权的一种方式,允许任何用户匿名访问CIFS共享,无需创建具体的用户组和用户 |
- |
|
用户组名 |
创建的用户组的名称 |
支持1~30位字母、数字、中划线、下划线、小数点,且只能以字母和数字开头,但不能为纯数字 |
配置向导中仅支持设置“本地鉴权”和“匿名接入”两种用户鉴权方式,若需设置“AD鉴权”或“LDAP域配置”,请在文件系统创建成功后,转至文件存储[用户管理]菜单下相应页面中进行设置。
系统自动创建MDS节点、NAS节点,以及配置NFS、CIFS共享。
图8-46 核对文件存储配置信息
图8-47 开始创建文件系统
图8-48 查看文件存储
|
showmount -e 动态IP地址或者负载均衡IP地址查询NFS共享目录 [root@ocvknode1 ~]# showmount -e 172.88.240.69 Export list for 172.88.240.69: /NAS/CAPFS/data/sh1 * ---------------UIS NFS共享目录 使用mount命令挂载NFS共享命令 mount -t nfs 172.88.240.69:/NAS/CAPFS/data/sh1 /mnt/new_dir/ -------------通用挂载命令 指定NFSv3版本号挂载 mount -t nfs -o vers=3 172.88.240.69:/NAS/CAPFS/data/sh1 /mnt/new_dir/ |
● 兼容性系统
表8-15 NFS兼容系统表
|
OS类别 |
操作系统版本 |
支持NAS协议 |
网络接口 |
结果 |
|
Centos |
centos6.8-X86_64 |
NFSv3,NFSv4 |
10GE |
OK |
|
centos7.0-X86_64 |
NFSv3,NFSv4 |
10GE |
OK |
|
|
RedHat |
rhel5.11-X86_64 |
NFSv3,NFSv4 |
10GE |
OK |
|
rhel6.5-X86_64 |
NFSv3,NFSv4 |
10GE |
OK |
|
|
rhel6.8-X86_64 |
NFSv3,NFSv4 |
10GE |
OK |
|
|
rhel7.0-X86_64 |
NFSv3,NFSv4 |
10GE |
OK |
|
|
rhel7.1-X86_64 |
NFSv3,NFSv4 |
10GE |
OK |
|
|
rhel7.2-X86_64 |
NFSv3,NFSv4 |
10GE |
OK |
|
|
rhel7.3-X86_64 |
NFSv3,NFSv4 |
10GE |
OK |
|
|
SuSE |
SuSE11-X86_64 |
NFSv3,NFSv4 |
10GE |
OK |
|
SuSE12-X86_64 |
NFSv3,NFSv4 |
10GE |
OK |
|
|
Ubuntu |
Ubuntu12.04.5-desktop_amd64 |
NFSv3,NFSv4 |
10GE |
OK |
|
Ubuntu12.04.5-server_amd64 |
NFSv3,NFSv4 |
10GE |
OK |
|
|
Ubuntu14.04.5-desktop_amd64 |
NFSv3,NFSv4 |
10GE |
OK |
|
|
Ubuntu14.04.5-server_amd64 |
NFSv3,NFSv4 |
10GE |
OK |
|
|
Ubuntu16.04.1-desktop_amd64 |
NFSv3,NFSv4 |
10GE |
OK |
|
|
Ubuntu16.04.1-server_amd64 |
NFSv3,NFSv4 |
10GE |
OK |
● 兼容性测试内容
表8-16 NFS兼容性测试内容表
|
测试系统 |
读写类型 |
测试内容 |
测试结果 |
|
Linux系统 |
读 |
获得文件属性 |
OK |
|
获得文件系统属性 |
OK |
||
|
查询文件名 |
OK |
||
|
从目录中读 |
OK |
||
|
从符号链接读 |
OK |
||
|
写 |
写到文件 |
OK |
|
|
创建文件 |
OK |
||
|
删除文件 |
OK |
||
|
重命名文件 |
OK |
||
|
创建文件链接 |
OK |
||
|
创建符号链接 |
OK |
||
|
创建目录 |
OK |
||
|
删除目录 |
OK |
||
|
设置文件属性 |
OK |
(1) 输入win+R键,掉出运行界面。
(2) 运行界面输入NAS动态IP地址任意一个。
图8-49 Windows客户端访问CIFS共享
(3) 打开共享目录。
图8-50 访问CIFS共享目录
· 该步骤中打开共享目录使用匿名接入,因此不需要输入用户名与密码。
· 若配置其他的鉴权方式,则需要相应的认证权限,若权限不够,无法打开共享目录。
● 兼容性系统
表8-17 CIFS兼容性系统表
|
系统类型 |
协议类型 |
测试网络接口 |
测试结论 |
|
Window server 2008 |
smb2 |
10GE |
OK |
|
Window server 2012 |
smb3 |
10GE |
OK |
|
Window 7 |
smb2 |
10GE |
OK |
|
Window 8 |
smb3 |
10GE |
OK |
|
Window 10 |
smb3 |
10GE |
OK |
● 兼容性测试内容
表8-18 CIFS兼容性测试内容
|
测试系统 |
读写类型 |
测试内容 |
测试结果 |
|
Window系统 |
读 |
连接共享 |
OK |
|
打开文件 |
OK |
||
|
刷新文件日期 |
OK |
||
|
查询文件属性 |
OK |
||
|
从快捷方式中读 |
OK |
||
|
写 |
创建文件夹 |
OK |
|
|
删除文件夹 |
OK |
||
|
重命名文件夹 |
OK |
||
|
创建或者覆盖文件 |
OK |
||
|
创建或者覆盖文件夹 |
OK |
||
|
关闭文件 |
OK |
||
|
删除文件 |
OK |
||
|
设置文件属性 |
OK |
||
|
打印文件 |
OK |
(1) 使用Xftp登录FTP(登录方式较多,以Xftp为例)。
(2) 单击<新建>按钮,输入名称、主机IP,选择协议,输入用户名和密码,点击连接。
图8-51 Windows客户端登录FTP共享
(3) 打开FTP共享目录。
图8-52 打开FTP共享目录
(1) linux客户端输入:ftp ip地址,输入用户名、密码,即可访问FTP共享目录。
图8-53 Linux客户端访问FTP共享
● 兼容性系统
表8-19 FTP兼容性系统
|
系统类型 |
协议类型 |
测试网络接口 |
测试结论 |
|
Window server 2008 |
ftp |
10GE |
OK |
|
Window server 2012 |
ftp |
10GE |
OK |
|
Window 7 |
ftp |
10GE |
OK |
|
Window 8 |
ftp |
10GE |
OK |
|
Window 10 |
ftp |
10GE |
OK |
|
centos6.8-X86_64 |
ftp |
10GE |
OK |
|
centos7.0-X86_64 |
ftp |
10GE |
OK |
|
rhel5.11-X86_64 |
ftp |
10GE |
OK |
|
rhel6.5-X86_64 |
ftp |
10GE |
OK |
|
rhel6.8-X86_64 |
ftp |
10GE |
OK |
|
rhel7.0-X86_64 |
ftp |
10GE |
OK |
|
rhel7.1-X86_64 |
ftp |
10GE |
OK |
|
rhel7.2-X86_64 |
ftp |
10GE |
OK |
|
rhel7.3-X86_64 |
ftp |
10GE |
OK |
|
SuSE11-X86_64 |
ftp |
10GE |
OK |
|
SuSE12-X86_64 |
ftp |
10GE |
OK |
|
Ubuntu12.04.5-desktop_amd64 |
ftp |
10GE |
OK |
|
Ubuntu12.04.5-server_amd64 |
ftp |
10GE |
OK |
|
Ubuntu14.04.5-desktop_amd64 |
ftp |
10GE |
OK |
|
Ubuntu14.04.5-server_amd64 |
ftp |
10GE |
OK |
|
Ubuntu16.04.1-desktop_amd64 |
ftp |
10GE |
OK |
|
Ubuntu16.04.1-server_amd64 |
ftp |
10GE |
OK |
● 兼容性测试内容
表8-20 FTP兼容性测试内容
|
测试系统 |
读写类型 |
测试内容 |
测试结果 |
|
Window/Linux系统 |
读 |
连接共享 |
OK |
|
打开文件 |
OK |
||
|
刷新文件日期 |
OK |
||
|
查询文件属性 |
OK |
||
|
从快捷方式中读 |
OK |
||
|
写 |
创建文件夹 |
OK |
|
|
删除文件夹 |
OK |
||
|
重命名文件夹 |
OK |
||
|
创建或者覆盖文件 |
OK |
||
|
创建或者覆盖文件夹 |
OK |
||
|
关闭文件 |
OK |
||
|
删除文件 |
OK |
||
|
设置文件属性 |
OK |
||
|
打印文件 |
OK |
(1) 选择顶部“存储”页签,左侧导航栏选择“存储管理”栏,选择“文件系统”页面,单击<创建>按钮。
图8-54 元数据池配置
(2) 单击<下一步>按钮元数据池和数据池的冗余策略请按照规划配置。
图8-55 数据池配置
(3) 单击<下一步>按钮。
图8-56 元数据服务器配置
· 添加多台元数据服务器时,选择主机后,继续添加选择“是”,然后点击下一步即可继续添加新的主机。
· 至少添加三个元数据服务器。
(4) 单击<下一步>按钮。
图8-57 核对文件系统配置信息
(5) 文件存储创建完成后,选择顶部“存储”页签,左侧导航栏选择“存储管理”栏,选择“文件系统”页面查到CAPFS。
图8-58 查看文件系统
· 文件系统是其他文件存储操作的基础,需要首先进行配置。
· 一个集群仅支持创建一个文件系统。
· 若使用配置向导进行配置,则此步可省略。
(1) 选择顶部“存储”页签,左侧导航栏选择[文件存储/NAS管理],选择“NAS组”页签,单击<新建>按钮,填写相关信息。
动态业务IP添加方式:
· 选择单个IP,输入一到多个动态业务IP地址及其子网掩码。
· 动态业务IP添加方式选择IP段,输入起始IP地址、结束IP地址及其子网掩码。
图8-59 填写NAS组信息
(2) 选择“是否创建NAS服务”,选择目标主机,单击<确定>”按钮,完成操。
图8-60 选择NAS主机
· 单节点最大支持16个VIP。
· 当前开局动态业务IP类型暂只选择IPv4。
· 推荐动态业务IP地址个数与NAS节点数目一致。
· 子网掩码填写规划的业务网络掩码。
· IPv4业务网关请根据客户实际需求填写,若客户业务不需要跨网段访问则无需填写。
· 若创建NAS组时,创建NAS服务选择“否”,则不会添加NAS主机,可在创建完NAS组后,手动添加NAS主机。
图8-61 查看NAS组
选择[文件存储/NAS管理]页签,进入NAS组管理页面,单击<修改>按钮,在弹出的对话框中选择网卡类型和动态业务IP类型,修改、增加或删除相应IP类型的动态业务IP地址及修改负载均衡策略,单击<确定>按钮,完成操作。
图8-62 修改NAS组
修改NAS组可能会造成业务中断,请谨慎操作。
删除NAS组必须先将该NAS组中的NAS主机全部删除后,才能删除NAS组。
选择[文件存储/NAS管理]页签,进入NAS组管理页面,单击<删除>按钮,在弹出的对话框中,单击<确定>按钮,完成操作。
图8-63 删除NAS组
选择[文件存储/NAS管理]页签,进入NAS组管理页面,选择“负载均衡”页签,进入负载均衡页面,单击<修改>按钮,修改域名,选择DNS IP类型并添加相应IP类型的一到多个DNS IP地址及其掩码,单击<确定>按钮,完成操作。
图8-64 修改负载均衡
选择[文件存储/NAS管理]页签,进入NAS组管理页面,选择“负载均衡”页签,进入负载均衡页面,单击<删除>按钮,最后单击<确定>按钮,完成操作。
图8-65 删除负载均衡
客户端必须通过全局域名挂载访问共享目录,才能实现负载均衡功能,且客户端需要配置负载均衡的DNS后才能使用全局域名进行挂载访问,例如配置中的NAS组名为nasgp,负载均衡域名为nas.test.com,则全局域名为nasgp.nas.test.com,DNS IP为172.88.240.69,以此为例分别Windows和Linux客户端进行配置:
Windows客户端:
图8-66 Windows客户端配置DNS服务器
此时,在客户端通过cmd控制台ping全局域名能够ping通,且每次ping通返回不同的动态业务IP地址,则可以使用全局域名进行挂载访问共享,实现负载均衡。
图8-67 Windows客户端实现负载均衡
Linux客户端:
修改/etc/resolv.conf配置文件,增加nameserver 172.88.240.69(注:DNS IP),如下图:
图8-68 Linux客户端配置DNS服务器
此时,在客户端ping全局域名能够ping通,且每次ping通返回不同的动态业务IP地址,则可以使用全局域名进行挂载访问共享,实现负载均衡。
图8-69 Linux客户检查实现负载均衡
图8-70 NFS共享配置流程
创建NFS共享,需要先在“文件存储”—“目录管理”中,创建一个目录作为NFS共享目录。
依次点击导航栏“NAS管理”---->选择“NFS共享”页签,进入NFS共享页面---->单击“新建”按钮,输入共享名,单击“浏览”按钮---->选择共享目录,单击“确定”按钮,完成操作。
图8-71 创建NFS共享
该功能用于对NFS共享中允许访问的主机进行管理。
依次点击导航栏“NAS管理”---->选择“NFS共享”页签,进入NFS共享页面---->点击“修改新建文件权限”按钮---->在弹出框中选择新建文件权限,单击<确定>按钮,完成操作。
图8-72 修改新建文件/目录权限
单击导航树中的“文件存储”---->“NAS管理”---->“NFS共享”菜单项,进入NFS共享页面。单击待操作NFS共享操作栏的“删除”按钮,在弹出的对话框中单击“确定”按钮完成操作。
图8-73 删除NFS共享
依次点击导航栏“NAS管理”---->选择“NFS共享”页签,进入NFS共享页面---->单击待操作NFS共享操作栏的“共享权限”按钮---->进入共享权限页面,单击待操作允许访问的主机权限栏的 “读写/只读”按钮,修改其权限---->单击“修改权限”按钮,在弹出框中单击“确定”按钮,完成操作。
图8-74 修改NFS共享权限
依次点击导航栏“NAS管理”---->选择“NFS共享”页签,进入NFS共享页面---->单击待操作NFS共享操作栏的“共享权限”按钮---->进入共享权限页面,选择待删除的允许访问的主机,单击 “删除”按钮---->在弹出框中单击“确定”按钮,完成操作。
图8-75 删除NFS共享权限
图8-76 CIFS共享配置流程图
创建CIFS共享,需要先创建一个目录作为CIFS共享目录。
依次点击导航栏“NAS管理”---->选择“CIFS共享”页签,进入CIFS共享页面---->单击 “新建”按钮,输入共享名,单击 “浏览”按钮---->选择共享目录,添加允许访问的主机和禁止访问的主机---->单击“确定”按钮,完成操作。
图8-77 创建CIFS共享
依次点击导航栏“NAS管理”---->选择“CIFS共享”页签,进入CIFS共享页面---->单击待操作CIFS共享操作栏的“修改”按钮,修改允许访问的主机和禁止访问的主机---->单击“确定”按钮,完成操作。
图8-78 修改CIFS共享
依次点击导航栏“NAS管理”---->选择“CIFS共享”页签,进入CIFS共享页面---->单击待操作CIFS共享操作栏的“删除”按钮,修改允许访问的主机和禁止访问的主机---->单击“确定”按钮,完成操作。
图8-79 删除CIFS共享
依次点击导航栏“NAS管理”---->选择“CIFS共享”页签,进入CIFS共享页面---->单击 “共享权限”按钮,进入用户(组)管理页面,单击 “新建”按钮---->选择everyone/用户/用户组。
图8-80 创建CIFS共享权限
配置说明:
1、CIFS的共享权限包含两部分,用户/用户组与读写权限;
2、CIFS用户/用户组根据鉴权方式不一样,本地认证用户/用户组、AD用户/AD用户组,配置方式相同,下图只选择匿名进行配置,鉴权的配置请参考认证与接入权限控制章节;
3、鉴权选择原则
A.CIFS权限访问控制采用密码验证,并且用户数量少于50个,推荐配置本地用户权限管理;
B.CIFS客户客户端数量较多一般大于50个客户端,对于权限管理要求比较严格,推荐配置AD。
4、CIFS共享创建后不支持共享名、共享目录的修改;
5、用户/用户组选择AD用户(组)及访问方法请参考AD鉴权章节。
6、每个NAS机头的最大CIFS连接数规格:20*(CORE+3),无法满足VDI场景;
依次点击导航栏“NAS管理”---->选择“CIFS共享”页签,进入CIFS共享页面---->单击待操作用户/用户组操作栏的“修改权限”按钮,在弹出的对话框中,选择“权限”---->单击“确定”按钮,完成操作。
图8-81 修改CIFS共享权限
依次点击导航栏“NAS管理”---->选择“CIFS共享”页签,进入CIFS共享页面---->单击待操作用户/用户组操作栏的“删除”按钮---->在弹出的对话框中,单击“确定”按钮,完成操作。
图8-82 删除CIFS共享权限
图8-83 FTP共享配置流程图
依次点击导航栏“文件存储”---- “NAS管理”---->选择“FTP共享”页签,进入FTP共享页面---->单击“新建”按钮---->在弹出的对话框中,单击“浏览”按钮,选择目录,单击“确定”按钮,完成操作。
图8-84 创建FTP共享
依次点击导航栏“NAS管理”---->选择“FTP共享”页签,进入FTP共享页面---->单击“删除”按钮---->选择共享目录,单击“确定”按钮,完成操作。
图8-85 删除FTP共享
依次点击导航栏“NAS管理”---->选择“FTP共享”页签,进入FTP共享页面---->单击待操作FTP共享操作栏的“共享权限”按钮,进入用户管理页面---->单击“新建”按钮,在本地认证用户一栏输入待添加的本地认证用户的用户名关键字---->单击“查找”按钮选择共享目录,选中待添加的用户,填写相关信息,单击“确定”按钮,完成操作。
图8-86 创建FTP共享权限
· FTP的共享权限包含两部分,本地用户与读写权限。
· FTP共享创建后不支持共享名,共享目录的修改。
依次点击导航栏“NAS管理”---->选择“FTP共享”页签,进入FTP共享页面---->单击待操作FTP共享操作栏的“共享权限”按钮,进入用户管理页面---->单击待操作FTP共享操作栏的“修改”按钮---->在弹出的对话框中修改相关信息,单击“确定”按钮,完成操作。
图8-87 修改FTP共享权限
依次点击导航栏“NAS管理”---->选择“FTP共享”页签,进入FTP共享页面---->单击待操作FTP共享操作栏的“共享权限”按钮,进入用户管理页面---->单击待操作FTP共享操作栏的“删除”按钮---->在弹出的对话框中单击“确定”按钮,完成操作。
图8-88 删除FTP共享权限
依次点击导航栏“NAS管理”---->选择“HTTP共享”页签,进入HTTP共享页面---->单击“新建”按钮,输入共享名---->单击“浏览”按钮选择共享目录,完成操作。
图8-89 创建HTTP共享
依次点击导航栏“NAS管理”---->选择“HTTP共享”页签,进入HTTP共享页面---->单击待操作HTTP共享操作栏的“修改”按钮,在页面中修改相关参数---->单击“确定”按钮,完成操作。
图8-90 修改HTTP共享
依次点击导航栏“NAS管理”---->选择“HTTP共享”页签,进入HTTP共享页面---->单击待操作HTTP共享操作栏的“删除”按钮---->在弹出的对话框中单击“确定”按钮,完成操作。
图8-91 删除HTTP共享
依次点击导航栏“文件存储/用户管理”---->选择“本地用户组”页签,进入本地用户组管理页面---->单击“新建”按钮---->输入本地用户组名称,单击“确定”按钮,完成操作。
图8-92 创建本地用户组
依次点击导航栏“文件存储/用户管理”---->选择“本地用户组”页签,进入本地用户组管理页面---->单击待操作本地用户组操作栏的“查看用户”按钮---->进入本地用户管理页面查看该本地用户组下的所有用户。
图8-93 查看本地用户组用户
依次点击导航栏“文件存储/用户管理”---->选择“本地用户组”页签,进入本地用户组管理页面---->单击待操作本地用户组操作栏的“CIFS过期时间”按钮---->进入修改对话框,选择过期时间,单击“确定”按钮,完成操作。
图8-94 修改CIFS过期时间
删除本地用户所属组,仅支持删除用户数为0的所属组。
依次点击导航栏“文件存储/用户管理”---->选择“本地用户组”页签,进入本地用户组管理页面---->单击待操作本地用户组操作栏的“删除”按钮---->在弹出的对话框中单击“确定”按钮,完成操作。
图8-95 删除本地用户组
依次点击导航栏“文件存储/用户管理”---->选择“本地用户”页签,进入本地用户管理页面---->单击“新建”按钮,输入用户名和密码,选择一到多个用户组---->单击“确定”按钮,完成操作。
图8-96 创建本地用户
依次点击导航栏“文件存储/用户管理”---->选择“本地用户”页签,进入本地用户管理页面---->单击待操作本地用户操作栏的“删除”按钮---->单击“确定”按钮,完成操作。
图8-97 删除本地用户
依次点击导航栏“文件存储/用户管理”---->选择“本地用户”页签,进入本地用户管理页面---->单击“导入”按钮,在弹出的对话框中单击“选择文件”按钮,选择用户信息表单---->单击“确定”按钮,完成操作。
图8-98 批量导入用户、用户所属组
依次点击导航栏“文件存储/用户管理”---->选择“本地用户”页签,进入本地用户管理页面---->单击待操作本地用户操作栏的“修改密码”按钮,在弹出的对话框中输入新密码---->单击“确定”按钮,完成操作。
图8-99 修改本地用户密码
依次点击导航栏“文件存储/用户管理”---->选择“本地用户”页签,进入本地用户管理页面---->单击待操作本地用户操作栏的“CIFS过期时间”按钮,进入修改对话框,选择过期时间---->单击“确定”按钮,完成操作。
图8-100 修改CIFS过期时间
依次点击导航栏“文件存储/用户管理”---->选择“本地用户”页签---->单击待操作本地用户操作栏的“修改所在组”按钮,在弹出的对话框中选择一到多个新用户组---->单击“确定”按钮,完成操作。
图8-101 修改本地用户所属组
LDAP鉴权用于设置NFS共享的LDAP域配置,需要用户搭建或者已有的LDAP服务器。
依次点击导航栏“文件存储/用户管理”---->选择“LDAP域配置”页签---->输入相关信息,单击“加入域”按钮,完成操作。
启用LDAP鉴权。
图8-102 启用LDAP鉴权
配置说明:
LDAP地址:提供LDAP服务的服务器的IP地址;
基准DN:LDAP目录树的最顶部,即根目录,点击“获取基准DN列表”可以得到;
绑定用户名:Root权限用户的名称,即域管理员名称;
绑定密码:管理用户所在域的管理员的密码;
加入LDAP域后,LDAP服务器创建的用户和用户组可直接访问NFS共享。
本地鉴权是通过本地用户(组)鉴权的认证方式,提供本地用户(组)访问CIFS共享目录的功能。
依次点击导航栏“文件存储/用户管理”---->选择“CIFS共享鉴权”页签---->选择本地鉴权,单击“应用”按钮,完成操作。
图8-103 启用本地鉴权
AD鉴权用于给已配置AD服务器的公司提供AD用户访问CIFS共享目录的功能。
依次点击导航栏“文件存储/用户管理”---->选择“CIFS共享鉴权”页签---->选择AD鉴权,输入相关信息,单击“应用”按钮---->在弹出的对话框中单击“确定”按钮,完成操作。
图8-104 AD鉴权
查看AD域中用户(组)信息
集群内后台任意节点执行getent passwd,即可查看AD域中的用户(组)信息。
图8-105 查看AD域中用户(组)信息
客户端通过AD用户访问CIFS共享目录
Step1:输入win+R键,掉出运行界面;
Step2:运行界面输入NAS动态IP地址任意一个;
图8-106 AD用户访问CIFS共享
Step3:输入“AD域名\AD用户名”和该用户密码进行访问共享目录。
图8-107 AD用户登录
依次点击导航栏“文件存储/快照管理”---->选择“快照”页签---->单击“新建”,在弹出的页面中单击“浏览”,选择目录,完成操作。
图8-108 创建快照
依次点击导航栏“文件存储/快照管理”---->选择“快照”页签---->单击待操作快照操作栏的“修改”,在弹出的对话框中修改说明和过期时间---->单击“确定”,完成操作。
图8-109 修改快照
依次点击导航栏“文件存储/快照管理”---->选择“快照”页签---->单击待操作快照操作栏的“删除”,在弹出的对话框中单击“确定”,完成操作。
图8-110 删除快照
依次点击导航栏“文件存储/快照管理”---->选择“快照”页签---->单击待操作快照操作栏的“回滚”,在弹出的对话框中选择“保留新数据”或“不保留新数据”---->单击“确定”,完成操作。
图8-111 快照回滚
依次点击导航栏“文件存储/快照管理”---->选择“定时快照策略”页签---->单击“新建”,在弹出的对话框中输入名称---->单击“浏览”按钮,选择目录,输入快照有效期,单击 “下一步”按钮---->单击“确定”,完成操作。
图8-112 创建定时快照策略
依次点击导航栏“文件存储/快照管理”---->选择“定时快照策略”页签---->单击待操作定时快照策略操作栏的“修改”,在弹出的对话框中修改相关参数---->单击“确定”,完成操作。
图8-113 修改定时快照策略
依次点击导航栏“文件存储/快照管理”---->选择“定时快照策略”页签---->单击待操作定时快照策略操作栏的“删除”,在弹出的对话框中单击“确定”,完成操作。
图8-114 删除定时快照策略
依次点击导航栏“文件存储/目录管理”---->选择“目录管理”页签---->选中一个目录,单击 “新建”,在弹出的对话框中单击“确定”,完成操作。
图8-115 创建目录
配置说明:
目录管理的初始目录只有“/”表示根目录,其余目录均属于根目录的子目录。
创建目录必须作为已存在目录的子目录。
创建目录时选择数据池,表示该目录写入的数据所使用的冗余方式。
依次点击导航栏“文件存储/目录管理”---->选择“目录管理”页签---->选中待删除的目录或WORM目录下的文件,单击“删除”按钮,在弹出的对话框中单击“确定”,完成操作(只能对空目录进行删除)。
图8-116 删除目录
依次点击导航栏“文件存储/目录管理”---->选择“WORM管理”页签---->在弹出的对话框中确认是否设置WORM时钟,设置过期文件策略---->单击“确定”,完成操作。
图8-117 WORM设置
配置说明:
WORM时间:当前WORM时钟的具体信息。
过期文件策略:显示是否可以对过期文件的内容进行修改。
WORM设置信息仅供查看,不允许修改。
依次点击导航栏“文件存储/目录管理”---->选择“目录管理”页签---->选中待修改WORM属性的目录,单击“修改WORM属性”按钮---->在弹出的对话框中修改相关信息,单击“确定”,完成操作。
图8-118 修改WORM属性
依次点击导航栏“文件存储/目录管理”---->选择“WORM管理”页签---->单击“新建”按钮---->在弹出的页面中设置相关信息,单击“确定”,完成操作。
图8-119 创建WORM根目录
单击导航树中的“文件存储”---->“目录管理”---->“WORM管理”菜单项,进入WORM管理页面。单击待操作WORM根目录操作栏的“修改”按钮,在弹出的对话框中设置相关信息,单击“确定”按钮完成操作。
图8-120 修改WORM根目录属性
依次点击导航栏“文件存储/目录管理”---->选择“WORM管理”页签---->单击待操作WORM根目录操作栏的“删除”按钮---->在弹出的对话框中单击“确定”,完成操作。
图8-121 删除WORM根目录属性
依次点击导航栏“文件存储/目录管理”---->选择“WORM管理”页签---->单击“WORM记录导出”按钮---->在弹出的对话框中选择导出时间,点击“确定”,完成操作。
图8-122 导出WORM记录
依次点击导航栏“文件存储/目录管理”---->选择“WORM管理”页签---->单击待操作WORM根目录操作栏的“延长保护期”按钮---->在弹出的对话框中设置延长后保护期的到期时间,点击“确定”,完成操作。
图8-123 延长WORM根目录保护期
依次点击导航栏“文件存储/目录管理”---->选择“回收站”页签---->单击 “新建”按钮---->在弹出的对话框中设置相关信息,点击“确定”,完成操作。
注:回收站需提前规划一个回收目录,请在目录管理中创建目录。
图8-124 创建网络回收站
配置说明:
回收目录:回收站对应的目录,创建后此目录下删除的文件/文件夹会被保存在其回收站中。
超大文件直接删除:若被删除文件(非文件夹)的大小超过该值,则会被彻底删除,不会保存在回收站中。
文件清除策略:是否允许系统自动删除回收站中的文件/文件夹。
不设置:回收站中的文件不会被系统自动删除。
删除文件保留时间:被删除的文件/文件夹下的文件进入回收站后的保存时长,超过该时长则会被系统自动删除(即从文件系统中彻底删除)
依次点击导航栏“文件存储/目录管理”---->选择“回收站”页签---->单击待操作回收站操作栏的 “修改”按钮---->在弹出的对话框中修改回收站配置信息,点击“确定”,完成操作。
图8-125 修改网络回收站
依次点击导航栏“文件存储/目录管理”---->选择“回收站”页签---->单击待操作回收站操作栏的“删除”按钮---->在弹出的对话框中点击“确定”,完成操作。
图8-126 删除网络回收站
依次点击导航栏“文件存储/目录管理”---->选择“回收站”页签---->单击待查询的回收目录超链接---->进入该目录的回收站详情页面,单击“切换回收站”按钮,完成操作。
图8-127 切换回收站
依次点击导航栏“文件存储/目录管理”---->选择“回收站”页签---->单击回收目录超链接---->进入该目录的回收站详情页面,单击待操作文件操作栏的“还原”按钮,在弹出的对话框中单击“确定”,完成操作。
图8-128 还原文件
依次点击导航栏“文件存储/目录管理”---->选择“回收站”页签---->单击回收目录超链接---->进入该目录的回收站详情页面,单击待操作文件操作栏的“移动”按钮,在弹出的对话框中单击“确定”按钮---->选择需要移动至的目标路径,单击“确定”按钮,完成操作。
图8-129 移动文件
依次点击导航栏“文件存储/目录管理”---->选择“回收站”页签---->单击回收目录超链接---->进入该目录的回收站详情页面,单击待操作文件操作栏的“删除”按钮,在弹出的对话框中单击单击“是”按钮,完成操作。
图8-130 删除文件
· 系统最多支持创建8192个回收站。
· 文件系统根目录不允许创建回收站。
· 每个目录仅允许创建一个回收站,且不允许嵌套创建回收站(即若某个目录已创建回收站,则其父/子目录均不允许再创建回收站)。
· 已创建配额的目录及其父目录不允许创建回收站。
· 已创建快照的目录及其父/子目录不允许创建回收站。
· 已创建为WORM根目录的目录及其父/子目录不允许创建回收站。
配额用于限制目录的使用空间和文件数量,同时避免部分用户/用户组占用过多的资源,影响其他用户/用户组的使用。
配额类型分为目录配额和用户(组)配额,默认目录配额。目录配额:对指定目录设置配额,限制所有用户在该目录下使用的存储资源;用户(组)配额:对指定目录下某个用户/用户组在该目录下存储资源的使用。(注:若鉴权方式为“匿名鉴权”,则不支持用户(组)配额,只支持目录配额;若鉴权方式为“本地鉴权”、“AD鉴权”或“LDAP”鉴权,则仅能添加对应鉴权方式下的用户和用户组。)
配额限制类型分为容量配额和文件数配额,默认容量配额。容量配额:以存储空间为限制标准;文件数配额:以文件数量为限制标准。
配额方式分为计算配额和强制配额,默认强制配额。计算配额:只监控存储资源使用情况,不限制使用;强制配额:监控存储资源使用情况的同时限制资源的使用,需要对硬性阈值和告警阈值进行设置。(注:硬性阈值:当使用的存储空间或文件数量达到硬性阈值时,系统立即限制数据写入,硬性阈值需大于告警阈值;告警阈值:当使用的存储空间或文件数量达到告警阈值时,系统不会限制数据写入,仅上报告警信息。)
依次点击导航栏“文件存储/配额管理”---->选择“普通配额”页签---->单击“新建”按钮,在弹出的对话框中设置相关信息---->单击“确定”按钮,完成操作。
图8-131 创建普通配额(容量配额)
图8-132 创建普通配额(文件数配额)
依次点击导航栏“文件存储/配额管理”---->选择“普通配额”页签---->单击待操作配额操作栏的“删除”按钮,在弹出的对话框中单击“确定”按钮,完成操作。
图8-133 删除普通配额
依次点击导航栏“文件存储/配额管理”---->选择“普通配额”页签---->单击待操作配额操作栏的“修改”按钮,在弹出的对话框中单击“确定”按钮,完成操作。
图8-134 修改普通配额
依次点击导航栏“文件存储/配额管理”---->选择“默认配额”页签---->单击“新建”按钮,在弹出的对话框中设置相关信息,单击“确定”按钮,完成操作。
注意:
非空目录创建配额后,已存在的文件不计入配额;
图8-135 创建默认配额
依次点击导航栏“文件存储/配额管理”---->选择“默认配额”页签---->单击“修改”按钮,在弹出的对话框中设置相关信息,单击“确定”按钮,完成操作。
图8-136 修改默认配额
依次点击导航栏“文件存储/配额管理”---->选择“默认配额”页签---->单击“删除”按钮,在弹出的对话框中设置相关信息,单击“确定”按钮,完成操作。
图8-137 删除默认配额
图8-138 配置对象存储基础
对象管理页面主要用于管理对象存储。对象存储主要适用于处理海量非结构化的数据。常见的应用场景为云网盘场景、归档备份场景等。
依次点击导航栏“对象存储”---->对象网关---->点击“新建”按钮,创建对象网关,如下图所示:
图8-139 创建对象网关1
图8-140 创建对象网关2
依次点击导航树中的“管理”--“系统管理”--“操作员管理”--“操作员”,单击“增加操作员”按钮完成操作。
图8-141 创建系统管理员
依次点击导航栏“对象存储/对象管理”---->选择“负载均衡”页签---->单击“新建”按钮,输入域名、DNS
IPv4地址、IPv4子网掩码---->点击“确定”按钮,完成操作。
图8-142 创建负载均衡
创建访问对象网关的租户。导航栏点击“对象存储”---->租户管理---->点击“新建”按钮,创建租户,如下图所示:
图8-143 创建租户
依次点击导航栏“对象存储”----à单击“用户管理”页签,点击“新建”按钮,填写用户名、Email地址----à点击“确定”按钮,完成创建操作。
图8-144 创建用户
具体操作工具及操作流程详见以下文档
本功能用于创建、修改、删除对象存储高可用对象组。
依次点击导航栏“对象存储/对象管理”---->“高可用对象组”---->点击“新建”按钮,创建高可用对象组,如下图所示:
图8-145 创建高可用对象组
配置说明:
组名:高可用对象组的名称,将多个服务器规划在一个高可用对象组内,方便统一管理。
动态业务IP地址:高可用对象组的虚拟IP地址,动态业务IP类型支持IPv4。通过分配动态业务IP地址给组内的对象网关主机,实现高可用对象组的负载均衡。
IPv4子网掩码:动态业务IPv4地址的子网掩码,同一高可用对象组的多个动态业务IPv4地址共用一个IPv4子网掩码。
负载均衡:根据用户需求选择开启或者关闭负载均衡。
创建高可用组时,需设置指定对象网关主机,动态业务IP地址才能和对象网关主机绑定。
依次点击导航栏“对象存储/对象管理”---->“高可用对象组”---->选中已存在的高可用对象组---->点击“修改”,修改高可用对象组。
图8-146 修改高可用
修改说明:
修改之前需要断开使用该高可用组的客户端。
可以增加或者删除备用节点,不能修改主用节点。
依次点击导航栏“对象存储/对象管理”---->“高可用对象组”---->选中需要删除的高可用对象组---->点击“删除”按钮---->点击确认按钮,删除高可用对象组,如下图所示:
图8-147 删除高可用对象组
图8-148 删除对象网关主机
删除高可用组时,如设置了对象网关主机,则必须先删除对象网关主机才能执行删除高可用组操作。
该功能用于创建高可用对象组的负载均衡,平衡对象网关服务器服务器之间的业务负载,解决单点性能瓶颈,提升应用系统的可用性。
依次点击导航栏“对象存储/对象管理”---->选择“负载均衡”页签---->单击“新建”按钮,输入相关信息---->点击“确定”按钮,完成操作。
依次点击导航栏“对象存储/对象管理”---->选择“负载均衡”页签---->单击“修改”按钮,输入相关信息---->点击“确定”按钮,完成操作。
图8-149 修改负载均衡
依次点击导航栏“对象存储/对象管理”---->选择“负载均衡”页签---->单击“删除”按钮 ---->点击“确定”按钮,完成操作。
图8-150 删除负载均衡
开启对象压缩功能后,将会对写入到对象存储中的数据进行压缩,可以达到减少对象存储空间的使用,提高对象存储空间利用率。系统默认对象压缩为关闭状态。对象压缩展示信息包括:对象压缩状态、上传对象总容量、实际使用容量、节省容量。
依次点击导航栏“对象存储/对象管理”---->选择“对象压缩”页签---->单击“编辑”按钮,开启或关闭对象压缩功能---->点击“确定”按钮,完成操作。
图8-151 开启/关闭对象压缩
高级配置支持设置“对象异步复制配置”即满足桶跨区域容灾或用户数据复制的需求,它们具有相同的对象名、版本信息、元数据以及内容,例如创建时间、拥有者、用户定义的元数据、Object ACL、对象内容等。
依次点击导航栏“对象存储/对象管理”---->选择“高级配置”页签---->单击“编辑”按钮,开启或关闭对象异步复制---->点击“确定”按钮,完成操作。
图8-152 开启或关闭对象异步复制
本功能用于管理对象存储桶,对象用户可访问对应的桶,进行数据读写操作。
依次点击导航栏“对象存储”---->选择“桶管理”页签---->单击“新建”按钮,输入名称---->点击“确定”按钮,完成操作。
图8-153 创建桶
桶策略允许用户将资源(桶和对象)的访问和控制权限开放给其他用户,使用桶策略对存储资源进行访问控制。
依次点击导航栏“对象存储”---->选择“桶管理”页签---->选中待设置的桶,单击“桶策略”按钮,在桶策略对话框中进行创建、修改、删除桶策略操作---->点击“确定”按钮,完成操作。
图8-154 桶策略
依次点击导航栏“对象存储”---->选择“桶管理”页签---->单击“删除”按钮 ---->点击“确定”按钮,完成操作。
图8-155 删除桶
在用户日常使用对象存储系统时,经常出现个别用户过度使用资源,影响了其他用户的使用,或者某用户下存在多个桶,单桶使用过多资源,影响其他的桶的资源使用,在资源有限的情况下,管理员需要按需求为用户、桶为单位合理分配存储空间或对象数量,配额管理可有效的解决这一问题。
依次点击导航栏“对象存储”---->选择“桶管理”页签---->选择待设置的桶,单击“更多”按钮,选择“配额”---->开启/关闭配额,点击“确定”按钮,完成操作。
图8-156 开启/关闭配额
WORM策略是的满足数据能够一次写入,多次读写的功能。满足对数据设置保留周期的需求。
依次点击导航栏“对象存储”---->选择“桶管理”页签---->选择待设置的桶,单击“更多”按钮,选择“WORM策略”---->开启/关闭WORM策略,点击“确定”按钮,完成操作。
图8-157 开启/关闭WORM策略
支持设置生命周期规则(lifecycle),自动删除过期的文件和碎片。其中支持设置容量或时间参数,当容量或时间达到阈值时执行数据删除操作。
依次点击导航栏“对象存储”---->选择“桶管理”页签---->选择待设置的桶,单击“更多”按钮,选择“生命周期策略”---->开启/关闭生命周期策略,点击“确定”按钮,完成操作。
图8-158 开启/关闭生命周期策略
租户管理包括创建、删除、修改租户,租户配额等功能。租户间存储资源隔离,不支持跨租户资源访问
依次点击导航树中的“对象存储”---->“租户管理”菜单项,进入租户管理页面,单击“新建”按钮,输入租户名称、管理用户、备注信息,单击“确定”按钮完成操作。
图8-159 创建租户
依次点击导航树中的“对象存储”---->“租户管理”菜单项,进入租户管理页面,选中待修改的租户,单击“修改”按钮,在弹出对话框中修改管理用户、备注信息,单击“确定”按钮完成操作。
图8-160 修改租户
依次点击导航树中的“对象存储”---->“租户管理”菜单项,进入租户管理页面,选中待删除的租户,单击“删除”按钮,在弹出确认删除的对话框中,单击“确定”按钮完成操作。
图8-161 删除租户1
注意:删除租户时,必须先删除租户下使用的桶资源。
图8-162 删除租户2
依次点击导航树中的“对象存储”---->“租户管理”菜单项,进入租户管理页面,选中待配置配额的租户,点击“配额”按钮,在提示框中点击“开启/关闭”按钮,输入“容量上限”、“对象数量上限”阈值,点击“确定”按钮,完成配额配置操作。
图8-163 租户配额
租户管理门户包括查看桶管理,创建、删除用户,创建删除用户访问密钥,创建删除用户加密密钥,开启关闭用户配额等功能。
使用管理用户账户和密码,登录租户管理门户。
依次点击导航栏“对象存储”---->单击“概览”页签,查看概览界面信息。
图8-164 概览
依次点击导航栏“对象存储”---->单击“桶管理”页签,创建桶、删除桶、桶策略、WORM策略、配额、生命周期策略、异步复制等操作请参考桶管理。
使用管理用户账户和密码,登录租户管理门户,依次点击导航树中的“对象存储”---->“用户管理”---->“新建”按钮,进入创建页面,填写用户名,Email地址信息,单击“确定”完成创建操作。
图8-165 创建用户
使用管理用户账户和密码,登录租户管理门户,依次点击导航树中的“对象存储”---->“用户管理”菜单项,进入用户管理页面,选中待删除用户,点击“删除”按钮,在删除提示框中点击“确定”按钮,完成删除操作。
图8-166 删除用户
使用管理用户账户和密码,登录租户管理门户,依次点击导航树中的“对象存储”---->“用户管理”菜单项,进入用户管理页面,选中待配置配额的用户,点击“配额”按钮,在提示框中点击“开启/关闭”按钮,输入“容量上限”、“对象数量上限”阈值,点击“确定”按钮,完成配额配置操作。
图8-167 用户配额
使用管理用户账户和密码,登录租户管理门户,依次点击导航树中的“对象存储”---->“用户管理”菜单项,进入用户管理页面,选择待设置的用户,点击“更多”---->“访问密钥”按钮,在提示框中点击“新建”按钮,完成创建访问密钥操作。选中待删除的访问密钥,点击“删除”按钮,在删除提示框中点击“确定”完成删除操作。
图8-168 用户访问密钥
使用管理用户账户和密码,登录租户管理门户,依次点击导航树中的“对象存储”---->“用户管理”菜单项,进入用户管理页面,选择待设置的用户,点击“更多”---->“加密密钥”按钮,在提示框中点击“新建”按钮,完成创建加密密钥操作。选中待删除的加密密钥,点击“删除”按钮,在删除提示框中点击“确定”完成删除操作。
图8-169 用户加密密钥
(1) 点击页面上方【虚拟机】页签,进入虚拟机管理页面,点击【增加】按钮,弹出增加虚拟机对话框;以创建新虚拟机为例。
· 显示名称:输入虚拟机的名称信息;
· 选择主机:可以指定虚拟机部署的宿主机,也可以不选择,系统将根据集群内各主机资源占用情况自动分配宿主机。
· 操作系统:根据实际操作系统类型选择”Windows”、”Linux”或”BSD”;
· 版本:选择实际的操作系统版本信息,虚拟机图标根据所选择的操作系统自动切换;
· CPU个数、内存大小和磁盘容量:根据实际需要配置。如没有特殊配置需要,可以直接点击【完成】按钮完成创建虚拟机。
(2) 如需进行高级配置,点击【下一步】按钮,进入【高级配置】界面,通过高级配置页面可以对虚拟机各硬件进行更详细的配置,如CPU预留、限制、内存气球、内存大页、网络策略、磁盘类型等。
虚拟机不支持部署在NFS文件系统。
(3) 增加虚拟机完成后,在虚拟机管理页面下显示新增加的虚拟机,状态为关闭。
(1) 在虚拟机页面,鼠标移到虚拟机卡片,卡片下方出现【控制台】按钮,点击【控制台】按钮打开虚拟机控制台。
(2) 在控制台页面点击【虚拟光驱】按钮,弹出挂载镜像文件界面,选择本地PC内的虚拟机安装镜像。也可以通过输入共享路径,访问远端服务器下的虚拟机安装镜像文件。还可以把镜像上传文件到存储后,通过修改虚机添加光驱后,从虚拟光驱安装。
(3) 挂载完成后,点击启动按钮,启动虚拟机,进入安装虚拟机界面。
(4) 在安装Windows操作系统时无法发现磁盘信息(因为系统默认使用高速硬盘,Windows安装盘中没有对应的驱动),此时点击【加载驱动程序(L)】按钮。
(5) 弹出【加载驱动程序】对话框,选择VirtIO SCSI controller驱动程序进行安装高速硬盘的驱动。
(6) 高速硬盘驱动完成后,安装界面显示高速硬盘信息。
(7) 在【虚拟机控制台】中安装虚拟机操作系统,安装完成后通过【控制台】登录虚拟机。
虚拟机安装后,H3C UIS平台和虚拟机之间相互独立,H3C UIS平台无法正确获取虚拟机CPU、内存利用率等信息,并且虚拟机使用的高速磁盘、高速网卡均需要CAStools提供的驱动,因此需要在虚拟机中安装CAStools工具。
CAStools工具支持Windows和Linux操作系统,详细的兼容性可参考《H3C UIS服务器虚拟化产品软硬件兼容性列表》。
(1) 虚拟机光驱连接ISO安装文件。【修改虚拟机】对话框中,选择【光驱】,点击【选择】按钮。在弹出的【选择文件】对话框中的【类型】栏选择“安装CAStools”,然后点击【确定按钮】。
(2) 光驱挂载后,【源路径】栏显示信息如下图所示。
(3) 安装CAStools。通过控制台登录虚拟机,虚拟机的虚拟光驱挂载了CAStools工具,双击虚拟光驱,弹出【CAStools安装】对话框。点击【下一步】按钮。按照安装向导逐步安装,直至安装完成。
CAStools工具安装完成后,如果是Windows VISTA 32位、Windows VISTA 64位、Windows Server 2008 32位、Windows Server 2008 64位系统,需要重启才能使用Virtio驱动。
(4) CAStools安装后配置。虚拟机安装CAStools工具后,在虚拟机的【概要】页面可以查看到CAStools的运行状态和版本信息。CAStools工具安装完成后,在【修改虚拟机】对话框中的【光驱】中点击【断开连接】按钮。
(5) UIS系统查看虚拟机资源利用率。CAStools安装完成后,UIS系统可以准确监控到虚拟机的资源利用率。比如【性能监控】页面的【内存利用率】和【分区占用率】信息。
(1) 虚拟机光驱连接ISO安装文件。在【选择文件】对话框的【类型】栏选择“安装CAStools”,然后点击【确定】按钮。
(2) mount光驱。在Linux虚拟机中执行mount命令,挂在光驱设备,并进入到CAStools工具的Linux目录下,如下图所示。
(3) 执行CAStools安装命令“./CAS_tools_install.sh”安装,安装完成后,在虚拟机的【概要】页面显示CAStools工具运行正常。
(1) 虚拟机安装完成后,默认是不存在IP地址,UIS软件可以通过CAStools工具为虚拟机分配IP地址。
(2) 在虚拟机的【概要】页面,IP地址信息显示为未获取地址状态,169.254.x.x。
(3) 虚拟机的【修改虚拟机】对话框中,在【设置网络】栏勾选【CAStools配置】。
(4) 在IP地址相关栏,输入虚拟机的IP地址信息,然后点击【应用】按钮。
(5) 虚拟机IP地址配置成功后,在【网络信息】页面显示刚配置的IP地址信息。在虚拟机的操作系统中,通过”ipconfig” (Windows)/”ifconfig”(linux)命令,确认为虚拟机配置了对应的IP地址信息。
Windows虚拟机安装完成后,请确认已按照微软官网的要求为Windows操作系统更新所有已发布的补丁,否则Windows操作系统的虚机存在中毒的风险。
用户关键业务越来越依赖于平台的数据可靠性管理,关键业务数据是用户最重要的资产,企业对关键业务的应急管理和连续性管理需要重大投入,关键业务虚拟机的数据备份刻不容缓,UIS超融合管理平台支持透明的定时备份和即时备份功能。执行备份功能时,将虚拟机镜像文件进行磁盘级的复制,此过程在后台自动进行,不会影响当前虚拟机的业务运行。它将给用户带来如下价值:
· 基于关键业务虚拟机整机和指定关键磁盘的备份与恢复,避免虚拟机系统出现不可恢复故障,为虚拟机提供快速、简单的数据保护。
· 无需额外代理的备份,简化了部署复杂度。
· 支持全自动的定时备份和手工干预的即时备份,满足关键业务应用要求。
· 支持全量、增量和差异备份及管理与恢复能力。
操作步骤:
(1) 选择顶部“虚拟机”页签,单击左侧导航树[虚拟机列表]菜单项,点击特定虚拟机进入操作页面;
(2) 选中特定虚拟机点击右键->[立即备份];
(3) 配置添加备份任务;
(4) 设置完成后,设置开启备份任务生效。
详细步骤请参照在线帮助。
虚拟机模板是虚拟机操作系统、应用软件和配置文件的集合。通过虚拟机模板,可批量创建多个软硬件规格相同的虚拟机,避免手工创建虚拟机过程中的繁琐配置和出错概率。虚拟机模板适用于大规模部署虚拟机或通过自助服务流程申请虚拟机的场景。
模板存储是存放虚拟机模板的路径,使用虚拟机模板部署虚拟机之前,必现配置模板存储。
模板存储的类型,包括本地文件目录、iSCSI共享目录、FC共享目录和NFS网络文件系统。
(1) 虚拟机模板默认存放在UIS管理节点主机上,建议在分布式存储中或外部存储中单独规划一个存储空间用于存储虚拟机的模板。在【虚拟机模板】页面点击【模板存储】按钮进入模板存储页面。
本文仅以iSCSI截图为例,其他请按具体情况选择。
(2) 在增加模板存储之前确认在共享存储中已经完成存储卷的划分和相关配置。在弹出的【增加模板存储】对话框中的【目标路径】栏输入规划的模板存放路径“/templet”;【类型】栏选择【iSCSI共享存储】;【IP地址】栏根据规划输入“127.0.0.1”(本地分布式存储),然后点击【LUN】栏右边的搜索按钮。
当以本地目录为挂载点时,如/vms/xxx。本地文件目录和本地同步分区类型必须以/vms开头,其他类型不能以/vms开头。
(3) 搜索IP地址对应的LUN信息,搜索完成后,选择用于模板存储的存储卷,然后点击【确定】按钮。增加模板存储完成后,在【模板存储】页面显示新增的模板存储信息。
在制作虚拟机模板前,请务必确认虚拟机的光驱和软驱已经断开连接。操作系统的地址信息已经设置为自动获取(否则会出现网络地址冲突问题)。
(1) 在虚拟机关闭的状态下,点击界面上方的【更多操作】,选择【克隆为模板】。(【克隆为模板】与【转换为模板】的区别为:【克隆为模板】操作完成后原虚拟机继续保留,【转换为模板】操作完成后原虚拟机转为了模板,不再继续保留)。
(2) 在弹出的【克隆为模板】对话框中的【模板名称】栏根据规划输入模板名称,并选择【模板存储】,然后点击【确定】按钮。
模板名称”不允许和虚拟机名称一致。
(3) 虚拟机模板制作完成后,进入“虚拟机模板”页面,可显示新增的“Win2008R2-template”虚拟机模板。
(1) 选中需要部署虚拟机的模板,点击操作栏内的部署虚拟机按钮。
(2) 进入部署虚拟机界面,配置各项参数,参数说明如下:
¡ 数量:一次性部署虚拟机的个数,最小值为1,最大值为100。
¡ 显示名称:虚拟机显示名称的设置方式,包括自动生成、手工配置。当部署的虚拟机个数大于1时,需要设置此选项。
¡ 快速部署:基于虚拟机模板的基础镜像文件部署虚拟机。若勾选“快速部署”选项,系统将会提高创建虚拟机的速度,节省服务器的存储空间。
¡ 立即启动:虚拟机部署完成后,是否立即启动。
¡ 配置操作系统:选择是否需要配置虚拟机的操作系统信息
(3) 继续选择部署的主机集群、存储位置并配置网络信息,完成部署虚拟机。存储信息选择时,有三类磁盘格式:
¡ 不变:部署的虚拟机的磁盘格式与模板保持一致。
¡ 智能:设置部署的虚拟机的磁盘格式为qcow2。
¡ 高速:设置部署的虚拟机的磁盘格式为raw。该格式结构简单,I/O效率高,缺点是不支持快照和快速克隆等。
多角色集群是指在UIS超融合架构场景下,满足DHCI(Disaggregated HCI)模型,支持在集群内单独增加计算或存储节点,从而满足客户的非对称业务场景和非线性扩容需求。
· 增加纯计算节点承载虚拟化业务,无存储开销,无需配置UIS-ONEStor Licesne 。
· 增加纯存储节点承载云存储业务,无计算开销,无需配置UIS-CAS License。
· 所有模式都必须配置UIS-Manager License。
(1) 点击页面上方的【主机】页签,进入主机管理页面;
(2) 点击【主机发现】按钮,进入主机发现页面后,点击页面上方图标扫描主机;
(3) 在扫描到的主机列表中找到待添加的主机,点击主机所在行的操作列按钮,打开主机的自定义配置对话框;
(4) 在自定义对话框中找到【纯计算节点】开关并打开;
图11-1 增加纯计算节点
(5) 在配置网卡后,点击【确定】按钮,完成主机配置;
(6) 勾选待添加主机后,点击【添加到集群】按钮,完成增加纯计算节点步骤。
(1) 点击页面上方的【主机】页签,进入主机管理页面;
(2) 点击【主机发现】按钮,进入主机发现页面后,点击页面上方图标扫描主机;
(3) 在扫描到的主机列表中找到待添加的主机,点击主机所在行的操作列按钮,打开主机的自定义配置对话框;
(4) 在自定义对话框中找到【纯存储节点】开关并打开;
图11-2 增加纯存储节点
(5) 在配置网卡后,点击【确定】按钮,完成主机配置;
(6) 勾选待添加主机后,点击【添加到集群】按钮;
(7) 添加集群成功后,完成增加纯存储节点步骤。
纯计算节点和纯存储节点不能作为双机热备管理的备节点。
该操作方法针对场景:纯计算节点挂载IP为回环地址(127.0.0.1)的共享文件系统。
扩容纯计算节点后,如果业务共享存储使用的是IP为环回地址(127.0.0.1)的共享文件系统,需要通过以下步骤挂载该文件系统:
(1) 进入纯计算节点的主机管理页面,打开【存储】页签;
(2) 点击【增加】按钮增加存储池;
(3) 增加存储池对话框选择类型【共享文件系统】,选择待挂载的文件系统;
(4) 如果该文件系统的IP为回环地址(127.0.0.1),则会提示“存储无法访问,是否以其他IP地址访问该存储?”,选择【确定】
(5) 点击【下一步】后,在IP地址栏输入提前创建好的iscsi高可用IP,或者存储节点的存储外网IP即可完成挂载。
多集群是指在已完成UIS超融合架构集群的基础上,支持继续创建集群,实现在同一个管理平台对多个UIS集群进行统一管理。
· 开始创建集群后,管理平台将跳转到集群创建引导界面,此过程间,无法执行其他操作。
· 如果新集群的主机与管理节点不在同一个二层网络(跨网关)此时通过默认的主机发现方式“二层广播扫描”无法发现主机,只能选择 “三层网络扫描”发现主机,因此需要先给新集群的主机配置管理网,具体操作方式请参考4.1配置管理IP地址。
· 如果主机管理网需要配置链路聚合,也请在HDM控制台上完成配置。
· 子集群不支持部署2节点集群。
· 创建集群配置存储时,需要为新存储集群配置管理网段的Leader IP,会占用1个管理网IP,需要规划预留。
· 创建的计算集群如果需要使用超融合集群的存储资源,存储外网规划需要和超融合集群的同网段,并保证网络连通性。
(1) 依次单击导航栏【主机】-【主机集群管理】-【创建集群】;
(2) 点击开始创建。创建集群流程与初始化集群流程类似,主要分如下几个步骤:
a. 选择场景。创建集群支持“计算虚拟化”和“超融合架构”两种部署场景。超融合架构场景才会部署分布式存储组件。选择“超融合架构”,创建的集群为“超融合集群”,创建集群时需要配置配置存储。选择“计算虚拟化”,创建的集群为“计算集群”,创建集群时无需配置配置存储。
图12-1 选择集群部署场景
若初始化部署时选择“计算虚拟化”场景,则后续仅支持创建“计算虚拟化”集群。
b. 规划网络。每个集群都有独立的配置参数和网络规划,参数说明请参考4.5 初始化集群网络规划中主要参数说明。
c. 选择主机。选择要加入集群的主机,完成配置,配置参数请参考 4.5 初始化集群中主机参数配置说明。如果需要使用“三层网络扫描”发现主机,在【扫描配置】选择并配置:
图12-2 三层网络扫描
三层网络扫描需要配置扫描目标网段,有两种形式:离散型(如192.168.1.2,192.168.1.3,192.168.1.4)和连续型(如192.168.1.2-192.168.1.10)通过三层网络扫描发现主机前,需要提前完成主机的管理网配置,增加主机将不会变更主机的管理网配置。
d. 配置存储。存储集群管理IP用于管理存储集群的IP地址,需要配置一个未使用的管理网IP。其他参数说明请参考4.5初始化UIS集群-配置存储中的参数说明。
· 与初始化集群不同,创建集群为了支持更为灵活的配置,取消了创建预置数据池和存储池的步骤。
· 如果创建计算虚拟化集群,则需要手动将计算集群的主机加入要使用的存储集群的业务主机和业务主机组。
为了体现集群-主机-虚拟机的层级和从属关系,主机和虚拟机管理均采用了“树形”展示方式。
图12-3 主机“树形”管理
部分功能为了保证操作统一性,在页面顶端设置了集群选择下拉框,选择要操作的目标集群,如【分布式存储管理】、【虚拟交换机】等页面。
图12-4 集群选择
通过【管理】-【参数配置】-【集群参数】可查看和修改集群相关参数。
图12-5 集群参数
如果要销毁一个集群,可以【主机】选择目标集群后,进行“销毁集群”。
· “销毁集群”将会删除整个集群的业务数据和存储资源,属于高危操作,务必谨慎。
· 初始化的集群为管理集群,不允许销毁。
请参考《H3C UIS超融合管理平台 云迁移方案最佳实践》。
H3C UIS超融合平台搭建完成后,必须对平台进行一键健康巡检,确认物理环境和各项配置是否满足要求。
(1) 进入首页,系统健康度为UIS定时自动检测的系统健康状态;支持自定义检测时间间隔;建议4小时
(2) 进入首页,点击右上方的【一键】/【健康巡检】按钮(通过“系统健康度”,也可以直接进入“一键巡检”界面);
(3) 进入健康巡检界面,选择检测项,默认全选,点击开始检测:
(4) 检测结束后(建议重复检查3次),系统给出各检测项的检测结果,并给出处理建议,系统管理员根据处理建议处理各故障或警告检测项。
(5) 100分即为通过,如果非100分,则要按建议进行处理,如果不处理,要给出不修改的理由。
告警管理功能用于统计和查看操作员需要关注的告警信息。目前,UIS统计的告警信息的类型包括主机资源告警、虚拟机资源告警、集群资源告警、故障告警、安全告警、其他异常告警和分布式存储资源告警。
用户可设置对主机或虚拟机的CPU利用率、内存利用等指标项的告警阈值。当指标项的实际值达到告警阈值时,将产生告警并上报。用户可以在实时告警列表中查看上报的告警。通过告警屏蔽配置,用户可以将无需关注的告警屏蔽,使其不再上报。系统还支持将告警以邮件或短信的形式发送给用户。
(1) 实时告警:实时告警页面按照告警产生时间展示了系统最近一段时间内产生的告警。默认情况下,实时告警信息的刷新频率为10秒。注:详细步骤请参考在线帮助。
(2) 告警阈值配置:告警阈值指的是触发告警的最低值,当主机、虚拟机、集群的CPU利用率、内存利用率、磁盘利用率或主机、虚拟机的磁盘吞吐量、网络吞吐量等达到预设值的阈值时,触发相应告警。告警阈值配置提供了查看预定义告警阈值信息、配置告警服务器的IP地址、修改指定告警阈值的配置信息和启用/禁用告警配置等功能。注:详细步骤请参考在线帮助。
(3) 告警屏蔽配置:UIS支持将无需关注的告警加入到告警屏蔽配置列表中。加入屏蔽配置列表中的告警将不再上报,也不显示在实时告警列表中。注:详细步骤请参考在线帮助。
UIS超融合平台支持将告警内容通过电子邮件的方式通知系统管理员。告警邮件通知是指将指定的告警信息以邮件方式发送给用户。
(1) 在导航菜单中依次点击<管理>/<参数配置>。
(2) 在“邮件服务器”选项卡中配置邮件服务器地址,并根据邮件服务器的配置,确定是否需要勾选“服务器要求身份验证”。如果SMTP服务器不允许匿名访问,则必须勾选,否则,可以不勾选。勾选“服务器要求身份验证”之后,必须输入发件人的用户名与密码。所有参数输入完毕之后,点击<邮箱测试>,测试邮箱服务器。
(3) 测试成功后,点击<保存>按钮。
(1) 在导航菜单中依次点击<监控告警>/<告警通知>。
(2) 在“目的邮件地址”中键入告警需要发送的目的邮箱地址,点击<增加>按钮,并根据系统管理员关注的告警级别和告警类型,设置需要发送的告警级别和类型,选择需要重点关注的主机和虚拟机指标项,点击<保存>按钮。
(3) 配置保存后,单击“邮件测试”,检查邮箱收到告警测试邮件即配置成功。
UIS超融合平台支持将告警内容通过短信的方式通知系统管理员。告警短信通知是指将指定的告警信息以短信方式发送给用户,与邮件告警等告警方式相比,短信告警是最及时的告警途径。
(1) 在导航菜单中依次点击<管理>/<参数配置>,在“短信配置”标签页下,选择“启用”短信通知功能,配置短信类型以及相应短信平台的登录名和登录密码,点击<短信测试>按钮,弹框中输入手机号码,单击<确定>。
(2) 测试成功后,点击<保存>按钮。
· 出于网络信息安全的考虑,一般情况下,H3C UIS超融合管理平台都部署在企业网数据中心内部,外部网络通过NAT方式访问虚拟机上承载的业务。
· 倘若企业网内部没有部署短信网关,而是需要借助外部商业短信平台发送短信的话,则需要配置HTTP代理,H3C CAS CVM虚拟化管理平台通过HTTP代理访问短信平台,从而完成短信发送任务。本文档描述的应用场景即为此类型,本文档使用的HTTP代理为CCProxy 8.0软件。
(1) 在导航菜单中依次点击<监控告警>/<告警通知>,在“告警短信通知”标签页下,键入“接收短信电话”为期望接收短信的手机号码,一般为系统管理员经常使用的手机号码,点击<
>按钮。设置需要发送的告警级别和类型,选择需要重点关注的主机和虚拟机指标项,点击<保存>按钮。
(2) 配置保存后,单击“短信测试”,检查收到告警测试短信即配置成功。
监控报表管理功能用于统计和展示操作员所关心的主机和虚拟机性能数据,如CPU利用率、内存利用率、磁盘利用率、磁盘读写速率、网络读写流量、网络读写速率、磁盘I/O吞吐量。同时,UIS提供了将报表保存到本地的功能,操作员可以将查询报表结果保存为图片或者PDF文档。
主机性能监控,指的是对H3C UIS超融合管理平台中的主机的资源利用率监控,包括CPU利用率、内存利用率、磁盘I/O吞吐量、磁盘利用率、磁盘分区、网络吞吐量等。
(1) 登录H3C UIS超融合管理平台,点击<主机>,然后单击需要查看的主机名,进入主机 “概要”页面,可以清晰地看到当前物理主机的CPU利用率(百分比)、内存利用率(百分比)和网络吞吐量。
(2) 选择“性能监控”标签页,可以查看CPU利用率、内存利用率、磁盘I/O吞吐量、网络吞吐量、磁盘利用率历史曲线图,以及主机磁盘分区等信息。
虚拟机机性能监控,指的是对H3C UIS超融合管理平台中的虚拟机查看CPU利用率、内存利用率、I/O吞吐量统计、网络吞吐量统计、磁盘I/O延迟、磁盘请求、CPU使用情况、磁盘利用率、连接数和分区占用率信息。
(1) 登录H3C UIS超融合管理平台,点击<虚拟机>,然后单击需要查看的虚拟机名,进入虚拟机概要页面,选择“性能监控”标签,可以清晰地看到当前虚拟机的CPU利用率(百分比)、内存利用率(百分比)、磁盘I/O吞吐量、网络吞吐量、磁盘利用率历史曲线图,以及虚拟机操作系统分区占用率。
(2) 选择“进程服务监控”,可以查看到虚拟机当前所有进程的CPU利用率和内存利用率。
虚拟机性能监控数据的获取需要CAStools的支持。因此,虚拟机操作系统上必须安装随H3C UIS版本发布的CAStools。
存储性能监控,指的是监控H3C UIS超融合管理平台中存储集群的IO吞吐量和IOPS;主机的IO吞吐量、IOPS、磁盘延时和磁盘负载,以及磁盘利用率的详细性息。
(1) 登录H3C UIS超融合管理平台,点击<存储><存储性能监控>,可以清晰地看到当前分布式存储集群的IOPS和IO吞吐量统计信息。
(2) 选择<主机>进入主机性能监控页面,选择需要查看的主机,可以清晰地看到当前主机的IOPS、IO吞吐量、CPU利用率、内存、磁盘容量、磁盘延时和磁盘负载统计信息。
(3) 选择<磁盘>进入磁盘性能监控页面,可以清晰地看到当前分布式存储集群中的磁盘统计信息;页面支持基于主机名称、磁盘状态和磁盘类型过滤展示。
确保主机管理接口与Manager节点的管理口处于同一局域网。
如果配置了静态端口聚合,需要shutdown其中一个端口,待主机扫描完成后再up端口;
如果配置了动态端口聚合,需要配置端口为边缘端口(lacp edge-port)。
需要查看每个cvk中是否有文件残留。查看 /etc/cvk下的cvm_info文件和/root/.ssh下的mhost文件,如果文件存在,需要手动删除。
rm –rf cvm_info
rm –rf mhost
查看/root/.ssh下是否存在isCvmFlag文件,如果文件存在,需要手动删除。
rm –rf isCvmFlag
创建计算集群失败,一般为网络异常,需排查现场网络环境。确保所有主机的管理网、存储外网和存储内网都可达。
在主机后台使用命令ll /dev/disk/by-path/查看磁盘是否存在分区,如果存在需要删除对应分区parted /dev/sdx rm y (x为盘符,y为分区号)。
举例:删除sdd磁盘的第三个分区:parted /dev/sdd rm 3
这种情况可以通过后台重新安装ONEStor的方式进行尝试解决,具体是执行脚本
uis_onestor_handy_install.sh脚本
如果执行该脚本后仍然报错,请联系技术支持人员。
多数情况下是由于重复安装onestor造成,可通过以下步骤尝试解决:
· 摧毁ONEStor
¡ 先做查询onestor-cli probe [handyIp]
¡ 执行onestor-cli destroy
· 重新安装ONEStor
执行uis_onestor_handy_install.sh脚本安装
同3操作
在manager节点后台重启tomcat服务,然后界面重新创建存储集群。
service tomcat8 restart
超融合场景下,如果现场节点都登录过部署界面,则就会自动安装上ONEStor的handy组件,如果现场需要更改节点进行重新部署,则需要对原来的节点进行处理,具体如下:其中方法一为集群正式部署之前,的处理方法。方法二是集群部署完成后,且其他节点有登陆过部署界面的请情况下需要处理的,否则会影响升级操作,一般只需执行第三步即可,因为一二步在集群部署的时候已经执行。
方法一:
步骤1:在除主备节点其他节点的后台后台,执行onestor-cli probe+handy节点管理网IP,再执行onestor-cli destroy对集群进行销毁。
步骤2:在主节点外其他节点,删除/root/.ssh/isCvmFlag该文件
步骤3:重新部署
方法二:
步骤1:在主节点外其他节点,删除/root/.ssh/isCvmFlag该文件
步骤2:部署集群
步骤3:在除主备外的节点,卸载handy组件
卸载数据库:bash /opt/h3c/script/postgresql/uninstall_postgresql.sh
卸载handy :bash /opt/h3c/script/handy/uninstall_handy.sh
部分厂商的加密狗不支持网络USB方式,在使用前需要先进行对接测试。
如果遇到问题,请联系H3C技服人员处理。
(1) Adaptec
[root@cvknode5 ~]# lspci|grep Adaptec
5c:00.0 Serial Attached SCSI controller: Adaptec Smart Storage PQI 12G SAS/PCIe 3 (rev 01)
然后通过arcconf list命令查看能否获取到RAID卡信息,如果不能则需要进一步查询。如下所示 如果用ssacli ctrl all show 可以查询到信息。则说明此RAID卡实际上要用ssacli命令来处理。具体方式查看hpe卡说明。
(2) LSI
[root@cvknode6 ~]# lspci |grep -i "lsi"
18:00.0 RAID bus controller: LSI Logic / Symbios Logic MegaRAID SAS-3 3108 [Invader] (rev 02)
(3) HPE
Lspci | grep "Hewlett-Packard Company Smart Array" 返回结果不为空,
或者如下图所示
针对P408i或者P816i 型号RAID卡,也判断为hpe型号RAID卡。
(1) 查看RAID卡状态
当RAID卡状态不正常时,设置缓存可能失败
(2) 查看磁盘信息
(3) 确认逻辑磁盘状态是否处于ok状态
(4) 查看逻辑盘对应的缓存信息
(5) 如上图所示,可以查询到逻辑磁盘序号与盘符的对应关系以及逻辑缓存的状态。
(6) 磁盘物理缓存配置,物理缓存统一进行设置,要求处于关闭状态。
a. 查看缓存状态
b. 关闭物理缓存
ssacli ctrl slot=2 modify drivewritecache=disable forced
c. 开启物理缓存
ssacli ctrl slot=2 modify drivewritecache=enable forced
(7) 逻辑磁盘缓存配置,查看缓存状态,可以根据2.1.2节的信息进一步确认需要关闭的缓存。
a. 打开逻辑缓存,如上所示,假如需要打开缓存的对应逻辑盘1,执行如下命令
ssacli ctrl slot=2 logicaldrive 1 modify caching=enable
b. 关闭逻辑缓存
ssacli ctrl slot=2 logicaldrive 1 modify caching=disable
adaptec型号的RAID卡,目前已经支持的具体型号分为两类,一类是PMC8060型号,另外一类是P460系列的型号,已知的有P460-B4/P460-M4/P4408/P2404。
识别的方法后台执行脚本,执行arcconf list 查看关键字段信息如下P460-B4:
PMC8060信息如下:
(1) 查看RAID卡状态
(2) 查看磁盘信息,查看逻辑磁盘信息,使用arcconf getconfig 1 ld //1为controller号
a. P460系列
b. PMC8060,PMC无法直接查找到盘符,需要根据unique identifier查询。
查询盘符
(3) 逻辑磁盘缓存配置
a. P460系列
1、查看逻辑缓存状态
arcconf getconfig 1 ld |grep “Caching”
2、打卡逻辑缓存
arcconf setcache 1 logicaldrive 0 con
3、关闭逻辑缓存
arcconf setcache 1 logicaldrive 0 coff
b. PMC8060
1、查看逻辑缓存状态
arcconf getconfig 1 ld |grep “Write-cache status”
2、打卡逻辑缓存
arcconf setcache 1 logicaldrive 0 wbb
3、关闭逻辑缓存
arcconf setcache 1 logicaldrive 0 wt
(4) 物理磁盘缓存配置
a. P460系列
1、查看物理缓存状态
针对P460系列的磁盘,则采用如下字段。Default和disable都是表示关闭缓存。
2、关闭物理缓存
arcconf setcache 1 drivewritecachepolicy configured 2
//0:默认值 1:打开 2:关闭 configured:已经配置的磁盘 unconfigured:未配置的磁盘
3、打开物理缓存
arcconf setcache 1 drivewritecachepolicy configured 1
b. PMC8060
1、查看物理缓存状态
arcconf getconfig 1 pd | grep "Write Cache"
2、关闭物理缓存
arcconf setcache 1 deviceall disable noprompt
3、打开物理缓存
arcconf setcache 1 deviceall enable noprompt
(1) 查看RAID卡状态
a. 获取control号,如下为control号为0:
b. 获取RAID卡状态信息,optimal 表示状态正常
(2) 查看磁盘信息
a. 查看逻辑磁盘的信息
b. [root@cvknode6 ~]# /opt/MegaRAID/storcli/storcli64 /c0 /vall show all
c. 更加scsi NAA id 查看逻辑磁盘对应的盘符。
d. /lib/udev/scsi_id –g –u /dev/sdd 遍历所有盘符,得到 与scsi NAA id相等的盘符即是该逻辑盘对应的盘符。
(3) 逻辑磁盘缓存配置
a. 查看逻辑磁盘信息
b. 打开逻辑磁盘缓存,/c0 中的0表示control号(2.3.1节获取的方法获取),/v0的0 表示逻辑磁盘序号。Writeback表示打开缓存,writethrough表示关闭缓存。
/opt/MegaRAID/storcli/storcli64 /c0 /v0 set wrcache=wb
c. 关闭逻辑磁盘缓存
/opt/MegaRAID/storcli/storcli64 /c0 /v0 set wrcache=wt
(4) 物理磁盘缓存配置
a. 查看物理磁盘缓存信息
/opt/MegaRAID/storcli/storcli64 /c0/eall/sall show all | grep "Write cache"
b. 关闭物理缓存
/opt/MegaRAID/storcli/storcli64 /c0/vall set pdcache=off
c. 打开物理缓存
/opt/MegaRAID/storcli/storcli64 /c0/vall set pdcache=on
如果交换机启动了生成树协议(默认),则需要将所有连接服务器的交换机端口配置为边缘端口。即在端口视图执行stp edged-port。
说明:缺省端口为非边缘端口
stp edged-port命令用来配置端口为边缘端口。
undo stp edged-port命令用来恢复缺省情况。
【视图】
二层以太网接口视图
二层聚合接口视图
二层RPR逻辑接口视图
【缺省用户角色】
network-admin
mdc-admin
【使用指导】
当端口直接与用户终端相连,而没有连接到其它设备或共享网段上,则该端口被认为是边缘端口。网络拓扑变化时,边缘端口不会产生临时环路。因此,如果将某个端口配置为边缘端口,则该端口可以快速迁移到转发状态。对于直接与用户终端相连的端口,为能使其快速迁移到转发状态,请将其设置为边缘端口。
由于边缘端口不与其它设备相连,所以不会收到其它设备发过来的BPDU报文。在端口没有开启BPDU保护功能时,如果端口收到BPDU报文,即使用户设置该端口为边缘端口,该端口的实际运行状态也是非边缘端口。
在同一个端口上,不允许同时配置边缘端口和环路保护功能。
二层以太网接口视图下的配置只对当前端口生效;二层聚合接口视图下的配置只对当前接口生效;聚合成员端口上的配置,只有当成员端口退出聚合组后才能生效。
【举例】
# 配置端口GigabitEthernet1/0/1为边缘端口。
<Sysname> system-view
[Sysname] interface gigabitethernet 1/0/1
[Sysname-GigabitEthernet1/0/1] stp edged-port
lacp edge-port命令用来配置聚合接口为聚合边缘接口。
undo lacp edge-port命令用来恢复缺省情况。
【命令】
lacp edge-port
undo lacp edge-port
【缺省情况】
聚合接口不是聚合边缘接口。
【视图】
二层聚合接口视图
三层聚合接口视图
S通道聚合接口视图
【缺省用户角色】
network-admin
mdc-admin
【使用指导】
该命令主要用于在网络设备与服务器等终端设备相连的场景中。当网络设备配置了动态聚合模式,而终端设备未配置动态聚合模式时,网络设备的聚合成员端口都可以作为普通物理口转发报文,从而保证终端设备与网络设备间的多条链路可以相互备份,增加可靠性。
该配置仅在聚合接口对应的聚合组为动态聚合组时生效。
当聚合接口配置为聚合边缘接口后,聚合流量重定向功能将不能正常使用。
【举例】
# 配置二层聚合接口1为聚合边缘接口。
<Sysname> System-view
[Sysname] interface bridge-aggregation 1
[Sysname-Bridge-Aggregation1] lacp edge-port
