01-正文
本章节下载: 01-正文 (4.11 MB)
目 录
本安装部署指导适用于以下两款产品:
· H3C UIS超融合管理平台 标准版(UIS Manager)
· H3C UIS超融合管理平台 边缘版(UIS Edge)
当用户面临以下场景时,可参考本手册的内容:
· UIS超融合一体机重装UIS超融合系统
· 非超融合一体机的硬件服务器安装/重装UIS超融合系统(该服务器需要在《H3C UIS服务器虚拟化产品软硬件兼容性列表》中)
· UIS Manager/UIS Edge管理平台的初始化部署
重装系统属于高危操作,重装系统可能会影响集群内其他主机业务,重装系统前,请将主机节点从集群删除,再重装系统。
如果用户需要部署UIS云平台、UIS-Sec、UIS-APM等组件,请参考表1-1中列出的手册:
表1-1 UIS组件部署指导参考手册
UIS组件名称 |
部署场景 |
参考手册 |
UIS CloudOS组件 |
· 在UIS标准版中部署UIS云平台 · 在UIS边缘版中部署UIS云平台 |
《UIS云平台用户指南》 |
UIS-Sec组件 |
· 在UIS标准版中部署UIS-Sec · 在UIS云平台中部署UIS-Sec |
《UIS-Sec安全服务用户指南》 |
UIS-APM组件 |
在UIS标准版中部署UIS-APM |
《UIS-APM应用服务用户指南》 |
UIS-Edge组件 |
在UIS边缘版中部署UIS-Edge组件 |
《UIS Edge用户指南》 |
H3C UIS超融合管理平台提供两种部署场景:计算虚拟化和超融合架构。
· 计算虚拟化:仅部署虚拟化内核平台,不部署分布式存储,适用于使用外部IP SAN或FC SAN存储的场景。部署计算虚拟化至少需要一台服务器。部署完成后,所有服务器形成一个UIS计算虚拟化集群。
· 超融合架构:同时部署虚拟化内核平台和分布式存储的超融合架构,适用于计算存储网络虚拟化超融合的场景。部署超融合架构至少需要两台服务器。部署完成后,所有服务器形成一个UIS超融合集群。
· UIS标准版(UIS Manager)支持“计算虚拟化”和“超融合架构”两种部署场景。
· UIS边缘版(UIS Edge)当前仅支持选择“超融合架构”场景进行部署。
在计算虚拟化场景中,硬件配置要求如表3-1所示。
指标项 |
规格 |
数量 |
≥1台 |
CPU |
主频≥2GHz |
内存 |
≥32GB |
系统硬盘 |
2 * 300GB及以上HDD |
网卡 |
≥1 * 4端口千兆以太网卡 |
· X86架构的服务器CPU必须支持Intel-VT(Intel Virtualization Technology,虚拟化技术),使用这种技术就可以单CPU模拟多CPU并行,可以实现单机同时运行多操作系统。
· ARM架构的服务器CPU需要支持ARM VHE虚拟化扩展技术。
· 服务器的具体配置要求需满足:物理资源大于运行在其上的所有虚拟机资源的总和。
搭建计算虚拟化场景时,服务器有两种角色,包括管理节点和业务节点。
· 管理节点:提供管理、运维整个超融合系统的Web用户页面。初始化部署前用户需指定一台服务器作为管理节点并为该服务器配置管理IP地址。
· 业务节点:提供计算业务的节点。
一台服务器可以同时承担管理节点和业务节点两种角色。
计算虚拟化场景提供两种管理节点部署方案,包括管理节点融合部署和管理节点分离部署。
· 管理节点融合部署:管理节点同时作为业务节点。
· 管理节点分离部署:管理节点不作为业务节点。
服务器数量为N时,推荐采用如表3-2所示的部署方案:
服务器数量 |
推荐部署方案 |
1≤N<16 |
管理节点融合部署 |
16≤N≤32 |
管理节点分离部署 |
在计算虚拟化场景中,UIS计算虚拟化集群存在三个网络平面:管理网络、存储网络(IP/FC SAN)和业务网络。
表3-3 计算虚拟化集群的网络定义
逻辑网络 |
描述 |
要求 |
管理网络 |
用户可以通过管理网络访问UIS集群,对UIS业务节点进行管理和维护。 |
千兆或万兆网络 |
存储网络 |
IP/FC SAN,虚拟机及其应用的IO业务通过存储网络与外部IP/FC存储设备进行通信。 |
万兆网络/FC网络 |
业务网络 |
UIS集群内虚拟机对外提供业务的网络。 |
千兆或万兆网络 |
管理节点融合部署方案的逻辑网络拓扑示意图如图3-1所示:
管理节点分离部署方案的逻辑网络拓扑示意图如图3-2所示:
在管理节点分离部署方案中,管理节点无需规划业务网络。
· 以上部署拓扑为建议拓扑,请根据实际生产环境网络拓扑及服务器数量进行调整。
· 管理网和业务网建议分离部署,承载在不同的物理网口上。
· 计算虚拟化场景中需提前规划管理网IP地址,该IP地址需要是管理PC可访问的IP地址。
服务器配置不同网卡且使用IP SAN存储时,各逻辑网络使用网络端口的推荐配置如表3-4所示:
序号 |
服务器网卡配置举例 |
逻辑网络端口配置举例 |
方案1 |
· 1*4端口千兆以太网卡 · 1*2端口万兆以太网卡 |
· 管理网络:2个千兆端口,端口聚合 · 业务网络:2个千兆端口,端口聚合 · IP SAN存储网络:2个万兆端口,端口聚合 |
方案2 |
2*2端口万兆以太网卡 |
· 管理网络、业务网络:复用2个万兆端口,端口聚合 · IP SAN存储网络:2个万兆端口,端口聚合 |
服务器配置不同网卡且使用FC SAN存储时,各逻辑网络使用网络端口的推荐配置如表3-5所示:
序号 |
服务器网卡配置举例 |
逻辑网络端口配置举例 |
方案1 |
· 1*4端口千兆以太网卡 · 1*2端口FC HBA卡 |
· 管理网络:2个千兆端口,端口聚合 · 业务网络:2个千兆端口,端口聚合 · FC SAN存储网络:2个FC端口,端口聚合 |
方案2 |
· 2端口万兆以太网卡 · 1*2端口FC HBA卡 |
· 管理网络、业务网络:复用2个万兆以太网端口,端口聚合 · FC SAN存储网络:2个FC端口,端口聚合 |
各逻辑网络使用网段规划示例如表3-6所示。
逻辑网络 |
IP地址 |
网关 |
VLAN ID |
iLO管理网络 |
192.168.1.0/24 |
192.168.1.154 |
10 |
管理网络 |
172.20.1.0/24 |
172.20.100.254 |
11 |
IP SAN存储网络 |
10.10.11.0/24 |
10.10.11.254 |
12 |
业务网络 |
192.170.1.0/24 |
192.170.1.254 |
13 |
各服务器的IP地址规划示例如表3-7所示。
表3-7 IP地址规划示例
节点类型 |
iLO网卡(VLAN10) |
管理网卡(VLAN11) |
IP SAN存储网卡(VLAN12) |
业务网卡(VLAN13) |
管理节点 |
192.168.1.1 |
172.20.1.1 |
10.10.11.1 |
· 管理节点融合部署:可以不配置 · 管理节点分离部署:不涉及 |
业务节点#1 |
192.168.1.2 |
172.20.1.2 |
10.10.11.2 |
可以不配置 |
业务节点#2 |
192.168.1.3 |
172.20.1.3 |
10.10.11.3 |
可以不配置 |
业务节点#3 |
192.168.1.4 |
172.20.1.4 |
10.10.11.4 |
可以不配置 |
在计算虚拟化的使用场景中,服务器需要连接外置的IP SAN或FC SAN存储设备为虚拟机提供存储服务。
· 连接外置IP SAN存储时,服务器作为iSCSI Initiator与存储卷的Target完成连接。服务器完成初始化部署后,系统会自动生成一个iqn标识符(支持修改),需要使用主机的iqn标识符与Target建立连接。
· 连接外置FC SAN存储时,服务器需要配置FC HBA卡。
IP SAN或FC SAN上创建的存储卷在主机上有多种挂载方式,建议使用共享文件系统的方式挂载存储卷,为上层虚拟化业务提供共享存储的服务。
一个iSCSI/FC共享文件系统最大可以被一个集群下的32台主机同时使用。
一个iSCSI/FC共享文件系统最大支持32TB的存储卷,建议使用10TB~32TB的存储卷作为共享文件系统。
UIS集群中所有服务器的系统时间必须保持一致。通过设置NTP时间服务器,使集群中的所有服务器的系统时间与指定的NTP时间服务器同步。
初始化部署时,默认管理节点为NTP时间服务器,加入集群的业务节点会自动同步管理节点的时钟。
若客户的环境中存在独立的NTP时间服务器,可在初始化部署完成后,登录管理平台进行配置。要求规划的管理网络与NTP时间服务器所在的网段互通。具体配置步骤请参见配置NTP时间服务器。
步骤 |
三节点及以上方案 |
服务器配置要求 |
|
服务器角色规划 |
|
组网方案规划 |
|
分布式存储规划 |
|
服务器硬件规划 |
|
服务器安装UIS超融合系统 |
|
初始化部署 |
在超融合架构场景中,硬件配置要求如表3-8所示。
指标项 |
规格 |
数量 |
≥3台 |
CPU |
主频≥2GHz |
内存 |
≥128GB |
系统硬盘 |
2 * 300GB及以上HDD |
分布式存储硬盘 |
硬盘数量≥2 |
网卡 |
≥1*4端口千兆以太网卡+1*2端口万兆网卡 |
RAID 卡 |
必配,RAID卡Cache推荐配置≥2G |
· X86架构的服务器CPU必须支持Intel-VT(Intel Virtualization Technology,虚拟化技术),使用这种技术就可以单CPU模拟多CPU并行,可以实现单机同时运行多操作系统。
· ARM架构的服务器CPU需要支持ARM VHE虚拟化扩展技术。
· 服务器的具体配置要求需满足:物理资源大于运行在其上的所有虚拟机资源的总和。
搭建超融合架构场景时,服务器有两种角色,包括管理节点和业务节点。
· 管理节点:提供管理、运维整个超融合系统的Web用户页面。初始化部署前用户需指定一台服务器作为管理节点并为该服务器配置管理IP地址。
· 业务节点:提供计算、存储业务的节点。
一台服务器可以同时承担管理节点和业务节点两种角色。
在分布式存储中,业务节点又分为存储节点和监控节点。
· 存储节点:提供数据存储服务。超融合场景下至少部署两个存储节点。
· 监控节点:维护整个存储系统的全局状态,持有整个存储系统的元数据信息。监控节点数量最小为3,最大为7,且必须为奇数。一台服务器可以同时作为存储节点和监控节点。
当存储节点数量为N时,推荐监控节点的数量如下:
· 2≤N≤4时,推荐设置3个监控节点。
· 5≤N≤10,推荐设置5个监控节点。
· N≥11时,推荐设置7个监控节点。
超融合架构场景提供两种管理节点部署方案,包括管理节点融合部署和管理节点分离部署。
· 管理节点融合部署:管理节点同时作为业务节点。
· 管理节点分离部署:管理节点不作为业务节点。
服务器数量为N时,推荐采用如表3-9所示的部署方案:
服务器数量 |
推荐部署方案 |
2≤N<16 |
管理节点融合部署 |
16≤N≤32 |
管理节点分离部署 |
在超融合架构场景中,UIS超融合集群存在四个网络平面:管理网络、业务网络、存储外网和存储内网。
逻辑网络 |
描述 |
要求 |
管理网络 |
用户可以通过管理网络访问UIS集群,对UIS业务节点进行管理和维护。 |
千兆或万兆网络 |
业务网络 |
UIS超融合集群对外提供业务的网络。 |
千兆或万兆网络 |
存储外网 |
虚拟机及其应用的IO业务通过存储外网与UIS分布式存储集群进行通信。 |
万兆网络 |
存储内网 |
UIS分布式存储集群内部的节点通过存储内网相互通信,用于数据平衡、恢复等,并不对外提供服务。 |
万兆网络 |
当采用三台及以上服务器部署UIS超融合架构时,无需设置外部监控节点。
图3-3 三节点及以上-管理节点融合部署方案逻辑网络拓扑
图3-4 三节点及以上-管理节点分离部署方案逻辑网络拓扑
· 分离部署场景,管理节点必须规划管理网和存储外网,业务网和存储内网不涉及。
· 以上部署拓扑为建议拓扑,请根据实际生产环境网络拓扑及服务器数量进行调整。
· 管理网络、存储外网、存储内网建议分离部署,承载在不同的物理网口上。
· 当物理主机网络端口数量不充分时,UIS超融合管理平台支持同一个物理端口或聚合端口的网络复用。
服务器配置不同网卡时,各逻辑网络使用网络端口的推荐配置如表3-10所示:
序号 |
服务器网卡配置举例 |
逻辑网络端口配置举例 |
方案1 |
· 1*4端口千兆以太网卡 · 2*2端口万兆以太网卡 |
· 管理网络:2个千兆端口,端口聚合 · 业务网络:2个千兆端口,端口聚合 · 存储外网:2个万兆端口,端口聚合 · 存储内网:2个万兆端口,端口聚合 |
方案2 |
· 1*4端口千兆以太网卡 · 1*2端口万兆以太网卡 |
· 管理网络:2个千兆端口,端口聚合 · 业务网络:2个千兆端口,端口聚合 · 存储外网、存储内网:复用2个万兆端口,端口聚合 |
方案3 |
2*2端口万兆以太网卡 |
· 管理网络、业务网络:复用2个千兆端口,端口聚合 · 存储外网、存储内网:复用2个万兆端口,端口聚合 |
表3-11 逻辑网络网段规划示例
逻辑网络 |
IP地址 |
网关 |
VLAN |
iLO管理网络 |
172.88.211.0/16 |
172.20.0.254 |
9 |
管理网络 |
172.88.111.0/16 |
172.88.0.254 |
10 |
业务网络 |
192.168.1.0/24 |
192.168.1.254 |
11 |
存储外网 |
10.10.9.0/24 |
10.10.9.254 |
12 |
存储内网 |
10.10.10.0/24 |
10.10.10.254 |
13 |
表3-12 IP地址规划示例
节点类型 |
iLO网卡 (VLAN9) |
管理网卡(VLAN10) |
存储外网网卡(VLAN12) |
存储内网网卡(VLAN13) |
业务网卡(VLAN11) |
管理节点 |
172.88.211.83 |
172.88.111.83 |
10.10.9.1 |
· 管理节点融合部署:10.10.10.1 · 管理节点分离部署:不涉及 |
· 管理节点融合部署:可以不配置 · 管理节点分离部署:不涉及 |
业务节点#1 |
172.88.211.84 |
172.88.111.84 |
10.10.9.2 |
10.10.10.2 |
可以不配置 |
业务节点#2 |
172.88.211.85 |
172.88.111.85 |
10.10.9.3 |
10.10.10.3 |
可以不配置 |
业务节点#3 |
172.88.211.86 |
172.88.111.86 |
10.10.9.4 |
10.10.10.4 |
可以不配置 |
业务节点#4 |
172.88.211.87 |
172.88.111.87 |
10.10.9.5 |
10.10.10.5 |
可以不配置 |
初始化部署时,会设置起始IP(分配给管理节点),系统默认加入集群的各业务节点IP在设置的起始IP基础上依次加1(也支持自定义,但不允许比起始IP小);请提前规划和预留好IP地址,以应对集群扩容需求。
分布式存储支持四种部署方式,包括闪存加速、全SSD、全HDD和快慢池。初始化部署完成后,系统会自动创建一个(选择快慢池则创建两个)硬盘池,所选数据盘都会加入此硬盘池。
· 闪存加速:数据盘使用HDD盘,缓存加速盘使用SSD盘。闪存加速为较常用方式。配置闪存加速时,若服务器配置的是SATA SSD,则要求每台服务器的SSD硬盘个数:HDD硬盘个数≥1:5;若服务器配置的是NVMe SSD,则要求每台服务器的SSD硬盘个数:HDD硬盘个数≥1:10。
· 全SSD:数据盘使用SSD盘,无缓存加速盘,提供高性能的存储服务。
· 全HDD:数据盘使用HDD盘,无缓存加速盘,提供普通存储服务。
· 快慢池:使用此部署方式系统会自动创建两个硬盘池,数据盘使用SSD和HDD盘,SSD盘被划分到快池,HDD盘被划分到慢池,快池用来提供高性能服务,慢池用来提供普通存储服务。
四种部署方式要求单台服务器硬盘最低配置请参见3.2.9 1. 单台服务器硬盘数量最低要求。
副本是将原始数据复制多份,每一份称为一个副本。副本是分别存放在不同存储节点的不同磁盘上。当磁盘出现故障时,只要其余健康磁盘中任一个磁盘拥有副本,用户就可以获取该数据。副本个数越多,安全性越高,但存储数据所需空间也成倍增长。
系统存储节点数量与可设置的副本关系如表3-13所示:
存储节点数量 |
可设置的副本数 |
2 |
2 |
3 |
2,3 |
4 |
2,3,4 |
5 |
2,3,4,5 |
≥6 |
2,3,4,5 |
重要业务推荐使用3副本。
搭建UIS超融合时,需要规划机架的数量以及不同服务器所处的机架位置。
· 建议按照服务器的实际物理摆放规划和创建机架,尽量不要一个机架上只有一个存储节点。
· 单个机架上存储节点数量不能超过10个。
故障域是分布式存储中数据分布的最小单元。存储数据时,一份数据的不同副本或分片会被分布存储在不同的故障域内,根据冗余策略的配置,允许一定数量的故障域故障而不丢失数据,从而提高数据存储的可靠性。故障域类型有“机架”和“主机”两种:
· “机架”故障域:集群内每个机架为一个故障域,一份数据的不同副本或分片分布存储在不同的机架中。推荐集群规模较大、机架较多的情况下选择此类型。
· “主机”故障域:集群内每台主机为一个故障域,一份数据的不同副本或分片分布存储在不同的主机中(可在同一个机架中)。
超融合架构场景中,建议各服务器的CPU型号保持一致,不同角色的服务器所需的CPU资源如表3-14所示。
节点类型 |
CPU规划 |
管理节点 |
至少分配4GHz的CPU资源(CPU资源是指所有核的GHz频率总和,CPU频率计算公式:CPU主频*CPU个数*每个CPU核数)。 |
存储节点 |
至少要为一块数据盘(加入分布式存储集群的数据盘)分配1GHz的CPU计算能力。 例如:若一个存储节点中存在10块硬盘用作数据盘,则需要为该节点预留10*1GHz的CPU资源。 |
监控节点 |
建议分配2GHz的CPU资源。 |
假如某服务器同时作为管理节点、存储节点和监控节点,其中有10块HDD盘作为数据盘,此时需要为该节点分配大于16GHz的CPU资源。
计算方式如下:
¡ 管理节点CPU分配:4GHz
¡ 存储节点CPU分配:10*1GHz=10GHz
¡ 监控节点CPU分配:2GHz
总CPU规划:4GHz+10GHz+2GHz+其他服务的CPU资源消耗>16GHz。
规划时,还需考虑其他非存储服务(如虚拟机)对CPU资源的消耗。
超融合架构场景中,不同角色的服务器所需的内存资源如表3-15所示。
节点类型 |
内存规划 |
管理节点 |
作为超融合管理节点的主机至少配置32GB及以上的内存空间,其中分布式存储组件管理需占用至少8GB内存。 |
存储节点 |
1. 至少为一块数据盘(加入分布式存储集群的数据盘)分配1GB内存; 例如:一个存储节点有10块硬盘用作数据盘,则需为该节点分配10*1GB的内存。 1. 至少为1TB存储容量分配1GB内存; 例如:一个存储节点上有10个4TB大小的数据盘,共有40TB的容量用于存储服务,则需要为该节点分配40*1GB的内存。 2. 分布式存储需要额外内存用作数据缓冲,其大小为上述数据盘所需内存和存储容量所需内存占用内存总和的0.5倍。 |
监控节点 |
至少为一个监控节点分配1GB内存。 |
例如:某服务器同时作为管理节点、存储节点和监控节点,其中有10块4TB大小的HDD盘作为数据盘,此时需要为该节点分配大于93GB的内存空间。
计算方式如下:
¡ 管理节点内存分配:32GB
¡ 数据盘内存分配:10*1GB=10GB
¡ 存储容量内存分配:10*4*1GB=40GB
¡ 额外内存分配:(10+40)*0.5=25GB
¡ 监控节点内存分配:1GB
总内存规划:32GB+10GB+40GB+25GB+1GB+其他服务对内存资源的消耗>108GB。
· 规划时,还需考虑其他非存储服务(如虚拟机)对内存资源的消耗。
· 单台服务器最少配置128GB内存,如果按照以上规则计算后得出的结果少于128GB,则按照128GB配置。
表3-16 三节点及以上环境单台服务器硬盘最低要求
分布式存储部署方式 |
系统盘 |
缓存盘 |
数据盘 |
硬盘总数 |
闪存加速 |
2块HDD |
至少1块SSD |
至少2块HDD |
至少5块 |
全SSD |
2块HDD |
不涉及 |
至少2块SSD |
至少4块 |
全HDD |
2块HDD |
不涉及 |
至少2块HDD |
至少4块 |
快慢池 |
2块HDD |
不涉及 |
至少2块硬盘(HDD、SSD类型不要求) |
至少4块 |
· 每台服务器推荐分配2块硬盘以RAID 1形式安装UIS超融合系统。
· 系统盘至少配置转速为10K及以上的SAS硬盘,有条件可以使用SSD硬盘,如低于这个配置,在较大数据业务压力下,会导致系统盘繁忙。
· 系统盘不允许配置成LVM方式。
· 存储空间分配:
¡ 若服务器作为管理节点,则系统盘除操作系统应用外,至少还需预留50GB剩余容量空间。
¡ 若服务器作为存储节点或监控节点,则系统盘除操作系统应用外,至少还需预留20GB剩余容量空间。
¡ 如果一个服务器同时作为管理节点、存储节点、监控节点,则系统盘除操作系统应用外,至少需预留90GB(50GB+20GB+20GB)剩余容量空间。
· 存储节点必配,除系统盘外,每台服务器至少分配2块硬盘作为数据盘。
· 为保证最佳性能,建议集群内使用相同接口类型(SAS/SATA)、相同转速、相同容量的硬盘,转速在10K以上。
· 加入同一硬盘池的数据盘,其容量、转速必须一致。
· 支持盘符为sd/df/nvme开头的硬盘作为数据盘。
· 原则上各服务器的数据盘个数要保持一致。如果不满足,则各服务器的数据盘数量差异不得超过20%((硬盘数最大-最小)÷最大数)。
· 单块数据盘做RAID 0。
· 禁止使用读密集型的SSD作为数据盘,如英特尔S3500系列。
· 必须关闭所有服务器的硬盘缓存。
若分布式存储采用闪存加速部署方式时,支持使用SSD硬盘做缓存加速盘,起到读写加速的效果。
(1) SSD硬盘个数规划
¡ 若服务器配置的是SATA SSD作为缓存加速盘,则要求每台服务器的SSD硬盘个数:HDD硬盘个数≥1:5。
¡ 若服务器配置的是NVMe SSD作为缓存加速盘,则要求每台服务器的SSD硬盘个数:HDD硬盘个数≥1:10。
例如:某台服务器上,SSD硬盘的个数只有1个,而HDD硬盘的个数有25个。此时,禁止开启缓存加速,否则可能降低系统性能。
(2) SSD硬盘容量规划
¡ 一个SSD缓存分区分配给一个HDD硬盘使用。
¡ 在SSD缓存空间足够的情况下,使用SSD实际总容量/HDD磁盘个数,即为每个缓存分区空间大小。例如,某存储节点有10块HDD数据盘,2块SSD缓存盘,单块SSD缓存盘实际空间为460GB,在不考虑后续扩容HDD磁盘的情况下,可以配置缓存分区大小为460GB*2/10≈90GB。
¡ 配置SSD硬盘容量时,请注意保证:缓存分区容量*数据盘数<SSD硬盘容量。例如:存储节点1中有2块容量为600GB的SSD,8块HDD作为数据盘。现在将2块SSD都用作缓存盘,假定配置缓存容量大小为100GB,则总共占用100GB*8=800GB容量;而实际的SSD容量为600*2=1200GB,满足要求。
一般情况下,硬盘的实际容量比标明容量要稍小。这里为了方便理解采用硬盘的标明容量计算。实际使用时,请按硬盘实际容量来计算,比如一款SSD盘的标明容量为200GB,实际容量可能仅为186GB。
¡ 在SSD缓存空间足够的情况下,建议尽可能的增大缓存分区的大小。
· 单块SSD盘做RAID 0。UIS超融合一体机出厂时SSD盘已默认配置了RAID 0,非UIS一体机需要手动做RAID 0。
· 禁止使用读密集型的SSD作为缓存盘,如:英特尔的S3500系列。
· 不支持在线修改缓存配置,建议提前规划部署,如果后续可能扩容HDD,则需要提前预留相应的SSD容量。
· 必须关闭所有节点硬盘缓存。UIS超融合一体机出厂默认已关闭硬盘缓存,无须修改。非UIS一体机需要手动修改。
· RAID卡配置为最佳性能模式。
· 必须使用Cache功能正常的RAID卡,不允许使用不带RAID缓存的HBA卡或者无RAID卡缓存电池的RAID卡。
· RAID卡必须保证电池工作正常,当Cache的电池/电容不在位或者未完全充电时,建议通过RAID卡配置工具,禁用Cache功能。
· 系统盘推荐配置为RAID 1;数据盘配置为RAID 0。
安装前请查看最新版本的《H3C UIS服务器虚拟化产品软硬件兼容性列表》,确认服务器的RAID卡型号在兼容性列表中,否则可能存在不兼容问题。
缓存的配置要求,如表3-17所示。
类型 |
SSD系统盘 |
HDD系统盘 |
SSD加速盘 |
HDD数据盘 |
SSD数据盘 |
硬盘缓存 |
关闭 |
关闭 |
关闭 |
关闭 |
关闭 |
RAID卡读缓存 |
关闭 |
打开 |
关闭 |
打开 |
关闭 |
RAID卡写缓存 |
关闭 |
打开 |
关闭 |
打开 |
关闭 |
UIS超融合一体机出厂默认已关闭硬盘缓存,无须修改。
超融合架构场景下,NTP时间服务器的设置同计算虚拟化场景,具体请参见3.1.6 NTP规划。
为服务器安装系统之前,需先为其外接显示器、键盘、鼠标等外设。
UIS超融合系统ISO安装文件有两个版本:自动安装版本和手动安装版本,如表4-1所示:
表4-1 ISO文件举例
类别 |
自动安装版本 |
手动安装版本 |
UIS标准版(UIS Manager) |
H3C_UIS-E0712-AUTO.iso |
H3C_UIS-E0712.iso |
UIS边缘版(UIS Edge) |
H3C_UIS-E1002-AUTO.iso |
H3C_UIS-E1002.iso |
· UIS标准版的版本号为E07XX。
· UIS边缘版的版本号为E10XX。
· 自动安装版本(AUTO版本)
¡ 自动选择系统盘,并按照软件要求进行自动分区并设置对应分区的大小。
¡ 选择系统盘的原则:按照盘符顺序,选择第一个符合规则的盘符做系统盘,软件会自动过滤NVMe盘,U盘,FC盘等磁盘,不会选择这些磁盘作为系统盘。
· 手动安装版本(非AUTO版本)
¡ 当用户需要指定某硬盘作为系统盘,需要使用手动安装版本进行安装;如选择NVMe硬盘作为系统盘。
¡ 用户需要自定义系统盘分区大小,需要使用手动安装版本进行安装。系统盘分区大小需要满足如表4-2所示的基本门限值。
分区名称 |
作用 |
分区最小值 (单位MB) |
建议分区最大值 (单位MB) |
/boot/efi |
引导分区,用于存放系统的引导文件。 |
512 |
512 |
/ |
根目录分区,用于存放系统的所有目录,用户可以通过此分区来访问所有目录。 |
102400 |
204800 |
/var/log |
日志分区,用于存放系统操作的日志文件。 |
20480 |
51200 |
swap |
交换分区,当系统内存不足时,用于存放临时数据,等待一段时间后,系统会将这些临时数据调入内存中执行。该分区只能由系统访问。 |
4096 |
空间足够的情况下,设置为32GB |
/vms |
虚拟机数据分区,用于存放虚拟机的所有数据文件。 |
1024 |
无限制 |
推荐使用AUTO自动安装版本进行安装,用户在安装时无需进行其他设置,启动安装后,等待安装完成即可。
UIS超融合系统的安装支持U盘安装和服务器的虚拟光驱安装两种方式,推荐使用U盘安装,本节以U盘安装为例介绍手动安装版本的安装步骤。
· 若采用虚拟光驱方式进行安装,请使用JAVA KVM方式打开服务器的远程控制台进行安装,确保在安装过程中网络稳定不中断。
· 若选择NVMe硬盘作为系统盘,安装前需手工为硬盘配置RAID(推荐两块NVMe硬盘配置RAID 1),并使用非AUTO版本安装。注意服务器必须配置NVMe VROC模块,才能给NVMe硬盘配置RAID 1。
· 同一套环境必须使用同一个ISO文件安装。
· 如果需要搭建双机热备,搭建双机的两台服务器,系统盘分区要求相同且符合规则,因此建议使用AUTO版本进行安装。
· 若是第三方服务器或者服务器所使用的RAID卡不在兼容性列表中,需要用户先手动配置RAID,然后使用镜像安装。
服务器通常都提供多个USB端口,可以将ISO文件制作为U盘启动盘,使用U盘启动盘为服务器安装系统。
关于BIOS设置的具体方法请参见服务器的使用手册。
· 启动服务器,进入BIOS页面。
· 在BIOS页面中开启CPU硬件辅助虚拟化功能。
· 修改完成后,保存BIOS设置,退出并重启服务器。
超融合一体机无需手动做RAID(部署过程中会自动完成);非超融合一体机安装之前需要手动做RAID,并保证关闭物理硬盘缓存,对于已经安装过系统并配置过RAID的服务器,在安装UIS超融合系统之前,请先删除服务器的所有RAID配置并格式化磁盘数据。
(1) 将制作好的U盘启动盘插入服务器的USB端口。
(2) 启动服务器,选择U盘启动,进入UIS超融合系统的安装页面。
当服务器存在NVMe磁盘时,服务器的启动模式不能设置为Legacy,只能设置为UEFI。
(1) 自动进入系统安装页面,如图4-1所示。
此处只需要选择安装软件的系统盘,其他选项无需设置。
(2) 单击INSTALLATION DESTINATION进入选择系统盘页面,如图4-2所示。
(3) 在Local Standard Disks区域去勾选不需要安装系统的磁盘,只保留一个磁盘,如图4-3所示。
安装UIS超融合系统时,系统盘支持自动分区和手动分区两种分区方式。如果对分区大小没有特殊要求,推荐使用自动分区。
(1) 在如图4-3所示的选择系统盘页面中,在Partitioning区域选择Automatically configure partitioning,如图4-4所示。
图4-4 选择系统盘-自动分区
(2) 单击Done按钮完成自动分区,返回系统安装页面,如图4-5所示。
(1) 进入选择系统盘页面后,选择I will configure partitioning,如图4-6所示。
图4-6 选择系统盘-手动分区
(2) 单击Done按钮进入手动分区页面,如图4-7所示。
图4-7 手动分区页面
(3) 单击按钮,弹出增加挂载点对话框,如图4-8所示。
(4) 在Mount Point下拉框中选择对应分区,在Desired Capacity输入框中输入分区大小,单击Add mount point按钮完成分区的添加。按照此方法依次添加/,/boot/efi,swap,/vms,/var/log分区。关于各分区介绍和规格要求请参见表4-2。
分区完成后,如图4-9所示。
(5) 在如图4-9所示的页面中单击Done按钮,弹出确认对话框,如图4-10所示。
(6) 单击Accept Changes按钮,返回到系统安装页面,如图4-11所示。
“NETWORK & HOST NAME”以及其他选项无需设置。
软件安装完成后,服务器会自动重启,并进入参数配置页面,如图4-12所示。
若管理网络中已部署DHCP服务器,则服务器会自动获取管理IP地址;若未部署DHCP服务器,则在图4-12所示页面中各项网络参数均为空。
当服务器完成UIS超融合系统的安装后,用户需要指定一台服务器作为管理节点,并为管理节点配置管理IP地址。
· 当管理网络中部署了DHCP服务器时,服务器会自动获取管理IP地址,用户在参数配置页面(如图4-12所示)查看相应信息即可。
· 当管理网络中未部署DHCP服务器时,用户需要手工为服务器配置管理IP地址。
(1) 登录服务器后台,进入参数配置页面,如下图所示。
(2) 通过<↑><↓>键选择<Network and Management Interface>选项,单击<Enter>键进入Configure Management Interface页面。
图5-2 Configure Management Interface页面
(3) 选择<Configure Management Interface>选项,单击<Enter>键,弹出Login对话框,输入root账户密码。
图5-3 Login对话框
root账户密码如下:
· UIS标准版(UIS Manager):UIS-E0715之前版本密码默认为root,UIS-E0715及之后版本密码默认为Sys@1234。
· UIS边缘版(UIS Edge):密码默认为root。
(4) 单击<Enter>键,进入选择管理网网卡页面,根据规划选择目标物理接口作为管理网口。注意,所选物理接口的状态必须是connected。
图5-4 选择管理网网卡页面
管理网配置链路聚合时,请在此处选择两个物理eth接口。
(5) 单击<Enter>键,进入设置静态IP页面,配置管理网IP地址、子网掩码、网关、主机名和VLAN ID等信息,单击<Enter>键完成配置。
图5-5 设置静态IP页面
(1) 打开客户端的浏览器,在地址栏中输入http://<管理节点的管理IP地址>:8080,进入UIS超融合管理平台登录页面,如图5-6所示。
图5-6 UIS超融合管理平台登录页面
(2) 在登录页面中输入admin用户名和密码,单击<登录>按钮,进入UIS初始化部署引导流程的选择场景页面。
admin账户密码如下:
· UIS标准版(UIS Manager):UIS-E0715之前版本密码默认为admin,UIS-E0715及之后版本密码默认为Cloud@1234。
· UIS边缘版(UIS Edge):密码默认为admin。
初始化部署前请确认部署的场景是计算虚拟化还是超融合架构。只有超融合架构场景才会部署分布式存储组件。
目前UIS边缘版(UIS Edge)初始化部署时,暂不支持选择“计算虚拟化”场景。
(1) 登录UIS超融合管理平台,进入UIS初始化部署引导流程的选择场景页面。
图5-7 UIS初始化部署引导流程-选择场景
(2) 选择计算虚拟化,进入规划网络页面,设置相关参数。
图5-8 UIS初始化部署引导流程-规划网络
主要参数说明:
参数名称 |
参数说明 |
主机名前缀 |
设置主机名前缀。UIS最大支持255个字符的主机名,允许字母、数字和“-”,不能包含下划线、不能以数字开头。主机名前缀请提前规划好,主机名在初始化过程中自动配置,初始化完成后,不允许修改主机名。 |
主机名起始序号 |
加入集群的主机,其名称由主机名前缀和主机名序号构成。起始序号分配给管理节点,后续加入集群的主机,其名称序号在主机名起始序号基础上依次加1。例如主机名前缀为cvknode,起始序号为1,则管理节点的名称为cvknode1,后续加入集群的各主机的名称依次为cvknode2、cvknode3、cvknode4等。 |
管理平台IP |
缺省显示当前管理节点IP,可根据实际情况进行修改。 |
起始IP |
管理网模块缺省显示管理节点配置的管理网段;管理平台IP需在管理网段内;起始IP缺省显示管理网段第一个IP,第一个IP默认被管理网的网关使用,系统默认后续加入集群的各业务主机IP在设置的起始IP基础上依次加1,若同网段有被占用的IP,则跳过被占用的IP; 同时业务主机管理网IP也支持自定义,请提前规划和预留好IP地址,以应对集群扩容需求。 业务网IP无需设置。 |
VLAN ID |
(3) 单击<下一步>按钮,弹出提示对话框。
图5-9 提示对话框
(4) 单击<确定>按钮,进入选择主机页面,根据主机序列号和网卡MAC地址等信息,选择需要加入集群的主机。
下发初始化数据后,UIS管理节点的管理网IP地址会被修改为网络规划中设置的管理网起始IP地址。若规划网络页面中设置的管理网起始IP地址与初始登录UIS超融合管理平台所使用的管理IP地址不一致时,网页会自动刷新并跳转到以新管理网IP为登录地址的登录页面,输入用户名和密码登录后进入到选择主机页面,否则直接进入选择主机页面。
图5-10 UIS初始化部署引导流程-选择主机
主要参数说明:
参数名称 |
参数说明 |
主机名 |
如果有明确的主机名规划,则建议对每台主机的名称进行明确设定,否则主机名称采取自动分配原则。 |
网卡配置模板 |
开启后,加入集群的其他主机会根据此主机的网络配置进行自动设置,实现批量部署。要使用此功能,须保证其他待加入集群的主机与此模板主机有相同名称且处于活动状态的物理接口,且各物理接口速率应满足对应网络的最低配置要求。例如,开启网卡配置模板功能的主机A的配置为管理网eth0,业务网eth1,则其他待加入集群的主机上也必须存在eth0,eth1两个活动状态的物理接口,且eth0、eth1的速率需大于等于1000Mbps。对于不满足条件的主机,需要手工指定各网络使用的物理接口。 |
IP地址 |
业务主机的管理网IP地址若不单独指定,则采取自动分配原则,在设置的起始IP的基础上依次加1。主机的业务网无需配置IP地址。 |
物理接口 |
主机管理网所使用的物理接口必须配置。若管理网物理接口有聚合配置,请在每台主机的Xconsole界面完成主机管理网的链路聚合配置,方法同5.1 配置管理IP地址。 业务网所使用的物理接口选配。若不为业务网配置物理接口,则在初始化完成后,主机上不会自动创建业务网络类型的虚拟交换机,需手工在UIS超融合管理平台中添加。 |
配置主机管理网、业务网使用的物理接口时,若当前配置的主机各网络物理接口的复用关系与其他已配置的主机不一致,则会导致其他已配置主机的配置失效,需重新进行配置(主机各网络使用的物理接口编号无一致要求)。
举例1:对于已配置的主机A,其管理网和业务网分别单独使用eth0和eth1。当配置主机B时,管理网和业务网复用eth0。与主机A相比,主机B的管理网与业务网复用了同一个物理接口,复用关系发生了变化。配置完主机B后,主机A的配置将失效,需重新配置。
举例2:对于已配置的主机A,其管理网eth0,业务网eth1。当配置主机B时,其管理网eth2,业务网eth3。与主机A相比,主机B的管理网与业务网复用关系没有变化,均使用独立的物理接口,此时主机A的配置不会失效,不用重新配置。
(6) 在如图5-11所示的页面中单击图标,弹出选择物理接口对话框,如图5-12所示,依次配置主机管理网和业务网使用的物理接口。
主要参数说明:
参数名称 |
参数说明 |
链路聚合模式 |
物理接口之间的链路聚合方式,包括静态链路聚合和动态链路聚合,推荐使用动态链路聚合。当此参数设置为“动态链路聚合”时,物理交换机侧需要开启LACP(链路汇聚控制协议)。选择多个物理接口时,才允许配置此参数。 |
负载分担模式 |
物理接口之间的负载分担模式,包括高级负载分担、基本负载分担和主备负载分担。选择多个物理接口时,才允许配置此参数。 · 高级负载分担:根据转发报文的以太网类型、IP报文协议、源IP地址、目的IP地址、应用层源端口和目的端口进行负载分担,适用于对负载分担有特殊需求的场景,推荐使用高级负载分担。 · 基本负载分担:根据转发报文的源MAC地址和VLAN Tag进行负载分担。 · 主备负载分担:根据物理接口主备进行负载分担。主接口出现故障时,自动使用备接口进行网络流量的处理。当链路聚合模式为“静态链路聚合”时,此参数才可选。 |
主机的链路聚合和负载分担模式不同,对应交换机侧的聚合如下表所示:
主机侧链路聚合模式 |
主机侧负载分担模式 |
交换机侧的链路聚合模式 |
静态链路聚合 |
主备负载分担 |
不配置聚合 |
静态链路聚合 |
基本负载分担 |
静态聚合 |
静态链路聚合 |
高级负载分担 |
静态聚合 |
动态链路聚合 |
基本负载分担 |
动态聚合 |
动态链路聚合 |
高级负载分担 |
动态聚合 |
若各逻辑网络配置了VLAN隔离,则与对应物理交换机端口需配置为Trunk模式,并允许相应的VLAN通过。
初始化时,如果交换机已经完成了聚合模式的配置,此时所有主机并未配置聚合,在集群初始化时可能出现无法发现主机的问题,对于三种聚合模式的请参考如下处理方式:
· 物理交换机未配置聚合,主机端计划配置为“静态链路聚合”,且负载分担模式为“主备负载分担”方式,此场景不存在无法发现主机的问题
· 物理交换机配置了“静态链路聚合”,且负载分担模式为“基本负载分担”或“高级负载分担”,集群初始化时存在无法发现主机的可能。此时需要将主机非vswitch0绑定的管理网物理接口连接的交换机侧端口shutdown,然后再次扫描主机。例如:主机管理网eth0、eth1配置静态聚合,eth0绑定虚拟交换机vswitch0,此时需要将eth1连接的交换机侧端口shutdown,然后再次扫描主机。建议在每台主机的Xconsole界面完成主机管理网的链路聚合配置,方法同5.1 配置管理IP地址。
· 物理交换机配置了“动态链路聚合”,出现无法发现主机的情况时,需要将主机管理网物理接口连接的交换机侧端口配置为聚合边缘接口,然后再次扫描主机。解决交换机配置聚合,主机未配置聚合时管理口可能无法收到报文的问题。
(7) 在如图5-10所示选择主机页面单击<完成>按钮,弹出提示对话框。
图5-13 提示对话框
(8) 单击<确定>按钮,弹出设置密码对话框。统一设置所有主机root用户的密码。
图5-14 设置密码对话框
密码最小长度为8,至少由字母、数字或特殊字符中的两种符号组合而成。
(9) 密码设置完成后,单击<确定>按钮,弹出配置主机对话框。
图5-15 配置主机对话框
待全部主机配置完成后系统会自动跳转到UIS超融合管理平台首页页面。
当使用IP SAN存储时,需要手动配置存储虚拟交换机。
(1) 初始化完成后,自动进入UIS超融合管理平台首页页面。单击顶部“网络”页签,选择左侧[虚拟交换机]菜单项,进入虚拟交换机概要页面。
图5-16 虚拟交换机概要页面
(2) 单击<增加>按钮,弹出增加虚拟交换机对话框。输入虚拟交换机名称、选择网络类型为存储网络,转发模式为VEB,根据实际规划配置VLAN ID。
图5-17 增加虚拟交换机对话框-基本信息
(3) 单击<下一步>按钮,在配置主机网络页面勾选目标主机,单击图标,弹出配置物理接口对话框,如图5-19所示,选择规划的存储虚拟交换机的物理接口,以及规划的IP地址和子网掩码信息。单击<完成>按钮,返回到配置主机网络页面,依次配置其他目标主机,单击<完成>按钮完成存储虚拟交换机的配置。
图5-18 增加虚拟交换机对话框-配置主机网络
以IP SAN存储为例,介绍在UIS超融合管理平台中增加共享存储的方法。
配置外置存储前,请正确配置服务器和存储设备间的网络连接,确保服务器可以正常访问存储设备。
(1) 选择顶部“主机”页签,选择[主机管理/<主机名>]菜单项,进入主机概要页面。
(2) 选择“硬件配置”页签,选择左侧[存储适配器]菜单项,进入存储适配器页面,查看主机的iqn标识符信息;也可以单击图标修改iqn标识符信息。
图5-20 存储适配器页面
(3) 在iSCSI存储设备的管理端进行相关配置,包括增加主机、划分LUN,配置LUN与主机的映射等。
(4) 存储端完成LUN与主机的映射后,登录UIS超融合管理平台,选择顶部“存储”页签,单击左侧[共享存储]菜单项,进入共享存储列表页面。
图5-21 共享存储列表页面
(5) 单击<增加>按钮,弹出增加共享存储对话框,输入共享存储的名称、显示名称、描述信息,选择iSCSI共享文件系统类型。
图5-22 增加共享存储-基本信息
主要参数说明:
参数名称 |
参数说明 |
类型 |
若存储设备为IP SAN存储,请选择iSCSI共享文件系统;若存储设备为FC SAN存储,请选择FC共享文件系统。 |
目标路径 |
共享文件系统在主机上的挂载点。 |
(6) 单击<下一步>按钮,进入LUN信息页面,输入iSCSI存储设备的IP地址,选择一个LUN,选择是否开启业务存储。
图5-23 增加共享存储-LUN信息
主要参数说明:
参数名称 |
参数说明 |
IP地址 |
IP SAN存储服务器的IP地址。当共享文件系统的类型设置为iSCSI时,需设置此参数。IP SAN存储存在多路径时,此项可输入多个IP地址,用英文分号(;)分隔。 |
LUN |
选择共享文件系统所使用的LUN。当共享文件系统的类型设置为iSCSI时,需设置此参数 |
NAA |
存储服务器上LUN的唯一标识符。当共享文件系统的类型设置为iSCSI时,此参数由所选择的LUN确定。当共享文件系统的类型设置为FC时,此处需要选择一个LUN。 |
业务存储 |
开启时表示系统自动向集群部署虚拟机时,可使用此共享文件系统,建议根据需求选择。 |
(7) 单击<下一步>按钮,进入选择主机页面,勾选需要挂载该共享存储的主机。
图5-24 增加共享存储-选择主机
(8) 单击<完成>按钮,弹出操作确认对话框。
图5-25 操作确认对话框
(9) 单击<确定>按钮,弹出格式化共享文件系统确认对话框。
图5-26 格式化共享文件系统确认对话框
(10) 单击<确定>按钮完成操作。完成共享存储的增加后,在UIS超融合管理平台中可以创建虚拟机。
(1) 登录UIS超融合管理平台,进入UIS初始化部署引导流程的选择场景页面。
图5-27 UIS初始化部署引导流程-选择场景
(2) 选择超融合架构,进入规划网络页面,设置相关参数。
图5-28 UIS初始化部署引导流程-规划网络
主要参数说明:
参数名称 |
参数说明 |
主机名前缀 |
设置主机名前缀。UIS最大支持255个字符的主机名,允许字母、数字和“-”,不能包含下划线、不能以数字开头。主机名前缀请提前规划好,主机名在初始化过程中自动配置,初始化完成后,不允许修改主机名。 |
主机名起始序号 |
加入集群的主机,其名称由主机名前缀和主机名序号构成。起始序号分配给管理节点,后续加入集群的主机,其名称序号在主机名起始序号基础上依次加1。例如主机名前缀为cvknode,起始序号为1,则管理节点的名称为cvknode1,后续加入集群的各主机名称依次为cvknode2、cvknode3、cvknode4等。 |
管理平台IP |
缺省显示当前管理节点IP,可根据实际情况进行修改。 |
起始IP |
根据网络规划分别配置管理网、存储内外网的起始IP地址: · 管理网模块缺省显示管理节点配置的管理网段;管理平台IP需在管理网段内;起始IP缺省显示管理网段第一个IP,第一个IP默认被管理网的网关使用,系统默认后续加入集群的各业务主机IP在设置的起始IP基础上依次加1,若同网段中有被占用的IP,则跳过被占用的IP。 · 同时业务主机管理网、存储内外网IP支持自定义,请提前规划和预留好IP地址,以应对集群扩容需求。 · 存储内外网IP地址为内部访问使用,如无特殊要求,保留默认即可。 · 业务网IP无需设置。 |
VLAN ID |
若管理网需要配置VLAN ID,请在每台主机的Xconsole界面完成配置,方法同5.1 配置管理IP地址。 存储内外网的VLAN ID可以在此处直接配置。 |
(3) 网络设置完成后,单击<下一步>按钮弹出提示对话框。
图5-29 提示对话框
(4) 单击<确定>按钮,进入选择主机页面,根据主机序列号和网卡MAC地址等信息,选择需要加入集群的主机。
下发初始化数据后,UIS管理节点的管理网IP地址会被修改为规划网络中设置的管理网起始IP地址。若规划网络页面中设置的管理网起始IP地址与初始登录UIS超融合管理平台所使用的管理IP地址不一致时,网页会自动刷新并跳转到以新管理网IP为登录地址的登录页面,输入用户名和密码登录后进入到选择主机页面,否则直接进入选择主机页面。
图5-30 UIS初始化部署引导流程-选择主机
· 图5-30为管理节点融合部署方案,如果采用管理节点分离部署方案,请将管理主机只作为管理节点来使用,不勾选“业务节点”。
· 主机加入集群的顺序根据勾选主机的顺序而定。
主要参数说明:
参数名称 |
参数说明 |
主机名 |
如果有明确的主机名规划,则建议对每台主机的名称进行明确设定,否则主机名称采取自动分配原则。 |
网卡配置模板 |
开启后,加入集群的其他主机会根据此主机的网络配置进行自动设置,实现批量部署。要使用此功能,须保证其他待加入集群的主机与此模板主机有相同名称且处于活动状态的物理接口,且各物理接口速率应满足对应网络的最低配置要求。例如,开启网卡配置模板功能的主机A的配置为管理网eth0,业务网eth1,存储内外网复用eth2、eth3,则其他待加入集群的主机上也必须存在eth0,eth1,eth2,eth3四个活动状态的物理接口,且eth0、eth1的速率需大于等于1000Mbps,eth2、eth3的速率需大于等于10000Mbps。对于不满足条件的主机,需要手工指定各网络使用的物理接口。 |
IP地址 |
主机各网络的IP地址若不单独指定,则采取自动分配原则,在各网络设置的起始IP的基础上依次加1。主机的业务网无需配置IP地址。 |
物理接口 |
主机管理网、存储内网、存储外网所使用的物理接口必须配置。业务网所使用的物理接口选配。若不为业务网配置物理接口,则在初始化完成后,主机上不会自动创建业务网络类型的虚拟交换机,需手工在UIS超融合管理平台中添加。 |
配置主机管理网、业务网、存储内网和存储外网使用的物理接口时,若当前配置的主机各网络物理接口的复用关系与其他已配置的主机不一致,则会导致其他已配置主机的配置失效,需重新进行配置(主机各网络使用的物理接口编号无一致要求)。
举例1:对于已配置的主机A,其管理网和业务网分别单独使用eth0和eth1,存储内网和存储外网复用eth2、eth3。当配置主机B时,管理网和业务网复用eth0,存储内外网复用eth1、eth2。与主机A相比,主机B的存储内外网仍复用两个物理接口,但管理网与业务网复用了同一个物理接口,复用关系发生了变化。配置完主机B后,主机A的配置将失效,需重新配置。
举例2:对于已配置的主机A,其管理网和业务网分别单独使用eth0和eth1,存储内网和存储外网复用eth2、eth3。配置主机B时,管理网和业务网分别单独使用eth1和eth0,存储内外网复用eth3、eth4。虽然主机B各网络使用的物理接口编号与主机A不一致,但复用关系没有发生变化,主机A的配置不会失效。
(6) 在如图5-31所示页面中单击图标,弹出选择物理接口对话框,如图5-32所示,依次配置主机管理网、业务网、存储内网和存储外网使用的物理接口。
主要参数说明:
参数名称 |
参数说明 |
链路聚合模式 |
物理接口之间的链路聚合方式,包括静态链路聚合和动态链路聚合,推荐使用动态链路聚合。当此参数设置为“动态链路聚合”时,物理交换机侧需要开启LACP(链路汇聚控制协议)。选择多个物理接口时,才允许配置此参数。 |
负载分担模式 |
物理接口之间的负载分担模式,包括高级负载分担、基本负载分担和主备负载分担。选择多个物理接口时,才允许配置此参数。 · 高级负载分担:根据转发报文的以太网类型、IP报文协议、源IP地址、目的IP地址、应用层源端口和目的端口进行负载分担,适用于对负载分担有特殊需求的场景,推荐使用高级负载分担。 · 基本负载分担:根据转发报文的源MAC地址和VLAN Tag进行负载分担。主备负载分担:根据物理接口主备进行负载分担。主接口出现故障时,自动使用备接口进行网络流量的处理。当链路聚合模式为“静态链路聚合”时,此参数才可选。 |
主机的链路聚合和负载分担模式不同,对应交换机侧的聚合配置如下表所示:
主机侧链路聚合模式 |
主机侧负载分担模式 |
交换机侧的链路聚合模式 |
静态链路聚合 |
主备负载分担 |
不配置聚合 |
静态链路聚合 |
基本负载分担 |
静态聚合 |
静态链路聚合 |
高级负载分担 |
静态聚合 |
动态链路聚合 |
基本负载分担 |
动态聚合 |
动态链路聚合 |
高级负载分担 |
动态聚合 |
若各逻辑网络配置了VLAN隔离,则对应物理交换机端口需配置为Trunk模式,并允许相应的VLAN通过。
初始化时,如果交换机已经完成了聚合模式的配置,此时所有主机并未配置聚合,在集群初始化时可能出现无法发现主机的问题,对于三种聚合模式的请参考如下处理方式:
· 物理交换机未配置聚合,主机端计划配置为“静态链路聚合”,且负载分担模式为“主备负载分担”方式,此场景不存在无法发现主机的问题。
· 物理交换机配置了“静态链路聚合”,且负载分担模式为“基本负载分担”或“高级负载分担”,集群初始化时存在无法发现主机的可能,此时需要将主机非vswitch0绑定的管理网物理接口连接的交换机侧端口shutdown,然后再次扫描主机。例如:主机管理网eth0、eth1配置静态聚合,eth0绑定虚拟交换机vswitch0,此时需要将eth1连接的交换机侧端口shutdown,然后再次扫描主机。建议在每台主机的Xconsole界面完成主机管理网的链路聚合配置,方法同5.1 配置管理IP地址。
· 物理交换机配置了“动态链路聚合”,出现无法发现主机的情况时,需要将主机管理网物理接口连接的交换机侧端口配置为聚合边缘接口,然后再次扫描主机。解决交换机配置聚合,主机未配置聚合时管理口可能无法收到报文的问题。
(7) 当所有目标主机都配置完成后,在选择主机页面单击<设置密码>按钮,弹出设置密码对话框。统一设置所有主机root用户的密码,单击<确定>按钮完成密码设置。
图5-33 设置密码对话框
密码最小长度为8,至少由字母、数字或特殊字符中的两种符号组合而成。
(8) 在如图5-30所示选择主机页面单击<下一步>按钮,弹出主机配置确认对话框。查看已配置主机的主机名、管理网IP和存储内外网IP是否符合预先规划。
图5-34 主机配置确认对话框
(9) 单击<确定>按钮,弹出配置主机对话框。
图5-35 配置主机对话框
初始化配置中,如果主机加入集群失败,其主机名和网络设置会回退到默认值,此时需要重启主机,检查网络配置,再进行添加主机。
(10) 待所有主机配置完成后自动进入配置存储页面。选择存储服务类型,支持块存储、文件存储、对象存储,并配置相应的参数。
图5-36 配置存储-块存储
表5-1 服务类型选择“块存储”
参数名称 |
参数说明 |
部署方式 |
块存储支持四种部署方式,包括闪存加速、全SSD、全HDD和快慢池。初始化完成后,系统会自动在存储中创建硬盘池,硬盘池是基于所有数据盘创建的一组硬盘集合。 · 闪存加速:系统会自动创建1个硬盘池,数据盘使用HDD盘,缓存加速盘使用SSD盘。闪存加速为较常用方式。 · 全SSD:系统会自动创建1个硬盘池,数据盘使用SSD盘,无缓存加速盘,提供高性能的存储服务。 · 全HDD:系统会自动创建1个硬盘池,数据盘使用HDD盘,无缓存加速盘,提供普通存储服务。 · 快慢池:系统会自动创建2个硬盘池,数据盘使用SSD和HDD盘,SSD盘被划分到快池,HDD盘被划分到慢池,快池用来提供高性能服务,慢池用来提供普通存储服务。 |
配置方式 |
系统自动创建的硬盘池的配置方式。该参数决定了在硬盘池中创建的块设备占用存储空间的分配方式以及容量是否能够超配。 · 厚配置:在此类型硬盘池中,创建块设备时就为该块设备分配最大容量的存储空间,块设备的容量不允许超配。 · 精简配置:此类型硬盘池中,块设备占用存储空间的容量是按需分配的,块设备的容量允许超配。 |
副本个数 |
初始化完成后,系统会自动创建一个块设备,块设备使用的冗余策略为此处设置的副本个数。块设备的容量是硬盘池的有效总容量的40%与16T的最小值。例如,副本个数设置为2,硬盘池的总容量为20T,则有效总容量为10T,10T*40%=4T<16T,则块设备的容量为4T。 |
缓存大小 |
只有当部署方式为闪存加速时才会出现此选项。使用闪存加速作为部署方式时会使用HDD盘作为数据盘,SSD盘作为缓存盘。系统会根据数据盘的个数对SSD盘进行分区,一个数据盘对应一个缓存分区。 缓存大小最小50GB,最大200GB,缓存分区值越大,性能越好。配置缓存分区大小时,请保证:缓存分区大小*HDD数据盘数量 < SSD缓存盘总容量。缓存分区大小配置后不能修改,如果后续可能扩容HDD数据盘,请提前预留相应的SSD缓存盘容量。具体请参见3.2.9 4. SSD加速盘(可选)。 |
缓存保护级别 |
只有当部署方式为闪存加速时才会出现此选项。缓存保护级别分一般和高级两种。 · 一般:硬盘池内的存储节点以RAID 0方式将缓存及元数据存储至缓存盘。 · 高级:硬盘池内的存储节点以RAID 1方式将缓存及元数据存储至缓存盘。目前仅部分型号(如R4900 G3)的物理主机支持高级级别,详细支持情况请参考相应规格文档中的说明。 |
故障域 |
故障域是集群数据分布的最小单元。集群存储数据时,一份数据的不同副本或分片会被分布存储在不同的故障域内,根据冗余策略的配置,允许一定数量的故障域故障而不丢失数据,从而提高集群数据存储的可靠性。 · “机架”故障域:集群内每个机架为一个故障域,一份数据的不同副本或分片分布存储在不同的机架中。推荐集群规模较大、机架较多的情况下选择此类型。 · “主机”故障域:集群内每台主机为一个故障域,一份数据的不同副本或分片分布存储在不同的主机中(可在同一个机架中)。缺省情况下,故障域类型为“主机”。 |
b. 服务类型选择“文件存储”。
图5-37 配置存储-文件存储
表5-2 服务类型选择“文件存储”
参数名称 |
参数说明 |
元数据分离 |
选择是否对元数据分离: · 是:数据与元数据分别存放在两个硬盘池中,适用于对性能要求高的场景。初始化完成后,系统会自动在存储中创建“文件存储-数据池”和“文件存储-元数据池”两个硬盘池。 · 否:数据与元数据存在在一个硬盘池中,适用于存储资源较紧张的场景。初始化完成后,系统会自动在存储中创建一个“文件存储”硬盘池。 |
故障域 |
故障域是集群数据分布的最小单元。集群存储数据时,一份数据的不同副本或分片会被分布存储在不同的故障域内,根据冗余策略的配置,允许一定数量的故障域故障而不丢失数据,从而提高集群数据存储的可靠性。 · “机架”故障域:集群内每个机架为一个故障域,一份数据的不同副本或分片分布存储在不同的机架中。推荐集群规模较大、机架较多的情况下选择此类型。 · “主机”故障域:集群内每台主机为一个故障域,一份数据的不同副本或分片分布存储在不同的主机中(可在同一个机架中)。缺省情况下,故障域类型为“主机”。 |
缓存方式 |
系统自动创建的硬盘池的缓存方式,包括“无”和“缓存”两种方式。“缓存”方式表示在该硬盘池下支持创建数据盘和缓存盘,缓存盘作为文件存储数据池的缓存池,可实现读写加速。 |
数据盘类型 |
用于存储数据的硬盘的类型,只有符合所选类型的硬盘才可以添加至系统自动创建的硬盘池中。 |
c. 服务类型选择“对象存储”。
图5-38 配置存储-对象存储
表5-3 服务类型选择“对象存储”
参数名称 |
参数说明 |
元数据分离 |
选择是否对元数据分离: · 是:数据与元数据分别存放在两个硬盘池中,适用于对性能要求高的场景。初始化完成后,系统会自动在存储中创建“对象存储-数据池”和“对象存储-元数据池”两个硬盘池。 · 否:数据与元数据存在在一个硬盘池中,适用于存储资源较紧张的场景。初始化完成后,系统会自动在存储中创建一个“对象存储”硬盘池。 |
故障域 |
故障域是集群数据分布的最小单元。集群存储数据时,一份数据的不同副本或分片会被分布存储在不同的故障域内,根据冗余策略的配置,允许一定数量的故障域故障而不丢失数据,从而提高集群数据存储的可靠性。 · “机架”故障域:集群内每个机架为一个故障域,一份数据的不同副本或分片分布存储在不同的机架中。推荐集群规模较大、机架较多的情况下选择此类型。 · “主机”故障域:集群内每台主机为一个故障域,一份数据的不同副本或分片分布存储在不同的主机中(可在同一个机架中)。缺省情况下,故障域类型为“主机”。 |
部署方式 |
系统自动创建的硬盘池的部署方式,包括闪存加速、全SSD和全HDD。 · 闪存加速:系统会自动创建1个硬盘池,数据盘使用HDD盘,缓存加速盘使用SSD盘。闪存加速为较常用方式。 · 全SSD:系统会自动创建1个硬盘池,数据盘使用SSD盘,无缓存加速盘,提供高性能的存储服务。 · 全HDD:系统会自动创建1个硬盘池,数据盘使用HDD盘,无缓存加速盘,提供普通存储服务。 |
缓存大小 |
只有当部署方式为闪存加速时才会出现此选项。使用闪存加速作为部署方式时会使用HDD盘作为数据盘,SSD盘作为缓存盘。系统会根据数据盘的个数对SSD盘进行分区,一个数据盘对应一个缓存分区。 缓存大小最小50GB,最大200GB,缓存分区值越大,性能越好。配置缓存分区大小时,请保证:缓存分区大小*HDD数据盘数量 < SSD缓存盘总容量。缓存分区大小配置后不能修改,如果后续可能扩容HDD数据盘,请提前预留相应的SSD缓存盘容量。具体请参见3.2.9 4. SSD加速盘(可选)。 |
缓存保护级别 |
缓存保护级别分一般和高级两种。只有当部署方式为闪存加速时才会出现此选项。 · 一般:硬盘池内的存储节点以RAID 0方式将缓存及元数据存储至缓存盘。 · 高级:硬盘池内的存储节点以RAID 1方式将缓存及元数据存储至缓存盘。目前仅部分型号(如R4900 G3)的物理主机支持高级级别,详细支持情况请参考相应规格文档中的说明。 |
(11) 扫描磁盘分区。UIS只支持将无分区的磁盘分配为缓存盘或数据盘,当磁盘已存在磁盘分区时,可根据需要对已有磁盘分区的磁盘进行清理。
单击<扫描磁盘分区>按钮,在弹出的对话框中可以查看集群中所有主机上已存在磁盘分区的磁盘,此时可根据需要勾选相应的主机及磁盘,单击<清除磁盘分区>按钮,即可清除所选磁盘的磁盘分区。
(12) 配置主机机架:单击主机列表中的机架下拉选项框,选择“配置机架”菜单项,弹出配置机架对话框,如图5-39所示。单击<增加机架>按钮,弹出增加机架对话框,如图5-40所示,配置机架名称和机架个数。单击<确定>按钮,返回配置机架对话框,选择已增加的机架,单击<确定>按钮完成选择。
· 增加主机到集群中时需要选择机架,集群最多允许创建32个机架,创建机架时,机架名称不能与硬盘池名称或主机名称相同。
· 建议根据需要部署的物理服务器所摆放机架的实际情况创建机架。比如有六台物理服务器,摆放在两个机架上,则根据实际的机架名称创建2个机架。
(13) 单击主机操作列图标,弹出修改主机对话框,修改主机用途、主机加入存储集群的数据盘或缓存盘。
图5-41 修改主机对话框
三节点及以上环境,单台主机所选数据盘数量不能少于2块。
(14) 在配置存储页面中单击<完成>按钮,弹出风险提示对话框。
图5-42 风险提示对话框
(15) 单击<确定>按钮,弹出操作确认对话框。
图5-43 操作确认对话框
(16) 单击<确定>按钮进入自动安装和配置分布式存储页面,分布式存储集群初始化完成后系统会自动跳转到UIS超融合管理平台首页页面。
图5-44 自动安装和配置分布式存储页面
图5-45 UIS标准版(UIS Manager)首页页面
图5-46 UIS边缘版(UIS Edge)首页页面
访问UIS超融合管理平台有两种方式:HTTP和HTTPS。
· HTTP访问方式
直接运行Web浏览器(如Google Chrome、Mozilla Firefox等),在地址栏中输入http://192.168.100.200:8080(访问的IP地址应与配置的UIS管理节点的管理IP相同)。
· HTTPS访问方式
直接运行Web浏览器(如Google Chrome、Mozilla Firefox等),在地址栏中输入https://192.168.100.200:8443(访问的IP地址应与配置的UIS管理节点的管理IP相同)。
(1) 登录UIS超融合管理平台,单击顶部“管理”页签,单击左侧导航树[NTP时间服务器]菜单项,进入NTP时间服务器配置页面。
图7-1 NTP时间服务器
默认管理节点作为NTP时间服务器。
(2) 修改NTP主/备用服务器的域名或IP地址,单击<保存>按钮完成设置。
关于UIS超融合管理平台双机热备配置请参见《H3C UIS超融合产品双机热备配置指导》。
关于UIS超融合管理平台License注册请参见《H3C UIS Manager&Edge本地授权 License使用指南》。
支持大多数主流浏览器,包括Google Chrome 45+、Mozilla Firefox 49+版本的浏览器。
不需要。UIS超融合管理平台完全基于标准的B/S架构,用户无需安装任何客户端,直接使用网络浏览器,在地址栏中输入http://<管理节点的管理IP地址>:8080/UIS,即可访问UIS超融合管理平台。
不同的浏览器存在一定的差异,但这不会对产品功能产生影响,使用过程中可以忽略。
推荐使用U盘安装。
下面以管理网为例介绍配置方法:
· 当管理网配置静态链路聚合,且负载分担模式为主备负载分担时,连接管理网物理接口的交换机侧端口不应配置聚合。
· 当管理网配置静态链路聚合,且负载分担模式为基本负载分担或高级负载分担时,连接管理网物理接口的交换机侧端口应配置为静态聚合。
· 当管理网配置动态链路聚合时,连接管理网物理接口的交换机侧端口应配置为动态聚合。
业务网、存储内网、存储外网的配置方法与管理网类似,不再累述。
不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!