01-正文
本章节下载 (1.98 MB)
目 录
SeerEngine-DC(又称为VCFC-DataCenter)是一款数据中心控制器,它类似一个网络操作系统,为用户提供开发和运行SDN应用的平台。SeerEngine-DC可以控制OpenFlow网络中的各种资源,并为应用提供接口,以实现特定的网络转发需求。
控制器的主要特点如下:
· 支持OpenFlow 1.3,并且提供内置服务和设备驱动程序框架;
· 是一个高可靠和可扩展的分布式平台;
· 提供可扩展的REST API和GUI;
· 支持独立运行模式和集群模式。
为了降低异常断电导致系统故障无法恢复的概率,建议服务器使用的RAID卡必须支持数据掉电保护功能且超级电容必须在位。
推荐将控制器部署在物理服务器上,硬件配置需求如表2-1所示。
CPU |
内存 |
磁盘 |
网卡 |
备注 |
x86-64(Intel64/AMD64)架构,20核、2.2GHz主频及以上 |
128GB及以上 |
需要配置RAID,RAID模式可选RAID1、RAID10。以下配置任选其一: 磁盘配置1: · 系统盘:4*960GB SSD,RAID10或8*480GB SSD,RAID10(RAID配置后的磁盘总容量需大于等于1920GB) · ETCD盘:2*480GB SSD,RAID1(RAID配置后的磁盘总容量需大于等于50GB),安装路径:/var/lib/etcd 磁盘配置2: · 系统盘:4*1200GB HDD,RAID10或8*600GB HDD,RAID10(RAID配置后的磁盘总容量需大于等于1920GB),7.2K RPM以上机械硬盘 · ETCD盘:2*600GB HDD,RAID1(RAID配置后的磁盘总容量需大于等于50GB),7.2K RPM 以上机械硬盘,安装路径:/var/lib/etcd · RAID卡配置:1GB Cache,支持数据掉电保护且超级电容必须在位 |
不部署vBGP: · 普通模式:1*10Gbps及以上带宽 · 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps Linux Bonding 部署vBGP: · 普通模式:2*10Gbps及以上带宽 · 冗余模式(工作模式推荐配置为mode4):4*10Gbps Linux Bonding 如需支持异地灾备功能,需要额外增加一个10Gbps及以上带宽网卡 |
高配 |
x86-64(Intel64/AMD64)架构,16核、2.0GHz主频及以上 |
128GB及以上 |
需要配置RAID,RAID模式可选RAID1、RAID10。以下配置任选其一: 磁盘配置1: · 系统盘:4*960GB SSD,RAID10或8*480GB SSD,RAID10(RAID配置后的磁盘总容量需大于等于1920GB) · ETCD盘:2*480GB SSD,RAID1(RAID配置后的磁盘总容量需大于等于50GB),安装路径:/var/lib/etcd 磁盘配置2: · 系统盘:4*1200GB HDD,RAID10或8*600GB HDD,RAID10(RAID配置后的磁盘总容量需大于等于1920GB),7.2K RPM以上机械硬盘 · ETCD盘:2*600GB HDD,RAID1(RAID配置后的磁盘总容量需大于等于50GB),7.2K RPM 以上机械硬盘,安装路径:/var/lib/etcd · RAID卡配置:1GB Cache,支持数据掉电保护且超级电容必须在位 |
不部署vBGP: · 普通模式:1*10Gbps及以上带宽 · 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps Linux Bonding 部署vBGP: · 普通模式:2*10Gbps及以上带宽 · 冗余模式(工作模式推荐配置为mode4):4*10Gbps Linux Bonding |
标配 |
推荐将控制器部署在物理服务器上,硬件配置需求如表2-2所示。
CPU |
内存 |
磁盘 |
网卡 |
备注 |
ARM(华为鲲鹏)架构 2*Kunpeng 920-48核 2.6GHz |
384GB(12*32GB) |
需要配置RAID,RAID模式可选RAID1、RAID10。以下配置任选其一: 磁盘配置1: · 系统盘:4*960GB SSD,RAID10或8*480GB SSD,RAID10(RAID配置后的磁盘总容量需大于等于1920GB) · ETCD盘:2*480GB SSD,RAID1(RAID配置后的磁盘总容量需大于等于50GB),安装路径:/var/lib/etcd 磁盘配置2: · 系统盘:4*1200GB HDD,RAID10或8*600GB HDD,RAID10(RAID配置后的磁盘总容量需大于等于1920GB),7.2K RPM以上机械硬盘 · ETCD盘:2*600GB HDD,RAID1(RAID配置后的磁盘总容量需大于等于50GB),7.2K RPM 以上机械硬盘,安装路径:/var/lib/etcd · RAID卡配置:1GB Cache,支持数据掉电保护且超级电容必须在位 |
不部署vBGP: · 普通模式:1*10Gbps及以上带宽 · 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps Linux Bonding 部署vBGP: · 普通模式:2*10Gbps及以上带宽 · 冗余模式(工作模式推荐配置为mode4):4*10Gbps Linux Bonding |
高配 |
ARM(华为鲲鹏)架构 2*Kunpeng 920-24核 2.6GHz |
128GB(4*32GB) |
需要配置RAID,RAID模式可选RAID1、RAID10。以下配置任选其一: 磁盘配置1: · 系统盘:4*960GB SSD,RAID10或8*480GB SSD,RAID10(RAID配置后的磁盘总容量需大于等于1920GB) · ETCD盘:2*480GB SSD,RAID1(RAID配置后的磁盘总容量需大于等于50GB),安装路径:/var/lib/etcd 磁盘配置2: · 系统盘:4*1200GB HDD,RAID10或8*600GB HDD,RAID10(RAID配置后的磁盘总容量需大于等于1920GB),7.2K RPM以上机械硬盘 · ETCD盘:2*600GB HDD,RAID1(RAID配置后的磁盘总容量需大于等于50GB),7.2K RPM 以上机械硬盘,安装路径:/var/lib/etcd · RAID卡配置:1GB Cache,支持数据掉电保护且超级电容必须在位 |
不部署vBGP: · 普通模式:1*10Gbps及以上带宽 · 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps Linux Bonding 部署vBGP: · 普通模式:2*10Gbps及以上带宽 · 冗余模式(工作模式推荐配置为mode4):4*10Gbps Linux Bonding |
标配 |
推荐使用一台独立服务器作为异地灾备的第三方站点。第三方站点也可与主/备站点中的节点共用一台服务器,但此方式下,若第三方站点所在服务器出现故障,将无法正常使用自动倒换功能。
第三方站点可部署在物理服务器上,对应配置需求如表2-3所示。
CPU |
内存 |
磁盘 |
网口 |
x86-64(Intel64/AMD64)架构,2核、2.0GHz主频及以上 |
16GB及以上 |
需要配置RAID,RAID模式可选RAID1、RAID5、RAID10。以下配置任选其一: 磁盘配置1: · 系统盘:2*480GB SSD,RAID1(RAID配置后的磁盘总容量需大于等于256GB) · ETCD盘:2*480GB SSD,RAID1(RAID配置后的磁盘总容量需大于等于20GB),安装路径:/var/lib/etcd 磁盘配置2: · 系统盘:2*600GB HDD,RAID1(RAID配置后的磁盘总容量需大于等于256GB),7.2K RPM以上机械硬盘 · ETCD盘:2*600GB HDD,RAID1(RAID配置后的磁盘总容量需大于等于20GB),7.2K RPM以上机械硬盘,安装路径:/var/lib/etcd · RAID卡配置:1GB Cache,支持数据掉电保护且超级电容必须在位 |
1*10Gbps及以上带宽 |
SeerEngine-DC作为组件运行在统一数字底盘上,部署SeerEngine-DC前需要先安装统一数字底盘。
用户不需要安装客户端软件,使用浏览器即可访问统一数字底盘。推荐使用的浏览器为Google Chrome 70及以上版本。
安装环境请参考表2-4中所示的各个检测项目,确保安装统一数字底盘的条件已经具备。
检测项 |
检测标准 |
|
服务器 |
硬件检查 |
请检查硬件是否符合要求(包括CPU、内存、硬盘、网卡等) 请检查是否支持部署统一数字底盘 |
软件检查 |
请检查系统时间已配置完成,建议配置NTP时间同步,整网使用统一的时钟源同步时间 |
|
客户端 |
请确保浏览器版本符合要求 |
SeerEngine-DC的安装流程如表3-1所示。
步骤 |
具体操作 |
说明 |
服务器准备 |
准备至少3台服务器 |
必选 硬件和软件需求,请参见服务器配置需求 |
部署统一数字底盘 |
部署操作系统和Installer平台 |
可选 请参见《H3C统一数字底盘部署指导》 |
配置Installer集群参数 |
||
部署Installer集群 |
||
部署统一数字底盘 |
||
部署SeerEngine-DC组件 |
必选 |
|
必选 |
||
必选 |
||
可选 |
||
必选 |
||
必选 |
请按照“2.1.1 硬件配置需求”中的要求配置磁盘,并使用如表4-1所示的要求进行磁盘分区。
挂载点 |
硬盘容量2400G分区配置 |
硬盘容量1920G分区配置 |
/var/lib/docker |
500 GiB |
450 GiB |
/boot |
1024 MiB |
1024 MiB |
swap |
1024 MiB |
1024 MiB |
/var/lib/ssdata |
550 GiB |
500 GiB |
/ |
1000 GiB |
700 GiB |
/boot/efi |
200 MiB |
200 MiB |
/var/lib/etcd |
48 GiB |
48 GiB |
GFS分区 |
300GiB |
220GiB |
若不使用vBGP组件或者使用vBGP组件E1121及以上版本,无需开启和配置HugePages。
若需要使用vBGP组件E1121之前的版本,需要在操作系统上开启并配置HugePages。如需同时部署SeerAnalyzer,则不允许开启HugePages。开启和关闭HugePages都需要重启服务器才能生效。服务器上默认未开启HugePages。不同操作系统的配置过程如下。
H3Linux操作系统支持两种规格的HugePages,不同规格下hugepages参数配置如表4-2所示。
表4-2 不同HugePages规格下的参数配置
规格 |
hugepages |
1G |
8 |
2M |
5120 |
需要在每个节点服务器上执行脚本配置HugePages(大页),配置完后需重启系统使配置生效。
在使用H3C CAS管理的虚拟机上部署统一数字底盘时,下发HugePages配置前,需要在CAS上开启主机和虚拟机的大页功能并将虚拟机的CPU工作模式配置为直通模式。
配置过程如下:
[root@node1 ~]# cd /etc
[root@node1 etc]# ./hugepage.sh
(2) 脚本执行过程中设置HugePages的内存大小和页数。
The default parameters are set as follows: default_hugepagesz=1G hugepagesz=1G hugepages=8 }
Do you want to reset these parameters? [Y/n] Y
Please enter the value of [ default_hugepagesz ],Optional units: M or G >> 1G
Please enter the value of [ hugepagesz ],Optional units: M or G >> 1G
Please enter the value of [ hugepages ], Unitless >> 8
(3) 配置完成后,根据提示重启服务器,使配置生效。
GRUB_CMDLINE_LINUX="crashkernel=auto rhgb quiet default_hugepagesz=1G hugepagesz=1G hugepages=8 "
Legacy update grub.cfg
Generating grub configuration file ...
Found linux image: /boot/vmlinuz-3.10.0-957.27.2.el7.x86_64
Found initrd image: /boot/initramfs-3.10.0-957.27.2.el7.x86_64.img
Found linux image: /boot/vmlinuz-0-rescue-664108661c92423bb0402df71ce0e6cc
Found initrd image: /boot/initramfs-0-rescue-664108661c92423bb0402df71ce0e6cc.img
done
update grub.cfg success,reboot now...
************************************************
GRUB_TIMEOUT=5
GRUB_DISTRIBUTOR="$(sed 's, release .*$,,g' /etc/system-release)"
GRUB_DEFAULT=saved
GRUB_DISABLE_SUBMENU=true
GRUB_TERMINAL_OUTPUT="console"
GRUB_CMDLINE_LINUX="crashkernel=auto rhgb quiet default_hugepagesz=1G hugepagesz=1G hugepages=8 "
GRUB_DISABLE_RECOVERY="true"
************************************************
Reboot to complete the configuration? [Y/n] Y
(4) 验证HugePages是否配置成功。若配置成功,则将按照实际配置显示配置结果。
[root@node1 ~]# cat /proc/cmdline
BOOT_IMAGE=/vmlinuz-3.10.0-957.27.2.el7.x86_64 root=UUID=6b5a31a2-7e55-437c-a6f9-e3bc711d3683 ro crashkernel=auto rhgb quiet default_hugepagesz=1G hugepagesz=1G hugepages=8
(5) 在每个节点服务器上执行步骤(1)~(4)配置HugePages(大页)。
银河麒麟操作系统支持hugepages规格和参数配置如表4-3所示。
表4-3 不同HugePages规格下的参数配置
规格 |
hugepages |
2M |
5120 |
需要在每个节点服务器上配置HugePages(大页),配置完后需重启系统使配置生效。具体配置步骤如下。
具体的配置步骤如下。
(1) 打开grub文件。
vim /etc/default/grub
(2) 修改GRUB_CMDLINE_LINUX配置中的default_hugepagesz、hugepagesz和hugepages三个参数值,其他参数保持不变。
GRUB_CMDLINE_LINUX="default_hugepagesz=2M hugepagesz=2M hugepages=5120
(3) 更新配置文件
¡ 若系统以UEFI模式启动,请输入下面命令来更新配置文件。
grub2-mkconfig -o /boot/efi/EFI/kylin/grub.cfg
¡ 若系统以Legacy模式启动,请输入下面命令来更新配置文件。
grub2-mkconfig -o /boot/grub2/grub.cfg
(4) 重启服务器使配置生效。
(5) 通过cat /proc/cmdline命令验证HugePages是否配置成功。若配置成功,则将按照实际配置显示配置结果。
default_hugepagesz=2M hugepagesz=2M hugepages=5120
(6) 在每个节点服务器上执行步骤(1)~(5)配置HugePages(大页)。
部署SeerEngine-DC前需要先部署统一数字底盘,然后在统一数字底盘中部署SeerEngine-DC组件。部署统一数字底盘时,请上传如表4-4所示的应用安装包,支持在x86和ARM架构的服务器上部署,请选择对应架构的应用安装包。具体安装步骤请参见《H3C统一数字底盘部署指导》。
common_PLAT_GlusterFS_2.0、general_PLAT_portal_2.0和general_PLAT_kernel_2.0三个必选应用包必须在部署统一数字底盘时完成部署,部署步骤请参考《H3C统一数字底盘部署指导》中的“部署统一数字底盘应用安装包”章节。
general_PLAT_kernel-base_2.0、general_PLAT_Dashboard_2.0和general_PLAT_widget_2.0三个必选应用包上传完成后无需手动部署,在部署SeerEngine-DC组件时可自动部署。
如需使用general_PLAT_network_2.0可选应用包,需在Matrix页面中手动部署,可选择在部署完控制组件后再部署可选包,也可在部署控制组件前部署可选包。需要注意的是,请确保可选应用包的版本与必选应用包的版本相同,否则可能导致部署失败。部署步骤请参考《H3C统一数字底盘部署指导》中的“部署统一数字底盘应用安装包”章节。
表4-4 SeerEngine-DC所需的应用安装包
应用安装包名称 |
功能说明 |
· x86:common_PLAT_GlusterFS_2.0_version.zip · ARM:common_PLAT_GlusterFS_2.0_version_arm.zip |
提供产品内本地共享存储功能 |
· x86:general_PLAT_portal_2.0_version.zip · ARM:general_PLAT_portal_2.0_version_arm.zip |
门户、统一认证、用户管理、服务网关、帮助中心 |
· x86:general_PLAT_kernel_2.0_version.zip · ARM:general_PLAT_kernel_2.0_version_arm.zip |
权限、资源身份、License、配置中心、资源组、日志服务 |
· x86:general_PLAT_kernel-base_2.0_version.zip · ARM:general_PLAT_kernel-base_2.0_version_arm.zip |
告警、访问参数模板、监控模板、报表、邮件短信转发服务 |
· x86:general_PLAT_network_2.0_version.zip · ARM:general_PLAT_network_2.0_version_arm.zip |
(可选)基础网管(网络资源、网络性能、网络拓扑、iCC)。如需使用方案配套版本检查功能,需要安装此应用 |
· x86:general_PLAT_Dashboard_2.0_version.zip · ARM:general_PLAT_Dashboard_2.0_version_arm.zip |
大屏框架 |
· x86:general_PLAT_widget_2.0_version.zip · ARM:general_PLAT_widget_2.0_version_arm.zip |
平台大屏Widget |
· SeerEngine-DC作为组件运行在统一数字底盘上,组件的部署、升级和卸载等操作只能在统一数字底盘上进行。
· 部署SeerEngine-DC组件前请确保所需的应用已部署完成,详情请参见表4-4。
如果服务器使用多个网卡接入网络,部署前需要在服务器上启用网卡。网卡上的配置如下:
(1) 远程登录统一数字底盘所在服务器,在服务器上修改网卡配置文件。此处以修改网卡ens34的网卡配置文件为例。
(2) 打开并编辑网卡文件。
[root@node1 /]# vi /etc/sysconfig/network-scripts/ifcfg-ens34
(3) 将网卡配置文件中的BOOTPROTO和ONBOOT修改为如下图所示。BOOTPROTO配置为none表示不指定网卡的启动协议,ONBOOT配置为yes表示开机自动启用网卡连接。
(4) 使用以下命令ifdown和ifup命令重启网卡。
[root@node1 /]# ifdown ens34
[root@node1 /]# ifup ens34
(5) 使用ifconfig命令查看网络信息。若网卡状态为UP则表示网卡启用成功。
组网中可能包含三种类型的网络:Calico网络、MACVLAN网络和OVS-DPDK网络。
· Calico网络
Calico是一个开源的网络和网络安全解决方案,适用于容器、虚拟机和基于主机的本地工作负载。Calico网络为容器间交互所使用的网络,为内部使用。Calico网络所使用的网段为部署Matrix集群时设置的容器IP地址池,默认为177.177.0.0,安装部署组件时无需再配置地址池给Calico网络使用。Calico网络和MACVLAN网络可复用同一个网口。
· MACVLAN网络
MACVLAN网络用来作为管理网络。MACVLAN虚拟网络技术可以实现一个物理网口绑定多个IP和多个MAC地址的功能。一些应用程序,尤其是遗留应用程序或监控网络流量的应用程序,希望直接连接到物理网络。在这种情况下,可以使用MACVLAN网络驱动程序为每个容器的虚拟网络接口分配一个MAC地址,使其看起来是一个直接连接到物理网络的物理网络接口。物理网口需要能够处理“混杂模式”,即一个物理接口可以分配多个MAC地址。
· OVS-DPDK网络
OVS-DPDK类型的网络用来作为管理网络。Open vSwitch是一种多层虚拟交换机,可通过OpenFlow协议及其OVSDB管理接口支持SDN控制语义。DPDK是一组用户空间库,能够创建优化的高性能数据包来处理应用程序。OVS-DPDK网络架构,集成了DPDK与Open vSwitch,可加速的OVS数据流转发。
不同组件和应用场景使用的管理网络类型不同,部署前需要提前规划网络地址池。
对于vBGP组件,E1121及以上版本需要使用MACVLAN网络,无需再配置HugePages;E1121前版本需要使用OVS-DPDK网络,并需要提前配置HugePages,请参见“4.2 HugePages(大页)配置(可选)”。
表5-1 非异地灾备场景下各组件使用的网络类型和数量
组件名称 |
网络类型 |
网络数量 |
说明 |
||
SeerEngine-DC |
MACVLAN(管理网络) |
1 |
SeerEngine-DC和vDHCP可使用同一个MACVLAN网络作为管理网络 |
||
vDHCP |
MACVLAN(管理网络) |
1 |
|||
vBGP |
E1121及以上版本 |
管理和业务网络合一 |
MACVLAN(管理网络) |
1 |
既用于vBGP和SeerEngine-DC之间的互通,又用于承载业务流量 |
管理和业务网络分离 |
MACVLAN(管理网络) |
1 |
仅用于vBGP和SeerEngine-DC之间的互通 |
||
MACVLAN(业务网络) |
1 |
仅用于承载业务流量 |
|||
E1121之前版本 |
管理和业务网络合一 |
OVS-DPDK(管理网络) |
1 |
既用于vBGP和SeerEngine-DC之间的互通,又用于承载业务流量 |
|
管理和业务网络分离 |
OVS-DPDK(管理网络) |
1 |
仅用于vBGP和SeerEngine-DC之间的互通 |
||
OVS-DPDK(业务网络) |
1 |
仅用于承载业务流量 |
图5-1 非异地灾备下的云数据中心场景(部署vBGP且管理和业务网络合一)
如需要使用异地灾备功能,主备站点vDHCP组件的IP地址必须相同,建议SeerEngine-DC组件和vDHCP组件分别使用两个MACVLAN类型网络作为管理网络。若两个MACVLAN类型网络使用同一网卡,需配置VLAN进行网络隔离。
除此之外,使用异地灾备功能时,还需要单独配置一个MACVLAN类型网络作为异地灾备网络。异地灾备网络用于实现主备站点之间的数据同步,承载数据实时同步的流量,需确保主备站点的异地灾备网络可以互通。推荐单独使用一个网卡,若与管理网络复用同一个网卡时需使用VLAN隔离。本例以单独使用一个网卡配置MACVLAN类型网络作为异地灾备网络为例,请参见表5-2和图5-2。
站点名称 |
组件名称 |
网络类型 |
网络数量 |
说明 |
||
主/备站点 |
SeerEngine-DC |
MACVLAN(管理网络) |
1 |
建议SeerEngine-DC和vDHCP分别使用两个MACVLAN类型网络作为管理网络 |
||
MACVLAN(灾备网络) |
1 |
· 用于主备站点之间的数据同步,承载数据实时同步的流量 · 确保主备站点的异地灾备网络可以互通 · 推荐单独使用一个网口 |
||||
vDHCP |
MACVLAN(管理网络) |
1 |
建议SeerEngine-DC和vDHCP分别使用两个MACVLAN类型网络作为管理网络 |
|||
vBGP |
E1121及以上版本 |
管理和业务网络合一 |
MACVLAN(管理网络) |
1 |
既用于vBGP和SeerEngine-DC之间的互通,又用于承载业务流量 |
|
管理和业务网络分离 |
MACVLAN(管理网络) |
1 |
仅用于vBGP和SeerEngine-DC之间的互通 |
|||
MACVLAN(业务网络) |
1 |
用于承载业务流量 |
||||
E1121之前版本 |
管理和业务网络合一 |
OVS-DPDK(管理网络) |
1 |
既用于vBGP和SeerEngine-DC之间的互通,又用于承载业务流量 |
||
管理和业务网络分离 |
OVS-DPDK(管理网络) |
1 |
仅用于vBGP和SeerEngine-DC之间的互通 多vBGP集群不复用网络 |
|||
OVS-DPDK(业务网络) |
1 |
用于承载业务流量 |
MACVLAN和OVS-DPDK网络子网中的IP地址个数建议按照如下表格计算。
表5-3 非异地灾备场景下子网IP地址池地址个数规划
组件名称 |
网络类型 |
最大集群成员个数 |
默认集群成员个数 |
IP地址计算方式 |
说明 |
||
SeerEngine-DC |
MACVLAN(管理网络) |
32 |
3 |
1*集群成员个数+1(集群IP) |
SeerEngine-DC和vDHCP可使用同一个MACVLAN网络作为管理网络 |
||
vDHCP |
MACVLAN(管理网络) |
2 |
2 |
1*集群成员个数+1(集群IP) |
|||
vBGP |
E1121及以上版本 |
管理和业务网络合一 |
MACVLAN(管理网络) |
2 |
2 |
1*集群成员个数+1(集群IP) |
- |
管理和业务网络分离 |
MACVLAN(管理网络) |
2 |
2 |
1*集群成员个数 |
- |
||
MACVLAN(业务网络) |
2 |
2 |
1*集群成员个数+1(集群IP) |
- |
|||
E1121之前版本 |
管理和业务网络合一 |
OVS-DPDK(管理网络) |
2 |
2 |
1*集群成员个数+1(集群IP) |
- |
|
管理和业务网络分离 |
OVS-DPDK(管理网络) |
2 |
2 |
1*集群成员个数 |
- |
||
OVS-DPDK(业务网络) |
2 |
2 |
1*集群成员个数+1(集群IP) |
- |
表5-4 异地灾备场景下子网IP地址池地址个数规划
站点 |
组件名称 |
网络类型 |
最大集群成员个数 |
默认集群成员个数 |
IP地址计算方式 |
说明 |
||
主/备站点 |
SeerEngine-DC |
MACVLAN(管理网络) |
32 |
3 |
1*集群成员个数+1(集群IP) |
建议SeerEngine-DC和vDHCP分别使用两个MACVLAN类型网络作为管理网络 |
||
MACVLAN(灾备网络) |
32 |
3 |
1*集群成员个数 |
单独网口 |
||||
vDHCP |
MACVLAN(管理网络) |
2 |
2 |
1*集群成员个数+1(集群IP) |
建议SeerEngine-DC和vDHCP分别使用两个MACVLAN类型网络作为管理网络 |
|||
vBGP |
E1121及以上版本 |
管理和业务网络合一 |
MACVLAN(管理网络) |
2 |
2 |
1*集群成员个数+1(集群IP) |
- |
|
管理和业务网络分离 |
MACVLAN(管理网络) |
2 |
2 |
1*集群成员个数 |
- |
|||
MACVLAN(业务网络) |
2 |
2 |
1*集群成员个数+1(集群IP) |
- |
||||
E1121之前版本 |
管理和业务网络合一 |
OVS-DPDK(管理网络) |
2 |
2 |
1*集群成员个数+1(集群IP) |
- |
||
管理和业务网络分离 |
OVS-DPDK(管理网络) |
2 |
2 |
1*集群成员个数 |
- |
|||
OVS-DPDK(业务网络) |
2 |
2 |
1*集群成员个数+1(集群IP) |
- |
以vBGP管理和业务网络合一为例,非异地灾备场景下具体的IP地址规划可参考表5-5。
表5-5 非异地灾备场景的IP地址规划
组件名称 |
网络类型 |
IP地址 |
说明 |
|
SeerEngine-DC/vDHCP |
MACVLAN(管理网络) |
子网网段:10.0.234.0/24(网关为10.0.234.254) |
SeerEngine-DC和vDHCP使用同一个MACVLAN网络作为管理网络 |
|
网络地址池:10.0.234.11~10.0.234.32 |
||||
vBGP |
E1121及以上版本 |
MACVLAN(管理网络) |
子网网段:192.168.13.0/24(网关为192.168.13.1) |
管理和业务网络合一 |
网络地址池:192.168.13.101~192.168.13.132 |
||||
E1121之前版本 |
OVS-DPDK(管理网络) |
子网网段:192.168.13.0/24(网关为192.168.13.1) |
管理和业务网络合一 |
|
网络地址池:192.168.13.101~192.168.13.132 |
以vBGP管理和业务网络合一为例,异地灾备场景下具体的IP地址规划可参考表5-6。
表5-6 异地灾备场景的IP地址规划
站点 |
组件名称 |
网络类型 |
IP地址 |
说明 |
|
主站点 |
SeerEngine-DC |
MACVLAN(管理网络) |
子网网段:10.0.234.0/24(网关为10.0.234.254) |
主备站点的灾备网络和DC组件IP地址均不同 |
|
网络地址池:10.0.234.11~10.0.234.32 |
|||||
MACVLAN(灾备网络) |
子网网段:192.168.16.0/24(网关为192.168.16.1) |
推荐单独网口 |
|||
网络地址池:192.168.16.101~192.168.16.132 |
|||||
vDHCP |
MACVLAN(管理网络) |
子网网段:10.0.233.0/24(网关为10.0.233.254) |
主备站点vDHCP组件的IP地址必须相同 |
||
网络地址池:10.0.233.6~10.0.233.38 |
|||||
vBGP |
E1121及以上版本 |
MACVLAN(管理网络) |
子网网段:192.168.13.0/24(网关为192.168.13.1) |
管理和业务网络合一 |
|
网络地址池:192.168.13.101~192.168.13.132 |
|||||
E1121之前版本 |
OVS-DPDK(管理网络) |
子网网段:192.168.13.0/24(网关为192.168.13.1) |
管理和业务网络合一 |
||
网络地址池:192.168.13.101~192.168.13.132 |
|||||
备站点 |
SeerEngine-DC |
MACVLAN(管理网络) |
子网网段:10.0.234.0/24(网关为10.0.234.254) |
主备站点的灾备网络和DC组件IP地址均不同 |
|
网络地址池:10.0.234.33~10.0.234.54 |
|||||
MACVLAN(灾备网络) |
子网网段:192.168.16.0/24(网关为192.168.16.1) |
推荐单独网口 |
|||
网络地址池:192.168.16.133~192.168.16.164 |
|||||
vDHCP |
MACVLAN(管理网络) |
子网网段:10.0.233.0/24(网关为10.0.233.254) |
主备站点vDHCP组件的IP地址必须相同 |
||
网络地址池:10.0.233.6~10.0.233.38 |
|||||
vBGP |
E1121及以上版本 |
MACVLAN(管理网络) |
子网网段:192.168.13.0/24(网关为192.168.13.1) |
管理和业务网络合一 |
|
网络地址池:192.168.13.133~192.168.13.164 |
|||||
E1121之前版本 |
OVS-DPDK(管理网络) |
子网网段:192.168.13.0/24(网关为192.168.13.1) |
管理和业务网络合一 |
||
网络地址池:192.168.13.133~192.168.13.164 |
· SeerEngine-DC管理网络与vBGP管理网络属于不同的网段,需要在连接对应网卡的交换机上配置路由表项,实现SeerEngine-DC管理网络与vBGP管理网络的三层互通。
· 当两个MACVLAN网络复用一个网卡时,需要将服务器接入的交换机端口改成Trunk口,服务器端口改为混杂模式,在交换机上创建对应VLAN及VLAN接口。
· 使用异地灾备功能时,需保证主备站点的灾备网络和SeerEngine-DC组件IP地址均不同,但主备站点vDHCP组件的IP地址必须相同。
登录统一数字底盘页面,单击[系统>部署管理]菜单项,进入部署管理页面。
(1) 获取SeerEngine-DC安装包,安装包名称格式如表5-7所示,其中version为版本号。请根据服务器架构选择相应的安装包。
组件名称 |
组件安装包名称 |
SeerEngine-DC |
· x86:SeerEngine_DC-version-MATRIX.zip · ARM:SeerEngine_DC-version-ARM64.zip |
vBGP(可选) |
· x86:vBGP-version.zip · ARM:vBGP-version-ARM64.zip |
部分控制器版本可能仅发布x86或ARM安装包,具体请以版本发布文件为准。
(2) 单击<上传>按钮,将组件安装包上传到系统。上传完成后,单击<下一步>按钮,解析安装包并进入组件选择页面。
勾选“云数据中心“选框,如需同时部署vBGP组件,请选中“vBGP”勾选框,如需使用异地灾备功能,需在本页面勾选“支持异地灾备系统”选项。本例以部署vBGP且选择管理和业务网络合一,同时支持异地灾备功能为例。单击<下一步>按钮进入网络配置页面。
图5-3 组件选择
按照章节“5.1.2 网络规划”中的网络规划,配置各MACVLAN网络,关联上行口。
若使用部署vBGP E1121前的版本,则需配置OVS-DPDK网络。
若使用异地灾备功能,需要分别为SeerEngine-DC组件和vDHCP组件配置对应的MACVLAN网络。vDHCP组件使用的MACVLAN网络必须指定VLAN,并且不能与PVID相同。两个MACVLAN网络关联相同的上行口。除此之外,还需要单独配置一个MACVLAN类型网络作为异地灾备网络。
图5-4 DC组件的MACVLAN网络配置
图5-5 vDHCP组件的MACVLAN网络配置
图5-6 异地灾备网络配置
图5-7 vBGP组件(E1121及以上版本)的MACVLAN网络配置
图5-8 vBGP组件(E1121前版本)的OVS-DPDK网络配置
在节点绑定页面,可以选择是否开启“节点绑定”功能。开启后,需要至少选择三个Master节点,用于限制微服务Pod运行的节点范围。
图5-9 节点绑定页面
在网络绑定页面,将网络和子网绑定到不同组件,使用子网IP地址池为组件分配IP地址。配置完成后,单击<下一步>按钮,进入参数确认页面。
(1) 在参数确认页面,可查看为各组件规划的网络信息,选择容灾关系和配置VRRP备份组号。
¡ 组件的IP地址自动从绑定的子网IP地址池中分配,如需修改,可在此页面单击<修改>按钮,手动修改系统分配的IP地址。输入的IP地址必须在组件绑定的网络中的子网网段范围内。
¡ 组件支持异地灾备系统后,需配置组件的容灾关系。主站点的组件容灾关系需选择“主用”,备站点的组件容灾关系需选择“备用”。本例以容灾关系选择“主用”为例。
¡ 部署vDHCP和vBGP需要手动输入VRRP备份组号,取值范围为1~255,同一个网络中不能配置相同的VRRP备份组号。
(2) 确认无误后,单击<部署>按钮,开始部署。页面上将展示部署进度。如图5-12所示。
general_PLAT_kernel-base_2.0、general_PLAT_Dashboard_2.0和general_PLAT_widget_2.0三个必选应用包上传完成后无需手动部署,部署SeerEngine-DC组件时可自动部署。
SeerEngine-DC部署完成后将在统一数字底盘中加载对应菜单项,登录统一数字底盘即可使用SeerEngine功能。
统一数字底盘提供友好的GUI界面。具体登录方式如下:
(1) 在浏览器中输入统一数字底盘登录地址(默认登录地址:http://ucenter_ip_address:30000/central/index.html),回车后会进入如图6-1所示登录界面。
¡ ucenter_ip_address:为统一数字底盘所在Installer的集群北向业务虚IP地址。
¡ 30000为端口号。
(2) 输入用户名密码登录统一数字底盘,缺省用户名为admin,密码为Pwd@12345。登录成功后进入主页面。
图6-2 统一数字底盘主页面
SeerEngine-DC安装完成后,可180天内试用所有功能,超过试用期限后,需要获取License授权才能正常使用。
关于授权的申请和安装过程,请参见《H3C软件产品远程授权License使用指南》。
在License Server上安装产品的授权后,只需在产品的License管理页面与License Server建立连接即可获取授权,操作步骤如下:
(1) 登录统一数字底盘,单击[系统>License管理>数据中心License]菜单项,进入数据中心License管理页面。
(2) 在页面中配置License Server信息的参数。各参数介绍请参见表7-1。
参数 |
说明 |
地址 |
安装License Server的服务器上用于统一数字底盘集群内各节点之间通信的IP地址 |
端口号 |
此处缺省值为“5555”,与License Server授权服务端口号保持一致 |
用户名 |
License Server中设置的客户端名称 |
密码 |
License Server中设置的客户端名称对应的密码 |
(3) 配置完成后,单击<连接>按钮与License Server建立连接,连接成功后SeerEngine-DC可自动获取授权信息。
本章节介绍SeerEngine-DC组件的升级及卸载步骤,统一数字底盘的升级及卸载步骤请参见《H3C统一数字底盘部署指导》。
· 若将SeerEngine-DC组件升级至支持异地灾备系统,由于主备站点vDHCP组件的IP地址必须相同,若升级前已部署vDHCP组件,建议升级后卸载vDHCP组件并重新部署,部署流程请参见“5.2 部署组件”。
· 灾备系统创建后,对统一数字底盘、组件进行扩容或升级前,需先将倒换模式切换为手动倒换模式。
· 灾备系统创建后,不支持同时在主备站点升级组件,请先升级其中一个站点的组件,等待数据同步状态恢复正常后,再升级另一个站点的组件。
在统一数字底盘上支持对组件进行保留配置升级。升级组件可能会导致业务中断,请谨慎操作。
升级步骤如下:
(1) 登录统一数字底盘,单击[系统/部署管理]菜单项,进入部署管理页面。
图9-1 部署管理页面
(3) 若此时组件已支持异地灾备功能,则进入升级页面,操作步骤如下:
a. 上传安装包,勾选待部署的安装包。
b. 选择是否开启“增加节点绑定”。其中,在组件部署时已绑定的节点不支持修改和删除,如图9-2所示。
c. 单击<部署>按钮,完成组件升级。
若此时主站点的组件未支持异地灾备功能,可在弹出的对话框中勾选“支持异地灾备系统”选项,再单击<确定>按钮进入灾备升级步骤。若不勾选“支持异地灾备系统”选项可进入普通升级。
本例以主站点的组件未支持异地灾备功能,在弹出的对话框中勾选“支持异地灾备系统”选项为例。
图9-3 “支持异地灾备系统”选项
a. 进入网络配置页面,创建新的网络作为异地灾备网络,SeerEngine-DC需要使用MACVLAN类型网络作为异地灾备网络,并且保证和管理网络不在相同网段;主备站点vDHCP组件的IP地址必须相同。请参见“5.2.3 网络配置”。
图9-4 网络配置页面
b. 创建灾备网络后,进入网络绑定页面,绑定新创建的异地灾备网络和子网。
图9-5 网络绑定页面
c. 完成网络绑定后,进入参数确认页面,确认异地灾备网络分配的IP地址。
d. 网络配置完成后,进入升级页面,上传安装包或补丁包,勾选待部署的安装包,单击<部署>按钮,完成组件升级。
(4) 若组件升级失败,单击<回滚>按钮,可将组件回退到升级之前的版本。
在统一数字底盘上支持对vBGP进行保留配置升级。对于vBGP组件,各版本的网络使用及适配情况如表9-1。
表9-1 vBGP各版本的网络使用及适配情况
vBGP版本 |
使用的网络类型 |
适配统一数字底盘版本 |
E1121及以上 |
MACVLAN |
E0613H07及以上 |
E1121前 |
OVS-DPDK |
E0613H07前 |
主要包含以下两种升级方式:
· 不跨E1121版本升级
升级过程中无需更换vBGP使用的网络类型。适用于E1121前的版本升级至升级E1121前的版本,均使用OVS-DPDK网络;或者是E1121及以上版本的升级,均使用MACVLAN网络。
· 跨E1121版本升级
升级过程中需要更换vBGP使用的网络类型。适用于E1121前的版本升级至E1121及以上版本,即从OVS-DPDK网络更换至MACVLAN网络。
升级过程中无需更换vBGP使用的网络类型。适用于E1121前的版本升级至升级E1121前的版本,均使用OVS-DPDK网络;或者是E1121及以上版本的升级,均使用MACVLAN网络。
升级步骤如下:
(1) 登录统一数字底盘,单击[系统>部署管理]菜单项,进入部署管理页面。
图9-6 部署管理页面
(2) 单击组件左侧的按钮,展开组件信息,单击vBGP组件的按钮。
(3) 上传安装包,勾选待部署的安装包。
图9-7 升级页面
(4) 单击<升级>按钮,完成组件升级。
(5) 若组件升级失败,单击<回滚>按钮,可将组件回退到升级之前的版本。
升级过程中需要更换vBGP使用的网络类型。适用于E1121前的版本升级至E1121及以上版本,即从OVS-DPDK网络更换至MACVLAN网络。
升级步骤如下:
(1) 将统一数字底盘升级至支持vBGP MACVLAN网络的版本(E0613H07及以上),升级步骤请参见《H3C统一数字底盘部署指导》。
(2) 卸载vBGP前,确认RR设备上的BGP视图下已配置路由不老化。否则卸载vBGP会造成混合Overlay流量中断。
(3) 卸载当前版本的vBGP。具体卸载步骤请参考“9.5 卸载vBGP”。
(4) 卸载完成后,进入单击[系统>部署管理]菜单项,进入部署管理页面。单击<网络配置>按钮,进入网络配置页面,删除原vBGP使用的OVS-DPDK网络。
图9-8 部署管理页面
图9-9 删除OVS-DPDK网络
(5) 获取E1121及以上版本的vBGP软件包,重新安装vBGP,安装步骤请参考“5.2 部署组件”。其中在“5.2.3 网络配置”步骤需要配置MACVLAN网络作为vBGP的管理和业务网络。
除了变更网络类型外,部署vBGP中的其他参数配置建议与卸载之前保持一致,避免升级后业务发生异常。
· 无法通过热补丁升级将SeerEngine-DC组件升级至支持异地灾备系统。
· 灾备系统创建后,对组件进行热补丁升级前,需先将倒换模式切换为手动倒换模式。
· 灾备系统创建后,不支持同时在主备站点热补丁升级组件,请先升级其中一个站点的组件,等待数据同步状态恢复正常后,再升级另一个站点的组件。
在统一数字底盘上支持对组件进行保留配置补丁升级。补丁升级可能会导致组件业务中断,请谨慎操作。
升级步骤如下:
(1) 登录统一数字底盘,单击[系统>部署管理]菜单项,进入部署管理页面。
图9-10 部署管理页面
(3) 进入热补丁升级页面,上传补丁包,选择要使用的补丁版本,单击<升级>按钮完成组件的补丁升级。
图9-11 热补丁升级页面
(4) 如热补丁升级失败,单击<回滚>按钮,可将组件回退到升级之前的版本;或者单击<终止升级>按钮,结束本次升级。
(1) 登录统一数字底盘,单击[系统>部署管理]菜单项,进入部署管理页面。
(2) 勾选待卸载组件左侧的复选框,单击<卸载>按钮,卸载指定的组件。
图9-12 卸载组件
卸载vBGP的具体操作如下:
(1) 登录统一数字底盘,单击[系统>部署管理]菜单项,进入部署管理页面。
(2) 勾选vBGP左侧的复选框,单击<卸载>按钮,卸载指定的组件。
图9-13 卸载vBGP
本功能用于配置SeerEngine-DC异地灾备。异地灾备系统是指处于异地的两个站点之间做主备灾备。异地灾备系统正常运行时,对外提供服务站点的数据实时向对端站点同步,确保两站点间的数据一致。用户可通过界面操作配置手动或者带仲裁的自动倒换,当对外提供服务的站点出现故障时,例如整站点断电、站点网络故障、站点和外界相连的链路故障,故障站点的业务可被另一个站点接管,保持业务连续性,减少损失。
· 手动模式:灾备系统不会自动监测主站点和备站点上的组件状态,由用户控制和指定组件在站点上的主用或备用状态,可以通过接管和降备功能,切换组件在站点上主用或备用状态。使用手动模式时,需要在主备站点上各部署一套相同版本的统一数字底盘。
· 带仲裁的自动倒换模式:灾备系统会自动监测组件状态,若站点的组件或统一数字底盘发生故障,例如站点断电、网络故障等,灾备系统会通过第三方仲裁服务,自动切换组件在不同站点上的状态。该模式下,支持用户进行手动切换。使用带仲裁的自动倒换模式需要在主备站点上各部署一套相同版本的统一数字底盘,同时部署第三方仲裁服务。仲裁服务支持两种部署方式:独立部署和合并部署。
a. 独立部署:采用一台独立物理服务器部署仲裁服务。
b. 合并部署:复用主备站点中的某台服务器部署仲裁服务。
推荐使用独立部署方式,如果采用合并部署方式,当仲裁服务所在服务器发生故障时,仲裁服务可能同时失效,无法进行自动倒换,需要切换至手动倒换模式。
本章节以独立部署第三方仲裁服务为例。
异地灾备配置分为以下三步:
(1) 部署主备站点和第三方站点。
(2) 部署灾备组件。
(3) 创建灾备系统。
配置步骤如下:
· 主备站点的统一数字底盘版本需要一致,并配置相同的传输协议。
· 创建灾备系统时,指定的主站点和备站点的登录用户名及密码必须相同。
· 异地灾备功能不支持主备站点使用不同的IP版本。
· 第三方站点的应用包版本需要与主备站点的统一数字底盘版本配套。
· 若在异地灾备场景下使用用户白名单功能,需保证在主站点上添加备站点所有节点的IP地址,在备站点上添加主站点所有节点的IP地址。
· 主备站点vDHCP组件的IP地址需要一致,否则在倒换过程中会出现服务异常。
主备站点上部署相同版本的统一数字底盘,同时在独立服务器上部署单机模式的Installer平台作为第三方站点,并在该站点上部署仲裁服务,第三方站点的硬件配置需求请参见“3. 异地灾备第三方站点”。
(1) 在主备站点和第三方站点上部署Installer平台。配置过程请参见《H3C统一数字底盘部署指导》。
(2) 在主备站点上部署统一数字底盘。配置过程请参见《H3C统一数字底盘部署指导》。主备站点需要配置相同的外置NTP服务器。
(3) 在第三方站点上部署仲裁服务。配置步骤如下:
a. 登录Installer平台。单击[部署/应用]菜单项,进入应用部署页面。
b. 单击<部署应用>按钮,进入应用部署导航页面。
c. 单击<上传>按钮,上传仲裁服务安装包,安装包的名称格式为SeerEngine_DC_ARBITRATOR-version.zip(x86)和SeerEngine_DC_ARBITRATOR-version-ARM64.zip(ARM),其中version为安装包版本号。请根据服务器架构选择对应的安装包。部分控制器版本可能仅发布x86或ARM安装包,具体请以版本发布文件为准。
d. 上传完成后,连续单击<下一步>按钮,进入配置参数页面。
e. 单击<部署>按钮部署仲裁服务。
若指定备站点上已安装的组件未支持异地灾备功能或容灾关系不是备用,请先卸载后再安装。
如果产品组件需要使用异地灾备功能,需要在主备站点上部署相同版本的SeerEngine-DC,且SeerEngine-DC安装包名称必须完全相同。安装部署组件时需要在部署页面勾选“支持异地灾备系统”选项,并在参数确认页面选择容灾关系,完成安装部署。组件部署过程请参见“5.2 部署组件”。
如果指定主站点已安装的组件未支持异地灾备功能,可在组件管理页面单击按钮,将组件升级至支持异地灾备模式,升级步骤请参见“9.1 升级SeerEngine-DC”。
· 在创建灾备系统过程中,请保证主备站点间的网络连接处于正常状态,否则可能导致配置失败;若配置失败,请先确认网络连接是否正常。
· 不支持同时在主备站点创建灾备系统。
· 灾备系统页面的数据不支持备份恢复,包括:主备站点名称、主备站点IP、备站点用户名密码、第三方站点IP等。
· 灾备系统创建后,主备站点上Installer平台的集群内部虚IP和节点IP均不允许修改。
(1) 单击[系统 > 灾备系统]菜单项,进入灾备系统页面。
(2) 在站点配置区域输入主站点配置、备站点配置、第三方站点配置和倒换模式,单击<连接>按钮,等待灾备系统的站点配置完成。当心跳链路连接状态显示连接成功时,表示灾备系统的站点配置成功。站点配置成功后,备站点的用户、日志、备份恢复模块的配置将会自动和主站点同步,其中日志文件内容不会同步。
(3) 单击容灾关系配置区域的<增加>按钮,在弹出的对话框中完成组件容灾关系配置。
2+1+1模式是一种低成本的故障恢复模式,用户需要在原有集群的配置上,额外增加一台物理服务器作为冷备成员存在。部署时需要将DC控制器集群的3个节点部署在两个不同的机柜或机房中,同时建议在集群系统之外额外预留一台服务器,作为支持故障出现时紧急处理的冗余节点。在集群正常工作时,备用冗余节点不需要上电工作。当集群出现两台Master节点同时故障,导致集群无法工作时,备用节点可以在用户加电启动后快速加入集群,做到快速的灾备恢复。
集群2+1+1部署流程如下:
(1) 准备4台服务器,其中3台用于安装统一数字底盘集群,1台作为备份服务器。
(2) 将4台服务器安装至不同位置,推荐安装方式为:用于安装集群的2个服务器安装在一个机柜(或机房)中,用于安装集群的另一个服务器和备份服务器安装在另一个机柜(或机房)中。
(3) 在3台节点上安装统一数字底盘,安装步骤请参见《H3C统一数字底盘部署指导》。3个节点的IP地址建议部署在同一网段中,且保证节点间能够互通。
(4) 在集群中部署SeerEngine-DC组件,部署步骤请参见“5 部署SeerEngine-DC”。
(5) 在备份服务器上安装Installer平台,安装完成后无需部署统一数字底盘。需要注意的是,备份服务器上安装的Installer版本需要与3台集群节点中安装的Installer版本相同。
以集群节点分别为DC控制器1、DC控制器2和DC控制器3为例,如图11-1所示,进行集群灾备操作前,需要准备以下工作:
(1) 记录集群中三个节点的主机名、网卡名称、节点IP地址、用户名及密码。
(2) 在备用节点上预装与集群节点相同版本的Installer软件。
· 备用节点的盘符和磁盘分区必须和三个节点保持一致。
· 若集群节点的统一数字底盘为补丁版本,在备用节点上预装Installer时,请通过以下步骤使得备用节点预装与集群节点相同版本的Installer。
1、预装06xx/07xx的统一数字底盘基线版本ISO包。
2、后台卸载当前Installer。
3、后台安装所需要补丁版本的Installer。
对于三个Leader节点的集群,当两个节点(例如DC控制器1和2)都出现故障时,意味着集群系统的多数节点出现异常,这时集群系统不能正常工作,需要尽快干预恢复。整个系统仅有DC控制器3能够登录,同时DC控制器3将自动进入紧急模式,在紧急模式下,DC控制器提供只读功能,提供配置数据的查看和恢复功能。
图11-2 两节点故障
可通过如下操作步骤恢复集群:
(2) 对备用节点进行上电操作(不接入管理网络),确认是否已安装Installer平台,如未安装,可参考《H3C统一数字底盘部署指导》进行安装,安装完成后请勿配置集群。
(3) 确认备用节点的主机名、网卡名称、节点IP地址、用户名及密码与两个故障节点中的其中一个(本例以DC控制器1为例)完全一致。
(4) 断开故障节点控制器1和2的网络连接,并将备用节点接入管理网络。
(5) 登录控制器3的Installer Web页面,进入[部署 > 集群 > 集群部署]页面,单击控制器1节点右上角的“设置”图标,在下拉菜单中选择“重建”选项,在弹出窗口中选择重建方式:
¡ 方式一:单击上传与当前节点相同版本的软件包进行节点重建,并上传重建文件,单击<应用>按钮。
¡ 方式二:单击使用系统中原有的节点部署文件进行重建,单击<应用>按钮。
(6) 节点重建完成后,集群即可正常工作,但当前页面仍处于紧急模式中,需退出并重新登录。建议使用北向业务虚IP重新登录Installer平台。
在集群正常后,可以对原有物理服务器进行修复和恢复。如果使用全新的物理服务器代替异常控制器2,那么需要登录Installer页面进行修复操作。如果原有的控制器2的文件系统能够恢复,并可正常启动,则控制器可以在加电启动后自动加入集群。此时集群恢复到3台均可用的正常状态。
· 节点重建完成后,备用节点将以控制器1的身份加入集群,原控制器1故障恢复后不能直接再次加入集群,推荐对恢复后控制器1执行硬盘数据格式化后再预装Installer,作为新的备用节点。
· 如果两台控制器出现异常,请勿在唯一正常的节点上执行重启操作,否则将无法通过此方式恢复集群。
不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!