01-正文
本章节下载 (3.89 MB)
目 录
SeerEngine-DC是一款数据中心控制组件,它类似一个网络操作系统,为用户提供开发和运行SDN应用的平台。SeerEngine-DC可以控制网络中的各种资源,并为应用提供接口,以实现特定的网络转发需求。
主要特点如下:
· 支持OpenFlow 1.3,并且提供内置服务和设备驱动程序框架;
· 是一个高可靠和可扩展的分布式平台;
· 提供可扩展的REST API和GUI;
· 支持独立运行模式和集群模式。
控制组件支持单机和集群部署,推荐三机集群部署模式。
控制组件支持部署异地灾备系统,异地灾备系统是指处于异地的两个站点之间做主备灾备。由于使用3+3的容灾模式,主备站点各需要3台服务器,共6台。带仲裁的自动倒换模式需要部署仲裁器,仲裁器支持单机部署。
DTN组件部署有两种部署场景:
· 场景1:DTN组件与控制组件节点融合部署。DTN组件部署在其中一个Master节点上,无需额外增加Worker节点服务器,但需要在部署DTN组件的Master节点上扩展硬件配置。
· 场景2:DTN组件独立服务器部署。DTN组件独立部署在Worker节点上,此场景需要额外增加一台服务器做为Worker节点,用于部署DTN组件。
· 对于E6203前的控制组件版本,配套的统一数字底盘为E0706前(含E06xx)的版本,ETCD分区必须占用一个独立的物理硬盘。
· 对于E6203及以上版本,配套的统一数字底盘为E0706及以上版本,ETCD分区可与其他分区共用物理硬盘,从性能角度考虑,推荐ETCD分区占用独立的物理硬盘。
· DTN不支持异地灾备。
表2-1 通用配置要求
项目 |
要求 |
||
磁盘通用要求: 需要配置RAID,RAID模式可选RAID1、RAID5或RAID10。 使用SSD固态硬盘或7.2K RPM以上HDD机械硬盘,IOPS至少5000次/s。 对于HDD,RAID卡需为1GB Cache,支持数据掉电保护且超级电容必须在位。 |
系统盘 |
SSD |
RAID后磁盘容量≥1920GB的配置建议: · RAID5:3*960GB或5*480GB · RAID10:4*960GB或8*480GB RAID后磁盘容量≥600GB的配置建议: · RAID1:2*960GB · RAID10:4*480GB |
HDD |
RAID后磁盘容量≥1920GB的配置建议: · RAID5:3*1200GB或5*600GB · RAID10:4*1200GB或8*600GB RAID后磁盘容量≥600GB的配置建议: · RAID1:2*600GB |
||
ETCD盘 |
SSD |
RAID后磁盘容量≥50GB的配置建议: · RAID1:2*480GB |
|
HDD |
RAID后磁盘容量≥50GB的配置建议: · RAID1:2*600GB |
控制组件集群在物理服务器上部署时,硬件配置需求如表2-2所示。
表2-2 控制组件集群部署(x86-64(Intel64/AMD64)架构)(统一数字底盘+控制组件)
硬件节点配置 |
可支持最大管理规模 |
说明 |
|||
节点名称 |
节点配置数量 |
CPU/内存配置要求 |
磁盘/网口通用配置要求 |
||
控制组件节点 |
3 |
CPU:16核,2.0GHz主频及以上 内存:128GB及以上 说明: · 若部署可选应用安装包,请根据表2-12中的信息相应增加对应的硬件配置 · 如需使用仿真功能,DTN组件与控制组件节点融合部署时,部署DTN组件的一台服务器需要额外增加100GB内存及以上 |
磁盘: · 系统盘:1920GB(RAID后容量)及以上 · ETCD盘:50GB(RAID后容量)及以上 网口 · (普通模式):1*10Gbps。 ¡ 如果部署vBGP,需要单独增加1*10Gbps; ¡ 如果部署3+3灾备集群需要单独增加1*10Gbps; ¡ 如需部署DTN组件,DTN组件与控制组件节点融合部署时,需要额外增加1*10Gbps · (冗余模式):2个网口,2*10Gbps及以上带宽,2个网口组成1组Linux Bonding ¡ 如果部署vBGP,需要单独增加2*10Gbps做冗余; ¡ 如果部署3+3灾备集群需要单独增加2*10Gbps做冗余; ¡ 如需部署DTN组件,DTN组件与控制组件节点融合部署时,需要额外增加2*10Gbps做冗余 |
设备数:300 服务器数量:6000 |
标配 |
控制组件节点 |
3 |
CPU:20核,2.2GHz主频及以上 内存:256GB及以上 说明: · 若部署可选应用包,请根据表2-12中的信息相应增加对应的硬件配置 · 如需使用仿真功能,部署DTN组件的一台服务器需要额外增加100GB内存及以上 |
设备数:1000 服务器数量:20000 |
高配 |
|
DTN组件独立服务器部署 |
1 |
CPU:16核,2.0GHz主频及以上 内存:128GB及以上 |
磁盘: · 系统盘:1920GB(RAID后容量)及以上 · ETCD盘:50GB(RAID后容量)及以上 网口 · (普通模式):2个网口,2*10Gbps及以上带宽 · (冗余模式):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding |
- |
此配置仅适用于DTN组件独立部署在Worker节点上的场景 |
控制组件单机在物理服务器上部署时,硬件配置需求如表2-3所示。
表2-3 控制组件单机部署(x86-64(Intel64/AMD64)架构)(统一数字底盘+控制组件)
硬件节点配置 |
可支持最大管理规模 |
说明 |
|||
节点名称 |
节点配置数量 |
CPU/内存配置要求 |
磁盘/网口通用配置要求 |
||
控制组件节点 |
1 |
CPU:16核,2.0GHz主频及以上 内存:128GB及以上 说明: · 若部署可选应用包,请根据表2-12中的信息相应增加对应的硬件配置 · 如需使用仿真功能,部署DTN组件的一台服务器需要额外增加100GB内存及以上 |
磁盘: · 系统盘:1920GB(RAID后容量)及以上 · ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd 网口 · (普通模式):1个网口,1*10Gbps及以上带宽。 ¡ 如需部署DTN组件,需要额外增加一个网口 · (冗余模式):2个网口,2*10Gbps及以上带宽,2个网口组成1组Linux Bonding ¡ 如需部署DTN组件,需要额外增加两个网口做冗余 |
设备数:36 服务器数量:600 |
- |
单机部署模式下,需要注意以下情况:
· 单机模式无冗余节点,如发生故障将导致业务中断,建议配置远程备份服务器。
· 控制组件不支持混合Overlay、安全组、QoS和对接云平台功能。
硬件配置需求如表2-4所示。
表2-4 控制组件集群部署(x86-64海光服务器)(统一数字底盘+控制组件)
硬件节点配置 |
可支持最大管理规模 |
说明 |
|||
节点名称 |
节点配置数量 |
CPU/内存配置要求 |
磁盘/网口通用配置要求 |
||
控制组件节点 |
3 |
CPU:32核主频,2*(Hygon G5 5380 16核,2.5GHz) 内存:128GB及以上 说明: · 若部署可选应用包,请根据表2-12中的信息相应增加对应的硬件配置 · 如需使用仿真功能,DTN组件与控制组件节点融合部署时,部署DTN组件的一台服务器需要额外增加100GB内存及以上 |
磁盘: · 系统盘:1920GB(RAID后容量)及以上 · ETCD盘:50GB(RAID后容量)及以上 网口 · (普通模式):1个网口,1*10Gbps及以上带宽 ¡ 如果部署vBGP,需要单独增加1*10Gbps; ¡ 如果部署3+3灾备集群需要单独增加1*10Gbps ¡ 如需部署DTN组件,DTN组件与控制组件节点融合部署时,需要额外增加1*10Gbps · (冗余模式):2个网口,2*10Gbps及以上带宽,2个网口组成1组Linux Bonding ¡ 如果部署vBGP,需要单独增加2*10Gbps做冗余; ¡ 如果部署3+3灾备集群需要单独增加2*10Gbps做冗余 ¡ 如需部署DTN组件,DTN组件与控制组件节点融合部署时,需要额外增加2*10Gbps做冗余 |
设备数:300 服务器数量:6000 |
标配 |
控制组件节点 |
3 |
CPU:32核,2.5GHz主频,2*(2*Hygon G5 5380 16核) 内存:256GB及以上 说明: · 如需使用仿真功能,部署DTN组件的一台服务器需要额外增加100GB内存及以上 · 若部署可选应用包,请根据表2-12中的信息相应增加对应的硬件配置 |
设备数:1000 服务器数量:20000 |
高配 |
|
DTN组件独立服务器部署 |
1 |
CPU:32核,2.5GHz主频,2*(2*Hygon G5 5380 16核) 内存:128GB及以上 |
磁盘: · 系统盘: 1920GB(RAID后容量)及以上 · ETCD盘:50GB(RAID后容量)及以上 网口 · (普通模式):2个网口,2*10Gbps及以上带宽 · (冗余模式):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding |
- |
此配置仅适用于DTN组件独立部署在Worker节点上的场景 |
表2-5 控制组件单机部署(x86-64海光服务器)(统一数字底盘+控制组件)
硬件节点配置 |
可支持最大管理规模 |
说明 |
|||
节点名称 |
节点配置数量 |
CPU/内存配置要求 |
磁盘/网口配置要求 |
||
控制组件节点 |
1 |
CPU:32核主频,2*(Hygon G5 5380 16核,2.5GHz) 内存:128GB及以上 说明: · 若部署可选应用安装包,请根据表2-12中的信息相应增加对应的硬件配置 · 如需使用仿真功能,DTN组件与控制组件节点融合部署时,部署DTN组件的一台服务器需要额外增加100GB内存及以上 |
磁盘: · 系统盘:1920GB(RAID后容量)及以上 · ETCD盘:50GB(RAID后容量)及以上 网口 · (普通模式):1个网口,1*10Gbps及以上带宽。 ¡ 如果部署vBGP,需要单独增加1*10Gbps; ¡ 如果部署3+3灾备集群需要单独增加1*10Gbps ¡ 如需部署DTN组件,DTN组件与控制组件节点融合部署时,需要额外增加1*10Gbps · (冗余模式):2个网口,2*10Gbps及以上带宽,2个网口组成1组Linux Bonding ¡ 如果部署vBGP,需要单独增加2*10Gbps做冗余; ¡ 如果部署3+3灾备集群需要单独增加2*10Gbps做冗余 ¡ 如需部署DTN组件,DTN组件与控制组件节点融合部署时,需要额外增加2*10Gbps做冗余 |
设备数: 36 服务器数量:600 |
- |
单机部署模式下,需要注意以下情况:
· 单机模式无冗余节点,如发生故障将导致业务中断,建议配置远程备份服务器。
· 控制组件不支持混合Overlay、安全组、QoS和对接云平台功能。
表2-6 控制组件集群部署(ARM鲲鹏服务器)(统一数字底盘+控制组件)
硬件节点配置 |
可支持最大管理规模 |
说明 |
|||
节点名称 |
节点配置数量 |
单节点详细配置 |
|||
控制组件节点 |
3 |
CPU:48核主频,2*(Kunpeng 920 24核,2.6GHz) 内存:128GB及以上 说明: · 若部署可选应用包,请根据表2-12中的信息相应增加对应的硬件配置 · 如需使用仿真功能,部署DTN组件的一台服务器需要额外增加100GB内存及以上 |
磁盘: · 系统盘:1920GB(RAID后容量)及以上 · ETCD盘:50GB(RAID后容量)及以上 网口 · (普通模式):1个网口,1*10Gbps及以上带宽 ¡ 如果部署vBGP,需要单独增加一个网口 ¡ 如果部署3+3灾备集群需要单独增加一个网口 · (冗余模式):2个网口,2*10Gbps及以上带宽,2个网口组成1组Linux Bonding ¡ 如果部署vBGP,需要单独增加两个网口做冗余 ¡ 如果部署3+3灾备集群需要单独增加两个网口做冗余 ¡ 如需部署DTN组件,DTN组件与控制组件节点融合部署时,需要额外增加2*10Gbps做冗余 |
设备数:300 服务器数量:6000 |
标配 |
控制组件节点 |
3 |
CPU:48核主频,2*(Kunpeng 920 24核,2.6GHz) 内存:256GB及以上 说明: · 若部署可选应用包,请根据表2-12中的信息相应增加对应的硬件配置 · 如需使用仿真功能,部署DTN组件的一台服务器需要额外增加100GB内存及以上 |
设备数:1000 服务器数量:20000 |
高配 |
|
DTN组件独立服务器部署 |
1 |
CPU:48核主频,2*(Kunpeng 920 24核,2.6GHz) 内存:128GB及以上 |
磁盘: · 系统盘: 1920GB(RAID后容量)及以上 · ETCD盘:50GB(RAID后容量)及以上 网口 · (普通模式):2个网口,2*10Gbps及以上带宽 · (冗余模式):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding |
- |
此配置仅适用于DTN组件独立部署在Worker节点上的场景 |
表2-7 控制组件单机部署(ARM鲲鹏服务器)(统一数字底盘+控制组件)
硬件节点配置 |
可支持最大管理规模 |
说明 |
|||
节点名称 |
节点配置数量 |
单节点详细配置 |
|||
控制组件节点 |
1 |
CPU:48核主频,2*(Kunpeng 920 24核,2.6GHz) 内存:128GB及以上 说明: · 若部署可选应用安装包,请根据表2-12中的信息相应增加对应的硬件配置 · 如需使用仿真功能,DTN组件与控制组件节点融合部署时,部署DTN组件的一台服务器需要额外增加100GB内存及以上 |
磁盘: · 系统盘:1920GB(RAID后容量)及以上 · ETCD盘:50GB(RAID后容量)及以上 网口 · (普通模式):1个网口,1*10Gbps及以上带宽。 ¡ 如果部署vBGP,需要单独增加一个网口; ¡ 如果部署3+3灾备集群需要单独增加一个网口; · (冗余模式):2个网口,2*10Gbps及以上带宽,2个网口组成1组Linux Bonding ¡ 如果部署vBGP,需要单独增加两个网口做冗余 ¡ 如果部署3+3灾备集群需要单独增加两个网口做冗余 ¡ 如需部署DTN组件,DTN组件与控制组件节点融合部署时,需要额外增加2*10Gbps做冗余 |
设备数:36 服务器数量:600 |
- |
单机部署模式下,需要注意以下情况:
· 单机模式无冗余节点,如发生故障将导致业务中断,建议配置远程备份服务器。
· 控制组件不支持混合Overlay、安全组、QoS和对接云平台功能。
表2-8 控制组件集群部署(ARM飞腾服务器)(统一数字底盘+控制组件)
硬件节点配置 |
可支持最大管理规模 |
说明 |
|||
节点名称 |
节点配置数量 |
单节点详细配置 |
|||
控制组件节点 |
3 |
CPU:128核,2*(飞腾 S2500 64核,2.1GHz主频) 内存:128GB及以上 说明: · 若部署可选应用包,请根据表2-12中的信息相应增加对应的硬件配置 · 如需使用仿真功能,部署DTN组件的一台服务器需要额外增加100GB内存及以上 |
磁盘: · 系统盘:1920GB(RAID后容量)及以上 · ETCD盘:50GB(RAID后容量)及以上 网口 · (普通模式):1个网口,1*10Gbps及以上带宽 ¡ 如果部署vBGP,需要单独增加一个网口; ¡ 如果部署3+3灾备集群需要单独增加一个网口 · (冗余模式):2个网口,2*10Gbps及以上带宽,2个网口组成1组Linux Bonding ¡ 如果部署vBGP,需要单独增加两个网口做冗余; ¡ 如果部署3+3灾备集群需要单独增加两个网口做冗余 ¡ 如需部署DTN组件,DTN组件与控制组件节点融合部署时,需要额外增加2*10Gbps做冗余 |
设备数:300 服务器数量:6000 |
标配 |
控制组件节点 |
3 |
CPU:128核,2*(飞腾 S2500 64核,2.1GHz主频) 内存:256GB及以上 说明: · 若部署可选应用包,请根据表2-12中的信息相应增加对应的硬件配置 · 如需使用仿真功能,部署DTN组件的一台服务器需要额外增加100GB内存及以上 |
设备数:1000 服务器数量:20000 |
高配 |
|
DTN组件独立服务器部署 |
1 |
CPU:128核,2*(飞腾 S2500 64核,2.1GHz主频) 内存:128GB及以上 |
磁盘: · 系统盘:1920GB(RAID后容量)及以上 · ETCD盘:50GB(RAID后容量)及以上 网口 · (普通模式):2个网口,2*10Gbps及以上带宽 · (冗余模式):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding |
- |
此配置仅适用于DTN组件独立部署在Worker节点上的场景 |
表2-9 控制组件单机部署(ARM飞腾服务器)(统一数字底盘+控制组件)
硬件节点配置 |
可支持最大管理规模 |
说明 |
|||
节点名称 |
节点配置数量 |
单节点详细配置 |
|||
控制组件节点 |
1 |
CPU:128核,2*(飞腾 S2500 64核,2.1GHz主频) 内存:128GB及以上 说明: · 若部署可选应用安装包,请根据表2-12中的信息相应增加对应的硬件配置 · 如需使用仿真功能,DTN组件与控制组件节点融合部署时,部署DTN组件的一台服务器需要额外增加100GB内存及以上 |
磁盘: · 系统盘:1920GB(RAID后容量)及以上 · ETCD盘:50GB(RAID后容量)及以上 网口 · (普通模式):1个网口,1*10Gbps及以上带宽 ¡ 如果部署vBGP,需要单独增加一个网口; ¡ 如果部署3+3灾备集群需要单独增加一个网口 · (冗余模式):2个网口,2*10Gbps及以上带宽,2个网口组成1组Linux Bonding ¡ 如果部署vBGP,需要单独增加两个网口做冗余; ¡ 如果部署3+3灾备集群需要单独增加两个网口做冗余 ¡ 如需部署DTN组件,DTN组件与控制组件节点融合部署时,需要额外增加2*10Gbps做冗余 |
设备数:36 服务器数量:600 |
- |
单机部署模式下,需要注意以下情况:
· 单机模式无冗余节点,如发生故障将导致业务中断,建议配置远程备份服务器。
· 控制组件不支持混合Overlay、安全组、QoS和对接云平台功能。
表2-10 DTN物理主机部署(x86-64(Intel64/AMD64)架构)
硬件节点配置 |
可支持最大管理规模 |
说明 |
|||
节点名称 |
节点配置数量 |
CPU/内存配置要求 |
磁盘/网口配置要求 |
||
DTN物理主机 |
服务器数量=仿真设备总数量/单台服务器可管理仿真设备数 |
CPU:支持VX-T/VX-D技术的x86-64(Intel64/AMD64),16核、2.0GHz主频及以上 内存:128GB及以上 |
磁盘: · 系统盘:RAID配置后的磁盘总容量需大于等于600GB 网口 · (普通模式):3个网口,3*10Gbps及以上带宽 · (冗余模式):6个网口,6*10Gbps及以上带宽,每2个网口组成1组Linux Bonding |
单台服务器最多可管理仿真设备数(任选其一): · 60台2GB的仿真设备; · 30台4GB的仿真设备 |
标配 仅当使用仿真功能时需要部署DTN物理主机 |
DTN物理主机 |
服务器数量=仿真设备总数量/单台服务器可管理仿真设备数 |
CPU:支持VX-T/VX-D技术的x86-64(Intel64/AMD64),20核、2.2GHz主频及以上 内存:256GB及以上 |
单台服务器最多可管理仿真设备数(任选其一): · 160台2GB的仿真设备; · 80台4GB的仿真设备 |
高配 仅当使用仿真功能时需要部署DTN物理主机 |
表2-11 DTN物理主机部署(国产化服务器)
硬件节点配置 |
可支持最大管理规模 |
说明 |
||||
节点名称 |
节点配置数量 |
CPU/内存配置要求 |
磁盘/网口配置要求 |
|||
DTN物理主机 |
服务器数量=仿真设备总数量/单台服务器可管理仿真设备数 |
CPU:可选配置如下: · 32核,2*(2*Hygon G5 5380 16核,2.5GHz主频) · 48核,2*(Kunpeng 920 24核,2.6GHz主频) · 128核,2*(飞腾 S2500 64核,2.1GHz主频) 内存:256GB及以上 |
磁盘: · 系统盘:RAID配置后的磁盘总容量需大于等于600GB 网口 · (普通模式):3个网口,3*10Gbps及以上带宽 · (冗余模式):6个网口,6*10Gbps及以上带宽,每2个网口组成1组Linux Bonding |
单台服务器最多可管理仿真设备数(任选其一): · 160台2GB的仿真设备; · 80台4GB的仿真设备 |
高配 仅当使用仿真功能时需要部署DTN物理主机 |
|
DTN物理主机 |
服务器数量=仿真设备总数量/单台服务器可管理仿真设备数 |
CPU:可选配置如下: · 32核,2*(2*Hygon G5 5380 16核,2.5GHz主频) · 48核,2*(Kunpeng 920 24核,2.6GHz主频) · 128核,2*(飞腾 S2500 64核,2.1GHz主频) 内存:128GB及以上 |
单台服务器最多可管理仿真设备数(任选其一): · 60台2GB的仿真设备; · 30台4GB的仿真设备 |
标配 仅当使用仿真功能时需要部署DTN物理主机 |
||
如需安装可选应用安装包,需要额外增加节点的硬件配置。请根据表2-12中对应应用安装包的硬件资源增加节点的硬件配置。
应用安装包 |
包含的功能说明 |
CPU(核) |
内存(GB) |
|
x86-64架构(Intel64/AMD64) |
x86-64架构(海光服务器)+ARM架构(Kunpeng 920/飞腾) |
|||
general_PLAT_network |
网络资源、网络性能、网络拓扑、iCC |
2.5 |
5 |
16 |
general_PLAT_kernel-region |
上下级分级管理功能 |
0.5 |
1 |
6 |
Syslog |
Syslog相关功能 |
1.5 |
3 |
8 |
general_PLAT_netconf |
NETCONF配置的合法性检查功能;NETCONF通道功能 |
3 |
6 |
10 |
nsm-webdm |
设备面板 |
2 |
4 |
4 |
控制组件支持虚拟机部署,安装在VM形态的环境上,由虚拟化环境提供需要的CPU、内存、磁盘等资源。支持的虚拟化平台及版本:
· VMware ESXi:6.7.0
· CAS:H3C_CAS-E0706
虚拟机部署时,如果虚拟化平台服务器开启超线程模式,则要求vCPU的核数是物理机部署时CPU核数的2倍;如果不开启超线程模式,vCPU核数与物理机部署时保持一致,内存和磁盘配置参考物理机部署的配置要求即可。本章节以开启超线程为例。
· 虚拟机安装场景仅支持非云对接场景。
· 分配给虚拟机的CPU、内存和磁盘必须符合推荐容量要求且确保有对应容量的物理资源,禁止启用超配模式(超额分配虚拟机资源),并且需要对虚机做资源预留配置,否则会导致系统环境不稳定。
· 在使用VMware管理的虚拟机上部署控制组件时,需要在虚拟机所在的主机上开启网卡混杂模式和伪传输功能。
· DTN主机支持在虚拟机上部署,部署方式请参考《H3C SeerEngine-DC仿真网络操作指导》。
· vBGP组件不支持在虚拟机上部署。
· 为保证高可靠性,控制组件集群的三个虚拟机节点建议分别位于三个不同的物理主机。
· 在中大规模(Leaf大于30)场景推荐物理机部署。
表2-13 控制组件集群部署(统一数字底盘+控制组件)
节点名称 |
节点配置数量 |
单节点详细配置 |
可支持最大管理规模 |
控制组件节点 |
3 |
· vCPU: ¡ Intel/AMD CPU:开启超线程:32核;不开启超线程:16核。2.0GHz主频 ¡ 海光CPU:开启超线程:48核;不开启超线程:24核。2.0GHz主频 ¡ 鲲鹏CPU:48核。2.0GHz主频 ¡ 飞腾CPU:96核。2.0GHz主频 · 内存:128GB及以上。如需使用仿真功能,DTN组件与控制组件节点融合部署时,部署DTN组件的一台服务器内存需额外增加100GB及以上 · 磁盘: ¡ 系统盘:1.92TB,IOPS至少5000次/s ¡ ETCD盘:50GB,IOPS至少5000次/s · 网口:1*10Gbps ¡ 如果部署3+3灾备集群需要单独增加一个网口 ¡ 如需部署DTN组件,DTN组件与控制组件节点融合部署时,需要额外增加一个网口 |
设备数:36 服务器数量:600 |
DTN组件独立服务器部署 |
1 |
· vCPU: ¡ Intel/AMD CPU:开启超线程:32核;不开启超线程:16核。2.0GHz主频 ¡ 海光CPU:开启超线程:48核;不开启超线程:24核。2.0GHz主频 ¡ 鲲鹏CPU:48核。2.0GHz主频 ¡ 飞腾CPU:96核。2.0GHz主频 · 内存:128GB及以上 · 磁盘: ¡ 系统盘:1.92TB,IOPS至少5000次/s ¡ ETCD盘:50GB,IOPS至少5000次/s · 网口: ¡ 2*10Gbps |
此配置仅适用于DTN组件独立部署在Worker节点上的场景 |
DTN主机 |
1 |
· vCPU: ¡ Intel/AMD CPU:开启超线程:32核;不开启超线程:16核。2.0GHz主频 ¡ 海光CPU:开启超线程:48核;不开启超线程:24核。2.0GHz主频 ¡ 鲲鹏CPU:48核。2.0GHz主频 ¡ 飞腾CPU:96核。2.0GHz主频 · 内存:128GB及以上 · 磁盘: ¡ 系统盘:600GB,IOPS至少5000次/s · 网口: ¡ 3*10Gbps |
- |
说明: 若部署可选应用安装包,请根据表2-12中的信息相应增加对应的硬件配置 |
表2-14 控制组件单机部署(统一数字底盘+控制组件)
节点名称 |
节点配置数量 |
单节点详细配置 |
可支持最大管理规模 |
控制组件节点 |
1 |
· vCPU: ¡ Intel/AMD CPU:开启超线程:32核;不开启超线程:16核。2.0GHz主频 ¡ 海光CPU:开启超线程:48核;不开启超线程:24核。2.0GHz主频 ¡ 鲲鹏CPU:48核。2.0GHz主频 ¡ 飞腾CPU:96核。2.0GHz主频 · 内存:128GB及以上 · 磁盘: ¡ 系统盘:1.92TB,IOPS至少5000次/s ¡ ETCD盘:50GB,IOPS至少5000次/s · 网口: ¡ 1*10Gbps。如需部署DTN组件,需要额外增加一个网口 |
设备数:36 服务器数量:600 |
DTN主机 |
1 |
· vCPU: ¡ Intel/AMD CPU:开启超线程:32核;不开启超线程:16核。2.0GHz主频 ¡ 海光CPU:开启超线程:48核;不开启超线程:24核。2.0GHz主频 ¡ 鲲鹏CPU:48核。2.0GHz主频 ¡ 飞腾CPU:96核。2.0GHz主频 · 内存:128GB及以上 · 磁盘: ¡ 系统盘:600GB,IOPS至少5000次/s · 网口: ¡ 3*10Gbps |
- |
说明: · 若部署可选应用安装包,请根据表2-12中的信息相应增加对应的硬件配置 · 如需使用仿真功能,部署DTN组件的一台服务器内存需额外增加100GB及以上 |
SeerEngine-DC作为控制组件运行在统一数字底盘上,部署SeerEngine-DC前需要先安装统一数字底盘。
用户不需要安装客户端软件,使用浏览器即可访问统一数字底盘。推荐使用的浏览器为Google Chrome 70及以上版本。
安装环境请参考表2-15中所示的各个检测项目,确保安装统一数字底盘的条件已经具备。
检测项 |
检测标准 |
|
服务器 |
硬件检查 |
请检查硬件是否符合要求(包括CPU、内存、硬盘、网口等) 请检查是否支持部署统一数字底盘 |
软件检查 |
请检查系统时间已配置完成,建议配置NTP时间同步,整网使用统一的时钟源同步时间 |
|
客户端 |
请确保浏览器版本符合要求 |
SeerEngine-DC的安装流程如表3-1所示。
步骤 |
具体操作 |
说明 |
服务器准备 |
准备至少3台服务器 |
必选 硬件和软件需求,请参见服务器配置需求 |
部署统一数字底盘 |
部署操作系统和Matrix |
可选 请参见《H3C统一数字底盘部署指导》 |
配置Matrix集群参数 |
||
部署Matrix集群 |
||
部署统一数字底盘 |
||
部署SeerEngine-DC |
必选 |
|
必选 |
||
必选 |
||
可选 |
||
必选 |
||
必选 |
||
部署DTN主机 |
安装操作系统 |
可选 请参见《H3C SeerEngine-DC仿真网络操作指导》 |
配置DTN主机 |
||
在控制组件上部署仿真业务 |
仿真网络预配置 |
可选 请参见《H3C SeerEngine-DC仿真网络操作指导》 |
构建仿真网络 |
||
租户业务仿真 |
||
仿真数据一致性 |
部署SeerEngine-DC前需要先部署统一数字底盘,然后在统一数字底盘中部署控制组件。具体安装步骤请参见《H3C统一数字底盘部署指导》。
需要注意的是,如需在统一数字底盘上运行控制组件,需要参照本章节的内容进行磁盘分区,并部署控制组件所需的所有应用安装包。
请按照“2.1.1 硬件配置需求”中的要求配置磁盘,并使用如下所示的要求进行磁盘分区,请勿使用自动分区。
表4-1 磁盘分区配置信息(2400G分区配置)
磁盘RAID规划 |
分区名称 |
挂载点 |
最小容量 |
备注 |
配置RAID10后的磁盘总容量≥2400GB |
/dev/sda1 |
/boot/efi |
200MiB |
EFI System Partition类型,仅UEFI模式需要配置该分区 |
/dev/sda2 |
/boot |
1024MiB |
- |
|
/dev/sda3 |
/ |
900GiB |
磁盘空间充足时,可适当扩容 |
|
/dev/sda4 |
/var/lib/docker |
460GiB |
磁盘空间充足时,可适当扩容 |
|
/dev/sda6 |
swap |
1024MiB |
swap类型 |
|
/dev/sda7 |
/var/lib/ssdata |
520GiB |
磁盘空间充足时,可适当扩容 |
|
/dev/sda8 |
无 |
300GiB |
为GlusterFS预留,安装操作系统时无需配置 |
|
配置RAID1后的磁盘总容量≥50GB |
/dev/sdb |
/var/lib/etcd |
50GiB |
· 对于E6203前的控制组件版本,配套的统一数字底盘为E0706前(含E06xx)的版本,ETCD分区必须占用一个独立的物理硬盘 · 对于E6203及以上版本,配套的统一数字底盘为E0706及以上版本,ETCD分区可与其他分区共用物理硬盘,从性能角度考虑,推荐ETCD分区占用独立的物理硬盘 |
表4-2 磁盘分区配置信息(1920G分区配置)
磁盘RAID规划 |
分区名称 |
挂载点 |
最小容量 |
备注 |
配置RAID10后的磁盘总容量≥1920GB |
/dev/sda1 |
/boot/efi |
200MiB |
EFI System Partition类型,仅UEFI模式需要配置该分区 |
/dev/sda2 |
/boot |
1024MiB |
- |
|
/dev/sda3 |
/ |
650GiB |
磁盘空间充足时,可适当扩容 |
|
/dev/sda4 |
/var/lib/docker |
410GiB |
磁盘空间充足时,可适当扩容 |
|
/dev/sda6 |
swap |
1024MiB |
swap类型 |
|
/dev/sda7 |
/var/lib/ssdata |
450GiB |
磁盘空间充足时,可适当扩容 |
|
/dev/sda8 |
无 |
220GiB |
为GlusterFS预留,安装操作系统时无需配置 |
|
配置RAID1后的磁盘总容量≥50GB |
/dev/sdb |
/var/lib/etcd |
50GiB |
· 对于E6203前的控制组件版本,配套的统一数字底盘为E0706前(含E06xx)的版本,ETCD分区必须占用一个独立的物理硬盘 · 对于E6203及以上版本,配套的统一数字底盘为E0706及以上版本,ETCD分区可与其他分区共用物理硬盘,从性能角度考虑,推荐ETCD分区占用独立的物理硬盘 |
部署统一数字底盘时,请上传如表4-3所示的应用安装包,支持在x86和ARM架构的服务器上部署,请选择对应架构的应用安装包。具体安装步骤请参见《H3C统一数字底盘部署指导》。
common_PLAT_GlusterFS_2.0、general_PLAT_portal_2.0、general_PLAT_kernel_2.0、general_PLAT_kernel-base_2.0和general_PLAT_oneclickcheck_2.0五个必选应用包必须在部署统一数字底盘时完成部署。部署步骤请参考《H3C统一数字底盘部署指导》中的“部署统一数字底盘应用安装包”章节。
general_PLAT_Dashboard_2.0和general_PLAT_widget_2.0两个必选应用包上传完成后无需手动部署,在部署控制组件时可自动部署。
如需使用general_PLAT_network_2.0、webdm、Syslog和general_PLAT_netconf_2.0可选应用包,需在Matrix页面中手动部署,可选择在部署完控制组件后再部署可选包,也可在部署控制组件前部署可选包。需要注意的是,请确保可选应用包的版本与必选应用包的版本相同,否则可能导致部署失败。部署步骤请参考《H3C统一数字底盘部署指导》中的“部署统一数字底盘应用安装包”章节。
应用安装包名称 |
功能说明 |
· x86:common_PLAT_GlusterFS_2.0_version_x86.zip · ARM:common_PLAT_GlusterFS_2.0_version_arm.zip |
提供产品内本地共享存储功能 |
· x86:general_PLAT_portal_2.0_version_x86.zip · ARM:general_PLAT_portal_2.0_version_arm.zip |
门户、统一认证、用户管理、服务网关、帮助中心 |
· x86:general_PLAT_kernel_2.0_version_x86.zip · ARM:general_PLAT_kernel_2.0_version_arm.zip |
权限、资源身份、License、配置中心、资源组、日志服务 |
· x86:general_PLAT_kernel-base_2.0_version_x86.zip · ARM:general_PLAT_kernel-base_2.0_version_arm.zip |
告警、访问参数模板、监控模板、报表、邮件短信转发服务 |
· x86:general_PLAT_Dashboard_2.0_version_x86.zip · ARM:general_PLAT_Dashboard_2.0_version_arm.zip |
大屏框架 |
· x86:general_PLAT_widget_2.0_version_x86.zip · ARM:general_PLAT_widget_2.0_version_arm.zip |
平台大屏Widget |
· x86:general_PLAT_oneclickcheck_2.0_version_x86.zip · ARM:general_PLAT_oneclickcheck_2.0_version_arm.zip |
一键巡检 |
· x86:general_PLAT_kernel-region_2.0_version_x86.zip · ARM:general_PLAT_kernel-region_2.0_version_arm.zip |
(可选)分级管理。如需使用此功能,必须安装general_PLAT_network_2.0应用包,并与Super Controller配合使用,可以使上级Super Controller具备管理DC站点网管的能力 |
· x86:general_PLAT_network_2.0_version_x86.zip · ARM:general_PLAT_network_2.0_version_arm.zip |
(可选)基础网管(网络资源、网络性能、网络拓扑、iCC)。如需使用方案配套版本检查功能,需要安装此应用 |
· x86:webdm_version_x86.zip · ARM:webdm_version_arm.zip |
(可选)设备面板功能,如需使用此功能,必须先安装general_PLAT_network_2.0应用包 |
· x86:Syslog-version.zip · ARM:Syslog-version_arm.zip |
(可选)Syslog管理(浏览日志、升级告警规则、解析)。如需使用Syslog管理功能,需要安装此应用 |
· x86:general_PLAT_netconf_2.0_version_x86.zip · ARM:general_PLAT_netconf_2.0_version_arm.zip |
(可选)NETCONF通道服务、NETCONF配置的合法性检查服务,如需使用该服务,需要安装此应用 |
若部署可选应用安装包,需要额外增加节点的硬件配置,请根据表2-12增加可选应用安装包对应的硬件配置。
· SeerEngine-DC作为控制组件运行在统一数字底盘上,控制组件的部署、升级和卸载等操作只能在统一数字底盘上进行。
· 部署SeerEngine-DC前请确保所需的应用已部署完成,详情请参见表4-3。
如果服务器使用多个网口接入网络,部署前需要在服务器上启用网口。网口上的配置如下:
(1) 远程登录统一数字底盘所在服务器,在服务器上修改网口配置文件。此处以修改网口ens34的网口配置文件为例。
(2) 打开并编辑网口文件。
[root@node1 /]# vi /etc/sysconfig/network-scripts/ifcfg-ens34
(3) 将网口配置文件中的BOOTPROTO和ONBOOT修改为如下图所示。BOOTPROTO配置为none表示不指定网口的启动协议,ONBOOT配置为yes表示开机自动启用网口连接。
(4) 使用以下命令ifdown和ifup命令重启网口。
[root@node1 /]# ifdown ens34
[root@node1 /]# ifup ens34
(5) 使用ifconfig命令查看网络信息。若网口状态为UP则表示网口启用成功。
组网中包含以下类型的网络:Calico网络和MACVLAN网络。
· Calico网络
Calico是一个开源的网络和网络安全解决方案,适用于容器、虚拟机和基于主机的本地工作负载。Calico网络为容器间交互所使用的网络,为内部使用。Calico网络所使用的网段为部署Matrix集群时设置的容器IP地址池,默认为177.177.0.0,安装部署组件时无需再配置地址池给Calico网络使用。Calico网络和MACVLAN网络可复用同一个网口。
· MACVLAN网络
MACVLAN网络用来作为管理网络。MACVLAN虚拟网络技术可以实现一个物理网口绑定多个IP和多个MAC地址的功能。一些应用程序,尤其是遗留应用程序或监控网络流量的应用程序,希望直接连接到物理网络。在这种情况下,可以使用MACVLAN网络驱动程序为每个容器的虚拟网络接口分配一个MAC地址,使其看起来是一个直接连接到物理网络的物理网络接口。物理网口需要能够处理“混杂模式”,即一个物理接口可以分配多个MAC地址。
不同组件和应用场景使用的管理网络类型不同,部署前需要提前规划网络地址池。
表5-1 非异地灾备场景下各组件使用的网络类型和数量
组件名称 |
网络类型 |
网络数量 |
说明 |
|
SeerEngine-DC |
MACVLAN(管理网络) |
1 |
- |
|
vBGP |
管理和业务网络合一 |
MACVLAN(管理网络) |
1*vBGP集群个数 |
· 既用于vBGP和SeerEngine-DC之间的互通,又用于承载业务流量 · 多vBGP集群不复用网络 |
管理和业务网络分离 |
MACVLAN(管理网络) |
1*vBGP集群个数 |
· 仅用于vBGP和SeerEngine-DC之间的互通 · 多vBGP集群不复用网络 |
|
MACVLAN(业务网络) |
1*vBGP集群个数 |
· 仅用于承载业务流量 · 多vBGP集群不复用网络 |
||
DTN(Digital-Twin-Network) |
MACVLAN(仿真管理网络) |
1 |
用于仿真功能,请单独配置一个网口 |
图5-1 非异地灾备下的云数据中心场景(仅部署vBGP且管理和业务网络合一)
· SeerEngine-DC管理网络与vBGP管理网络属于不同的网段,需要在连接对应网口的交换机上配置路由表项,实现SeerEngine-DC管理网络与vBGP管理网络的三层互通。
· DTN不支持异地灾备。
· 如果控制组件管理网络和仿真管理网络使用同一台管理网交换机,需要配置VPN Instance隔离;如果控制组件管理网络和仿真管理网络使用不同的管理网交换机,则交换机间需要进行物理隔离。
· 仿真管理IP和仿真设备管理IP需路由可达。
MACVLAN网络子网中的IP地址个数建议按照如下表格计算。
表5-2 非异地灾备场景下子网IP地址池地址个数规划
组件名称 |
网络类型 |
最大集群成员个数 |
默认集群成员个数 |
IP地址计算方式 |
说明 |
|
SeerEngine-DC |
MACVLAN(管理网络) |
32 |
3 |
1*集群成员个数+1(集群IP) |
- |
|
vBGP |
管理和业务网络合一 |
MACVLAN(管理网络) |
2 |
2 |
vBGP集群个数*集群成员个数+vBGP集群个数(集群IP) |
多vBGP集群不复用网络 |
管理和业务网络分离 |
MACVLAN(管理网络) |
2 |
2 |
vBGP集群个数*集群成员个数 |
多vBGP集群不复用网络 |
|
MACVLAN(业务网络) |
2 |
2 |
vBGP集群个数*集群成员个数+vBGP集群个数(集群IP) |
多vBGP集群不复用网络 |
||
DTN |
MACVLAN(仿真管理网络) |
1 |
1 |
单节点部署,仅需1个集群IP |
单独网口 DTN主机节点的管理IP地址分配请参见《H3C SeerEngine-DC仿真网络操作指导》 |
以vBGP单集群模式下,vBGP管理和业务网络合一为例,非异地灾备场景下具体的IP地址规划可参考表5-3。
表5-3 非异地灾备场景的IP地址规划
组件名称 |
网络类型 |
IP地址 |
说明 |
SeerEngine-DC |
MACVLAN(管理网络) |
子网网段:192.168.12.0/24(网关为192.168.12.1) |
- |
网络地址池:192.168.12.101~192.168.12.132 |
|||
vBGP |
MACVLAN(管理网络) |
子网网段:192.168.13.0/24(网关为192.168.13.1) |
管理和业务网络合一 |
网络地址池:192.168.13.101~192.168.13.132 |
|||
DTN |
MACVLAN(仿真管理网络) |
子网网段:192.168.12.0/24(网关为192.168.12.1) |
单独网口 DTN主机节点的管理IP地址分配请参见《H3C SeerEngine-DC仿真网络操作指导》 |
网络地址池:192.168.12.133~192.168.12.133 |
登录统一数字底盘页面,单击[系统>部署管理]菜单项,进入部署管理页面。
(1) 获取SeerEngine-DC安装包,安装包名称格式如表5-4所示,其中version为版本号。请根据服务器架构选择相应的安装包。
组件名称 |
组件安装包名称 |
说明 |
SeerEngine-DC |
· x86:SeerEngine_DC-version-MATRIX.zip · ARM:SeerEngine_DC-version-ARM64.zip |
必选 |
vBGP |
· x86:vBGP-version.zip · ARM:vBGP-version-ARM64.zip |
可选 |
DTN |
· x86:SeerEngine_DC_DTN-version.zip · ARM:SeerEngine_DC_DTN-version-ARM64.zip |
可选,用于仿真功能 |
· 部分控制组件版本可能仅发布x86或ARM安装包,具体请以版本发布文件为准。
· DTN组件的版本必须与SeerEngine-DC保持一致。
· ARM服务器不支持多vBGP集群。
(2) 单击<上传>按钮,在弹出的对话框中单击<选择文件>按钮,选择组件安装包,再单击<上传>按钮将组件安装包上传到系统。上传完成后,单击<下一步>按钮,进入组件选择页面。
图5-3 上传安装包
勾选“云数据中心“选框,再勾选“DC控制组件”,如需同时部署vBGP组件,请选中“vBGP”勾选框;如需同时部署DTN组件,请选中“业务仿真”勾选框。本例以部署vBGP且选择管理和业务网络合一,部署DTN组件为例。单击<下一步>按钮进入网络配置页面。
禁止在Matrix的集群部署页面中直接删除已部署DTN组件的Worker节点,否则将会导致仿真功能异常。
图5-4 组件选择
按照章节“5.1.2 网络规划”中的网络规划,配置各MACVLAN网络,关联上行口。
若使用仿真功能,需要为DTN组件配置一个单独的MACVLAN网络,该网络子网地址池中至少包含1个IP地址。标配下,DTN组件仅支持独占一台Worker节点的服务器;高配下,DTN组件支持独占一台Worker节点的服务器,或者与控制组件一台服务器的Master节点融合部署。本例以在高配服务器的Worker节点上部署DTN组件为例,指定相应的上行口,并删除其他节点。
图5-5 控制组件的MACVLAN网络配置
图5-6 DTN组件的MACVLAN网络配置
存在多台主机时,DTN组件仅支持选择一台服务器,具体选择标准为:
· 标配下,DTN组件独占一台Worker节点服务器。
· 高配下,DTN组件独占一台Worker节点的服务器,或者与控制组件一台服务器的Master节点融合部署。
图5-7 vBGP组件的MACVLAN网络配置
若需要同时部署数据中心控制组件与其他对服务器资源要求较高的组件,例如数据中心分析组件,可以选择在节点绑定页面开启节点绑定功能,将不同的组件分别绑定至不同节点,以便更好地利用服务器资源。
开启节点绑定功能后,需要至少选择三个Master节点,用于限制微服务Pod运行的节点范围。
图5-8 节点绑定页面
在网络绑定页面,将网络和子网绑定到不同组件,使用子网IP地址池为组件分配IP地址,并需要为业务仿真网络指定网络节点。配置完成后,单击<下一步>按钮,进入参数确认页面。
图5-9 网络绑定页面(云数据中心)
图5-10 网络绑定页面(vBGP)
(1) 在参数确认页面,可查看为各组件规划的网络信息,配置VRRP备份组号。
¡ 组件的IP地址自动从绑定的子网IP地址池中分配,如需修改,可在此页面单击<修改>按钮,手动修改系统分配的IP地址。输入的IP地址必须在组件绑定的网络中的子网网段范围内。
¡ 部署vBGP需要手动输入VRRP备份组号,取值范围为1~255,同一个网络中不能配置相同的VRRP备份组号。
图5-11 参数确认(SeerEngine-DC)
图5-12 参数确认(DTN)
图5-13 参数确认(vBGP)
(2) 确认无误后,单击<部署>按钮,开始部署。页面上将展示部署进度。如图5-14所示。
general_PLAT_kernel-base_2.0、general_PLAT_Dashboard_2.0和general_PLAT_widget_2.0三个必选应用包上传完成后无需手动部署,部署SeerEngine-DC时可自动部署。
SeerEngine-DC部署完成后将在统一数字底盘中加载对应菜单项,登录统一数字底盘即可使用SeerEngine功能。
统一数字底盘提供友好的GUI界面。具体登录方式如下:
(1) 在浏览器中输入统一数字底盘登录地址(默认登录地址:http://ip_address:30000/central/index.html),回车后会进入如图6-1所示登录界面。
¡ ip_address:为统一数字底盘所在的集群北向业务虚IP地址。
¡ 30000为端口号。
(2) 输入用户名密码登录统一数字底盘,缺省用户名为admin,密码为Pwd@12345。登录成功后进入主页面。
图6-2 统一数字底盘主页面
SeerEngine-DC安装完成后,可180天内试用所有功能,超过试用期限后,需要获取License授权才能正常使用。
关于授权的申请和安装过程,请参见《H3C软件产品远程授权License使用指南》。
在License Server上安装产品的授权后,只需在产品的License管理页面与License Server建立连接即可获取授权,操作步骤如下:
(1) 登录统一数字底盘,单击[系统>License管理>License信息]菜单项,进入License信息管理页面。
(2) 在页面中配置License Server信息的参数。各参数介绍请参见表7-1。
参数 |
说明 |
IP地址 |
安装License Server的服务器上用于SeerEngine-DC集群内各节点之间通信的IP地址 |
端口号 |
此处缺省值为“5555”,与License Server授权服务端口号保持一致 |
客户端名称 |
License Server中设置的客户端名称 |
客户端密码 |
License Server中设置的客户端名称对应的密码 |
(3) 配置完成后,单击<连接>按钮与License Server建立连接,连接成功后SeerEngine-DC可自动获取授权信息。
本章节介绍控制组件的升级及卸载步骤,统一数字底盘的升级及卸载步骤请参见《H3C统一数字底盘部署指导》。
· 升级DTN组件后,请核对仿真镜像版本,如有更新请同步升级。
· 若控制组件和DTN组件均需要升级,请先升级DC,再升级DTN。升级后的DTN版本与DC版本必须保持一致。
· 灾备系统创建后,对统一数字底盘、组件进行扩容或升级前,需先将倒换模式切换为手动倒换模式。
· 灾备系统创建后,不支持同时在主备站点升级组件,请先升级其中一个站点的组件,等待数据同步状态恢复正常后,再升级另一个站点的组件。
· 升级DTN组件后,可能会出现由于早期版本页面缓存问题导致的构建仿真网络界面显示异常,此时请清理浏览器缓存后重新登录即可。
· DTN组件由E6102及以前的版本升级到E6103及以后的版本时,DTN主机须重新安装操作系统并配置DTN主机,安装操作系统以及配置DTN主机步骤请参考《H3C SeerEngine-DC仿真网络操作指导》,升级后需要将仿真网络中原主机删除后重新纳管。
· DTN组件由E6202及以前的版本升级到E6203及以后的版本后,请卸载DTN主机后重新配置该主机,卸载DTN主机以及配置DTN主机步骤请参考《H3C SeerEngine-DC仿真网络操作指导》,升级后需要将仿真网络中原主机删除后重新纳管。
· DTN组件由E6302及以前的版本升级到E6302及以后的版本后,需删除所有Fabric的仿真网络,再重新构建。
在统一数字底盘上支持对组件进行保留配置升级。升级组件可能会导致业务中断,请谨慎操作。
升级步骤如下:
(1) 登录统一数字底盘,单击[系统>部署管理]菜单项,进入部署管理页面。
图9-1 部署管理页面
(2) 单击组件左侧的按钮,展开组件信息,可以分别对SeerEngine-DC和DTN进行升级。
¡ 若此时组件已支持异地灾备功能,则进入升级页面。
¡ 若此时主站点的组件未支持异地灾备功能,不勾选“支持异地灾备系统”选项可进入普通升级;勾选“支持异地灾备系统”选项可将组件升级至支持灾备系统,具体升级流程请参见“11.7 升级至支持灾备系统”。
本例以组件未支持异地灾备下的普通升级为例。
(2) 上传安装包,勾选待部署的安装包。
(3) 选择是否开启“增加节点绑定”。其中,在组件部署时已绑定的节点不支持修改和删除,如图9-2所示。
(4) 单击<升级>按钮,完成组件升级。
(5) 若组件升级失败,单击<回滚>按钮,可将组件回退到升级之前的版本。
(2) 上传安装包,并勾选待部署的安装包。
(3) 单击<升级>按钮,完成DTN组件的升级操作。
(4) 若组件升级失败,单击<回滚>按钮,可将组件回退到升级之前的版本。
· 无法通过热补丁升级将SeerEngine-DC升级至支持异地灾备系统。
· 灾备系统创建后,对组件进行热补丁升级前,需先将倒换模式切换为手动倒换模式。
· 灾备系统创建后,不支持同时在主备站点热补丁升级组件,请先升级其中一个站点的组件,等待数据同步状态恢复正常后,再升级另一个站点的组件。
在统一数字底盘上支持对控制组件进行保留配置补丁升级。补丁升级可能会导致控制组件业务中断,请谨慎操作。
升级步骤如下:
(1) 登录统一数字底盘,单击[系统>部署管理]菜单项,进入部署管理页面。
图9-3 部署管理页面
(2) 单击组件左侧的按钮,展开组件信息,可以对SeerEngine-DC进行热补丁升级。
(1) 单击SeerEngine-DC的按钮,进入热补丁升级页面。
(2) 上传补丁包,并勾选待部署的补丁包,单击<升级>按钮完成组件的补丁升级。
图9-4 热补丁升级页面
(3) 如热补丁升级失败,单击<回滚>按钮,可将组件回退到升级之前的版本;或者单击<终止升级>按钮,结束本次升级。
若卸载SeerEngine-DC,则会同时卸载DTN组件,具体操作如下:
(1) 登录统一数字底盘,单击[系统>部署管理]菜单项,进入部署管理页面。
(2) 勾选待卸载组件左侧的复选框,单击<卸载>按钮,卸载指定的组件。
图9-5 卸载组件
DTN组件支持单独卸载,即卸载DTN组件的同时不会卸载SeerEngine-DC,具体操作如下:
(1) 登录统一数字底盘,单击[系统>部署管理]菜单项,进入部署管理页面。
(2) 勾选DTN组件左侧的复选框,单击<卸载>按钮,卸载指定的组件。
图9-6 卸载DTN组件
卸载SeerEngine-DC热补丁的具体操作如下:
(1) 登录统一数字底盘,单击[系统>部署管理]菜单项,进入部署管理页面。
(2) 勾选待卸载热补丁左侧的复选框,单击<卸载>按钮,卸载指定的热补丁。
图9-7 卸载热补丁
SeerEngine-DC扩容有以下两种情况:
· 单机部署模式扩容为集群部署模式
· 集群模式扩容
SeerEngine-DC支持通过删除集群中的Worker节点进行缩容。
此种模式下,需在Matrix上同时增加两个Master节点并与原Master节点组成三机集群,然后依次扩容统一数字底盘和SeerEngine-DC。
具体配置步骤请参见《H3C统一数字底盘部署指导》。
具体配置步骤请参见《H3C统一数字底盘部署指导》。
(1) 登录统一数字底盘,单击[系统>部署管理]菜单项,进入部署管理页面。
图10-1 部署管理页面
(2) 单击<网络配置>按钮,对SeerEngine-DC的MACVLAN网络(管理网络)进行修改。在MACVLAN网络(管理网络)的主机区域,单击<增加>按钮,在列表中选择需要扩容的主机,完成网络和主机上行口的关联。
图10-2 SeerEngine-DC的MACVLAN网络(管理网络)
图10-3 主机区域
图10-4 关联网络和主机上行口
(3) 单击<应用>按钮完成网络配置。
(1) 单击[系统>部署管理]菜单项,进入部署管理页面,选择需要扩容的SeerEngine-DC,单击操作区段的按钮,进入扩容页面。
(2) 确认扩容主机绑定的网络名称、子网名称和上行口是否正确,单击<确定>按钮保存配置。
(3) 在主机信息区域,单击<扩容>按钮,进行组件的扩容操作。
图10-5 主机信息
此种模式下,一次仅可扩容一个Worker节点,需在Matrix上先增加Worker节点,部署集群,然后扩容SeerEngine-DC。
(1) 扩容SeerEngine-DC前需确保统一数字底盘Matrix集群中已添加Worker节点,具体步骤请参见《H3C统一数字底盘部署指导》。
(2) 登录统一数字底盘,单击[系统>部署管理]菜单项,进入部署管理页面。
图10-6 部署管理页面
(3) 单击<网络配置>按钮,对SeerEngine-DC的MACVLAN网络进行修改。在主机区域单击<增加>按钮,选择需要扩容的主机,完成网络和主机上行口的关联。单击<应用>按钮。
(4) 登录统一数字底盘,单击[系统>部署管理]菜单项,进入部署管理页面,选择需要扩容的SeerEngine-DC,单击操作区段的按钮,进入扩容页面。
图10-7 部署管理页面
(5) 选择需要扩容的主机,确认扩容主机绑定的网络名称、子网名称和上行口是否正确。单击<确定>按钮保存配置。
图10-8 选择需要扩容的主机
(6) 在主机信息区域,单击<扩容>按钮,进行组件的扩容操作。由于一次仅可扩容一个Worker节点,若有多个Worker节点需要扩容,在上个Worker节点扩容完成后,需重新进入在主机信息区域,单击<扩容>按钮,对剩余Worker节点进行依次扩容。
图10-9 主机信息区域
可通过删除集群中的Worker节点进行集群缩容。
只有由集群扩容生成的主机,才可以被卸载。
(1) 登录统一数字底盘,单击[系统>部署管理]菜单项,进入部署管理页面,选择需要缩容的组件,单击操作区段的按钮,进入扩容页面。
(2) 在主机信息区域,单击主机名称右侧的按钮,在弹出的对话框中单击<确认>按钮,可卸载扩容的主机。卸载已部署的容器可能会影响业务,请先进行备份然后再卸载。
图10-10 主机信息区域
图10-11 备份提示
单击[系统>部署管理]菜单项,进入部署管理页面,单击页面右上角的<网络配置>按钮,进入网络配置页面。在该页面,删除待卸载Worker节点上主机和上行口的绑定关系。
(1) 登录Matrix页面。单击[部署/集群]菜单项,进入集群部署页面。
本功能用于配置SeerEngine-DC异地灾备。异地灾备系统是指处于异地的两个站点之间做主备灾备。异地灾备系统正常运行时,对外提供服务站点的数据实时向对端站点同步,确保两站点间的数据一致。用户可通过界面操作配置手动或者带仲裁的自动倒换,当对外提供服务的站点出现故障时,例如整站点断电、站点网络故障、站点和外界相连的链路故障,故障站点的业务可被另一个站点接管,保持业务连续性,减少损失。
· 手动模式:灾备系统不会自动监测主站点和备站点上的组件状态,由用户控制和指定组件在站点上的主用或备用状态,可以通过接管和降备功能,切换组件在站点上主用或备用状态。使用手动模式时,需要在主备站点上各部署一套相同版本的统一数字底盘。
· 带仲裁的自动倒换模式:灾备系统会自动监测组件状态,若站点的组件或统一数字底盘发生故障,例如站点断电、网络故障等,灾备系统会通过仲裁服务,自动切换组件在不同站点上的状态。该模式下,支持用户进行手动切换。使用带仲裁的自动倒换模式需要在主备站点上各部署一套相同版本的统一数字底盘,同时再单独部署仲裁服务作为第三方站点。仲裁服务支持两种部署方式:独立部署和合并部署。
¡ 独立部署:采用一台独立物理服务器部署仲裁服务。
¡ 合并部署:复用主备站点中的某台服务器部署仲裁服务。
推荐使用独立部署方式,如果采用合并部署方式,当仲裁服务所在服务器发生故障时,仲裁服务可能同时失效,无法进行自动倒换,需要切换至手动倒换模式。
本章节以独立部署仲裁服务为例,具体配置流程如下。
(1) 部署主备站点。
(2) 部署灾备组件。
(3) 部署仲裁服务。
(4) 创建灾备系统。
· 若需要使用vBGP,主备站点的vBGP集群个数、MACVLAN类型的网络方案均需要保持一致。
· 异地灾备场景下,若使用Underlay自动化部署业务,在管理交换机上配置DHCP中继时,需要同时指定主站点和备站点的控制组件集群IP作为中继服务器。
· 使用异地灾备功能时,需保证主备站点的灾备网络和控制组件IP地址均不同。
表11-1 异地灾备场景下各组件使用的网络类型和数量
站点名称 |
组件名称 |
网络类型 |
网络数量 |
说明 |
|
主/备站点 |
SeerEngine-DC |
MACVLAN(管理网络) |
1 |
/ |
|
MACVLAN(灾备网络) |
1 |
· 用于主备站点之间的数据同步,承载数据实时同步的流量 · 确保主备站点的异地灾备网络可以互通 · 推荐单独使用一个网口 |
|||
vBGP |
管理和业务网络合一 |
MACVLAN(管理网络) |
1*vBGP集群个数 |
· 既用于vBGP和SeerEngine-DC之间的互通,又用于承载业务流量 · 多vBGP集群不复用网络 |
|
管理和业务网络分离 |
MACVLAN(管理网络) |
1*vBGP集群个数 |
· 仅用于vBGP和SeerEngine-DC之间的互通 · 多vBGP集群不复用网络 |
||
MACVLAN(业务网络) |
1*vBGP集群个数 |
· 用于承载业务流量 · 多vBGP集群不复用网络 |
图11-1 异地灾备下的云数据中心场景(部署vBGP)
表11-2 异地灾备场景下子网IP地址池地址个数规划
站点 |
组件名称 |
网络类型 |
最大集群成员个数 |
默认集群成员个数 |
IP地址计算方式 |
说明 |
|
主/备站点 |
SeerEngine-DC |
MACVLAN(管理网络) |
32 |
3 |
1*集群成员个数+1(集群IP) |
- |
|
MACVLAN(灾备网络) |
32 |
3 |
1*集群成员个数 |
单独网口 |
|||
vBGP |
管理和业务网络合一 |
MACVLAN(管理网络) |
2 |
2 |
vBGP集群个数*集群成员个数+vBGP集群个数(集群IP) |
多vBGP集群不复用网络 |
|
管理和业务网络分离 |
MACVLAN(管理网络) |
2 |
2 |
vBGP集群个数*集群成员个数 |
多vBGP集群不复用网络 |
||
MACVLAN(业务网络) |
2 |
2 |
vBGP集群个数*集群成员个数+vBGP集群个数(集群IP) |
多vBGP集群不复用网络 |
以vBGP单集群模式下,vBGP管理和业务网络合一为例,异地灾备场景下具体的IP地址规划可参考表11-3。
表11-3 异地灾备场景的IP地址规划
站点 |
组件名称 |
网络类型 |
IP地址 |
说明 |
主站点 |
SeerEngine-DC |
MACVLAN(管理网络) |
子网网段:192.168.12.0/24(网关为192.168.12.1) |
主备站点的灾备网络和DC组件IP地址均不同 |
网络地址池:192.168.12.101~192.168.12.132 |
||||
MACVLAN(灾备网络) |
子网网段:192.168.16.0/24(网关为192.168.16.1) |
推荐单独网口 |
||
网络地址池:192.168.16.101~192.168.16.132 |
||||
vBGP |
MACVLAN(管理网络) |
子网网段:192.168.13.0/24(网关为192.168.13.1) |
- |
|
网络地址池:192.168.13.101~192.168.13.132 |
||||
备站点 |
SeerEngine-DC |
MACVLAN(管理网络) |
子网网段:192.168.12.0/24(网关为192.168.12.1) |
主备站点的灾备网络和控制组件IP地址均不同 |
网络地址池:192.168.12.133~192.168.12.164 |
||||
MACVLAN(灾备网络) |
子网网段:192.168.16.0/24(网关为192.168.16.1) |
推荐单独网口 |
||
网络地址池:192.168.16.133~192.168.16.164 |
||||
vBGP |
MACVLAN(管理网络) |
子网网段:192.168.13.0/24(网关为192.168.13.1) |
- |
|
网络地址池:192.168.13.133~192.168.13.164 |
· 主备站点的统一数字底盘版本需要一致,并配置相同的HTTP或HTTPS传输协议。
· 异地灾备功能不支持主备站点使用不同的IP版本。
· 若在异地灾备场景下使用用户白名单功能,需保证在主站点上添加备站点所有节点的IP地址,在备站点上添加主站点所有节点的IP地址。
主备站点上部署相同版本的统一数字底盘,步骤如下。
(1) 在主备站点上部署Matrix。配置过程请参见《H3C统一数字底盘部署指导》。
(2) 在主备站点上部署统一数字底盘。配置过程请参见《H3C统一数字底盘部署指导》。主备站点需要配置相同的外置NTP服务器。
若指定备站点上已安装的组件未支持异地灾备功能或容灾关系不是备用,请先卸载后再安装。
登录统一数字底盘页面,单击[系统>部署管理]菜单项,进入部署管理页面。
(1) 获取SeerEngine-DC安装包,主备站点上需部署相同版本的SeerEngine-DC,且SeerEngine-DC安装包名称必须完全相同。
(2) 单击<上传>按钮,将控制组件安装包上传到系统。上传完成后,单击<下一步>按钮,解析安装包并进入组件选择页面。
勾选“云数据中心“和“DC控制组件”选框,并选中“支持异地灾备系统”选项。如需同时部署vBGP组件,请选中“vBGP”勾选框。本例以部署vBGP且选择管理和业务网络合一,同时支持异地灾备功能为例。单击<下一步>按钮进入网络配置页面。
图11-2 组件选择
按照章节“11.2 异地灾备场景的网络规划”中的网络规划,在主备站点上分别配置各组件所需的网络,关联上行口。要求如下:
· 单独配置一个MACVLAN类型网络作为异地灾备网络。
· 若部署vBGP,需另外配置一个MACVLAN网络,且主备站点的网络方案需保持一致。
本例以主站点的网络配置为例。
图11-3 控制组件的MACVLAN网络配置
图11-4 异地灾备网络配置
图11-5 vBGP的MACVLAN网络配置
若需要同时部署数据中心控制组件与其他对服务器资源要求较高的组件,例如数据中心分析组件,可以选择在节点绑定页面开启节点绑定功能,将不同的组件分别绑定至不同节点,以便更好地利用服务器资源。
开启节点绑定功能后,需要至少选择三个Master节点,用于限制微服务Pod运行的节点范围。
在网络绑定页面,将网络和子网绑定到不同组件,使用子网IP地址池为组件分配IP地址。配置完成后,单击<下一步>按钮,进入参数确认页面。
图11-6 网络绑定页面
(1) 在参数确认页面,可查看为各组件规划的网络信息,选择容灾关系和配置VRRP备份组号。
¡ 组件的IP地址自动从绑定的子网IP地址池中分配,如需修改,可在此页面单击<修改>按钮,手动修改系统分配的IP地址。输入的IP地址必须在组件绑定的网络中的子网网段范围内。
¡ 组件支持异地灾备系统后,需配置组件的容灾关系。主站点的组件容灾关系需选择“主用”,备站点的组件容灾关系需选择“备用”。本例以容灾关系选择“主用”为例。
¡ 部署vBGP需要手动输入VRRP备份组号,取值范围为1~255,同一个网络中不能配置相同的VRRP备份组号。
(2) 确认无误后,单击<部署>按钮,开始部署。页面上将展示部署进度。如图5-14所示。
图11-7 组件部署中
表11-4 仲裁服务器部署(x86-64(Intel64/AMD64)架构)
节点名称 |
节点配置数量 |
单节点详细配置 |
仲裁服务节点 |
1 |
· CPU:2核,2.0GHz主频 · 内存:16GB及以上 · 磁盘:需要配置RAID,RAID模式可选RAID1、RAID5、RAID10。以下配置任选其一 · 磁盘配置1: ¡ 系统盘:2*480GB SSD,RAID1(RAID配置后的磁盘总容量需大于等于256GB) ¡ ETCD盘:2*480GB SSD,RAID1(RAID配置后的磁盘总容量需大于等于50GB),安装路径:/var/lib/etcd · 磁盘配置2: ¡ 系统盘:2*600GB HDD,RAID1(RAID配置后的磁盘总容量需大于等于256GB),7.2K RPM 以上机械硬盘,IOPS至少5000次/s ¡ ETCD盘:2*600GB HDD,RAID1(RAID配置后的磁盘总容量需大于等于50GB),7.2K RPM 以上机械硬盘,安装路径:/var/lib/etcd ¡ RAID卡1GB Cache,支持数据掉电保护且超级电容必须在位 · 网口:1*10Gbps及以上带宽 |
表11-5 仲裁服务器部署(国产化服务器)
节点名称 |
节点配置数量 |
单节点详细配置 |
仲裁服务节点 |
1 |
CPU:可选配置如下: · 32核,2*(Hygon G5 5380 16核,2.5GHz主频) · 48核,2*(Kunpeng 920 24核 2.6GHz主频) · 128核,2*(飞腾 S2500 64核2.1GHz主频) 内存:16GB及以上 磁盘:需要配置RAID,RAID模式可选RAID1、RAID10。以下配置任选其一 磁盘配置1: · 系统盘:2*480GB SSD,RAID1(RAID配置后的磁盘总容量需大于等于256GB),IOPS至少5000次/s · ETCD盘:2*480GB SSD,RAID1(RAID配置后的磁盘总容量需大于等于50GB),安装路径:/var/lib/etcd 磁盘配置2: · 系统盘:2*600GB HDD,RAID1(RAID配置后的磁盘总容量需大于等于256GB),7.2K RPM 以上机械硬盘,IOPS至少5000次/s · ETCD盘:2*600GB HDD,RAID1(RAID配置后的磁盘总容量需大于等于50GB),7.2K RPM 以上机械硬盘,安装路径:/var/lib/etcd · RAID卡1GB Cache,支持数据掉电保护且超级电容必须在位 网口:1*10Gbps及以上带宽 |
推荐仲裁服务部署在H3Linux系统上。
· 第三方站点的应用包版本需要与主备站点的统一数字底盘版本配套。
· 部署完成后,请勿修改系统时间,否则可能导致服务异常。
· 安装完成后,请勿使用ifconfig命令对网口进行操作,否则可能导致默认路由丢失,影响仲裁服务部署与正常运行,推荐使用ifup和ifdown命令。
· 若节点上需要使用多个网口,请确保部署前除仲裁服务节点IP所在网口外的其他网口均为Down状态,若网口为UP状态,请使用ifdown命令关闭。
安装环境请参考表11-6中所示的各个检测项,确保安装仲裁服务的条件已经具备。
检测项 |
检测标准 |
|
服务器 |
硬件检查 |
请检查硬件是否符合要求(包括CPU、内存、硬盘、网口等) |
软件检查 |
请检查如下几点: · 操作系统版本符合要求 · 系统时间已配置完成,建议配置NTP时间同步,整网使用统一的时钟源同步时间 · IP地址等网络配置已完成 |
|
服务器系统中是否安装过仲裁服务 |
如果系统中安装过仲裁服务,需要卸载后才能再次安装 |
|
网口 |
单独使用一个网口,不允许在此网口上配置子接口及子IP |
|
IP地址 |
仲裁服务节点其他网口上的IP地址不允许和本节点仲裁服务使用的IP地址相同网段 |
|
时区 |
请确保仲裁服务和主备站点的系统时区必须相同(可使用命令timedatectl查看各节点的系统时区),否则可能导致仲裁服务异常 |
|
电源 |
在部署和运行过程中,不允许进行节点重启、主机强制断电、虚拟机重置(例如Vmware重置)等操作,否则将会导致文件系统出现不可逆的损坏(比如docker.service、etcd.service、chrony.conf等组件的配置文件损坏),最终导致集群异常 |
获取软件安装包,并将软件包拷贝至服务器的待安装目录下,或使用FTP等文件传输协议将软件包上传到指定目录。安装包的名称格式为SeerEngine_DC_ARBITRATOR-version.zip(x86)和SeerEngine_DC_ARBITRATOR-version-ARM64.zip(ARM),其中version为安装包版本号。请根据服务器架构选择对应的安装包。部分控制组件版本可能仅发布x86或ARM仲裁服务安装包,具体请以版本发布文件为准。
如果需要使用FTP、TFTP协议上传下载,请选择binary模式(二进制模式)传输,以免损坏软件包。
当前系统支持使用root用户和非root用户安装仲裁服务,推荐使用root用户进行安装。若使用非root用户安装软件包,则需在root用户下通过visudo命令修改配置文件,并在配置文件结尾处添加如下配置项为该用户添加安装权限,其中username表示当前用户名,具体配置如下:
[root@rdr01 ~]# visudo
<username> ALL=(root) NOPASSWD:/bin/bash
本文将以root用户安装为例进行说明。非root用户执行安装时需要使用sudo ./install.sh命令。
(1) 进入仲裁服务安装包(.zip文件)的存放路径,安装仲裁服务。下面进行安装。
[root@rdr01 ~]# unzip SeerEngine_DC_ARBITRATOR-E3611.zip
[root@rdr01 ~]# cd SeerEngine_DC_ARBITRATOR-E3611/
[root@rdr01 SeerEngine_DC_ARBITRATOR-E3611]# ./install.sh
Installing...
2021-03-04 16:42:52 [info] -----------------------------------
2021-03-04 16:42:52 [info] SeerEngine_DC_ARBITRATOR-E3611
2021-03-04 16:42:52 [info] H3Linux Release 1.1.2
2021-03-04 16:42:52 [info] Linux 3.10.0-957.27.2.el7.x86_64
2021-03-04 16:42:52 [info] -----------------------------------
2021-03-04 16:42:53 [warn] To avoid unknown error, do not interrupt this installation procedure.
2021-03-04 16:42:57 [info] Checking environment...
2021-03-04 16:42:57 [info] Decompressing rdrArbitrator package...
Complete!
(2) 验证仲裁服务节点是否安装成功。若安装成功,则查询结果如下。
[root@rdr01 SeerEngine_DC_ARBITRATOR-E3611]# jps |grep rdr
19761 rdrs3rd-1.0.0.jar
[root@rdr01 SeerEngine_DC_ARBITRATOR-E3611]# docker ps |grep etcd
31b40e2d521d rdr-arbitrator/etcd3rd:1.0.0 "/entrypoint.sh" 5 minutes ago Up 5 minutes etcd3rd
如果需要卸载仲裁服务,请按照以下步骤进行操作。
(1) 进入待卸载仲裁服务所在的服务器,输入如下命令进行卸载操作。
[root@rdr01 ~]# cd SeerEngine_DC_ARBITRATOR-E3611 //该目录是安装时解压仲裁服务的目录
[root@rdr01 SeerEngine_DC_ARBITRATOR-E3611]# ./uninstall.sh
Unistalling…
Unintalling...
2021-03-04 16:50:09 [info] Stopping rdrArbitrator service...
2021-03-04 16:50:09 [info] stop container 31b40e2d521d in docker daemon
2021-03-04 16:50:20 [info] stop container 31b40e2d521d in docker daemon success
2021-03-04 16:50:20 [info] Deleting image rdr-arbitrator/etcd3rd:1.0.0 in docker daemon
2021-03-04 16:50:20 [info] Delete image rdr-arbitrator/etcd3rd:1.0.0 in docker daemon success
2021-03-04 16:50:20 [info] Deleting rdrArbitrator dir...
Complete!
(2) 验证仲裁服务是否卸载成功。
[root@rdr01 SeerEngine_DC_ARBITRATOR-E3611]# jps |grep rdr
[root@rdr01 SeerEngine_DC_ARBITRATOR-E3611]# docker ps |grep etcd
升级前需要将灾备系统的倒换模式切换为手动模式。
仲裁服务支持先卸载后升级,即先卸载当前版本的仲裁服务,然后上传新的安装包重新部署即可。
具体升级步骤如下:
(1) 登录灾备系统的主用站点,将倒换模式切换为手动模式。
图11-8 灾备系统页面的倒换模式
(2) 进入仲裁服务节点所在操作系统的命令行界面,卸载仲裁服务。具体卸载步骤请参考“11.5.3 卸载仲裁服务”。
(3) 获取新版本的仲裁服务软件包,并将软件包拷贝至服务器的待安装目录下,或使用FTP等文件传输协议将软件包上传到指定目录。重新安装仲裁服务,安装步骤请参考“11.5.2 安装仲裁服务”。
(4) 安装成功后,登录灾备系统的主用站点,将倒换模式重新切换为带仲裁的自动倒换。
· 不支持同时在主备站点创建灾备系统。
· 在创建灾备系统过程中,请保证主备站点间的网络连接处于正常状态,否则可能导致配置失败;若配置失败,请先确认网络连接是否正常。
· 创建灾备系统时,指定的主站点和备站点的登录用户名及密码必须相同。
· 灾备系统页面的数据不支持备份恢复,包括:主备站点名称、主备站点IP、备站点用户名密码、第三方站点IP等。
· 灾备系统创建后,主备站点上Matrix集群内部虚IP和节点IP均不允许修改。
(1) 登录主站点的控制组件,单击[系统 > 灾备系统]菜单项,进入灾备系统页面。
(2) 在站点配置区域输入主站点配置、备站点配置、第三方站点配置和倒换模式,单击<连接>按钮,等待灾备系统的站点配置完成。当心跳链路连接状态显示连接成功时,表示灾备系统的站点配置成功。站点配置成功后,备站点的用户、日志、备份恢复模块的配置将会自动和主站点同步,其中日志文件内容不会同步。
(3) 单击容灾关系配置区域的<增加>按钮,在弹出的对话框中完成组件容灾关系配置。
· 仅支持主站点的控制组件升级至支持异地灾备系统,备站点上已安装的控制组件未支持异地灾备功能或容灾关系不是备用,请先卸载后再安装。
· 异地灾备场景下,若使用Underlay自动化部署业务,在管理交换机上配置DHCP中继时,需要同时指定主站点和备站点的控制组件集群IP作为中继服务器。
若主站点的控制组件未支持异地灾备系统,可统一数字底盘上对控制组件进行保留配置升级至支持异地灾备系统。升级控制组件可能会导致业务中断,请谨慎操作。
主站点的控制组件升级至支持异地灾备系统的步骤如下:
(1) 登录统一数字底盘,单击[系统/部署管理]菜单项,进入部署管理页面。
图11-9 部署管理页面
(3) 若此时主站点的控制组件未支持异地灾备功能,可在弹出的对话框中勾选“支持异地灾备系统”选项,再单击<确定>按钮进入灾备升级步骤。
图11-10 “支持异地灾备系统”选项
(4) 进入网络配置页面,创建新的网络作为异地灾备网络,控制组件需要使用MACVLAN类型网络作为异地灾备网络,并且保证和管理网络不在相同网段。请参见“11.4.3 网络配置”。
图11-11 网络配置页面
(5) 创建灾备网络后,进入网络绑定页面,绑定新创建的异地灾备网络和子网。
图11-12 网络绑定页面
(6) 完成网络绑定后,进入参数确认页面,确认异地灾备网络分配的IP地址。
(7) 网络配置完成后,进入升级页面,上传安装包,勾选待部署的安装包,单击<部署>按钮,完成组件升级。
(8) 若组件升级失败,单击<回滚>按钮,可将组件回退到升级之前的版本。
以站点A和站点B两个站点,在两个站点上分别部署3台服务器组成2个集群,组成3+3的灾备系统,用于管理一个SDN网络,网络中一共有100台盒式交换机设备为例,所需要的License如表11-7所示。
表11-7 3+3灾备系统需要的授权名称和数量
授权名称 |
数量 |
1台数据中心控制组件服务器节点授权 |
6个 |
管理1台盒式交换机设备授权 |
100个 |
在License Server上配置两个客户端,以sdn1和sdn2为例。
图11-13 License Server上配置的客户端
在灾备系统部署完成后,站点A作为主站点,站点B作为备站点。分别在主备站点的License信息页面配置License Server信息。对应关系如表11-8所示。
站点名称 |
客户端名称 |
站点A |
sdn1 |
站点B |
sdn2 |
图11-14 License Server信息页面
在灾备倒换时,需要对主备站点进行License切换,操作方式有如下两种:
(1) 发生灾备倒换时,登录License Server。强制原主站点A的License Client下线,释放授权。
(2) 登录新主站点B,在License信息页面配置与原主站点A相同的License Server IP地址、客户端名称sdn1和密码,使新主站点B作为License Client重新连接License Server获取所需控制组件服务器节点授权和所有设备授权。
对于License Server E1204及以后版本,可使用License Server支持授权的拥有者功能对License进行切换。操作方式如下:
(1) 在License Server上指定两个客户端,以sdn1和sdn2为例,并指定对应的拥有者ID,分别为Owner1和Owner2。
(2) 灾备系统部署完成后,分别在主备站点的License信息页面配置License Server信息。站点、客户端和拥有者对应关系如表11-9所示。
站点 |
客户端名称 |
拥有者ID |
站点A |
sdn1 |
Owner1 |
站点B |
sdn2 |
Owner2 |
(3) 在License Server上,将6个控制组件服务器节点授权分别指定给上述两个拥有者ID,使得主站点A获取Owner1的3个控制组件服务器节点授权,备站点B获取Owner2的3个控制组件服务器节点授权。并且设置全部设备的授权初始均属于Owner1。
(4) 灾备倒换之后,在License Server上将全部网元的授权重新指定给Owner2。
(5) 在新主站点B的License信息页面,对License Server进行断连后重连操作以获取Owner2的3个控制组件服务器节点授权和所有的设备授权。
当组成集群的Master节点位于不同的网段时,需要通过集群跨三层部署方式组件集群。
集群跨三层部署不支持以下情况:
(1) 不支持异地灾备。
(2) vBGP组件不支持跨三层部署。
(3) DTN组件仅支持单节点部署。DTN组件和仿真主机(或仿真设备)支持跨三层部署,具体配置请参见《H3C SeerEngine-DC仿真网络操作指导》。
(4) 不支持Underlay IPv6部署。
因低版本的VMware使用的vmxnet虚拟网卡可能会导致VXLAN帧中的TCP数据包长度计算错误,所以使用VMware部署跨三层集群时,请使用VMware ESXi 6.7P07 和 7.0U3 (7.0.3)或更高版本。
如图12-1所示,统一数字底盘集群的三个Master节点中,Master1和Master2位于Fabric1管理网络中,Master3位于Fabric2的管理网络中,Fabric1和Fabric2间的管理网络位于不同的网段,通过三层网络实现互通。需要使用跨三层部署方式建立统一数字底盘集群,IP地址规划如表12-1所示。
表12-1 IP地址规划
组件名称 |
地址规划名称 |
IP地址 |
地址说明 |
统一数字底盘集群 |
Master1节点IP |
192.168.10.102/24 |
默认网关为192.168.10.1,设置在管理交换机1上 |
Master2节点IP |
192.168.10.103/24 |
||
Master3节点IP |
192.168.110.104/24 |
默认网关为192.168.110.1,设置在管理交换机2上 |
|
集群内部虚IP |
192.168.10.101/32 |
- |
|
北向业务虚IP |
192.168.10.100/32 |
- |
|
SeerEngine-DC |
管理网络1(绑定Master1和Master2) |
子网网段:192.168.12.0/24 网络地址池:192.168.12.101-192.168.12.132 |
使用MACVLAN类型网络,默认网关为192.168.12.1,设置在管理交换机1上 |
管理网络2(绑定Master3) |
子网网段:192.168.112.0/24 网络地址池:192.168.112.101-192.168.112.132 |
使用MACVLAN类型网络,默认网关为192.168.112.1,设置在管理交换机2上 |
|
管理网络3(集群虚IP) |
子网网段:8.8.8.0/24 网络地址池:8.8.8.8-8.8.8.8 |
无需在交换机上设置网关IP地址 |
|
管理交换机 |
管理交换机1 |
Vlan-interface 10:192.168.10.1/24 192.168.12.1/24 Vlan-interface 20:192.168.20.9/30 |
· 将管理交换机1上连接Master1和Master2的接口加入VLAN 10中。本例以Ten-GigabitEthernet1/0/25、Ten-GigabitEthernet1/0/26为例,统一数字底盘节点管理网络和SeerEngine-DC管理网络使用同一网口。 · 将管理交换机1上连接管理交换机2的接口添加到VLAN 20中,以接口Ten-GigabitEthernet1/0/27为例。 |
管理交换机2 |
Vlan-interface 11:192.168.110.1/24 192.168.112.1/24 Vlan-interface 20:192.168.20.10/30 |
· 将管理交换机2上连接Master3的接口加入VLAN 11中。本例以Ten-GigabitEthernet1/0/25为例,统一数字底盘节点管理网络和SeerEngine-DC管理网络使用同一网口。 · 将管理交换机2上连接管理交换机1的接口添加到VLAN 20中,以接口Ten-GigabitEthernet1/0/26为例。 |
进行本章节配置前,需先完成Underlay路由相关配置,确保节点间IP地址能够三层互通、节点与两个网关IP地址能够三层互通。
(1) 管理交换机1配置如下:
[device1] vlan 10
[device1-vlan10] quit
[device1] interface Vlan-interface10
[device1-Vlan-interface10] ip address 192.168.10.1 255.255.255.0
[device1-Vlan-interface10] ip address 192.168.12.1 255.255.255.0 sub
[device1-Vlan-interface10] quit
[device1] vlan 20
[device1-vlan20] quit
[device1] interface Vlan-interface20
[device1-Vlan-interface20] ip address 192.168.20.9 255.255.255.252
[device1-Vlan-interface20] quit
[device1] interface Ten-GigabitEthernet1/0/25
[device1-Ten-GigabitEthernet1/0/25] port link-mode bridge
[device1-Ten-GigabitEthernet1/0/25] port access vlan 10
[device1-Ten-GigabitEthernet1/0/25] quit
[device1] interface Ten-GigabitEthernet1/0/26
[device1-Ten-GigabitEthernet1/0/26] port link-mode bridge
[device1-Ten-GigabitEthernet1/0/26] port access vlan 10
[device1-Ten-GigabitEthernet1/0/26] quit
[device1] interface Ten-GigabitEthernet1/0/27
[device1-Ten-GigabitEthernet1/0/27] port link-mode bridge
[device1-Ten-GigabitEthernet1/0/27] port access vlan 20
[device1-Ten-GigabitEthernet1/0/27] quit
[device1] ip route-static 192.168.110.0 255.255.255.0 192.168.20.10
(2) 管理交换机2配置如下:
[device2] vlan 11
[device2-vlan11] quit
[device2] vlan 20
[device2-vlan20] quit
[device2] interface Vlan-interface11
[device2-Vlan-interface11] ip address 192.168.110.1 255.255.255.0
[device2-Vlan-interface11] ip address 192.168.112.1 255.255.255.0 sub
[device2-Vlan-interface11] quit
[device2] vlan 20
[device2-vlan20] quit
[device2] interface Vlan-interface20
[device2-Vlan-interface20] ip address 192.168.20.10 255.255.255.252
[device2-Vlan-interface20] quit
[device2] interface Ten-GigabitEthernet1/0/25
[device2-Ten-GigabitEthernet1/0/25] port link-mode bridge
[device2-Ten-GigabitEthernet1/0/25] port access vlan 11
[device2-Ten-GigabitEthernet1/0/25] quit
[device2] interface Ten-GigabitEthernet1/0/26
[device2-Ten-GigabitEthernet1/0/26] port link-mode bridge
[device2-Ten-GigabitEthernet1/0/26] port access vlan 20
[device2-Ten-GigabitEthernet1/0/26] quit
[device2] ip route-static 192.168.10.0 255.255.255.0 192.168.20.9
本章节仅描述跨三层部署与普通的二层部署差异的配置,其他配置步骤请参考《H3C统一数字底盘部署指导》。
(1) 在配置集群参数时,需要将集群网络模式配置为多子网,如图12-2所示。
(2) 增加三个集群Master节点时,需要配置BGP相关参数,节点参数配置如表12-2所示。以master1节点为例,如图12-3所示。
节点 |
IP地址 |
Local/Router ID |
Local/AS Number |
Peers/IP |
Peers/AS Number |
master1 |
192.168.10.102 |
192.168.10.102 |
100 |
192.168.10.1 |
100 |
master2 |
192.168.10.103 |
192.168.10.103 |
100 |
192.168.10.1 |
100 |
master3 |
192.168.110.104 |
192.168.110.104 |
200 |
192.168.110.1 |
200 |
(3) Matrix集群创建完成后,需在集群节点连接的交换机上配置BGP协议,配置举例如下:
管理交换机1配置如下:
[device1] bgp 100
[device1-bgp] peer 192.168.10.102 as-number 100
[device1-bgp] peer 192.168.10.102 connect-interface Vlan-interface 10
[device1-bgp] peer 192.168.10.103 as-number 100
[device1-bgp] peer 192.168.10.103 connect-interface Vlan-interface 10
[device1-bgp] peer 192.168.110.1 as-number 200
[device1-bgp] peer 192.168.110.1 connect-interface Vlan-interface 20
[device1-bgp] address-family ipv4 unicast
[device1-bgp-ipv4] peer 192.168.10.102 enable
[device1-bgp-ipv4] peer 192.168.10.103 enable
[device1-bgp-ipv4] peer 192.168.110.1 enable
管理交换机2配置如下:
[device2] bgp 200
[device2-bgp] peer 192.168.110.104 as-number 200
[device2-bgp] peer 192.168.110.104 connect-interface Vlan-interface 11
[device2-bgp] peer 192.168.10.1 as-number 100
[device2-bgp] peer 192.168.10.1 connect-interface Vlan-interface 20
[device2-bgp] address-family ipv4 unicast
[device2-bgp-ipv4] peer 192.168.110.104 enable
[device2-bgp-ipv4] peer 192.168.10.1 enable
本章节仅描述控制组件跨三层部署与普通的二层部署差异的内容,其他内容请参见章节“5 部署SeerEngine-DC”
(1) 部署控制组件时,在网络配置步骤中,请按照表12-1中的地址规划创建对应的MACVLAN类型网络,如图12-4所示。
(2) 在网络绑定时,选择对应的网络,如图12-5所示。
(3) 控制组件部署完成后,在控制组件页面配置每个集群节点的路由信息,可配置OSPF和BGP,本章节以配置BGP为例,参数配置信息如表12-3所示。以配置master1为例,如图12-6所示。
节点 |
BGP实例配置 |
Network |
Neighbor配置 |
||
Router ID |
AS Number |
Neighbor |
Remote AS |
||
master1 |
192.168.12.101 |
100 |
8.8.8.8/32 |
192.168.12.1 |
100 |
master2 |
192.168.12.102 |
100 |
8.8.8.8/32 |
192.168.12.1 |
100 |
master3 |
192.168.112.101 |
200 |
8.8.8.8/32 |
192.168.112.1 |
200 |
图12-6 master1节点路由配置
(4) 在控制组件页面完成路由配置以后,需在管理交换机上进行相应的路由配置,具体配置如下:
管理交换机1配置如下:
[device1] bgp 100
[device1-bgp] peer 192.168.12.101 as-number 100
[device1-bgp] peer 192.168.12.101 connect-interface Vlan-interface 10
[device1-bgp] peer 192.168.12.102 as-number 100
[device1-bgp] peer 192.168.12.102 connect-interface Vlan-interface 10
[device1-bgp] address-family ipv4 unicast
[device1-bgp-ipv4] peer 192.168.12.101 enable
[device1-bgp-ipv4] peer 192.168.12.102 enable
管理交换机2配置如下:
[device2] bgp 200
[device2-bgp] peer 192.168.112.101 as-number 200
[device2-bgp] peer 192.168.112.101 connect-interface Vlan-interface 11
[device2-bgp] address-family ipv4 unicast
[device2-bgp-ipv4] peer 192.168.112.101 enable
2+1+1模式是一种低成本的故障恢复模式,用户需要在原有集群的配置上,额外增加一台物理服务器作为冷备成员存在。部署时需要将控制组件集群的3个节点部署在两个不同的机柜或机房中,同时建议在集群系统之外额外预留一台服务器,作为支持故障出现时紧急处理的冗余节点。在集群正常工作时,备用冗余节点不需要上电工作。当集群出现两台Master节点同时故障,导致集群无法工作时,备用节点可以在用户加电启动后快速加入集群,做到快速的灾备恢复。
集群2+1+1部署流程如下:
(1) 准备4台服务器,其中3台用于安装统一数字底盘集群,1台作为备份服务器。
(2) 将4台服务器安装至不同位置,推荐安装方式为:用于安装集群的2个服务器安装在一个机柜(或机房)中,用于安装集群的另一个服务器和备份服务器安装在另一个机柜(或机房)中。
(3) 在3台节点上安装统一数字底盘,安装步骤请参见《H3C统一数字底盘部署指导》。3个节点的IP地址建议部署在同一网段中,且保证节点间能够互通。
(4) 在集群中部署控制组件,部署步骤请参见“5 部署SeerEngine-DC”。
(5) 在备份服务器上安装Matrix,安装完成后无需部署统一数字底盘。需要注意的是,备份服务器上安装的Matrix版本需要与3台集群节点中安装的Matrix版本相同。
以集群节点分别为控制组件1、控制组件2和控制组件3为例,如图13-1所示,进行集群灾备操作前,需要准备以下工作:
(1) 记录集群中三个节点的主机名、网卡名称、节点IP地址、用户名及密码。
(2) 在备用节点上预装与集群节点相同版本的Matrix。
· 备用节点的盘符和磁盘分区必须和三个节点保持一致。
· 若集群节点的统一数字底盘为补丁版本,在备用节点上预装Matrix时,请通过以下步骤使得备用节点预装与集群节点相同版本的Matrix。
1、预装06xx/07xx的统一数字底盘基线版本ISO包。
2、后台卸载当前Matrix。
3、后台安装所需要补丁版本的Matrix。
对于三个Leader节点的集群,当两个节点(例如控制组件1和2)都出现故障时,意味着集群系统的多数节点出现异常,这时集群系统不能正常工作,需要尽快干预恢复。整个系统仅有控制组件3能够登录,同时控制组件3将自动进入紧急模式。
图13-2 两节点故障
可通过如下操作步骤恢复集群:
(1) 对备用节点进行上电操作(不接入管理网络),确认是否已安装Matrix,如未安装,可参考《H3C统一数字底盘部署指导》进行安装,安装完成后请勿配置集群。
(2) 确认备用节点的主机名、网卡名称、节点IP地址、用户名及密码与两个故障节点中的其中一个(本例以控制组件1为例)完全一致。
(3) 断开故障节点控制组件1和2的网络连接,并将备用节点接入管理网络。
(4) 登录控制组件3的Matrix Web页面,进入[部署 > 集群 > 集群部署]页面,单击控制组件1节点右上角的“设置”图标,在下拉菜单中选择“重建”选项,在弹出窗口中选择重建方式:
¡ 方式一:单击上传与当前节点相同版本的软件包进行节点重建,并上传重建文件,单击<应用>按钮。
¡ 方式二:单击使用系统中原有的节点部署文件进行重建,单击<应用>按钮。
(5) 节点重建完成后,集群即可正常工作,但当前页面仍处于紧急模式中,需退出并重新登录。建议使用北向业务虚IP重新登录Matrix Web页面。
在集群正常后,可以对原有物理服务器进行修复和恢复。如果使用全新的物理服务器代替异常控制组件2,那么需要登录Matrix Web页面进行修复操作。如果原有的控制组件2的文件系统能够恢复,并可正常启动,则控制组件可以在加电启动后自动加入集群。此时集群恢复到3台均可用的正常状态。
· 节点重建完成后,备用节点将以控制组件1的身份加入集群,原控制组件1故障恢复后不能直接再次加入集群,推荐对恢复后控制组件1执行硬盘数据格式化后再预装Matrix,作为新的备用节点。
· 如果两台控制组件出现异常,请勿在唯一正常的节点上执行重启操作,否则将无法通过此方式恢复集群。
组件部署完成后,当网络中存在IP地址冲突或需要变更网络整体规划(如机房搬迁、子网掩码变更等)时,可对组件的网络进行变更。本章主要介绍SeerEngine-DC和DTN组件的网络变更。
· 在异地灾备场景下,变更Matrix节点的IP地址需要先删除灾备系统。
· 在异地灾备场景下,对SeerEngine-DC和DTN组件进行网络变更前,需要先删除灾备系统。
对组件进行网络变更会导致业务中断,请谨慎操作。
网络变更步骤如下:
(1) 登录统一数字底盘,单击[系统/部署管理]菜单项,进入部署管理页面。
图14-1 部署管理页面
(2) 单击组件左侧的按钮,展开组件信息,可以分别对SeerEngine-DC和DTN进行网络变更。
(1) 单击SeerEngine-DC的按钮,进入网络修改页面。
(2) 选择需要变更的网络,可进行如下操作:
图14-2 网络修改页面
¡ 单击<创建>按钮,在弹出的对话框中新增子网,如图14-3所示。
¡ 单击子网列表中“操作”区段的按钮,在弹出的对话框中可以修改子网名称、子网网段、网关等参数,如图14-4所示。修改完成后,单击<应用>按钮。
(3) 单击<下一步>按钮,进入参数确认页面。
图14-5 确认网络参数
(4) 确认参数无误后,单击<确认>按钮,开始变更网络。页面上将展示网络修改进度。
(5) 如果网络变更失败,可单击<回滚>按钮,将网络回退到网络变更前;或单击<终止修改>按钮,退出网络变更流程。
图14-6 网络变更失败
(2) 选择需要变更的网络,对网络进行变更。
(3) 单击<下一步>按钮,进入参数确认页面。
(4) 确认参数无误后,单击<确认>按钮,开始变更网络。页面上将展示网络修改进度。
(5) 如果网络变更失败,可单击<回滚>按钮,将网络回退到网络变更前;或单击<终止修改>按钮,退出网络变更流程。
网络变更后,与IP地址相关的部分配置需要手动进行修改。
若在[自动化>数据中心网络>Fabrics>参数设置>控制组件全局配置]中,已开启TFTP与Syslog服务,在网络变更后需要重新设置服务IP地址。
图14-7 重新设置服务IP地址
若在[系统>系统维护>数据中心控制组件>控制组件配置]中已进行了路由配置,在网络变更后需要重新进行配置。
图14-8 路由配置
若在[自动化>数据中心网络>Fabrics>自动化部署>配置片段]中,已增加的设备配置片段内容涉及控制组件的集群IP地址,在网络变更后,需要在配置片段内容中更新控制组件的集群IP地址,并将该配置片段下发至需要更新的设备上。
图14-9 配置片段页面
图14-10 修改配置片段
undo info-center loghost vpn-instance mgmt 192.168.89.10即删除旧的控制组件集群IP。
info-center loghost vpn-instance mgmt 192.168.89.11即设置新的控制组件集群IP。
图14-11 下发配置片段
若在[系统>系统维护>数据中心控制组件>控制组件配置]中配置了Region,在网络变更时会自动清空管理设备网段的配置,网络变更完成后需重新进行配置。
图14-12 修改Region
网络变更后,因Matrix的集群北向业务虚IP地址变化,需要修改OpenStack Neutron插件配置中的URL配置项,具体请参考OpenStack插件的相关安装指导。
[SDNCONTROLLER]
url = http://127.0.0.1:30000
若License Server部署在Matrix集群中的一个节点上,且该节点的IP地址存在变更,在网络变更后需重新配置License Server信息。具体操作请参见“7.2 获取License授权”。
若使用了故障闭环功能,在网络变更后,需重新配置数据源管理中DC场景数据源的基本信息。
图14-13 数据源管理
在[分析>分析选项>资源管理>资产管理>数据源管理]页面中,单击DC场景对应数据源的“操作”区段的按钮,在弹出的对话框中修改IP地址为新的Matrix北向业务虚IP。
图14-14 修改基本配置
在网络变更前需要先删除灾备系统。网络变更完成后,需要重新配置灾备系统。具体操作请参见“11.6 创建灾备系统”。
DTN的网络变更后,需要保证DTN组件与DTN主机节点的网络可达,否则将影响仿真功能的正常使用。
不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!
本站点使用Cookies,继续浏览表示您同意我们使用Cookies。 Cookies和隐私政策>