01-正文
本章节下载 (4.16 MB)
目 录
2.1.2 SeerCollector采集器的服务器配置需求
7.3 节点中存在多个网卡配置IP地址并且网卡UP时,如何增加安全策略?
H3C SeerAnalyzer(分析器,本文简称SeerAnalyzer)聚焦于机器数据的价值挖掘,以大数据技术为基础,通过机器学习、深度学习等手段,从海量数据中分析有价值的信息,为企业的商业决策提供参考依据。SeerAnalyzer通过对设备性能、用户接入、业务流量的实时数据采集和状态感知,通过大数据分析技术和人工智能算法,将网络的运行可视化,主动感知网络的潜在风险并自动预警。
SeerAnalyzer支持Campus、DC、WAN等多个场景的数据分析。SeerAnalyzer所分析的数据主要包括:网络设备运行数据、网络业务应用流量数据、用户接入和使用网络的记录数据等。
SeerAnalyzer基于统一数字底盘部署,推荐部署在物理服务器上。支持两种部署模式,相关说明如表2-1所示。
部署模式 |
所需服务器数量(台) |
部署说明 |
单机模式 |
1 |
1台服务器作为Master节点部署统一数字底盘,并将SeerAnalyzer部署在统一数字底盘上 当网络规模较小且不要求高可靠性的场景才可以采用单机模式 |
集群模式 |
3+N |
3台服务器作为Master节点部署统一数字底盘。 · 当对部署节点的角色(Master、Worker)没有要求时,SeerAnalyzer可以部署在任意角色的节点上: ¡ 3+N(N≥0)模式:支持SeerAnalyzer部署在任意指定的3+N(N≥0)个节点上 · 当SeerAnalyzer仅部署在Worker节点上时: ¡ 3+1模式:统一数字底盘和控制器部署在3个Master节点上,SeerAnalyzer部署在一个Worker节点上 ¡ 3+N(N≥3)模式:统一数字底盘和控制器部署在3个Master节点上,SeerAnalyzer部署在N个Worker节点上 |
对于不同的场景和网络规模,SeerAnalyzer所分析的业务量存在较大的差异。其中,产生大业务量的主要是网络业务应用流量数据。SeerAnalyzer支持独立部署,同时支持与场景组件融合部署。该硬件配置需求,是在部署基础平台及对应场景组件的环境中,仅根据分析器所能够承载的业务量评估的结果,如需考虑场景组件所能承载的业务量,请进一步评估硬件资源需求。不同的业务量所需的硬件配置有差异,Campus场景如表2-2和表2-3所示,DC场景如表2-4所示,WAN场景如表2-5和表2-6所示。
· 对于安装部署统一数字底盘的服务器,其CPU架构需为x86-64(Intel64/AMD64),系统硬盘为HDD(SAS/SATA)硬盘或SSD硬盘,数据硬盘可采用SSD固态硬盘或机械硬盘(SATA/SAS),磁盘条件容许时建议RAID5。RAID卡不低于1GB写缓存,支持数据掉电保护,并且服务器必须支持安装CentOS 7.6及以上版本的操作系统。
· 数据盘总容量一定的情况下,磁盘数量越多读写性能越好,例如:6块2TB的硬盘读写性能优于3块4TB的硬盘。
· 如果使用SeerAnalyzer的TCP流分析、INT流分析功能,需要部署SeerCollector采集器。请参见“2.1.2 SeerCollector采集器的服务器配置需求”。
表2-2 Campus场景统一数字底盘+SeerAnalyzer服务器节点硬件配置需求(单机部署)
硬件节点配置 |
可支持最大管理规模 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|
分析节点 |
1 |
· CPU:16核(总物理核数),2.0GHz主频及以上 · 内存:256G及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:2TB(RAID后容量)及以上,需要2块及以上同型硬盘 · etcd盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps + 2*10Gbps |
· 在线用户:2000 · Switch+AC+AP:400 |
1 |
· CPU:20核(总物理核数),2.0GHz主频及以上 · 内存:256G及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:2TB(RAID后容量)及以上,需要2块及以上同型硬盘 · etcd盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps + 2*10Gbps |
· 在线用户:5000 · Switch+AC+AP:1000 |
|
1 |
· CPU:20核(总物理核数),2.0GHz主频及以上 · 内存:256G及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:3TB(RAID后容量)及以上,需要3块及以上同型硬盘 · etcd盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps + 2*10Gbps |
· 在线用户:10000 · Switch+AC+AP:2000 |
|
1 |
· CPU:24核(总物理核数),2.0GHz主频及以上 · 内存:256G及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:4TB(RAID后容量)及以上,需要4块及以上同型硬盘 · etcd盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps + 2*10Gbps |
· 在线用户:20000 · Switch+AC+AP:4000 |
|
1 |
· CPU:40核(总物理核数),2.0GHz主频及以上 · 内存:256G及以上 · 系统盘:2TB(RAID后容量)及以上 · 数据盘:4TB(RAID后容量)及以上,需要5块及以上同型硬盘 · etcd盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps + 2*10Gbps |
· 在线用户:40000 · Switch+AC+AP:8000 |
|
1 |
· CPU:48核(总物理核数),2.0GHz主频及以上 · 内存:384G及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:6TB(RAID后容量)及以上,需要6块及以上同型硬盘 · etcd盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps + 2*10Gbps |
· 在线用户:60000 · Switch+AC+AP:12000 |
|
1 |
· CPU:48核(总物理核数),2.0GHz主频及以上 · 内存:512G及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:8TB(RAID后容量)及以上,需要7块及以上同型硬盘 · etcd盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps + 2*10Gbps |
· 在线用户:100000 · Switch+AC+AP:20000 |
表2-3 Campus场景统一数字底盘+SeerAnalyzer服务器节点硬件配置需求(集群部署)
硬件节点配置 |
可支持最大管理规模 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|
分析节点 |
3 |
· CPU:16核(总物理核数),2.0GHz主频及以上 · 内存:256G及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:2TB(RAID后容量)及以上,需要2块及以上同型硬盘 · etcd盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps + 2*10Gbps |
· 在线用户:2000 · Switch+AC+AP:400 |
3 |
· CPU:20核(总物理核数),2.0GHz主频及以上 · 内存:256G及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:2TB(RAID后容量)及以上,需要2块及以上同型硬盘 · etcd盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps + 2*10Gbps |
· 在线用户:5000 · Switch+AC+AP:1000 |
|
3 |
· CPU:20核(总物理核数),2.0GHz主频及以上 · 内存:256G及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:3TB(RAID后容量)及以上,需要3块及以上同型硬盘 · etcd盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps + 2*10Gbps |
· 在线用户:10000 · Switch+AC+AP:2000 |
|
3 |
· CPU:20核(总物理核数),2.0GHz主频及以上 · 内存:256G及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:4TB(RAID后容量)及以上,需要4块及以上同型硬盘 · etcd盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps + 2*10Gbps |
· 在线用户:20000 · Switch+AC+AP:4000 |
|
3 |
· CPU:20核(总物理核数),2.0GHz主频及以上 · 内存:256G及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:4TB(RAID后容量)及以上,需要5块及以上同型硬盘 · etcd盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps + 2*10Gbps |
· 在线用户:40000 · Switch+AC+AP:8000 |
|
3 |
· CPU:24核(总物理核数),2.0GHz主频及以上 · 内存:384 G及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:6TB(RAID后容量)及以上,需要6块及以上同型硬盘 · etcd盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps + 2*10Gbps |
· 在线用户:60000 · Switch+AC+AP:12000 |
|
3 |
· CPU:40核(总物理核数),2.0GHz主频及以上 · 内存:384G及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:8TB(RAID后容量)及以上,需要7块及以上同型硬盘 · etcd盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps + 2*10Gbps |
· 在线用户:100000 · Switch+AC+AP:20000 |
表2-4 DC场景统一数字底盘+SeerAnalyzer服务器节点硬件配置需求(集群部署)
硬件节点配置 |
可支持最大设备数量 |
可支持最大TCP连接数 |
备注 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|||
分析节点 |
3 |
· CPU:24核(总物理核数),2.2GHz主频以上 · 内存:256GB及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:8TB(RAID后容量)及以上,需要3块及以上同型硬盘 · etcd盘:配置RAID后容量50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps + 2*10Gbps |
20 |
1000VM,约2000TCP流/秒 |
按每个VM 2条TCP流/秒 |
3 |
· CPU:32核(总物理核数),2.2GHz主频以上 · 内存:256GB及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:16TB(RAID后容量)及以上,需要5块及以上同型硬盘 · etcd盘:配置RAID后容量50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps + 2*10Gbps |
50 |
2000VM,约4000TCP流/秒 |
按每个VM 2条TCP流/秒 |
|
3 |
· CPU:40核(总物理核数),2.2GHz主频以上 · 内存:384GB以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:24TB(RAID后容量)及以上,需要7块及以上同型硬盘 · etcd盘:配置RAID后容量50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps + 2*10Gbps |
100 |
5000VM,约10000TCP流/秒 |
按每个VM 2条TCP流/秒 |
可根据整个数据中心VM的总数量、按每个VM 2条TCP流/秒,计算整体的TCP流大小,来判断所需使用的硬件配置规格。
表2-5 WAN场景统一数字底盘+SeerAnalyzer服务器单节点硬件配置需求(单机部署)
硬件节点配置 |
适用业务量 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|
分析节点 |
1 |
· CPU:24核(总物理核数),2.0GHz主频及以上 · 内存:256GB及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:4TB(RAID后容量)及以上,需要3块及以上同型硬盘 · etcd盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps + 2*10Gbps |
NetStream少于每五分钟30万条流 |
表2-6 WAN场景统一数字底盘+SeerAnalyzer服务器单节点硬件配置需求(集群部署)
硬件节点配置 |
适用业务量 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|
分析节点 |
3 |
· CPU:20核(总物理核数),2.0GHz主频及以上 · 内存:256GB及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:4TB(RAID后容量)及以上,需3块及以上同型硬盘 · etcd盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps + 2*10Gbps |
NetStream少于每五分钟30万条流 |
3 |
· CPU:20核(总物理核数),2.0GHz主频及以上 · 内存:256GB及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:8TB(RAID后容量)及以上,需5块及以上同型硬盘 · etcd盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2*10Gbps + 2*10Gbps |
NetStream少于每五分钟100万条流 |
部署统一数字底盘服务器的网卡配置需求如表2-7所示。
模式 |
配置 |
普通模式 |
· Campus、WAN:1*1Gbps及以上带宽+1*10Gbps及以上带宽 · DC:2*10Gbps及以上带宽 |
冗余模式 |
工作模式推荐配置为mode2或mode4 · Campus、WAN:2*1Gbps Linux Bonding+2*10Gbps Linux Bonding · DC:2*10Gbps Linux Bonding+2*10Gbps Linux Bonding |
SeerAnalzyer组件的安装包名称为SEERANALYZER-version.zip(其中version为软件版本号)。
安装统一数字底盘所需的安装包,请见表3-1中对应的应用包。
采集器需安装在物理服务器上,仅支持单机部署,暂不支持集群部署。硬件配置需求如表2-8所示。
属性 |
推荐配置 |
CPU |
Intel(R) Xeon(R) 可扩展处理器(推荐使用Platinum或Gold系列),2.2GHz主频及以上,虚拟核数不低于20 |
内存 |
128GB及以上 |
磁盘 |
系统盘:2*600GB,磁盘做RAID1,SAS或SSD硬盘 |
网口 |
10Gbps采集网口,10Gbps业务网口,采集网口不支持bond,业务网口支持bond |
服务器上网卡的作用分别如下:
· 采集网卡:接收网络设备发送过来的镜像报文。该网卡必须支持DPDK绑定,采集器代理下发时使用该网卡,配置下发后,内核将无法看到该网卡。目前只支持Intel 82599芯片的网卡,推荐使用H3C UN-CAN-10GE-2P-560F-B2-1 2端口万兆网卡。
· 业务网卡:分析器内部各功能组件之间数据交互使用的网卡。禁止对业务网卡进行DPDK绑定。
推荐使用统一数字底盘自带的操作系统common_PLAT_UCenterOS_<version>.iso。
若服务器使用的操作系统低于CentOS 7.6版本,请务必重装系统,避免采集业务配置失败。
· 关闭采集器的防火墙并关闭防火墙开机自动启动功能。
a. 执行systemctl stop firewalld命令关闭防火墙。
b. 执行systemctl disable firewalld命令关闭防火墙自启动。
c. 执行systemctl status firewalld命令查看防火墙状态。当状态为Active: inactive (dead)时,表示防火墙已关闭。
[root@localhost ~]# systemctl status firewalld
firewalld.service - firewalld - dynamic firewall daemon
Loaded: loaded (/usr/lib/systemd/system/firewalld.service; disabled; vendor preset: enabled)
Active: inactive (dead)
Docs: man:firewalld(1)
· 为了防止与业务路由冲突,需在操作系统的/etc/sysconfig/network-scripts/路径下找到以ifcfg为前缀的网卡配置文件,修改DEFROUTE参数值为no,进行保存即可。
· 确保采集器采集流量的网卡与数据中心的业务网络二层互通。若连接采集器的交换机为DeviceA,需要在DeviceA上创建二层VLAN作为采集VLAN,将采集器网卡和采集VLAN的成员口相连。交换机上的配置步骤如下:
a. 在DeviceA上创建采集VLAN的三层接口,将连接服务器的端口加入到该VLAN中,并创建VLAN虚接口IP地址,该地址和采集器的地址必须在同一网段。
[DeviceA]vlan 47
[DeviceA-vlan47]port HundredGigE 1/0/27
[DeviceA]interface Vlan-interface47
[DeviceA -Vlan-interface47]ip address 47.1.1.1 24
b. 在DeviceA上配置静态ARP(说明:采集器DPDK绑定之后没有真实IP,为了报文能送达,所以需要静态ARP)。ARP表项的IP地址为采集器IP地址,VLAN ID为采集VLAN ID,MAC地址为采集器DPDK网卡的MAC地址,端口为连接采集器的物理端口。
[DeviceA]arp static 47.1.1.2 0000-0000-0001 47 HundredGigE1/0/27
说明:此处IP和MAC以47.1.1.2 0000-0000-0001为例,配置时请结合实际修改。
c. 发布采集VLAN的网段路由。数据中心网络中使用的路由协议是OSPF。
[DeviceA]ospf
[DeviceA -ospf-1]area 0
[DeviceA -ospf-1-area-0.0.0.0]network 47.1.1.0 0.0.0.255
用户不需要安装客户端软件,使用浏览器即可访问SeerAnalyzer。推荐使用的浏览器为Google Chrome 70及以上版本。
安装环境请参考表2-9中所示的各个检测项目,确保安装统一数字底盘的条件已经具备。
检测项 |
检测标准 |
|
服务器 |
硬件检查 |
· 请检查硬件是否符合要求(包括CPU、内存、硬盘、网卡等) · 请检查是否支持CentOS 7.6及以上版本的操作系统 |
软件检查 |
请确保服务器已配置磁盘阵列 |
|
客户端 |
请确保浏览器版本符合要求 |
根据不同的业务量和不同的服务器配置需求进行了不同的磁盘RAID和分区规划。实际分区过程中,分区名称不需要与表格中的分区名称完全一致。
一般情况下,磁盘分区的文件系统类型默认选择xfs,部分分区有特殊要求,请根据备注进行配置。
表2-10 磁盘RAID和分区规划
磁盘RAID规划 |
分区名称 |
挂载点 |
最小容量 |
备注 |
2*2.4TB,RAID1 |
/dev/sda1 |
/boot/efi |
200MB |
EFI System Partition类型,仅UEFI模式需要配置该分区 |
/dev/sda2 |
/boot |
1024MB |
- |
|
/dev/sda3 |
/ |
400GB |
磁盘空间充足时,可适当扩容,业务数据不建议放在根目录 |
|
/dev/sda4 |
/var/lib/docker |
400GB |
磁盘空间充足时,可适当扩容 |
|
/dev/sda6 |
swap |
4GB |
swap类型 |
|
/dev/sda7 |
/var/lib/ssdata |
450GB |
磁盘空间充足时,可适当扩容 |
|
/dev/sda8 |
无 |
500GB |
为GlusterFS预留,安装操作系统时无需配置 |
|
2*50GB,RAID1 |
/dev/sdb |
/var/lib/etcd |
50GB |
需挂载在独立磁盘 |
为GlusterFS预留500GB是部署统一数字底盘和分析器需要的容量,如果还部署其它组件,需要各组件确定占用的磁盘容量大小,并在此基础上扩容。
数据盘主要用于存储SeerAnalyzer的业务数据和Kafka数据。不同网络规模下,业务数据量不同,对磁盘数量及容量的配置要求不同。数据盘不多于2块时,做RAID0(风险很大,不建议);数据盘3块及以上时,可以做RAID5,可以满足下表容量要求的情况下,建议做RAID5。
现场实施环境不建议数据盘做RAID0,数据安全风险很大。
表2-11 Campus场景数据盘分区规划1
磁盘RAID规划 |
分区名称 |
挂载点 |
最小容量 |
备注 |
2*1TB,RAID0 |
/dev/sdc1 |
/sa_data |
400GB |
- |
/dev/sdc2 |
/sa_data/mpp_data |
1000GB |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
600GB |
- |
表2-12 Campus场景数据盘分区规划2
磁盘RAID规划 |
分区名称 |
挂载点 |
最小容量 |
文件系统类型 |
3*1TB,RAID0 |
/dev/sdc1 |
/sa_data |
600GB |
- |
/dev/sdc2 |
/sa_data/mpp_data |
1500GB |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
900GB |
- |
表2-13 Campus场景数据盘分区规划3
磁盘RAID规划 |
分区名称 |
挂载点 |
最小容量 |
文件系统类型 |
5*1.2TB,RAID5 |
/dev/sdc1 |
/sa_data |
1000GB |
- |
/dev/sdc2 |
/sa_data/mpp_data |
2200GB |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
1600GB |
- |
表2-14 Campus场景数据盘分区规划4
磁盘RAID规划 |
分区名称 |
挂载点 |
最小容量 |
文件系统类型 |
6*1.2TB,RAID5 |
/dev/sdc1 |
/sa_data |
1200GB |
- |
/dev/sdc2 |
/sa_data/mpp_data |
3000GB |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
1800GB |
- |
表2-15 Campus场景数据盘分区规划5
磁盘RAID规划 |
分区名称 |
挂载点 |
最小容量 |
文件系统类型 |
8*1.2TB,RAID5 |
/dev/sdc1 |
/sa_data |
2000GB |
- |
/dev/sdc2 |
/sa_data/mpp_data |
4000GB |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
2400GB |
- |
表2-16 DC场景数据盘分区规划1
磁盘RAID规划 |
分区名称 |
挂载点 |
最小容量 |
文件系统类型 |
3*4TB,RAID5 |
/dev/sdc1 |
/sa_data |
800GB |
- |
/dev/sdc2 |
/sa_data/mpp_data |
4800GB |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
2400GB |
- |
表2-17 DC场景数据盘分区规划2
磁盘RAID规划 |
分区名称 |
挂载点 |
最小容量 |
文件系统类型 |
5*4TB,RAID5 |
/dev/sdc1 |
/sa_data |
1600GB |
- |
/dev/sdc2 |
/sa_data/mpp_data |
9600GB |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
4800GB |
- |
表2-18 DC场景数据盘分区规划3
磁盘RAID规划 |
分区名称 |
挂载点 |
最小容量 |
文件系统类型 |
7*4TB,RAID5 |
/dev/sdc1 |
/sa_data |
2400GB |
- |
/dev/sdc2 |
/sa_data/mpp_data |
14400GB |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
7200GB |
- |
表2-19 WAN场景数据盘分区规划1
磁盘RAID规划 |
分区名称 |
挂载点 |
最小容量 |
文件系统类型 |
3*2TB,RAID5 |
/dev/sdc1 |
/sa_data |
400GB |
- |
/dev/sdc2 |
/sa_data/mpp_data |
2400GB |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
1200GB |
- |
表2-20 WAN场景数据盘分区规划2
磁盘RAID规划 |
分区名称 |
挂载点 |
最小容量 |
文件系统类型 |
5*2TB,RAID5 |
/dev/sdc1 |
/sa_data |
800GB |
- |
/dev/sdc2 |
/sa_data/mpp_data |
4800GB |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
2400GB |
- |
SeerAnalyzer E2306及之前的版本待采集设备IP地址与北向网络不能在同一网段内。
· 北向网络:即统一数字底盘中设置的北向业务虚IP,是集群对外提供服务的IP地址。
· 南向网络:分析器采集组件和独立采集器用于接收来自设备端的采集数据所使用的网络。需确保南向网络和待采集设备之间可达。目前南向支持三种网络方案,请根据实际组网选择:
¡ 南向无网络:分析器不配置单独的南向网络。
¡ 南向单协议栈:创建一个网络并指定为南向采集网络,采集网络使用IPv4或IPv6。
¡ 南向双协议栈:创建两个南向采集网络,分别采集IPv4和IPv6的设备。
部署SeerAnalyzer时,DC场景需要部署1个采集器节点,需提前规划采集器相关的IP地址;WAN或Campus场景无需部署采集器节点,无需规划采集器IP地址。
暂不支持该网络方案。
南向单协议栈组网方案中,数据采集使用单独的网络,可使用IPv4或IPv6协议。
单机模式下有一个分析器节点和一个采集器节点,SeerAnalyzer的网络规划如表2-21所示。
表2-21 SeerAnalyzer网络规划-单机模式南向单协议栈
网段 |
IP地址类型 |
IP地址个数 |
说明 |
网卡配置要求 |
网段一 |
统一数字底盘集群节点IP地址 |
1个(IPv4) |
部署统一数字底盘的主机IP地址 |
可复用统一数字底盘的网卡,具体配置请参考表2-7 |
统一数字底盘集群内部虚IP地址 |
1个(IPv4) |
统一数字底盘集群内各节点之间通信的IP地址,部署统一数字底盘时确定 |
||
统一数字底盘北向业务虚IP地址 |
1个(IPv4) |
统一数字底盘集群对外提供服务的IP地址,部署统一数字底盘时确定 |
||
采集器数据上报IP地址 |
1个(IPv4) |
采集器向分析器上报采集数据使用的IP地址 |
采集器网卡1 |
|
网段二 |
采集器数据采集IP地址 |
1个(IPv4) |
用于接收网络设备镜像报文,需要与设备业务口互通 |
采集器网卡2,必须是独立DPDK网卡 |
网段三 |
南向采集IP地址 |
4个(IPv4)或4个(IPv6) |
南向采集IP地址为容器附加网络地址,一个节点容器IP和一个集群虚IP地址,其它两个作为保留地址 |
可复用统一数字底盘的网卡,具体配置请参考表2-7 |
集群模式下有三个分析器节点和一个采集器节点,SeerAnalyzer的网络规划如表2-22所示。
表2-22 SeerAnalyzer网络规划-集群模式南向单协议栈
网段 |
IP地址类型 |
IP地址个数 |
说明 |
网卡配置要求 |
网段一 |
统一数字底盘集群节点IP地址 |
3个(IPv4) |
部署统一数字底盘的主机IP地址 |
可复用统一数字底盘的网卡,具体配置请参考表2-7 |
统一数字底盘集群内部虚IP地址 |
1个(IPv4) |
统一数字底盘集群内各节点之间通信的IP地址,部署统一数字底盘时确定 |
可复用统一数字底盘的网卡,具体配置请参考表2-7 |
|
统一数字底盘北向业务虚IP地址 |
1个(IPv4) |
统一数字底盘集群对外提供服务的IP地址,部署统一数字底盘时确定 |
可复用统一数字底盘的网卡,具体配置请参考表2-7 |
|
采集器数据上报IP地址 |
1个(IPv4) |
采集器向分析器上报采集数据使用的IP地址 |
采集器网卡1 |
|
网段二 |
采集器数据采集IP地址 |
1个(IPv4) |
用于接收网络设备镜像报文,需要与设备业务口互通 |
采集器网卡2,必须是独立DPDK网卡 |
网段三 |
南向采集IP地址 |
8个(IPv4)或8个(IPv6) |
南向采集IP地址为容器附加网络地址,三个节点容器IP地址和一个集群虚IP地址,其它四个作为保留地址 |
可复用统一数字底盘的网卡,具体配置请参考表2-7 |
如果有采集器,“南向采集IP地址”和“采集器数据采集IP地址”两个地址需要使用相同的IP协议版本。
南向双协议组网方案中,数据采集使用单独的网络,并且需要同时配置IPv4和IPv6的地址。
单机模式下有一个分析器节点和一个采集器节点,SeerAnalyzer的网络规划如表2-23所示。
表2-23 SeerAnalyzer网络规划-单机模式南向双协议栈
网段 |
IP地址类型 |
IP地址个数 |
说明 |
网卡配置要求 |
网段一 |
统一数字底盘集群节点IP地址 |
1个(IPv4) |
部署统一数字底盘的主机IP地址 |
可复用统一数字底盘的网卡,网卡,具体配置请参考表2-7 |
统一数字底盘集群内部虚IP地址 |
1个(IPv4) |
统一数字底盘集群内各节点之间通信的IP地址,部署统一数字底盘时确定 |
可复用统一数字底盘的网卡,网卡,具体配置请参考表2-7 |
|
统一数字底盘北向业务虚IP地址 |
1个(IPv4) |
统一数字底盘集群对外提供服务的IP地址,部署统一数字底盘时确定 |
可复用统一数字底盘的网卡,网卡,具体配置请参考表2-7 |
|
采集器数据上报IP地址 |
1个(IPv4) |
采集器向分析器上报采集数据使用的IP地址 |
采集器网卡1 |
|
网段二 |
采集器数据采集IP地址 |
1个(IPv4) |
用于接收网络设备镜像报文,需要与设备业务口互通 |
采集器网卡2,必须是独立DPDK网卡 |
网段三 |
南向采集IP地址 |
4个(IPv4)和4个(IPv6) |
南向采集IP地址为容器附加网络地址,一个节点容器IP地址和一个集群虚IP地址,其它两个作为保留地址 |
可复用统一数字底盘的网卡,网卡,具体配置请参考表2-7 |
集群模式下有三个分析器节点和一个采集器节点,SeerAnalyzer的网络规划如表2-24所示。
表2-24 SeerAnalyzer网络规划-集群模式南向双协议栈
网段 |
IP地址类型 |
IP地址个数 |
说明 |
网卡配置要求 |
网段一 |
统一数字底盘集群节点IP地址 |
3个(IPv4) |
部署统一数字底盘的主机IP地址 |
可复用统一数字底盘的网卡,网卡,具体配置请参考表2-7 |
统一数字底盘集群内部虚IP地址 |
1个(IPv4) |
统一数字底盘集群内各节点之间通信的IP地址,部署统一数字底盘时确定 |
可复用统一数字底盘的网卡,网卡,具体配置请参考表2-7 |
|
统一数字底盘北向业务虚IP地址 |
1个(IPv4) |
统一数字底盘集群对外提供服务的IP地址,部署统一数字底盘时确定 |
可复用统一数字底盘的网卡,网卡,具体配置请参考表2-7 |
|
采集器数据上报IP地址 |
1个(IPv4) |
采集器向分析器上报采集数据使用的IP地址 |
采集器网卡1 |
|
网段二 |
采集器数据采集IPv4地址 |
1个(IPv4) |
用于接收网络设备镜像报文,需要与设备业务口互通 |
采集器网卡2,必须是独立DPDK网卡 |
网段三 |
南向采集IPv4地址 |
8个(IPv4) |
南向采集IP地址为容器附加网络地址,三个节点容器IP地址和一个集群虚IP地址,其它四个作为保留地址 |
可复用统一数字底盘的网卡,网卡,具体配置请参考表2-7 |
网段四 |
南向采集IPv6地址 |
8个(IPv6) |
南向采集IP地址为容器附加网络地址,三个节点容器IP地址和一个集群虚IP地址,其它四个作为保留地址 |
可复用统一数字底盘的网卡,网卡,具体配置请参考表2-7 |
SeerAnalyzer部署流程汇总如表3-1所示,需准备的安装包如表3-2所示。
表3-1 SeerAnalyzer部署流程汇总
步骤 |
具体操作 |
说明 |
服务器准备 |
准备1台或3台服务器用于安装统一数字底盘 |
必选 |
安装统一数字底盘 |
在服务器上安装统一数字底盘Matrix集群 |
必选 磁盘RAID及分区规划请参见2.4 SeerAnalyzer磁盘RAID和分区规划 |
部署统一数字底盘集群和应用,部署顺序: 1. GlusterFS 2. portal 3. kernel 4. kernel-base 5. network(可选) 6. syslog(可选) 7. Dashboard 8. widget |
必选 |
|
配置准备 |
可选 |
|
部署SeerAnalyzer |
必选 |
融合场景的部署原则:
· 融合场景指在同一个统一数字底盘的集群环境中,既安装控制器产品,又安装分析器产品,请务必先安装控制器,再安装分析器。
可选应用的部署原则:
· network应用:SeerAnalyzer独立部署场景下,不需要安装该应用;多产品融合场景下,当控制器依赖该应用时,才需要安装该应用。
· syslog应用:在多产品融合场景下,以及必须使用北向IP进行日志采集时,SeerAnalyzer依赖统一数字底盘提供的syslog应用,该应用必须先于SeerAnalyzer进行安装;在SeerAnalyzer独立部署场景下,以及非北向日志采集时,SeerAnalyzer不依赖该应用,该应用不需安装。
产品名称 |
安装包内容 |
安装包名称 |
统一数字底盘 |
操作系统安装包 |
common_H3Linux-<version>.iso |
GlusterFS应用 |
common_PLAT_GlusterFS_2.0_<version>.zip |
|
portal应用 |
general_PLAT_portal_2.0_<version>.zip |
|
kernel应用 |
general_PLAT_kernel_2.0_<version>.zip |
|
kernel-base应用 |
general_PLAT_kernel-base_2.0_<version>.zip |
|
network应用 |
general_PLAT_network_2.0_<version>.zip |
|
syslog应用 |
ITOA-Syslog-<version>.zip |
|
Dashboard应用 |
general_PLAT_Dashboard_<version>.zip |
|
widget应用 |
general_PLAT_widget_2.0_<version>.zip |
|
SeerAnalyzer |
SeerAnalyzer安装包 |
SEERANALYZER-<version>.zip |
Oasis |
Oasis组件(Campus场景必选) |
oasis_<version>.zip |
H3Linux |
采集器操作系统 |
common_H3Linux-<version>.iso |
本章节安装统一数字底盘内容以E0612版本为例,使用不同版本的统一数字底盘,安装过程可能会存在差异,具体可参考对应版本的统一数字底盘部署指导手册。
在版本路径下获取common_H3Linux-<version>.iso镜像,其中version为软件版本号。该镜像文件集成了操作系统、Matrix等应用软件包。
H3Linux操作系统的相关通用配置可以参考CentOS 7.6相关文档。
当安装环境存在两张及以上数量网卡时,北向业务虚IP使用的网段必须和ifconfig命令查看到的第一块物理网卡的网段保持一致,否则会导致集群部署失败或Pod无法启动。南向采集网卡不能是第一块网卡,安装操作系统时需要配置正确。
本节以从未安装过任何操作系统的服务器为例,介绍如何在服务器上安装H3Linux操作系统并部署Matrix。操作系统安装过程中系统将自动安装Matrix。
如果服务器已安装操作系统,通过本章节的步骤安装H3Linux后,会替换原来的操作系统。请在安装前进行数据备份,以免造成数据丢失。
(1) 使用服务器的远程控制台通过虚拟光驱加载安装软件包的ISO文件。
(2) 设置服务器从光盘启动,并重启服务器,等待ISO加载完成后,进入语言选择界面。
(3) 如图3-1所示,选择安装语言,此处以“中文/简体中文(中国)”为例,单击<继续>按钮,进入安装信息摘要页面。
(4) 如图3-2所示,在本地化区域点击“日期和时间”链接,进入日期&时间页面。
(5) 设置系统的日期和时间,如图3-3所示,此处地区选择“亚洲”,城市选择“上海”,单击<完成>按钮,返回安装信息摘要页面。
· 集群部署完成后,请勿修改系统时间,否则可能导致集群异常。
(6) 在本地化区域点击“键盘(K)”链接,设置键盘布局为“汉语”,如图3-4所示。
(7) 在软件区域单击“软件选择(S)”链接进入软件选择界面,如图3-5所示。选择基本环境为“虚拟化主机”,附加项保持默认即可。完成后单击<完成>按钮,返回安装信息摘要界面。
(8) 在软件区域单击“License Server”链接进入License Server界面,如图3-6所示。按需勾选是否安装License Server。
(9) 如图3-7所示,在系统区域单击“安装位置(D)”链接,进入安装目标位置页面。
(10) 如图3-8所示,在本地标准磁盘区域结合规划,选择两块及以上目标磁盘,在其它存储选项区域选择分区为“我要配置分区(I)”后,单击<完成>按钮,进入手动分区页面。
(11) 系统将自动创建系统盘磁盘分区,结合分析器磁盘规划,需手动添加新挂载点,添加完成后如图3-9所示。磁盘分区详细信息,请参见2.4 SeerAnalyzer磁盘RAID和分区规划。
a. 点击“添加新挂载点”图标,在弹出窗口中进行如下配置后,单击<添加挂载点>按钮。
- 挂载点:输入挂载点目录名称。
- 期望容量:输入磁盘容量并指定容量单位,例如“GiB”、“MiB”。
b. 单击“设备类型”下拉框,此处选择“标准分区”。
c. 单击<修改…>按钮,在弹出的配置挂载点窗口中,选择分区所挂载的磁盘后,单击<选择>按钮。
· 请确保“/var/lib/etcd”挂载在一块磁盘上(磁盘容量50GB及以上)。
(12) 弹出更改摘要窗口,如图3-10所示,单击<接受更改>按钮,返回安装信息摘要界面。
(13) 在系统区域点击“管理员帐户(A)”链接,进入选择管理员帐户界面,请根据实际需要选择。
该功能用于选择安装Matrix并创建集群时使用的用户名,如需部署Matrix集群,需为集群中的所有节点选择相同的用户名。选择admin用户时,系统默认同时创建root用户,但是禁用root用户的SSH 权限;选择root用户时,该用户拥有所有功能的操作权限,admin用户将不被创建。
· 若选择admin用户作为登录用户,请提前确认待部署的场景中,各应用都支持使用admin用户安装。
· 若选择admin用户作为登录用户,执行命令时,需要在命令前添加sudo 指令。若执行的脚本为安装或卸载脚本,需要在命令前添加sudo /bin/bash 指令,否则命令执行不成功。
如图3-11所示,本文档选择“选择root用户作为管理员”,单击<完成>按钮,返回安装信息摘要界面。
(14) 在系统区域点击“网络和主机名”链接,进入网络和主机名页面。
(15) 如图3-12所示,在主机名文本框中输入主机名后,单击<应用>按钮。
· 主机名只能包含小写字母、数字、连字符和小数点,且不能以连字符、小数点起始或结束。
· 建立Matrix集群时,必须保证集群内各个节点的主机名互不相同,且符合主机名的命名规则,否则将会导致集群建立失败。
· Matrix集群部署前,若需要修改节点的主机名,可在节点操作系统的命令行界面,通过“hostnamectl set-hostname hostname”命令进行修改,其中hostname为修改后的主机名。
· Matrix集群部署完成后,请不要再对操作系统的主机名进行修改。
· 当网络列表显示多个网络时,请勿选择带<网线已拔出>标识的网卡。
· 当安装环境存在两张及以上数量网卡时,北向业务虚IP使用的网段必须和ifconfig命令查看到的第一块物理网卡的网段保持一致,否则会导致集群部署失败或Pod无法启动。
(16) 在网络和主机名配置页面可配置网卡。支持将多张网卡绑定为一个逻辑网卡,实现本地网卡的冗余、带宽扩容和负载均衡。
¡ 若配置网卡绑定,可在该页面单击 按钮配置,或则可在操作系统安装完成后,在服务器上通过增加配置文件的方式配置,具体方法请参见7.2 如何配置网卡绑定?
请确保在创建集群之前,完成网卡绑定的配置。
¡ 若不配置网卡绑定,单击<配置>按钮,在弹出的网络配置窗口中进行网卡配置。点击“常规”页签,勾选“可用时自动链接到这个网络(A)”项,“所有用户都可以连接这个网络”项保持默认勾选,如图3-13所示。
(17) Matrix支持IPv4和IPv6两种IP版本,不支持双协议栈。
¡ 分析器对Matrix的要求为需配置IPv4地址,请点击“IPv4设置”页签,在“方法”下拉框中选择“手动”,在地址区域单击<Add>按钮,配置服务器的IPv4地址(规划的Master节点IP),配置完成后,单击<保存>按钮保存配置,如图3-14所示。
· 配置IPv4地址时必须指定网关,否则在创建集群时可能出现问题。
· 操作系统安装完成后,建议不要使用ifconfig命令进行关闭、启动网卡的操作,否则可能导致环境异常。
· Matrix单独使用一个网口,不允许在此网口上配置子接口及子IP。
· Matrix节点其它网口的IP地址,不能和建立集群使用的IP处于同一网段。
(18) 在网络和主机名称配置页面,检查IP地址配置和网卡启用状态是否正确后,单击<完成>按钮,返回安装信息摘要页面。
(19) 单击<开始安装>按钮,开始安装操作系统。
(20) 操作系统安装过程中,系统会根据“管理员帐户”中的配置创建用户,若选择admin用户作为管理员,则需配置admin用户和root用户的登录密码;若选择root用户作为管理员,则需配置root 用户的登录密码。若配置了用户的登录密码,则系统安装完成后,会自动重启完成安装过程;若未配置用户的登录密码,则系统安装完成后,会停留在该页面等待设置密码,此时请设置密码并单击<完成配置>按钮,然后等待系统自动重启即可。
本例只需为root用户设置密码,如图3-15所示。
(21) 安装完成后,服务器会自动重启,重启后的界面如图3-16所示。
(22) 登录操作系统,可以通过如图3-17所示命令“systemctl status matrix”验证Matrix服务是否安装成功。若安装成功,则将在Active字段后显示运行信息为active (running)。
图3-17 验证Matrix服务是否安装成功
对于使用内置NTP服务器的场景,在部署集群之前,需确保所有节点的系统时间和当前时间保持一致。对于使用外置NTP服务器作为时钟同步源的场景,则无需修改节点的系统时间。
查看及修改节点系统时间的命令如下:
· 查看系统时间:date
· 修改系统时间的年月日:date -s yyyy-mm-dd
· 修改系统时间的时分秒:date -s hh:mm:ss
修改节点时间的注意事项如下:
· 集群部署完成后,请勿修改系统时间,否则可能导致集群异常。
可在Matrix上进行如下操作:
· 上传、删除统一数字底盘应用安装包。
· 部署、升级、扩容、卸载统一数字底盘应用。
· 升级、重建集群节点。
· 增加、删除Worker节点。
在Matrix上进行操作时,请勿在统一数字底盘上进行如下操作:
· 上传、删除组件安装包。
· 部署、升级、扩容组件。
· 增加、修改、删除网络。
(1) 在浏览器中输入Matrix平台的登录地址,进入如图3-18所示登录页面。
使用IPv4地址,登录地址格式为:https://Matrix_ip_address:8443/matrix/ui,例如:https://172.16.101.200:8443/matrix/ui。本文档后续配置均以IPv4配置为例。
登录地址中参数含义如下:
¡ Matrix_ip_address为节点IP地址。
¡ 8443为缺省端口号。
采用集群部署模式时,未部署集群之前,Matrix_ip_address可以是任意一个节点的IP地址。
图3-18 Matrix平台登录页面
(2) 输入用户名和密码(默认用户名为admin,密码为Pwd@12345)后,单击<登录>按钮,默认进入Matrix平台的集群部署页面,如图3-19所示。
当设备存在多块网卡的时候,可能会因网卡的顺序原因导致集群部署失败或者组件部署失败,需要
通过以下配置保证环境正常部署和运行:
(1) 使用命令ifdown 关掉除Matrix 集群使用的网卡外的其它网卡。比如eth33 是非创建集群时
添加节点所使用的网卡,通过以下命令关掉网卡:
[root@node01 ~]# ifdown eth33
(2) 部署 Matrix 集群。
(3) 开启(1)中被关闭的网卡。
[root@node01 ~]# ifup eth33
(4) 登录 Matrix 平台。点击[系统>安全>安全策略]菜单项后,单击<新增>按钮,进入新增策略页面。
(5) 在“基本设置”区域配置默认动作为“允许”。
(6) 在“规则信息”区域单击<新增>按钮,在弹出的对话框中配置如下规则:
¡ 规则序号,可根据实际情况修改。
¡ 源地址,为节点上除Matrix节点IP 所在网卡外的其它网卡IP。
¡ 协议类型,默认为ALL。
¡ 目标端口,默认为ANY。
¡ 动作为允许。
必须将所有节点上除Matrix 节点IP 所在网卡外的其它网卡IP 都加入到安全策略中。
(7) 配置完成后单击<应用>按钮。
· 当安装环境存在两张及以上数量网卡时,北向业务虚IP使用的网段必须和ifconfig命令查看到的第一块物理网卡的网段保持一致,否则会导致集群部署失败或Pod无法启动。
· 若节点上存在多个已配置IP地址的网卡并且网卡为UP状态,请在部署集群前使用命令ifdown关掉除集群使用的网卡外的其它网卡,否则会导致集群部署失败。集群部署完成后,必须在Matrix平台页面上增加安全策略,否则会导致集群运行异常,增加安装策略方法请参见7.3 节点中存在多个网卡配置IP地址并且网卡UP时,如何增加安全策略?增加安全策略后可根据需求再开启已关掉的网卡。
部署集群节点前,需要先配置集群参数。
(1) 配置集群参数,各参数的介绍如表3-3所示。
参数 |
说明 |
集群内部虚IP |
用于集群内各节点之间通信的IP地址,该地址必须在Master节点所处的网段内,集群部署完成后不可修改,请谨慎填写 |
北向业务虚IP |
集群对外提供服务的IP地址,该地址必须在Master节点所处的网段内 |
Service IP地址池 |
用于为Service分配IP地址,不能与部署环境中的其它网段冲突。默认地址为10.96.0.0/16,一般保持默认值 |
容器IP地址池 |
用于为容器分配IP地址,不能与部署环境中的其它网段冲突。默认地址为177.177.0.0/16,一般保持默认值 |
集群网络模式 |
目前仅支持单子网模式,集群内所有节点、虚IP必须在相同网段内,否则将无法互相通信 |
NTP服务器 |
用于保证集群内各节点系统时间的一致性,支持选择内置服务器和外置服务器。选择外置服务器时,需要配置NTP服务器地址,且该地址不可与集群内各节点的IP地址冲突 本文档使用内置服务器作为NTP服务器,则部署集群时会首先进行时间同步,集群部署完成后,三台Master节点会定时同步时间,从而保证集群内各节点的系统时间保持一致 |
外置NFS共享存储 |
用于各节点间数据共享,此处无需配置 |
外置DNS服务器 |
用于解析K8s集群外部的域名,格式为IP:Port,部署统一数字底盘可根据实际需要配置外置DNS服务器。本文档中不配置此项 · 容器解析域名时,集群外部的域名无法被内置DNS服务器解析,本平台将把需要解析的外部域名随机转发给一台外置DNS服务器来解析 · 外置DNS服务器最多可以配置10个,各外置DNS服务器要求具有相同的DNS解析能力,并可以独立满足外部域名解析需求、无主备之分、无先后顺序之分 · 建议所有的DNS服务器都能够访问根域,可使用命令行nslookup -port={port} -q=ns . {ip}查看是否可以访问 |
(2) 单击<应用>按钮,完成集群参数的配置。
Matrix集群不支持IPv4和IPv6双协议栈,选定IP协议之后,使用指定版本的IP地址配置集群参数并建立集群。在集群上部署的网络和业务也仅支持指定版本的IP协议。
单机部署模式下,仅需增加一个Master节点即可部署集群。集群部署模式下,需要增加三个Master节点后,再部署集群。
(1) 配置集群参数后,单击<下一步>按钮,进入创建集群页面,如图3-20所示。
(2) 点击Master节点区域的增加图标,弹出增加节点窗口,如图3-21所示。
(3) 配置如下参数:
¡ 类型:显示为“Master”,且不可修改。
¡ IP地址:规划的Master节点的IP地址。
¡ 用户名:节点操作系统的用户名,当前仅支持root用户及admin用户。根据安装操作系统时实际选择的用户填写。集群中所有节点的用户名必须相同。
¡ 密码:节点操作系统的用户密码。
(4) 单击<应用>按钮,完成增加Master节点操作。
(5) 若采用单机部署模式,则跳过该步骤。若采用集群部署模式,则重复步骤(2)-(4),增加其它两台Master节点。
(6) 若集群超过3个节点,点击Worker节点区域的增加图标,进行节点添加。添加Worker节点方式和Master方式一样,具体可参考步骤(2)-(4),将剩余节点加到Worker节点区域即可。
(7) 单击<开始部署>按钮,开始部署集群,当所有节点的进度达到100%时,表示集群部署成功。
集群部署成功后,主Master节点会在节点左上角显示标记,其余未被标记的Master节点为备用Master节点。
图3-22 集群部署完成
集群部署完成后,配置网络和部署应用的操作可以先跳过,后期根据实际需要再进行配置。
Worker节点可以在创建集群时添加,也可以集群部署好之后,再次回到集群部署界面进行添加。
(1) 在浏览器中输入“https://Matrix_ip_address:8443/matrix/ui”,登录Matrix平台。其中“Matrix_ip_address”必须为北向业务虚IP地址。
(2) 点击“向导”页签,在弹出的菜单中选择“集群部署”,进入集群部署页面。
(3) 在部署应用环节“选择安装包”步骤中,系统已自带必选安装包。
a. common_PLAT_GlusterFS_2.0_<version>.zip(必选)
b. general_PLAT_portal_2.0_<version>.zip(必选)
c. general_PLAT_kernel_2.0_<version>.zip(必选)
应用安装包的安装,请根据实际情况进行选择安装。请严格按照3.1 安装部署流程概述中的应用包顺序上传并安装。
(5) 默认勾选全部应用,单击<下一步>按钮,进入配置共享存储页面。
a. GlusterFS应用暂不支持共享存储配置。
· 为GlusterFS应用准备的磁盘不能被格式化,否则会安装失败。若该磁盘被格式化,则可通过“wipefs -a /dev/磁盘名称”命令清空磁盘来进行修复。
· 若执行“wipefs –a /dev/sda7”命令时,提示错误:“探测初始化失败:设备或资源忙”,需要等待一段时间再执行一次。
(6) 单击<下一步>按钮,进入配置共享存储页面。
a. GlusterFS应用暂不支持数据库配置。
(7) 单击<下一步>按钮,进入配置参数页面。
a. GlusterFS应用参数配置。
通过lsblk命令查看当前磁盘分区信息,确保所选的磁盘或分区没有被挂载或使用,且容量大于200GB。若没有满足条件的磁盘或分区,则需要新建一个。具体方法请参见7.1 如何为GlusterFS准备磁盘空间?
- “nodename”:参数值为节点服务器的主机名。
- “device”:参数值为分配给GlusterFS的磁盘名称。
- 若在空磁盘上安装GlusterFS应用,则“device”为磁盘名称。
- 若在空闲分区上安装GlusterFS应用,则“device”为分区名称。
b. Portal应用参数配置。
- 统一数字底盘应用不支持HTTPS部署。ServiceProtocol默认设置为“HTTP”,不能修改为”HTTPS”,可根据需要修改服务端口号。
- 若要部署英文环境,将“Language”设置为“en”,“Country”设置为“US”即可。
(8) 单击<部署>按钮,开始部署应用,等待应用部署完成即可。
如需使用HTTPS协议,请在应用和组件安装完成后,登录统一数字底盘,点击[系统>系统配置>安全配置]菜单项,进入安全配置页面,启用HTTPS协议。
请继续按照表3-1中的应用包顺序和选择安装情况上传并安装,安装时直接部署即可。
· general_PLAT_kernel-base_<version>.zip
· general_PLAT_network_2.0_<version>.zip(可选)
· ITOA-Syslog-<version>.zip(可选)
· general_PLAT_Dashboard_<version>.zip
· general_PLAT_widget_2.0_<version>.zip
若有使用多块网卡的需求,需在服务器上启用网卡。启用网卡的配置步骤如下:
(1) 远程登录统一数字底盘所在服务器,在服务器上修改网卡配置文件。此处以修改网卡ethA09-2的网卡配置文件为例。
(2) 使用以下命令打开并编辑网卡文件。
[root@node1 /]# vi /etc/sysconfig/network-scripts/ifcfg-ethA09-2
(3) 将网卡配置文件中的BOOTPROTO和ONBOOT修改为如下图所示。BOOTPROTO配置为none表示不指定网卡的启动协议,ONBOOT配置为yes表示开机自动启用网卡连接。
图3-23 编辑网卡文件
(4) 使用以下命令ifdown和ifup命令重启网卡。
[root@node1 /]# ifdown ethA09-2
[root@node1 /]# ifup ethA09-2
建议不要使用ifconfig命令进行关闭、启动网卡的操作,可能导致环境异常。
(5) 使用ifconfig命令查看网络信息。若网卡状态为UP则表示网卡启用成功。
在部署SeerAnalyzer时,使用不同版本的统一数字底盘,配置过程会略有差异,具体配置操作可参考对应版本的统一数字底盘部署指导手册中“部署组件”章节。
本文档以在统一数字底盘E0612版本三机集群上部署SeerAnalyzer为例。
(1) 统一数字底盘提供友好的GUI界面。统一数字底盘登录地址:http://ip_address:30000/central。ip_address为统一数字底盘的北向业务虚IP,默认用户名为admin,密码为Pwd@12345。
(2) 单击[系统/部署管理]菜单项,首次部署将直接进入组件部署导航页面;若非首次部署,请单击<安装>按钮,进入组件部署导航页面。
图3-24 组件部署导航页面
单击<上传>按钮,将SeerAnalyzer和Oasis组件安装包(Campus场景必选)上传到系统。上传完成后,单击<下一步>按钮,解析安装包并进入组件选择页面。
(1) 在组件选择页面展开“分析器”菜单项,勾选“智能分析引擎2.0”,并选择已上传的SeerAnalyzer安装包。
¡ 根据网络规划,选择对应的网络方案,网络规划介绍请参见2.5 SeerAnalyzer网络规划。
¡ 选择部署的场景,支持SA-Campus、SA-DC、SA-WAN场景,分别用于园区、数据中心和广域网场景。
(2) (Campus场景必选)展开“公共服务”菜单项,请选择对应的Oasis安装包。
(3) 完成后单击<下一步>按钮,进入参数配置页面。
图3-25 组件选择页面
公共服务中,如果一开始没有安装Oasis组件,后续仍可选择“智能分析引擎2.0”选项,然后选择Oasis组件进行安装。对于已经安装的组件,统一数字底盘不会重新安装。
在参数配置页面,无需进行参数配置,直接单击<下一步>按钮,进入网络配置页面。
本页面用于配置分析器的南向采集IP地址。根据在组件选择页面选择的网络方案确定:
· “南向无网络”(无网络)方案:无需配置网络,直接进行下一步。
· “南向单协议栈”方案:在本页面创建一个IPv4或IPv6网络。
· “南向双协议栈”方案:在本页面创建一个IPv4和一个IPv6网络。
· E2306及之前的版本,南向采集IP地址与SeerAnalyzer所在服务器的IP地址不能在同一网段。
· 请确保子网网关真实存在。
本文档以选择“南向单协议栈”方案,南向配置IPv4网络为例。配置完成后,单击<下一步>按钮,进入节点绑定页面。
图3-26 网络配置页面
在节点绑定页面,可以选择部署SeerAnalyzer的节点名称等信息。配置完成后,单击<下一步>按钮,进入网络绑定页面。
节点选择:
· 单机模式需选择唯一节点,SeerAnalyzer都将部署在唯一的单机节点上。
· 集群模式下,可指定SeerAnalyzer在集群中部署的节点名称,支持选择集群中的任意节点,要求选择的节点数可以是1个,或者3个及以上。
· 3+1部署模式:统一数字底盘和控制器部署在3个Master节点上,分析器部署在1个Worker节点上,部署时节点标签勾选1个Worker节点。
· 3+3部署模式:统一数字底盘和控制器部署在3个Master节点上,分析器部署在3个Worker节点上,部署时节点标签勾选3个Worker节点。
· 常规部署:分析器部署对节点的角色(Master、Worker)没有要求,可以部署在任意角色的节点上。
图3-27 节点绑定
在网络绑定页面,可为分析器绑定南向网络。
网络绑定原则:
· 南向无网络方案无需配置资源绑定。
· 南向单协议栈方案中需要将网络指定为管理网络。
· 南向双协议栈方案中,需要将IPv4网络指定为管理网络,将IPv6网络指定为默认网络。
图3-28 网络绑定
在参数确认页面确认IP地址分配结果后,单击<部署>按钮,部署组件。
部署完成后,在组件管理页面可以查看组件的详细信息。
登录统一数字底盘页面,单击[分析]菜单项,进入SeerAnalyzer页面。
统一数字底盘的注册步骤请参见《H3C统一数字底盘部署指导》。
SeerAnalyzer安装完成后,可90天内试用所有功能,超过试用期限后,需要获取License授权才能正常使用。
关于授权的申请和安装过程,请参见《H3C软件产品远程授权License使用指南》。
(1) 登录统一数字底盘,依次单击[系统>License管理>License信息]菜单项,进入License信息页面。
(2) 在页面中配置License Server信息的参数,详细介绍请参见表4-1。
参数 |
说明 |
IP地址 |
安装License Server的服务器上用于统一数字底盘和SeerAnalyzer集群内各节点之间通信的IP地址 |
端口号 |
此处缺省值为“5555”,与License Server授权服务端口号保持一致 |
用户名 |
License Server中设置的客户端名称 |
密码 |
License Server中设置的客户端名称对应的密码 |
(3) 配置完成后,单击<连接>按钮与License Server建立连接,连接成功后统一数字底盘和SeerAnalyzer可自动获取授权信息。
(1) 登录统一数字底盘,登录地址:http://ip_address:30000/central。其中ip_address为统一数字底盘的北向业务虚IP,默认用户名为admin,密码为Pwd@12345。
(2) 单击[系统/部署管理]菜单项,进入组件部署导航页面。
(3) 勾选“智能分析引擎”组件,单击左上角<卸载>按钮,完成组件卸载。
(4) 登录采集器所在服务器,进入/usr/local/itoaAgent目录,执行bash uninstall.sh命令手动清除数据。(如果是非root用户,请执行sudo bash uninstall.sh)
图5-1 清除数据
(5) 使用ps -aux | grep agent | grep -v grep命令检查,命令执行后无输出则证明卸载干净。
在升级分析器前,需要检查分析器的PostgreSQL数据库、Vertica数据库、InfulxDB数据库的运行状态,在数据库运行状态均正常的情况下才能进行升级。升级前检查操作,请参见7.5 升级前检查章节。
在统一数字底盘上支持对组件进行保留配置升级。升级组件可能会导致业务中断,请谨慎操作。
(1) 升级前检查完成后,登录统一数字底盘,单击[系统>部署管理]菜单项,进入部署管理页面。
图6-1 部署管理页面-展开组件信息
图6-2 升级页面
(4) 单击<上传>按钮,上传待升级的安装包。
(5) 安装包上传成功后,勾选安装包,单击页面下方的<升级>按钮,完成组件升级。
· SeerAnalyzer暂不支持升级失败后的回滚操作。
· 从E2315版本开始分析器PostgreSQL数据库支持高可用的Stolon架构,E2315以下版本升级到E2315及以上版本后,支持手动进行将PostgreSQL数据库从pgpool架构切换到Stolon架构,详情请参见7.4 如何手动将PostgreSQL数据库切换为Stolon架构。
集群的每个节点上,均需准备GlusterFS应用所需的磁盘分区,故每个节点上均需进行如下操作,并请记录磁盘分区名称,以供后面安装时填写。
(1) 在安装操作系统的过程中预留GlusterFS需要的磁盘空间,以供后续创建磁盘分区时使用。
(2) 完成操作系统的安装后,通过fdisk命令,创建磁盘分区。
如图7-1所示,以在sda磁盘上创建一个200GB空间的分区为例进行说明。
若出现“重新读取分区表失败”的提示,使用reboot命令重启节点即可。
此时,就在sda磁盘中创建了一个200GB的空闲磁盘分区/dev/sda7。
如果已经创建了一个大小200GB及以上的磁盘分区,并且此磁盘分区没有被挂载或使用,则将此磁盘分区清空后,可供GlusterFS应用使用。
(3) 如图7-2所示,查看当前磁盘分区信息,可知/dev/sda7没有被挂载或使用。
(4) 通过执行“wipefs -a /dev/sda7”命令清空磁盘分区后,可以供GlusterFS应用使用。
将单独的整块磁盘供GlusterFS应用使用,无需在独立磁盘中创建磁盘分区。
通过执行“wipefs -a”命令清空磁盘,以确保安装部署可以正常进行。
图7-3 清空磁盘
网卡绑定是通过把多张网卡绑定为一个逻辑网卡,实现本地网卡的冗余、带宽扩容和负载均衡。
Linux系统中网卡共支持7种冗余模式,部署统一数字底盘时可根据实际情况进行选择(推荐使用推荐使用Mode2或Mode4)。
· Mode2(XOR)表示XOR Hash负载分担,需与交换机的静态聚合模式配合。
· Mode4(802.3ad)表示支持802.3ad协议,需与交换机的动态聚合模式配合。
H3Linux操作系统安装过程中,配置网卡绑定。
(1) 在网络和主机名配置页面单击网络接口列表框的按钮,在弹框添加设备的下拉列表里,选择“绑定”,单击<添加>按钮,即可进入绑定接口的编辑界面。
(2) 在[绑定连接1]页面,选择“绑定”页签,修改“连接名称”和“接口名称”使其保持一致,如“bond0”。
(3) 在“已绑定连接”区域,单击<Add>按钮关联网络接口。接着在弹框的下拉列表里选择需要创建的连接类型,并单击<Create>按钮完成选择。在[编辑bond0从机1 ]页面的<设备>选项的下拉菜单栏里选择需要关联的成员接口,并单击<保存>按钮完成选择,返回[编辑bond0 ]页面。重复上述操作,将两个成员接口添加到绑定接口下。
(4) 选择“模式”下拉框设置模式,推荐配置为802.3ad或异或(XOR);“监控频率”可根据需要配置,此处以配置100ms为例。
(5) 配置IP地址。
¡ 如需配置IPv4地址,单击“IPv4设置”页签,在“方法”下拉框中选择<手动>,在地址区域配置系统的IPv4地址,单击<保存>按钮,保存配置完成绑定接口配置。
¡ 如需配置IPv6地址,请先单击<IPv4 设置>页签,在“IPv4 设置”页签的“方法”下拉框中选择<已禁用>,再单击<IPv6 设置>页签,在“IPv6 设置”页签的“方法”下拉框中选择<手动>,在地址区域配置系统的IPv6地址,配置完成后单击<保存>按钮保存配置。
(6) 在网络和主机页面,选择绑定接口的成员接口,单击<配置>按钮,进入接口配置页面,单击<常规>页签,勾选<可用时自动链接到这个网络>复选框,<所有用户都可以连接这个网络>复选框保持默认勾选,并单击<保存>按钮完成配置。
(7) 在网络和主机配置页面,确保绑定接口和被绑定的本地网卡状态均为启用。
H3Linux操作系统安装完成后,在服务器上配置网卡绑定。
此处以配置mode=2为例进行说明。在三台服务器上分别执行以下配置步骤进行网卡冗余配置。
(8) 增加冗余口的配置文件
创建冗余口bond0,将网卡绑定模式配置为模式2:
通过“vim /etc/sysconfig/network-scripts/ifcfg-bond0”命令创建聚合口bond0,并进入ifcfg-bond0的配置文件增加以下配置,参数均必选,参数取值以实际组网规划为准。
DEVICE=bond0
IPADDR=192.168.15.99
NETMASK=255.255.0.0
GATEWAY=192.168.15.1
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
NM_CONTROLLED=no
BONDING_OPTS="mode=2 miimon=120"
其中,“DEVICE”需与虚拟网卡名称保持一致。“miimon”表示进行链路状态检测的时间间隔。
(9) 加载bond0接口到内核
通过“vim /etc/modprobe.d/bonding.conf”命令进入bonding配置文件,增加以下配置:
alias bond0 bonding
(10) 配置成员端口
创建目录,备份待聚合网卡的文件后对文件进行修改。将要聚合的网口分别添加到冗余口下,以网卡ens32的配置为例,通过“vim /etc/sysconfig/network-scripts/ifcfg-ens32”命令进入网卡配置文件,增加以下配置,参数均必选,参数取值以实际组网规划为准:
TYPE=Ethernet
DEVICE=ens32
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=no
NM_CONTROLLED=no
其中,DEVICE需要与网卡名称保持一致,MASTER为虚拟网卡的名称。
(11) 加载bonding模块
通过“modprobe bonding”命令加载bonding模块。
(12) 重启服务
通过“service network restart”命令重启服务。如果多次修改过bond配置,可能需要重启服务器。
(13) 查看配置是否生效
¡ 通过“cat /sys/class/net/bond0/bonding/mode”命令查看当前聚合模式是否生效。
图7-4 查看当前聚合模式是否生效
¡ 通过“cat /proc/net/bonding/bond0”命令查看聚合接口信息。
图7-5 查看聚合接口信息
(14) 通过“vim /etc/rc.d/rc.local”,将如下配置信息加入开机自启动。
ifenslave bond0 ens32 ens33 ens34
(1) 登录Matrix平台,点击“部署”页签,在弹出的菜单中选择“安全 > 安全策略”选项,进入安全策略页面。
(2) 单击<增加>按钮,进入增加安全策略页面。
(3) 在“基本设置”区域配置默认动作为“允许”。
(4) 在“规则信息”区域单击<增加>按钮,在弹出窗口中配置如下规则:
¡ 源地址为节点上除Matrix平台使用的网卡外的其它网卡IP。
¡ 协议类型为TCP。
¡ 目标端口必须输入为:
8101,44444,2379,2380,8088,6443,10251,10252,10250,10255,10256。
¡ 动作为允许。
(5) 配置完成后单击<应用>按钮。
必须将所有节点上除Matrix平台使用的网卡外的其它网卡IP都加入到安全策略中。
例如节点1上除Matrix平台使用的网卡外还有一个网卡的IP为1.1.1.1,节点2上除Matrix平台使用的网卡外的网卡IP为2.2.2.2,节点3上除Matrix平台使用的网卡外的网卡IP为3.3.3.3,则需要在安全策略的规则中增加3条规则,源地址分别为1.1.1.1、2.2.2.2、3.3.3.3,协议类型都是TCP,目标端口都是“8101,44444,2379,2380,8088,6443,10251,10252,10250,10255,10256”,动作都为允许。
图7-6 安全策略举例
(6) 开启被关掉的网卡,下面以eth33为例。
[root@node01 ~]# ifup eth33
从E2315版本开始分析器PostgreSQL数据库支持高可用的Stolon架构,E2315以下版本升级到E2315及以上版本后,支持手动将PostgreSQL数据库从pgpool架构切换到Stolon架构。
(1) 进行postgreSQL架构切换前,必须检查分析器的POD状态是否正常,只有在分析器POD状态都正常的情况下才可以进行切换。升级到E2315及以上版本后登录分析器任一台节点后台,执行如下命令:
kubectl get pod -n sa | grep -v Running | grep -v Completed
¡ 如果返回结果与图7-7所示一致,则表示分析器POD状态都正常。
¡ 如果返回结果与图7-7所示不一致,则表示分析器POD状态有异常,请联系H3C工程师解决。
¡ 如果返回结果中itoa-kafka2vertica-upgrade-xxx的状态为Init:0/1,这是升级后的正常现象,需要等待其升级完成,升级完成的状态为Completed。
(2) 检查分析器POD状态都正常后,登录任一节点后台,执行如下命令,进入切换脚本的路径下
cd /opt/matrix/app/install/metadata/SA/scripts/pgpool2stolon
在当前目录下执行切换脚本,命令为./pgpool2stolon_data_migration.sh
图7-8 执行切换脚本
这个时候控制台会打印切换过程中的日志,当脚本执行完退出并且控制台打印的日志最后一行出现“pgpool2stolon data migration end...”时表示切换完成,切换时间与PostgreSQL数据库存储的数据量大小有关。
图7-9 执行切换脚本
如果脚本执行完退出了,但是控制台最后一行日志中没有出现“pgpool2stolon data migration end...”,则表示切换失败,需要联系H3C工程师解决。
(3) Stolon架构切换完成后,PostgreSQL即可正常提供服务,执行命令:
kubectl get pod -n sa | grep stolon
可以查看Stolon相关POD是否是Running状态,如果是Running状态则表示正常;如果出现其他状态则需要联系H3C工程师解决。
图7-10 检查Stolon相关POD状态
再执行命令kubectl get pod -n sa | grep pg-node,检查切换前的POD是否有残留,如果如图7-11所示返回结果为空,表示没有残留,是正常状态;如果返回结果不为空,表示有残留,需要联系H3C工程师解决。
图7-11 检查pg-node相关POD状态
切换Stolon架构后建议对分析器进行巡检,检查页面是否正常。
在升级分析器前,需要检查分析器的PostgreSQL数据库、Vertica数据库、InfulxDB数据库的运行状态。如果上述三种数据库的运行状态存在异常,请联系H3C工程师解决,在数据库运行状态均正常的情况下才能进行升级。
分析器E2315以下版本的PostgreSQL数据库为pgpool架构,从E2315版本开始支持Stolon架构。这两种架构下的PostgreSQL数据库检查方式也不相同,区分这两种架构的方法如下:
登录任一节点后台,执行如下命令,判断PostgreSQL数据库的架构。
kubectl get pod -n sa | grep itoa-pg
· 如果返回结果如图7-12所示,则表示为pgpool架构,请参考1.pgpool架构下的PostgreSQL数据库检查
图7-12 PostgreSQL数据库架构判断-pgpool
· 如果返回结果如图7-13所示,则表示为Stolon架构,请参考2.Stolon架构下的PostgreSQL数据库检查
图7-13 PostgreSQL数据库架构判断-Stolon
分析器集群部署模式执行步骤(1)~(5),单机部署模式只需执行(1)~(3)。
(1) 登录任一节点后台,执行如下命令,查看PostgreSQL运行状态是否正常。
kubectl get pod -n sa | grep itoa-pg
查看pg-node以及pgpool的状态是否为Running,以及重启次数是否正常(一般0为正常,如果重启次数太多,需要联系H3C工程师确认)
图7-14 检查PostgreSQL状态
(2) 执行如下命令,进入psql视图。
export PGPASSWORD=postgres
psql -h 127.0.0.1 -p 5400 postgres -U postgres
图7-15 进入psql视图
(3) 在psql视图依次执行如下sql。
show pool_nodes;
select * from pg_replication_slots;
图7-16 执行sql
第一个sql查看“role”列是否一个为primary,一个为standby。第二个sql查看“active”列是否为“t”,并且只有一行数据。如果不是,需要联系H3C工程师确认。
(4) 执行如下命令,查看pg-node1和pg-node2所在节点。
kubectl get pod -n sa -o wide | grep itoa-pg-node
如图7-17所示,pg-node1在hostname为76-uc1的节点,pg-node2在hostname为76-uc2的节点
图7-17 查看pg-node1和pg-node2所在节点
(5) 依次登录pg-node1和pg-node2所在节点,执行如下命令查看PostgresSQL数据量大小。
du -sh /sa_data/pg_data/base
¡ 如果pg-node1和pg-node2所在节点的数据量大小在同一个量级,则表示正常
¡ 如果pg-node1和pg-node2所在节点的数据量大小不在同一个量级,则表示异常,需要联系H3C工程师确认
图7-18 查看PostgresSQL数据量大小
分析器集群部署模式执行步骤(1)~(4),单机部署模式只需执行(1)~(3)。
(1) 登录任一节点后台,执行如下命令,查看PostgreSQL运行状态是否正常。
kubectl get pod –nsa -owide | grep stolon
查看所有容器的状态是否为Running,以及重启次数是否正常(一般0为正常,如果重启次数太多,需要联系H3C工程师确认)
图7-19 检查PostgreSQL状态
(2) 执行如下命令,进入psql视图。
export PGPASSWORD=postgres
psql -h 127.0.0.1 -p 5400 postgres -U postgres
图7-20 进入psql视图
(3) 在psql视图执行如下sql。
select * from pg_replication_slots;
图7-21 执行sql
查看“active”列是否为“t”,如果有不是的,需要联系H3C工程师确认。
(4) 依次登录分析器所有节点的后台,分别执行如下命令,查看PostgresSQL数据量大小。
du -sh /sa_data/pg_data_stolon/postgres/base
¡ 如果所有节点的数据量大小均在同一个量级,则表示正常
¡ 如果有节点的数据量大小与其他节点不在同一个量级,则表示异常,需要联系H3C工程师确认
图7-22 查看PostgresSQL数据量大小
(1) 登录任一节点后台,执行如下命令,切换到dbadmin用户。
su - dbadmin
图7-23 切换到dbadmin用户
(2) 在dbadmin用户视图下执行如下命令,查看Vertica数据库的运行状态。
admintools -t view_cluster
¡ 如果State显示为UP,表示Vertica运行状态正常
¡ 如果State显示为DOWN,表示Vertica运行状态异常,需要联系H3C工程师解决
图7-24 查看Vertica数据库状态
(3) 检查完后执行exit命令,退出dbadmin用户。
图7-25 退出dbadmin用户
登录任一节点后台,执行如下命令,查看InfulxDB运行状态是否正常。
kubectl get pod -n sa | egrep 'itoa-influxdb' | grep -iv Running | wc -l
· 如果返回结果为0,表示InfluxDB运行状态正常
· 如果返回结果不为0,表示InfluxDB运行状态异常,需要联系H3C工程师确认
图7-26 查看InfulxDB运行状态
不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!