01-正文
本章节下载: 01-正文 (3.11 MB)
目 录
H3C SeerAnalyzer(分析器,本文简称SeerAnalyzer)聚焦于机器数据的价值挖掘,以大数据技术为基础,通过机器学习、深度学习等手段,从海量数据中分析有价值的信息,为企业网络、业务运维以及商业决策提供参考依据。SeerAnalyzer通过对设备性能、用户接入、业务流量的实时数据采集和状态感知,通过大数据分析技术和人工智能算法,将网络的运行可视化,主动感知网络的潜在风险并自动预警。
SeerAnalyzer支持Campus、WAN、DC、NPA、TRA、LGA等多个场景的数据分析。SeerAnalyzer所分析的数据主要包括:网络设备运行数据、网络业务应用流量数据、用户接入和使用网络的记录数据等。
各场景功能简介:
· Campus场景:园区分析器以用户体验保障为目的,通过Telemetry采集用户接入和使用网络的指标数据,使用大数据及AI技术分析用户体验健康度及体验问题,并结合网络设备健康度指标数据,关联分析影响用户体验的根因和处理建议。
· WAN场景:WAN分析器作为广域网智能运维的核心引擎,通过采集状态数据、日志数据、流量数据等多维度网络信息,结合大数据、AI技术对数据进行汇总分析实现智能运维,提供全网健康度测评、应用流分析、容量预测,智能故障诊断等能力,是广域网智能运维的核心引擎。
· DC场景:数据中心分析器以保障数据中心网络的高可靠、低延时为目的。通过全时全量采集网络设备运行信息,建立起全网的健康度评估体系,支持对数据中心内TCP\UDP的会话分析、应用的可视与分析、芯片级缓存监控和丢包分析。对数据中心网络运维实现了全方位支持与保障。
· NPA场景:网络性能分析系统(Network Performance Analytics,简称NPA)是SeerAnalyzer中的一个组件,主要利用全流量数据为用户提供面向业务的性能管理,将网络的运维与业务的保障紧密结合。可应用于网络与应用故障鉴责、链路全流量可视分析、业务全路径监控等数字化运维和运营场景。
· TRA场景:无线轨迹分析系统(Trace Analytics,简称TRA)是SeerAnalyzer中的一个组件,在无线局域网中分析用户终端的轨迹变化情况和人群聚集情况,可应用于园区管理用户行为轨迹,并感知人群聚集热点区域的场景。
· LGA场景:日志分析系统(Log Analytics,简称LGA)是SeerAnalyzer中的一个组件,作为统一日志管理平台,作为一站式解决日志的采集、解析、存储、搜索、分析、告警、可视化等需求的工具化平台,可应用于基于日志的运维监控与分析、安全审计与合规及各种业务日志分析数字化运维和运营场景。
术语 |
说明 |
SeerCollector采集器 |
如果使用SeerAnalyzer的TCP/UDP流分析、INT流分析功能,需要部署SeerCollector采集器 |
NPA流量采集器 |
H3C DATA 网络流量分析一体机(NPA场景必选) |
COLLECTOR采集组件 |
COLLECTOR采集组件为公共采集组件,提供采集服务,包括SNMP、GRPC、NETCONF等协议 |
SeerAnalyzer基于统一数字底盘部署,支持物理机部署和虚拟机部署,推荐部署在物理服务器上。支持两种部署模式(单机模式和集群模式),相关说明如表2-1所示。
部署模式 |
所需服务器数量(台) |
部署说明 |
单机模式 |
1 |
1台服务器作为Master节点部署统一数字底盘,并将SeerAnalyzer部署在统一数字底盘上 当网络规模较小且不要求高可靠性的场景才可以采用单机模式 |
集群模式 |
3+N |
3台服务器作为Master节点部署统一数字底盘。 · 当SeerAnalyzer独立部署时: ¡ 3+N(N≥0)模式:支持SeerAnalyzer部署在任意指定的3个Master节点+N(N≥0)个Worker节点上 · 当控制器与SeerAnalyzer融合部署时: ¡ 3机模式:控制器和SeerAnalyzer融合部署在同一套统一数字底盘集群的3个Master节点上 ¡ 3+1模式:统一数字底盘和控制器部署在3个Master节点上,SeerAnalyzer部署在一个Worker节点上 ¡ 3+N(N≥3)模式:统一数字底盘和控制器部署在3个Master节点上,SeerAnalyzer部署在N个Worker节点上 |
对于不同的场景和网络规模,SeerAnalyzer所分析的业务量存在较大的差异。其中,产生大业务量的主要是网络业务应用流量数据。SeerAnalyzer支持独立部署,同时支持与场景组件融合部署。
硬件配置需求,是在部署基础平台及对应场景组件的环境中,仅根据分析器所能够承载的业务量评估的结果,如需考虑场景组件所能承载的业务量,请进一步评估硬件资源需求。不同的业务量所需的硬件配置有差异。
· 对于安装部署统一数字底盘的服务器,其CPU架构需为x86-64(Intel64/AMD64),系统硬盘为HDD(SAS/SATA)硬盘或SSD硬盘,数据硬盘可采用SSD固态硬盘或机械硬盘(SATA/SAS),磁盘条件允许时建议RAID5。RAID卡不低于1GB写缓存,支持数据掉电保护,并且服务器必须支持安装CentOS 7.6及以上版本的操作系统。
· 分析器不同版本适配的CPU架构型号不同,具体请关注版本配套发布的文件。
· 数据盘总容量一定的情况下,磁盘数量越多读写性能越好,例如:6块2TB的硬盘读写性能优于3块4TB的硬盘。
· 如果使用SeerAnalyzer的TCP流分析、INT流分析功能,需要部署SeerCollector采集器。请参见“2.2 SeerCollector采集器的服务器配置需求”。
· NPA场景所需的NPA流量采集器基于独立的服务器部署,具体部署方法请参见《H3C NPA流量采集器部署指导》。
表2-2 Campus场景统一数字底盘+SeerAnalyzer服务器节点硬件配置需求(单机部署)
硬件节点配置 |
可支持最大管理规模 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|
分析节点 |
1 |
· CPU:20核(总物理核数),2.0GHz主频及以上 · 内存:192G及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:2TB(RAID后容量)及以上,需要2块及以上同型硬盘 · ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位 · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:2000 · Switch+AC+AP:400 |
1 |
· CPU:20核(总物理核数),2.0GHz主频及以上 · 内存:192G及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:2TB(RAID后容量)及以上,需要2块及以上同型硬盘 · ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位 · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:5000 · Switch+AC+AP:1000 |
|
1 |
· CPU:20核(总物理核数),2.0GHz主频及以上 · 内存:192G及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:3TB(RAID后容量)及以上,需要2块及以上同型硬盘 · ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位 · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:10000 · Switch+AC+AP:2000 |
|
1 |
· CPU:24核(总物理核数),2.0GHz主频及以上 · 内存:224G及以上 · 系统盘:3TB(RAID后容量)及以上 · 数据盘:4TB(RAID后容量)及以上,需要3块及以上同型硬盘 · ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位 · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:20000 · Switch+AC+AP:4000 |
|
1 |
· CPU:28核(总物理核数),2.0GHz主频及以上 · 内存:256G及以上 · 系统盘:3TB(RAID后容量)及以上 · 数据盘:5TB(RAID后容量)及以上,需要4块及以上同型硬盘 · ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位 · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:40000 · Switch+AC+AP:8000 |
|
1 |
· CPU:32核(总物理核数),2.0GHz主频及以上 · 内存:288G及以上 · 系统盘:3TB(RAID后容量)及以上 · 数据盘:7TB(RAID后容量)及以上,需要5块及以上同型硬盘 · ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位 · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:60000 · Switch+AC+AP:12000 |
|
1 |
· CPU:40核(总物理核数),2.0GHz主频及以上 · 内存:384G及以上 · 系统盘:3TB(RAID后容量)及以上 · 数据盘:11TB(RAID后容量)及以上,需要8块及以上同型硬盘 · ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位 · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:100000 · Switch+AC+AP:20000 |
表2-3 Campus场景统一数字底盘+SeerAnalyzer服务器节点硬件配置需求(集群部署)
硬件节点配置 |
可支持最大管理规模 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|
分析节点 |
3 |
· CPU:20核(总物理核数),2.0GHz主频及以上 · 内存:128G及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:2TB(RAID后容量)及以上,需要2块及以上同型硬盘 · ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位 · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:2000 · Switch+AC+AP:400 |
3 |
· CPU:20核(总物理核数),2.0GHz主频及以上 · 内存:128G及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:2TB(RAID后容量)及以上,需要2块及以上同型硬盘 · ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位 · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:5000 · Switch+AC+AP:1000 |
|
3 |
· CPU:20核(总物理核数),2.0GHz主频及以上 · 内存:128G及以上 · 系统盘:2.4TB(RAID后容量)及以上 · 数据盘:2TB(RAID后容量)及以上,需要2块及以上同型硬盘 · ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位 · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:10000 · Switch+AC+AP:2000 |
|
3 |
· CPU:20核(总物理核数),2.0GHz主频及以上 · 内存:160G及以上 · 系统盘:3TB(RAID后容量)及以上 · 数据盘:3TB(RAID后容量)及以上,需要3块及以上同型硬盘 · ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位 · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:20000 · Switch+AC+AP:4000 |
|
3 |
· CPU:24核(总物理核数),2.0GHz主频及以上 · 内存:192G及以上 · 系统盘:3TB(RAID后容量)及以上 · 数据盘:4TB(RAID后容量)及以上,需要3块及以上同型硬盘 · ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位 · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:40000 · Switch+AC+AP:8000 |
|
3 |
· CPU:28核(总物理核数),2.0GHz主频及以上 · 内存:224G及以上 · 系统盘:3TB(RAID后容量)及以上 · 数据盘:5TB(RAID后容量)及以上,需要4块及以上同型硬盘 · ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位 · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:60000 · Switch+AC+AP:12000 |
|
3 |
· CPU:32核(总物理核数),2.0GHz主频及以上 · 内存:256G及以上 · 系统盘:3TB(RAID后容量)及以上 · 数据盘:8TB(RAID后容量)及以上,需要6块及以上同型硬盘 · ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位 · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:100000 · Switch+AC+AP:20000 |
表2-4 DC场景统一数字底盘+SeerAnalyzer服务器节点硬件配置需求(单机部署)
硬件节点配置 |
可支持最大设备数量 |
可支持最大TCP连接数 |
备注 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|||
分析节点 |
1 |
· CPU:20核(总物理核数),2.0GHz主频及以上 · 内存:256GB及以上 · 系统盘:1.92TB(RAID后容量)及以上,推荐使用SSD固态硬盘或7.2K RPM以上HDD机械硬盘,IOPS至少5000次/s · 数据盘:8TB(RAID后容量)及以上,需要3块及以上同型硬盘,推荐使用SSD固态硬盘,IOPS至少5000次/s · ETCD盘:配置RAID后容量50GB及以上,SSD固态硬盘,安装路径:/var/lib/etcd · RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位 · 网口(冗余模式):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
50 |
1000VM,约2000TCP流/秒 |
按每个VM 2条TCP流/秒
系统盘最小可配置960GB |
表2-5 DC场景统一数字底盘+SeerAnalyzer服务器节点硬件配置需求(集群部署)
硬件节点配置 |
可支持最大设备数量 |
可支持最大TCP连接数 |
备注 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|||
分析节点 |
3 |
· CPU:20核(总物理核数),2.0GHz主频以上 · 内存:192GB及以上 · 系统盘:1.92TB(RAID后容量)及以上,推荐使用SSD固态硬盘或7.2K RPM以上HDD机械硬盘,IOPS至少5000次/s · 数据盘:数据盘:8TB(RAID后容量)及以上,需要3块及以上同型硬盘,推荐使用SSD固态硬盘,IOPS至少5000次/s · ETCD盘:50GB(RAID后容量)及以上,SSD固态硬盘,安装路径:/var/lib/etcd · RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位 · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
50 |
1000VM,约2000TCP流/秒 |
按每个VM 2条TCP流/秒 |
3 |
· CPU:24核(总物理核数),2.0GHz主频以上 · 内存:256GB及以上 · 系统盘:1.92TB(RAID后容量)及以上,推荐使用SSD固态硬盘或7.2K RPM以上HDD机械硬盘,IOPS至少5000次/s · 数据盘:12TB(RAID后容量)及以上,需要5块及以上同型硬盘,推荐使用SSD固态硬盘,IOPS至少5000次/s · ETCD盘:50GB(RAID后容量)及以上,SSD固态硬盘,安装路径:/var/lib/etcd · RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位 · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
100 |
2000VM,约4000TCP流/秒 |
按每个VM 2条TCP流/秒 |
|
3 |
· CPU:32核(总物理核数),2.0GHz主频以上 · 内存:256GB以上 · 系统盘:1.92TB(RAID后容量)及以上,推荐使用SSD固态硬盘或7.2K RPM以上HDD机械硬盘,IOPS至少5000次/s · 数据盘:24TB(RAID后容量)及以上,需要7块及以上同型硬盘,推荐使用SSD固态硬盘,IOPS至少5000次/s · ETCD盘:50GB(RAID后容量)及以上,SSD固态硬盘,安装路径:/var/lib/etcd · RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位 · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
200 |
5000VM,约10000TCP流/秒 |
按每个VM 2条TCP流/秒 |
可根据整个数据中心VM的总数量、按每个VM 2条TCP流/秒,计算整体的TCP流大小,来判断所需使用的硬件配置规格。
在WAN场景中,分析器不支持独立部署,仅支持控制器和分析器融合部署,并且需要优先安装控制器。对于与控制器融合部署的硬件配置,请参见《AD-NET解决方案硬件配置指导》。
表2-6 独立单机部署配置要求(x86-64(Intel64/AMD64)架构)(统一数字底盘+SeerAnalyzer-NPA)
硬件节点配置 |
适用业务量 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|
分析节点 |
1 |
· CPU:32核(总物理核数),2.0GHz主频以上 · 内存:256GB及以上 · 系统盘:1.92TB(RAID后容量)及以上,推荐使用SSD固态硬盘或7.2K RPM以上HDD机械硬盘,IOPS至少5000次/s · 数据盘:8TB(RAID后容量)及以上,建议采用5块同型硬盘,推荐使用SSD固态硬盘,IOPS至少5000次/s · ETCD盘:配置RAID后容量50GB及以上,安装路径:/var/lib/etcd · RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位 · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
采集器10台、80条链路 即:采集器数量≤10台且链路数≤80条 |
表2-7 独立集群部署配置要求(x86-64(Intel64/AMD64)架构)(统一数字底盘+SeerAnalyzer-NPA)
硬件节点配置 |
适用业务量 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|
分析节点 |
≥3 |
· CPU:24核(总物理核数),2.0GHz主频以上 · 内存:128GB及以上 · 系统盘:1.92TB(RAID后容量)及以上,推荐使用SSD固态硬盘或7.2K RPM以上HDD机械硬盘,IOPS至少5000次/s · 数据盘:8TB(RAID后容量)及以上,建议采用5块同型硬盘,推荐使用SSD固态硬盘,IOPS至少5000次/s · ETCD盘:配置RAID后容量50GB及以上,安装路径:/var/lib/etcd · RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位 · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
采集器10台、80条链路 即:采集器数量≤10台且链路数≤80条 |
分析节点 |
≥3 |
· CPU:32核(总物理核数),2.0GHz主频以上 · 内存:256GB及以上 · 系统盘:1.92TB(RAID后容量)及以上,推荐使用SSD固态硬盘或7.2K RPM以上HDD机械硬盘,IOPS至少5000次/s · 数据盘:8TB(RAID后容量)及以上,建议采用5*块同型硬盘,推荐使用SSD固态硬盘,IOPS至少5000次/s · ETCD盘:配置RAID后容量50GB及以上,安装路径:/var/lib/etcd · RAID卡:1GB Cache以上,支持数据掉电保护且超级电容必须在位 · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
采集器20台、160条链路 即:采集器数量≤20台且链路数≤160条 |
表2-8 NPA采集器部署硬件配置需求
属性 |
一体机硬件配置 |
适用业务量 |
NPA采集器节点(10Gb) |
流量分析一体机-10Gb-高配 · CPU:16核(2*8核)2.0GHz主频以上 X86 series-FC-LGA3647-2.1GHz(8C)-85W-4208 CLX · 内存:64G · 系统盘:300GB(RAID1后容量)需要2块及以上 · 数据盘:10TB (RAID5后容量) 需要6块及以上 · RAID卡:2GB Cache及以上,支持数据掉电保护且超级电容必须在位。(推荐UN-RAID-2000-M2、UN-HBA-1000-M2) · 网卡:4GE千兆电口,2SFP+万兆光口(支持DPDK,推荐Intel I350芯片、Intel 82599芯片 |
· 10Gbps流量 · 支持存储1个月会话数据 · <=4条链路
|
NPA采集器节点(20Gb) |
流量分析一体机-20Gb-高配 · CPU:20核(2*10核)2.1GHz主频以上 X86 series-FC-LGA3647-2.2GHz(10C)-85W-4210 CLX · 内存:96G · 系统盘:300GB(RAID1后容量)需要2块及以上 · 数据盘:36TB (RAID5后容量)需要10块及以上 · RAID卡:2GB Cache及以上,支持数据掉电保护且超级电容必须在位。(推荐UN-RAID-2000-M2、UN-HBA-1000-M2) · 网卡:4GE千兆电口,2SFP+万兆光口(支持DPDK,推荐Intel I350芯片、Intel 82599芯片 |
· 20Gbps流量 · 支持存储1个月会话数据 · <=8条链路
|
NPA采集器节点(40Gb) |
流量分析一体机-40Gb-高配 · CPU:32核(2*16核)2.1GHz主频以上 X86 series-FC-LGA3647-2.3GHz(16C)-125W-5218 CLX · 内存:192G · 系统盘:300GB(RAID1后容量)需要2块及以上 · 数据盘:54TB (RAID5后容量)需要10块及以上 · RAID卡:2GB Cache及以上,支持数据掉电保护且超级电容必须在位。(推荐UN-RAID-2000-M2、UN-HBA-1000-M2) · 网卡:4GE千兆电口,4SFP+万兆光口(支持DPDK,推荐Intel I350芯片、Intel 82599芯片 |
· 40Gbps流量 · 支持存储1个月会话数据 · <=16条链路
|
表2-9 LGA场景统一数字底盘+SeerAnalyzer服务器单节点硬件配置需求(单机部署)
硬件节点配置 |
适用业务量 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|
分析节点 |
1 |
· CPU:32核,2.0GHz主频及以上 · 内存:256GB及以上 · 系统盘:1.92TB(RAID后容量)及以上,推荐使用SSD固态硬盘或7.2K RPM以上HDD机械硬盘,IOPS至少5000次/s · 数据盘:26TB(RAID后容量)及以上,需要6块及以上同型硬盘,推荐使用SSD固态硬盘,IOPS至少5000次/s · ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:1个网口,10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2个网口,2*10Gbps及以上带宽,2个网口组成1组Linux Bonding |
· 日志集数量<10个 · 数据接入/数据加工/入库ES<5000 eps · 日志平均大小<500B · 日志保留时长不超过30天 · 磁盘总大小根据日志保存时长确定,保存时间越长磁盘要求越大 · 查询支持10亿级数据秒级响应 · 分析支持1亿级数据秒级响应,复杂分析场景平均10s内响应 |
表2-10 LGA场景统一数字底盘+SeerAnalyzer服务器单节点硬件配置需求(集群部署)
硬件节点配置 |
适用业务量 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|
分析节点 |
3 |
· CPU:32核,2.0GHz主频及以上 · 内存:256GB及以上 · 系统盘:1.92TB(RAID后容量)及以上,推荐使用SSD固态硬盘或7.2K RPM以上HDD机械硬盘,IOPS至少5000次/s · 数据盘:22TB(RAID后容量)及以上,需要6块及以上同型硬盘,IOPS至少5000次/s · ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:1个网口,10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2个网口,2*10Gbps及以上带宽,2个网口组成1组Linux Bonding |
· 日志集数量<30个 · 数据接入/数据加工/入库ES<13000 eps · 日志平均大小<500b · 日志保留时长不超过30天 · 磁盘总大小根据日志保存时长确定,保存时间越长磁盘要求越大 · 查询支持10亿级数据秒级响应 · 分析支持1亿级数据秒级响应,复杂分析场景平均10s内响应 |
表2-11 TRA场景统一数字底盘+SeerAnalyzer服务器单节点硬件配置需求(单机部署)
硬件节点配置 |
适用业务量 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|
分析节点 |
1 |
· CPU:20核,2.0GHz主频及以上 · 内存:128GB及以上 · 系统盘:1.92TB(RAID后容量)及以上,推荐使用SSD固态硬盘或7.2K RPM以上HDD机械硬盘,IOPS至少5000次/s · 数据盘:10TB(RAID后容量)及以上,需要3块及以上同型硬盘,推荐使用SSD固态硬盘,IOPS至少5000次/s · ETCD盘:50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:1个网口,10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2个网口,2*10Gbps及以上带宽,2个网口组成1组Linux Bonding |
· 终端在线5万 · 低速率画像1万终端 · 保存天数:1年 |
表2-12 TRA场景统一数字底盘+SeerAnalyzer服务器单节点硬件配置需求(集群部署)
硬件节点配置 |
适用业务量 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|
分析节点 |
3 |
· CPU:20核,2.0GHz主频及以上 · 内存:128GB及以上 · 系统盘:1.92TB(RAID后容量)及以上,推荐使用SSD固态硬盘或7.2K RPM以上HDD机械硬盘,IOPS至少5000次/s · 数据盘:10TB(RAID后容量)及以上,需要3块及以上同型硬盘,推荐使用SSD固态硬盘,IOPS至少5000次/s · ETCD盘:50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:1个网口,10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):2个网口,2*10Gbps及以上带宽,2个网口组成1组Linux Bonding |
· 终端在线7万 · 低速率画像1万终端 · 保存天数:1年 · 支持高可用 |
NPA、LGA、TRA场景下数据盘随机读写不低于100M/s,不得采用共享存储,仅支持H3C CAS虚拟化方案并且分配给虚拟机的CPU、内存和磁盘必须符合推荐容量要求且确保有对应容量的物理资源,CAS 虚拟化需要挂本地存储,禁止启用超配模式(超额分配虚机资源)。
表2-13 Campus场景统一数字底盘+SeerAnalyzer服务器虚拟机节点配置需求(单机部署)
虚拟机节点配置 |
可支持最大管理规模 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|
分析节点 |
1 |
· vCPU:20*2核,2.0GHz主频及以上 · 内存:192G及以上 · 系统盘:2.4TB及以上 · 数据盘:2TB及以上,硬盘随机读写不低于100M/s,不得采用共享存储 · ETCD盘:50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:2000 · Switch+AC+AP:400 |
分析节点 |
1 |
· vCPU:20*2核,2.0GHz主频及以上 · 内存:192G及以上 · 系统盘:2.4TB及以上 · 数据盘:2TB及以上,硬盘随机读写不低于100M/s,不得采用共享存储 · ETCD盘:50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:5000 · Switch+AC+AP:1000 |
分析节点 |
1 |
· vCPU:20*2核,2.0GHz主频及以上 · 内存:192G及以上 · 系统盘:2.4TB及以上 · 数据盘:3TB及以上,硬盘随机读写不低于100M/s,不得采用共享存储 · ETCD盘:50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:10000 · Switch+AC+AP:2000 |
分析节点 |
1 |
· vCPU:24*2核,2.0GHz主频及以上 · 内存:224G及以上 · 系统盘:3TB及以上 · 数据盘:4TB及以上,硬盘随机读写不低于100M/s,不得采用共享存储 · ETCD盘:50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:20000 · Switch+AC+AP:4000 |
分析节点 |
1 |
· vCPU:28*2核,2.0GHz主频及以上 · 内存:256G及以上 · 系统盘:3TB及以上 · 数据盘:5TB及以上,硬盘随机读写不低于100M/s,不得采用共享存储 · ETCD盘:50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:40000 · Switch+AC+AP:8000 |
分析节点 |
1 |
· vCPU:32*2核,2.0GHz主频及以上 · 内存:288G及以上 · 系统盘:3TB及以上 · 数据盘:7TB及以上,硬盘随机读写不低于100M/s,不得采用共享存储 · ETCD盘:50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:60000 · Switch+AC+AP:12000 |
分析节点 |
1 |
· vCPU:40*2核,2.0GHz主频及以上 · 内存:384G及以上 · 系统盘:3TB及以上 · 数据盘:11TB及以上,硬盘随机读写不低于100M/s,不得采用共享存储 · ETCD盘:50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:100000 · Switch+AC+AP:20000 |
表2-14 Campus场景统一数字底盘+SeerAnalyzer服务器虚拟机节点配置需求(集群部署)
虚拟机节点配置 |
可支持最大管理规模 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|
分析节点 |
3 |
· vCPU:20*2核,2.0GHz主频及以上 · 内存:128G及以上 · 系统盘:2.4TB及以上 · 数据盘:2TB及以上,硬盘随机读写不低于100M/s,不得采用共享存储 · ETCD盘:50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:2000 · Switch+AC+AP:400 |
分析节点 |
3 |
· vCPU:20*2核,2.0GHz主频及以上 · 内存:128G及以上 · 系统盘:2.4TB及以上 · 数据盘:2TB及以上,硬盘随机读写不低于100M/s,不得采用共享存储 · ETCD盘:50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:5000 · Switch+AC+AP:1000 |
分析节点 |
3 |
· vCPU:20*2核,2.0GHz主频及以上 · 内存:128G及以上 · 系统盘:2.4TB及以上 · 数据盘:2TB及以上,硬盘随机读写不低于100M/s,不得采用共享存储 · ETCD盘:50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:10000 · Switch+AC+AP:2000 |
分析节点 |
3 |
· vCPU:20*2核,2.0GHz主频及以上 · 内存:160G及以上 · 系统盘:3TB及以上 · 数据盘:3TB及以上,硬盘随机读写不低于100M/s,不得采用共享存储 · ETCD盘:50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:20000 · Switch+AC+AP:4000 |
分析节点 |
3 |
· vCPU:24*2核,2.0GHz主频及以上 · 内存:192G及以上 · 系统盘:3TB及以上 · 数据盘:4TB及以上,硬盘随机读写不低于100M/s,不得采用共享存储 · ETCD盘:50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:40000 · Switch+AC+AP:8000 |
分析节点 |
3 |
· vCPU:28*2核,2.0GHz主频及以上 · 内存:224G及以上 · 系统盘:3TB及以上 · 数据盘:5TB及以上,硬盘随机读写不低于100M/s,不得采用共享存储 · ETCD盘:50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:60000 · Switch+AC+AP:12000 |
分析节点 |
3 |
· vCPU:32*2核,2.0GHz主频及以上 · 内存:256G及以上 · 系统盘:3TB及以上 · 数据盘:8TB及以上,硬盘随机读写不低于100M/s,不得采用共享存储 · ETCD盘:50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
· 在线用户:100000 · Switch+AC+AP:20000 |
· 分配给虚拟机的CPU、内存和磁盘必须符合推荐容量要求且确保有对应容量的物理资源,禁止启用超配模式(超额分配虚机资源)。
· 安装etcd的磁盘必须与安装系统的其他部分的磁盘分别对应不同的物理硬盘上。
· 仅支持H3C CAS虚拟化方案,CAS虚拟化需要挂本地存储,RAID后容量达到配置表的容量且需要3块及以上同型硬盘做本地RAID。
表2-15 DC场景统一数字底盘+SeerAnalyzer服务器虚拟机节点配置需求(单机部署)
虚拟机节点配置 |
可支持最大设备数量 |
可支持最大TCP连接数 |
备注 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|||
分析节点 |
1 |
· vCPU:20*2核,2.0GHz主频及以上 · 内存:256GB及以上 · 系统盘:1.92TB及以上 · 数据盘:8TB及以上,随机读写200M/s以上,IOPS至少5000次/s,不得采用共享存储 · ETCD盘:50GB及以上,SSD固态硬盘,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
50 |
1000VM,约2000TCP流/秒 |
按每个VM 2条TCP流/秒
系统盘最小可配置960GB |
表2-16 DC场景统一数字底盘+SeerAnalyzer服务器虚拟机节点配置需求(集群部署)
虚拟机节点配置 |
可支持最大设备数量 |
可支持最大TCP连接数 |
备注 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|||
分析节点 |
3 |
· vCPU:20*2核,2.0GHz主频以上 · 内存:192GB及以上 · 系统盘:1.92TB及以上 · 数据盘:8TB及以上,随机读写200M/s以上,IOPS至少5000次/s,不得采用共享存储 · ETCD盘:50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
50 |
1000VM,约2000TCP流/秒 |
按每个VM 2条TCP流/秒 |
3 |
· vCPU:24*2核,2.0GHz主频以上 · 内存:256GB及以上 · 系统盘:1.92TB及以上 · 数据盘:12TB及以上,随机读写200M/s以上,IOPS至少5000次/s,不得采用共享存储 · ETCD盘:50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
100 |
2000VM,约4000TCP流/秒 |
按每个VM 2条TCP流/秒 |
|
3 |
· vCPU:32*2核,2.0GHz主频以上 · 内存:256GB以上 · 系统盘:1.92TB及以上 · 数据盘:12TB及以上,随机读写200M/s以上,IOPS至少5000次/s,不得采用共享存储 · ETCD盘:50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
200 |
5000VM,约10000TCP流/秒 |
按每个VM 2条TCP流/秒 |
· 可根据整个数据中心VM的总数量、按每个VM 2条TCP流/秒,计算整体的TCP流大小,来判断所需使用的硬件配置规格。
· 分配给虚拟机的CPU、内存和磁盘必须符合推荐容量要求且确保有对应容量的物理资源,禁止启用超配模式(超额分配虚机资源)。
· 仅支持H3C CAS 虚拟化方案,CAS 虚拟化需要挂本地存储,RAID后容量达到配置表的容量且需要3块及以上同型硬盘做本地RAID。
· DC采集器不支持虚拟机部署。
在WAN场景中,分析器不支持独立部署,仅支持控制器和分析器融合部署,并且需要优先安装控制器。对于与控制器融合部署的硬件配置,请参见《AD-NET解决方案硬件配置指导》。
表2-17 NPA场景统一数字底盘+SeerAnalyzer服务器单虚拟机节点配置需求(单机部署)
虚机节点配置 |
适用业务量 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|
分析节点 |
1 |
· CPU:64 vCPU,2.0GHz主频以上 · 内存:256GB及以上 · 系统盘:1.92TB及以上 · 数据盘:8TB及以上,随机读写200MB/s以上,IOPS至少5000次/s,不得采用共享存储 · ETCD盘:容量50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps |
采集器10台、80条链路 即:采集器数量<=10台且链路数<=80条 |
· 分配给虚拟机的CPU、内存和磁盘必须符合推荐容量要求且确保有对应容量的物理资源,禁止启用超配模式(超额分配虚机资源)。
· 安装etcd的磁盘必须与安装系统的其他部分的磁盘分别对应不同的物理硬盘上。
· 仅支持H3C CAS虚拟化方案,CAS虚拟化需要挂本地存储,RAID后容量达到配置表的容量且需要3块及以上同型硬盘做本地RAID。
表2-18 NPA场景统一数字底盘+SeerAnalyzer服务器单虚拟机节点配置需求(集群部署)
虚机节点配置 |
适用业务量 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|
分析节点 |
≥3 |
· CPU:48 vCPU,2.0GHz主频以上 · 内存:128GB及以上 · 系统盘:1.92TB及以上 · 数据盘:8TB及以上,随机读写200MB/s以上,IOPS至少5000次/s,不得采用共享存储 · ETCD盘:容量50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps ¡ 集群间 10GE带宽以及以上 |
采集器10台、80条链路 即:采集器数量≤10台且链路数≤80条 |
分析节点 |
≥3 |
· CPU:64 vCPU,2.0GHz主频以上 · 内存:256GB及以上 · 系统盘:1.92TB及以上 · 数据盘:8TB及以上,随机读写200M/s以上,IOPS至少5000次/s,不得采用共享存储 · ETCD盘:容量50GB及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:2个网口,2*10Gbps及以上带宽 ¡ 冗余模式(工作模式推荐配置为mode2或mode4):4个网口,4*10Gbps及以上带宽,每2个网口组成1组Linux Bonding:2*10Gbps + 2*10Gbps ¡ 集群间 10GE带宽以及以上 |
采集器20台、160条链路 即:采集器数量≤20台且链路数≤160条 |
· NPA场景支持虚拟机部署,安装在VM形态的环境上。由虚拟环境提供需要的CPU、内存、磁盘等资源。支持的虚拟化平台及版本信息与统一数字底盘配置相同。虚拟机部署时,如果虚拟化平台服务器开启超线程模式,则要求vCPU的核数是物理机部署时CPU核数的2倍;如果不开启超线程模式,vCPU核数与物理机部署时保持一致,内存和磁盘配置参考物理机部署的配置要求即可。
· 分配给虚拟机的CPU、内存和磁盘必须符合推荐容量要求且确保有对应容量的物理资源,禁止启用超配模式(超额分配虚机资源)。
· 仅支持H3C CAS 虚拟化方案,CAS 虚拟化需要挂本地存储,RAID后容量达到配置表的容量且需要3块及以上同型硬盘做本地RAID。
· 安装etcd的磁盘必须与安装系统的其他部分的磁盘分别对应不同的物理硬盘上。
· 链路数是采集器中的概念,依赖采集器的适用业务量。
表2-19 LGA场景统一数字底盘+SeerAnalyzer服务器单虚拟机节点配置需求(单机部署)
硬件节点配置 |
适用业务量 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|
分析节点 |
1 |
· vCPU:64核,2.0GHz主频及以上 · 内存:256GB及以上 · 系统盘:1.92TB(RAID后容量)及以上 · 数据盘:26TB(RAID后容量)及以上,随机读写200MB/s以上,IOPS至少5000次/s,不得采用共享存储 · ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · 网口:1个网口,10Gbps及以上带宽 |
· 日志集数量<10个 · 数据接入/数据加工/入库ES<5000 eps · 日志平均大小<500b · 日志保留时长不超过30天 · 磁盘总大小根据日志保存时长确定,保存时间越长磁盘要求越大 · 查询支持10亿级数据秒级响应 · 分析支持1亿级数据秒级响应,复杂分析场景平均10s内响应 |
表2-20 LGA场景统一数字底盘+SeerAnalyzer服务器单虚拟机节点配置需求(集群部署)
硬件节点配置 |
适用业务量 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|
分析节点 |
3 |
· vCPU:64核,2.0GHz主频及以上 · 内存:256GB及以上 · 系统盘:1.92TB(RAID后容量)及以上 · 数据盘:22TB(RAID后容量)及以上,随机读写200MB/s以上,IOPS至少5000次/s,不得采用共享存储 · ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · 网口: ¡ 普通模式:1个网口,10Gbps及以上带宽 ¡ 集群间 10GE带宽以及以上 |
· 日志集数量<30个 · 数据接入/数据加工/入库ES<13000 eps · 日志平均大小<500B · 日志保留时长不超过30天 · 磁盘总大小根据日志保存时长确定,保存时间越长磁盘要求越大 · 查询支持10亿级数据秒级响应 · 分析支持1亿级数据秒级响应,复杂分析场景平均10s内响应 |
· LGA场景支持虚拟机部署,安装在VM形态的环境上。由虚拟环境提供需要的CPU、内存、磁盘等资源。支持的虚拟化平台及版本信息与统一数字底盘配置相同。虚拟机部署时,如果虚拟化平台服务器开启超线程模式,则要求vCPU的核数是物理机部署时CPU核数的2倍;如果不开启超线程模式,vCPU核数与物理机部署时保持一致,内存和磁盘配置参考物理机部署的配置要求即可。
· 分配给虚拟机的CPU、内存和磁盘必须符合推荐容量要求且确保有对应容量的物理资源,禁止启用超配模式(超额分配虚机资源)。
· 仅支持H3C CAS 虚拟化方案,CAS 虚拟化需要挂本地存储,RAID后容量达到配置表的容量且需要6块及以上同型硬盘做本地RAID
· 安装etcd的磁盘必须与安装系统的其他部分的磁盘分别对应不同的物理硬盘上。
表2-21 TRA场景统一数字底盘+SeerAnalyzer服务器单虚拟机节点配置需求(单机部署)
硬件节点配置 |
适用业务量 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|
分析节点 |
1 |
· CPU:40 vCPU,2.0GHz主频及以上 · 内存:128GB及以上 · 系统盘:1.92TB(RAID后容量)及以上 · 数据盘:10TB(RAID后容量)及以上,随机读写200MB/s以上,IOPS至少5000次/s,不得采用共享存储 · ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd · 网口:1个网口,10Gbps及以上带宽 |
· 终端在线3万 · 低速率画像1万终端 · 保存天数:1年 |
表2-22 TRA场景统一数字底盘+SeerAnalyzer服务器单虚拟机节点配置需求(集群部署)
硬件节点配置 |
适用业务量 |
||
节点名称 |
节点配置数量 |
单节点详细配置 |
|
分析节点 |
3 |
· CPU:40 vCPU,2.0GHz主频及以上 · 内存:128GB及以上 · 系统盘:1.92TB(RAID后容量)及以上 · 数据盘:10TB(RAID后容量)及以上,随机读写200MB/s以上,IOPS至少5000次/s,不得采用共享存储 · ETCD盘:50GB(RAID后容量)及以上,安装路径:/var/lib/etcd ¡ 网口:1个网口,10Gbps及以上带宽 ¡ 集群间 10GE带宽以及以上 |
· 终端在线7万 · 低速率画像1万终端 · 保存天数:1年 · 支持高可用 |
· TRA场景支持虚拟机部署,安装在VM形态的环境上。由虚拟环境提供需要的CPU、内存、磁盘等资源。支持的虚拟化平台及版本信息与统一数字底盘配置相同。虚拟机部署时,如果虚拟化平台服务器开启超线程模式,则要求vCPU的核数是物理机部署时CPU核数的2倍;如果不开启超线程模式,vCPU核数与物理机部署时保持一致,内存和磁盘配置参考物理机部署的配置要求即可。
· 分配给虚拟机的CPU、内存和磁盘必须符合推荐容量要求且确保有对应容量的物理资源,禁止启用超配模式(超额分配虚机资源)。
· 仅支持H3C CAS 虚拟化方案,CAS 虚拟化需要挂本地存储,RAID后容量达到配置表的容量且需要3块及以上同型硬盘做本地RAID。
· 安装ETCD的磁盘必须与安装系统的其他部分的磁盘分别对应不同的物理硬盘上。
分析器运行在统一数字底盘上,部署分析器前需要先安装统一数字底盘。
如果使用SeerAnalyzer的TCP/UDP流分析、INT流分析功能,需要部署SeerCollector采集器。
SeerCollector采集器需安装在物理服务器上。硬件配置需求如表2-23所示。
推荐配置 |
可支持最大管理规模 |
· CPU:Intel(R) Xeon(R) 可扩展处理器(推荐使用Platinum或Gold系列),2.0GHz主频及以上,核数不低于20 · 内存:128G及以上 · 系统盘:2*600GB(建议RAID1)及以上,SAS或SSD硬盘 · 网卡(冗余模式):1个10Gbps采集网口,1个10Gbps管理网口 ¡ 必须支持DPDK技术,不能配置为bond模式;管理网口可配置bond模式 ¡ 采集网口x86服务器推荐Intel 82599芯片的网卡,请提前规划好哪张网卡需要用于采集,记录好网卡的信息(名字、MAC),规划并设置好IP地址等操作,配置下发后,采集网卡被DPDK接管,通过Linux内核命令将看不到使用的网卡 ¡ 采集网口支持Mellanox4网卡,推荐Mellanox Technologies MT27710 Family、Mellanox Technologies MT27700两个型号,如果Mellanox4网卡作为采集网卡,管理网卡必须使用其他的网卡。目前ARM版本仅支持Mellanox网卡 ¡ 禁止对管理网口进行DPDK绑定 |
· 业务量:50000TCP流/秒 说明:TCP流会话经过3跳的会话数据 |
· 分析器不同版本适配的CPU架构型号不同,具体请关注版本配套发布的文件。
· 采集服务器上需要两个网口:一个网口负责采集业务,用于接收网络设备发送过来的镜像报文;另一个负责管理业务,用于与分析器数据交互。
表2-24 SeerCollector采集网卡支持列表(x86-64(Intel64/AMD64)架构)
厂商 |
芯片 |
型号 |
型号系列 |
支持版本 |
Intel |
JL82599 |
H3C UIS CNA 1322 FB2-RS3NXP2D-2端口万兆光接口网卡(SFP+) |
CNA-10GE-2P-560F-B2 |
所有版本 |
JL82599 |
H3C UIS CNA 1322 FB2-RS3NXP2DBY-2端口万兆光接口网卡(SFP+) |
CNA-10GE-2P-560F-B2 |
所有版本 |
|
X550 |
H3C UNIC CNA 560T B2-RS33NXT2A-2端口万兆电接口网卡-1*2 |
|
所有版本 |
|
X540 |
UN-NIC-X540-T2-T-10Gb-2P(电接口网卡) |
|
所有版本 |
|
X520 |
UN-NIC-X520DA2-F-B-10Gb-2P |
|
所有版本 |
|
Mellanox |
MT27710 Family [ConnectX-4 Lx] |
NIC-ETH540F-LP-2P |
Mellanox Technologies MT27710 Family |
所有版本 |
磁盘RAID规划 |
分区名称 |
挂载点 |
最小容量 |
备注 |
2*600GB,RAID1 |
/dev/sda1 |
/boot/efi |
200MB |
EFI System Partition类型,仅UEFI模式需要配置该分区 |
/dev/sda2 |
/boot |
1024MB |
- |
|
/dev/sda3 |
/ |
590GB |
|
|
/dev/sda4 |
swap |
4GB |
swap类型 |
· SeerCollector采集器不需要数据盘存储。
· 当系统磁盘大于1.5T时,SeerCollector采集器系统盘可自动分区规划,否则可参考表2-25对系统盘手动分区规划。
表2-26 SeerCollector支持系统及CPU参考表
CPU |
操作系统 |
内核版本 |
备注 |
海光(X86) |
H3Linux 1.3.1 |
5.10.38-21.hl05.el7.x86_64 |
支持E6210以及更高版本 |
H3Linux 1.1.2 |
3.10.0-957.27.2.el7.x86_64 |
支持E6210以及更高版本 |
|
麒麟操作系统V10SP2 |
4.19.90-24.4.v2101.ky10.x86_64 |
支持E6210以及更高版本 |
|
Intel(X86) |
麒麟操作系统V10SP2 |
4.19.90-24.4.v2101.ky10.x86_64 |
支持E6210以及更高版本 |
H3Linux 1.1.2 |
3.10.0-957.27.2.el7.x86_64 |
支持E6210以及更高版本 |
|
鲲鹏(ARM) |
麒麟操作系统V10 |
4.19.90-11.ky10.aarch64 |
支持E6210以及更高版本 |
麒麟操作系统V10SP2 |
4.19.90-24.4.v2101.ky10.aarch64 |
支持E6210以及更高版本 |
推荐使用统一数字底盘自带的操作系统。
· 若服务器使用的操作系统低于H3Linux_K310_V112版本,请务必重装系统,避免采集业务配置失败。
· 若SeerCollector采集器需要重装或更新操作系统,必须先卸载SeerCollector采集器。
请根据表2-23服务器硬件需求,安装部署2. 操作系统需求中对应的操作系统,完成对SeerCollector采集器的安装。
· 关闭SeerCollector采集器的防火墙并关闭防火墙开机自动启动功能。
a. 执行systemctl stop firewalld命令关闭防火墙。
b. 执行systemctl disable firewalld命令关闭防火墙自启动。
c. 执行systemctl status firewalld命令查看防火墙状态。当状态为Active: inactive (dead)时,表示防火墙已关闭。
[root@localhost ~]# systemctl status firewalld
firewalld.service - firewalld - dynamic firewall daemon
Loaded: loaded (/usr/lib/systemd/system/firewalld.service; disabled; vendor preset: enabled)
Active: inactive (dead)
Docs: man:firewalld(1)
· 为了防止与业务路由冲突,需在操作系统的/etc/sysconfig/network-scripts/路径下找到以ifcfg为前缀的采集网卡配置文件,修改DEFROUTE参数值为no,进行保存即可。
· 确保SeerCollector采集器采集流量的网卡与数据中心的业务网络二层互通。若连接SeerCollector采集器的交换机为DeviceA,需要在DeviceA上创建二层VLAN作为采集VLAN,将SeerCollector采集器采集网卡和采集VLAN的成员口相连。交换机上的配置步骤如下:
d. 在DeviceA上创建采集VLAN的三层接口,将连接服务器的端口加入到该VLAN中,并创建VLAN虚接口IP地址,该地址和SeerCollector采集器的地址必须在同一网段。
[DeviceA] vlan 47
[DeviceA-vlan47] port HundredGigE 1/0/27
[DeviceA-vlan47] quit
[DeviceA] interface Vlan-interface47
[DeviceA-Vlan-interface47] ip address 11.1.1.1 24
[DeviceA-Vlan-interface47] quit
发布采集VLAN的网段路由。数据中心网络中使用的路由协议是OSPF。
[DeviceA] ospf
[DeviceA-ospf-1] area 0
[DeviceA-ospf-1-area-0.0.0.0] network 11.1.1.0 0.0.0.255
用户不需要安装客户端软件,使用浏览器即可访问SeerAnalyzer。推荐使用的浏览器为Google Chrome 70及以上版本。
安装环境请参考表2-27中所示的各个检测项目,确保安装统一数字底盘的条件已经具备。
检测项 |
检测标准 |
|
服务器 |
硬件检查 |
· 请检查硬件是否符合要求(包括CPU、内存、硬盘、网卡等) · 请分别检查分析器和SeerCollector采集器是否支持CentOS 7.6及以上版本的操作系统 |
软件检查 |
请确保服务器已配置磁盘阵列 |
|
客户端 |
请确保浏览器版本符合要求 |
H3Linux操作系统的相关通用配置可以参考CentOS 7.6相关文档。
· 解决方案组网可以采用南向单协议栈。
· 网络需要在Analyzer-Collector公共采集组件安装时进行配置,可参考图5-9、图5-10、图5-12。
· 在规划南向网络的IP地址池时,IP网段区间不能包含北向业务虚IP地址,否则可能造成IP地址冲突。
· 北向网络:即统一数字底盘中设置的北向业务虚IP,是集群对外提供服务的网络。
· 南向网络:COLLECTOR公共采集组件和SeerCollector采集器用于接收来自设备端的采集数据所使用的网络。需确保南向网络和待采集设备之间可达。目前南向支持三种网络方案,请根据实际组网选择:
¡ 南北向网络合一(南向无网络):分析器不配置单独的南向网络。上云环境,仅支持此种网络。
¡ 南向单协议栈:创建一个网络并指定为南向网络,采集网络使用IPv4或IPv6。
¡ 南向双协议栈:创建两个南向网络,分别采集IPv4和IPv6的设备。
· 北向网络是给用户通过web页面和后端访问用的,同时也作为集群节点之间通信的网络,对带宽要求较高,要求北向网络能达到万兆带宽。
· 南向是给业务数据上报用的,是业务网络,一般不对外暴露访问,流量大,有带宽要求;采用南向主要是实现业务数据与管理网络的隔离,不相互干扰,如果采用不同网卡和不同网段,就实现了物理和网段双重隔离;
· 如果采用同一网卡不同网段,那么只实现网段隔离;如果采用相同网段且相同网卡(南北向合一),那么就完全没有隔离;根据实际业务需求进行网络模式选择。一般生产环境,管理网络和业务网络都不是同网段,管理网络都是通过堡垒机监管业务情况,所以一般都是有南向网络的,且与北向不同网段。
南北向网卡和网段配置复用说明:
· 南向网络的网卡和北向网络的网卡共用一张
· 南向网络的网段和北向网络的网段相同
· 在网卡和网段资源充足的情况下,我们推荐使用不同网卡和不同网段,即使用南向单协议,因为可以将南北向完全隔离,互不干扰。有双栈需求时可以选择南向双协议栈部署。
部署SeerAnalyzer时,各场景网络规划:
· DC场景需要部署1个SeerCollector采集器节点,需提前规划SeerCollector采集器相关的IP地址。
· Campus场景,默认无需部署SeerCollector采集器节点,无需规划SeerCollector采集器IP地址。在需要DC场景的TCP流分析组件时,需规划采集器节点及IP地址;在需要NPA场景的NPA网流分析组件时,需要按照NPA要求进行规划。
· WAN场景无需部署SeerCollector采集器节点,无需规划SeerCollector采集器IP地址。
· NPA场景至少需要部署1个NPA流量采集器节点,需提前规划NPA流量采集器相关的IP地址;(关于NPA场景流量采集器的相关规格要求,请参见《H3C NPA 流量采集器部署手册》)。
· LGA或TRA场景无需部署SeerCollector采集器节点,无需规划SeerCollector采集器IP地址。组网规划时,使用南北向网络合一(南向无网络)方案,只涉及网段一的统一数字底盘集群节点IP地址、统一数字底盘集群内部虚IP地址、统一数字底盘北向业务虚IP地址,其它IP地址类型暂不涉及。
南北向网络合一(南向无网络),指分析器数据采集共用统一数字底盘的网络,不单独创建附加网络。
单机模式下有一个分析器节点和一个SeerCollector采集器节点,SeerAnalyzer的网络规划如表2-28所示。
表2-28 SeerAnalyzer网络规划-单机模式
网段 |
IP地址类型 |
IP地址个数 |
说明 |
网卡配置要求 |
网段一 |
统一数字底盘集群节点IP地址 |
1个(IPv4) |
部署统一数字底盘的主机IP地址 |
配置要求请参考2.1 SeerAnalyzer服务器配置需求 |
统一数字底盘集群内部虚IP地址 |
1个(IPv4) |
统一数字底盘集群内各节点之间通信的IP地址,部署统一数字底盘时确定 |
||
统一数字底盘北向业务虚IP地址 |
1个(IPv4) |
统一数字底盘集群对外提供服务的IP地址,部署统一数字底盘时确定 |
||
SeerCollector采集器数据上报IP地址 |
1个(IPv4) |
SeerCollector采集器向分析器上报采集数据使用的IP地址 |
SeerCollector采集器网卡1 |
|
网段二 |
SeerCollector采集器数据采集IP地址 |
2个(IPv4) |
一个用于接收网络设备镜像报文,需要与设备业务口互通 另一个是SeerCollector采集器浮动IP地址,用于被设备发现 |
SeerCollector采集器网卡2,必须是独立DPDK网卡 |
集群模式下有三个分析器节点和一个SeerCollector采集器节点,SeerAnalyzer的网络规划如表2-29所示。
表2-29 SeerAnalyzer网络规划-集群模式
网段 |
IP地址类型 |
IP地址个数 |
说明 |
网卡配置要求 |
网段一 |
统一数字底盘集群节点IP地址 |
3个(IPv4) |
部署统一数字底盘的主机IP地址 |
配置要求请参考2.1 SeerAnalyzer服务器配置需求 |
统一数字底盘集群内部虚IP地址 |
1个(IPv4) |
统一数字底盘集群内各节点之间通信的IP地址,部署统一数字底盘时确定 |
配置要求请参考2.1 SeerAnalyzer服务器配置需求 |
|
统一数字底盘北向业务虚IP地址 |
1个(IPv4) |
统一数字底盘集群对外提供服务的IP地址,部署统一数字底盘时确定 |
配置要求请参考2.1 SeerAnalyzer服务器配置需求 |
|
SeerCollector采集器数据上报IP地址 |
1个(IPv4) |
SeerCollector采集器向分析器上报采集数据使用的IP地址 |
SeerCollector采集器网卡1 |
|
网段二 |
SeerCollector采集器数据采集IP地址 |
2个(IPv4) |
一个用于接收网络设备镜像报文,需要与设备业务口互通 另一个是SeerCollector采集器浮动IP地址,用于被设备发现 |
SeerCollector采集器网卡2,必须是独立DPDK网卡 |
南向单协议栈组网方案中,数据采集使用单独的网络,可使用IPv4或IPv6协议。
单机模式下有一个分析器节点和一个SeerCollector采集器节点,SeerAnalyzer的网络规划如表2-30所示。
表2-30 SeerAnalyzer网络规划-单机模式南向单协议栈
网段 |
IP地址类型 |
IP地址个数 |
说明 |
网卡配置要求 |
网段一 |
统一数字底盘集群节点IP地址 |
1个(IPv4) |
部署统一数字底盘的主机IP地址 |
配置要求请参考2.1 SeerAnalyzer服务器配置需求 |
统一数字底盘集群内部虚IP地址 |
1个(IPv4) |
统一数字底盘集群内各节点之间通信的IP地址,部署统一数字底盘时确定 |
||
统一数字底盘北向业务虚IP地址 |
1个(IPv4) |
统一数字底盘集群对外提供服务的IP地址,部署统一数字底盘时确定 |
||
SeerCollector采集器数据上报IP地址 |
1个(IPv4) |
SeerCollector采集器向分析器上报采集数据使用的IP地址 |
SeerCollector采集器网卡1 |
|
网段二 |
SeerCollector采集器数据采集IP地址 |
2个(IPv4) |
一个用于接收网络设备镜像报文,需要与设备业务口互通 另一个是SeerCollector采集器浮动IP地址,用于被设备发现 |
SeerCollector采集器网卡2,必须是独立DPDK网卡 |
网段三 |
南向采集IP地址 |
4个(IPv4)或4个(IPv6) |
南向采集IP地址为容器附加网络地址,主动/被动采集网络分别需要2个IP地址,一个节点容器IP和一个集群虚IP地址,共4个IP地址 |
配置要求请参考2.1 SeerAnalyzer服务器配置需求 |
集群模式下有三个分析器节点和一个SeerCollector采集器节点,SeerAnalyzer的网络规划如表2-31所示。
表2-31 SeerAnalyzer网络规划-集群模式南向单协议栈
网段 |
IP地址类型 |
IP地址个数 |
说明 |
网卡配置要求 |
网段一 |
统一数字底盘集群节点IP地址 |
3个(IPv4) |
部署统一数字底盘的主机IP地址 |
配置要求请参考2.1 SeerAnalyzer服务器配置需求 |
统一数字底盘集群内部虚IP地址 |
1个(IPv4) |
统一数字底盘集群内各节点之间通信的IP地址,部署统一数字底盘时确定 |
配置要求请参考2.1 SeerAnalyzer服务器配置需求 |
|
统一数字底盘北向业务虚IP地址 |
1个(IPv4) |
统一数字底盘集群对外提供服务的IP地址,部署统一数字底盘时确定 |
配置要求请参考2.1 SeerAnalyzer服务器配置需求 |
|
SeerCollector采集器数据上报IP地址 |
1个(IPv4) |
SeerCollector采集器向分析器上报采集数据使用的IP地址 |
SeerCollector采集器网卡1 |
|
网段二 |
SeerCollector采集器数据采集IP地址 |
2个(IPv4) |
一个用于接收网络设备镜像报文,需要与设备业务口互通 另一个是SeerCollector采集器浮动IP地址,用于被设备发现 |
SeerCollector采集器网卡2,必须是独立DPDK网卡 |
网段三 |
南向采集IP地址 |
8个(IPv4)或8个(IPv6) |
南向采集IP地址为容器附加网络地址,主动/被动采集分别需要4个IP地址,三个节点容器IP地址和一个集群虚IP地址,共8个IP地址 |
配置要求请参考2.1 SeerAnalyzer服务器配置需求 |
如果有SeerCollector采集器,“南向采集IP地址”和“SeerCollector采集器数据采集IP地址”两个地址需要使用相同的IP协议版本。
南向双协议组网方案中,数据采集使用单独的网络,并且需要同时配置IPv4和IPv6的地址。
单机模式下有一个分析器节点和一个SeerCollector采集器节点,SeerAnalyzer的网络规划如表2-32所示。
表2-32 SeerAnalyzer网络规划-单机模式南向双协议栈
网段 |
IP地址类型 |
IP地址个数 |
说明 |
网卡配置要求 |
网段一 |
统一数字底盘集群节点IP地址 |
1个(IPv4) |
部署统一数字底盘的主机IP地址 |
配置要求请参考2.1 SeerAnalyzer服务器配置需求 |
统一数字底盘集群内部虚IP地址 |
1个(IPv4) |
统一数字底盘集群内各节点之间通信的IP地址,部署统一数字底盘时确定 |
配置要求请参考2.1 SeerAnalyzer服务器配置需求 |
|
统一数字底盘北向业务虚IP地址 |
1个(IPv4) |
统一数字底盘集群对外提供服务的IP地址,部署统一数字底盘时确定 |
配置要求请参考2.1 SeerAnalyzer服务器配置需求 |
|
SeerCollector采集器数据上报IP地址 |
1个(IPv4) |
SeerCollector采集器向分析器上报采集数据使用的IP地址 |
SeerCollector采集器网卡1 |
|
网段二 |
SeerCollector采集器数据采集IP地址 |
2个(IPv4) |
一个用于接收网络设备镜像报文,需要与设备业务口互通 另一个是SeerCollector采集器浮动IP地址,用于被设备发现 |
SeerCollector采集器网卡2,必须是独立DPDK网卡 |
网段三 |
南向采集IP地址IPv4 |
4个(IPv4) |
南向采集IP地址为容器附加网络地址,分为被动采集网络和主动采集网络,主动和被动采集网络分别需要2个IP地址,一个容器IP地址和一个集群虚IP地址,共需要4个IPv4地址 |
配置要求请参考2.1 SeerAnalyzer服务器配置需求 |
网段四 |
南向采集IP地址IPv6 |
4个(IPv6) |
南向采集IP地址为容器附加网络地址,分为被动采集网络和主动采集网络,主动和被动采集网络分别需要2个IP地址,一个容器IP地址和一个集群虚IP地址,共需要4个IPv6地址 |
配置要求请参考2.1 SeerAnalyzer服务器配置需求 |
集群模式下有三个分析器节点和一个SeerCollector采集器节点,SeerAnalyzer的网络规划如表2-33所示。
表2-33 SeerAnalyzer网络规划-集群模式南向双协议栈
网段 |
IP地址类型 |
IP地址个数 |
说明 |
网卡配置要求 |
网段一 |
统一数字底盘集群节点IP地址 |
3个(IPv4) |
部署统一数字底盘的主机IP地址 |
配置要求请参考2.1 SeerAnalyzer服务器配置需求 |
统一数字底盘集群内部虚IP地址 |
1个(IPv4) |
统一数字底盘集群内各节点之间通信的IP地址,部署统一数字底盘时确定 |
配置要求请参考2.1 SeerAnalyzer服务器配置需求 |
|
统一数字底盘北向业务虚IP地址 |
1个(IPv4) |
统一数字底盘集群对外提供服务的IP地址,部署统一数字底盘时确定 |
配置要求请参考2.1 SeerAnalyzer服务器配置需求 |
|
SeerCollector采集器数据上报IP地址 |
1个(IPv4) |
SeerCollector采集器向分析器上报采集数据使用的IP地址 |
SeerCollector采集器网卡1 |
|
网段二 |
SeerCollector采集器数据采集IPv4地址 |
2个(IPv4) |
一个用于接收网络设备镜像报文,需要与设备业务口互通 另一个是采集器浮动IP地址,用于被设备发现 |
SeerCollector采集器网卡2,必须是独立DPDK网卡 |
网段三 |
南向采集IPv4地址 |
8个(IPv4) |
南向采集IP地址为容器附加网络地址,分为被动采集网络和主动采集网络,分别需要三个节点容器IP地址和一个集群虚IP地址 |
配置要求请参考2.1 SeerAnalyzer服务器配置需求 |
网段四 |
南向采集IPv6地址 |
8个(IPv6) |
南向采集IP地址为容器附加网络地址,分为被动采集网络和主动采集网络,分别需要三个节点容器IP地址和一个集群虚IP地址 |
配置要求请参考2.1 SeerAnalyzer服务器配置需求 |
SeerAnalyzer部署流程汇总如表3-1所示。
表3-1 SeerAnalyzer部署流程汇总
步骤 |
具体操作 |
说明 |
服务器准备 |
准备1台或3台服务器用于安装统一数字底盘 |
必选 服务器配置需求请参见2.1 SeerAnalyzer服务器配置需求 |
安装统一数字底盘 |
在服务器上安装统一数字底盘Matrix集群 |
必选 请参见《H3C统一数字底盘部署指导》 |
部署统一数字底盘集群和应用,部署顺序: 1. GlusterFS 2. portal 3. kernel 4. kernel-base 5. websocket(可选) 6. network(可选) 7. syslog(可选) 8. Dashboard 9. Widget 10. Analyzer-Collector |
必选 请参见《H3C统一数字底盘部署指导》 Analyzer-Collector安装包需要在部署分析器时安装(Campus、DC、WAN、NPA场景必选,LGA、TRA场景可选) |
|
配置准备 |
可选 |
|
部署SeerAnalyzer |
必选 |
· 融合场景指在同一个统一数字底盘的集群环境中,既安装控制器产品,又安装分析器产品,请务必先安装控制器,再安装分析器。
· 园区融合场景下,一般需要同时部署统一数字底盘+vDHCP+SE+EIA+WSM+SA,由于组件众多,在单机部署时会出现微服务数量超过集群默认最大限制,此时需要调整集群对微服务数量的限制,具体调整说明请参见10 5. 园区场景单机融合部署时如何调整集群最大微服务数量限制?。
使用不同的操作系统安装过程可能会存在差异,详情请参见《H3C统一数字底盘部署指导》。安装时请注意以下事项:
· 设置系统的日期和时间时,请根据自己的实际情况选择所需要的时区。
· 选择时区时,不允许选择“北京”,否则将会导致Core组件部署失败。
· 对于使用内置NTP服务器的场景,在部署集群之前,需确保所有节点的系统时间和当前时间保持一致。对于使用外置NTP服务器作为时钟同步源的场景,则无需修改节点的系统时间。
· 若NTP服务器不与南向地址相通,可以先不增加NTP服务器。待集群创建完成后,在配置网卡网络时,通过修改集群参数再增加。
· 集群部署完成后,请勿修改系统时间,否则可能导致集群异常。
· 主机名只能包含小写字母、数字、连字符和小数点,且不能以连字符、小数点起始或结束。
· 建立Matrix集群时,必须保证集群内各个节点的主机名互不相同,且符合主机名的命名规则,否则将会导致集群建立失败。
· Matrix集群部署完成后,请不要再对操作系统的主机名进行修改。
· 当网络列表显示多个网络时,请勿选择带<网线已拔出>标识的网卡。
· 当安装环境存在两张及以上数量网卡时,北向业务虚IP使用的网段必须和ifconfig命令查看到的第一块物理网卡的网段保持一致,否则会导致集群部署失败或Pod无法启动。
· 在网络和主机名配置页面可配置网卡,请确保在创建集群之前,完成网卡绑定的配置。
· 配置IPv4、IPv6地址时必须指定网关,否则在创建集群时可能出现问题。
· 操作系统安装完成后,建议不要使用ifconfig命令进行关闭、启动网卡的操作,否则可能导致环境异常。
· Matrix单独使用一个网口,不允许在此网口上配置子接口及子IP。
· Matrix节点其它网口的IP地址,不能和建立集群使用的IP处于同一网段。
· 设置的操作系统密码不能含有$(引用符号),\(转义符号),’(单引号),”(双引号)符号。
· 在Matrix上进行操作时,请勿在统一数字底盘上进行如下操作:
¡ 上传、删除组件安装包。
¡ 部署、升级、扩容组件。
¡ 增加、修改、删除网络。
· 修改节点时间的注意事项如下:
¡ 修改所有导入至SeerAnalyzer的设备的时区,需要与SeerAnalyzer服务器的时区保持一致。
¡ 修改SeerCollector采集器的时区,需要与SeerAnalyzer服务器的时区保持一致。
· 为GlusterFS应用准备的磁盘不能被格式化,否则会安装失败。若该磁盘被格式化,则可通过“wipefs -a /dev/磁盘名称”命令清空磁盘来进行修复。
· 如需使用HTTPS协议,请在应用和组件安装完成后,登录统一数字底盘,点击[系统>系统配置>安全配置]菜单项,进入安全配置页面,启用HTTPS协议。
规划根据不同的业务量和不同的服务器配置需求进行了不同的磁盘RAID和分区规划。实际分区过程中,分区名称不需要与表格中的分区名称完全一致。
· 一般情况下,磁盘分区的文件系统类型默认选择xfs,部分分区有特殊要求,请根据备注进行配置。
· 分析器部署完成以后,不支持动态扩展硬盘,需要提前准备好硬盘,再安装部署。
· 系统盘空间充足时,/var/lib/docker,/var/lib/ssdata,以及GlusterFS分区推荐挂载到系统盘。如系统盘空间不足,数据盘磁盘充足,这三个分区可以挂载到数据盘中(需要在数据盘额外分区进行挂载)。
· 为GlusterFS预留500GB是部署统一数字底盘和分析器需要的容量,如果还部署其它组件,需要各组件确定占用的磁盘容量大小,并在此基础上扩容。
· 园区Cloudnet组件业务数据存储在/var/lib/ssdata路径下,故园区场景系统盘空间在表4-1基础上有所增加。在线用户10000及以下,/var/lib/ssdata需要增加500G容量,在线用户10000以上,/var/lib/ssdata需要增加1T容量。即在线用户10000及以下时,系统盘需2*2.4TB(RAID1),在线用户10000以上,系统盘需2*3TB(RAID1)。
系统盘主要用于存储操作系统和统一数字底盘的相关数据。统一数字底盘对系统盘大小有要求,在磁盘条件满足的情况下,分区规划请参见表4-1。
表4-1 磁盘RAID和分区规划
磁盘RAID规划 |
分区名称 |
挂载点 |
最小容量 |
备注 |
2*1.92TB,RAID1 |
/dev/sda1 |
/boot/efi |
200MB |
EFI System Partition类型,仅UEFI模式需要配置该分区 |
/dev/sda2 |
/boot |
1024MB |
- |
|
/dev/sda3 |
/ |
400GB |
磁盘空间充足时,可适当扩容,业务数据不建议放在根目录 |
|
/dev/sda4 |
/var/lib/docker |
400GB |
磁盘空间充足时,可适当扩容 |
|
/dev/sda6 |
swap |
4GB |
swap类型 |
|
/dev/sda7 |
/var/lib/ssdata |
450GB |
磁盘空间充足时,可适当扩容 |
|
/dev/sda8 |
无 |
500GB |
为GlusterFS预留,安装操作系统时无需配置 |
|
2*50GB,RAID1 |
/dev/sdb |
/var/lib/etcd |
50GB |
- |
数据盘主要用于存储SeerAnalyzer的业务数据和Kafka数据。不同网络规模下,业务数据量不同,对磁盘数量及容量的配置要求不同。数据盘不多于2块时,做RAID0(风险较大,不推荐);数据盘3块及以上时,可以做RAID5,可以满足下表容量要求的情况下,建议做RAID5。
现场实施环境不建议数据盘做RAID0,数据安全风险很大。
表4-2 Campus场景数据盘分区规划1
磁盘RAID后容量 |
分区名称 |
挂载点 |
推荐最小容量 |
文件系统类型 |
2TB |
/dev/sdc1 |
/sa_data |
400GB |
ext4类型 |
/dev/sdc2 |
/sa_data/mpp_data |
950GB |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
450GB |
ext4类型 |
表4-3 Campus场景数据盘分区规划2
磁盘RAID后容量 |
分区名称 |
挂载点 |
推荐最小容量 |
文件系统类型 |
3TB |
/dev/sdc1 |
/sa_data |
400GB |
ext4类型 |
/dev/sdc2 |
/sa_data/mpp_data |
1550GB |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
750GB |
ext4类型 |
表4-4 Campus场景数据盘分区规划3
磁盘RAID后容量 |
分区名称 |
挂载点 |
推荐最小容量 |
文件系统类型 |
4TB |
/dev/sdc1 |
/sa_data |
400GB |
ext4类型 |
/dev/sdc2 |
/sa_data/mpp_data |
2200GB |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
1000GB |
ext4类型 |
表4-5 Campus场景数据盘分区规划4
磁盘RAID后容量 |
分区名称 |
挂载点 |
推荐最小容量 |
文件系统类型 |
5TB |
/dev/sdc1 |
/sa_data |
400GB |
ext4类型 |
/dev/sdc2 |
/sa_data/mpp_data |
2800GB |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
1300GB |
ext4类型 |
表4-6 Campus场景数据盘分区规划5
磁盘RAID后容量 |
分区名称 |
挂载点 |
推荐最小容量 |
文件系统类型 |
7TB |
/dev/sdc1 |
/sa_data |
400GB |
ext4类型 |
/dev/sdc2 |
/sa_data/mpp_data |
4000GB |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
1900GB |
ext4类型 |
表4-7 Campus场景数据盘分区规划6
磁盘RAID后容量 |
分区名称 |
挂载点 |
推荐最小容量 |
文件系统类型 |
8TB |
/dev/sdc1 |
/sa_data |
400GB |
ext4类型 |
/dev/sdc2 |
/sa_data/mpp_data |
4600GB |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
2200GB |
ext4类型 |
表4-8 Campus场景数据盘分区规划7
磁盘RAID后容量 |
分区名称 |
挂载点 |
推荐最小容量 |
文件系统类型 |
11TB |
/dev/sdc1 |
/sa_data |
400GB |
ext4类型 |
/dev/sdc2 |
/sa_data/mpp_data |
6400GB |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
3100GB |
ext4类型 |
表4-9 DC场景数据盘分区规划1
磁盘RAID后容量 |
分区名称 |
挂载点 |
推荐最小容量 |
文件系统类型 |
8TB |
/dev/sdc1 |
/sa_data |
400GB |
ext4类型 |
/dev/sdc2 |
/sa_data/mpp_data |
4600GB |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
2200GB |
ext4类型 |
表4-10 DC场景数据盘分区规划2
磁盘RAID后容量 |
分区名称 |
挂载点 |
推荐最小容量 |
文件系统类型 |
12TB |
/dev/sdc1 |
/sa_data |
400GB |
ext4类型 |
/dev/sdc2 |
/sa_data/mpp_data |
7000GB |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
3400GB |
ext4类型 |
表4-11 DC场景数据盘分区规划3
磁盘RAID后容量 |
分区名称 |
挂载点 |
推荐最小容量 |
文件系统类型 |
24TB |
/dev/sdc1 |
/sa_data |
400GB |
ext4类型 |
/dev/sdc2 |
/sa_data/mpp_data |
14200GB |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
7000GB |
ext4类型 |
表4-12 WAN场景数据盘分区规划1
磁盘RAID后容量 |
分区名称 |
挂载点 |
推荐最小容量 |
文件系统类型 |
2TB |
/dev/sdc1 |
/sa_data |
400GB |
ext4类型 |
/dev/sdc2 |
/sa_data/mpp_data |
950GB |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
450GB |
ext4类型 |
表4-13 WAN场景数据盘分区规划2
磁盘RAID后容量 |
分区名称 |
挂载点 |
推荐最小容量 |
文件系统类型 |
4TB |
/dev/sdc1 |
/sa_data |
400GB |
ext4类型 |
/dev/sdc2 |
/sa_data/mpp_data |
2200GB |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
1000GB |
ext4类型 |
表4-14 NPA场景数据盘分区规划
磁盘RAID规划 |
分区名称 |
挂载点 |
最小容量 |
文件系统类型 |
8*2TB,RAID5 |
/dev/sdc1 |
/sa_data |
1024GB |
ext4类型 |
/dev/sdc2 |
/sa_data/mpp_data |
11264G |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
2048GB |
ext4类型 |
表4-15 LGA场景数据盘分区规划
磁盘RAID规划 |
分区名称 |
挂载点 |
最小容量 |
文件系统类型 |
10*2.4TB,RAID5 |
/dev/sdc1 |
/sa_data/kafka_data |
700GB |
ext4类型 |
/dev/sdc2 |
/sa_data/es_data |
7TB |
ext4类型 |
最小容量按照每秒1000条,单包500B计算得出。可根据数据量按照与1000条每秒的比值等比例扩大磁盘容量。
表4-16 TRA场景数据盘分区规划
磁盘RAID规划 |
分区名称 |
挂载点 |
最小容量 |
文件系统类型 |
6*2TB,RAID5 |
/dev/sdc1 |
/sa_data |
400GB |
ext4类型 |
/dev/sdc2 |
/sa_data/itoa-greenplum |
2000GB |
ext4类型 |
|
/dev/sdc3 |
/sa_data/kafka_data |
500GB |
ext4类型 |
部署统一数字底盘时,请上传如表4-17所示的应用安装包,具体安装步骤请参见《H3C统一数字底盘部署指导》。
必选应用包必须在部署统一数字底盘时完成部署。部署步骤请参考《H3C统一数字底盘部署指导》中的“部署统一数字底盘应用安装包”章节。
如需部署可选应用包,可选择在部署完分析组件后在Matrix页面部署可选包,也可在部署分析组件前在Matrix页面部署可选包。需要注意的是,请确保可选应用包的版本与必选应用包的版本相同,否则可能导致部署失败。部署步骤请参考《H3C统一数字底盘部署指导》中的“部署统一数字底盘应用安装包”章节。
安装包的名称格式如下表所示,其中version为版本号。
安装包名称 |
功能说明 |
· x86:common_PLAT_GlusterFS_2.0_<version>_x86.zip · ARM:common_PLAT_GlusterFS_2.0_<version>_arm.zip |
提供产品内本地共享存储功能 |
· x86:general_PLAT_portal_2.0_<version>_x86.zip · ARM:general_PLAT_portal_2.0_<version>_arm.zip |
门户、统一认证、用户管理、服务网关、帮助中心 |
· x86:general_PLAT_kernel_2.0_<version>_x86.zip · ARM:general_PLAT_kernel_2.0_<version>_arm.zip |
权限、资源身份、License、配置中心、资源组、日志服务 |
· x86:general_PLAT_kernel-base_2.0_<version>_x86.zip · ARM:general_PLAT_kernel-base_2.0_<version>_arm.zip |
告警、访问参数模板、监控模板、报表、邮件短信转发服务 |
· x86:general_PLAT_Dashboard_2.0_<version>_x86.zip · ARM:general_PLAT_Dashboard_2.0_<version>_arm.zip |
大屏框架 |
· x86:general_PLAT_widget_2.0_<version>_x86.zip · ARM:general_PLAT_widget_2.0_<version>_arm.zip |
平台大屏Widget |
· x86:general_PLAT_websocket_2.0_<version>_x86.zip · ARM:general_PLAT_websocket_2.0_<version>_arm.zip |
(可选)websocket应用 仅在SeerAnalyzer云上环境部署时,该组件必装。 |
· x86:general_PLAT_network_2.0_<version>_x86.zip · ARM:general_PLAT_network_2.0_<version>_arm.zip |
(可选)基础网管(网络资源、网络性能、网络拓扑、iCC) SeerAnalyzer独立部署场景下,不需要安装该应用;多产品融合场景下,当控制器依赖该应用时,才需要安装该应用 |
· x86:Syslog-<version>_x86.zip · ARM:Syslog-<version>_arm.zip |
(可选)Syslog应用,使用北向业务虚IP进行日志采集时,分析组件依赖统一数字底盘提供的syslog应用,该应用需要先于Analyzer-Collector组件安装 |
· 统一数字底盘不在SeerAnalyzer发布的版本中,请自行下载。
· 统一数字底盘发布的包名称为H3C_PLAT_2.0_<version>.zip,需解压之后才能看到具体的安装包。
建议不要使用ifconfig命令进行关闭、启动网卡的操作,可能导致环境异常。
若有使用多块网卡的需求,需在服务器上启用网卡。启用网卡的配置步骤如下:
(1) 远程登录统一数字底盘所在服务器,在服务器上修改网卡配置文件。此处以修改网卡ethA09-2的网卡配置文件为例。
(2) 使用以下命令打开并编辑网卡文件。
[root@matrix01 /]# vi /etc/sysconfig/network-scripts/ifcfg-ethA09-2
(3) 将网卡配置文件中的BOOTPROTO和ONBOOT修改为如下图所示。BOOTPROTO配置为none表示不指定网卡的启动协议,ONBOOT配置为yes表示开机自动启用网卡连接。
图5-1 编辑网卡文件
(4) 使用以下命令ifdown和ifup命令重启网卡。
[root@matrix01 /]# ifdown ethA09-2
[root@matrix01 /]# ifup ethA09-2
(5) 使用ifconfig命令查看网络信息。若网卡状态为UP则表示网卡启用成功。
部分分析组件版本可能仅发布x86的CK版本、x86的非CK版本、ARM的CK版本、ARM的非CK版本中的一种安装包,具体请以版本发布文件为准。
若安装包为CK版本,需要使用ClickHouse数据库;若安装包为非CK版本,需要使用Vertica数据库。
安装包的名称格式如下表所示,其中version为版本号。
表5-1 安装包列表
产品名称 |
安装包名称 |
功能说明 |
SeerAnalyzer |
· x86(CK):Analyzer-Platform-<version>-CK_x86_64.zip · x86(非CK):Analyzer-Platform-<version>_x86_64.zip · ARM(CK):Analyzer-Platform-<version>-CK_arm.zip · ARM(非CK):Analyzer-Platform-<version>_arm.zip |
基础平台组件 |
· x86(CK):Analyzer-Telemetry-<version>-CK_x86_64.zip · x86(非CK):Analyzer-Telemetry-<version>_x86_64.zip · ARM(CK):Analyzer-Telemetry-<version>-CK_arm.zip · ARM(非CK):Analyzer-Telemetry-<version>_arm.zip |
指标分析组件 |
|
· x86(CK):Analyzer-NPA-<version>-CK_x86_64.zip · x86(非CK):Analyzer-NPA-<version>_x86_64.zip · ARM(CK):Analyzer-NPA-<version>-CK_arm.zip · ARM(非CK):Analyzer-NPA-<version>_arm.zip |
网络性能分析组件 |
|
· x86(CK):Analyzer-AI-<version>-CK_x86_64.zip · x86(非CK):Analyzer-AI-<version>_x86_64.zip · ARM(CK):Analyzer-AI-<version>-CK_arm.zip · ARM(非CK):Analyzer-AI-<version>_arm.zip |
AI智能预测组件 |
|
· x86(CK):Analyzer-Diagnosis-<version>-CK_x86_64.zip · x86(非CK):Analyzer-Diagnosis-<version>_x86_64.zip · ARM(CK):Analyzer-Diagnosis-<version>-CK_arm.zip · ARM(非CK):Analyzer-Diagnosis-<version>_arm.zip |
诊断分析组件 |
|
· x86(CK):Analyzer-SLA-<version>-CK_x86_64.zip · x86(非CK):Analyzer-SLA-<version>_x86_64.zip · ARM(CK):Analyzer-SLA-<version>-CK_arm.zip · ARM(非CK):Analyzer-SLA-<version>_arm.zip |
服务质量分析组件 |
|
· x86(CK):Analyzer-TCP-<version>-CK_x86_64.zip · x86(非CK):Analyzer-TCP-<version>_x86_64.zip · ARM(CK):Analyzer-TCP-<version>-CK_arm.zip · ARM(非CK):Analyzer-TCP-<version>_arm.zip |
TCP流分析组件 |
|
· x86(CK):Analyzer-WAN-<version>-CK_x86_64.zip · x86(非CK)Analyzer-WAN-<version>_x86_64.zip · ARM(CK):Analyzer-WAN-<version>-CK_arm.zip · ARM(非CK)Analyzer-WAN-<version>_arm.zip |
WAN应用分析组件 |
|
· x86(CK):Analyzer-User-<version>-CK_x86_64.zip · x86(非CK):Analyzer-User-<version>_x86_64.zip · ARM(CK):Analyzer-User-<version>-CK_arm.zip · ARM(非CK):Analyzer-User-<version>_arm.zip |
用户分析组件 |
|
· x86(CK):Analyzer-AV-<version>-CK_x86_64.zip · x86(非CK):Analyzer-AV-<version>_x86_64.zip · ARM(CK):Analyzer-AV-<version>-CK_arm.zip · ARM(非CK):Analyzer-AV-<version>_arm.zip |
音视频分析组件 |
|
· x86(CK):Analyzer-LGA-<version>-CK_x86_64.zip · x86(非CK):Analyzer-LGA-<version>_x86_64.zip · ARM(CK):Analyzer-LGA-<version>-CK_arm.zip · ARM(非CK):Analyzer-LGA-<version>_arm.zip |
日志分析组件 |
|
· x86(CK)Analyzer-TRA-<version>-CK_x86_64.zip · x86(非CK):Analyzer-TRA-<version>_x86_64.zip · ARM(CK):Analyzer-TRA-<version>--CK_arm.zip · ARM(非CK):Analyzer-TRA-<version>_arm.zip |
轨迹分析组件 |
|
Cloudnet |
· Cloudnet E6214之前的版本: ¡ x86:oasis-<version>.zip ¡ ARM:oasis-<version>-arm.zip · Cloudnet E6214及之后的版本: ¡ x86:Campus_Cloudnet_<version>_x86.zip ¡ ARM:oasis-<version>-arm.zip |
Cloudnet组件(Campus场景必选) |
Analyzer-Collector |
· x86:Analyzer-Collector-<version>_x86_64.zip · ARM:Analyzer-Collector-<version>_arm.zip |
Analyzer-Collector安装包需要在部署分析器时安装 |
SeerAnalyzer:
分析器发布版本包有三个:SEERANALYZER-<version>.zip,SeerAnalyzer-LGA-<version>.zip,SeerAnalyzer-TRA-<version>.zip。解压之后才能看到具体的安装包。
采集组件说明:
· COLLECTOR采集器: COLLECTOR采集器为公共采集组件。
· SeerAnalyzer采集器: SeerCollector采集器在使用SeerAnalyzer的TCP流分析、INT流分析功能时需要部署。
· NPA场景流量采集器:安装在X86服务器,具有部署灵活、管理维护方便、支持全包存储回溯的特点,安装过程简单,无需复杂操作。采集器分布式部署在网络路径上的各个重要汇聚节点,通过交换机端口镜像采集全流量通信数据,并定期上报到NPA(Network Performance Analytics,网络性能分析系统)进行汇总分析。NPA可将相关配置下发给采集器,主要包括链路配置、应用配置、网段配置等。
· 在部署SeerAnalyzer时,使用不同版本的统一数字底盘,配置过程会略有差异,具体配置操作可参考对应版本的统一数字底盘部署指导手册中“部署组件”章节。
· 分析器可按需部署对应场景,在分析器部署完成后,不可追加部署其他场景,需要卸载分析器后重新部署。
· 分析器部署后不支持修改IP地址。
· 分析器部署后不支持修改主机名,详情可参见统一数字底盘安装部署手册。
登录统一数字底盘,单击“系统”页签,在左侧导航树中选择“部署管理”菜单项,未部署任何组件时,默认进入上传安装包页面,如图5-2所示。
单击<上传>按钮,将SeerAnalyzer、Analyzer-Collector公共采集组件安装包及Cloudnet组件安装包(Campus场景必选)上传到系统。上传完成后,单击<下一步>按钮,解析安装包并进入组件选择页面。
· 在安装统一数字底盘的时候也可以先上传对应所需的组件。
· 在WAN场景中,分析器不支持独立部署,仅支持控制器和分析器融合部署,并且需要优先安装控制器
SeerAnalyzer目前分为多个组件包,用户可按实际需要选择性上传,组件包与业务场景的关系如表5-2所示。
组件 |
说明 |
Campus |
WAN |
DC |
NPA |
LGA |
TRA |
Analyzer-Platform |
公共基础组件 |
必选 |
必选 |
必选 |
必选 |
必选 |
必选 |
Analyzer-Telemetry |
指标分析 |
必选 |
必选 |
必选 |
必选 |
不可选 |
不可选 |
Analyzer-WAN |
WAN应用分析 |
可选,默认不需要 |
必选 |
不可选 |
必选 |
不可选 |
不可选 |
Analyzer-User |
用户分析 |
必选 |
不可选 |
不可选 |
不可选 |
不可选 |
不可选 |
Analyzer-AV |
音视频分析 |
必选 |
不可选 |
不可选 |
不可选 |
不可选 |
不可选 |
Analyzer-SLA |
服务质量分析 |
必选 |
必选 |
必选(须配合SeerCollecter采集器) |
不可选 |
不可选 |
不可选 |
Analyzer-TCP |
TCP流分析 |
可选(须配合SeerCollecter采集器),默认不需要 |
不可选 |
必选(须配合SeerCollecter采集器) |
不可选 |
不可选 |
不可选 |
Analyzer-Diagnosis |
诊断分析 |
必选 |
必选 |
必选 |
必选 |
不可选 |
不可选 |
Analyzer-AI |
AI智能预测 |
必选 |
必选 |
必选 |
必选 |
不可选 |
不可选 |
Analyzer-NPA |
网络性能分析 |
可选(须配合NPA流量采集器),默认不需要 |
可选(须配合NPA流量采集器) |
可选(须配合NPA流量采集器) |
必选(须配合NPA流量采集器) |
不可选 |
不可选 |
Analyzer-LGA |
日志分析 |
不可选 |
不可选 |
可选 |
不可选 |
必选 |
不可选 |
Analyzer-TRA |
轨迹分析 |
可选,默认不需要 |
不可选 |
不可选 |
不可选 |
不可选 |
必选 |
· Platform为公共基础组件,是必选安装包,其它组件根据实际业务场景需求进行选装。
· Telemetry组件是WAN/User/AV/SLA/TCP/Diagnosis/AI组件的基础,当安装这些组件时,Telemetry组件必装。
· 组件选择说明中:“必选”表示对应场景必须安装该组件,否则分析器无法正常工作;“可选”表示除非明确需要该组件的功能,对应场景下一般不安装该组件;“不可选”表示对应场景下该组件无法正常工作。
· 如果没有部署NPA流量采集器,需要取消网络性能分析(Analyzer-NPA组件)的勾选。
· 如果没有部署SeerCollecter采集器,需要取消TCP流分析(Analyzer-TCP组件)的勾选。
(1) 在组件选择页面展开“分析器”菜单项,勾选“智能分析引擎6.0”,并根据上节所述选择需要安装的组件包。
¡ 选择部署的场景,支持Campus、DC、WAN、NPA、LGA、TRA场景,分别用于园区、数据中心、广域网、网流分析、日志分析和轨迹分析场景。
图5-3 Campus场景默认勾选的组件信息
图5-4 DC场景默认勾选的组件信息
图5-5 WAN场景默认勾选的组件信息
图5-6 NPA场景默认勾选的组件信息
NPA场景需配套使用流量采集器,具体部署方法请参见《H3C NPA流量采集器部署指导》。
图5-7 LGA场景默认勾选的组件信息
图5-8 TRA场景默认勾选的组件信息
(2) (Campus场景必选)展开“公共服务”菜单项,请选择对应的Cloudnet安装包。
(3) (Campus、DC、WAN、NPA场景必选)展开“公共服务”菜单项,勾选COLLECTOR,用于提供gRPC、netconf协议的数据采集任务。选择对应的Analyzer-Collector安装包,并根据网络规划,选择对应的网络方案,网络规划介绍请参见2.5 SeerAnalyzer网络规划。本文档中以选择“南向单协议栈”为例。如果分析器选择LGA、TRA场景部署,可不进行COLLECTOR安装。
由于不同版本统一数字底盘有差异,“南北向网络合一”网络规划方案在旧的版本里名为“南向无网络”,其实际为同一个规划方案。
(4) 完成后单击<下一步>按钮,进入参数配置页面。
公共服务中,如果一开始没有安装Cloudnet组件,后续仍可选择“智能分析引擎6.0”选项,然后选择Cloudnet组件进行安装。对于已经安装的组件,统一数字底盘不会重新安装。
在分析器选择的部署场景为Campus、DC、WAN、NPA时,公共服务中的COLLECTOR组件必须安装,否则分析器功能不能正常使用
在参数配置页面,无需进行参数配置,直接单击<下一步>按钮,进入网络配置页面。
网络配置功能仅用于采集组件,COLLECTOR采集组件运行在master节点,所以网络配置需要绑定Master节点,与分析器部署在哪些指定的节点上无关(如3+1、3+3等部署模式)。
本页面用于配置COLLECTOR采集器的南向采集IP地址。根据在组件选择页面选择的网络方案确定:
· “南北向网络合一”(南向无网络)方案:无需配置网络,直接进行下一步。如前文所述,在条件允许的情况下,我们推荐南北向网络隔离,即使用“南向单协议”或者“南向双协议”方案,不推荐使用“南北向网络合一”方案。
· “南向单协议”方案:在本页面创建一个IPv4或IPv6网络。
· “南向双协议”方案:在本页面创建一个IPv4和一个IPv6网络。
本文档以选择“南向单协议”方案,南向配置IPv4网络为例。配置完成后,单击<下一步>按钮,进入节点绑定页面。
在节点绑定页面,为分析器指定部署节点。集群模式在该页面,可选择“开启节点标签”功能,开启节点标签后可选择部署SeerAnalyzer的节点名称,该功能默认为关闭即可。单击<下一步>按钮,进入参数确认页面。
节点标签功能可将部分Pod绑定到指定的物理节点,解决在融合部署场景节点资源不足的情况下,分析器抢占其他组件资源的问题:
· 单机模式下没有节点标签功能,SeerAnalyzer将部署在唯一的单机节点上。
· 集群模式下,若开启该功能,可指定SeerAnalyzer在集群中部署的节点名称,支持选择集群中的任意节点,要求选择的节点数可以是1个,或者3个及以上;若不开启节点标签,SeerAnalyzer将默认部署在集群中的所有节点上。
· 可指定四类Pod:Service Nodes、Kafka Nodes、MPP Nodes、ES Nodes。即可以指定4种类型Pod的实际运行物理节点。Service Nodes指的是业务所属Pod需要指定的运行节点,Kafka Nodes指的是Kafka所属Pod需要指定的运行节点,ES Nodes指的是ES所属Pod需要指定的运行节点,MPP Nodes指的是Vertica所属Pod需要指定的运行节点。
· 3+1部署模式:统一数字底盘和控制器部署在3个Master节点上,分析器部署在1个Worker节点上,部署时节点标签勾选1个Worker节点。
· 3+3部署模式:统一数字底盘和控制器部署在3个Master节点上,分析器部署在3个Worker节点上,部署时节点标签勾选3个Worker节点。
· 3+N(N≥0)模式:分析器部署对节点的角色(Master、Worker)没有要求,可以部署在任意角色的节点上。
图5-11 节点绑定
在网络绑定页面,可为COLLECTOR采集器绑定南向网络。
网络绑定原则:
· 南北向网络合一(南向无网络)方案无需配置资源绑定。
· 南向单协议栈方案中需要将网络指定为管理网络。
· 南向双协议栈方案中,需要将IPv4网络指定为管理网络,将IPv6网络指定为默认网络。
在参数确认页面确认IP地址分配结果后,单击<部署>按钮,部署组件。
部署完成后,在组件管理页面可以查看组件的详细信息。
统一数字底盘的注册步骤请参见《H3C统一数字底盘部署指导》。
SeerAnalyzer安装完成后,可90天内试用所有功能,超过试用期限后,需要获取License授权才能正常使用。
关于授权的申请和安装过程,请参见《H3C软件产品远程授权License使用指南》。
(1) 登录统一数字底盘,依次单击[系统>License管理>License信息]菜单项,进入License信息页面。
(2) 在页面中配置License Server信息的参数,详细介绍请参见表7-1。
参数 |
说明 |
IP地址 |
安装License Server的服务器上用于统一数字底盘和SeerAnalyzer集群内各节点之间通信的IP地址 |
端口号 |
此处缺省值为“5555”,与License Server授权服务端口号保持一致 |
用户名 |
License Server中设置的客户端名称 |
密码 |
License Server中设置的客户端名称对应的密码 |
(3) 配置完成后,单击<连接>按钮与License Server建立连接,连接成功后统一数字底盘和SeerAnalyzer可自动获取授权信息。
(1) 登录统一数字底盘,登录地址:http://ip_address:30000/central。其中ip_address为统一数字底盘的北向业务虚IP,默认用户名为admin,密码为Pwd@12345。
(2) 单击[系统/部署管理]菜单项,进入组件部署导航页面。
(3) 勾选“智能分析引擎”组件,单击左上角<卸载>按钮,完成组件卸载。
(4) (本步骤为非必选操作)登录SeerCollector采集器所在服务器,进入/usr/local/itoaAgent目录,执行bash uninstall.sh命令手动清除数据。(如果是非root用户,请执行sudo bash uninstall.sh)然后使用ps -aux | grep agent | grep -v grep命令检查,命令执行后无输出则证明卸载干净。
图8-1 清除数据
在统一数字底盘上支持对组件进行保留配置升级。升级组件可能会导致业务中断,请谨慎操作。
(1) 升级前准备工作
(2) 升级前,在[分析>分析选项>资源管理>协议模板]页面下,先将SNMP和NETCONF的协议模板导出备份,如图9-1所示
· NETCONF不支持导出密码,在导出模板前需要记录对应的密码,并在升级完成后重新配置。
· 升级前请注意记录各个设备采用的是何种模板,升级后需在[分析>分析选项>资源管理>资产管理>资产列表]页面重新配置协议模板。
图9-1 导出SNMP和NETCONF的协议模板
统一数字底盘升级请参考《H3C统一数字底盘部署指导》。
(4) SeerAnalyzer 组件升级
a. 登录统一数字底盘,单击[系统>部署管理]菜单项,进入部署管理页面。
图9-2 部署管理页面-展开组件信息
c. 单击Analyzer-<组件名称>组件“操作”区段的按钮,进入升级页面。
图9-3 升级页面
d. 单击<上传>按钮,上传待升级的安装包。
e. 安装包上传成功后,勾选安装包,单击页面下方的<升级>按钮,完成组件升级。
· SeerAnalyzer暂不支持升级失败后的回滚操作。
· 对SeerAnalyzer整体升级,即所有组件全部升级,可以跨版本升级,版本号统一变成升级后的版本号。
a. 在[系统>部署管理]页面下,安装Analyzer-Collector组件,网络方案选择跟旧版本一致。例如:原来是“南向单协议”的,安装采集组件时也选择“南向单协议”;
图9-4 部署管理
b. 单击下一步,一直到“网络绑定”阶段,选择之前的网络配置,如图9-5所示;
c. 单击下一步,确认参数,部署完成;
d. 公共采集服务部署完成后,需要在[分析>分析选项>采集管理>模板管理]页面,导入对应的SNMP、NETCONF协议模板;
图9-6 导入SNMP、NETCONF协议模板
(1) 登录统一数字底盘,单击[系统>部署管理]菜单项,进入部署管理页面。
图9-7 部署管理页面-展开组件信息
(3) 单击Analyzer-<组件名称>组件“操作”区段的按钮,进入升级页面。
图9-8 升级页面
(4) 单击<上传>按钮,上传待升级的安装包。
(5) 安装包上传成功后,勾选安装包,单击页面下方的<升级>按钮,完成组件升级。
· SeerAnalyzer暂不支持升级失败后的回滚操作。
· 对SeerAnalyzer整体升级,即所有组件全部升级,可以跨版本升级,版本号统一变成升级后的版本号。
· 对SeerAnalyzer整体升级时,必须先升级Analyzer-Collector组件,然后升级Analyzer-Platform基础组件,再升级Analyzer-Telemetry组件,最后升级其它组件(无顺序要求)。
· 升级Analyzer-Platform基础组件后,在任务管理模块下的flink类型的任务,任务参数(taskmanager进程内存限制、taskmanager容器内存限制、taskmanager容器cpu限制、taskmanager slot数、taskmanager副本数、并行度)会恢复成默认值。
(1) 登录Matrix,点击“部署”页签,在弹出的菜单中选择“安全 > 安全策略”选项,进入安全策略页面。
(2) 单击<增加>按钮,进入增加安全策略页面。
(3) 在“基本设置”区域配置默认动作为“允许”。
(4) 在“规则信息”区域单击<增加>按钮,在弹出窗口中配置如下规则:
¡ 源地址为节点上除Matrix使用的网卡外的其它网卡IP。
¡ 协议类型为TCP。
¡ 目标端口必须输入为:
8101,44444,2379,2380,8088,6443,10251,10252,10250,10255,10256。
¡ 动作为允许。
(5) 配置完成后单击<应用>按钮。
必须将所有节点上除Matrix使用的网卡外的其它网卡IP都加入到安全策略中。
例如节点1上除Matrix使用的网卡外还有一个网卡的IP为1.1.1.1,节点2上除Matrix使用的网卡外的网卡IP为2.2.2.2,节点3上除Matrix使用的网卡外的网卡IP为3.3.3.3,则需要在安全策略的规则中增加3条规则,源地址分别为1.1.1.1、2.2.2.2、3.3.3.3,协议类型都是TCP,目标端口都是“8101,44444,2379,2380,8088,6443,10251,10252,10250,10255,10256”,动作都为允许。
图10-1 安全策略举例
(6) 开启被关掉的网卡,下面以eth33为例。
[root@node01 ~]# ifup eth33
(1) 节点上安装操作系统完成后,修改所有节点ssh端口
修改/etc/ssh/sshd_config配置文件。
将#Port 22改为想要修改的端口,如Port 2244。
重启sshd服务:
systemctl restart sshd.service
查看新端口是否监听:
netstat –anp | grep –w 2244
(2) 使用vim /opt/matrix/config/navigator_config.json命令进入navigator_config文件,查看该文件中是否存在sshPort字段,若存在,将该字段取值修改为用户想要指定的端口号(以12345为例);若不存在,则需手动添加该字段并为其赋值。
{
"productName": "uc",
"pageList": ["SYS_CONFIG", "DEPLOY", "APP_DEPLOY"],
"defaultPackages": ["common_PLAT_GlusterFS_2.0_E0707_x86.zip", "general_PLAT_portal_2.0_E0707_x86.zip", "general_PLAT_kernel_2.0_E0707_x86.zip"],
"url": "http://${vip}:30000/central/index.html#/ucenter-deploy",
"theme":"darkblue",
"matrixLeaderLeaseDuration": 30,
"matrixLeaderRetryPeriod": 2,
"sshPort": 12345
}
(3) 修改完成后,需重启Matrix服务
[root@node-worker ~]# systemctl restart matrix
(4) 查看新的端口号是否修改成功,若成功,则日志中最后一条信息如下。
[root@node-worker ~]# cat /var/log/matrix-diag/Matrix/Matrix/matrix.log | grep "ssh port"
2022-03-24T03:46:22,695 | INFO | FelixStartLevel | CommonUtil.start:232 | ssh port = 12345.
ssh_port说明:
· 此端口为ssh远程其他节点端口,所以必须保证集群中所有节点(包括Master和Worker),只能使用统一的ssh端口。
· 务必同时重启所有节点Matrix服务,Matrix服务会读取配置文件中ssh端口。
(5) 部署Matrix
参照Matrix安装部署指导部署Matrix。
统一数字底盘和分析器需升级为支持ssh端口修改的版本(E6215及更高版本),在未升级到支持ssh端口修改版本之前请不要更改ssh 默认端口,升级完成后方可参照上述(1)、(2)、(3)步骤修改ssh端口。
NPA场景下,由于E6203版本终端分析功能发生变化:配置中终端组对应的网段数量,从原来版本多个限制到当前只能绑定一个网段。因此如果原版本中,终端分析配置终端组是绑定了多个网段,需要在升级之后,进入[分析选项>网流分析配置>终端组配置]页面,重新编辑终端组,将网段分配到不同组中。
分析器组件在部署或升级的过程中可能因为超时导致部署或升级失败,建议重试或终止升级后重试。若重试依旧失败,需要联系技术服务人员协助定位问题。
统一数字底盘采用Kubernetes+Docker的微服务技术架构,当前底盘默认对微服务数量的限制是不超过300个,在园区场景单机融合部署时(指单机部署园区管控析全套产品:统一数字底盘+vDHCP+SE+EIA+WSM+SA),微服务数量会超过该限制,需要对Kubernetes启动参数进行调整,当前微服务数量不会超过400个,具体操作步骤如下:
(1) 首先确认当前单机环境已部署Matrix,且系统运行正常。
(2) 进入后台命令行,编辑Kubernetes的配置文件:
vi /etc/systemd/system/kubelet.service.d/10-kubeadm.conf
将--max-pods=300改为--max-pods=400
(3) 保存配置文件之后,重启kubelet服务即可生效
systemctl daemon-reload && systemctl restart kubelet
问题现象:若采用“南北向网络合一”(南向无网络)方案部署公共采集组件且未安装network组件时,分析组件的SNMP-Trap采集功能不可用。
解决方案:进入[监控>告警管理>Trap管理>Trap过滤规则]页面,禁用“未定义Trap过滤”和“重复Trap过滤”规则。
图10-2 禁用Trap过滤规则
不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!