01-正文
本章节下载: 01-正文 (1.32 MB)
H3C vEPC3200是H3C自主研发的NFV(Network Function Virtualisation,网络功能虚拟化)架构的核心网产品,面向企业市场,致力于解决轨道交通、电力、园区等行业大规模建设LTE(Long Term Evolution,长期演进)的移动通信需求。vEPC3200运行在X86架构的服务器上(如H3C UIS-Cell 3010 G3服务器),采用容器化方式部署,具备大用户容量、高可靠性、高吞吐量和业务特性丰富等特点。vEPC3200配合H3C移动通信基站产品和终端产品,能够形成全套LTE网络解决方案。如无特殊说明,手册将以vEPC代替H3C vEPC3200进行描述。
vEPC运行在H3Linux的Docker Container中,安装和后台维护均需要在H3Linux下进行,安装和维护人员需具备一定的Linux基础。
图1-1为基于Docker Container部署vEPC的软件架构,其中:
· Server表示运行vEPC的底层宿主机,例如H3C UniServer R4900 G3。
· Linux OS表示底层宿主机的操作系统,例如H3Linux。
· Docker Container表示vEPC各网元节点所在的Docker Container。
· Support Layer表示vEPC各网元节点的特性支撑层,主要提供SCTP(Stream Control Transmission Protocol,流控制传输协议)偶联以及DPDK(Data Plane Development Kit,数据平面开发工具)模式的数据包转发等支撑功能。
· MME、HSS和xGW表示vEPC网元节点。
· EMS(Element Management System,网元管理系统)表示管理各vEPC各网元节点的Web实体,通过EMS用户可以:
¡ 查看处于激活态和非激活态的vEPC网元节点。
¡ 查看vEPC网元的告警数。
¡ 查看vEPC网元的联机帮助。
¡ 配置和管理vEPC网元节点。
图1-1 软件架构示意图
vEPC软件包分为全量软件包、增量软件包和补丁软件包。
全量软件包主要用于初始安装vEPC,为包含如下文件的H3Linux系统镜像文件:
· vEPC网元安装程序。
· Docker镜像包。
· 启动容器所需的准备文件。
增量软件包用于在原有版本的基础上升级vEPC,为包含vEPC网元升级程序的.tar.gz格式的文件。
补丁软件包用于修复特定版本的系统漏洞,为包含特定版本补丁的.rpm格式的文件,仅支持安装到特定的软件版本之上。关于补丁软件包与产品软件包的适配关系,请参见随补丁软件包发布的产品版本说明书。
H3C会将vEPC全量软件包、增量软件包和补丁软件包发布到官网上。三种软件包均采用“设备简称-release号”的形式命名,例如,vEPC3200-E3102P04.iso、vEPC3200-E3102P04.tar.gz和vEPC3200-E3102P04H01.rpm。
图1-2 vEPC逻辑组网示意图
如图1-2所示,vEPC包含如下网元:
· MME(Mobile Management Entity,移动性管理实体),主要用于用户鉴权、移动性管理、漫游控制、网关选择、承载管理和TA List管理等。
· HSS(Home Subscriber Server,归属地签约用户服务器),主要用于存储用户的签约信息、记录用户的位置和管理鉴权参数等。
· SGW(Serving GateWay,服务网关),是3GPP系统内部移动性的锚点,主要负责ECM-IDLE状态时下行数据包的缓存、数据包的路由、计费和合法监听等。
· PGW(PDN GateWay,PDN网关),是访问PDN(Packet Data Network,分组数据网络)的网关节点,主要负责用户IP地址的分配、数据包路由、QoS策略控制、计费和合法监听等。
· PCRF(Policy and Charging Rules Function,策略及计费规则功能),用于制定QoS策略和基于不同IP流的计费控制等。
当前版本暂不支持PCRF、漫游、计费和合法监听相关功能。
vEPC常见接口如表1-1所示。
表1-1 vEPC常见接口描述表
接口名称 |
连接网元 |
主要功能 |
主要协议 |
S1-MME |
MME与eNodeB |
用于传送会话管理和移动性管理信息,即控制平面信息 |
S1-AP |
S1-U |
SGW与eNodeB |
在SGW与eNodeB间建立隧道,传送用户平面数据 |
GTP-U |
S10 |
MME与MME |
在MME间建立隧道,组成MME Pool,传送控制平面信息 |
GTPv2-C |
S11 |
MME与SGW |
在MME和SGW间建立隧道,传送控制平面信息 |
GTPv2-C |
S6a |
MME与HSS |
完成用户位置信息的交换和用户签约信息的管理,传送控制平面信息 |
Diameter |
S5 |
SGW与PGW |
在归属地网络SGW与PGW间建立隧道,传送用户平面数据和控制平面信息 |
GTPv2-C和GTP-U |
S8 |
SGW与PGW |
漫游时,在归属地网络PGW和拜访地网络SGW间建立隧道,传送用户平面数据和控制平面信息 |
GTPv2-C和GTP-U |
Gx(S7) |
PCRF与PGW |
传送QoS策略和计费准则 |
Diameter |
S9 |
PCRF与PCRF |
传送QoS策略和计费准则 |
Diameter |
Rx |
PCRF与PDN中的AF(Application Function,应用层功能) |
在PCRF与PDN中的AF间传送应用层会话信息 |
Diameter |
SGi |
PGW与PDN |
在PGW与PDN间传送用户平面数据 |
IP、DHCP、Radius、IPSEC、L2TP、GRE等 |
· 当前版本暂不支持Gx(S7)、S8、S9、S10和Rx接口。
· 表1-1中的所有接口均为核心网内部的逻辑接口。
vEPC支持的业务特性如表1-2所示。
表1-2 vEPC核心网业务特性描述表
支持特性 |
特性描述 |
移动性管理 |
· 用户状态管理 · 附着流程 · 接入控制 · 网元选择 · TA List管理 · 跟踪区更新流程 · 服务请求流程 · LTE内部切换流程 · X2切换 · 分离流程 · 位置更新流程 · Cancel Location流程 |
安全性管理 |
· 鉴权功能 · 用户身份保密性功能 · 身份识别功能 · 加密算法: ¡ EEA0 ¡ 基于SNOW 3G算法的EEA1 ¡ 基于AES算法的EEA2 ¡ 基于ZUC算法的EEA3 · 完整性算法: ¡ EIA0 ¡ 基于SNOW 3G算法的EIA1 ¡ 基于AES算法的EIA2 ¡ 基于ZUC算法的EIA3 |
路径管理 |
GTP路径管理 |
签约用户数据管理 |
· 用户签约信息存储 · 用户数据库备份 |
会话管理 |
· 缺省、专有承载的创建、更新和删除 · PDN地址管理 |
用户地址分配 |
· 静态IP地址分配 · PGW地址池动态IP地址分配 |
QoS |
· EPS QoS · 基于预定义的QoS策略控制 |
路由功能 |
· 静态路由 · 缺省路由 |
S1接口 |
· S1-MME支持S1AP协议 · S1-U支持GTP-U协议 |
SGi接口 |
支持IP协议 |
S5/S8接口 |
支持GTP协议 支持GTPv2协议 |
S6a接口 |
支持Diameter协议 |
S10接口 |
支持GTPv2-C协议 |
S11接口 |
支持GTPv2-C协议 |
操作维护 |
· 软件管理 · 故障管理 · 设备管理 · 安全管理 · 配置管理 · 联机帮助 · 跟踪管理 · 日志管理 |
vEPC安装前的准备流程如图2-1所示。
安装vEPC前,用户可以从H3C网站或服务支持人员处获取vEPC全量软件包。
vEPC目前仅支持安装在X86架构的服务器上,推荐的服务器硬件配置如表2-1所示。
· 如无特殊说明,手册将以H3C推荐的H3C UniServer R4900 G3为例介绍vEPC的安装过程。
· 如果用户采用其他型号的服务器做vEPC宿主机,对于该服务器硬件和操作系统的安装方法,请参见对应服务器配套的用户手册。
· 在使用服务器的过程中,异常断电、带电拔插磁盘或带电拔插网卡可能损坏服务器硬件或vEPC软件,对于服务器使用上的注意事项,请查看各服务器的相关产品文档。
表2-1 服务器硬件配置描述表
项目 |
配置要求 |
服务器型号 |
推荐H3C UniServer R4900 G3服务器 |
CPU |
· 主频:≥2.0GHz · 处理器二级高速缓存:≥2MB · 处理器数目:≥2 |
内存 |
≥64GB |
硬盘 |
≥100GB |
网口 |
≥2个,一个千兆网口和至少一个芯片型号为82599ES或82599EB的万兆网口,其中千兆网口负责收发控制平面和管理平面信息,芯片型号为82599ES或82599EB的万兆网口负责收发vEPC S1-U和SGi接口的用户平面数据 · 为提高转发效率,建议采用两个芯片型号为82599ES或82599EB的万兆网口分别收发vEPC S1-U和SGi接口的用户平面数据 · 关于查看网口芯片型号方法,请参见手册中的2.8 规划并记录服务器网口 |
有关R4900 G3服务器的硬件安装方法,请参见《H3C UniServer R4900 G3服务器 用户指南》。
R4900 G3服务器支持多种方式安装操作系统,手册仅以HDM(Hardware Device Management,硬件设备管理)方式为例进行介绍。有关R4900 G3服务器安装操作系统的详细介绍,请参见《H3C服务器 操作系统安装指导》。
不同版本的HDM可能Web页面会存在差异,手册给出的截图仅做参考,具体请以实际Web页面显示为准。
如表2-2所示,R4900 G3出厂时已经设置了缺省的专用HDM登录信息。R4900 G3上电启动后,用户可以直接使用该缺省信息登录设备的专用HDM管理页面。
表2-2 R4900 G3专用HDM缺省登录信息描述表
项目 |
缺省值 |
专用HDM接口IP地址 |
192.168.1.2/24 |
用户名和密码 |
· 用户名:admin · 密码:Password@_ |
(1) 连接R4900 G3专用HDM接口和本地PC。
用以太网双绞线将R4900 G3专用HDM接口和本地PC相连。
建议将R4900 G3专用HDM接口和本地PC通过以太网双绞线直连,并确保本地PC不能进入休眠模式,否则,为R4900 G3安装H3Linux过程中可能会因网络丢包或PC休眠而导致安装失败。
(2) 为本地PC配置IP地址。
修改本地PC的IP地址为192.168.1.0/24网段内的任意IP地址(专用HDM接口缺省IP地址除外),例如192.168.1.1,保证本地PC能与R4900 G3专用HDM接口IP地址路由可达。
(3) 打开R4900 G3专用HDM的登录页面。
不同浏览器登录专用HDM的方法相似,手册仅以IE 11浏览器为例介绍登录R4900 G3专用HDM的方法。
a. 在PC上启动IE浏览器,在浏览器地址栏中输入专用HDM接口的IP地址后按回车键,如图2-2所示,会弹出浏览器的安全告警。
图2-2 安全告警示意图
b. 点击“继续浏览此网站(不推荐)。”,即可打开R4900 G3的专用HDM登录页面。
(4) 登录R4900 G3的专用HDM。
在R4900 G3的专用HDM登录页面中输入用户名和密码,点击<登录>按钮登录R4900 G3专用HDM。
远程控制台包括KVM(Kernel-based Virtual Machine,基于内核的虚拟机)、H5 KVM和VNC(Virtual Network Console,虚拟网络Console口)三种类型。通过远程控制台,可以实现服务器的远程管理和操作系统安装等操作。
· 由于H5 KVM固件版本的原因,可能会导致用户键盘输入出错(例如输入的字母是小写,但远程控制台中显示的字母是大写)或上传软件异常。H3C推荐采用非H5 KVM登录R4900 G3的远程控制台。
· 在某些版本的远程控制台中输入字符时,一旦输入错误,使用Backspace键删除字符时会出现乱码。对于此类远程控制台,用户可以尝试使用组合键Ctrl+Backspace或Shift+Backspace删除字符。对于其他类型的远程控制台,当出现乱码问题时,请查看该远程控制台的使用指导来解决该问题。
· 如无特殊说明手册将以KVM为例介绍如何登录R4900 G3的远程控制台。
使用KVM前需要准备本地PC的登录环境。推荐在本地PC上安装Zulu OpenJDK和IcedTea-Web软件来完成登录环境的准备。您可以通过下列链接,选择对应平台(本地PC为Windows系统时,需下载Windows平台的软件,本地PC为Linux系统时,需下载Linux平台的软件)的软件进行下载和安装:
· Zulu OpenJDK:https://www.azul.com/downloads/zulu/
· IcedTea-Web:http://icedtea.wildebeest.org/download/icedtea-web-binaries/
H3C推荐采用默认设置安装Zulu OpenJDK和IcedTea-Web。关于准备KVM登录环境的详细介绍,请参见《H3C服务器 HDM用户指南》和HDM的联机帮助。
(1) 打开远程控制台的Web页面。
登录R4900 G3专用HDM后,依次点击Web页面左侧导航栏中的“远程控制 > 远程控制台”。
(2) 登录R4900 G3 KVM远程控制台。
如图2-3所示,在远程控制台页面中点击<KVM>按钮,登录R4900 G3 KVM远程控制台。
图2-3 登录远程控制台示意图
点击<KVM>按钮后,如果弹出“安全警告”对话框,请点击<继续>按钮,并在“是否要运行此应用程序?”对话框中勾选“我接受风险并希望运行此应用程序(I)”,最后点击<运行(R)>按钮登录R4900 G3的远程控制台。
为了达到数据冗余保护的目的,在为R4900 G3安装操作系统前,请通过远程控制台进入服务器的BIOS页面配置服务器的RAID(Redundant Arrays of Independent Drives,磁盘阵列)方案。您可以根据R4900 G3磁盘的数量与大小选择配置不同的RAID方案。关于配置R4900 G3服务器RAID的详细介绍,请参见《H3C服务器 存储控制卡用户指南》。
安装与启动H3Linux时的BIOS启动模式必须相同,否则,系统可能无法启动。例如,安装H3Linux时,如果选择UEFI模式,则启动H3Linux时也必须为UEFI模式。有关设置服务器BIOS启动模式的详细介绍,请参见所选购服务器的BIOS用户指南或HDM用户指南。
安装H3Linux的步骤如下:
(1) 登录R4900 G3的远程控制台。
(2) 将vEPC全量软件包重定向到虚拟介质。
a. 如图2-4所示,点击远程控制台菜单栏中的“虚拟介质”打开虚拟介质页面。
图2-4 打开虚拟介质示意图
b. 如图2-5所示,在虚拟介质页面点击<浏览>按钮选择本地PC上的vEPC全量软件包。
图2-5 选择vEPC全量软件包示意图
vEPC全量软件包必须保存在本地PC不含中文字符的路径下。
c. 如图2-6所示,点击<连接>按钮将本地PC上的vEPC全量软件包重定向到虚拟介质。
图2-6 将vEPC全量软件包重定向到虚拟介质示意图
d. 如图2-7所示,点击对话框中的<确定>按钮,完成以只读模式将vEPC全量软件包重定向到虚拟介质。
(3) 安装H3Linux。
a. 如图2-8所示,在完成vEPC全量软件包重定向到虚拟介质后,依次点击远程控制台菜单栏中的“电源 >立即重启”引导服务器从虚拟介质启动。
· 首次安装H3Linux时,无需配置服务器BIOS启动项。
· 非首次安H3Linux时,需要将服务器BIOS启动项指定为通过虚拟光驱启动。有关配置服务器BIOS启动项的详细介绍,请参见《H3C服务器 操作系统安装指导》。
b. 当出现图2-9所示内容后,按键盘回车键开始安装H3Linux。
· 图2-9仅为安装示例,不同版本的H3Linux操作系统的安装界面可能有所不同。
· 按键盘回车键之后,H3Linux会自动安装到R4900 G3上,该过程无需人为干预,手册不再详细介绍。
H3Linux安装完成后,如表2-3所示,系统默认会创建两种类型的用户。您可以使用这两种类型的用户登录H3Linux。
用户类型 |
用户名 |
密码 |
普通用户 |
admin |
admin@vEPC3200 |
Root用户 |
root |
root@vEPC3200 |
· 为了确保系统的安全性,H3C推荐首次登录H3Linux后修改默认用户的密码。
· 您可以通过Linux下的passwd命令修改用户的密码,有关passwd命令的详细介绍,可通过Linux下的man passwd命令查看。
如图2-10所示,在R4900 G3的远程控制台中输入缺省的用户名(admin或root),然后输入对应的密码,点击键盘的回车键完成H3Linux的登录。
用户可以通过以下任意方法修改vEPC的系统时间:
· 修改vEPC所在Docker容器的系统时间。
· 修改服务器的系统时间。
需要注意的是,修改Docker容器或服务器的系统时间后,必须重启vEPC。为避免因修改时间导致业务中断,H3C建议配置系统时间后不要频繁地更改。
(1) 登录H3Linux。
通过远程控制台使用Root用户登录H3Linux,具体过程略。
(2) 设置服务器时区。
请根据服务器所在的实际位置设置时区。
手册以Asia/Shanghai为例设置服务器的时区。
[root@localhost ~]# timedatectl set-timezone Asia/Shanghai
(3) 配置H3Linux系统时间。
通过date -s命令设置系统时间,例如,设置当前时间为:2019年12月16日20点16分40秒。
[root@localhost ~]# date -s '2019-12-16 20:16:40'
(4) 固化系统时间到设备固件。
[root@localhost ~]# clock –w
· 未配置clock -w命令时,如果服务器发生重启,则服务器的系统时间可能会初始化。
· 配置clock -w命令后,如果服务器发生重启,date命令设置的系统时间仍会生效。
· 建议用户配置clock -w命令后,手动执行reboot命令重启服务器,来验证date命令设置的系统时间是否已经固化到设备固件。
(5) 配置NTP服务。
vEPC仅支持作为网络中的NTP Server,有关vEPC NTP服务的配置方法,请参见《H3C vEPC3200 NTP典型配置举例》。
Docker镜像用于创建Docker Container。vEPC所有网元都运行在Docker Container内,在安装vEPC时,必须指定当前版本配套的Docker镜像来创建Docker Container。H3Linux安装完成后,用户可以在/root目录下查看Docker镜像。
(1) 登录H3Linux。
通过远程控制台使用Root用户登录H3Linux,具体过程略。
(2) 查看并记录创建vEPC Docker Container的Docker镜像。
在/root目录下执行ll命令查看Docker镜像。
· 不同版本H3Linux安装完毕后,在根目录下显示的文件个数可能略有不同,手册仅为示意。
· H3C以“vEPC3200-软件版本号.tar”的方式命名Docker镜像,例如手册举例中的vEPC3200-E3102P04.tar。
· 安装vEPC前,用户需要记录H3Linux /root目录内的Docker镜像,即举例中的vEPC3200-E3102P04.tar。
[root@localhost ~]# ll
total 946668
-rw-------. 1 root root 5628 Apr 12 02:37 anaconda-ks.cfg
drwxr-xr-x. 7 root root 285 Apr 12 02:48 depend
-rwxr-xr-x. 1 root root 633 Apr 10 04:26 docker_restart
-rwxr-xr-x. 1 root root 3069 Apr 10 04:26 docker_rm
drwxr-xr-x. 2 root root 52 Apr 12 03:02 docker-static-ip
-rwxr-xr-x. 1 root root 600 Apr 10 04:26 docker_stop
-rwxr-xr-x. 1 root root 27439 Apr 10 04:26 dpdk-devbind.py
-rwxr-xr-x. 1 root root 284944 Apr 10 04:26 igb_uio.ko
-rw-r--r--. 1 root root 386 Apr 12 03:49 install_log.txt
-rwxr-xr-x. 1 root root 964 Apr 10 04:26 monitor_container.sh
-rw-------. 1 root root 6247 Apr 12 02:37 original-ks.cfg
drwxr-xr-x. 2 root root 6 Apr 12 02:45 perl5
-rwxr-xr-x. 1 root root 416 Apr 10 04:26 rm_bridge.sh
-rwxr-xr-x. 1 root root 26426 Apr 10 04:26 setupdev.sh
-rwxr-xr-x. 1 root root 969000960 Apr 10 04:26 vEPC3200-E3102P04.tar
vEPC安装前需要提前规划待使用的服务器网口。如表2-4所示,为方便用户规划,H3C给出了服务器物理网口规划模板。
· 模板中的网口名仅为示例,在安装vEPC前,首先要查看网口的芯片型号并记录待使用的服务器网口名。
· 仅芯片型号为82599ES或82599EB的万兆网口才支持关联vEPC S1-U和SGi接口。
网口名 |
描述 |
enp61s0f0 |
· 与vEPC Docker Bridge关联的物理服务器网口,用于收发所有管理和控制平面信息 · 对网口的芯片型号没有要求 · 安装vEPC时,该网口必须UP |
ens1f0 |
· 与vEPC用户平面S1-U接口关联 · 网口的芯片型号为82599ES或82599EB · 安装vEPC时,该网口必须UP,且不能配置IP地址 |
ens1f1 |
· 与vEPC用户平面SGi接口关联 · 网口的芯片型号为82599ES或82599EB · 安装vEPC时,该网口必须UP,且不能配置IP地址 |
(1) 登录H3Linux。
通过远程控制台使用Root用户登录H3Linux,具体过程略。
(2) 查看网口的芯片型号和网口名。
在/root目录下执行./dpdk-devbind.py --status命令查看网卡状态。
[root@localhost ~]# ./dpdk-devbind.py --status
Network devices using DPDK-compatible driver
============================================
0000:5f:00.0 '82599ES 10-Gigabit SFI/SFP+ Network Connection 10fb' drv=igb_uio unused=ixgbe
Network devices using kernel driver
===================================
0000:3d:00.0 'Ethernet Connection X722 for 10GbE SFP+ 37d3' if=enp61s0f0 drv=i40e unused=igb_uio
0000:5f:00.1 '82599ES 10-Gigabit SFI/SFP+ Network Connection 10fb' if=ens1f0 drv=ixgbe unused=igb_uio
0000:5f:00.2 '82599ES 10-Gigabit SFI/SFP+ Network Connection 10fb' if=ens1f1 drv=ixgbe unused=igb_uio
表2-5 ./dpdk-devbind.py --status命令显示信息描述表
字段 |
描述 |
Network devices using DPDK-compatible driver |
可通过DPDK驱动的网卡,包括网卡的芯片型号、接口类型等 |
Network devices using kernel driver |
内核驱动的网口,包括网卡的芯片型号、接口类型、接口名称等 |
在规划服务器网口时,您需要记录:
· vEPC用户平面S1-U和SGi接口关联的物理网口名,该网口的芯片型号必须为82599ES或82599EB,例如显示信息中的ens1f0、ens1f1。
· vEPC Docker Bridge关联的物理服务器网口,用于收发管理和控制平面信息,该网口对芯片型号无要求,例如显示信息中的enp61s0f0。
图2-11为vEPC的典型拓扑示意图。为便于理解,图中给出了GW1、GW2和GW3这3台网关设备。实际组网时,您可以使用1台三层网络设备代替GW1、GW2和GW3。请依据实际拓扑连接服务器接口与网络设备之间的线缆。
图2-11 vEPC典型拓扑示意图
vEPC安装过程中会使用多段IP地址。如表2-6所示,为方便用户规划,H3C给出了vEPC IP地址规划模板,并指定了各设备、接口的IP地址。表2-6可以与图2-11配合使用,也可以根据实际组网情况进行修改。如无特殊说明,手册将以表2-6和图2-11为例介绍vEPC的安装过程。
表2-6 vEPC IP地址规划模板描述表
设备 |
接口 |
IP地址 |
备注 |
NMS |
- |
10.20.1.3/24 |
网管服务器,例如H3C iMC服务器,用于管理整个网络 |
License Server |
- |
172.16.1.10/24 |
License Server,可安装到独立的服务器或vEPC所在的R4900 G3上,为实现vEPC软件的顺利注册,必须保证License Server的IP地址与vEPC所有网元的控制平面IP地址路由可达 · 关于License Server的安装和使用方法,请参见与vEPC配套的《H3C License Server安装指导》和《联机帮助》 · 与vEPC配套的License Server版本信息,请查看《H3C vEPC3200 版本说明书》 |
GW2 |
- |
10.20.1.1/24 |
NMS、License Server、MME S1-MME接口和Docker Bridge的网关IP地址 |
- |
10.20.2.1/24 |
SGW S1-U接口网关,用于收发eNodeB与核心网之间的用户平面数据 |
|
- |
172.16.1.1/24 |
vEPC控制平面的网关地址,该地址必须在vEPC安装前配置到GW2上,否则会导致安装失败 |
|
GW3 |
- |
10.20.3.1/24 |
PGW SGi接口的网关地址,用于收发核心网与PDN之间的用户平面数据 |
Docker Bridge |
- |
10.20.1.10/24 |
Docker Bridge的IP地址,用户可以通过Docker Bridge的IP地址登录并管理H3Linux |
tapxxx |
- |
与Docker Container接口eth0互连的虚拟接口,通过该接口收发Docker Container管理和控制平面信息 |
|
Docker Container |
eth0 |
10.20.1.20/24 |
· Docker Container的IP地址 · 登录vEPC EMS的IP地址 · vEPC作为SNMP agent使用的IP地址,用于连接SNMP Server(对应手册中的NMS) |
10.20.1.2/24 |
MME S1-MME接口使用的IP地址,用于收发eNodeB与核心网之间的管理和控制平面信息 |
||
172.16.1.129/32 |
MME网元控制平面使用的IP地址,用于MME与HSS和SGW网元以及MME与License Server之间的信息交互 |
||
172.16.1.139/32 |
HSS网元控制平面的使用的IP地址,用于HSS与MME网元以及HSS与License Server之间的信息交互 |
||
172.16.1.149/32 |
SGW网元控制平面使用的IP地址,用于SGW与HSS和PGW网元以及SGW与License Server之间的信息交互 |
||
172.16.1.159/32 |
PGW网元控制平面使用的IP地址,用于PGW与SGW网元以及PGW与License Server之间的信息交互 |
||
172.16.1.179/32 |
DP Self的IP地址,用来与SGW和PGW的控制平面进行通信,该IP地址不能与S1-U地址相同 |
||
172.16.1.20/24 |
vEPC所有网元的Outer interface IP地址,各网元IP地址掩码均为32位,为保证各网元与外部地址互通,必须配置该IP地址 |
||
tap_eth0 |
10.20.2.2/24 |
SGW S1-U接口使用的IP地址 |
|
tap_eth1 |
10.20.3.2/24 |
PGW SGi接口使用的IP地址 |
在开始安装vEPC前,请确保已完成vEPC安装前的所有准备工作。
vEPC的安装流程如图3-1所示。
图3-1 vEPC安装流程示意图
安装vEPC的过程中:
· 需要多次通过远程控制台或SSH方式登录H3Linux:
¡ 关于通过远程控制台登录H3Linux的详细介绍,请参见2.5.5 首次登录H3Linux。
¡ 关于SSH登录H3Linux的详细介绍,请参见《H3C vEPC3200设备登录 典型配置举例》。
· 如无特殊说明,手册均使用H3Linux的Root用户登录H3Linux,登录后所在的系统目录为/root。
· 您也可以使用H3Linux的普通用户登录H3Linux,登录后必须执行su命令并输入su密码才能切换为Root用户。需要注意的是,通过su命令切换为Root用户后,所在的系统目录为/home/admin,需要执行cd /root命令才能切换至/root目录。
· 对于登录设备使用的缺省用户和用户密码,请参见2.5.5 首次登录H3Linux。
H3Linux运行正常时,如果vEPC所在Docker容器已损坏,此时用户可以在H3Linux下重新创建Docker Container,并在新容器内安装vEPC。
H3Linux和vEPC所在Docker容器运行正常时,如果vEPC网元已损坏,此时用户可以进入现有Docker Container,并在该容器内重新安装vEPC。
如图3-2所示,vEPC运行在Docker Container内,所有控制平面和管理平面的报文均通过Docker Bridge转发。创建Docker Bridge和Docker Container后,Docker Bridge会为Docker Container分配一对虚拟接口,其中tapxxx为Docker Bridge上的接口,eth0为Docker Container上的接口,其中:
· 由Docker Container向外部网络转发报文的路径为eth0 > tapxxx > enp61s0f0
· 由外部网络向Docker Container内转发报文的路径为enp61s0f0 > tapxxx > eth0
· 配置Docker Bridge属性时,需要指定用于转发控制和管理平面信息的网口,该网口对芯片型号无要求。手册以网口enp61s0f0为例进行介绍,关于查看服务器网口的具体方法,请参见2.8 规划并记录服务器网口。
· 一旦Docker Bridge属性配置错误,用户可以重新执行./setupdev.sh脚本,再次配置Docker Bridge属性。
· Docker Bridge创建完成后,必须重启H3Linux,否则Docker Bridge的属性不会生效。
· Docker Bridge用于收发vEPC管理和控制平面信息,用户可以通过Docker Bridge的IP地址登录H3Linux。
(1) 通过远程控制台使用Root用户登录H3Linux,具体过程略。
(2) 启动Docker Bridge配置程序。
首次启动Docker Bridge配置程序时,会出现关闭SELINUX功能的提示信息。此时必须执行reboot命令重启H3Linux,否则vEPC无法继续安装。
[root@localhost ~]# ./setupdev.sh
Cannot install vEPC when the SELINUX service is enabled. Please first execute the reboot command to disable the SELINUX service.
(3) 重启H3Linux。
[root@localhost ~]# reboot
(4) H3Linux重启后,通过远程控制台使用Root用户重新登录H3Linux,具体过程略。
(5) 启动Docker Bridge配置程序,具体过程略。
(6) 配置Docker Bridge的网络属性。
=======================<Docker Bridge Config Menu>=======================
Do you want to configure the docker bridge? [Y/N]
(Note: If you have configured the docker bridge, enter N to access the Docker Container Config Menu.):Y
· Docker Bridge名称为3~12个字符的字符串,只能包含英文字母[a-z,A-Z]、数字、下划线,必须以英文字母开始,区分大小写。
· 连续输错3次将退出Docker Bridge Config Menu。
· 请根据实际规划的内容配置Docker Bridge的网络属性。
Enter docker bridge name:
(Note: You can specify the same name for the docker bridge and the docker container.)
vEPC_Bridge
Enter docker bridge IP: (192.168.0.2 for example)
10.20.1.10
Enter docker bridge mask: (255.255.255.0 for example)
255.255.255.0
Enter docker bridge gateway: (192.168.0.1 for example)
10.20.1.1
Enter Ethernet adapter name: (eth0 for example)
enp61s0f0
The Bridge has created successful. Please reboot the H3Linux.
(7) 重启H3Linux,使Docker Bridge生效。
[root@localhost ~]# reboot
· Docker Bridge生效后,用户可以使用SSH Docker Bridge IP地址的方式登录H3Linux。
· 为了获得更好的安装体验,H3C推荐采用SSH方式登录H3Linux,有关SSH登录H3Linux的详细介绍,请参见《H3C vEPC3200设备登录 典型配置举例》。
· 如无特殊说明,安装vEPC的剩余操作,手册均以SSH方式登录H3Linux为例进行介绍。
· Docker Container是通过Docker镜像创建的,在创建Docker Container前,请先记录当前版本的Docker镜像。手册以vEPC3200-E3102P04.tar为例进行介绍。关于查看Docker镜像的具体方法,请参见2.7 查看并记录Docker镜像名。
· 配置Docker Container属性时,需要指定用于转发用户平面S1-U和SGi接口的DPDK网口,该网口的芯片型号为82599ES或82599EB,请提前记录该网口名称。手册以网口ens1f0、ens1f1作为DPDK网口进行介绍,关于查看服务器网口的具体方法,请参见2.8 规划并记录服务器网口。
· 在配置Docker Container时,如果已经指定DPDK Ethernet adapter name,但因输入错误或其他原因退出配置过程,此时可能出现指定的网口被DPDK程序占用的情况。如果出现这种情况,用户可以先解除占用,然后再重新配置Docker Container的属性信息。关于解除DPDK程序占用网口的详细操作,请参见附录B。
(1) 通过SSH方式使用Root用户重新登录H3Linux,其中,SSH的IP地址为Docker Bridge的IP地址,具体过程略。
(2) 启动Docker Bridge配置程序,具体过程略。
由于Docker Bridge属性已生效,当再次出现是否配置Docker Bridge的交互信息时,请输入N,跳过Docker Bridge配置过程,直接进入Docker Container配置菜单。
=======================<Docker Bridge Config Menu>=======================
Do you want to configure the docker bridge? [Y/N]
(Note: If you have configured the docker bridge, enter N to access the Docker Container Config Menu.):N
(3) 选择Docker Container转发模式。
表3-1 Docker Container转发模式描述表
项目 |
描述 |
Typical for DPDK DP |
Typical for DPDK DP,表示Docker Container以DPDK模式进行用户平面数据转发,vEPC的用户平面和控制平面是分离的,具有更高的转发效率 |
Custom for DPDK DP |
(暂不支持)Custom for DPDK DP,与Typical for DPDK DP模式类似,差别在于该模式支持用户自定义报文转发时所需的硬件资源 |
======================<Docker Container Config Menu>=====================
The docker container supports the following forwarding types:
1) Typical for DPDK DP.
2) Custom for DPDK DP.
0) Quit.
Enter your choice (0-2): 1
(4) 指定Docker镜像文件。
Enter the name of the docker image file (.tar file): vEPC3200-E3102P04.tar
(5) 配置Docker Container的网络属性。
· Docker Container的名称为3~16个字符的字符串,只能包含英文字母[a-z,A-Z]、数字、下划线,必须以英文字母开始,区分大小写。
· 连续输错3次将退出Docker Container Config Menu。
· 请根据实际规划的内容配置Docker Container的属性。
· DPDK Ethernet adapter name必须为规划的服务器上真实存在的网口名。
· 如果服务器仅有1个芯片型号为82599ES或82599EB的网口,DPDK Ethernet adapter name可以输入1个,此时S1-U和SGi接口均使用指定的网口转发报文。
· Docker Container的IP地址不能与Docker Bridge的IP地址相同,否则,vEPC无法正常运行。
Enter docker container name: vEPC_Container
Enter docker container IP: (192.168.1.2 for example)
10.20.1.20
Enter docker container mask: (255.255.255.0 for example)
255.255.255.0
Enter docker container gateway: (192.168.1.1 for example)
10.20.1.1
Enter DPDK Ethernet adapter name: ens1f0 ens1f1
(6) 查看已创建的Docker Container。
[root@localhost ~]# docker ps –a
具体显示信息略……
表3-2 docker ps –a命令显示信息描述表
字段 |
描述 |
CONTAINER ID |
Docker Container标识 |
IMAGE |
创建Docker Container的Docker镜像名 |
COMMAND |
创建Docker Container命令的进程 |
CREATED |
Docker Container创建的时间 |
STATUS |
Docker Container的状态,显示为UP时表明Docker Container状态正常 |
PORTS |
Docker Container中的端口映射关系 |
NAMES |
Docker Container的名称 |
(1) 进入已创建的Docker Container。
[root@localhost ~]# docker exec -it vEPC_Container bash
(2) 在Docker Container的/root目录下执行chmod +x -R QuickInstall/命令,以递归的形式赋予用户对QuickInstall目录的可执行权限。
[root@vEPC_Container /]# cd /root
[root@vEPC_Container ~]# chmod +x -R QuickInstall/
(3) 在Docker Container /QuickInstall目录下执行./quick_install脚本启动vEPC安装程序。
[root@vEPC_Container ~]# cd QuickInstall/
[root@vEPC_Container QuickInstall]# ./quick_install
(4) 选择部署方式。
当前仅支持集中部署方式。
======================<vEPC Deployment Config Menu>======================
1) Centralized vEPC Deployment (all vEPC nodes installed on one server)
2) Distributed vEPC Deployment (vEPC nodes installed on a minimum of two servers)
0) Quit
Enter your choice (0-2): 1
(5) 显示缺省的License属性。
· lic_server.conf文件中已经预先设置了License Server IP地址、License Server使用的端口号,以及LCP(License Client Program,License客户端程序)的用户名和密码,其中LCP的用户名为admin,密码为admin123456,为了安全起见,LCP密码并未在lic_server.conf文件内显示。
· License注册过程采用Client、Server架构,vEPC作为Client,通过设置LCP名称可以被License Server接管。
· 请根据实际规划的内容配置License的属性信息。
==========================<License Info Config Menu>==========================
The lic_server.conf file contains the following default settings:
License Server IP: 172.16.1.10
License Server port: 5555
LCP username: admin
(6) 根据实际情况配置License属性。
输入N会采用缺省的License属性信息。
Do you want to change settings in the lic_server.conf file? (Y/N): Y
Note: Press Enter if you do not want to change a parameter.
License Server IP: 172.16.1.10
License Server IP changed to 172.16.1.10 successfully.
License Server port: 5555
License Server port changed to 5555 successfully.
LCP username: admin
LCP username changed to admin successfully.
LCP password:
Saving the new settings.............Done.
(7) 指定单机模式部署vEPC网元。
当前仅支持单机模式部署vEPC网元。
=====================<Installation Style Config Menu>====================
1) HA Install
2) No HA Install
Enter your choice (1-2):2
(8) 显示缺省的vEPC接口IP地址和路由信息。
表3-3 接口IP地址和路由信息描述表
项目 |
描述 |
S1-MME IP |
MME S1-MME接口IP地址,该IP地址不能与S1-U和SGi接口IP地址属于同一网段,否则,vEPC无法正常收发报文 |
S1-MME eth interface |
· MME S1-MME接口,用于收发eNodeB与核心网之间的控制平面信息,固定为Docker Container上的接口eth0 · Docker Container上的eth0接口使用宿主机上的非DPDK网口收发报文 · 在手册中,eth0使用的非DPDK网口规划为enp61s0f0 |
S1-U IP |
SGW S1-U接口IP地址,该IP地址不能与S1-MME接口IP地址属于同一网段,否则,vEPC无法正常收发报文 |
S1-U eth interface |
· SGW S1-U接口,用于收发eNodeB与核心网之间的用户平面数据,固定为Docker Container上的接口tap_eth0 · Docker Container上的tap_eth0使用宿主机上的DPDK网口收发报文 · 在手册中,tap_eth0使用的DPDK网口规划为ens1f0 |
SGi IP |
PGW SGi接口IP地址,该IP地址不能与S1-MME接口IP地址属于同一网段,否则,vEPC无法正常收发报文 |
SGi eth interface |
· PGW SGi接口,用于收发PDN与核心网之间的数据,固定为Docker Container上的接口tap_eth1 · Docker Container上的tap_eth1使用宿主机上的DPDK网口收发报文 · 在手册中,tap_eth1使用的DPDK网口规划为ens1f1 |
EMS IP |
EMS IP地址,该IP地址与Docker Container IP地址和vEPC作为SNMP agent使用的IP地址相同 |
NMS IP |
管理vEPC的网管服务器IP地址,例如,H3C iMC服务器IP地址 |
eNB gateway IP |
到基站控制平面的下一跳接口IP地址 |
PDN gateway IP |
到PDN的下一跳接口IP地址 |
================<Setting vEPC Config File Parameter Menu>===================
The config_epc.cfg file contains the following default settings:
S1-MME IP: 10.20.1.2
S1-MME eth interface: eth0
S1-U IP: 10.20.2.2
S1-U eth interface: tap_eth0
SGi IP: 10.20.3.2
SGi eth interface: tap_eth1
EMS IP: 10.20.1.20
NMS IP: 10.20.1.3
eNB gateway IP: 10.20.1.1
PDN gateway IP: 10.20.3.1
(9) 配置vEPC接口IP地址和路由信息。
· 请根据实际规划的内容配置vEPC接口IP地址和路由信息。
· 如果config_epc.cfg缺省的配置与现网IP地址不冲突,H3C推荐采用config_epc.cfg文件中缺省的配置。
· 如果宿主机仅有1个支持DPDK的网口,则S1-U eth interface和SGi eth interface必须设置成一个。
· 如果不修改对应参数的配置,可以直接按“Enter”键跳过。
Do you want to change settings in the config_epc.cfg file? (Y/N):Y
Note: Press Enter if you do not want to change a parameter.
S1-MME IP: 10.20.1.2
S1-MME eth interface: eth0
S1-U IP: 10.20.2.2
S1-U eth interface: tap_eth0
SGi IP: 10.20.3.2
SGi eth interface: tap_eth1
EMS IP: 10.20.1.20
NMS IP: 10.20.1.3
eNB gateway IP: 10.20.1.1
PDN gateway IP: 10.20.3.1
Saving the new settings.............Done.
(10) 显示缺省的网元节点的IP地址。
表3-4 网元节点IP地址描述表
项目 |
描述 |
xxx IP |
xxx网元控制平面IP地址。需要注意的是,DP SELF IP为SGW和PGW用于转发数据的控制面IP地址 |
================<Setting vEPC Node IP Menu>=================
The Nodes_IP_epc.cfg file contains the following default settings:
MME IP : 172.16.1.129
HSS IP : 172.16.1.139
SGW IP : 172.16.1.149
PGW IP : 172.16.1.159
DP SELF IP : 172.16.1.179
(11) 配置网元节点的IP地址。
· 请根据实际规划的内容配置网元控制平面IP地址。
· 如果Nodes_IP_epc.cfg缺省的配置与现网IP地址不冲突,H3C推荐采用Nodes_IP_epc.cfg文件中缺省的配置。
· 如果不修改对应参数的配置,可以直接按“Enter”键跳过。
Do you want to change settings in the Nodes_IP_epc.cfg file? (Y/N): Y
Note: Press Enter if you do not want to change a parameter.
MME IP : 172.16.1.129
HSS IP : 172.16.1.139
SGW IP : 172.16.1.149
PGW IP : 172.16.1.159
DP SELF IP : 172.16.1.179
Initialising Dependency Check
============================<Start to install E3102P04>============================
部分过程略……
(12) 配置DPDK转发时使用的CPU内核数。
选择安装DPDK模式时,需要设置用于DPDK转发的CPU内核数,至少配置8个CPU内核,否则无法继续安装。
Enter the number of cores to be used (8 by default): 8
部分安装过程略……
(13) 配置SNMP只读和读写团体名。
vEPC作为SNMP Agent,使用Docker Container IP地址与NMS(例如,H3C iMC服务器)进行交互,此时需要配置SNMP的团体名:
· 选择使用缺省团体名,直接按“Enter”键跳过。缺省情况下,只读团体名为public,读写团体名为private。
· 配置新的团体名时,请依次输入只读团体名和读写团体名,二者使用空格分开。配置时需要一次配置两种团体名,不可单独配置。
· 团体名的长度为6~16个字符的字符串,只能包含英文字母[a-z,A-Z]、数字和特殊字符,且必须以英文字母或数字开始,特殊字符不包含“空格”、“\”和“'”,区分大小写。
· 只读团体名和读写团体名不能相同。
Start Snmpd service...
Default: rocommunity=public, rwcommunity=private.
Please config rocommunity and rwcommunity. (Press Enter key if using default settings. Example of input format:public private):rocommunity rwcommunity
为提高系统安全性,vEPC缺省关闭了SMUX模块使用的199号端口。配置SNMP的团体名后,设备会打印“[init_smux] bind failed: Cannot assign requested address”,此时用户无需做任何处理。
部分安装过程略……
(14) 当显示All Configuraton completed时,表示vEPC已安装完成。
(15) 查看vEPC各网元的状态,正常情况下,所有网元均为Running状态。
[root@vEPC_Container QuickInstall]# statusepc
[ems] Running
[esgw] Running
[epgw] Running
[mme] Running
[HSS] Running
[epc_dp] Running
各网元IP地址掩码均为32位,为保证各网元与外部地址互通,必须配置该IP地址。手册以172.16.1.20/24为例进行介绍,有关配置Docker Container接口IP地址的详细介绍,请参见《H3C vEPC3200 配置容器接口IP地址 典型配置举例》。
(1) 通过vim编辑器打开/opt/lte/scripts目录内的epc_sysconf.sh配置脚本。
[root@vEPC_Container QuickInstall]# vim /opt/lte/scripts/epc_sysconf.sh
(2) 在epc_sysconf.sh脚本echo "please add some configurations" >/dev/null 2>&1的下方插入ip address add 172.16.1.20/24 dev eth0,添加配置接口IP地址的内容,具体配置过程略。
· 当执行start_epc命令时,IP地址172.16.1.20/24会添加到eth0接口上。
· 添加接口IP地址后,建议同时添加删除该接口IP地址的配置,否则,该IP地址一旦生效,会一直存在于eth0上。
(3) 在epc_sysconf.sh脚本echo "please del some configurations" >/dev/null 2>&1的下方插入ip address del 172.16.1.20/24 dev eth0,添加删除接口IP地址的内容,具体配置过程略。
当执行stop_epc命令时,IP地址172.16.1.20/24会从对应接口上删除。
(4) 保存并退出vim编辑器,具体配置过程略。
(5) 执行start_epc命令使IP地址172.16.1.20/24添加到Docker Container接口eth0上。
[root@vEPC_Container /]# start_epc
具体显示信息略……
vEPC核心网功能均通过EMS(Element Management System,网元管理系统)Web进行配置,在完成vEPC软件安装、软件注册后,用户可以在维护终端的浏览器中输入EMS IP地址来登录EMS Web页面。
· 建议使用Chrome 55及以上版本浏览器访问Web。
· 使用的浏览器必须要设置能接受第一方Cookie(即来自站点的Cookie),并启用活动脚本(或JavaScript),才能正常访问Web。以上功能在不同浏览器中的名称及设置方法可能不同,请以实际情况为准。
· 更改设备的软件版本后,请在登录Web页面之前先清除浏览器的缓存,否则,可能无法正常登录Web页面或无法正确地显示Web页面。
vEPC安装完成后,可以使用配置的EMS IP地址登录Web页面。
采用缺省登录信息登录设备Web的步骤如下:
(1) 为PC配置IP地址,保证其能与vEPC的EMS IP地址互通。
(2) 启动浏览器。
在PC上启动浏览器,在浏览器地址栏中输入https://EMS Web登录IP,然后点击回车,进入vEPC的EMS Web登录页面。
· 在同一PC上,使用Chrome浏览器只能登录一个账号。
· vEPC EMS登录IP地址与Docker Container IP地址相同,对应手册中的10.20.1.20/24。
(3) 输入登录信息。
在安装vEPC的过程中,系统自动创建了类型为ADMIN和OPERATOR的账号:
· ADMIN账号的用户名为admin,密码为admin@EPC,具有最高的系统权限。
· OPERATOR账号的用户名为hssuser,密码为hssuser@EPC,具有HSS用户组的操作权限。
在登录页面中输入用户名、密码,单击<Login>按钮即可登录Web。
(4) 修改登录信息。
有关用户类型、用户权限的详细信息,请参见H3C vEPC3200 EMS联机帮助或《H3C vEPC3200用户管理 典型配置举例》。
登录设备后,可以通过“Configuration > User Management > My Account”页面修改当前用户的密码。以ADMIN账号登录EMS后,还可以通过“Configuration > User Management > Account Management”页面管理用户。
为保证设备的安全性,用户在vEPC EMS上完成操作后应及时退出登录。
在vEPC EMS页面上,用户可以通过如下方法退出vEPC EMS:
· 直接关闭当前的浏览器。
· 点击图4-1中的“Logout”直接退出vEPC EMS。
· 在Home页面依次点击图4-2中的“Settings> Logout”退出vEPC EMS。
图4-2 Home页面退出vEPC EMS示意图
不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!