H3C NFV系列产品安装与启动指导-6W107

01-正文

本章节下载  (7.95 MB)

docurl=/cn/Service/Document_Software/Document_Center/IP_Security/FW_VPN/H3C_vFW/Installation/Installation_Manual/H3C_SecPath_IG-6W107/202102/1382571_30005_0.htm

01-正文

  录

1 概述

2 在虚拟机上安装NFV1000系列产品

2.1 安装环境

2.1.1 硬件环境

2.1.2 软件环境

2.2 在VMware平台安装NFV1000系列产品

2.2.1 通过ISO安装vFW1000

2.2.2 通过PXE方式安装vFW1000

2.2.3 通过PXE无人值守方式安装vFW1000

2.2.4 通过OVA安装vFW1000

2.2.5 通过自动部署工具用OVA模板安装vFW1000

2.3 在KVM平台安装NFV1000系列产品

2.3.1 通过ISO安装vFW1000

2.3.2 通过PXE安装vFW1000

2.3.3 通过PXE无人值守方式安装vFW1000

2.4 在CAS平台安装NFV1000系列产品

2.4.1 通过ISO安装vFW1000

2.5 部署NFV1000系列产品

2.5.1 vFW1000接口与虚拟网卡的对应关系

2.5.2 添加或删除vFW1000接口

2.5.3 vFW1000接口和vSwitch接口的映射关系

3 在物理服务器上安装NFV2000系列产品

3.1 安装环境

3.1.1 硬件环境

3.2 在裸金属服务器上安装NFV2000系列产品

3.2.1 通过ISO安装vFW2000

3.2.2 通过PXE安装vFW2000

3.2.3 通过PXE无人值守方式安装vFW2000

4 升级NFV产品

4.1 启动文件简介

4.2 升级方式简介

4.3 通过命令行升级NFV产品

4.3.1 升级前的准备

4.3.2 使用TFTP协议升级vFW1000的启动文件

4.3.3 使用FTP协议升级vFW1000的启动文件

4.3.4 重启vFW设备

4.4 通过ISO升级NFV产品

5 恢复NFV产品

6 附录A:KVM虚拟化平台安装指导

6.1 KVM概述

6.2 KVM虚拟化平台安装说明

6.3 配置网络参数

6.4 关闭SELinux服务

6.5 在KVM虚拟化平台上配置Linux bridge

7 附录B:OVS bridge

7.1 配置OVS bridge

7.2 配置OVS网卡的MTU

7.3 删除OVS bridge配置

8 附录C:Intel 82599 VF网卡在虚拟平台的加载

8.1 Intel 82599 VF网卡概述

8.2 服务器BIOS设置

8.3 服务器虚拟平台设置

8.3.1 VMWare平台加载Intel 82599 VF网卡

8.3.2 KVM平台加载Intel 82599 VF网卡

8.3.3 CAS平台加载Intel 82599 VF网卡

9 附录D:PXE Server搭建

9.1 CentOS系统下环境搭建

9.1.1 安装并配置DHCP

9.1.2 安装并配置TFTP

9.1.3 安装并配置http

9.1.4 安装并配置NFS

9.1.5 关闭防火墙

9.1.6 安装并配置syslinux

9.2 Ubuntu系统下环境搭建

9.2.1 安装并配置DHCP

9.2.2 安装并配置TFTP

9.2.3 安装并配置http

9.2.4 安装并配置NFS

9.2.5 配置server

 


1 概述

NFV(Network Functions Virtualisation,网络功能虚拟化)技术通过将网络设备软件化、虚拟化和标准化,实现网络业务平面和转发平面的分离。H3C NFV产品基于Comware V7平台,提供与物理设备相同的功能和体验。

根据运行平台的不同,H3C NFV产品分为NFV 1000系列和NFV 2000系列。NFV 1000系列产品安装在标准服务器虚拟机上;NFV 2000系列产品直接安装在裸金属服务器上。H3C NFV1000系列和H3C NFV2000系列包含的产品如表1-1所示。

表1-1 根据运行平台划分H3C NFV产品

NFV 1000系列

NFV 2000系列

VSR1000

VSR2000

vBRAS1000

vBRAS2000

vLNS1000

vLNS2000

SecPath vFW1000

SecPath vFW2000

SecPath vLB1000

SecPath vLB2000

 

根据功能不同,H3C NFV产品包括:

·     VSR(Virtual Services Router)虚拟路由器

VSR1000/VSR2000虚拟路由器,提供与物理路由器相同的功能和体验,包括路由、防火墙、VPN、QoS和配置管理等,帮助企业建立安全、统一、可扩展的智能分支,同时精简分支基础设施的数量和投入。

·     vBRAS(Virtual Broadband Remote Access Server)虚拟宽带远程接入服务器

vBRAS1000/vBRAS2000虚拟宽带远程接入服务器,提供与物理BRAS相同的功能和体验,包括PPPoE、IPoE、Portal、L2TP、MPLS、NAT444、AAA、DHCP、QoS等特性,使用VXLAN技术,帮助运营商实现POP点的虚拟化。

·     vLNS(Virtual L2TP Network Server)虚拟L2TP网络服务器

vLNS1000/vLNS2000虚拟L2TP网络服务器,提供与物理LNS相同的功能和体验,完成PPPoE的终结和用户AAA认证接入。

·     SecPath vLB(Virtual Load Balance)虚拟负载均衡产品

SecPath vLB1000/SecPath vLB2000虚拟负载均衡产品是一款功能强大的软件化安全产品,提供完善的服务器负载均衡功能及链路负载均衡功能,提高企业应用可靠性,帮助企业构建完善的数据中心和云计算网络解决方案。

·     SecPath vFW(Virtual Fire Wall)虚拟防火墙

SecPath vFW1000/SecPath vFW2000虚拟防火墙是一款功能强大的软件化安全产品,能够监控和保护虚拟环境的安全,为虚拟化数据中心和云计算网络代理全面的安全防护,帮助企业构建完善的数据中心和云计算网络安全解决方案。


2 在虚拟机上安装NFV1000系列产品

H3C NFV1000系列产品安装并运行在服务器的虚拟机上,支持多种虚拟平台。

2.1  安装环境

2.1.1  硬件环境

H3C NFV1000系列产品对虚拟机的最低配置需求如表2-1所示。

表2-1 硬件环境

项目

需求

处理器

·     安装VSR1000/vLNS1000/SecPath vLB1000/SecPath vFW1000至少需要配置1个vCPU

·     安装vBRAS1000至少需要配置4个vCPU

内存

·     1 vCPU (主频 ≥ 2.0 GHz): 2GB及以上

·     4 vCPU (主频 ≥ 2.0 GHz): 4GB及以上(vBRAS1000需要8GB及以上)

·     8 vCPU (主频 ≥ 2.0 GHz): 8GB及以上

硬盘

1 个vHD,8GB

网卡

至少2个虚拟网卡,最大支持16个虚拟网卡

虚拟网卡类型

·     E1000 (VMware ESXi, Linux KVM)

·     VMXNET3 (VMware ESXi)

·     VirtIO (Linux KVM, H3C CAS)

·     InterI 82599 VF (VMware ESXi, Linux KVM)

 

2.1.2  软件环境

H3C NFV1000系列产品支持的虚拟化平台是一样的,如表2-2所示。

表2-2 软件环境

虚拟化平台

平台软件版本

VMware ESXi

VMware ESXi 4.1, 5.0, 5.1, 5.5

Linux KVM

Linux KVM (Linux Kernel > 2.6.25), the recommended Linux distributions:

·     CentOS 7

·     Ubuntu 12.10

·     RedHat Enterprise Linux (RHEL) 6.3

·     Suse Server 11SP2

H3C CAS

H3C CAS 2.0

 

说明

表2-2给出的H3C NFV1000系列产品支持的虚拟化平台软件版本仅供参考,请以版本说明书为准。

 

由于Linux的版本支持情况比较复杂,在“6 附录A:KVM虚拟化平台安装指导”中以CentOS 7为例介绍了该Linux版本(含KVM软件包)的安装过程。其它虚拟化平台软件的安装说明请参见该虚拟化平台软件的相关资料。

2.2  在VMware平台安装NFV1000系列产品

说明

在VMware平台安装NFV1000系列产品的方式相同,下面将以vFW1000为例进行介绍。

 

在VMware平台上,H3C vFW1000可以通过以下五种方式进行安装:

·     通过ISO安装vFW1000

·     通过PXE方式安装vFW1000

·     通过PXE无人值守方式安装vFW1000

·     通过OVA安装vFW1000

·     通过自动部署工具用OVA模板安装vFW1000

2.2.1  通过ISO安装vFW1000

1. 新建虚拟机

(1)     在VMware vSphere Client客户端输入虚拟机服务器的地址及登录的用户名、密码,点击<登录>按钮,登录虚拟机服务器。

图2-1 登录虚拟机服务器

 

说明

·     VMware虚拟机服务器的登录用户名及密码请联系该服务器管理员获取。

·     登录过程中有安全证书告警界面出现时,请点击<忽略>按钮,忽略证书界面信息。

 

登录成功后,会出现图2-2所示界面。

图2-2 成功登录虚拟机服务器

 

(2)     选择[文件 -> 新建 -> 虚拟机]菜单,开始新建一个虚拟机,进入图2-3所示配置界面。选择自定义创建,然后点击<下一步>。

图2-3 创建一个新的虚拟机

 

(3)     为新建的虚拟机创建设备名,如图2-4所示,命名后点击<下一步>。

图2-4 为新建虚拟机命名

 

(4)     选择虚拟机文件目的存储器,然后点击<下一步>,如图2-5所示。

图2-5 指定虚拟机文件目的存储器

 

(5)     选择虚拟机版本,然后点击<下一步>,如图2-6所示。

图2-6 选择虚拟机版本

 

(6)     选择操作系统类型,然后点击<下一步>,如图2-7所示。注意操作系统选择Linux(L),版本选择“Other 2.6.x Linux(64-bit)”,否则在添加虚拟网卡时无法选择VMXNET3网卡类型。

图2-7 指定虚拟机使用的操作系统类型

 

(7)     为虚拟机分配CPU的数量,然后点击<下一步>,如图2-8所示。至少需要配置1个vCPU(主频不小于2.0GHz)。如果是多核的情况下,例如4核,2*2的划分和1*4的划分效果是一样的。

图2-8 指定虚拟机CPU的分配数量

 

(8)     选择虚拟机的内存分配数量,然后点击<下一步>,如图2-9所示。虚拟机的内存需要至少配置1GB。

提示

vBRAS1000对虚拟机内存的最低配置要求如表2-1所示,需要至少配置2GB。

 

图2-9 指定虚拟机内存的分配数量

 

(9)     选择虚拟机的网卡分配数量,然后点击<下一步>,如图2-10所示。需要按照至少2 个虚拟网卡,最大支持16个虚拟网卡来配置。

图2-10 指定虚拟机网卡的分配数量

 

(10)     选择SCSI控制器类型,然后点击<下一步>,如图2-11所示。

图2-11 指定SCSI控制器的类型

 

(11)     选择使用的硬盘类型,然后点击<下一步>,如图2-12所示。

图2-12 指定使用的硬盘类型

 

(12)     选择虚拟机的硬盘空间分配数量,然后点击<下一步>,如图2-13所示。至少需要配置1 个vHD,8GB。

图2-13 指定虚拟机硬盘空间的分配数量

 

(13)     配置其它高级选项,配置后点击<下一步>,如图2-14所示。

图2-14 其它高级选项配置

 

(14)     点击<完成>按钮,完成虚拟机的创建,如图2-15所示。虚拟机创建成功后,会出现在左侧的设备导航栏中。

图2-15 完成虚拟机的创建

 

2. 设置虚拟机从CDROM启动

(1)     在左侧的设备导航栏中选中新建的虚拟机,单击右键选择“编辑虚拟机设置”,然后点击“选项”页签,如图2-16所示。在“强制BIOS设置”选项前打勾,点击<确定>。

图2-16 选择强制进入BIOS设置

 

(2)     在设备导航栏中选中新建的虚拟机,点击启动虚拟机。通过Console口可以选择Boot页签,配置优先CDROM启动,如图2-17所示,然后保存配置并退出。

图2-17 选择优先通过CDROM启动

 

3. 连接vFW1000安装映像

点击连接虚拟机的CD设备到vFW1000的安装ISO文件上,等待虚拟机自动读取安装映像,如图2-18所示。

图2-18 连接虚拟机的CD设备到vFW1000的安装ISO文件上

 

4. 安装vFW1000

(1)     虚拟机自动加载安装ISO文件,进入安装界面。在安装界面选择<1>进行安装,并输入“yes”确认,如图2-19所示。系统将会自动完成安装。

图2-19 安装启动界面

 

(2)     安装完成后,先断开CD连接,如图2-20图2-21所示。

图2-20 断开CD连接一

 

图2-21 断开CD连接二

 

(3)     然后输入“yes”重启系统,完成vFW1000的安装,如图2-22所示。

图2-22 完成vFW1000的安装

 

2.2.2  通过PXE方式安装vFW1000

提示

本章节只给出PXE Client的安装方法,PXE Server的搭建方法请参见“10 附录D:PXE Server搭建”或者自行网络查找。

 

1. 新建虚拟机

新建虚拟机的方法请参见“2.2.1  1. 新建虚拟机”。

2. 设置虚拟机从网络启动

(1)     在左侧的设备导航栏中选中新建的虚拟机,单击右键选择“编辑虚拟机设置”,然后点击“选项”页签,如图2-23所示。在“强制BIOS设置”选项前打勾,点击<确定>。

图2-23 选择强制进入BIOS设置

 

(2)     在设备导航栏中选中新建的虚拟机,点击启动虚拟机。通过Console口可以选择Boot页签,设置第二优先通过Network boot from xx接口启动,如图2-24所示,然后保存配置并退出。

图2-24 设置第二优先通过Network启动

 

注意

请保证选择接口的物理链路到PXE Server是可达的。

 

3. 安装vFW1000

(1)     虚拟机自动从PXE Server下载所需文件,进入安装界面。在安装界面选择<1>进行安装,并输入“yes”确认,如图2-25所示。系统将会自动完成安装。

图2-25 安装启动界面

 

(2)     然后输入“yes”重启系统,完成vFW1000的安装,如图2-26所示。

图2-26 完成vFW1000的安装

 

2.2.3  通过PXE无人值守方式安装vFW1000

提示

本章节只给出PXE Client无人值守的安装方法,PXE Server的搭建方法请参见“10 附录D:PXE Server搭建”或者自行网络查找。

PXE Server搭建时,修改syslinux配置参数ocs_live_run="/opt/VSR/setup_vsr_pxe.sh unmanned fresh "。

 

1. 新建虚拟机

新建虚拟机的方法请参见“2.2.1  1. 新建虚拟机”。

2. 设置虚拟机从网络启动

(1)     在左侧的设备导航栏中选中新建的虚拟机,单击右键选择“编辑虚拟机设置”,然后点击“选项”页签,如图2-23所示。在“强制BIOS设置”选项前打勾,点击<确定>。

图2-27 选择强制进入BIOS设置

 

(2)     在设备导航栏中选中新建的虚拟机,点击启动虚拟机。通过Console口可以选择Boot页签,设置第二优先通过Network boot from xx接口启动,如图2-24所示,然后保存配置并退出。

图2-28 设置第二优先通过Network启动

 

注意

请确定选择接口的物理链路到PXE Server是可达的。

 

3. 安装vFW1000

虚拟机自动从PXE Server下载所需文件,系统将会自动完成安装。

2.2.4  通过OVA安装vFW1000

说明

vFW1000发布的OVA模板是基于VMware虚拟机版本8创建的,该虚拟机版本与ESXi 5.0和更高版本的主机兼容,所以通过OVA安装vFW1000请选用VMware ESXi 5.0或更高的版本。

 

1. 连接到VMware虚拟平台

使用VMware vSphere Client连接到VMware虚拟平台的方法请参见“2.2.1  1. (1)

2. 安装vFW1000

选择[文件 -> 部署OVA模板]菜单,然后按照提示步骤即可完成vFW1000的安装。安装过程如下:

(1)     在URL中输入OVA模板路径,如图2-29,点击<下一步>。

图2-29 选择OVA模板的路径

 

(2)     确认OVA模板的详细信息,然后点击<下一步>,如图2-30所示。

图2-30 OVA模板信息

 

(3)     为新建的虚拟机创建设备名,然后点击<下一步>,如图2-31所示。

图2-31 为新建虚拟机命名

 

(4)     配置虚拟硬盘存储格式,然后点击<下一步>,选取默认值即可,如图2-32

图2-32 配置虚拟硬盘格式

 

(5)     配置虚拟网络映射,选取VM Network选项,然后点击<下一步>,如图2-33所示。

图2-33 配置虚拟硬盘格式

 

(6)     在图2-34所示界面中,点击<完成>按钮,确认虚拟机的创建。

图2-34 完成虚拟机的创建

 

(7)     虚拟机创建成功的显示如图2-35。当虚拟机创建成功后,会出现在左侧的设备导航栏中。

图2-35 创建成功

 

2.2.5  通过自动部署工具用OVA模板安装vFW1000

1. 配置步骤

使用自动部署工具vd_deploy.sh部署vFW1000的OVA模板到指定的vCenter管理下的服务器中,并在安装的同时对vFW1000进行基础配置。

说明

·     自动部署工具vd_deploy.sh必须在安装有3.01或者以上版本ovftool工具的Linux环境下运行。

·     ovftool工具可以在网站www.vmware.com下载。

·     vCenter的登录用户名及密码请联系该服务器管理员获取。

 

(1)     登录到Linux服务器,本文以SSH登录为例。

图2-36 登录Linux服务器

 

# Linux服务器从根目录切换到OVA模板所在路径/opt下。

图2-37 切换目录

 

(2)     根据需求使用自动部署工具配置OVA模板的各项参数(若无特殊需求此步骤可省略)。

# 通过当前目录中名为vFW1000_H3C-CMW710-E1184-X64.ova的OVA模板,定制一个CPU个数为4、内存大小为2048M、网卡数量为2的新模板,并将生成的模板保存在路径/opt/results下。

[root@localhost opt]# ./vd_deploy.sh -s vFW1000_H3C-CMW710-E1184-X64.ova -o /opt/results -c 4 -m 2048 -ns 2

Generating OVF file with user params

------------------------------------

 

No ovftool found in your environment, please install 'ovftool' first

 

ovftool not available; unable to perform validity of OVF check. Continuing.

 

Generating Manifest

---------------------

 

Creating OVA package

--------------------

 

Copying OVA package to output directory

--------------------

'/opt/results/vFW1000_H3C-CMW710-E1184-X64.ova'

 

Success

(3)      使用自动部署工具用OVA模板安装vFW1000,并对vFW1000进行基础配置。

# 通过OVA模板安装一个名为vFW的vFW1000到地址为192.168.1.26的vCenter所管理的服务器中,服务器的地址为192.168.1.25。其中vCenter的登录用户名为root,登录密码为vmware;安装vFW1000的目的数据库为datastore1,网卡连接的网络为VM Network。配置该vFW1000为电源开启状态,IP地址为172.31.2.222/24,默认网关为172.31.2.254,登录用户名为vfw-user,密码为123456,并使能SSH服务。

[root@localhost opt]# ./vd_deploy.sh -s vFW1000_H3C-CMW710-E1184-X64.ova -n vFW -po -ov -d '192.168.1.26/Datacenter-1/host/192.168.1.25' -u root -pw vmware -ds datastore1 -nw 'VM Network' -ip '172.31.2.222/24' -gw '172.31.2.254' -lu 'vfw-user' -lpw '123456' -ssh

/usr/bin/ovftool found...

Generating OVF file with user params

------------------------------------

 

Validating OVF descriptor

----------------

 

Generating Manifest

---------------------

 

Creating OVA package

--------------------

 

Deploying OVA package to '192.168.1.26/Datacenter-1/host/192.168.1.25'

------------------------------------------

/usr/bin/ovftool --powerOffTarget --diskMode=thick --datastore=datastore1 --overwrite --powerOn --name=vFW vFW.ova vi://root:********@192.168.1.26/Datacenter-1/host/192.168.1.25

Opening OVA source: vFW.ova

The manifest validates

Accept SSL fingerprint (D1:FB:DC:C1:E0:41:89:22:6E:48:F8:D6:03:A7:8B:36:21:E1:55:CF) for host 192.168.1.26 as target type.

Fingerprint will be added to the known host file

Write 'yes' or 'no'

yes

Opening VI target: vi://root@192.168.1.26:443/Datacenter-1/host/192.168.1.25

Deploying to VI: vi://root@192.168.1.26:443/Datacenter-1/host/192.168.1.25

Transfer Completed                   

Powering on VM: vFW

Completed successfully

 

Success

# 使用自动部署工具后,地址为192.168.1.25的服务器上部署了一台名称为vFW的vFW1000设备。

图2-38 vFW1000部署成功

 

2. 配置选项

自动部署工具vd_deploy.sh全部配置选项及说明如表2-3所示。

说明

工具中各个配置选项使用时没有先后顺序之分。

 

表2-3 配置选项

配置选项

输入格式说明

配置选项描述及说明

说明

Virtual Device Configuration Options(vFW1000的基础配置)

-sn | -sysname

<string>

Enters the sysname, which should be a string of 1 to 64 characters.

vFW1000的系统名称

-ip | -ip_address

<address/mask>

Enters the IPv4 address/mask for the first interface, such as '10.1.1.100 255.255.255.0' or '10.1.1.100/24'. You can also specify the string 'dhcp' to use DHCP.

vFW1000的IP地址

-gw | -gateway

<address>

Enters the default IPv4 gateway, such as '1.1.1.1'.

vFW1000的网关地址

-lu | -login_username

<string>

Enters the Login username, which should be a string of 1 to 55 characters, not include \, |, /, :, *, ?, <, >, @, and must not be a, al, all. It must be paired with login_password option.

vFW1000的登录用户名

-lpw | -login_password

<string>

Enters the Login password, which should be a string of 1 to 63 characters. It must be paired with login_username option.

vFW1000的登录密码

-ssh

-

If set, enables SSH. This requires that the login_username and login_password also be set.

使能SSH

-telnet

-

If set, enables Telnet. This requires that the login_username and login_password also be set.

使能Telnet

-netconf_http

-

If set, enables NETCONF over HTTP. This requires that the login_username and login_password also be set.

使能HTTP方式访问的NETCONF

-netconf_https

-

If set, enables NETCONF over HTTPS. This requires that the login_username and login_password also be set.

使能HTTPS方式访问的NETCONF

-snmpv2

-

If set, enables SNMPv2. This requires that the ead_community and write_community also be set.

使能SNMPv2

-rc | -read_community

<string>

Enters the SNMPv2 read-only access community name, which should be a string of 1 to 32 characters.

SNMPv2的只读团体名

-wc | -write_community

<string>

Enters the SNMPv2 read and write access community name, which should be a string of 1 to 32 characters.

SNMPv2的读写团体名

Help(帮助)

-h | -help

-

Display this help and exit

显示帮助

Input/Output Options(OVA输入输出)

-s | -sourcefile

<file>

The OVA file used to deploy the virtual device.

原始OVA模板路径

-o | -output

<directory>

Enters the destination output directory of the customized OVA file. If you don't specify the output directory, the file will be deleted after deployed.

定制后的OVA模板保存路径

-n | -name

<string>

Enters the VM name which will be deployed. If you don't specify the name, then the source OVA filename will be used.

需要安装的目的vFW1000名称,或者定制后的OVA模板名称

Virtual Machine Hardware Options(虚拟机硬件配置)

-c | -cpus

<number>

Enters the number of vCPU.

虚拟机的虚拟CPU个数

-m | -memory

<MB>

Enters the amount of memory. Minimum size of memory is 1024 MB.

虚拟机的内存大小

-ns | -nics

<number>

Enters the number of vNIC.

虚拟机的网卡数量

-nt | -nic_type

<string>

Enters the vNIC type. Valid values are: E1000 VMXNET3

虚拟机的网卡类型

-nw | -network

<string>

Enters the network label for all vNICs, or a comma-separated list of one name per vNIC. The network label should be exist on the ESXi host.

虚拟机网卡配置

ESXi/vSphere Deploy Options(安装目的地配置)

-d | -deploy

<URL>

Deploys the OVA to the specified ESXi host.

安装vFW1000的目的地

-u | -username

<string>

Enters the ESXi login username.

vCenter的用户名

-pw | -password

<string>

Enters the ESXi login password.

vCenter的密码

-ds | -datastore

<string>

Enters the name of the datastore where the OVA will be deployed. The datastore should be exist on the ESXi host.

安装vFW1000的目的数据库

-ov | -overwrite

-

Enters the instruction to overwrite an existing VM with the same name.

覆盖已有的同名vFW1000

-po | -poweron

-

Enters the instruction to automatically power-on the VM.

安装完成后启动vFW1000

 

2.3  在KVM平台安装NFV1000系列产品

说明

在KVM平台安装NFV1000系列产品的方式相同,下面将以vFW1000为例进行介绍。

 

2.3.1  通过ISO安装vFW1000

1. 新建虚拟机

(1)     运行Virtual Machine Manager软件。运行成功之后会出现管理界面,如图2-39所示。

图2-39 Virtual Machine Manager管理界面

 

说明

Virtual Machine Manager是图形化的管理软件且为Linux操作系统的选装软件。请在安装宿主机Linux操作系统的时候启用图形化管理界面,并选择安装Virtual Machine Manager软件。

 

(2)     点击图标,开始新建一个虚拟机。在图2-40所示的配置界面,为新建的虚拟机创建设备名,然后选择从本地安装,点击<前进>。

图2-40 创建一个新的虚拟机

 

(3)     在图2-41所示界面中选择使用ISO映像,点击<浏览>,选择安装vFW1000的ISO文件后,点击<前进>。

图2-41 选择安装vFW1000的ISO文件

 

(4)     选择虚拟机CPU和内存的分配数量,然后点击<前进>,如图2-42所示。CPU至少需要配置1个vCPU(主频不小于2.0GHz),内存至少需要配置1GB。

提示

vBRAS1000对虚拟机内存的最低配置要求如表2-1所示,内存至少需要配置2GB。

 

图2-42 指定虚拟机CPU和内存的分配数量

 

(5)     选择虚拟机的硬盘空间分配数量,然后点击<前进>, 如图2-43所示。至少需要配置1 个vHD,8GB。

图2-43 指定虚拟机硬盘空间的分配数量

2016-06-03_154638.png

 

(6)     其它高级选项的配置,勾选“在安装前自定义配置”选项,然后点击<完成>,如图2-44所示。

图2-44 其它高级选项配置

 

(7)     由于勾选了“在安装前自定义配置”,完成虚拟机的基本配置后,会出现自定义配置界面,如图2-45所示。

图2-45 自定义配置界面

 

(8)     在自定义配置界面左侧的列表框中选择<Disk 1>,进入磁盘配置界面。将磁盘总线指定成IDE,并点击<应用>,如图2-46所示。

图2-46 配置磁盘总线

 

(9)     在自定义配置界面左侧的列表框中选择<NIC>,进入网卡配置界面。有两种配置方式,如图2-47图2-48所示。建议使用方式二设置网卡。其中br0的创建方法可参见6.5  在KVM虚拟化平台上配置Linux bridge。配置好后点击<应用>。

图2-47 配置网卡方式一

 

图2-48 配置网卡方式二

 

(10)     要正常运行vFW1000,至少需要按照两个虚拟网卡来配置, 而虚拟机基本配置中只有一块网卡。要添加新网卡,可以在客户化配置界面左下角点击<添加新硬件>,进入添加新硬件配置界面,然后选择网络设备,并配置网卡的属性,如图2-49所示。

图2-49 添加新网卡

 

(11)     点击<开始安装>,完成虚拟机的创建。新创建的虚拟机会自动运行,并进入vFW1000的安装过程。

2. 安装vFW1000

(1)     虚拟机系统从ISO启动,并直接进入安装界面,安装界面如图2-50所示。选择<1>进行安装,并输入“yes”确认后,系统将会自动完成安装。

图2-50 安装启动界面

 

(2)     输入“yes”重启系统,完成vFW1000的安装,如图2-51所示。

图2-51 完成vFW1000的安装

 

2.3.2  通过PXE安装vFW1000

提示

本章节只给出PXE Client的安装方法,PXE Server的搭建方法请参见“10 附录D:PXE Server搭建”或者自行网络查找。

 

1. 新建虚拟机

(1)     运行Virtual Machine Manager软件。运行成功之后会出现管理界面,如图2-52所示。

图2-52 Virtual Machine Manager管理界面

 

说明

Virtual Machine Manager是图形化的管理软件且为Linux操作系统的选装软件。请在安装宿主机Linux操作系统的时候启用图形化管理界面,并选择安装Virtual Machine Manager软件。

 

(2)     点击图标,开始新建一个虚拟机。在图2-53所示的配置界面,为新建的虚拟机创建设备名,然后选择网络引导(PXE),点击<前进>。

图2-53 创建一个新的虚拟机

 

(3)     在图2-54所示界面中选择操作系统和版本后,点击<前进>。

图2-54 选择操作系统和版本

 

(4)     选择虚拟机CPU和内存的分配数量,然后点击<前进>,如图2-55所示。CPU至少需要配置1个vCPU(主频不小于2.0GHz),内存至少需要配置1GB。

提示

vBRAS1000对虚拟机内存的最低配置要求如表2-1所示,内存至少需要配置2GB。

 

图2-55 指定虚拟机CPU和内存的分配数量

 

(5)     选择虚拟机的硬盘空间分配数量,然后点击<前进>,如图2-56所示。至少需要配置1个vHD,8GB。

图2-56 指定虚拟机硬盘空间的分配数量

2016-06-03_154638.png

 

(6)     其它高级选项的配置,勾选“在安装前自定义配置”选项,然后点击<完成>,如图2-57所示。

图2-57 其它高级选项配置

 

 

(7)     由于勾选了“在安装前自定义配置”,完成虚拟机的基本配置后,会出现自定义配置界面,如图2-58所示。

图2-58 自定义配置界面

 

(8)     在自定义配置界面左侧的列表框中选择<Disk 1>,进入磁盘配置界面。将磁盘总线指定成IDE,并点击<应用>,如图2-59所示。

图2-59 配置磁盘总线

 

(9)     在自定义配置界面左侧的列表框中选择<NIC>,进入网卡配置界面。有两种配置方式,如图2-60图2-61所示。建议使用方式二设置网卡。其中br0的创建方法可参见6.5  在KVM虚拟化平台上配置Linux bridge。配置好后点击<应用>。

图2-60 配置网卡方式一

 

图2-61 配置网卡方式二

 

(10)     要正常运行vFW1000,至少需要按照两个虚拟网卡来配置, 而虚拟机基本配置中只有一块网卡。要添加新网卡,可以在客户化配置界面左下角点击<添加新硬件>,进入添加新硬件配置界面,然后选择网络设备,并配置网卡的属性,如图2-62所示。

图2-62 添加新网卡

 

(11)     点击<开始安装>,完成虚拟机的创建。新创建的虚拟机会自动运行,并进入vFW1000的安装过程。

2. 安装vFW1000

(1)     虚拟机自动从PXE Server下载所需文件,并直接进入安装界面,安装界面如图2-63所示。选择<1>进行安装,并输入“yes”确认后,系统将会自动完成安装。

图2-63 安装启动界面

 

(2)     输入“yes”重启系统,完成vFW1000的安装,如图2-64所示。

图2-64 完成vFW1000的安装

 

2.3.3  通过PXE无人值守方式安装vFW1000

提示

本章节只给出PXE Client的安装方法,PXE Server的搭建方法请参见“10 附录D:PXE Server搭建”或者自行网络查找。

PXE Server搭建时,修改syslinux配置参数ocs_live_run="/opt/VSR/setup_vsr_pxe.sh unmanned fresh "。

 

1. 新建虚拟机

(1)     运行Virtual Machine Manager软件。运行成功之后会出现管理界面,如图2-52所示。

图2-65 Virtual Machine Manager管理界面

 

说明

Virtual Machine Manager是图形化的管理软件且为Linux操作系统的选装软件。请在安装宿主机Linux操作系统的时候启用图形化管理界面,并选择安装Virtual Machine Manager软件。

 

(2)     点击图标,开始新建一个虚拟机。在图2-53所示的配置界面,为新建的虚拟机创建设备名,然后选择网络引导(PXE),点击<前进>。

图2-66 创建一个新的虚拟机

 

(3)     在图2-54所示界面中选择操作系统和版本后,点击<前进>。

图2-67 选择操作系统和版本

 

(4)     选择虚拟机CPU和内存的分配数量,然后点击<前进>,如图2-55所示。CPU至少需要配置1个vCPU(主频不小于2.0GHz),内存至少需要配置1GB。

提示

vBRAS1000对虚拟机内存的最低配置要求如表2-1所示,内存至少需要配置2GB。

 

图2-68 指定虚拟机CPU和内存的分配数量

 

(5)     选择虚拟机的硬盘空间分配数量,然后点击<前进>,如图2-56所示。至少需要配置1个vHD,8GB。

图2-69 指定虚拟机硬盘空间的分配数量

2016-06-03_154638.png

 

(6)     其它高级选项的配置,勾选“在安装前自定义配置”选项,然后点击<完成>,如图2-57所示。

图2-70 其它高级选项配置

 

 

(7)     由于勾选了“在安装前自定义配置”,完成虚拟机的基本配置后,会出现自定义配置界面,如图2-58所示。

图2-71 自定义配置界面

 

(8)     在自定义配置界面左侧的列表框中选择<Disk 1>,进入磁盘配置界面。将磁盘总线指定成IDE,并点击<应用>,如图2-59所示。

图2-72 配置磁盘总线

 

(9)     在自定义配置界面左侧的列表框中选择<NIC>,进入网卡配置界面。有两种配置方式,如图2-60图2-61所示。建议使用方式二设置网卡。其中br0的创建方法可参见6.5  在KVM虚拟化平台上配置Linux bridge。配置好后点击<应用>。

图2-73 配置网卡方式一

 

图2-74 配置网卡方式二

 

(10)     要正常运行vFW1000,至少需要按照两个虚拟网卡来配置, 而虚拟机基本配置中只有一块网卡。要添加新网卡,可以在客户化配置界面左下角点击<添加新硬件>,进入添加新硬件配置界面,然后选择网络设备,并配置网卡的属性,如图2-62所示。

图2-75 添加新网卡

 

(11)     点击<开始安装>,完成虚拟机的创建。新创建的虚拟机会自动运行,并进入vFW1000的安装过程。

2. 安装vFW1000

虚拟机自动从PXE Server下载所需文件,并将会自动完成安装。

2.4  在CAS平台安装NFV1000系列产品

说明

在CAS平台安装NFV1000系列产品的方式相同,下面将以vFW1000为例进行介绍。

 

在CAS平台上,H3C vFW1000只可通过以ISO进行安装。

2.4.1  通过ISO安装vFW1000

1. 新建主机

(1)     使用浏览器打开CAS云计算管理平台登录界面,如图2-76所示。输入登录的用户名、密码,点击<登录>按钮。

图2-76 登录CAS云计算管理平台

 

说明

CAS云计算管理平台的登录用户名及密码请联系该管理平台管理员获取。

 

登录成功后,会出现图2-77所示界面。

图2-77 CAS云计算管理平台主界面

 

(2)     在界面左侧的导航树中选中“云资源”,然后点击<增加主机池>按钮,开始新建一个主机池。在图2-78所示增加主机池窗口中输入主机池名称,然后点击<确定>。

图2-78 新建主机池

 

(3)     选中新建的主机池,点击<增加主机>按钮,开始新建一个主机。在图2-79所示增加主机窗口,输入要管理的CVK主机IP地址、用户名和密码,然后点击<确定>。

图2-79 新建主机

 

说明

CVK主机的登录用户名及密码请联系该服务器管理员获取。

 

(4)     主机新建成功后,点击<更多操作>中的<连接主机>按钮,然后在弹出窗口点击<确定>,使CVM可以与主机建立连接,如图2-80所示。

图2-80 连接主机

 

(5)     在界面左侧的导航树中选中刚刚新建的主机,然后点击“存储”页签,进入图2-81所示配置界面,开始为主机新建存储池。

图2-81 存储管理界面

 

(6)     点击<增加>按钮,创建用于存放vFW1000 ISO文件的存储池。在图2-82所示配置界面,输入存储池的名称,然后点击<下一步>。

图2-82 新建存储池

 

(7)     点击<完成>按钮,并启动存储池,完成存储池的创建,如图2-83所示。

图2-83 完成存储池的创建

 

(8)     选中新建的存储池,点击<上传文件>按钮,开始上传vFW1000 ISO文件到CVK主机,如图2-84所示。

图2-84 文件上传管理界面

 

(9)     可以直接把文件拖拽到文件上传区,然后点击<开始上传>,如图2-85所示。

图2-85 上传文件

 

上传完毕后,关闭此窗口,回到CAS云计算管理平台主界面。

2. 新建虚拟机

(1)     选择新建的主机,点击<增加虚拟机>按钮,开始新建一个虚拟机。输入虚拟机的基本信息如名称和描述,虚拟机的操作系统选择“Linux”,版本选择“Other Linux(64位)”,然后点击<下一步>,如图2-86所示。

图2-86 输入虚拟机名称及操作系统

 

(2)     进入硬件信息输入界面,硬件的配置需要满足表2-1最低配置要求。如果要添加新网卡,可点击<增加硬件>,进入添加新硬件配置界面,然后选择增加网卡,如图2-87所示。

提示

vBRAS1000对虚拟机内存的最低配置要求如表2-1所示,需要至少配置4个vCPU(主频不小于2.0GHz),内存至少需要配置2GB。

 

图2-87 配置硬件

 

(3)     点击网络栏的图标,在弹出的窗口中为vFW1000选择虚拟交换机,然后点击<确定>,如图2-88所示。虚拟交换机的创建过程及参数设置请参考CAS云计算管理平台在线帮助。

图2-88 选择虚拟交换机

 

(4)     点击磁盘选项图标,显示虚拟机磁盘高级设置,如图2-89所示。

图2-89 选择存储

 

(5)     点击存储池对应的图标,弹出选择存储池对话框,选择新建主机时创建的存储池作为虚拟机磁盘,如图2-90

图2-90 选择存储池

 

(6)     点击光驱栏的图标,选择要安装的vFW1000 ISO文件。如图2-91所示,选择新建主机过程中上传到CVK主机上的vFW1000 ISO文件,点击<确定>回到“增加虚拟机”界面。

图2-91 选择vFW1000 ISO文件

 

(7)     点击<完成>按钮,完成虚拟机的创建,如图2-92所示。刚创建的虚拟机会列在导航树中。

图2-92 完成虚拟机的创建

 

3. 安装vFW1000

(1)     在导航树中选中新建的虚拟机,然后点击<启动>按钮,启动虚拟机,并在弹出的提示窗口中选择<是>。

(2)     点击“控制台”页签,然后点击<打开Java控制台>或<打开网页控制台>,启动虚拟机的控制台。

提示

·     运行CAS的虚拟机Java控制台需要JRE环境,请先安装JRE软件包再打开控制台。

·     在vFW1000安装完毕之后,应该进入CAS中“修改虚拟机”的界面,把“IDE光驱hdc”属性的连接断开,否则下次启动可能还会从光驱启动。

 

(3)     虚拟机系统加载ISO文件,进入安装界面,安装界面如图2-93所示。选择安装类型<1>,并输入“yes”确认后,系统将会自动完成安装。

图2-93 安装启动界面

 

(4)     输入“yes“重启系统,完成vFW1000的安装,如图2-94所示。

图2-94 完成vFW1000的安装

 

2.5  部署NFV1000系列产品

说明

NFV1000系列产品的部署方式相同,下面将以vFW1000为例进行介绍。

 

2.5.1  vFW1000接口与虚拟网卡的对应关系

vFW1000第一次启动后,对PCI设备进行扫描,识别到支持的虚拟网卡后,对其进行初始化操作并记录其MAC地址(通过MAC地址可以标识一块虚拟网卡)。按照MAC地址的获取顺序将虚拟网卡映射到对应的槽位中,即第1个MAC地址对应槽位1,第2个MAC地址对应槽位2。若所有槽位均有网卡在位,则不进行添加。vFW1000网口和虚拟网卡对应关系如图2-95所示。

图2-95 vFW1000接口与虚拟网卡的对应关系

 

vFW1000启动后,可以使用命令display interface gigabitethernet brief命令查看虚拟网卡和槽位的对应关系:

<Sysname> display interface gigabitethernet brief

Brief information on interface(s) under route mode:

Link: ADM - administratively down; Stby - standby

Protocol: (s) - spoofing

Interface            Link Protocol Main IP         Description

GE1/0                UP   UP       --

GE2/0                UP   UP       172.16.0.112

GE3/0                UP   UP       --

提示

在开始配置vFW1000网络接口前,需要首先确认虚拟网卡和槽位的对应关系,保证vFW1000网口配置会应用在正确的虚拟网卡上。

 

如果不删除或者添加网卡,直接重启vFW1000,虚拟网卡和槽位的对应关系不会改变。

2.5.2  添加或删除vFW1000接口

用户可以通过在VM上添加或者删除虚拟网卡,实现在vFW1000上添加或删除以太网接口。添加或者删除虚拟网卡的方法请参考VMware的相关文档资料。

注意

vFW1000不支持热插拔以太网卡,添加或者删除虚拟网卡前必须停止vFW1000。

 

·     删除虚拟网卡,启动vFW1000,被删除网卡对应的槽位会被清空,其它槽位和网卡的对应关系不会改变。

·     添加虚拟网卡,启动vFW1000,新添加的虚拟网卡会映射到不在位网卡的最小槽位号。

添加或者删除虚拟网卡前,需要先使用命令display interface gigabitethernet brief命令确认虚拟网卡和槽位的对应关系:

<Sysname> display interface gigabitethernet brief

Brief information on interface(s) under route mode:

Link: ADM - administratively down; Stby - standby

Protocol: (s) - spoofing

Interface            Link Protocol Main IP         Description

GE1/0                UP   UP       --

GE2/0                UP   UP       172.16.0.112

GE3/0                UP   UP       --

添加或者删除虚拟网卡后,通常使用命令display interface gigabitethernet brief命令来确认新的网卡和槽位的对应关系,确认完毕后再进行网络配置。例如增加一块虚拟网卡后,新的虚拟网卡和槽位的对应关系:

<Sysname> display interface gigabitethernet brief

Brief information on interface(s) under route mode:

Link: ADM - administratively down; Stby - standby

Protocol: (s) - spoofing

Interface            Link Protocol Main IP         Description

GE1/0                UP   UP       --

GE2/0                UP   UP       172.16.0.112

GE3/0                UP   UP       --

GE4/0                UP   UP       --

新增的虚拟网卡映射为vFW1000的GigabitEthernet4/0接口。

2.5.3  vFW1000接口和vSwitch接口的映射关系

1. 在VMware平台上的映射关系

用户可以通过不同的方式配置ESXi网络来配合vFW1000使用,以下三个例子显示了三种常用的接口映射关系。

(1)     vFW1000接口分别绑定在主机不同的物理网络接口上,如图2-96所示。

图2-96 vFW1000接口分别绑定在主机不同的物理网络接口上

 

(2)     vFW1000多个接口共用一个主机物理网络接口,如图2-97所示。

图2-97 vFW1000多个接口共用一个主机物理网络接口

 

(3)     vFW1000接口直接映射到vSwitch的Trunk接口,接收带任意VLAN tag的报文,如图2-98所示。

图2-98 vFW1000接口直接映射到vSwitch的Trunk接口

 

2. 在KVM平台上的映射关系

用户可以通过不同的方式配置KVM网络来配合vFW1000使用,以下三个例子显示了三种常用的接口映射关系。

(1)     vFW1000接口分别绑定在主机不同的物理网络接口上,如图2-99所示。

图2-99 vFW1000接口分别绑定在主机不同的物理网络接口上

 

vFW1000的虚拟网卡可以使用Bridge方式也可以使用macvtap方式。

(2)     vFW1000多个接口共用一个主机物理网络接口,如图2-100所示。

图2-100 vFW1000多个接口共用一个主机物理网络接口

 

vFW1000的虚拟网卡可以使用Bridge方式也可以使用macvtap方式。

(3)     vFW1000接口直接映射成Trunk接口和主机物理网络接口绑定,接收带VLAN tag的报文,如图2-101所示。

图2-101 vFW1000接口直接映射成Trunk接口和主机物理网络接口绑定

 

vFW1000映射为Trunk接口的虚拟网卡只能使用Bridge方式,并且主机上对应的接口不能创建VLAN子接口。

提示

使用VirtIO类型的虚拟网卡映射成Trunk接口,KVM虚拟平台必须支持vhost特性。

 

3. 在CAS平台上的映射关系

用户可以通过不同的方式配置CAS网络来配合vFW1000使用,以下三个例子显示了三种常用的接口映射关系。

(1)     vFW1000接口分别绑定在主机不同的物理网络接口上,如图2-102所示。

图2-102 vFW1000接口分别绑定在主机不同的物理网络接口上

 

(2)     vFW1000多个接口共用一个主机物理网络接口,如图2-103所示。

图2-103 vFW1000多个接口共用一个主机物理网络接口

 

(3)     vFW1000接口直接映射成Trunk接口和主机物理网络接口绑定,接收带VLAN tag的报文,如图2-104所示。

图2-104 vFW1000接口直接映射成Trunk接口和主机物理网络接口绑定

 

提示

CAS虚拟平台必须加载vhost模块并且对应的虚拟网卡需要配置vhost属性。

 


3 在物理服务器上安装NFV2000系列产品

H3C NFV2000系列产品仅支持在物理服务器上安装。

3.1  安装环境

3.1.1  硬件环境

H3C NFV2000系列产品对服务器的最低配置需求如表3-1所示。

表3-1 硬件环境

项目

需求

处理器

1个CPU(主频不小于2.0GHz)

内存

16GB以上

硬盘

1 个HD,32GB

网卡

至少2 个网卡,最大支持16个网卡

网卡类型

·     InterI 82598/82599 /X540/I350

·     BCM  TG3 5719

 

3.2  在裸金属服务器上安装NFV2000系列产品

说明

H3C NFV2000系列产品的安装方式完全相同,下面将以vFW2000为例进行介绍。

 

本节以硬件平台H3C UIS R390X G2为例,来介绍vFW2000在裸金属服务器上的安装过程。

3.2.1  通过ISO安装vFW2000

1. 利用iLO访问裸金属服务器

(1)     在IE浏览器中输入服务器的iLO地址,例如:https://192.168.100.179/index.html

(2)     打开网页后,会出现图3-1所示界面,选择[远程控制台->远程控制台-> 启动],利用Console口登录裸金属服务器。

图3-1 登录服务器

 

说明

在登录时需要输入用户名及密码,请联系该服务器管理员获取。

 

(3)     登录成功后,会出现图3-2所示界面。

图3-2 成功登录服务器

 

2. 加载vFW2000的ISO镜像

(1)     选择[Media ->Virtual Media Wizard… ]菜单,如图3-3所示。

图3-3 在弹出的对话框中选择Browse

 

(2)     在选择文件窗口中选择加载的ISO镜像后,点击<Open>,设置下次从CD-ROM/DVD启动镜像,如图3-4所示。

图3-4 选择加载的ISO镜像

 

(3)     点击[Connect CD/DVD],然后选择[Power->Force System Restart],重启服务器。

说明

某些服务器需要配置下次重启引导为CD/DVD重启,请按照实际情况而定。

 

3. 安装vFW2000

(1)     服务器重启后,系统加载ISO文件,进入安装界面。选择<1>进行安装,并输入“yes”确认,系统将会自动完成安装,如图3-5所示。

图3-5 安装启动界面

 

(2)     安装完成后,为避免下次启动服务器时自动加载ISO文件,需要断开CD-ROM的连接。选择[Media ->Virtual Media Wizard…],在弹出的对话框中点击[Disconnect],如图3-6所示。

图3-6 断开CD-ROM的连接

 

(3)     输入“yes”重启系统,完成vFW2000的安装,如图3-7所示。

图3-7 重启系统

 

说明

如果安装的是3.14内核版本的NFV2000系列产品,安装完成后,在设备上执行display version命令后,有可能出现显示的可用CPU数量仅为1的情况。可以通过在BIOS中配置disable x2apic来使可用CPU数量显示正确。具体方法:在BIOS界面选择 "Advanced"(高级)> "CPU Configuration"(CPU 配置)> "x2APIC" > "Disabled"(禁用)。

 

3.2.2  通过PXE安装vFW2000

提示

本章节只给出PXE Client的安装方法,PXE Server的搭建方法请参见“10 附录D:PXE Server搭建”或者自行网络查找。

 

1. 利用iLO访问裸金属服务器

利用ILO访问裸金属服务器的方法请参见“3.2.1  1. 利用iLO访问裸金属服务器”。

2. 设置BIOS启动顺序

(1)     进入BIOS后,选择[Boot]标签,如图3-8所示。

图3-8 修改启动顺序

 

(2)     标准启动顺序设置第二优先通过PXE启动,如图3-9所示。

图3-9 设置第二优先通过PXE启动

 

注意

·     不同服务器的BIOS界面有所不同,请根据实际服务器进行设置。

·     请保证选择接口的物理链路到PXE Server是可达的。

·     某些服务器可能先前已安装过其他系统,则需要把PXE引导设置为第一优先级,安装成功后再把Hard Drive回调为第一优先级。

 

(3)     重启服务器。

3. 安装vFW2000

(1)     服务器重启后,系统从PXE Server下载所需文件,进入安装界面。选择<1>进行安装,并输入“yes”确认,系统将会自动完成安装,如图3-10所示。

图3-10 安装启动界面

 

(2)     输入“yes”重启系统,完成vFW2000的安装,如图3-11所示。

图3-11 重启系统

 

说明

如果安装的是3.14内核版本的NFV2000系列产品,安装完成后,在设备上执行display version命令后,有可能出现显示的可用CPU数量仅为1的情况。可以通过在BIOS中配置disable x2apic来使可用CPU数量显示正确。具体方法:在BIOS界面选择 "Advanced"(高级)> "CPU Configuration"(CPU 配置)> "x2APIC" > "Disabled"(禁用)。

 

3.2.3  通过PXE无人值守方式安装vFW2000

提示

本章节只给出PXE Client的安装方法,PXE Server的搭建方法请参见“10 附录D:PXE Server搭建”或者自行网络查找。

PXE Server搭建时,修改syslinux配置参数ocs_live_run="/opt/VSR/setup_vsr_pxe.sh unmanned fresh "。

 

1. 利用iLO访问裸金属服务器

利用ILO访问裸金属服务器的方法请参见“3.2.1  1. 利用iLO访问裸金属服务器”。

2. 设置BIOS启动顺序

(1)     进入BIOS后,选择[Boot]标签,如图3-8所示。

图3-12 修改启动顺序

 

(2)     标准启动顺序设置第二优先通过PXE启动,如图3-9所示。

图3-13 设置第二优先通过PXE启动

 

注意

·     不同服务器的BIOS界面有所不同,请根据实际服务器进行设置。

·     请保证选择接口的物理链路到PXE Server是可达的。

·     某些服务器可能先前已安装过其他系统,则需要把PXE引导设置为第一优先级,安装成功后再把Hard Drive回调为第一优先级。

(3)     重启服务器。

3. 安装vFW2000

服务器重启后,系统从PXE Server下载所需文件,并会自动完成安装。

说明

如果安装的是3.14内核版本的NFV2000系列产品,安装完成后,在设备上执行display version命令后,有可能出现显示的可用CPU数量仅为1的情况。可以通过在BIOS中配置disable x2apic来使可用CPU数量显示正确。具体方法:在BIOS界面选择 "Advanced"(高级)> "CPU Configuration"(CPU 配置)> "x2APIC" > "Disabled"(禁用)。

 



4 升级NFV产品

4.1  启动文件简介

启动软件包是用于引导设备启动的程序文件,按其功能可以分为四类:Boot软件包、System软件包、Feature软件包和Patch软件包。设备必须具有Boot软件包和System软件包才能正常运行,Feature软件包可以根据需要选择安装。Patch软件包只在需要修复设备软件缺陷时安装。

表4-1 启动软件包分类

启动软件包

说明

Boot软件包

包含Linux内核程序,提供进程管理、内存管理、文件系统管理、应急Shell等功能。

System软件包

包含Comware内核和基本功能模块的程序,如设备管理、接口管理、配置管理和路由模块等。

Feature软件包

用于业务定制的程序,能够提供更丰富的业务。一个Feature包可能包含一种或多种业务。是否支持Feature包以及支持哪些Feature包与设备的型号有关,请以设备的实际情况为准。

Patch软件包

用来修复设备软件缺陷的程序文件。补丁包与软件版本一一对应,补丁包只能修复与其对应的启动软件包的缺陷,不涉及功能的添加和删除。

 

NFV产品的启动文件支持以下两种发布形式:

·     BIN文件:后缀为.bin的文件。一个BIN文件就是一个启动软件包。要升级的BIN文件之间版本必须兼容才能升级成功。

·     IPE(Image Package Envelope,复合软件包套件)文件:后缀为.ipe的文件。它是多个软件包的集合。产品通常会将同一个版本需要升级的所有类型的软件包都压缩到一个IPE文件中发布。用户将该IPE文件设置为加载文件时,设备会自动将它解压缩成一个个BIN文件。用户再使用这些BIN文件升级设备即可,从而能够减少启动软件包之间的版本管理问题。

通常情况下,启动文件是一个后缀名为.IPE的文件。

4.2  升级方式简介

NFV产品可以通过命令行进行升级,也可以使用ISO镜像文件进行升级,两种升级方式的说明如表4-2所示。

表4-2 软件升级方式简介

升级方式

说明

通过命令行升级NFV产品

·     需要重启设备来实现设备软件的升级

·     使用该方式升级设备软件时会导致当前业务中断

通过ISO升级NFV产品

·     设置vFW使用ISO光盘引导启动并进行软件升级

·     需要重启设备来实现设备软件的升级

 

4.3  通过命令行升级NFV产品

说明

NFV产品的升级方式相同,下面将以vFW1000为例进行介绍。

 

4.3.1  升级前的准备

在升级vFW启动文件前,需要配置如图4-1所示的升级环境。升级前的准备工作如下:

·     配置vFW与文件服务器路由可达。

·     开启文件服务器的TFTP/FTP Server功能。

·     通过配置终端登录到vFW的命令行配置界面中。

·     将vFW的升级启动文件拷贝到文件服务器上,并正确设置TFTP/FTP Server的访问路径。

图4-1 NFV系列产品的升级环境

 

4.3.2  使用TFTP协议升级vFW1000的启动文件

vFW作为TFTP客户端,访问TFTP文件服务器的指定路径,完成启动文件的备份及升级操作,具体操作步骤如下:

1. 备份当前启动文件和配置文件

(1)     执行save命令,保存路由器当前配置信息:

<Sysname> save

The current configuration will be written to the device. Are you sure? [Y/N]:y

Please input the file name(*.cfg)[flash:/startup.cfg]

(To leave the existing filename unchanged, press the enter key):

flash:/startup.cfg exists, overwrite? [Y/N]:y

 Validating file. Please wait....

 Configuration is saved to device successfully.

<Sysname>

(2)     执行dir命令查看路由器当前的文件系统,确认启动文件及配置文件名,以及存储的剩余空间,保证有足够空间放入新的启动文件:

<Sysname> dir

Directory of flash: (VFAT)                                                     

   0 drw-           - Jun 30 2020 05:39:20   diagfile                          

   1 -rw-          47 Jun 30 2020 06:32:46   ifindex.dat                       

   2 drw-           - Jun 30 2020 05:47:24   license                           

   3 drw-           - Jun 30 2020 06:32:46   logfile                           

   4 -rw-         768 Jun 30 2020 06:33:27   reboot.log                        

   5 drw-           - Jun 30 2020 05:39:20   seclog                            

   6 -rw-        2268 Jun 30 2020 06:32:46   startup.cfg                       

   7 -rw-       31526 Jun 30 2020 06:32:46   startup.mdb                       

   8 -rw-     8772608 Jun 30 2020 06:32:30   vFW1000-CMW710-BOOT-E1183-X64.bin 

   9 -rw-   163973120 Jun 30 2020 06:32:32   vFW1000-CMW710-SYSTEM-E1183-X64.bin

  10 -rw-   172752896 Jun 30 2020 06:31:14   vFW1000_H3C-CMW710-E1184-X64.ipe  

  11 -rw-       21016 Jun 30 2020 06:33:33   version.log                       

                                                                               

7325704 KB total (6988168 KB free)

<Sysname>

(3)     执行tftp put命令将启动文件备份到TFTP文件服务器上:

<Sysname> tftp 2.2.2.2 put vFW1000_H3C-CMW710-E1184-X64.ipe

 

  File will be transferred in binary mode

  Sending file to remote TFTP server. Please wait... \

  TFTP: 31131648 bytes sent in 70 second(s).

  File uploaded successfully.

 

<Sysname>

(4)     执行tftp put命令将配置文件startup.cfg备份到TFTP文件服务器上:

<Sysname> tftp 2.2.2.2 put startup.cfg

  File will be transferred in binary mode

  Sending file to remote TFTP server. Please wait... \

  TFTP:     1694 bytes sent in 0 second(s).

  File uploaded successfully.

 

<Sysname>

2. 升级启动文件

(1)     执行tftp get命令将启动文件导入到vFW中:

<Sysname> tftp 2.2.2.2 get vFW1000_H3C-CMW710-E1185-X64.ipe

  File will be transferred in binary mode

  Downloading file from remote TFTP server, please wait...|

  TFTP: 31131648 bytes received in 70 second(s)

  File downloaded successfully.

<Sysname>

(2)     执行boot-loader命令设置vFW下次启动使用的启动文件,并指定启动文件类型为main:

<Sysname> boot-loader file flash:/vFW1000_H3C-CMW710-E1185-X64.ipe main

Verifying the file flash:/vFW1000_H3C-CMW710-E1185-X64.ipe on the device...Done.

H3C SecPath vFW1000 images in IPE:                                              

  vFW1000-CMW710-BOOT-E1185-X64.bin                                            

  vFW1000-CMW710-SYSTEM-E1185-X64.bin                                          

This command will set the main startup software images. Please do not reboot the

 device during the upgrade. Continue? [Y/N]:y                                  

Add images to the device.                                                      

Decompressing file vFW1000-CMW710-BOOT-E1185-X64.bin to flash:/vFW1000-CMW710-BO

OT-E1185-X64.bin...Done.                                                       

Decompressing file vFW1000-CMW710-SYSTEM-E1185-X64.bin to flash:/vFW1000-CMW710-

SYSTEM-E1185-X64.bin.....Done.                                                 

Verifying the file flash:/vFW1000-CMW710-BOOT-E1185-X64.bin on the device...Done

.                                                                              

Verifying the file flash:/vFW1000-CMW710-SYSTEM-E1185-X64.bin on the device...Do

ne.                                                                             

The images that have passed all examinations will be used as the main startup so

ftware images at the next reboot on the device.                                

Decompression completed.                                                       

You are recommended to delete the .ipe file after you set startup software image

s for all slots.                                                               

Do you want to delete flash:/vFW1000_H3C-CMW710-E1185-X64.ipe now? [Y/N]:n

 

<Sysname>

(3)     执行display boot-loader命令查看设备的启动程序文件信息:

<Sysname> display boot-loader

 Software images on the device:                                                 

Current software images:                                                        

  flash:/vFW1000-CMW710-BOOT-E1183-X64.bin                                     

  flash:/vFW1000-CMW710-SYSTEM-E1183-X64.bin                                   

Main startup software images:                                                   

  flash:/vFW1000-CMW710-BOOT-E1185-X64.bin                                     

  flash:/vFW1000-CMW710-SYSTEM-E1185-X64.bin                                   

Backup startup software images:                                                 

  None

 

<Sysname>

如上显示信息,下一次启动的程序文件已经设置为vFW1000_H3C-CMW710-E1185-X64.ipe中包含的vFW1000-CMW710-BOOT-E1183-X64.bin和vFW1000-CMW710-SYSTEM-E1183-X64.bin。

4.3.3  使用FTP协议升级vFW1000的启动文件

将vFW作为FTP客户端,访问FTP文件服务器的指定路径,完成启动文件的备份及升级操作,具体操作步骤如下:

1. 备份当前启动文件和配置文件

(1)     执行save命令保存路由器当前配置信息:

<Sysname> save

The current configuration will be written to the device. Are you sure? [Y/N]:y

Please input the file name(*.cfg)[flash:/startup.cfg]

(To leave the existing filename unchanged, press the enter key):

flash:/startup.cfg exists, overwrite? [Y/N]:y

 Validating file. Please wait....

 Configuration is saved to device successfully.

<Sysname>

(2)     执行dir命令查看vFW当前的文件系统,确认启动文件及配置文件名,以及存储剩余空间,保证有足够空间放入新的启动文件:

<Sysname> dir

Directory of flash: (VFAT)                                                      

   0 drw-           - Jun 30 2020 05:39:20   diagfile                          

   1 -rw-          47 Jun 30 2020 06:32:46   ifindex.dat                       

   2 drw-           - Jun 30 2020 05:47:24   license                            

   3 drw-           - Jun 30 2020 06:32:46   logfile                           

   4 -rw-         768 Jun 30 2020 06:33:27   reboot.log                        

   5 drw-           - Jun 30 2020 05:39:20   seclog                             

   6 -rw-        2268 Jun 30 2020 06:32:46   startup.cfg                       

   7 -rw-       31526 Jun 30 2020 06:32:46   startup.mdb                       

   8 -rw-     8772608 Jun 30 2020 06:32:30   vFW1000-CMW710-BOOT-E1183-X64.bin 

   9 -rw-   163973120 Jun 30 2020 06:32:32   vFW1000-CMW710-SYSTEM-E1183-X64.bin

  10 -rw-   172752896 Jun 30 2020 06:31:14   vFW1000_H3C-CMW710-E1184-X64.ipe  

  11 -rw-       21016 Jun 30 2020 06:33:33   version.log                       

                                                                                

7325704 KB total (6988168 KB free)

 

<Sysname>

(3)     执行ftp命令登录FTP文件服务器,根据系统提示输入登录用户名和密码:

<Sysname> ftp 2.2.2.2

Press CTRL+C to abort.

Connected to 2.2.2.2 (2.2.2.2).

220 WFTPD 2.0 service (by Texas Imperial Software) ready for new user

User (2.2.2.2:(none)): user001

331 Give me your password, please

Password:

230 Logged in successfully

Remote system type is MSDOS

ftp>

(4)     执行put命令将启动文件备份到FTP文件服务器上:

ftp> putvFW1000_H3C-CMW710-E1184-X64.ipe

227 Entering passive mode (2,2,2,2,209,112)                              

125 Using existing data connection                                             

................................................................................

................................................................................

................................................................................

................................................................................

..........                                                                      

226 Closing data connection; File transfer successful.                         

172752896 bytes sent in 3.508 seconds (46.96 Mbytes/s)

           

ftp>

(5)     执行put命令将配置文件startup.cfg备份到FTP文件服务器上:

ftp> put startup.cfg

227 Entering passive mode (2,2,2,2,209,126)                              

125 Using existing data connection                                             

.                                                                              

226 Closing data connection; File transfer successful.                         

2268 bytes sent in 0.010 seconds (214.22 Kbytes/s)

                  

ftp>

2. 升级启动文件

(1)     在FTP客户端视图下,执行get命令将启动文件导入到vFW中:

ftp> get vFW1000_H3C-CMW710-E1185-X64.ipe

227 Entering passive mode (2,2,2,2,209,150)                              

125 Using existing data connection                                             

................................................................................

................................................................................

................................................................................

................................................................................

.........................                                                       

226 Closing data connection; File transfer successful.                         

181030912 bytes received in 13.071 seconds (13.21 Mbytes/s)       

                                                                           

ftp>

(2)     执行quit命令返回到命令行配置界面的用户视图:

ftp>quit

221 Service closing control connection

<Sysname>

(3)     执行boot-loader命令,设置vFW下次启动使用的启动文件,并指定启动文件类型为main:

<Sysname> boot-loader file flash:/ vFW1000_H3C-CMW710-E1185-X64.ipe main

Verifying the file flash:/vFW1000_H3C-CMW710-E1185-X64.ipe on the device...Done.

H3C SecPath vFW1000 images in IPE:                                             

  vFW1000-CMW710-BOOT-E1185-X64.bin                                            

  vFW1000-CMW710-SYSTEM-E1185-X64.bin                                           

This command will set the main startup software images. Please do not reboot the

 device during the upgrade. Continue? [Y/N]:y                                  

Add images to the device.                                                      

Decompressing file vFW1000-CMW710-BOOT-E1185-X64.bin to flash:/vFW1000-CMW710-BO

OT-E1185-X64.bin...Done.                                                       

Decompressing file vFW1000-CMW710-SYSTEM-E1185-X64.bin to flash:/vFW1000-CMW710-

SYSTEM-E1185-X64.bin.....Done.                                                 

Verifying the file flash:/vFW1000-CMW710-BOOT-E1185-X64.bin on the device...Done

.                                                                              

Verifying the file flash:/vFW1000-CMW710-SYSTEM-E1185-X64.bin on the device...Do

ne.                                                                            

The images that have passed all examinations will be used as the main startup so

ftware images at the next reboot on the device.                                

Decompression completed.                                                       

You are recommended to delete the .ipe file after you set startup software image

s for all slots.                                                                

Do you want to delete flash:/vFW1000_H3C-CMW710-E1185-X64.ipe now? [Y/N]:n

 

<Sysname>

(4)     执行display boot-loader命令查看设备的启动程序文件信息:

<Sysname> display boot-loader

 Software images on the device:                                                 

Current software images:                                                       

  flash:/vFW1000-CMW710-BOOT-E1183-X64.bin                                     

  flash:/vFW1000-CMW710-SYSTEM-E1183-X64.bin                                   

Main startup software images:                                                  

  flash:/vFW1000-CMW710-BOOT-E1185-X64.bin                                     

  flash:/vFW1000-CMW710-SYSTEM-E1185-X64.bin                                   

Backup startup software images:                                                

  None

<Sysname>

如上显示信息中,下一次启动的程序文件已设置为vFW1000_H3C-CMW710-E1185-X64.ipe文件中的vFW1000-CMW710-BOOT-E1185-X64.bin和vFW1000-CMW710-SYSTEM-E1185-X64.bin。

4.3.4  重启vFW设备

升级完启动文件后,需要重新启动设备来实现设备软件的升级。

注意

在重启过程完成前,设备的各项业务功能将不可用。

 

(1)     执行reboot命令重启vFW:

<Sysname> reboot

Start to check configuration with next startup configuration file, please wait.........DONE!

This command will reboot the device. Continue? [Y/N]:y

Now rebooting, please wait...

(2)     通过display version命令查看vFW的启动文件版本信息是否与升级的启动文件一致:

<Sysname>display version

H3C Comware Software, Version 7.1.064, ESS 1185                                

Copyright (c) 2004-2020 New H3C Technologies Co., Ltd. All rights reserved.    

H3C SecPath vFW1000 uptime is 0 weeks, 0 days, 0 hours, 1 minute               

Last reboot reason : User reboot                                               

Boot image: flash:/vFW1000-CMW710-BOOT-E1185-X64.bin                           

Boot image version: 7.1.064, ESS 1185                                          

  Compiled May 27 2020 15:00:00                                                

System image: flash:/vFW1000-CMW710-SYSTEM-E1185-X64.bin                       

System image version: 7.1.064, ESS 1185                                        

  Compiled May 27 2020 15:00:00                                                

                                                                                

CPU ID: 0x01000101, vCPUs: Total 1, Available 1                                

2.00G bytes RAM Memory                                                         

Basic    BootWare Version:  1.11                                                

Extended BootWare Version:  1.11                                               

[SLOT  1]VNIC-E1000             (Driver)1.0<Sysname>

4.4  通过ISO升级NFV产品

说明

NFV产品的升级方式相同,下面将以vFW1000为例进行介绍。

 

(1)     初始升级步骤和通过ISO安装vFW1000是相同的,请参见2.2  在VMware平台安装NFV1000系列产品2.3  在KVM平台安装NFV1000系列产品2.4  在CAS平台安装NFV1000系列产品

(2)     在进入安装界面后, 注意选择菜单<2> Upgrade Install,如图4-2所示,将vFW运行的版本升级到ISO光盘中的版本。

图4-2 通过ISO升级vFW1000

 

(3)     安装完成后,注意先断开CD连接,如图2-20图2-21所示,然后重启系统。

(4)     路由器重启后,查看vFW的启动文件版本信息是否与升级的启动文件一致:

<Sysname>display version

H3C Comware Software, Version 7.1.064, ESS 1185                                

Copyright (c) 2004-2020 New H3C Technologies Co., Ltd. All rights reserved.    

H3C SecPath vFW1000 uptime is 0 weeks, 0 days, 0 hours, 1 minute               

Last reboot reason : User reboot                                               

Boot image: flash:/vFW1000-CMW710-BOOT-E1185-X64.bin                           

Boot image version: 7.1.064, ESS 1185                                          

  Compiled May 27 2020 15:00:00                                                

System image: flash:/vFW1000-CMW710-SYSTEM-E1185-X64.bin                       

System image version: 7.1.064, ESS 1185                                        

  Compiled May 27 2020 15:00:00                                                

                                                                               

CPU ID: 0x01000101, vCPUs: Total 1, Available 1                                

2.00G bytes RAM Memory                                                         

Basic    BootWare Version:  1.11                                               

Extended BootWare Version:  1.11                                                

[SLOT  1]VNIC-E1000             (Driver)1.0

<Sysname>

 


5 恢复NFV产品

说明

NFV产品的恢复方式相同,下面将以vFW1000为例进行介绍。

 

vFW1000可以通过ISO进行恢复,步骤如下:

(1)     初始恢复步骤和通过ISO安装vFW1000是相同的,请参见2.2  在VMware平台安装NFV1000系列产品2.3  在KVM平台安装NFV1000系列产品2.4  在CAS平台安装NFV1000系列产品

(2)     进入安装界面后,注意选择菜单<3> Recovery Install,如图5-1所示,将vFW1000运行的版本恢复到ISO光盘中的版本。

图5-1 通过ISO恢复vFW1000的版本

 

(3)     安装完成后,注意先断开CD连接如图2-20图2-21所示,然后重启系统。


6 附录A:KVM虚拟化平台安装指导

6.1  KVM概述

KVM(Kernel-based Virtual Machine,基于内核的虚拟机)是 Linux系统下x86 硬件平台上的全功能虚拟化解决方案,是一个开源的系统虚拟化模块,自Linux 2.6.20之后集成在Linux的各主要发行版本中。KVM目前已成为主流VMM(Virtual Machine Monitor,虚拟机监控器)之一。KVM的虚拟化需要硬件支持(如Intel VT技术或者AMD V技术),是基于硬件的完全虚拟化。

提示

安装KVM之前,请确认你的PC或服务器支持硬件虚拟化(如Intel VT技术或者AMD V技术)。

 

6.2  KVM虚拟化平台安装说明

本文以图形化安装CentOS 7为例来说明KVM虚拟化平台的安装,您可以采用网络安装或者光盘来安装KVM虚拟平台。如果使用光盘安装,则在硬件服务器上电后,把CentOS 7的光盘放入光驱中,并选择从光盘引导;如果使用网络安装,请预先准备好支持CentOS 7的网络引导环境,然后硬件服务器上电后,选择从网络引导。

(1)     首先进入CentOS 7安装欢迎界面,如图6-1所示。选择<Install CentOS 7>,回车后进入系统自检界面。

图6-1 CentOS 7安装欢迎界面

 

(2)     自检完成后自动进入安装语言选择界面,如图6-2所示。选择安装语言后,点击<Continue>。

图6-2 选择安装语言

 

(3)     在安装信息摘要页面,点击<SOFTWARE SELECTION>,开始选择安装的软件,如图6-3所示。

图6-3 安装信息摘要界面

 

(4)     在选择安装软件界面,选择安装的虚拟化组件。为了方便虚拟机的管理以及确保虚拟化组件被正确安装,请按照选择图6-4~图6-6中红色框所示进行选择,然后点击<Done>。

图6-4 安装虚拟化组件(一)

 

图6-5 安装虚拟化组件(二)

 

图6-6 安装虚拟化组件(三)

 

(5)     选择了待安装的虚拟化组件后,将自动返回图6-3所示的安装信息摘要界面,点击<INSTALLATION DESTINATION>进入图6-7所示选择系统安装路径界面。按照红框所示选择,自定义安装磁盘分区,然后点击<Done>按钮完成自定义安装路径设置。

图6-7 选择系统安装路径

 

(6)     进入自定义界面后,按照图6-8中红色框所示的步骤点击<Unknown>,然后点击‘-’释放Unknown空间。在弹出的提示框中,按照图6-9中红色框所示进行操作。

图6-8 释放Unknown空间

 

图6-9 提示框

 

(7)     删除Unknown空间后,请在图6-10所示的界面中,点击“Click here to create them automatically”,来自动创建磁盘分区。

图6-10 自动创建磁盘分区

 

(8)     由于虚拟机的镜像存放在/var或者/opt子目录下的,需要“/”分区比较大,而系统自动分配的home分区所占用的空间比较大,因此建议删除 “/home”分区,并把其所占的空间添加到“/”分区。其他用来存放系统文件的分区可保持不变。删除“home”分区空间的步骤如图6-11所示,为“/”分区增加空间的步骤如图6-12所示。

图6-11 删除“/home”分区的空间

 

图6-12 为“/”分区添加空间

 

说明

目前系统启动方式有Legacy BIOS Mode和UEFI Mode两种模式。在UEFI Mode模式下删除磁盘空间时,请不要删除“/boot/efi”分区,因为该分区是用于系统引导的。

 

(9)     为了增加系统稳定性,降低服务器突然掉电时虚拟机镜像文件被写坏的概率,建议修改分区的“Device Type”以及“File System”配置。如图6-13中,更改了“/”分区的设备类型及文件系统配置。各分区请按照表6-1进行设置:

图6-13 更改“/”分区配置

 

表6-1 更改分区配置

分区名称

Device Type

File System

/boot

标准分区

xfs

/boot/efi(只有UEFI模式才有)

标准分区

EFI System Partition

/

标准分区

xfs

swap

标准分区

swap

 

(10)     完成上述配置后,点击<Done>按钮,此时出现图6-14所示提示框,请点击“Accept Changes”,完成自定义安装磁盘分区类型和文件系统格式的设置。

图6-14 保存设置

 

提示

添加设备文件时,请将Device Type设置成标准类型,文件系统设置成xfs类型,以便降低服务器异常掉电时对部分文件损坏的概率。

 

(11)     完成磁盘格式设置后,在返回图6-3所示的安装信息摘要界面中,点击<Begin Installation>,进入图6-15所示的安装过程界面。点击<ROOT PASSWORD>,开始设置root密码。

图6-15 安装过程界面

 

(12)     在图6-16所示界面设置root 密码,然后点击<Done>按钮,完成密码设置。

图6-16 设置root密码

 

提示

点击<Done>后,如果系统提示密码设置的太弱,可再次点击<Done>来确认用此弱密码。

 

(13)     完成root密码设置后,返回图6-15所示的安装过程界面,点击<USER CREATION>,进入创建账户及密码界面,如图6-17所示。输入用户名和密码,然后点击<Done>,完成该项设置。在登录Linux系统时也可以选择用此处创建的非管理员账户及密码登录。

图6-17 创建账号及密码

 

(14)     创建用户后,进入系统的自动安装步骤。待系统安装完成后,点击<Reboot>进行系统重启,如图6-18所示。如果是用光盘安装的,安装完成后,将光盘取出后再重新启动。

图6-18 安装完成

 

(15)     重启系统后将自动进入CentOS主界面,如图6-19所示。为了正常地使用所安装的系统,请点击<LICENSE INFORMATION>,进行一些必要的信息确认。

图6-19 CentOS主界面

 

(16)     勾选“I accept the license agreement”,确认系统授权信息,然后点击<Done>,如图6-20所示。

图6-20 授权信息

 

(17)     点击<FINISH CONFIGURATION>按钮,完成配置,如图6-21所示。

图6-21 完成配置界面

 

(18)     配置完成后,进入用户登录界面,如图6-22所示。输入之前创建的账号和密码,点击<Sign In>,登录ContOS 7系统。

图6-22 登录界面

 

(19)     进入系统后,自动进入欢迎界面,如图6-23所示。选择安装语言后点击<Next>。

图6-23 选择安装语言

 

(20)     选择输入语言,如图6-24所示,点击<Next>继续。

图6-24 选择输入语言

 

(21)     点击<Start using CentOS Linux>,开始使用linux系统,如图6-25所示。

图6-25 完成欢迎配置界面

 

(22)     进入系统后,选择菜单[ Applications -> System Tools -> Virtual Machine Manager ],进入KVM管理工具界面,如图6-26所示。

图6-26 Virtual Machine Manager管理界面

 

在KVM虚拟平台上可以新建虚拟机并进行H3C NFV1000系列产品的安装,可参见2.3  在KVM平台安装NFV1000系列产品

提示

如果用户登录时用的不是root用户,出现Virtual Machine Manager管理界面后,需要输入root的密码,因为虚拟机的相关操作需要具有root权限才能进行。

 

6.3  配置网络参数

安装CentOS 7后,不能直接通过右上方的设置功能来配置网络参数,如图6-27所示。因为图形界面配置网络参数是通过NetworkManager服务进行管理的,但是后期创建bridge的时候需要关闭掉NetworkManager服务,这样就会使之前配置的网络参数失效,所以建议手动配置IP。

图6-27 禁止使用图形界面配置网络参数

 

手动配置IP的方法包括临时配置和永久配置。

1. 临时配置

该方法配置的IP地址在系统重启之后会丢失。

#配置网络接口eno1的IP地址为192.168.16.33,子网掩码为16位:

ifconfig eno1 192.168.16.33/16   

2. 永久配置

在/etc/sysconfig/network-scripts/目录下,每一个网口对应一个配置文件,例如eno1对应ifcfg-eno1,我们可以通过修改配置文件达到永久修改网口相关配置的目的。

(1)     修改配置文件中加黑部分的参数,如果找不到,直接在文件末尾处添加即可:

[root@localhost ~]# cd /etc/sysconfig/network-scripts/

[root@localhost network-scripts]# vim ifcfg-eno1

HWADDR=EC:B1:D7:80:50:54

TYPE=Ethernet

BOOTPROTO=static  #初始是dhcp,修改为static

DEFROUTE=yes

PEERDNS=yes

PEERROUTES=yes

IPV4_FAILURE_FATAL=no

IPV6INIT=yes

IPV6_AUTOCONF=yes

IPV6_DEFROUTE=yes

IPV6_PEERDNS=yes

IPV6_PEERROUTES=yes

IPV6_FAILURE_FATAL=no

NAME=eno1

UUID=cbb80618-065f-4272-9fde-39ff9b06e474

ONBOOT=yes        #初始为no,修改为yes,表示系统启动时激活此设备

IPADDR=192.168.16.33  #网口的IP地址

NETMASK=255.255.0.0   #网口IP地址的子网掩码

(2)     保存修改后的配置,重启网络服务:

[root@localhost network-scripts]# systemctl restart network.service

(3)     查看网口信息,已经更新为我们配置的信息:

[root@localhost network-scripts]# ifconfig eno1

eno1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500

        inet 192.168.16.33  netmask 255.255.0.0  broadcast 192.168.255.255

        inet6 2002:6f01:102:5:eeb1:d7ff:fe80:5054  prefixlen 64  scopeid 0x0<global>

        inet6 fec0::5:eeb1:d7ff:fe80:5054  prefixlen 64  scopeid 0x40<site>

        inet6 2002:8302:101:5:eeb1:d7ff:fe80:5054  prefixlen 64  scopeid 0x0<global>

        inet6 fe80::eeb1:d7ff:fe80:5054  prefixlen 64  scopeid 0x20<link>

        inet6 2002:aca8:284d:5:eeb1:d7ff:fe80:5054  prefixlen 64  scopeid 0x0<global>

        ether ec:b1:d7:80:50:54  txqueuelen 1000  (Ethernet)

        RX packets 291341  bytes 126617361 (120.7 MiB)

        RX errors 0  dropped 178991  overruns 0  frame 0

        TX packets 332  bytes 46253 (45.1 KiB)

        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

        device interrupt 16

6.4  关闭SELinux服务

修改文件/etc/selinux/config,并手动关闭SELinux服务。

[root@CentOS home]# vim /etc/selinux/config

# This file controls the state of SELinux on the system.

# SELINUX= can take one of these three values:

#     enforcing - SELinux security policy is enforced.

#     permissive - SELinux prints warnings instead of enforcing.

#     disabled - No SELinux policy is loaded.

SELINUX=disabled

# SELINUXTYPE= can take one of these two values:

#     targeted. - Targeted processes are protected,

#     mls - Multi Level Security protection.

SELINUXTYPE=targeted

[root@CentOS home]# /usr/sbin/setenforce 0

6.5  在KVM虚拟化平台上配置Linux bridge

如果服务器没有支持SR-IOV的网卡(如82599网卡),或者需要将支持SR-IOV的网卡和其他网卡配合使用,则需要通过Linux bridge技术完成网卡的虚拟化。

(1)     将压缩包toMarketToolsV1.x.zip上传到KVM虚拟化平台。解压后,根据需要执行操作:

·     过滤支持SR-IOV的网卡

在路径toMarketTools/Create_Bridge_shell/Create_Bridge_shell_v1/ovs执行./bridge-setup.sh -i命令配置Linux bridge。

[root@localhost ~]# unzip toMarketToolsV1.x.zip

[root@localhost ~]# cd toMarketTools/Create_Bridge_shell/Create_Bridge_shell_v1/bridge

[root@localhost bridge]# chmod  777 ./bridge-setup.sh

[root@localhost bridge]# ./bridge-setup.sh -i

Network default destroyed

 

Network default unmarked as autostarted

 

network config eno1 to bridge br0 complete.

network config eno2 to bridge br1 complete.

network config eno3 to bridge br2 complete.

network config eno4 to bridge br3 complete.

 

·     不过滤支持SR-IOV的网卡

在路径toMarketTools/Create_Bridge_shell/Create_Bridge_shell_v2/ovs执行./bridge-setup.sh -i命令配置Linux bridge。

[root@localhost ~]# unzip toMarketToolsV1.x.zip

[root@localhost ~]# cd toMarketTools/Create_Bridge_shell/Create_Bridge_shell_v2/bridge [root@localhost bridge]# chmod  777 ./bridge-setup.sh

[root@localhost bridge]# ./bridge-setup.sh -i

Network default destroyed

 

Network default unmarked as autostarted

 

network config eno1 to bridge br0 complete.

network config eno2 to bridge br1 complete.

network config eno3 to bridge br2 complete.

network config eno4 to bridge br3 complete.

 

说明

配置Linux bridge的脚本文件toMarketToolsV1.x.zip是和NFV1000系列产品的版本一起发布的,可在获取NFV1000系列产品版本时一同获取。

chmod  777 ./bridge-setup.sh命令用于更改命令权限。该命令为可选命令,如果执行./bridge-setup.sh -i时提示permission denied,需要使用该命令。

Create_Bridge_shell_v1和Create_Bridge_shell_v2两个版本的差异:

·     v1版本创建桥时会过滤支持SR-IOV的网卡,v2版本不会过滤支持SR-IOV网卡。

·     v1版本创建ovs桥时会过滤支持SR-IOV的网卡,v2版本不会过滤支持SR-IOV的网卡。

 

(2)     执行完脚本后,通过下面的操作确认是否执行成功:

[root@localhost ~]# brctl show

bridge name   bridge id       STP enabled interfaces

br0       8000.c4346bb8d138   no      eno1

br1       8000.c4346bb8d139   no      eno2

br2       8000.c4346bb8d13a   no      eno3

br3       8000.c4346bb8d13b   no      eno4

br4       8000.6cc217415ee0   no      ens1f0

br5       8000.6cc217415ee4   no      ens1f1

br6       8000.8cdcd4015950   no      ens2f0

br7       8000.8cdcd4015954   no      ens2f1

virbr0        8000.000000000000   yes

如果看到除了virbr0默认网桥外,其余网桥与物理网卡为一一对应的关系,说明创建网桥正常。

 

(3)     查看生成的network-scripts配置文件是否正确,以eno1、br0为例

[root@localhost ~]# cat /etc/sysconfig/network-scripts/ifcfg-br0

DEVICE=br0

TYPE=Bridge

BOOTPROTO=static

ONBOOT=yes

IPADDR=192.168.1.196

NETMASK=255.255.0.0

[root@localhost ~]# cat /etc/sysconfig/network-scripts/ifcfg-eno1

DEVICE=eno1

HWADDR=c4:34:6b:b8:d1:38

BOOTPROTO=none

ONBOOT=yes

BRIDGE=br0

[root@localhost ~]# ifconfig br0

br0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 2000

        inet 192.168.1.196  netmask 255.255.0.0  broadcast 192.168.255.255

        inet6 2002:6100:2f4:b:c634:6bff:feb8:d138  prefixlen 64  scopeid 0x0<global>

        inet6 fec0::5:c634:6bff:feb8:d138  prefixlen 64  scopeid 0x40<site>

        inet6 fec0::b:c634:6bff:feb8:d138  prefixlen 64  scopeid 0x40<site>

        inet6 fe80::c634:6bff:feb8:d138  prefixlen 64  scopeid 0x20<link>

        inet6 2002:aca8:284d:5:c634:6bff:feb8:d138  prefixlen 64  scopeid 0x0<global>

        inet6 2002:6200:101:b:c634:6bff:feb8:d138  prefixlen 64  scopeid 0x0<global>

        ether c4:34:6b:b8:d1:38  txqueuelen 0  (Ethernet)

        RX packets 29465349  bytes 7849790528 (7.3 GiB)

        RX errors 0  dropped 19149249  overruns 0  frame 0

        TX packets 4415  bytes 400662 (391.2 KiB)

        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

 

[root@localhost ~]# ifconfig eno1

eno1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 2000

        inet6 fe80::c634:6bff:feb8:d138  prefixlen 64  scopeid 0x20<link>

        ether c4:34:6b:b8:d1:38  txqueuelen 1000  (Ethernet)

        RX packets 31576735  bytes 8896279718 (8.2 GiB)

        RX errors 0  dropped 7960  overruns 0  frame 0

        TX packets 4461  bytes 464952 (454.0 KiB)

        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

        device interrupt 16 

参数说明:

·     DEVICE:接口名称,需与ifconfig看到的一致。

·     TYPE:接口类型,只有在网桥的配置文件中存在,取值为Bridge。

·     BOOTPROTO:[none|dhcp|static],表示引导时[不使用任何协议|;使用dhcp协议获取地址|;使用静态配置IP]。物理接口配置文件取值为none,网桥配置文件取值为static。

·     ONBOOT:[yes|no],表示引导时[是|否]激活设备。此处值需为yes。

·     IPADDR:IP地址,物理接口上的IP转移到桥上,配置文件中不存在该选项。网桥配置文件中取值为原物理口配置的IP值,与ifconfig看到的inet值一致。

·     NETMASK:IP子网掩码,同IPADDR。

·     HWADDR:MAC地址,只有物理接口的配置文件中存在,取值与ifconfig查看到ether一致。

·     BRIDGE:物理接口绑定到的网桥的名字,只有物理接口配置文件中存在。

提示

·     由于执行创建linux bridge脚本的过程中会重启网络服务,所以请通过服务器自带登录系统登录设备完成操作,不要通过网络远程登录到服务器进行该操作。

·     使用Linux bridge时bridge上的虚拟接口无法实现VLAN隔离。如果需要使用VLAN隔离功能,可以使用OVS bridge来代替Linux bridge,详细情况请参见附录。

 


7 附录BOVS bridge

Linux bridge产生的bridge无法提供VLAN隔离功能,如果需要使用VLAN隔离功能,可以使用OVS bridge来代替Linux bridge。

配置OVS bridge前,请先安装Openvswitch。Openvswitch的安装方法请参见安装指导。

7.1  配置OVS bridge

(1)     OVS bridge配置

将toMarketToolsV1.x.zip压缩包上传到CentOS 7服务器上,解压后,根据需要执行操作:

·     过滤支持SR-IOV的网卡

在路径toMarketTools/Create_Bridge_shell/Create_Bridge_shell_v1/ovs,执行./ovs-setup-deb.sh -i命令完成OVS bridge的配置。

[root@localhost ~]# unzip toMarketToolsV1.x.zip

[root@localhost ~]# cd toMarketTools/Create_Bridge_shell/Create_Bridge_shell_v1/ovs

[root@localhost ovs]# chmod 777 ./ovs-setup-deb.sh

[root@localhost ovs]# ./ovs-setup-deb.sh -i

Network default destroyed

 

Network default unmarked as autostarted

 

remove module bridge

openvswitch install complete.

network config ens160 to ovs-bridge br0 complete.

 

·     不过滤支持SR-IOV的网卡

在路径toMarketTools/Create_Bridge_shell/Create_Bridge_shell_v2/ovs,执行./ovs-setup-deb.sh -i命令完成OVS bridge的配置。

[root@localhost ~]# unzip toMarketToolsV1.x.zip

[root@localhost ~]# cd toMarketTools/Create_Bridge_shell/Create_Bridge_shell_v2/ovs

[root@localhost ovs]# chmod 777 ./ovs-setup-deb.sh

[root@localhost ovs]# ./ovs-setup-deb.sh -i

Network default destroyed

 

Network default unmarked as autostarted

 

remove module bridge

openvswitch install complete.

network config ens160 to ovs-bridge br0 complete.

 

说明

配置OVS bridge的脚本文件toMarketToolsV1.x.zip是和NFV1000系列产品的版本一起发布的,可在获取NFV1000系列产品版本时一同获取。

chmod 777 ./ovs-setup-deb.sh命令用于更改命令权限。该命令为可选命令,如果执行./ovs-setup-deb.sh -i时提示permission denied,需要使用该命令。

Create_Bridge_shell_v1和Create_Bridge_shell_v2两个版本的差异:

·     v1版本创建桥时会过滤支持SR-IOV的网卡,v2版本不会过滤支持SR-IOV的网卡。

·     v1版本创建ovs桥时会过滤掉支持SR-IOV的网卡,v2版本不会过滤支持SR-IOV的网卡。

 

(2)     确认是否执行成功

执行完脚本后,通过下面的操作确认是否执行成功:

[root@localhost h3c]# ovs-vsctl show

2bc21194-95b8-48df-929f-a2fdc8842723

    Bridge "br0"

        Port "br0"

            Interface "br0"

                type: internal

        Port "eno1"

            Interface "eno1"

    ……

    Bridge "br6"

        Port "ens2f0"

            Interface "ens2f0"

        Port "br6"

            Interface "br6"

                type: internal

    ovs_version: "2.3.1"

如果看到每个Bridge中有一个Port口对应物理接口,说明创建OVS桥正常。

 

(3)     查看network-scripts配置文件

查看生成的network-scripts配置文件是否正确,以eno1、br0为例。

[root@localhost h3c]# cat /etc/sysconfig/network-scripts/ifcfg-br0

DEVICE=br0

HWADDR=c4:34:6b:b8:b1:0c

TYPE=Ethernet

BOOTPROTO=static

ONBOOT=yes

IPADDR=192.168.1.25

NETMASK=255.255.0.0

 

[root@localhost h3c]# cat /etc/sysconfig/network-scripts/ifcfg-eno1

DEVICE=eno1

HWADDR=c4:34:6b:b8:b1:0c

TYPE=Ethernet

BOOTPROTO=static

ONBOOT=yes

[root@localhost h3c]# ifconfig br0

br0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500

        inet 192.168.1.25  netmask 255.255.0.0  broadcast 192.168.255.255

        inet6 2002:6200:101:b:c634:6bff:feb8:b10c  prefixlen 64  scopeid 0x0<global>

        inet6 2002:6100:2f4:b:c634:6bff:feb8:b10c  prefixlen 64  scopeid 0x0<global>

        inet6 fec0::b:c634:6bff:feb8:b10c  prefixlen 64  scopeid 0x40<site>

        inet6 fec0::5:c634:6bff:feb8:b10c  prefixlen 64  scopeid 0x40<site>

        inet6 2002:aca8:284d:5:c634:6bff:feb8:b10c  prefixlen 64  scopeid 0x0<global>

        inet6 fe80::c634:6bff:feb8:b10c  prefixlen 64  scopeid 0x20<link>

        ether c4:34:6b:b8:b1:0c  txqueuelen 0  (Ethernet)

        RX packets 59563399  bytes 14654045807 (13.6 GiB)

        RX errors 0  dropped 27785742  overruns 0  frame 0

        TX packets 954617  bytes 58597317 (55.8 MiB)

        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

 

[root@localhost h3c]# ifconfig eno1

eno1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500

        inet6 fe80::c634:6bff:feb8:b10c  prefixlen 64  scopeid 0x20<link>

        ether c4:34:6b:b8:b1:0c  txqueuelen 1000  (Ethernet)

        RX packets 57371550  bytes 14237402755 (13.2 GiB)

        RX errors 0  dropped 430  overruns 0  frame 0

        TX packets 802515  bytes 56395122 (53.7 MiB)

        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

        device interrupt 16

 

参数说明:

·     DEVICE:接口名称,需与ifconfig看到的一致。

·     TYPE:接口类型,OVS桥、物理接口配置文件中取值均为Ethernet。

·     BOOTPROTO:[none|dhcp|static],表示引导时[不使用任何协议|;使用dhcp协议获取地址|;使用静态配置IP]。OVS桥、物理接口配置文件取值均为static。

·     ONBOOT:[yes|no],表示引导时[是|否]激活设备。此处值需为yes。

·     IPADDR:IP地址,物理接口上的IP转移到桥上,配置文件中不存在该选项。OVS桥配置文件中取值为原物理口配置的IP值,与ifconfig中的inet值一致。

·     NETMASK:IP子网掩码,同IPADDR。

·     HWADDR:MAC地址,OVS桥、物理接口配置文件中的取值与ifconfig查看到ether一致。

提示

由于执行创建OVS bridge脚本的过程中会重启网络服务,所以请通过服务器自带登录系统登录设备完成操作,不要通过网络远程登录到服务器进行该操作。

 

7.2  配置OVS网卡的MTU

(1)     配置OVS网卡的MTU,根据需要执行操作:

·     过滤支持SR-IOV的网卡

在路径toMarketTools/Create_Bridge_shell/Create_Bridge_shell_v1/ovs下,执行./setMtu.sh phyNic mtuSize命令配置物理网卡和对应vnet的MTU值:

[root@localhost ovs]# chmod 777 ./setMtu.sh

[root@localhost ovs]# ./setMtu.sh eno2 3000

eno2 mtu set to 3000 complete.

 

·     不过滤支持SR-IOV的网卡

在路径toMarketTools/Create_Bridge_shell/Create_Bridge_shell_v2/ovs下,执行./setMtu.sh phyNic mtuSize 命令配置物理网卡和对应vnet的MTU值:

[root@localhost ovs]# chmod 777 ./setMtu.sh

[root@localhost ovs]# ./setMtu.sh eno2 3000

eno2 mtu set to 3000 complete.

 

(2)     以eno2、br1为例,通过命令查看是否配置成功:

[root@localhost ovs]# ifconfig eno2 | grep mtu

eno2: flags=4099<UP,BROADCAST,MULTICAST>  mtu 3000

[root@localhost ovs]# ifconfig br1 | grep mtu

br1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 3000

[root@localhost ovs]# cat /etc/sysconfig/network-scripts/ifcfg-eno1 | grep -i mtu

MTU=1600

7.3  删除OVS bridge配置

·     过滤支持SR-IOV的网卡

在路径toMarketTools/Create_Bridge_shell/Create_Bridge_shell_v1/ovs下,执行./ovs-setup-deb.sh –r命令删除OVS bridge配置。

[root@localhost ovs]# chmod 777 ./ovs-setup-deb.sh

[root@localhost ovs]# ./ovs-setup-deb.sh -r

network unconfig ovs-bridge br0 to ens160 complete.

Stopping openvswitch (via systemctl):                      [  OK  ]

Network default started

 

Network default marked as autostarted

·     不过滤支持SR-IOV的网卡

在路径toMarketTools/Create_Bridge_shell/Create_Bridge_shell_v2/ovs下,执行./ovs-setup-deb.sh –r命令删除OVS bridge配置。

[root@localhost ovs]# chmod 777 ./ovs-setup-deb.sh

[root@localhost ovs]# ./ovs-setup-deb.sh -r

network unconfig ovs-bridge br0 to ens160 complete.

Stopping openvswitch (via systemctl):                      [  OK  ]

Network default started

 

Network default marked as autostarted

 


8 附录C:Intel 82599 VF网卡在虚拟平台的加载

8.1  Intel 82599 VF网卡概述

Intel 82599网卡支持SR-IOV技术,可以在82599网卡上通过硬件虚拟化,虚拟出若干虚拟网卡(Virtual Function,简称VF网卡)。这些VF网卡可以作为PCI设备,添加到虚拟机中。虚拟机使用基于硬件虚拟的VF网卡,比传统的基于软件虚拟的网卡,性能可以得到大幅提升。

提示

在虚拟Intel 82599 VF网卡之前,请确认你的服务器支持VT-d和SR-IOV技术。

 

VF网卡的配置加载分为两部分:服务器BIOS和服务器虚拟平台(VMware/KVM/CAS)。BIOS的配置在8.2  服务器BIOS设置进行说明,虚拟平台的配置在8.3  服务器虚拟平台设置进行配置说明。

8.2  服务器BIOS设置

本节以硬件平台HP 360Gen8为例,说明服务器BIOS中的配置项。

(1)     使能CPU的虚拟化技术

进入服务器的BIOS,然后选择[ System Options -> Processor Options ]菜单,使能虚拟化技术。如图8-1所示。

图8-1 使能CPU的虚拟化技术

 

(2)     使能CPU的VT-d技术

进入服务器的BIOS的[ System Options -> Processor Options ]菜单,使能VT-d技术。如图8-2所示。

图8-2 使能CPU的虚拟化技术

 

(3)     使能SR-IOV技术

进入服务器的BIOS的Advanced Options菜单,使能SR-IOV技术。

图8-3 使能SR-IOV技术

 

8.3  服务器虚拟平台设置

8.3.1  VMWare平台加载Intel 82599 VF网卡

本节以硬件平台HP 360Gen8,Host操作系统VMware ESXI 5.1版本为例,说明VMWare平台下加载Intel 82599 VF网卡的步骤。

1. 启动服务器并使能ESXI Shell

在执行完服务器BIOS设置后,引导启动VMware ESXI 5.1系统。启动后,使能ESXI Shell。关于ESXI Shell的配置,请参考VMware的相关文档。

2. 通过EXSI Shell登录,并查看系统内Intel 82599网卡的信息

登录后,使用如下命令查看82599网卡信息:

~ # lspci | grep -i intel | grep -i 'ethernet\|network'

·     当前服务器上有1块Intel 82599网卡,共2个物理端口,显示如图8-4所示。

图8-4 1块Intel 82599网卡

 

·     当前系统也可能有2块Intel 82599网卡,共4个物理端口,显示信息如图8-5所示。vmnic0和vmnic1显示的编号为00:03:00.0和00:03:00.1,所以这两个物理端口在一块Intel 82599网卡上。

图8-5 2块Intel 82599网卡

 

3. 设置’max_vfs’参数,创建VF网卡

使用命令行创建VF网卡:

~ # esxcfg-module ixgbe -s max_vfs=X,Y

·     max_vfs是加载ixgbe模块时的参数,表示在每个物理端口上创建的VF的数量。等号后的2个值分别在图8-4系统内的2个物理端口上生效,生效的顺序与使用命令“lspci | grep –i intel | grep -i 'ethernet\|network'”看到的顺序相同。例如max_vfs=7,8,则对应图8-4中vmnic6创建7个VF网卡,vmnic7上创建8个VF网卡。

·     当系统内存在多个Intel 82599网卡时,例如图8-5的2块82599网卡,则max_vfs=W,X,Y,Z,分别对应2块Intel 82599网卡的4个物理端口,生效的顺序与使用命令“lspci | grep –i intel | grep -i 'ethernet\|network'”看到的顺序相同。例如max_vfs=0,10,0,10,则对应图8-5中vmnic0和vmnic6不创建VF网卡,vmnic1和vmnic7各创建10个VF网卡。

4. 检查82599网卡的设置,并重启服务器

~ # esxcfg-module -g ixgbe

输出ixgbe enabled = 1 options = 'max_vfs=X,Y'

如果输出的max_vfs的值与第(6)步设置的值相同,说明设置成功,重启服务器。

5. 确认VF网卡创建成功

使用VMware vSphere Client登录服务器,然后进入到[配置 -> 高级设置]中,可以看到VF网卡创建成功,如图8-6所示。

图8-6 VF网卡创建成功

 

6. 为NFV1000系列产品添加VF网卡

(1)     在VMware vSphere Client登录服务器后,找到要添加VF网卡的NFV1000系列产品,然后进入“编辑虚拟机设置”,点击<添加>按钮,在弹出的“添加硬件”窗口中选中PCI设备,然后点击<Next>,如图8-7所示。

图8-7 为虚拟机添加PCI设备

 

(2)     选中要添加的VF网卡,点击<Next>按钮,如图8-8所示。再点击<完成>按钮,保存退出,为NFV1000系列产品添加VF网卡成功。

图8-8 添加VF网卡

 

(3)     添加VF网卡成功之后,返回到“虚拟机属性”界面,然后点击“确定”按钮保存虚拟机配置,如图8-9所示。

图8-9 保存虚拟机配置

 

7. 启动NFV1000系列产品,查看VF网卡

启动NFV1000系列产品之后,使用display verssion命令查看系统信息,可以看到VF网卡已经加载,如图8-10所示。

图8-10 display version输出

 

8.3.2  KVM平台加载Intel 82599 VF网卡

1. 执行脚本配置VF网卡

当服务器的网卡支持SR-IOV技术时,可以通过SR-IOV技术完成网卡虚拟化。进行网卡虚拟化时,请将toMarketToolsV1.x.zip压缩包上传到CentOS 7服务器并解压,解压后进入目录toMarketTools/Create_VF_shell下,根据表8-1选择脚本合适的参数进行配置。

表8-1 脚本使用介绍

脚本名

使用介绍

-s,--status

显示我们脚本支持的所有SR-IOV网卡的状态,包括pci号、接口名称、使用的驱动类型等信息

-h,--help

显示脚本使用帮助信息

-i,--install

指定创建VF动作,需要与后面的-t、--pci、--ifname参数配合使用

-t,--type

通过使用的驱动类型来指定要创建VF的网卡

--pci

通过pci号来指定要创建VF的网卡

--ifname

通过接口名来指定要创建VF的网卡

-d

指定使用系统原生的PF驱动,默认是安装我们提供的驱动包,toMarketToolsV1.x.zip中的*.rpm

-n,--number

指定每个网卡要创建的VF的数量,不指定默认为8个

 

说明

网卡虚拟化时用的脚本文件在toMarketToolsV1.x.zip内和NFV1000系列产品的版本一起发布,可在获取NFV1000系列产品版本时一同获取。

 

举例如下:

(1)     上传并解压工作包

[root@CentOS-254 ~]# unzip  toMarketToolsV1.x.zip

[root@CentOS-254 ~]# cd toMarketTools/Create_VF_shell

(2)     显示脚本支持的网卡信息

[root@CentOS-254 Create_VF_shell]# ./createVf.sh –s

Network devices supported by this script

========================================

0000:08:00.0 'Ethernet Controller XXV710 for 25GbE SFP28 [158b]' if=ens1f0 mtu=1500 numvfs=0 totalvfs=64 driver=i40e

0000:08:00.1 'Ethernet Controller XXV710 for 25GbE SFP28 [158b]' if=ens1f1 mtu=1500 numvfs=0 totalvfs=64 driver=i40e

0000:05:00.1 'Ethernet Controller XXV710 for 25GbE SFP28 [158b]' if=ens2f1 mtu=1500 numvfs=0 totalvfs=64 driver=i40e

0000:05:00.0 'Ethernet Controller XXV710 for 25GbE SFP28 [158b]' if=ens2f0 mtu=1500 numvfs=0 totalvfs=64 driver=i40e

0000:04:00.0 '82599 10 Gigabit Dual Port Network Connection [10fb]' if=eno49 mtu=1500 numvfs=0 totalvfs=63 driver=ixgbe

0000:04:00.1 '82599 10 Gigabit Dual Port Network Connection [10fb]' if=eno50 mtu=1500 numvfs=0 totalvfs=63 driver=ixgbe

(3)     进行配置

可以通过-t参数,或者--pci参数,或者--ifname参数来指定要创建VF的网卡。如配置每个82599网卡创建32个VF,下面的三种方式可以达到同样的效果:

 

[root@CentOS-254 Create_VF_shell]# ./createVf.sh -i –t ixgbe –n 32

或者

[root@CentOS-254 Create_VF_shell]# ./createVf.sh -i –-pci 0000:04:00.0 --pci 0000:04:00.1 –n 32

或者

[root@CentOS-254 Create_VF_shell]# ./createVf.sh -i –-ifname eno49 --ifname eno50 –n 32

(4)     再次显示当前网卡信息

[root@CentOS-254 Create_VF_shell]# ./createVf.sh –s

Network devices supported by this script

========================================

0000:08:00.0 'Ethernet Controller XXV710 for 25GbE SFP28 [158b]' if=ens1f0 mtu=1500 numvfs=0 totalvfs=64 driver=i40e

0000:08:00.1 'Ethernet Controller XXV710 for 25GbE SFP28 [158b]' if=ens1f1 mtu=1500 numvfs=0 totalvfs=64 driver=i40e

0000:05:00.1 'Ethernet Controller XXV710 for 25GbE SFP28 [158b]' if=ens2f1 mtu=1500 numvfs=0 totalvfs=64 driver=i40e

0000:05:00.0 'Ethernet Controller XXV710 for 25GbE SFP28 [158b]' if=ens2f0 mtu=1500 numvfs=0 totalvfs=64 driver=i40e

0000:04:00.0 '82599 10 Gigabit Dual Port Network Connection [10fb]' if=eno49 mtu=1500 numvfs=32 totalvfs=63 driver=ixgbe

0000:04:00.1 '82599 10 Gigabit Dual Port Network Connection [10fb]' if=eno50 mtu=1500 numvfs=32 totalvfs=63 driver=ixgbe

可以看到ixgbe网卡当前的VF个数为32。

(5)     通过下面的命令进一步确认是否执行成功

[root@localhost h3c]# lspci | grep 82599

03:00.0 Ethernet controller: Intel Corporation 82599 10 Gigabit Dual Port Network Connection (rev 01)

03:00.1 Ethernet controller: Intel Corporation 82599 10 Gigabit Dual Port Network Connection (rev 01)

03:10.0 Ethernet controller: Intel Corporation 82599 Ethernet Controller Virtual Function (rev 01)

03:10.1 Ethernet controller: Intel Corporation 82599 Ethernet Controller Virtual Function (rev 01)

……

03:1f.4 Ethernet controller: Intel Corporation 82599 Ethernet Controller Virtual Function (rev 01)

03:1f.5 Ethernet controller: Intel Corporation 82599 Ethernet Controller Virtual Function (rev 01)

如果查看到只有物理网卡PCI信息而没有VF信息则说明配置失败。

[root@localhost h3c]# ip link show

1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT

    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00

4: eno1: <BROADCAST,MULTICAST,PROMISC,UP,LOWER_UP> mtu 3000 qdisc mq state UP mode DEFAULT qlen 1000

    link/ether 38:ea:a7:8b:89:00 brd ff:ff:ff:ff:ff:ff

    vf 0 MAC 74:25:8a:e4:1b:c9, spoof checking on, link-state auto

vf 1 MAC 74:25:8a:e4:1b:ca, spoof checking on, link-state auto

……

5: eno2: <NO-CARRIER,BROADCAST,MULTICAST,PROMISC,UP> mtu 1500 qdisc mq state DOWN mode DEFAULT qlen 1000

    link/ether 38:ea:a7:8b:89:01 brd ff:ff:ff:ff:ff:ff

    vf 0 MAC 74:25:8a:e4:21:db, spoof checking on, link-state auto

    vf 1 MAC 74:25:8a:e4:21:dc, spoof checking on, link-state auto

……

请关注VF口的MAC信息是否正确。

注意

使用SR-IOV技术对网卡进行虚拟化后,除Intel 82599网卡之外的其他网卡将无法使用。因此如需同时使用Intel 82599网卡和其他网卡,请通过Linux bridge或OVS bridge技术完成网卡的虚拟化,避免出现问题。

 

2. 配置Intel 82599网卡的MTU

在实际应用的组网中可能会遇到需要给指定的物理网口配置MTU的需求,比如:组网中使用到VXLAN技术,由于是把原始二层数据帧封装在UDP里,所以会多出外层的8字节VXLAN头+8字节UDP头+20字节IP头,原来默认的1500的MTU不再满足需求。

(1)     查看当前网卡mtu

[root@CentOS-254 Create_VF_shell]# ./createVf.sh –s

Network devices supported by this script

========================================

0000:08:00.0 'Ethernet Controller XXV710 for 25GbE SFP28 [158b]' if=ens1f0 mtu=1500 numvfs=0 totalvfs=64 driver=i40e

0000:08:00.1 'Ethernet Controller XXV710 for 25GbE SFP28 [158b]' if=ens1f1 mtu=1500 numvfs=0 totalvfs=64 driver=i40e

0000:05:00.1 'Ethernet Controller XXV710 for 25GbE SFP28 [158b]' if=ens2f1 mtu=1500 numvfs=0 totalvfs=64 driver=i40e

0000:05:00.0 'Ethernet Controller XXV710 for 25GbE SFP28 [158b]' if=ens2f0 mtu=1500 numvfs=0 totalvfs=64 driver=i40e

0000:04:00.0 '82599 10 Gigabit Dual Port Network Connection [10fb]' if=eno49 mtu=1500 numvfs=0 totalvfs=63 driver=ixgbe

0000:04:00.1 '82599 10 Gigabit Dual Port Network Connection [10fb]' if=eno50 mtu=1500 numvfs=0 totalvfs=63 driver=ixgbe

(2)     配置mtu

在路径toMarketTools/Create_VF_shell下执行./setMtu.sh phyNic mtuSize命令配置物理网卡的MTU值。

[root@CentOS-254 Create_VF_shell]# ./setMtu.sh eno49 1600

eno49 mtu set to 1600 complete.

 

(3)     再次查看网卡mtu

[root@CentOS-254 Create_VF_shell]# ./createVf.sh –s

Network devices supported by this script

========================================

0000:08:00.0 'Ethernet Controller XXV710 for 25GbE SFP28 [158b]' if=ens1f0 mtu=1500 numvfs=0 totalvfs=64 driver=i40e

0000:08:00.1 'Ethernet Controller XXV710 for 25GbE SFP28 [158b]' if=ens1f1 mtu=1500 numvfs=0 totalvfs=64 driver=i40e

0000:05:00.1 'Ethernet Controller XXV710 for 25GbE SFP28 [158b]' if=ens2f1 mtu=1500 numvfs=0 totalvfs=64 driver=i40e

0000:05:00.0 'Ethernet Controller XXV710 for 25GbE SFP28 [158b]' if=ens2f0 mtu=1500 numvfs=0 totalvfs=64 driver=i40e

0000:04:00.0 '82599 10 Gigabit Dual Port Network Connection [10fb]' if=eno49 mtu=1600 numvfs=0 totalvfs=63 driver=ixgbe

0000:04:00.1 '82599 10 Gigabit Dual Port Network Connection [10fb]' if=eno50 mtu=1500 numvfs=0 totalvfs=63 driver=ixgbe

 

(4)     通过下面命令进一步确认是否配置成功:

[root@CentOS-254 Create_VF_shell]# ifconfig eno49 | grep mtu

Eno49: flags=4355<UP,BROADCAST,PROMISC,MULTICAST>  mtu 1600

[root@CentOS-254 sr-iov-82599]# cat /etc/sysconfig/network-scripts/ifcfg-eno49 | grep -i mtu

MTU=1600

 

注意

请勿使用setMtu.sh为./createVF.sh -s 显示之外的网卡设置MTU,可能存在问题。

 

3. 为NFV1000系列产品添加VF网卡

(1)     在CentOS 7上使用“Virtual Machine Manager”,找到要添加VF网卡的NFV1000系列产品,然后进入“Show virtual hardware details”界面,点击“Add Hardware”按钮,如图8-11所示。

图8-11 为虚拟机添加硬件

 

(2)     在弹出的新对话框中,选中PCI设备,并在右侧的对话框中选中VF网卡,然后点击“Finish”按钮完成添加VF网卡,如图8-12所示。

图8-12 添加VF网卡

 

4. 启动NFV1000系列产品,查看VF网卡

启动NFV1000系列产品之后,使用display version命令查看系统信息,可以看到VF网卡已经加载,如图8-13所示。

图8-13 display version命令输出

 

8.3.3  CAS平台加载Intel 82599 VF网卡

1. 启用主机的Intel 82599网卡设置

(1)     在主机的高级设置选项中,将IOMMU当前状态修改为启用状态,并点击<修改>确定设置,如图8-14

图8-14 启用IOMMU配置

 

(2)     点击<进入维护模式>按钮,使主机进入维护模式,如图8-15

说明

·     修改主机IOMMU配置状态后需要重启主机才能生效。只有在维护模式下才能执行重启主机的操作。

·     如果主机中有处于开启或暂停的状态下的虚拟机,需要先关闭虚拟机或勾选“自动迁移处于运行或暂停状态的虚拟机”选项才能进入维护模式。

 

图8-15 主机进入维护模式

 

(3)     点击<更多操作>中的“重启主机”选项,将主机重启,如图8-16

图8-16 重启主机

 

(4)     重启后再次进入到高级设置页查看,此时IOMMU配置经变成启用状态,如图8-17

图8-17 主机进入IOMMU启用状态

 

2. 启用网卡SR-IOV并创建VF网卡

(1)     选择主机的“物理网卡”选项,选中要进行SR-IOV配置的网卡,在下方的SR-IOV页签中,启用SR-IOV,并输入虚拟网卡个数。如图8-18中将物理网卡虚拟为两个VF网卡。配置好后点击<保存>按钮。

注意

·     请选择活动状态的非管理网卡能进行SR-IOV配置。

·     管理网卡已经被虚拟交换机使用,则无法进行SR-IOV配置。

·     非活动状态的物理网卡无法进行SR-IOV配置。

 

图8-18 创建VF网卡

 

(2)     点击<确定>,确认网卡的SR-IOV设置。

图8-19 确认网SR-IOV设置

 

3. 为NFV1000系列产品添加VF网卡

(1)     选择要添加VF网卡的NFV1000系列产品,点击<修改虚拟机>按钮,如图8-20

图8-20 修改虚拟机

 

(2)     点击<增加硬件>按钮,选择增加网络,点击<下一步>添加网络,如图8-21

图8-21 添加网络

 

(3)     设备型号选择SR-IOV直通网卡,驱动类型选择VFIO,物理网卡选择配置VF网卡时进行SRV-IOV配置的网卡,点击<完成>,如图8-22

图8-22 添加VF网卡

 

5、配置成功后,在虚拟机的“更多”选项中会出现添加的直通网络,如图8-23

图8-23 查看直通网络

 

4. 启动NFV1000系列产品,查看VF网卡

启动NFV1000系列产品之后,使用display version命令查看系统信息,可以看到VF网卡已经加载,如图8-24所示。

图8-24 display version命令输出

 

9 附录D:PXE Server搭建

9.1  CentOS系统下环境搭建

本节以CentOS Linux release 7.1.1503 (Core)的minimal版本为例进行说明,其他CentOS版本可能会有些微差别。

本文统一使用yum工具进行安装,如果环境中可以正常连接外网,则直接使用下文中提到的yum命令安装即可;如果无法连接外网,则可以使用系统对应的ISO作为本地镜像源进行安装。

配置本地镜像源的方法如下:

(1)     上传镜像文件到系统(或者通过CDROM挂载进设备)。

(2)     mount ISO文件到本地:

[root@localhost ~]# mount /dev/sr0 /media/

mount: /dev/sr0 is write-protected, mounting read-only

# 这里使用CDROM的方式挂载的镜像文件,所以会多出一个/dev/sr0设备。

(3)     修改/etc/yum.repos.d/下的配置文件。

# 备份默认的repo文件。

[root@localhost yum.repos.d]# mkdir bak

[root@localhost yum.repos.d]# mv *.repo bak

# 新增myself.repo文件。

[root@localhost yum.repos.d]# vi myself.repo

# 修改文件内容如下:

[base]

name=CentOS-$releasever - Base

baseurl=file:///media/

enabled=1

gpgcheck=0

gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7

# 清空cache。

[root@localhost yum.repos.d]# yum clean all

[root@localhost yum.repos.d]# yum makecache

9.1.1  安装并配置DHCP

配置过程中可能会由于书写错误等遇到一些问题,需根据具体问题定位。

(1)     安装DHCP。

[root@localhost ~]# yum -y install dhcp

(2)     修改配置文件。

# vim /etc/dhcp/dhcpd.conf,其中next-server信息为tftp服务器地址(一般tftp也搭建在同一host上,如果tftp也在同一host上则为本host接口ip)。

[root@localhost ~]# vi /etc/dhcp/dhcpd.conf

#

# DHCP Server Configuration file.

#   see /usr/share/doc/dhcp*/dhcpd.conf.example

#   see dhcpd.conf(5) man page

#

subnet 192.168.1.0 netmask 255.255.255.0{

  range 192.168.1.100 192.168.1.200;

  default-lease-time 600;

  max-lease-time 7200;

  next-server 192.168.1.87;

  filename "pxelinux.0";

}

(3)     启动/重启DHCP服务。

[root@localhost ~]# systemctl restart dhcpd

# 查看dhcp服务状态。

[root@localhost ~]# systemctl status dhcpd

dhcpd.service - DHCPv4 Server Daemon

Loaded: loaded (/usr/lib/systemd/system/dhcpd.service; disabled)

     Active: active (running) since Fri 2019-08-16 04:31:33 EDT; 40s ago

# 注意,DHCP配置的网段要和接口地址在同一网段,否则DHCP无法分配地址

9.1.2  安装并配置TFTP

配置过程中可能会由于书写错误等遇到一些问题,需根据具体问题定位。

(1)     安装TFTP。

[root@localhost ~]# yum -y install tftp-server

(2)     修改配置文件 。

[root@localhost ~]# vi /etc/xinetd.d/tftp

# default: off

# description: The tftp server serves files using the trivial file transfer \

#       protocol.  The tftp protocol is often used to boot diskless \

#       workstations, download configuration files to network-aware printers, \

#       and to start the installation process for some operating systems.

service tftp

{

        socket_type             = dgram

        protocol                = udp

        wait                    = yes

        user                    = root

        server                  = /usr/sbin/in.tftpd

        server_args             = -s /var/lib/tftpboot -C #修改

        disable                 = no               #修改

        per_source              = 11

        cps                     = 100 2

        flags                   = IPv4

}

(3)     启动/重启TFTP服务。

[root@localhost ~]# systemctl restart xinetd

# 查看状态。

[root@localhost ~]# systemctl status xinetd

xinetd.service - Xinetd A Powerful Replacement For Inetd

   Loaded: loaded (/usr/lib/systemd/system/xinetd.service; enabled)

   Active: active (running) since Fri 2019-08-16 04:40:22 EDT; 8s ago

9.1.3  安装并配置http

配置过程中可能会由于书写错误等遇到一些问题,需根据具体问题定位。

(1)     安装HTTP。

[root@localhost ~]# yum -y install httpd

(2)     配置文件。

# http配置文件位置为/etc/httpd/conf/httpd.conf,其中DocumentRoot定义的路径为http访问的根路径,缺省为/var/www/html。

[root@localhost ~]# cat /etc/httpd/conf/httpd.conf | grep DocumentRoot

# DocumentRoot: The directory out of which you will serve your

DocumentRoot "/var/www/html"

(3)     启动/重启HTTP服务。

[root@localhost ~]# systemctl restart httpd

# 查看状态。

[root@localhost ~]# systemctl status httpd

httpd.service - The Apache HTTP Server

   Loaded: loaded (/usr/lib/systemd/system/httpd.service; disabled)

   Active: active (running) since Fri 2019-08-16 04:49:51 EDT; 37s ago

9.1.4  安装并配置NFS

(1)     安装nfs。

[root@localhost ~]# yum -y install nfs-utils rpcbind

(2)     启动rpcbind、nfs服务

[root@localhost ~]# systemctl start rpcbind

[root@localhost ~]# systemctl start nfs

# 查看状态。

[root@localhost ~]# systemctl status rpcbind

rpcbind.service - RPC bind service

   Loaded: loaded (/usr/lib/systemd/system/rpcbind.service; static)

   Active: active (running) since Fri 2019-08-16 05:08:31 EDT; 35s ago

[root@localhost ~]# systemctl status nfs

nfs-server.service - NFS server and services

   Loaded: loaded (/usr/lib/systemd/system/nfs-server.service; disabled)

   Active: active (exited) since Fri 2019-08-16 05:08:38 EDT; 33s ago

9.1.5  关闭防火墙

[root@localhost ~]# systemctl stop firewalld

# 查看状态。

[root@localhost ~]# systemctl status firewalld

firewalld.service - firewalld - dynamic firewall daemon

   Loaded: loaded (/usr/lib/systemd/system/firewalld.service; enabled)

   Active: inactive (dead) since Fri 2019-08-16 05:11:13 EDT; 23s ago

# 不关闭防火墙可能会导致client无法访问TFTP服务,如果环境对安全有要求,可以通过配置iptable策略解决(具体方法这里不给出,请自行网上查找)。

[root@localhost ~]# setenforce 0    #关闭SELinux

9.1.6  安装并配置syslinux

(1)     安装syslinux。

[root@localhost ~]# yum -y install syslinux

(2)     拷贝引导文件及版本文件。

# 找到host上syslinux的pxelinux0文件,拷贝到tftp server的工作路径下(tftp配置文件中server_args指定的路径)/var/lib/tftpboot。

[root@localhost ~]# cp /usr/share/syslinux/pxelinux.0 /var/lib/tftpboot/

# 将NFV ISO镜像中的initrd.img和vmlinuz拷贝到/var/lib/tftpboot路径下,把ISO镜像上传到PXE server,先挂载镜像,然后从镜像中找到这两个文件。

[root@localhost ~]# mount /home/h3c/vFW1000_H3C-CMW710-E1184-X64.iso /mnt/

mount: /dev/loop0 is write-protected, mounting read-only #iso名称以实际版本为准

[root@localhost ~]# cp /mnt/pxeboot/{initrd.img,vmlinuz} /var/lib/tftpboot

# 拷贝版本到nfs共享目录下。

[root@localhost ~]# mkdir /var/www/html/vfw1000 #vfw1000为自定义名称,可根据需求更改

[root@localhost ~]# cp -a /mnt/* /var/www/html/fw1000

(3)     配置nfs共享目录。

# 修改/etc/exports文件,内容如下:

[root@localhost ~]# vi /etc/exports

/var/www/html/vfw1000 192.168.0.0/16(rw,async)

# 注意:

x.x.x.x/x为nfs client的网段,这里应该就是dhcpd.conf中配置分配给client的网段。

(rw,async)为访问权限。

通过执行exportfs -r命令生效。

# 重启rpcbind和nfs服务。

[root@localhost ~]# systemctl restart rpcbind

[root@localhost ~]# systemctl restart nfs

(4)     配置文件。

# 创建pxelinux.cfg文件夹

[root@localhost ~]# mkdir /var/lib/tftpboot/pxelinux.cfg

# 拷贝引导文件。

[root@localhost ~]# cp /mnt/pxeboot/pxelinux.cfg /var/lib/tftpboot/pxelinux.cfg/default

# 修改default文件。

[root@localhost ~]# chmod u+w /var/lib/tftpboot/pxelinux.cfg/default

[root@localhost ~]# vi /var/lib/tftpboot/pxelinux.cfg/default

default Live

 

# Since no network setting in the squashfs image, therefore if ip=, the network is disabled. That's what we want.

label Live

  kernel vmlinuz

  append initrd=initrd.img boot=live union=overlay username=user config components quiet noswap edd=on nomodeset locales=en_US.UTF-8 keyboard-layouts=NONE ocs_live_run="/opt/VSR/setup_vsr_pxe.sh" ocs_live_extra_param="" ocs_live_batch="no" ocs_final_action="reboot" vga=788 ip= net.ifnames=0  nosplash i915.blacklist=yes radeonhd.blacklist=yes nouveau.blacklist=yes vmwgfx.enable_fbdev=1 fetch=http://192.168.1.87/vfw1000/live/filesystem.squashfs ocs_prerun="mkdir /mnt/cdrom" ocs_prerun1="mount -t nfs 192.168.1.87:/var/www/html/vfw1000 /mnt/cdrom/"

  TEXT HELP

  * Boot menu for BIOS machine

  * Disclaimer: Live system comes with ABSOLUTELY NO WARRANTY

  ENDTEXT

# 修改以下配置:

fetch后面的路径为filesystem.squashfs在PXE Server上存放的路径。

ocs_prerun1的动作为挂载nfs文件系统,路径需为nfs server实际共享的路径。

# 如果安装模式为PXE无人值守方式,同时修改以下配置:

ocs_live_run执行脚本增加无人值守参数,修改为ocs_live_run="/opt/VSR/setup_vsr_pxe.sh unmanned fresh "。

9.2  Ubuntu系统下环境搭建

本节以Ubuntu 5.4.0-6ubuntu1~16.04.10的server版本为例进行说明,其他Ubuntu版本可能会有些微差别。

本文统一使用apt-get工具进行安装,如果环境中可以正常连接外网,则直接使用下文中提到的apt-get命令安装即可;如果无法连接外网,则可以使用系统对应的ISO作为本地镜像源进行安装。

配置本地镜像源的方法如下:

(1)     上传镜像文件到系统(或者通过CDROM挂载进设备)。

(2)     mount ISO文件到本地。

h3c@ubuntu:~$ sudo mount /dev/sr0 /media/cdrom/

mount: /dev/sr0 is write-protected, mounting read-only

# 这里使用CDROM的方式挂载的镜像文件,所以会多出一个/dev/sr0设备。

(3)     修改/etc/apt/下的配置文件。

# 备份默认的repo文件。

h3c@ubuntu:/etc/apt$ sudo mkdir bak

h3c@ubuntu:/etc/apt$ sudo mv sources.list bak/

# 重新编写source.list文件。

h3c@ubuntu:/etc/apt$ sudo vi sources.list

# 修改文件内容如下:

[deb file:///media/cdrom/ubuntu xenial main  #xenial为ubuntu发行版昵称,main代表源类型为支持的开源软件

#刷新源

h3c@ubuntu:/etc/apt$ sudo apt-get update

9.2.1  安装并配置DHCP

配置过程中可能会由于书写错误等遇到一些问题,需根据具体问题定位。

(1)     安装DHCP。

h3c@ubuntu:/etc/apt$ sudo apt-get -y install isc-dhcp-server

(2)     修改配置文件。

# 修改/etc/default/isc-dhcp-server配置文件,指定提供DHCP服务的接口。

h3c@ubuntu:~$ sudo vi /etc/default/isc-dhcp-server

# On what interfaces should the DHCP server (dhcpd) serve DHCP requests?

#       Separate multiple interfaces with spaces, e.g. "eth0 eth1".

INTERFACES="ens3" #根据实际环境修改

# 修改/etc/dhcp/dhcpd.conf配置文件。

h3c@ubuntu:~$ sudo vi /etc/dhcp/dhcpd.conf

# option definitions common to all supported networks...

# option domain-name "example.org";

# option domain-name-servers ns1.example.org, ns2.example.org; #注释掉这两项

 

# A slightly different configuration for an internal subnet.

subnet 192.168.1.0 netmask 255.255.255.0 {

  range 192.168.1.100 192.168.1.200; #取消注释,根据实际分配的网段修改。

#  option domain-name-servers ns1.internal.example.org;

#  option domain-name "internal.example.org";

#  option subnet-mask 255.255.255.224;

#  option routers 10.5.5.1;

#  option broadcast-address 10.5.5.31;

#  default-lease-time 600;

#  max-lease-time 7200;

  next-server 192.168.1.88;

  filename "pxelinux.0";

  allow booting;

  allow bootp;  #增加这几项配置。

}

# 注意:dhcpd.conf中的配置只修改文中的部分,其他保持默认即可。

(3)     启动/重启DHCP服务。

h3c@ubuntu:~$ sudo systemctl restart isc-dhcp-server

# 查看服务状态。

h3c@ubuntu:~$ sudo systemctl status isc-dhcp-server

 isc-dhcp-server.service - ISC DHCP IPv4 server

   Loaded: loaded (/lib/systemd/system/isc-dhcp-server.service; enabled; vendor preset: enabled)

   Active: active (running) since Sat 2019-08-17 00:04:30 MST; 20s ago

# 注意,DHCP配置的网段要和接口地址在同一网段,否则DHCP无法分配地址。

9.2.2  安装并配置TFTP

(1)     安装TFTP。

h3c@ubuntu:~$ sudo apt-get -y install tftpd-hpa

(2)     修改配置文件 。

h3c@ubuntu:~$ sudo vi /etc/default/tftpd-hpa

# /etc/default/tftpd-hpa

 

TFTP_USERNAME="tftp"

TFTP_DIRECTORY="/var/lib/tftpboot"

TFTP_ADDRESS=":69"

TFTP_OPTIONS="--secure"

注意:TFTP_DIRECTORY根据需要进行修改,这里使用默认目录。

(3)     启动/重启TFTP服务。

h3c@ubuntu:~$ sudo systemctl restart tftpd-hpa

# 查看服务状态。

h3c@ubuntu:~$ sudo systemctl status tftpd-hpa

tftpd-hpa.service - LSB: HPA's tftp server

   Loaded: loaded (/etc/init.d/tftpd-hpa; bad; vendor preset: enabled)

   Active: active (running) since Sat 2019-08-17 00:10:51 MST; 28s ago

9.2.3  安装并配置http

配置过程中可能会由于书写错误等遇到一些问题,需根据具体问题定位。

(1)     安装HTTP。

h3c@ubuntu:~$ sudo apt-get -y install apache2

(2)     配置文件 。

# Apache2对应的配置文件位置为/etc/apache2/sites-available/000-default.conf,其中DocumentRoot定义的路径为http访问的根路径,缺省为/var/www/html。

h3c@ubuntu:~$ sudo cat /etc/apache2/sites-available/000-default.conf | grep DocumentRoot

        DocumentRoot /var/www/html

(3)     启动/重启HTTP服务。

h3c@ubuntu:~$ sudo systemctl restart apache2

# 查看服务状态。

h3c@ubuntu:~$ sudo systemctl status apache2

apache2.service - LSB: Apache2 web server

   Loaded: loaded (/etc/init.d/apache2; bad; vendor preset: enabled)

  Drop-In: /lib/systemd/system/apache2.service.d

           └─apache2-systemd.conf

   Active: active (running) since Sat 2019-08-17 00:17:36 MST; 49s ago

9.2.4  安装并配置NFS

(1)     安装nfs。

# 由于iso镜像中没有nfs-kernel-server的deb包,可以从https://pkgs.org网站上下载对应版本的deb包并上传到server上。

h3c@ubuntu:~$ ls

nfs-kernel-server_1.2.8-9ubuntu12_amd64.deb

(2)     安装nfs-server依赖文件。

h3c@ubuntu:~$ sudo apt-get -y install nfs-common

# 使用dpkg命令安装nfs-kernel-server。

h3c@ubuntu:~$ sudo dpkg --force-depends-version -i nfs-kernel-server_1.2.8-9ubuntu12_amd64.deb

# 注意:由于后下载的nfs-kernel-server需要nfs-common (= 1:1.2.8-9ubuntu12),而iso中自带的版本为1:1.2.8-9ubuntu12.1,故这里使用选项--force-depends-version,应该不影响功能。

9.2.5  配置server

(1)     拷贝引导文件及版本文件。

# 找到ubuntu镜像文件中的pxelinux.0、ldlinux.c32文件,拷贝到tftp server的工作路径下(tftp配置文件中server_args指定的路径)/var/lib/tftpboot。

h3c@ubuntu:~$ sudo cp /media/cdrom/install/netboot/ubuntu-installer/amd64/pxelinux.0 /var/lib/tftpboot/

h3c@ubuntu:~$ sudo cp /media/cdrom/install/netboot/ubuntu-installer/amd64/boot-screens/ldlinux.c32 /var/lib/tftpboot/

# 将NFV ISO镜像中的initrd.img和vmlinuz拷贝到/var/lib/tftpboot路径下,把ISO镜像上传到PXE server,先挂载镜像,然后从镜像中找到这两个文件。

h3c@ubuntu:~$ sudo mount vFW1000_H3C-CMW710-E1183-X64.iso /mnt/

mount: /dev/loop0 is write-protected, mounting read-only #iso名称以实际版本为准

h3c@ubuntu:~$ sudo cp /mnt/pxeboot/{initrd.img,vmlinuz} /var/lib/tftpboot

# 拷贝版本到nfs共享目录下。

h3c@ubuntu:~$ sudo mkdir /var/www/html/vfw1000  #vfw1000为自定义名称,可根据需求更改

h3c@ubuntu:~$ sudo cp -a /mnt/* /var/www/html/vfw1000/

(2)     配置nfs共享目录。

# 修改/etc/exports文件,内容如下:

h3c@ubuntu:~$ sudo vi /etc/exports

/var/www/html/vfw1000 *(ro,async,no_subtree_check)

# 注意:*表示不限制客户端。(ro,async,no_subtree_check)为访问权限。

# 重启nfs-kernel-server服务。

h3c@ubuntu:~$ sudo systemctl restart nfs-kernel-server

# 查看服务状态。

h3c@ubuntu:~$ sudo systemctl status nfs-kernel-server

 nfs-server.service - NFS server and services

   Loaded: loaded (/lib/systemd/system/nfs-server.service; enabled; vendor preset: enabled)

   Active: active (exited) since Sat 2019-08-17 01:24:54 MST; 11s ago

(3)     配置文件。

# 创建pxelinux.cfg文件夹。

h3c@ubuntu:~$ sudo mkdir /var/lib/tftpboot/pxelinux.cfg

# 拷贝引导文件。

h3c@ubuntu:~$ sudo cp /mnt/pxeboot/pxelinux.cfg /var/lib/tftpboot/pxelinux.cfg/default

# 修改default文件。

h3c@ubuntu:~$ sudo chmod u+w /var/lib/tftpboot/pxelinux.cfg/default

h3c@ubuntu:~$ sudo vi /var/lib/tftpboot/pxelinux.cfg/default

default Live

 

# Since no network setting in the squashfs image, therefore if ip=, the network is disabled. That's what we want.

label Live

  kernel vmlinuz

  append initrd=initrd.img boot=live union=overlay username=user config components quiet noswap edd=on nomodeset locales=en_US.UTF-8 keyboard-layouts=NONE ocs_live_run="/opt/VSR/setup_vsr_pxe.sh" ocs_live_extra_param="" ocs_live_batch="no" ocs_final_action="reboot" vga=788 ip= net.ifnames=0  nosplash i915.blacklist=yes radeonhd.blacklist=yes nouveau.blacklist=yes vmwgfx.enable_fbdev=1 fetch=http://192.168.1.87/vfw1000/live/filesystem.squashfs ocs_prerun="mkdir /mnt/cdrom" ocs_prerun1="mount -t nfs 192.168.1.87:/var/www/html/vfw1000 /mnt/cdrom/"

  TEXT HELP

  * Boot menu for BIOS machine

  * Disclaimer: Live system comes with ABSOLUTELY NO WARRANTY

  ENDTEXT

# 修改以下配置:

fetch后面的路径为filesystem.squashfs在PXE Server上存放的路径,ocs_prerun1的动作为挂载nfs文件系统,路径需为nfs server实际共享的路径。

# 如果安装模式为PXE无人值守方式,同时修改以下配置:

ocs_live_run执行脚本增加无人值守参数,修改为ocs_live_run="/opt/VSR/setup_vsr_pxe.sh unmanned fresh "。

不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!

联系我们