18-VCF Fabric配置
本章节下载: 18-VCF Fabric配置 (323.40 KB)
目 录
当前由云、网络、终端组成的IT基础架构正经历着巨大的技术变革,传统终端向智能化、移动化演进,传统IT架构也向云迁移,实现计算资源的弹性扩张,随需交付,应需而动。在此环境下,H3C公司提出了VCF(Virtual Converged Framework)架构,该架构打通网络平台、云管理平台以及终端平台的界限,使整个IT系统成为一个融合架构来承载所有应用,并可实现网络自动配置和部署。
在VCF Fabric网络拓扑中,设备角色分为以下几种:
· Spine节点:用于连接Leaf节点。
· Leaf节点:在数据中心典型组网中Leaf节点设备用于连接服务器;在园区网典型组网中Leaf节点设备用于连接Access节点。
· Access节点:节点设备属于接入设备。在园区网典型组网中上行与Leaf节点相连,下行与终端相连,且支持级联。
· Border节点:节点设备位于VCF Fabric网络拓扑的边界,用于连接外网。
Spine节点和Leaf节点组成了一个大二层网络,具体的网络拓扑类型可以为VLAN、集中式VXLAN IP网关和分布式VXLAN IP网关。有关集中式VXLAN IP网关和分布式VXLAN IP网关的详细介绍请参见“VXLAN配置指导”中的“VXLAN”。
图1-1 VCF Fabric数据中心网络拓扑示意图
图1-2 VCF Fabric园区网网络拓扑示意图
由于数据中心的计算、存储、网络三要素的虚拟化演进,大量虚拟机的部署已经成为常态,数据中心网络部署面临的主要问题包括:
· 配置复杂:大量设备上线配置复杂。
· 维护复杂:设备上线过程不可见,故障排除复杂。
· 部署慢:面向应用的网络资源部署周期长。
VCF Fabric自动配置实现了如下功能:
· 拓扑自动发现
· Underlay网络配置自动化
在VCF Fabric组网中,网络设备通过LLDP协议获取各物理连接的对端接口名、对端用户角色和对端MAC地址、管理口IP地址等信息,形成本地拓扑信息。
当网络中不止一个Spine节点时,需要指定主Spine节点,主Spine节点收集全网拓扑后用于Underlay网络配置自动化。
Underlay网络就是传统的物理网络,可实现设备间的三层互通。
Underlay网络配置自动化根据用户定义的模板文件自动完成网络的三层互通配置等,为用户提供一个IP路由可达的三层网络。
Underlay网络配置自动化之前,需要完成以下任务:
(1) 根据用户需求完成Underlay网络规划,包括IP地址、可靠性、路由部署规划等。
(2) 完成DHCP服务器、TFTP服务器的部署。
(3) 完成启动软件包的放置。软件启动包是设备启动、运行的必备软件,需保存在TFTP服务器上。如果现有设备的启动软件包全部一致且不需要升级软件版本,可不需要准备该文件。
(4) 完成基于VCF Fabric组网角色的配置模板文件的编写和放置。模板文件以.template结尾,需保存在TFTP服务器上。根据不同的网络拓扑类型和设备角色需要定义不同的配置模板。例如:集中式网关Leaf模板、分布式网关Leaf模板、集中式网关Spine模板、分布式网关Spine模板等。
Underlay网络自动化配置流程如下:
(1) 设备以出厂配置启动,从DHCP服务器获取设备IP地址、TFTP服务器IP地址、模板文件名(文件名通常以“网络类型.template”命名)等信息。
(2) 设备根据自身缺省的VCF Fabric网络拓扑角色,从TFTP服务器下载对应的名称模板(文件名通常以“网络类型_网络拓扑橘色.template”命名)到本地。
(3) 设备解析模板文件,完成配置的下发。
· 如果模板文件中定义了软件版本信息,设备会根据模板信息中的URL地址,获取新的软件版本,并与设备当前运行的版本进行比较,如果不一致,则自动下载新版本并完成升级和重启。
· 执行模板配置后,用户需通过执行save命令手工保存配置。
模板文件的内容分为如下几部分:
· 系统预定义变量:变量名不可以随意更改;变量取值由网络拓扑自动发现功能赋予,不需要用户配置。
· 用户自定义变量:变量名和取值可以由用户手工修改,包括本地用户名、组网类型等。举例如下:
#USERDEF
_underlayIPRange = 10.100.0.0/16
_master_spine_mac = 1122-3344-5566
_backup_spine_mac = aabb-ccdd-eeff
_username = aaa
_password = aaa
_rbacUserRole = network-admin
_loghost_ip = 172.16.1.136
……
· 静态配置:与VCF Fabirc网络拓扑等动态信息无关,设备可以直接下发的配置。举例如下:
#STATICCFG
#
clock timezone beijing add 08:00:00
#
lldp global enable
#
stp global enable
#
· 动态配置:与VCF Fabirc拓扑等动态信息相关,设备需要先获取拓扑信息才能下发的配置。举例如下:
#
interface $$_underlayIntfDown
port link-mode route
ip address unnumbered interface LoopBack0
ospf 1 area 0.0.0.0
ospf network-type p2p
lldp management-address arp-learning
lldp tlv-enable basic-tlv management-address-tlv interface LoopBack0
#
Underlay网络配置自动化功能一般通过自动下载并执行模板文件完成,无需使用命令行对设备进行配置。
表1-1 VCF Fabric自动配置任务简介
开启VCF Fabric拓扑发现功能 |
必选 |
|
Underlay网络配置自动化功能 |
可选 |
|
Overlay网络配置自动部署功能 |
· VCF Fabric网络拓扑发现通常在设备启动后通过执行模板文件自动完成,也可以通过命令行手工开启。
· 通过命令行手工开启网络拓扑发现功能,则由于设备的网络拓扑发现功能是基于LLDP协议获取直连设备信息的,因此需要先开启LLDP功能。
表1-2 开启VCF Fabric网络拓扑发现功能
操作 |
命令 |
说明 |
进入系统视图 |
system-view |
- |
全局开启LLDP功能 |
lldp global enable |
缺省情况下,全局LLDP功能处于关闭状态 |
开启VCF Fabric网络拓扑发现功能 |
vcf-fabric topology enable |
缺省情况下,VCF Fabric网络拓扑发现功能处于关闭状态 |
· Underlay网络的自动配置功能可在设备上电启动后自动完成。若需要在正在运行的设备上重新进行Underlay网络的自动配置,可通过TFTP等方式将先将模板文件下载到本地,再通过命令行配置采用指定的模板文件进行Underlay网络的自动配置。
· 设备运行过程中不建议手工修改网络拓扑类型和设备角色。如需调整,请确保完全了解调整会给网络和业务带来的影响。
· 手工修改设备缺省的网络拓扑角色,重启后角色修改才能生效。
表1-3 配置Underlay网络配置自动化功能
操作 |
命令 |
说明 |
进入系统视图 |
system-view |
- |
(可选)指定设备在VCF Fabric网络拓扑中的角色 |
vcf-fabric role { access | leaf | spine } |
缺省情况下,设备在VCF Fabric网络拓扑中的角色为spine角色 |
采用指定的模板文件进行Underlay网络的自动配置 |
vcf-fabric underlay autoconfigure template |
缺省情况下,未指定进行Underlay网络自动配置的模板文件 |
(可选)暂停Underlay网络自动配置功能 |
vcf-fabric underlay pause |
缺省情况下,Underlay网络自动配置功能处于非暂停状 |
(可选)配置设备角色为主Spine节点 |
vcf-fabric spine-role master |
缺省情况下,未配置主Spine节点 |
· 若网络拓扑结构为VLAN或集中式VXLAN IP网关,Spine节点和Leaf节点上均需要进行Overlay网络配置自动部署。
· 若网络拓扑类型为分布式VXLAN IP网关,仅需要在Leaf节点上进行Overlay网络配置自动部署。
· 在VCF Fabric组网中,网络设备通过RabbitMQ与Neutron server通信,从而自动获取Overlay网络配置并部署Overlay网络。为此,用户需要在网络设备上指定RabbitMQ服务器参数,并保证设置的RabbitMQ服务器参数与控制节点上的参数保持一致。当服务器侧配置了RabbitMQ的持久化属性时,设备侧需要开启创建RabbitMQ的持久化功能,否则无法成功创建消息队列。
· 在设备上指定或取消已有的RabbitMQ服务器参数配置时,均需确保服务器与设备之间网络可达,否则会造成命令行无法响应直到TCP超时。
· 一个RabbitMQ服务器上可以创建多个虚拟主机,每个虚拟主机都可以独立地提供RabbitMQ服务,为保证设备与Neutron server正常通信,需要为其指定相同的RabbitMQ虚拟主机。
设备跟RabbitMQ服务器通信的过程中,不建议用户进行源IP地址切换或down/up与服务器相连的端口等操作,否则执行开启或关闭L2-agent/L3-agent功能时,命令行界面响应时间较长,请耐心等待。
表1-4 配置Overlay网络配置自动部署
操作 |
命令 |
说明 |
进入系统视图 |
system-view |
- |
开启Neutron服务,并进入Neutron视图 |
neutron |
缺省情况下,Neutron服务处于关闭状态 |
指定RabbitMQ服务器的IPv4地址、端口号和VPN实例 |
rabbit host ip ipv4-address [ port port-number ] [ vpn-instance vpn-instance-name ] |
缺省情况下,未指定RabbitMQ服务器的IPv4地址和VPN实例,通信端口为5672 |
指定设备侧与RabbitMQ服务器通信的源IPv4地址 |
rabbit source-ip ipv4-address [ vpn-instance vpn-instance-name ] |
缺省情况下,未指定设备侧与RabbitMQ服务器通信的源IPv4地址,设备通过路由协议自动选择与RabbitMQ服务器通信的源IPv4地址 |
(可选)开启设备侧创建RabbitMQ的持久化功能 |
rabbit durable-queue enable |
缺省情况下,设备侧创建的RabbitMQ为非持久化队列 |
配置设备与RabbitMQ服务器建立连接所使用的用户名 |
rabbit user username |
缺省情况下,设备与RabbitMQ服务器建立连接所使用的用户名为guest |
配置设备与RabbitMQ服务器建立连接使用的密码 |
rabbit password { cipher | plain } string |
缺省情况下,设备与RabbitMQ服务器建立连接使用的密码为guest |
配置为设备提供服务的RabbitMQ服务器上虚拟主机的名称 |
rabbit virtual-host hostname |
缺省情况下,为设备提供服务的RabbitMQ服务器虚拟主机名称为“/” |
配置设备通过Restful下发配置时使用的用户名和密码 |
restful user username password { cipher | plain } password |
缺省情况下,未配置设备通过Restful下发配置时使用的用户名和密码 |
开启L2-agent功能 |
l2agent enable |
缺省情况下,L2-agent功能处于关闭状态 |
(可选)开启L3-agent功能 |
l3agent enable |
缺省情况下,L3-agent功能处于关闭状态 |
(可选)配置租户网络所属VPN实例的Export Target |
vpn-target target export-extcommunity |
缺省情况下,未配置租户网络所属VPN实例的Export Target |
(可选)配置租户网络所属VPN实例的Import Target |
vpn-target target import-extcommunity |
缺省情况下,未配置租户网络所属VPN实例的Import Target |
(可选)配置网关的IP地址 |
gateway ip ipv4-address |
缺省情况下,未配置网关的IP地址 |
(可选)配置设备为border节点,并初始化Overlay网络自动部署中border节点的相关配置 |
border enable |
缺省情况下,设备不是border节点 |
(可选)配置分布式VXLAN组网的Overlay自动部署环境下开启VSI虚接口的本地的ARP代理功能 |
proxy-arp enable |
缺省情况下,未开启VSI虚接口的本地ARP代理功能 |
(可选)配置VSI虚接口的MAC地址 |
vsi-mac mac-address |
缺省情况下,未设置VSI虚接口的MAC地址 |
在完成上述配置后,在任意视图下执行display命令可以显示配置后VCF Fabric的运行情况,通过查看显示信息验证配置的效果。
表1-5 VCF Fabric显示和维护
操作 |
命令 |
查看设备在VCF Fabric中的角色 |
display vcf-fabric role |
查看VCF Fabric的拓扑信息 |
display vcf-fabric topology |
查看Underlay的自动化配置信息 |
display vcf-fabric underlay autoconfigure |
如图1-3所示,VCF Fabric采用集中式VXLAN IP网关组网,Device A为Spine节点,Device B和Device C为Leaf节点,通过管理以太网口与TFTP服务器和DHCP服务器相连。控制节点为Ubuntu(Kilo版本,Ubuntu14.04 LTS操作系统)。
配置VCF Fabric,实现如下需求:
· DHCP服务器为设备动态分配10.11.113.0/24网段的IP地址。
· 通过VCF Fabric自动配置实现在Device A、Device B、Device C初次上电启动后,可根据模板文件完成VXLAN网络Underlay配置自动化。
图1-3 VCF Fabric自动配置组网图
DHCP服务器的设置主要包括:
· DHCP地址池:配置地址池动态分配IP地址的网段为10.11.113.0/24。
· TFTP服务器的IP地址10.11.113.19/24。
· Boot文件名:以“网络类型.template”形式命名,如“vxlan.template”。
编写模板文件并将其放置在TFTP服务器上,模板文件一般包含如下内容:
· 系统定义变量:用于系统内部使用,用户自定义变量名不得与其重复。
· 用户自定义变量:定义设备本地用户名、密码,用户角色等基本信息等。
· 设备需要升级的最新版本和下载地址
· 配置命令:包括与网络拓扑无关的LLDP、NTP、SNMP等配置命令,以及与网络拓扑有关的接口配置等。
TFTP服务器上需要根据组网规划,放置好模板文件,模板文件的名称为“网络类型_网络设备角色.template”。本例中Device A为Spine角色,Device B和Device C为Leaf角色,因此需要放置两个模板文件,“vlxan_spine,template”和“vlxan_leaf,template”。
设备以出厂配置启动,从DHCP服务器获取IP地址、TFTP服务器IP地址等信息,并通过TFTP服务器获取模板文件(Device A获取“vxlan_spine.template”文件,Device B和Device C获取“vxlan_leaf.template”文件);之后解析模板文件,完成Underlay网络的自动配置。
在Device A设备上查看VCF Fabric拓扑信息。
[DeviceA] display vcf-fabric topology
Topology Information
----------------------------------------------------------------------------------
* indicates the master spine role among all spines
SpineIP Interface Link LeafIP Status
*10.11.113.51 GigabitEthernet1/0/1 Up 10.11.113.52 Deploying
GigabitEthernet1/0/2 Down -- --
GigabitEthernet1/0/3 Down -- --
GigabitEthernet1/0/4 Down -- --
GigabitEthernet1/0/5 Up 10.11.113.53 Deploying
GigabitEthernet1/0/6 Down -- --
GigabitEthernet1/0/7 Down -- --
GigabitEthernet1/0/8 Down -- --
在Device A设备上查看Underlay网络配置自动化信息。
[DeviceA] display vcf-fabric underlay autoconfigure
success command:
#
system
clock timezone beijing add 08:00:00
#
system
lldp global enable
#
system
stp global enable
#
system
ospf 1
graceful-restart ietf
area 0.0.0.0
#
system
interface LoopBack0
#
system
ip vpn-instance global
route-distinguisher 1:1
vpn-target 1:1 import-extcommunity
#
system
l2vpn enable
#
system
vxlan tunnel mac-learning disable
vxlan tunnel arp-learning disable
#
system
ntp-service enable
ntp-service unicast-peer 10.11.113.136
#
system
netconf soap http enable
netconf soap https enable
restful http enable
restful https enable
#
system
ip http enable
ip https enable
#
system
telnet server enable
#
system
info-center loghost 10.11.113.136
#
system
local-user aaa
password ******
service-type telnet http https
service-type ssh
authorization-attribute user-role network-admin
#
system
line vty 0 63
authentication-mode scheme
user-role network-admin
#
system
bgp 100
graceful-restart
address-family l2vpn evpn
undo policy vpn-target
#
system
vcf-fabric topology enable
#
system
snmp-agent
snmp-agent community read public
snmp-agent community write private
snmp-agent sys-info version all
#interface up-down:
GigabitEthernet1/0/1
GigabitEthernet1/0/5
Loopback0 IP Allocation:
DEV_MAC LOOPBACK_IP MANAGE_IP STATE
a43c-adae-0400 10.100.16.17 10.11.113.53 up
a43c-9aa7-0100 10.100.16.15 10.11.113.51 up
a43c-a469-0300 10.100.16.16 10.11.113.52 up
bgp configure peer:
10.100.16.17
10.100.16.16
在Device A设备上查看当前VSI配置VPN相关配置。
[DeviceA] display current-configuration configuration vsi
#
vsi vxlan10071
gateway vsi-interface 8190
vxlan 10071
evpn encapsulation vxlan
route-distinguisher auto
vpn-target auto export-extcommunity
vpn-target auto import-extcommunity
#
return
[DeviceA] display current-configuration interface Vsi-interface
#
interface Vsi-interface8190
ip binding vpn-instance neutron-1024
ip address 11.1.1.1 255.255.255.0 sub
ip address 10.10.1.1 255.255.255.0 sub
#
return
[DeviceA] display ip vpn-instance
Total VPN-Instances configured : 1
VPN-Instance Name RD Create time
neutron-1024 1024:1024 2016/03/12 00:25:59
# 进入Compute node 1上的VM的控制台,执行ping操作,可以ping通Compute node 2上的VM。
$ ping 10.1.1.3
Ping 10.1.1.3 (10.1.1.3): 56 data bytes, press CTRL_C to break
56 bytes from 10.1.1.3: icmp_seq=0 ttl=254 time=10.000 ms
56 bytes from 10.1.1.3: icmp_seq=1 ttl=254 time=4.000 ms
56 bytes from 10.1.1.3: icmp_seq=2 ttl=254 time=4.000 ms
56 bytes from 10.1.1.3: icmp_seq=3 ttl=254 time=3.000 ms
56 bytes from 10.1.1.3: icmp_seq=4 ttl=254 time=3.000 ms
--- Ping statistics for 10.1.1.3 ---
5 packet(s) transmitted, 5 packet(s) received, 0.0% packet loss
round-trip min/avg/max/std-dev = 3.000/4.800/10.000/2.638 ms
不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!