手册下载
H3C 擎起未来的IPv6+ 技术专刊-6W102-整本手册.pdf (19.12 MB)
目 录
5G、物联网和云计算等新兴领域的飞速发展,使得网络规模急剧扩大、网络复杂度不断增加、业务种类愈加丰富、智能化需求与日俱增,网络技术面临着新的挑战。
第一代网络层协议IPv4地址空间不足,无法满足万物互联的需求。第二代网络层协议IPv6(Internet Protocol Version 6,互联网协议版本6)采用128位的IPv6地址,可以提供超过3.4×10^38个地址,为互联网和物联网提供更加广泛的连接,是万物互联的基础。但在新业务蓬勃发展的形势下,仅仅实现万物互联是远远不够的,还需要考虑业务差异化、运维智能化等需求。
为此,IPv6+应运而生。IPv6+在IPv6协议的基础上进行了大规模的创新,如SRv6、网络切片、随流检测(iFIT)、新型组播(BIER)、业务链(SRv6 SFC)、确定性网络(DetNet)和应用感知网络(APN6)等网络技术创新,并增加了智能识别与控制。
IPv6+是面向5G和云时代的智能IP技术,具有可编程路径、快速业务发放、自动化运维、质量可视化、SLA保障和应用感知等特点。IPv6+将万物互联提升到了万物智联,助力各行各业的数字化转型。
图1 IPv6+发展
IPv6+不仅具有IPv6协议的地址空间巨大、扩展灵活等特点,还在如下几个方面提升了IP网络的能力。
图2 IPv6+技术优势
IPv6+技术创新体系的发展分为三个阶段。
图3 IPv6+技术发展阶段
目前,H3C已基本实现IPv6+1.0、IPv6+2.0和IPv6+3.0,并紧密关注IPv6+技术发展趋势,持续演进。借助于IPv6+技术,H3C能够帮助客户更好地应对未来网络技术的挑战,确保网络通信的高效、安全和顺畅。同时,H3C将继续致力于研发和推广IPv6+技术,以满足客户不断变化的需求,助力企业实现数字化转型。
Segment Routing(SR)是一种源路由协议,也称为段路由协议,由源节点指定转发路径,并将路径转换成一个有序的Segment列表(SID列表)封装到报文头中。路径的中间节点只需要根据报文头中的Segment列表进行转发。
SRv6是指在IPv6网络中使用Segment Routing,将IPv6地址作为SID,SRv6 节点根据SID对报文进行转发。SRv6将SID列表封装在IPv6报文的SRH(Segment Routing Header,SR报文头)中,以控制报文转发路径。
图4 SRv6隧道
SRv6基于SDN架构设计,跨越了应用和网络之间的鸿沟,能够更好地实现应用驱动网络。SRv6中转发路径、转发行为、业务类型均可控。
图5 SRv6架构
SRv6基于IGP和BGP扩展实现,无须使用MPLS标签,不需要部署标签分发协议,配置简单。
在SRv6网络中,不需要大规模升级网络设备,就可以部署新业务。在DC(Data Center,数据中心)和WAN(广域网)中,只需网络边界设备及特定网络节点支持SRv6,其他设备支持IPv6即可。
图6 SRv6部署
随着5G业务的发展,IPv4地址已经无法满足运营商的网络需求。可通过在运营商网络中部署SRv6,使所有设备通过IPv6地址转发流量,实现IPv6化网络,以满足5G业务需求。
图7 运营商网络部署SRv6
SRv6报文封装格式从外到内依次为IPv6头、SRH、原始数据,其中SRH是一种IPv6路由扩展头。
图8 SRv6报文封装
图9 SRv6工作机制
SRv6 TE Policy是一种灵活的转发策略,可以根据业务需求为其选择合适的转发路径。一个SRv6 TE Policy包含多条转发路径,多条转发路径间可以进行负载分担和备份。
SRv6 TE Policy可以通过以下三个部分标识:
· BSID:入节点的SID,用于将业务流量引到SRv6 TE Policy中的转发路径上进行转发。
· Color:用于在相同的源和目的节点之间区分多个SRv6 TE Policy。Color属性可以代表不同的业务质量要求,例如低延时、高带宽等。管理员可以根据业务种类为不同SRv6 TE Policy分配不同的Color属性。
· Endpoint:目的节点的IPv6地址。
图10 SRv6 TE Policy转发路径
图11 SRv6 TE Policy技术优势
一个SRv6 TE Policy可以包含多个Candidate Paths(候选路径)。一个候选路径可以包含多个Segment list(SID列表),每个Segment list携带Weight(权重)属性。
· 候选路径
候选路径携带优先级属性,不同候选路径的优先级不同。通过SRv6 TE Policy转发流量时,设备从多个有效的候选路径中选择优先级最高的有效候选路径进行报文转发。
· SID列表
每个Segment List都是一个SRv6 SID列表,Segment List可以指示网络设备转发报文。
如下图所示,SRv6 TE Policy包含两个候选路径Candidate Paths 1和Candidate Paths 2。其中,Candidate Paths 1的优先级最高,所以SRv6 TE Policy使用Candidate Paths 1转发报文。Candidate Paths 1包含两个SID列表Segment List 1和Segment List 2。其中,Segment List 1的SRv6 SID列表信息为<1::1, 2::2, 3::3>,权重为20;Segment List 2的SRv6 SID列表信息为<5::5, 6::6, 7::7>,权重为80。
图12 SRv6 TE Policy网络模型
SRv6 TE Policy引流是指通过匹配一定的报文特征或选路规则,将报文引入到SRv6 TE Policy,通过SRv6 TE Policy转发报文。
表1 SRv6 TE Policy引流方式及规则
|
引流方式 |
引流规则 |
|
基于BSID引流 |
如果设备接收到的报文的目的IPv6地址为某个SRv6 TE Policy的BSID,则通过该SRv6 TE Policy转发该报文 |
|
基于Color引流 |
如果报文匹配上的BGP路由携带的Color扩展团体属性以及下一跳地址分别与某个SRv6 TE Policy的Color属性和目的节点地址匹配,则通过该SRv6 TE Policy转发 |
|
基于DSCP引流 |
根据报文的DSCP值查找与其关联的Color属性,再通过Color属性匹配到SRv6 TE Policy。这样,携带指定DSCP的报文可以通过指定SRv6 TE Policy转发 |
|
基于隧道策略引流 |
在L2VPN和L3VPN组网环境中,通过部署隧道策略,将SRv6 TE Policy作为公网隧道来转发私网报文 |
不同引流方式的选路原则是相同的。数据报文引流到SRv6 TE Policy后,SRv6 TE Policy的选路原则如下:
(1) 从多个有效候选路径中选择优先级最大的有效候选路径转发流量。
(2) 在最优有效候选路径的各个SID列表间进行WECMP(Weighted ECMP,权重负载分担),即基于权重对通过SRv6 TE Policy转发的流量进行负载分担。假设候选路径中包含n个有效SID列表,第x个SID列表的权重为Wight x,则第x个SID列表转发流量的比例为该SID列表的权重值÷所有有效SID列表的权重值的总和。
如下图所示,SRv6 TE Policy选择优先级最高的候选路径Candidate Paths 1转发流量。Candidate Paths 1包含两个SID列表Segment List 1和Segment List 2。其中,Segment List 1的SRv6 SID列表信息为<10::1, 20::1, 30::1>,权重为20;Segment List 2的SRv6 SID列表信息为<40::1, 50::1, 60::1>,权重为80。流量在Segment List 1和Segment List 2之间基于权重负载分担,Segment List 1和Segment List 2的总权重值为100,所以Segment List 1分担的流量占比为20÷100=20%,Segment List 2分担的流量占比为80÷100=80%。
图13 SRv6 TE Policy选路原则
设备支持的SID深度是有限的,即SRv6 TE Policy的源节点为报文封装SRH时,SID数量不能超出设备支持的上限。为了减少SID列表中SID的数量,SID列表中支持插入其他SRv6 TE Policy的BSID,用一个BSID来代表某个SRv6 TE Policy候选路径中的SID列表,并基于BSID将流量引入另一条SRv6 TE Policy的候选路径,这种能力称为BSID的缝接功能。
如下图所示,BSID的缝接支持直接在原报文外新封装IPv6基本头和SRH扩展头的Encaps方式,也支持仅在原报文的IPv6基本头之后直接插入新的SRH扩展头的Insert方式。
· Encaps封装方式:SRv6 TE Policy A的SID列表中插入了SRv6 TE Policy B的BSID。当报文通过SRv6 TE Policy A转发到节点C时,SRv6 TE Policy B的源节点C发现该BSID为End.B6ENCAPS类型的Local SID,因此,执行BSID的转发指令,即在报文外层新增IPv6报文头和SRH,SRH中包含SRv6 TE Policy B的SID列表。
图14 Encaps封装方式的BSID缝接
· Insert封装方式:SRv6 TE Policy A的SID列表中插入了SRv6 TE Policy B的BSID。当报文通过SRv6 TE Policy A转发到节点C时,SRv6 TE Policy B的源节点C发现该BSID为End.B6INSERT类型的Local SID,因此,并执行BSID的转发指令,即在原始报文IPv6报文头后直接插入SRH,其中包含SRv6 TE Policy B 的SID列表。
图15 Insert封装方式的BSID缝接
BSID的缝接功能不仅能够减少SID列表中SID的数量,还可以实现SRv6和SR-MPLS Interworking。在SRv6和SR-MPLS Interworking场景中,报文通过SRv6 TE Policy隧道穿越多个SRv6和SR-MPLS域,实现端到端的业务互通,这种场景被称为SRv6 over SR-MPLS。
如下图所示,SRv6 over SR-MPLS场景中新定义一种End.BM类型的SRv6 SID作为SR-MPLS TE Policy B的BSID。配置SRv6 TE Policy A时,将这个End.BM类型的BSID 30::1插入SRv6 TE Policy A的SID列表中,BSID 30::1代表SR-MPLS TE Policy B最优候选路径的SID列表,即MPLS标签栈{20001, 20002}。当报文转发到SR-MPLS TE Policy B的源节点C时,执行End.BM SID的转发动作,即在IPv6报文外层压入SR-MPLS TE Policy B的MPLS标签栈{20001, 20002}。节点C根据报文封装的MPLS标签栈在SR-MPLS域中转发报文,在SR-MPLS TE Policy B的尾节点E弹出所有MPLS标签后,再继续按SRv6报文转发报文。通过End.BM类型的BSID缝接在SRv6 TE Policy的SID列表中,实现了SRv6和SR-MPLS互通。
图16 SRv6 over SR-MPLS场景的BSID缝接
通过部署L2VPN/L3VPN over SRv6 TE Policy,实现位于不同数据中心(DC)的同一VPN内的租户可以互通,并在源节点灵活规划转发路径,为不同业务流量合理分配转发路径,以满足租户的各种业务需求。以IP L3VPN over SRv6 TE Policy为例,该部署方案实现机制为:
· 在PE 1和PE 2上创建VPN 1,使位于不同DC的同一租户加入相同VPN。同时在PE之间部署MP-BGP传递私网路由信息,以便实现三层互通。
· 在PE 1和PE 2之间部署不同Color属性的SRv6 TE Policy,根据租户的业务需求合理选择转发路径,将租户的不同业务流量引入对应的SRv6 TE Policy。
图17 SRv6 TE Policy典型应用
随着5G业务的发展,IPv4地址已经无法满足运营商的网络需求,IPv6网络的搭建已被运营商提上日程。在运营商IPv6网络中部署SRv6 VPN,通过SRv6承载网络中的VPN业务,可以更好地满足5G业务需求。
根据VPN业务种类的不同,SRv6 VPN分为:
· L3VPN业务:通过IPv6骨干网透明传输用户三层业务报文,包括IP L3VPN over SRv6和EVPN L3VPN over SRv6。
· L2VPN业务:通过IPv6骨干网透明传输用户二层业务报文,包括EVPN VPWS over SRv6和EVPN VPLS over SRv6。
图18 SRv6 VPN业务分类
图19 SRv6 VPN优势
在IP L3VPN over SRv6或EVPN L3VPN over SRv6组网环境中,PE间通过MP-BGP通告私网路由信息,采用SRv6封装方式转发报文。用户的物理站点分散在不同位置时,可以基于已有的服务提供商或企业IPv6网络,为不同站点的相同VPN的用户提供三层互联,同时保证不同VPN的用户相互隔离。
图20 L3VPN over SRv6组网模型
以CE 1为例,CE 1的私网路由通过MP-BGP发布到CE 2的过程如下:
(1) CE 1使用IGP或BGP,将本站点的私网路由发布给PE 1。
(2) PE 1从CE 1学习到私网路由信息后,为私网路由分配SRv6 SID,形成VPN路由。PE 1通过MP-BGP将携带SRv6 SID的VPN路由发布给PE 2。
(3) PE 2收到VPN路由后,将该路由加入到VPN路由表中,并将VPN路由转换成私网路由发布给CE 2。
(4) CE 2收到路由后,学习到路由表中,即CE 2学习到CE 1的路由。
完成路由发布后,报文从CE 2到CE 1的转发过程如下:
(1) CE 2发送报文给PE 2。
(2) PE 2收到私网报文后,在VPN路由表中查找匹配目的地址的路由,找到对应的SRv6 SID,即PE 1为私网路由分配的SRv6 SID。
(3) PE 2为报文封装外层IPv6报文头,目的IPv6地址为查找到的SRv6 SID,源IPv6地址由用户配置。
(4) PE 2根据SRv6 SID查找IPv6路由表,通过最优IGP路由将报文转发给P。
(5) P根据SRv6 SID查找IPv6路由表,通过最优IGP路由将报文转发给PE 1。
(6) PE 1收到报文后,根据SRv6 SID执行对应的转发动作,即解封装报文去掉外层IPv6头,并根据SRv6 SID在指定VPN的路由表中查找私网路由,将报文发送给CE 1。
|
|
在EVPN VPWS over SRv6和EVPN VPLS over SRv6组网环境中,PE之间通过BGP EVPN路由发布SRv6 SID,建立SRv6隧道。PE间的两条方向相反的SRv6隧道组成一条PW,封装并转发站点网络之间的二层数据报文,实现通过IPv6骨干网透明传输用户二层数据。
图21 L2VPN over SRv6组网模型
AC(Attachment Circuit,接入电路)是连接CE和PE的物理电路或虚拟电路。
PW(Pseudowire,伪线)是两个PE之间的虚拟双向连接。
PE间通过BGP EVPN路由建立PW的过程如下:
(1) PE 1、PE 2之间相互发布BGP EVPN路由,在BGP EVPN路由中携带本端为交叉连接或VSI分配的SRv6 SID。
(2) PE 1和PE 2收到BGP EVPN路由后,建立本端PE到远端PE的单跳SRv6隧道,该隧道的SID标识为路由中的SRv6 SID。
(3) 在PE 1和PE 2间两个方向上均建立单跳SRv6隧道后,两条SRv6隧道组成一条PW,用来承载用户二层数据。该PW称为SRv6 PW。
完成BGP EVPN路由发布后,以CE 1为例,二层报文从CE 1到CE 2的转发过程如下:
(1) CE 1发送报文给PE 1。
(2) PE 1从连接CE 1的AC上接收到二层报文后:
· 在EVPN VPWS over SRv6组网中,查找与该AC关联的交叉连接对应的SRv6 SID。
· 在EVPN VPLS over SRv6组网中,在该AC关联的VSI内查找MAC地址表,找到对应的SRv6 SID。
(3) PE 1为报文封装外层IPv6报文头,目的IPv6地址为查找到的SRv6 SID,源IPv6地址由用户配置。
(4) PE 1根据SRv6 SID查找IPv6路由表,通过最优IGP路由将报文转发给P。
(5) P根据SRv6 SID查找IPv6路由表,通过最优IGP路由将报文转发给PE 2。
(6) PE 2根据SRv6 SID查找Local SID表,执行SRv6 SID对应的转发动作,即解封装报文去掉外层IPv6报文头,并根据SRv6 SID进行转发:
· 在EVPN VPWS over SRv6组网中,根据SRv6 SID匹配与其关联的AC,并通过该AC将报文转发给CE 2。
· 在EVPN VPLS over SRv6组网中,根据SRv6 SID匹配与其关联的VSI,在该VSI内查MAC地址表将报文转发给CE 2。
|
|
L3VPN over SRv6 BE(Segment Routing IPv6 Best Effort)是指在公网中使用IGP计算得到的最优SRv6路径承载L3VPN私网数据,为不同站点的相同VPN的用户提供三层互联,同时保证不同VPN的用户相互隔离。
根据网络承载业务的不同,L3VPN over SRv6 BE分为:
· IP L3VPN over SRv6 BE:PE之间通过VPNv4/VPNv6路由传递私网路由,以便承载三层VPN业务。
· EVPN L3VPN over SRv6 BE:PE之间通过EVPN的IP前缀路由传递私网路由,以便同时承载二层VPN和三层VPN业务。
图22 L3VPN over SRv6 BE分类
在L3VPN over SRv6组网环境中,通过以下两种SRv6 SID来标识私网报文。
按照VPN实例分配SRv6 SID是指PE设备为每个VPN实例分配一个SRv6 SID,通过该SRv6 SID标识网络中的一个IPv4/IPv6 VPN。该类SRv6 SID包括End.DT4 SID/End.DT6 SID/End.DT46 SID:
· End.DT4 SID用于仅IPv4私网用户接入的场景。
· End.DT6 SID用于仅IPv6私网用户接入的场景。
· End.DT46 SID用于IPv4和IPv6私网用户同时接入的场景。
当PE设备收到目的IPv6地址为End.DT4 SID/End.DT6 SID/End.DT46 SID的报文时,会解封装报文,即去掉IPv6报文头,并根据End.DT4 SID/End.DT6 SID/End.DT46 SID匹配对应的VPN实例,在PE设备指定VPN实例内查路由表转发。
图23 按照VPN实例分配的SRv6 SID
按照下一跳分配SRv6 SID是指PE设备为每个下一跳分配一个SRv6 SID,通过该SRv6 SID标识网络中的一个IPv4/IPv6下一跳。该类SRv6 SID包括End.DX4 SID/End.DX6 SID:
· End.DX4 SID用于仅IPv4私网用户接入的场景。
· End.DX6 SID用于仅IPv6私网用户接入的场景。
当设备收到目的IPv6地址为End.DX4 SID/End.DX6 SID的报文时,会解封装报文,即去掉IPv6报文头,并根据End.DX4 SID/End.DX6 SID绑定的下一跳地址和出接口转发给私网中的指定设备。
图24 按照下一跳分配的SRv6 SID
IP L3VPN over SRv6和EVPN L3VPN over SRv6组网的路由发布和报文转发过程类似,下文以IPv4 L3VPN over SRv6 BE为例进行介绍。
基于End.DT4 SID/End.DT6 SID/End.DT46 SID和基于End.DX4 SID/End.DX6 SID的路由发布过程类似,下文以基于End.DT4 SID的路由发布为例进行介绍。
PE 2通过IGP协议(以IS-IS路由为例)将End.DT4 SID所属Locator网段路由A2:1::/64发布给P和PE 1。PE 1和P收到PE 2发布的IS-IS路由后,将其学习到路由表中。
以CE 2为例,CE 2的私网路由通过MP-BGP发布到CE 1的过程如下:
(1) CE 2使用IGP或BGP,将本站点的私网路由2.2.2.2/32发布给PE 2。
(2) PE 2从CE 2学习到私网路由信息后,将私网路由存放到VPN实例A的路由表中。PE 2为私网路由增加RD和RT属性,并为私网路由分配End.DT4 SID A2:1::1,形成VPNv4路由。PE 2通过MP-BGP把VPNv4路由发布给PE 1。
(3) PE 1收到VPNv4路由后,将该路由加入到VPN实例A的路由表中,并将VPNv4路由转换成IPv4路由发布给CE 1。
(4) CE 1收到路由后,将其学习到路由表中。
图25 IPv4 L3VPN over SRv6 BE路由发布
(一) 基于End.DT4 SID/End.DT6 SID/End.DT46 SID的报文转发
完成路由发布后,目的地址为2.2.2.2报文从CE 1到CE 2的转发过程如下:
(1) CE 1发送目的地址为2.2.2.2的IPv4报文给PE 1。
(2) PE 1从绑定了VPN实例A的接口上收到私网报文后,在VPN实例A的路由表中查找匹配2.2.2.2的路由,找到对应的End.DT4 SID A2:1::1,然后为报文封装IPv6报文头。IPv6报文头中的源地址由管理员手工配置,目的地址为End.DT4 SID A2:1::1。
(3) PE 1根据End.DT4 SID A2:1::1查找IPv6路由表,通过最优IGP路由将报文转发给P。
(4) P根据End.DT4 SID A2:1::1查找IPv6路由表,通过最优IGP路由将报文转发给PE 2。
(5) PE 2收到目的IPv6地址为End.DT4 SID A2:1::1的报文后,解封装去掉IPv6报文头,并根据End.DT4 SID匹配VPN实例A,查找VPN实例A的路由表,将报文发送给CE 2。
图26 基于End.DT4 SID/End.DT6 SID/End.DT46 SID的报文转发
(二) 基于End.DX4 SID/End.DX6 SID的报文转发
完成路由发布后,目的地址为2.2.2.2报文从CE 1到CE 2的转发过程如下:
(1) CE 1发送目的地址为2.2.2.2的IPv4报文给PE 1。
(2) PE 1从绑定了VPN实例A的接口上收到私网报文后,在VPN实例A的路由表中查找匹配2.2.2.2的路由,找到对应的End.DX4 SID A2:2::1,然后为报文封装IPv6报文头。IPv6报文头中的源地址由管理员手工配置,目的地址为End.DX4 SID A2:2::1。
(3) PE 1根据End.DX4 SID A2:2::1查找IPv6路由表,通过最优IGP路由将报文转发给P。
(4) P根据End.DX4 SID A2:2::1查找IPv6路由表,通过最优IGP路由将报文转发给PE 2。
(5) PE 2收到目的IPv6地址为End.DX4 SID A2:2::1的报文后,解封装去掉IPv6报文头,并根据End.DX4 SID绑定的下一跳和出接口转发报文,将报文发送给CE 2。
图27 基于End.DX4 SID/End.DX6 SID的报文转发
L3VPN over SRv6 TE采用SRv6 TE Policy对应的转发路径(即SRv6 TE Policy隧道)作为公网隧道,承载VPN中的业务流量,为不同站点的相同VPN的用户提供三层互联,并保证不同VPN的用户相互隔离。
在L3VPN over SRv6 TE网络中,通过不同的引流方式,将VPN中的不同业务流量引入不同SRv6 TE Policy隧道,以满足用户的各种业务需求。例如,低延时的语音业务按照SRv6 TE Policy A的Path转发、高带宽的视频业务按照SRv6 TE Policy B的Path转发。
图28 L3VPN over SRv6 TE网络转发
根据承载VPN业务的不同,L3VPN over SRv6 TE分为:
· IP L3VPN over SRv6 TE Policy:PE之间通过VPNv4/VPNv6路由传递私网路由,以便承载三层VPN业务。
· EVPN L3VPN over SRv6 TE Policy:PE之间通过EVPN路由传递私网路由,以便同时承载二层VPN和三层VPN业务。
相较于L3VPN over SRv6 BE,L3VPN over SRv6 TE部署更加灵活、可靠。
表2 L3VPN over SRv6 TE/BE对比
|
技术 |
L3VPN over SRv6 TE |
L3VPN over SRv6 BE |
|
公网路由发布 |
所有SRv6节点在公网中发布自己的Locator路由 |
仅PE设备在公网中发布自己的Locator路由 |
|
源节点封装报文 |
SRH:封装SRv6 TE Policy的SID List和为私网路由分配的SRv6 SID IPv6基本头:SRv6 TE Policy的SID List的第一个SID作为目的地址 |
不封装SRH IPv6基本头:为私网路由分配的SRv6 SID作为目的地址 |
|
中间节点报文转发 |
SID列表中SID对应的SRv6节点根据SRH转发报文,其他节点查路由表转发报文 |
所有节点均查路由表转发报文 |
在L3VPN over SRv6 TE组网中,公网流量沿着SRv6 TE Policy的SID List转发。SID List中包括转发路径必须经过的SRv6节点的SRv6 SID。因此,这些中间节点必须支持SRv6。为了保证SID List中各个SRv6 SID所在设备可达,各设备需要发布SRv6 SID所在Locator网段的路由,即Locator路由。在L3VPN over SRv6 BE组网中,公网流量根据IGP路由查找IPv6路由表转发,因此,无需中间节点支持SRv6。
L3VPN over SRv6 TE和L3VPN over SRv6 BE使用的SRv6 SID、私网路由发布方式相同,二者工作机制的不同点如下表所示。
表3 L3VPN over SRv6 TE/BE工作机制对比
|
技术 |
L3VPN over SRv6 TE |
L3VPN over SRv6 BE |
|
公网路由发布 |
所有SRv6节点在公网中发布自己的Locator路由 |
仅PE设备在公网中发布自己的Locator路由 |
|
源节点封装报文 |
SRH:封装SRv6 TE Policy的SID List和为私网路由分配的SRv6 SID IPv6基本头:SRv6 TE Policy的SID List的第一个SID作为目的地址 |
不封装SRH IPv6基本头:为私网路由分配的SRv6 SID作为目的地址 |
|
中间节点报文转发 |
SID列表中SID对应的SRv6节点根据SRH转发报文,其他节点查路由表转发报文 |
所有节点均查路由表转发报文 |
|
IP L3VPN over SRv6 TE Policy和EVPN L3VPN over SRv6 TE Policy组网的路由发布和报文转发过程类似,下文以IPv4 L3VPN over SRv6 TE Policy为例进行介绍。 |
在L3VPN over SRv6 TE组网中,通常由控制器将SRv6 TE Policy相关配置下发到PE 1。在下图中,下发的SRv6 TE Policy的SID List为<6:5::1, 4:3::10>,即所经过的SRv6节点为P和PE 2。PE 1、P和PE 2通过IGP协议在公网发布Locator路由。
PE 2通过IGP(以IS-IS路由为例)协议将End.DT4 SID所在网段路由4:3::/64发布给P 2、P、P 1和PE 1。 P 2、P、P 1和PE 1收到PE 2发布的IGP路由后,将其学习到路由表中。同样, P 2、P、P 1、PE 1也发布自己的Locator路由。
以Color引流方式为例,CE 2的私网路由发布到CE 1的过程如下:
(1) CE 2使用IGP或BGP,将本站点的私网路由2.2.2.2/32发布给PE 2。
(2) PE 2从CE 2学习到私网路由信息后,将私网路由存放到VPN实例A的路由表中。PE 2为私网路由增加RD和RT属性,并为私网路由分配End.DT4 SID 4:3::1,形成VPNv4路由。PE 2通过MP-BGP把携带End.DT4 SID和Color扩展团体属性的VPNv4路由发布给PE 1。
(3) PE 1收到VPNv4路由后,将该路由加入到VPN实例A的路由表中,同时将VPNv4路由按Color引流方式引流到SRv6 TE Policy。PE 1将VPNv4路由转换成IPv4路由发布给CE 1。
(4) CE 1收到私网路由后,将其学习到路由表中。
图29 L3VPN over SRv6 TE路由发布
完成路由发布后,目的地址为2.2.2.2的报文从CE 1到CE 2的转发过程如下:
(1) CE 1发送目的地址为2.2.2.2的IPv4报文给PE 1。
(2) PE 1从绑定了VPN实例A的接口上收到私网报文后,在VPN实例A的路由表中查找匹配2.2.2.2的路由,找到对应的End.DT4 SID 4:3::1,且该路由下一跳为SRv6 TE Policy。然后PE 1执行如下操作:
· 封装SRH头:封装SRv6 TE Policy的SID List <6:5::1, 4:3::10>和End.DT4 SID 4:3::1。
· 封装IPv6基本头:IPv6基本头中的源地址由用户配置,目的地址为SRv6 TE Policy的SID List中第一个SID,即6:5::1。
· 根据封装的IPv6头中的目的地址查找路由表,将封装后的报文转发给P 1。
(3) P 1根据目的地址查找IPv6路由表,通过最优IGP路由将报文转发给P。
(4) P收到报文后,执行如下操作:
· 检查SRH头中的SL值,如果SL>0,将SL值减1,目的地址更新为SL指示的地址,即SL=1对应的Segment List [1]的IPv6地址4:3::10。
· 根据IPv6头中的目的地址查找路由表,将报文转发给P 2。
(5) P 2根据目的地址查找IPv6路由表,通过最优IGP路由将报文转发给PE 2。
(6) PE 2收到报文后,使用报文的IPv6目的地址查找Local SID表,匹配到End SID,将报文SL减1,IPv6目的地址更新为End.DT4 SID 4:3::1。然后,使用IPv6目的地址4:3::1查找Local SID表,匹配到End.DT4 SID,执行End.DT4 SID对应的转发动作,即解封装去掉IPv6报文头,并根据End.DT4 SID匹配VPN实例A,查找VPN实例A的路由表,将报文发送给CE 2。
图30 L3VPN over SRv6 TE报文转发
EVPN VPLS over SRv6是指通过SRv6 PW隧道承载EVPN VPLS业务。PE之间通过BGP EVPN路由发布SRv6 SID,建立SRv6隧道。该SRv6隧道作为SRv6 PW,封装并转发站点网络之间的二层数据报文,实现用户站点穿越IPv6网络建立点到多点连接。
图31 EVPN VPLS over SRv6架构
图32 EVPN VPLS over SRv6工作机制
在EVPN VPLS over SRv6网络中,PE通过BGP EVPN路由来交互SRv6 SID,主要分为两类SRv6 SID:
· 用于转发单播流量的SID:End.DX2 SID、 End.DT2U SID(通过配置可以决定采用End.DX2 SID或End.DT2U SID转发单播流量)
· 用于转发BUM流量的SID:End.DT2M SID
SRv6 SID类型与BGP EVPN路由之间关系的详细介绍,请参见下表。
表4 SRv6 SID与BGP EVPN路由的关系介绍
|
SRv6 SID类型F |
携带SID的BGP EVPN路由 |
SID的功能 |
|
End.DX2 SID |
AD per EVI路由 MAC/IP发布路由 |
标识一个AC,对应的转发动作是去掉IPv6报文头及其扩展头,然后将报文从指定的AC转发出去 |
|
End.DT2U SID |
AD per EVI路由 MAC/IP发布路由 |
标识一个VSI,对应的转发动作是去掉IPv6报文头及其扩展头,然后查找MAC地址表将报文转发到对应的出接口 |
|
End.DT2M SID |
IMET路由 |
标识一个VSI,对应的转发动作是去掉IPv6报文头及其扩展头,然后将报文在VSI内广播泛洪 |
PE间通过BGP EVPN路由(IMET路由、AD per EVI路由和MAC/IP发布路由)交互SRv6 SID,以建立SRv6 PW。如下图所示,以PE 1与PE 2交互IMET路由为例,建立SRv6 PW的过程为:
(1) PE 1、PE 2之间相互发布IMET路由,在IMET路由中携带本端为VSI分配的End.DT2M SID。
(2) PE 1和PE 2收到IMET路由后,建立本端PE到远端PE的单跳SRv6隧道,该隧道的SID标识为路由中的End.DT2M SID。
(3) PE 1建立本端(PE 1)到远端PE(PE 2)的单跳SRv6隧道,PE 2采用相同的方式建立PE 2到PE 1的单跳SRv6隧道,两条SRv6隧道组成一条SRv6 PW,用来承载用户二层数据。
图33 建立SRv6 PW
在EVPN VPLS over SRv6组网中,PE根据学习到的MAC地址表项转发二层报文。PE上MAC地址学习分为两部分:
· 本地MAC地址学习:PE接收到本地CE发送的报文后,判断该报文所属的VSI,并将报文中的源MAC地址(本地CE的MAC地址)添加到该VSI的MAC地址表中,该MAC地址的出接口为接收到报文的AC。
· 远端MAC地址学习:PE通过MAC/IP发布路由将本地学习的MAC地址通告给远端PE。远端PE接收到该信息后,将MAC添加到对应的VSI的MAC地址表中,该MAC地址的出接口为两个PE之间的SRv6 PW。
图34 EVPN VPLS over SRv6表项学习
EVPN VPLS over SRv6支持SRv6 BE、SRv6 TE和SRv6 TE/SRv6 BE混合三种报文转发方式。不同转发方式之间存在如下差异。
表5 EVPN VPLS over SRv6转发方式差异
|
转发方式 |
SRv6 TE方式 |
SRv6 BE方式 |
|
转发原理 |
根据报文属性查找匹配的SRv6 TE Policy,为报文添加携带End.DX2 SID(或End.DT2M SID、End.DT2U SID)和SRv6 TE Policy SID列表的SRH头后,通过SRv6 TE Policy转发该报文 |
根据封装的End.DX2 SID、End.DT2M SID或End.DT2U SID查找IPv6路由表进行转发 |
|
转发路径 |
支持基于Color、隧道策略等多种引流方式,可以根据不同转发需求灵活选择引流方式 通过规划SRv6 TE Policy中的SID List实现转发路径可控,可以根据业务需求选择合适的转发路径 |
通过IGP协议计算转发路径,转发路径不可规划 |
|
可靠性 |
SRv6 TE Policy中存在多条候选路径,支持主备路径备份 |
网络故障时,转发路径的切换速度取决于路由收敛速度 |
|
负载分担 |
候选路径中存在多个SID List,可以根据SID List的权重进行负载分担 |
基于Locator路由的负载分担 |
SRv6 TE/SRv6 BE混合方式:优先通过SRv6 TE方式选择转发路径;如果SRv6 TE方式未找到可用的SRv6 TE Policy,则通过SRv6 BE方式选择转发路径。
已知单播报文
图35 单播报文在EVPN VPLS over SRv6 BE组网中的转发过程
如上图所示,完成SRv6 PW建立后,以CE 1访问CE 3为例,已知单播报文在EVPN VPLS over SRv6 BE组网中的转发过程为:
(1) CE 1发送目的MAC地址为CE 2的二层报文给PE 1。
(2) PE 1从连接CE 1的AC上接收到二层报文后,在AC关联的VSI中查找MAC地址表,找到对应的出接口为SRv6 PW 1,并获取该隧道的End.DT2U SID或End.DX2 SID,即PE 2分配的End.DT2U SID A1或End.DX2 SID B1。
(3) PE 1为报文封装外层IPv6报文头,目的IPv6地址为End.DT2U SID A1或End.DX2 SID B1 ,源IPv6地址为配置的EVPN VPLS over SRv6封装IPv6报文头的源地址100::10。
(4) PE 1根据End.DT2U SID A1或End.DX2 SID B1查找IPv6路由表,通过最优IGP路由将报文转发给P。
(5) P根据End.DT2U SID A1或End.DX2 SID B1查找IPv6路由表,通过最优IGP路由将报文转发给PE 2。
(6) PE 2根据End.DT2U SID A1或End.DX2 SID B1查找Local SID表,执行End.DT2U SID或End.DX2 SID对应的转发动作:
· End.DT2U SID:解封装报文去掉IPv6报文头,并在End.DT2U SID所属的VSI内查找MAC地址表,根据查表结果将报文转发给CE 2。
· End.DX2 SID:解封装报文去掉IPv6报文头,并将报文转发给End.DX2 SID关联的AC。
广播、组播和未知单播报文
图36 未知单播报文在EVPN VPLS over SRv6 BE组网中的转发过程
如上图所示,完成SRv6 PW建立后,以CE 1访问CE 4且PE 1未学习到CE 4的MAC地址为例,未知单播报文在EVPN VPLS over SRv6 BE组网中的转发过程为:
(1) CE 1发送目的MAC地址为CE 4的二层报文给PE 1。
(2) PE 1从连接CE 1的AC上接收到二层报文后,在AC关联的VSI的MAC地址表中未找到匹配的MAC地址表项,则在VSI中查找PE 2、PE 3分配的End.DT2M SID。
(3) PE 1为报文封装外层IPv6报文头。其中,发往PE 2的报文目的IPv6地址为End.DT2M SID C1,发往PE 3的报文目的IPv6地址为End.DT2M SID C2;源IPv6地址均为配置的EVPN VPLS over SRv6封装IPv6报文头的源地址100::10。
(4) PE 1根据End.DT2M SID查找IPv6路由表,通过最优IGP路由将报文转发给P。
(5) P根据End.DT2M SID查找IPv6路由表,通过最优IGP路由将报文转发给PE 2和PE 3。
(6) PE 2和PE 3根据End.DT2M SID查找Local SID表,执行End.DT2M SID对应的转发动作,即解封装报文去掉IPv6报文头,并在End.DT2M SID所属的VSI内广播转发该报文。
图37 EVPN VPLS over SRv6 TE的报文转发过程
如上图所示,完成SRv6 PW建立后,以PE 1、P和PE 2为SRv6节点,P 1和P 2为非SRv6节点,CE 1访问CE 2为例,EVPN VPLS over SRv6 TE的报文转发过程为:
(1) CE 1发送目的MAC地址为CE 2的二层报文给PE 1 。
(2) PE 1从连接CE 1的AC上接收到二层报文后,在AC关联的VSI中查找MAC地址表。
· 若存在匹配的MAC地址,则根据表项的出接口(即SRv6 PW),获取该隧道的End.DT2U SID或End.DX2 SID;
· 若不存在匹配的MAC地址,则获取PE 2分配的End.DT2M SID,如果PE 1接收到多个远端PE分配的End.DT2M SID,则为二层报文分别封装多个End.DT2M SID,将该报文转发给所有的远端PE。
¡ 若获取到End.DT2U SID或End.DX2 SID,则PE 1基于携带该SID的MAC/IP发布路由的下一跳获取SRv6 TE Policy;若获取到End.DT2M SID,则PE 1基于携带该SID的IMET路由的下一跳获取SRv6 TE Policy。
¡ 封装SRH头:在SRH头中添加SRv6 TE Policy的SID List <6:5::1, 4:3::10>和步骤2中获取到的SID 4:3::1(此处以获取到End.DT2U SID 4:3::1为例)。
¡ 封装IPv6基本头:IPv6基本头中的源地址由用户配置,目的地址为SRv6 TE Policy的SID List中第一个SID,即6:5::1。
¡ 根据封装的IPv6头中的目的地址查找路由表,将封装后的报文转发给P 1。
(3) P 1根据目的地址查找IPv6路由表,通过最优IGP路由将报文转发给P。
(4) P收到报文后,执行如下操作:
· 检查SRH头中的SL值,如果SL>0,将SL值减1,目的地址更新为SL指示的地址,即SL=1对应的Segment List [1]的IPv6地址4:3::10。
· 根据IPv6头中的目的地址查找路由表,将报文转发给P 2。
(5) P 2根据目的地址查找IPv6路由表,通过最优IGP路由将报文转发给PE 2。
(6) PE 2根据报文携带的SID查找Local SID表,先去掉End SID,再基于下一层的SID查找Local SID表,不同类型的SID处理方式如下:
· End.DT2U SID:解封装报文去掉IPv6报文头,并在End.DT2U SID所属的VSI内查找MAC地址表,根据查表结果将报文转发给CE 2。
· End.DX2 SID:解封装报文去掉IPv6报文头,并将报文转发给End.DX2 SID关联的AC。
· End.DT2M SID:解封装报文去掉IPv6报文头,并在End.DT2M SID所属的VSI内广播转发该报文。
在多归属站点组网中,PE 2侧的AC链路故障时,PE 2会删除对应的MAC地址表项,并向PE 1及远端PE通告本地不可达信息撤销MAC地址,在此期间PE 3发送给PE 2的数据报文由于没有出接口,会被丢弃。EVPN VPLS over SRv6通过FRR功能解决该问题。在PE 2上启用FRR功能,使PE 2侧的AC故障时,不删除对应的MAC地址表项,而是将匹配该MAC地址表项的报文通过PE 2与PE 1间的Bypass SRv6 PW转发至PE 1,再由PE 1转发至CE 1,从而减少AC故障导致的丢包。
图38 FRR组网
如下图所示,如果PE 1和PE 2之间通过End.DT2U SID或End.DX2 SID建立Bypass SRv6 PW,则当PE 1和PE 2侧的AC链路均故障时,PE 1和PE 2会将从对端接收到的报文再次通过Bypass SRv6 PW转发给对端,造成短暂的环路。
图39 通过End.DT2U SID或End.DX2 SID建立Bypass SRv6 PW组网图
通过在PE 1和PE 2之间使用End.DT2UL SID或End.DX2L SID建立Bypass SRv6 PW,可以解决上述问题。End.DT2UL SID或End.DX2L SID用来标识报文来自Bypass SRv6 PW,携带该SID的报文不会再转发到Bypass SRv6 PW,从而避免产生环路。
CE 1通过链路聚合或者S-Trunk多归属于PE 1和PE 2,CE 2为PE 3下的单归属设备。通过在网络中建立SRv6 PW,实现用户站点的互联。通过部署FRR功能减小AC链路故障或SRv6 PW链路故障对网络造成的影响,提升网络的可靠性和稳定性。
图40 多归属+FRR组网
EVPN VPWS over SRv6是指通过SRv6 PW隧道承载EVPN VPWS业务。PE之间通过BGP EVPN路由发布SRv6 SID,建立SRv6隧道。该SRv6隧道作为SRv6 PW,封装并转发站点网络之间的二层数据报文,实现通过IPv6网络透明传输用户二层数据,实现用户网络穿越IPv6网络建立点到点连接。
图41 EVPN VPWS over SRv6架构
图42 EVPN VPWS over SRv6工作机制
在EVPN VPWS over SRv6组网环境中,主要涉及的SRv6 SID类型为End.DX2 SID。
PE设备为每个交叉连接分配一个End.DX2 SID,PE之间通过AD per EVI路由交互End.DX2 SID ,在PE之间建立SRv6 PW。
当PE设备收到携带End.DX2 SID的报文后,PE对报文进行解封装,根据End.DX2 SID标识的交叉连接查找AC,并通过该AC将报文转发给CE。
图43 EVPN VPWS over SRv6组网
动态建立是指PE间通过BGP EVPN路由交互End.DX2 SID,以建立SRv6 PW。动态建立SRv6 PW的过程为:
(1) PE 1向PE 2发布EVPN的以太网自动发现路由时,在该路由中携带本端的Service ID、本端为交叉连接分配的End.DX2 SID。
(2) PE 2接收到EVPN路由后,如果路由中携带的Service ID与本地配置的远端Service ID相同,则建立PE 2到PE 1的单跳SRv6隧道,该隧道的SID标识为路由中的End.DX2 SID。
(3) PE 1和PE 2均发布End.DX2 SID,并在两个方向上均建立单跳SRv6隧道后,两条SRv6隧道组成一条PW,用来承载用户二层数据。该PW称为SRv6 PW。
图44 动态建立SRv6 PW
静态建立SRv6 PW是通过在两端PE上分别配置本端和远端为交叉连接分配的SRv6 SID,实现在PE之间静态建立SRv6 PW。
图45 静态建立SRv6 PW
EVPN VPWS over SRv6支持SRv6 BE、SRv6 TE和SRv6 TE/SRv6 BE混合三种报文转发方式。不同转发方式之间存在如下差异。
表6 EVPN VPWS over SRv6报文转发差异
|
转发方式 |
SRv6 TE方式 |
SRv6 BE方式 |
|
转发原理 |
根据报文属性查找匹配的SRv6 TE Policy,为报文添加携带End.DX2 SID和SRv6 TE Policy SID列表的SRH头后,通过SRv6 TE Policy转发该报文 |
根据封装的End.DX2 SID查找IPv6路由表进行转发 |
|
转发路径 |
支持基于Color、隧道策略等多种引流方式,可以根据不同转发需求灵活选择引流方式 通过规划SRv6 TE Policy中的SID List实现转发路径可控,可以根据业务需求选择合适的转发路径 |
转发路径不可规划,通过IGP协议计算 |
|
可靠性 |
SRv6 TE Policy中存在多条候选路径,支持主备路径备份 |
网络故障时,转发路径的切换速度取决于路由收敛速度 |
|
负载分担 |
候选路径中存在多个SID List,可以根据SID List的权重进行负载分担 |
基于Locator路由的负载分担 |
SRv6 TE/SRv6 BE混合方式:优先通过SRv6 TE方式选择转发路径;如果SRv6 TE方式未找到可用的SRv6 TE Policy,则通过SRv6 BE方式选择转发路径。
完成SRv6 PW建立后,以CE 1访问CE 2为例,EVPN VPWS over SRv6 BE的报文转发过程为:
(1) CE 1发送目的MAC地址为2-2-2的二层报文给PE 1。
(2) PE 1从连接CE 1的AC上接收到二层报文后,查找与该AC关联的SRv6 PW,找到对应的End.DX2 SID A2:1::1,即PE 2为该交叉连接分配的End.DX2 SID。然后PE 1为报文封装外层IPv6报文头,目的IPv6地址为End.DX2 SID A2:1::1,源IPv6地址为配置的EVPN VPWS over SRv6封装IPv6报文头的源地址100::10。
(3) PE 1根据End.DX2 SID A2:1::1查找IPv6路由表,通过最优IGP路由将报文转发给P。
(4) P根据End.DX2 SID A2:1::1查找IPv6路由表,通过最优IGP路由将报文转发给PE 2。
(5) PE 2根据End.DX2 SID查找Local SID表,执行End.DX2 SID对应的转发动作,即解封装报文去掉外层IPv6报文头,根据End.DX2 SID匹配与其关联的AC,并通过该AC将报文转发给CE 2。
图46 EVPN VPWS over SRv6 BE的报文转发过程
完成SRv6 PW建立后,以PE 1、P和PE 2为SRv6节点,P 1和P 2为非SRv6节点,CE 1访问CE 2为例,EVPN VPWS over SRv6 TE的报文转发过程为:
(1) CE 1发送目的MAC地址为2-2-2的二层报文给PE 1 。
(2) PE 1从连接CE 1的AC上接收到二层报文后,查找与该AC关联的SRv6 PW,找到对应的End.DX2 SID 4:3::1,且该路由下一跳为SRv6 TE Policy。然后PE 1执行如下操作:
· 封装SRH头:封装SRv6 TE Policy的SID List <6:5::1, 4:3::10>和End.DX2 SID 4:3::1。
· 封装IPv6基本头:IPv6基本头中的源地址由用户配置,目的地址为SRv6 TE Policy的SID List中第一个SID,即6:5::1。
· 根据封装的IPv6头中的目的地址查找路由表,将封装后的报文转发给P 1。
(3) P 1根据目的地址查找IPv6路由表,通过最优IGP路由将报文转发给P。
(4) P收到报文后,执行如下操作:
· 检查SRH头中的SL值,如果SL>0,将SL值减1,目的地址更新为SL指示的地址,即SL=1对应的Segment List [1]的IPv6地址4:3::10。
· 根据IPv6头中的目的地址查找路由表,将报文转发给P 2。
(5) P 2根据目的地址查找IPv6路由表,通过最优IGP路由将报文转发给PE 2。
(6) PE 2根据End.DX2 SID查找Local SID表,执行End.DX2 SID对应的转发动作,即解封装报文去掉外层IPv6报文头,根据End.DX2 SID匹配与其关联的AC,并通过该AC将报文转发给CE 2。
图47 EVPN VPWS over SRv6 TE的报文转发过程
在多归属站点或主备SRv6 PW组网中,PE 2侧的AC链路故障时,PE 2会向PE 1及PE 3通告本地不可达信息,使流量不再通过PE 3与PE 2之间的SRv6 PW转发,在此期间PE 3发送给PE 2的数据报文无法转发到CE 1,会被丢弃。EVPN VPWS over SRv6通过Bypass PW功能解决该问题。在冗余备份组成员PE间建立Bypass SRv6 PW。当AC链路故障时,PE 2通过Bypass SRv6 PW临时将流量到转发到PE 1,再由PE 1转发到CE 1,从而减少丢包。
图48 Bypass PW组网
如果PE 1和PE 2之间通过End.DX2 SID建立Bypass SRv6 PW,则当PE 1和PE 2侧的AC链路均故障时,PE 1和PE 2会将从对端接收到的报文再次通过Bypass SRv6 PW转发给对端,造成短暂的环路。通过在PE 1和PE 2之间使用End.DX2L SID建立Bypass SRv6 PW,可以解决上述问题。End.DX2L SID用来标识报文来自Bypass SRv6 PW,携带该SID的报文不会再转发到Bypass SRv6 PW,从而避免产生环路。
图49 通过End.DX2 SID建立Bypass SRv6 PW组网
CE 1通过链路聚合或者S-Trunk多归属于PE 1和PE 2,CE 2为PE 3下的单归属设备。通过在网络中建立SRv6 PW,实现用户站点的互联。通过部署Bypass SRv6 PW和主备两条SRv6 PW减小AC链路故障或SRv6 PW链路故障对网络造成的影响,提升网络的可靠性和稳定性。
图50 多归属+FRR组网
当今互联网的发展越来越成熟,SRv6和MPLS网络逐渐成为高效、可靠、安全的网络方案的代表。然而,在实际应用中,由于两种网络的路由信息和报文封装方式存在差异,SRv6和MPLS网络之间的互通却成为了人们亟需解决的重要问题。
目前,有两种SRv6和MPLS网络互通的方式可供选择:一种是在网络边界设备上部署VPN实例;另一种是不部署VPN实例,采用Option B跨域方式。这两种方式实现原理不同。
根据骨干网结构不同,SRv6网络互通可分为:
· IP L3VPN over SRv6网络与MPLS L3VPN网络互通
· IP L3VPN over SRv6网络与EVPN L3VPN网络互通
· EVPN L3VPN over SRv6网络与MPLS L3VPN网络互通
· EVPN L3VPN over SRv6网络与EVPN L3VPN网络互通
即存在两种互通方式,四种互通类型,共八种场景。而使用同一种互通方式时,四种类型的网络互通实现原理类似,仅承载私网路由信息时使用的BGP路由类型存在差异,所以本次仅以IP L3VPN over SRv6网络与MPLS L3VPN网络互通为例,共详细介绍两种场景。
选择使用何种互通方式,需要综合考虑场景条件。下表列举了两种方式的特点和优劣势,供您参考。
表7 SRv6与MPLS 网络互通方式对比
|
网络边界设备部署VPN实例方式 |
Option B跨域方式 |
|
|
特点 |
无需跨域AS域(也可以跨AS域),网络边界设备必须对收到的私网路由进行重生成 |
需要跨域AS域,两侧网络承载私网路由使用的BGP路由类型相同时,网络边界设备可以无需重生成私网路由信息 |
|
使用场景 |
网络边界设备有VPN实例部署需求的场景 |
网络边界设备不允许部署VPN实例的场景 |
|
技术优势 |
· 网络边界设备可以将属于不同站点、不同VPN实例的私网路由信息统一收集到一个VPN实例,为这些私网路由在同一个VPN实例内分配SRv6 SID后再进行转发,以节省SRv6 SID资源 · 可兼容HoVPN架构,在HoVPN架构网络中实现SPE和UPE跨越不同类型的网络互通 |
· 网络边界设备无需部署VPN实例,可以单纯作为私网路由信息的“中转站”,部署难度低 · 由于无需重生成私网路由信息,传递私网路由时,可以最大限度地保证私网路由的信息完整性 |
图51 网络边界设备部署VPN组网图
在本组网中,PE 1和PE 2之间部署MPLS L3VPN网络,建立BGP VPNv4会话,PE 2和PE 3之间部署IP L3VPN over SRv6网络,建立BGP VPNv4会话。部署SRv6与MPLS网络互通后,CE 1和CE 2连接的私网用户之间才能互通。
互通主要在SRv6网络和MPLS网络的边界设备PE 2上实现,下面将从路由发布和报文转发两个方面来介绍SRv6网络和MPLS网络互通的工作机制。
CE 1到CE 2路由发布
图52 私网路由发布
如上图所示,PE 1和PE 2均部署VPN实例1,通过VPN实例1接入CE 1和CE 2,PE 2部署VPN实例 2。私网路由从CE 1发往CE 2的过程为:
(1) CE 1通过IGP、BGP或静态路由等方式将本地的私网路由10.1.1.0/24发布给PE 1。
(2) PE 1接收到私网路由信息后,将其添加到VPN实例1的IP路由表中,并为其增加RD 100:1和RT 100:1属性,生成BGP VPNv4路由。
(3) PE 1为私网路由信息生成的BGP VPNv4路由分配私网标签1279,并将该路由通过BGP VPNv4会话发布给PE 2。私网标签1279绑定的VPN实例为VPN实例1。
(4) PE 2本地VPN实例2配置的IRT 100:1与BGP VPNv4路由10.1.1.0/24携带的RT属性匹配,所以PE 2接收该路由、将其引入到VPN实例2并添加到VPN实例2的IP路由表中。
(5) PE 2重生成引入到VPN实例2中的BGP VPNv4路由10.1.1.0/24,重生成的BGP VPNv4路由10.1.1.0/24携带VPN实例2的RD 200:1以及ERT 200:1,并且,PE 2为其在VPN实例2中申请SRv6 SID 42:1::1(SRv6 SID类型可以为End.DT4 SID、End.DT6 SID、End.DT46 SID、End.DX4 SID或End.EX6 SID,本例中的SRv6 SID为End.DT4 SID)。
(6) PE 2将重生成的BGP VPNv4路由10.1.1.0/24发布给PE 3。
(7) PE 3本地VPN实例1配置的IRT 200:1与BGP VPNv4路由10.1.1.0/24携带的RT属性匹配,所以PE 3接收该路由、将其引入到VPN实例1并添加到VPN实例1的IP路由表中。
(8) PE 3通过IGP、BGP或静态路由等方式将VPN实例1的私网路由10.1.1.0/24发布给CE 2。
在上述过程中,骨干网各设备在私网路由发布过程中形成的IP路由表项如下表所示:
表8 骨干网设备IP路由
|
设备名称 |
目的地址 |
所属VPN实例 |
下一跳 |
|
PE 1 |
10.1.1.0/24 |
VPN 1 |
CE 1 |
|
PE 2 |
10.1.1.0/24 |
VPN 2 |
指向PE 1的标签转发路径 |
|
PE 3 |
10.1.1.0/24 |
VPN 1 |
指向PE 2的SRv6隧道 |
如下图所示,PE 2和PE 3需要通过IGP协议向对方发布各自的Locator网段路由信息。PE 2发布的Locator网段路由前缀为42:1::,PE 3发布的Locator网段路由前缀为43:1::。
图53 Locator网段路由发布
CE 2到CE 1报文转发
图54 报文转发
如上图所示,以SRv6 BE转发方式为例,报文从CE 2发往CE 1的过程为:
(1) CE 2在私网数据上封装IPv4报文头,源地址为20.1.1.1,目的地址为10.1.1.1,形成私网报文发送给PE 3。
(2) PE 3收到私网报文后,查找VPN实例1的IP路由表,查找到前缀为10.1.1.0/24的路由,该路由对应的SRv6 SID为42:1::1。PE 3为私网报文封装外层IPv6报文头,封装的外层IPv6报文头的目的IPv6地址为该SRv6 SID。
(3) PE 3根据封装后报文的外层目的IPv6地址查找公网IP路由表,找到PE 2发布的Locator网段路由,然后根据该路由将报文发送给PE 2。
(4) PE 2收到报文后,发现外层目的IPv6地址是本地的End.DT4 SID,解封装该报文的外层IPv6头,在End.DT4 SID 42:1::1对应的VPN实例2中查找IP路由表。PE 2找到来自PE 1的前缀为10.1.1.0/24的路由,该路由对应的私网标签为1279。因此,PE 2为报文封装内层私网标签1279以及外层公网标签,将报文沿着标签转发路径转发给PE 1。
(5) PE 1收到报文后,将外层公网标签弹出,根据内层私网标签1279判断报文属于VPN实例1,在VPN实例1中查找路由表。PE 1查找到来自CE 1的前缀为10.1.1.0/24的路由,然后根据该路由将报文的标签全部弹出后转发给CE 1。
图55 Option B跨域组网
如上图所示,PE 1和ASBR 1之间部署MPLS L3VPN网络,建立IBGP VPNv4会话;ASBR 1和ASBR 2之间部署MPLS L3VPN网络,建立EBGP VPNv4会话;ASBR 2和PE 2之间部署IP L3VPN over SRv6网络,建立IBGP VPNv4会话。部署SRv6与MPLS网络互通后,CE 1和CE 2连接的私网用户之间才能互通。
SRv6网络与MPLS网络互通的Option B跨域方式需要借助一类特殊SID——End.T SID来实现。SRv6网络中的ASBR会为来自MPLS网络的私网路由分配并添加End.T SID。End.T SID对应的转发动作为剥掉外层IPv6头,并根据End.T SID查找IPv6 FIB表转发报文。
CE 1到CE 2路由发布
图56 CE 1到CE 2路由发布
如上图所示,PE 1和PE 2均部署VPN实例1,通过VPN实例1接入CE 1和CE 2。私网路由从CE 1发往CE 2的过程为:
(1) CE 1通过IGP、BGP或静态路由等方式将本地的私网路由10.1.1.0/24发布给PE 1。
(2) PE 1接收到私网路由信息后,将其添加到VPN实例1的IP路由表中,并为其增加RD 100:1和RT 100:1属性,生成BGP VPNv4路由。
(3) PE 1为私网路由信息生成的BGP VPNv4路由分配私网标签1279,并将该路由通过IBGP VPNv4会话发布给ASBR 1。私网标签1279绑定的VPN实例为VPN实例1。
(4) ASBR 1接收PE 1发布的BGP VPNv4路由10.1.1.0/24,将路由的下一跳修改为自身的地址,并为路由分配新的私网标签1234来替代原私网标签1279。
(5) ASBR 1在本地的ILM表项信息中增加BGP VPNv4路由10.1.1.0/24新旧标签的映射表项:入标签为新标签1234时,将其替换为旧标签1279,并发往PE 1,如下图所示。
表9 ASBR 1标签映射
|
InLabel |
Operation |
SwapInfo |
Forwarding Info |
|
1234 |
SWAP |
1279 |
发往PE1 |
(6) ASBR 1将携带私网标签1234的BGP VPNv4路由10.1.1.0/24通过EBGP VPNv4会话发布给ASBR 2。
(7) ASBR 2从ASBR 1接收到BGP VPNv4路由后,将路由的下一跳修改为自身的地址,为路由分配End.T SID 42:1::1,并生成如下图所示的IPv6 FIB表项。可以看到,通过IPv6 FIB表项,路由携带的End.T SID 42:1::1与路由携带的私网标签1234产生了关联。根据此表项以及私网标签1234对应的NHLFE表项,目的地址为End.T SID 42:1::1的报文在ASBR 2上会被封装上私网标签1234,并发往ASBR 1。
表10 ASBR IPv6 FIB表项
|
Destination |
Lable |
|
42:1::1 |
1234 |
(8) ASBR 2将添加了End.T SID 42:1::1后的BGP VPNv4路由10.1.1.0/24通过IBGP VPNv4会话发布给PE 2。
(9) PE 2本地VPN实例1配置的IRT 100:1与BGP VPNv4路由10.1.1.0/24携带的RT属性匹配,所以PE 2接收该路由,将其引入到VPN实例1,并添加到VPN实例1的IP路由表中。
(10) PE 2通过IGP、BGP或静态路由等方式将VPN实例1的私网路由10.1.1.0/24发布给CE 2。
CE 2到CE 1路由发布
图57 CE 2到CE 1路由发布
如上图所示,私网路由从CE 2发往CE 1的过程为:
(1) CE 2通过IGP、BGP或静态路由等方式将本地的私网路由20.1.1.0/24发布给PE 2。
(2) PE 2接收到私网路由信息后,将其添加到VPN实例1的IP路由表中,并为其增加RD 100:1和RT 100:1属性,生成BGP VPNv4路由。
(3) PE 2为私网路由信息生成的BGP VPNv4路由在VPN实例1内申请SRv6 SID 43:1::1(SRv6 SID类型可以为End.DT4 SID、End.DT6 SID、End.DT46 SID、End.DX4 SID或End.EX6 SID,本例中的SRv6 SID为End.DT4 SID),并将该路由通过IBGP VPNv4会话发布给ASBR 2。
(4) ASBR 2接收PE 2发布的BGP VPNv4路由20.1.1.0/24,将路由的下一跳修改为自身的地址,为路由分配私网标签1150,并在本地的ILM表项信息中增加私网标签和SRv6 SID的如下映射表项。可以看到,通过ILM表项,ASBR 2将路由携带的End.DT4 SID 43:1::1与为该路由分配的私网标签1150产生了关联,携带私网标签1150的报文在ASBR 2上会被增加目的IPv6地址为End.DT4 SID 43:1::1的SRv6封装,并发往PE 2。
表11 ASBR 2标签映射
|
InLabel |
Operation |
SwapInfo |
Forwarding Info |
|
1150 |
SWAP |
43:1:1 |
发往PE2 |
(5) ASBR 2将携带私网标签1150的BGP VPNv4路由20.1.1.0/24通过EBGP VPNv4会话发布给ASBR 1。
(6) ASBR 1从ASBR 2接收到BGP VPNv4路由后,将路由的下一跳修改为自身的地址,并为路由分配新的私网标签1277来替代原私网标签1150。
(7) ASBR 1在本地的ILM表项信息中增加BGP VPNv4路由20.1.1.0/24新旧标签的映射表项:入标签为新标签1277时,将其替换为旧标签1150并发往ASBR 2。
表12 ASBR 1标签映射
|
InLabel |
Operation |
SwapInfo |
Forwarding Info |
|
1277 |
SWAP |
1150 |
发往ASBR2 |
(8) ASBR 1将携带私网标签1277的BGP VPNv4路由20.1.1.0/24通过IBGP VPNv4会话发布给PE 1。
(9) PE 1本地VPN实例1配置的IRT 100:1与BGP VPNv4路由20.1.1.0/24携带的RT属性匹配,所以PE 1接收该路由,将其引入到VPN实例1,并添加到VPN实例1的IP路由表中。
(10) PE 1通过IGP、BGP或静态路由等方式将VPN实例1的私网路由20.1.1.0/24发布给CE 1。
如下图所示,ASBR 2和PE 2需要通过IGP协议向对方发布各自的Locator网段路由信息。ASBR 2发布的Locator网段路由前缀为42:1::,PE 2发布的Locator网段路由前缀为43:1::。
图58 Locator网段路由发布
CE 1到CE 2报文转发
图59 报文转发
如上图所示,以SRv6 BE转发方式为例,报文从CE 1发往CE 2的过程为:
(1) CE 1在私网数据上封装IPv4报文头,源地址为10.1.1.1,目的地址为20.1.1.1,形成私网报文发送给PE 1。
(2) PE 1收到私网报文后,查找VPN实例1的IP路由表,查找到前缀为20.1.1.0/24的路由,该路由对应的私网标签为1277。PE 1 为报文私网报文封装内层私网标签1277以及外层公网标签,将报文沿着标签转发路径转发给ASBR 1。
(3) ASBR 1收到报文后,将外层公网标签弹出,根据内层私网标签1277对应的ILM表项将该私网标签替换为私网标签1150。由于ASBR 1和ASBR 2只存在一跳标签转发路径,ASBR 1将仅携带一层私网标签1150的报文直接转发给ASBR 2。
(4) ASBR 2收到报文后,根据私网标签1150对应的ILM表项,将私网标签1150弹出后重新为其封装外层IPv6报文头,封装的外层IPv6报文头的目的IPv6地址为私网标签1150映射的End.DT4 SID 43:1::1。
(5) ASBR 2根据封装的报文外层目的IPv6地址查找公网IP路由表,找到PE 2发布的Locator网段路由,然后根据该路由将报文发送给PE 2。
(6) PE 2收到报文后,发现外层目的IPv6地址是本地的End.DT4 SID,解封装该报文的外层IPv6头,在End.DT4 SID 43:1::1对应的VPN实例1中查找IP路由表,找到来自CE 2的前缀为20.1.1.0/24的路由,根据该路由将报文转发给CE 2。
CE 2到CE 1报文转发
图60 报文转发
如上图所示,以SRv6 BE转发方式为例,报文从CE 2发往CE 1的过程为:
(1) CE 2在私网数据上封装IPv4报文头,源地址为20.1.1.1,目的地址为10.1.1.1,形成私网报文发送给PE 2。
(2) PE 2收到私网报文后,查找VPN实例1的IP路由表,查找到前缀为10.1.1.0/24的路由,该路由对应的SRv6 SID为42:1::1。PE 2为私网报文封装外层IPv6报文头,封装的外层IPv6报文头的目的IPv6地址为该SRv6 SID。
(3) PE 2根据封装的报文外层目的IPv6地址查找公网IP路由表,找到ASBR 2发布的Locator网段路由,然后根据该路由将报文发送给ASBR 2。
(4) ASBR 2收到报文后,发现外层目的IPv6地址是本地的End.T SID,解封装该报文的外层IPv6头,在本地查找IPv6 FIB表。根据查找到的IPv6 FIB表项,ASBR 2为报文封装内层私网标签1234。由于ASBR 1和ASBR 2只存在一跳标签转发路径,ASBR 2将仅携带一层私网标签1234的报文直接转发给ASBR 1。
(5) ASBR 1收到报文后,根据私网标签1234对应的ILM表项将该私网标签替换为私网标签1279,并为报文额外添加外层公网标签,将报文沿着标签转发路径转发给PE 1。
(6) PE 1收到报文后,将外层公网标签弹出,根据内层私网标签1279判断报文属于VPN实例1,在VPN实例1中查找路由表。PE 1查找到来自CE 1的前缀为10.1.1.0/24的路由,然后根据该路由将报文的标签全部弹出后转发给CE 1。
在SRv6网络中,链路或节点设备发生故障、故障恢复时,可能会产生丢包。为了保证SRv6网络中的业务流量稳定转发,SRv6提供了高可靠性措施,避免业务流量长时间中断,提高网络质量。
图61 SRv6可靠性
SRv6网络提供了如下几类可靠性机制:
· 节点链路级保护:TI-LFA FRR、SRv6 TE FRR、SRv6尾节点保护。
· 瞬时环路保护:SRv6防微环。
· 路径级保护:SRv6 TE Policy的多级保护。
如下图所示的组网中,目标流沿着最优转发路径抵达目的节点,管理员从目标流的最优转发路径上选定被保护的链路或者节点,在被保护链路直连的上游节点或被保护节点的上游邻居节点上开启TI-LFA FRR保护功能,该节点被称为PLR(Point of Local Repair,本地修复节点)。TI-LFA FRR保护链路和节点的流程如下:
(1) PLR运行TI-LFA FRR算法,并基于SRv6 SID自动计算并生成一条严格显式路径,这条严格显式路径不经过被保护的链路或节点,并作为FRR备份保护路径,装载在路由表中。
(2) 当被保护链路中断或被保护节点故障,而网络中的IGP路由协议暂未收敛时,PLR无法通过最优转发路径转发流量,流量将快速切换到TI-LFA FRR备份路径上进行转发,从而避免了路由收敛过程中的流量丢失。
(3) 当IGP路由协议收敛后,PLR将流量按照收敛后的路径转发。
网络拓扑中只要存在次优的路径,TI-LFA FRR就可以计算出备份路径。但由于故障节点和链路是不可预知的,网络管理员需要在多个节点上开启TI-LFA FRR保护功能。
图62 TI-LFA FRR保护
如下图所示的组网中,如果节点E是从源节点A到尾节点F的SRv6 TE Policy的必经节点,即SRv6 TE Policy的所有候选路径的SID列表都存在节点E的SID,则需要对节点E进行保护。如果节点E发生故障,对于其上游邻居节点B,报文的目的地址为节点E,在节点B上如果仅开启TI-LFA FRR保护功能,则只会计算到目的地址E的备份路径,而无法绕过节点E起到保护作用,此时,还需要在B节点上开启SRv6 TE FRR功能,使报文忽略目的地址E,绕过节点E,抵达尾节点F。开启了SRv6 TE FRR功能的节点B被称为代理转发节点。因故障无法预测,如果必经节点或链路较多,可以在多个节点上开启SRv6 TE FRR功能。
图63 SRv6 TE FRR保护
SRv6 TE FRR保护绕过必经节点E的流程如下:
(1) 代理转发节点B感知到报文的下一跳E不可达,同时E是报文目的地址,且SL>0,B将SL减1,并将下层SID F复制到外层IPv6报文头的目的地址字段。此时由于SL=0,节点B可以去掉SRH扩展报文头,然后根据目的地址F查表转发。
(2) 当路由未收敛时,节点B上目的地址F的主下一跳依然是故障节点E。此时,节点B按照TI-LFA FRR备份路径将报文从C节点转发到节点F。
(3) 当路由收敛后,节点B上也可以触发代理转发流程,绕过节点E,根据目的地址F按照收敛后的最优转发路径将流量转发给目的节点。
如下图所示的IPv4 L3VPN over SRv6组网中,SRv6隧道的尾节点为C,CE属于VPN实例A,并双归属到C和F。VPN业务流量正常转发路径为A -> B -> C-> CE。为了保护尾节点,可以在CE双归属的节点F配置镜像保护的End.M SID(Mirror SID)来保护尾节点C的SRv6 Locator。
图64 SRv6尾节点保护
尾节点保护流程为:
(1) 尾节点C将携带了End.DT4 SID、RD、RT的VPNv4路由发布给F,该SID和End.M保护Locator段匹配,F节点生成<3::10,VPN A>的映射表项。
(2) F节点将End.M及其保护的Locator段发布给IGP邻居。B作为被保护Locator段的直连邻居,将计算生成去往End.M SID(Mirror SID)的TI-LFA FRR备份保护路径。
(3) 尾节点C故障,邻居节点B发现下一跳C不可达,迅速将流量切换到FRR保护路径转发。B节点为原SRv6报文封装新的IPv6报文头和SRH扩展报文头,其中SRH为可选,SRH中携带了严格显式路径的SID列表,使流量正常绕行尾节点C抵达节点F。
(4) 尾节点F接收到报文后,根据End.M SID解封装外层IPv6报文头和SRH扩展报文头,内层报文的目的地址为3::10,根据远端SRv6 SID和VPN实例映射表,找到对应VPN实例A,将流量转发给CE。
在网络故障或故障恢复期间,IGP路由会重新计算并收敛。由于网络中各节点的收敛速度不同,不同节点IGP收敛可能存在不同步情况,导致流量在这些节点间产生短时环路。当所有节点IGP均收敛后,这种短时环路会自动消失。这种短时环路被称为Microloop(即微环)。微环可能导致网络丢包、时延抖动等问题。
节点上开启SRv6防微环功能后,该节点会计算一条由SRv6 SID组成的严格显式路径,当本节点完成收敛后启动定时器,在定时器超时前按严格显式路径转发流量,从而避免其他节点未同步收敛而导致的微环。
故障节点不可预测,因此,需要在多个网络节点开启SRv6防微环功能。
正切防微环
图65 正切防微环保护
节点B故障,从A到目的节点C的流量通过TI-LFA FRR备份路径转发,当节点A的IGP先收敛,但节点D的IGP未收敛时,节点A退出TI-LFA FRR转发流程,直接使用节点C的地址作为目的地址,将流量转发流量到D。节点D暂未收敛,D仍会将流量返回A,此时A和D之间形成正切微环。
此时,在节点A开启SRv6防微环功能,节点A在IGP收敛后,仍保留TI-LFA FRR备份路径,并且启动定时器T。在定时器超时前,流量始终沿着TI-LFA FRR备份路径转发,定时器超时后,流量才会切换到收敛后的路径转发,从而避免正切微环问题。对于正切防微环需要节点同时开启TI-LFA FRR功能。
回切防微环
图66 回切防微环保护
节点B和C之间的链路故障恢复,当节点E的IGP先收敛,但节点B的IGP未收敛时,从A到目的节点C的流量仍通过路径B -> E -> F ->C转发,节点E则会将流量返回给B,此时B和E之间形成回切微环。
此时,在节点E开启SRv6防微环功能,节点E在IGP收敛时,计算出一条携带了B到C之间链路End.X SID的严格显式路径,并且启动定时器T。在定时器超时前,流量沿着严格显式路径转发,从而避免回切微环。回切防微环无法预测是哪条链路故障恢复,因此严格显式路径可能包含多个链路的End.X SID。
如下图所示的组网中,源节点A和尾节点C之间存在一个SRv6 TE Policy,SRv6 TE Policy的候选路径和SID列表支持多种保护机制。
该SRv6 TE Policy中存在三条候选路径x、y和z,候选路径支持多级的热备保护:
(1) x作为主用候选路径,主用候选路径的所有SID列表故障,则切换到备用候选路径y。
(2) y作为备用候选路径,备用候选路径的所有SID列表故障,则切换到二级备用候选路径z。
同一条候选路径中,流量在多个SID列表所表示的路径上负载分担。同时,SID列表又支持指定备份的SID列表。
例如,SID列表a的转发路径故障后,流量可以切换到备份SID列表e上转发,备份SID列表故障后,候选路径x的流量仅在SID列表b中转发,SID列表a、b和e都故障时,再切换到备用候选路径y中转发。
通过SID列表的备份、SID列表之间的流量负载分担和候选路径的热备保护,可以为SRv6 TE Policy提供多层次路径保护能力,提高SRv6 TE Policy流量转发的可靠性。
图67 SRv6 TE Policy的多级保护
对于任意网络,故障都是不可预测的,但网络故障可以简单分类为:
· 单点故障:某个时刻,网络中某条链路或者某个节点发生的故障。
· 多点故障:某个时刻,网络中多个节点和链路同时故障。
不同的SRv6可靠性机制适用于不同的故障场景:
· 单点故障保护:TI-LFA FRR、SRv6 TE FRR和SRv6尾节点保护均用于特定的单点故障修复,三者配合可以实现对SRv6隧道中所有类型的节点或链路进行保护。但是对于多点故障,则需要在转发路径上多个节点均部署TI-LFA FRR、SRv6 TE FRR和SRv6尾节点保护,配置部署不够简便。
¡ TI-LFA FRR机制主要用于修复非必经的SRv6中转节点或链路的单点故障。TI-LFA FRR算法在SRv6 TE FRR、SRv6尾节点保护、SRv6防微环等可靠性机制中均发挥了关键作用,是实现SRv6可靠性机制的基础。
¡ SRv6 TE FRR机制用于修复SRv6 TE Policy组网场景中必经的SRv6 Endpoint节点或链路的单点故障,弥补了TI-LFA FRR不能保护必经节点或链路的不足。
¡ SRv6尾节点保护机制用于修复VPN over SRv6场景中SRv6隧道尾节点的单点故障。也是TI-LFA FRR的一种补充。
· 多点故障保护:利用SRv6 TE Policy的多级保护,则可以很方便地部署对整条转发路径的保护。但在SRv6 BE组网场景或者SRv6 TE Policy仅有一条候选路径和SID列表情况下,仍然需要TI-LFA FRR、SRv6 TE FRR和SRv6尾节点保护机制。
· 故障衍生的防护:通常在部署TI-LFA FRR保护单点故障的同时,还需要部署SRv6防微环技术来避免故障衍生出来的微环问题。
图68 不同的故障场景可使用不同的SRv6可靠性机制
在SRv6 TE Policy组网场景中,管理员需要将报文转发路径上的SRv6节点的128-bit SRv6 SID添加到SRv6 TE Policy的SID列表中。因此,路径越长,SRv6 TE Policy的SID列表中SRv6 SID数目越多,SRv6报文头开销也越大,导致设备转发开销大。在跨越多个AS域的场景中,端到端的SRv6 SID数目可能更多,报文开销问题更加严峻。
图69 SRv6 TE Policy组网中SRv6 SID情况
Generalized SRv6(G-SRv6)通过对128-bit SRv6 SID进行压缩,在SRH的Segment List中封装更短的SRv6 SID(G-SID),来减少SRv6报文头的开销,从而提高SRv6报文的转发效率。同时,G-SRv6支持将128-bit SRv6 SID和G-SID混合编排到Segment List中。
部署SRv6时,通常会规划出一个地址块,专门用于SRv6 SID的分配,这个地址块称为SID Space。在一个SRv6域中,SRv6 SID均从SID Space中分配,具有相同的前缀(即公共前缀Common Prefix)。因此,Segment List中SRv6 SID的公共前缀是冗余信息。G-SRv6将Segment List中SRv6 SID的Common Prefix移除,仅携带SRv6 SID中的可变部分,即压缩SID(G-SID),可以有效减少SRv6报文头开销。报文转发过程中,在根据SRH头中的Segment List替换报文的目的地址时,将G-SID与Common Prefix拼接形成新的目的地址,继续查表转发。
G-SRv6对SRv6 SID进行压缩时,既要保证高效压缩,又要兼顾网络规模等需求。综合考虑,32比特是当前较为理想的压缩后SID长度。
· 兼容性良好
G-SRv6支持32-bit G-SID和128-bit SRv6 SID混合编排,实现网络平滑升级。
· 压缩效率高
采用32比特压缩,提高了压缩效率,又与当前的IPv4地址长度一致,便于当前硬件处理。
· 组网方式灵活
G-SRv6既支持对AS域内的SID进行压缩,也支持对域间的SID进行压缩,便于建立跨越多个AS域的压缩路径。
SRv6 SID采用128-bit的IPv6地址形式。
图70 128-bit的G-SID格式
SRv6 SID由Locator、Function、Arguments和MBZ四部分组成:
· Locator:标识SRv6 SID所属的网段。Locator全网唯一。
· Function:标识与SRv6 SID绑定的本地操作指令。SRv6节点收到SRv6报文后,根据报文中SRv6 SID携带的Function字段执行相应操作,例如通过指定接口转发SRv6报文。
· Arguments(Args):定义报文的流和服务等信息。
· MBZ(Must be zero):当Locator、Function和Arguments的位数之和小于128比特时,其他位使用0补齐。
图71 Locator组成
SRv6 SID的Locator部分可以细分为Common Prefix和Node ID。其中,Common Prefix表示公共前缀地址;Node ID表示节点标识。具有相同Common Prefix的SRv6 SID可以进行压缩,形成32-bit G-SID。
32-bit G-SID由128-bit SRv6 SID中的Node ID和Function组成。
128-bit SRv6 SID和32-bit G-SID的转换关系为:
128-bit SRv6 SID = Common Prefix + 32-bit G-SID + 0 (Args&MBZ)
图72 32-bit的G-SID格式
部署G-SID时,管理员需要提前规划Locator段长度、Common Prefix、Args段长度。如下图所示,Locator段长度为64、Common Prefix为10:20:30::/48、Args段长度为16。Common Prefix(48位)、G-SID(32位)和Args段(16位)的总长度为96位,因此,MBZ段长度为128-96=32位。
图73 32-bit的G-SID格式长度
根据各个字段的长度,可以计算出如下范围内的SRv6 SID需要压缩为G-SID:
· 起始值为10:20:30:1::,即G-SID所占位中,最低位为1。
· 结束值为10:20:30:FFFF:FFFF::,即G-SID所占位中,所有位为1。
管理员需要在该范围内规划G-SID。
G-SRv6可以将G-SID和128-bit SRv6 SID混合编排在SRH的Segment List中。为准确定位G-SID,需要在原本封装128-bit SRv6 SID的位置封装4个32-bit G-SID。如果封装的G-SID不足4个,即不足128比特,则需要用0补齐,对齐128比特。128比特中封装的G-SID称为一组G-SID。多个连续的G-SID组成一段压缩路径,称为G-SID List。
G-SID在Segment List中的排列规则为:
(1) G-SID List的前一个SRv6 SID为携带COC标记(详细介绍见下文报文结构)的128-bit SRv6 SID,标识下一个SID为32-bit G-SID。
(2) 除G-SID List中的最后一个G-SID外,其余G-SID必须携带COC标记,标识下一个SID为32-bit G-SID。
(3) G-SID List的最后一个G-SID必须是未携带COC标记的32-bit G-SID,标识下一个SID为128-bit SRv6 SID。
|
|
图74 G-SRv6报文格式
如下图所示,使用G-SID计算目的地址的方法为将Segment List中的G-SID与Common Prefix拼接形成新的目的地址。其中:
· Common Prefix:公共前缀,由管理员手工配置。
· G-SID:按照32比特进行压缩的SID,从SRH中获取。
· SI(SID Index):用于在一组G-SID中定位G-SID。SI为目的地址的最低两位,取值为0-3。每经过一个对SID进行压缩的节点,SI值减1。如果SI值为0,则将SL值减1。如下图所示,在Segment List的一组G-SID中,G-SID按照SI从小到大的顺序从左到右依次排列,即最左侧的G-SID的SI为0,最右侧的G-SID的SI为3。
图75 G-SID排列
· 0:若Common Prefix、G-SID和SI的位数之和不足128比特,则中间位使用0补齐。
如果SRv6节点上管理员部署的Common Prefix为A:0:0:0::/64、SRv6报文中的当前的G-SID为1:1,该G-SID对应的SI为3,则组合成的目的地址为A:0:0:0:1:1::3。
图76 G-SID中间位为0
SRv6节点收到G-SRv6报文后,不同情况下,报文目的地址计算方法为:
· 如果当前报文的目的地址在Segment List中为携带COC标记的128-bit SRv6 SID,则表示下一个SID为G-SID,将SL-1,根据[SL-1]值定位所处的G-SID组,并按照上述方法根据[SI=3]对应的32-bit G-SID计算目的地址。
· 如果当前报文的目的地址在Segment List中为携带COC标记的32-bit G-SID,则表示下一个SID为G-SID:
¡ 如果SI>0,则将SI-1,根据报文当前的SL值定位所处的G-SID组,并按照上述方法根据[SI-1]对应的32-bit G-SID计算目的地址。
¡ 如果SI=0,则将SL-1、将SI值重置,即将SI设置为3,根据报文当前的SL值定位所处的G-SID组,并按照上述方法根据[SI=3]对应的32-bit G-SID计算目的地址。
在跨域的SRv6 TE Policy组网环境中,为了减少SRv6报文头开销,可以在域内部署G-SRv6,对SRv6 SID进行压缩。如下图所示,以IPv4 L3VPN over SRv6 TE Policy为例,在不同AS内部署不同公共前缀的G-SID,以减少报文中Segment List长度,提高设备的转发效率。
图77 G-SRv6组网
PE 1作为SRv6 TE Policy的源节点,该节点的End.X SID无需添加到SRv6 TE Policy的SID列表中。为了对域内其他节点的SRv6 SID进行压缩,需要P 1的SRv6 SID携带COC标记。
各AS域的SRv6 SID规划如下:
表13 各AS域的SRv6 SID规划
|
域 |
Common Prefix |
G-SID Length |
Args Length |
MBZ Length |
|
AS 1 |
A:0:0:0::/64 |
32 |
32 |
0 |
|
AS 2 |
B:0:0:0::/64 |
32 |
32 |
0 |
各AS域的SRv6 SID说明如下:
表14 各AS域的SRv6 SID说明
|
域 |
设备名称 |
SRv6 SID |
说明 |
是否被压缩 |
|
AS 1 |
PE 1 |
A:0:0:0:10:1:: |
End.X SID,不添加到SID列表中 |
否 |
|
P 1 |
A:0:0:0:1:1:: |
携带COC标记的End.X SID |
否 |
|
|
P 2 |
A:0:0:0:2:1:: |
携带COC标记的End.X SID |
是 |
|
|
ASBR 1 |
A:0:0:0:20:2:: |
未携带COC标记的End.X SID |
是 |
|
|
AS 2 |
ASBR 2 |
B:0:0:0:30:1:: |
携带COC标记的End.X SID |
否 |
|
P 3 |
B:0:0:0:3:1:: |
携带COC标记的End.X SID |
是 |
|
|
P 4 |
B:0:0:0:4:2:: |
未携带COC标记的End.X SID |
是 |
|
|
PE 2 |
B:0:0:0:40:1::2 |
为私网路由分配的End.DT4 SID 有关End.DT4 SID的详细介绍,请参见“L3VPN over SRv6 BE”章节 |
否 |
在PE 1和PE 2之间建立跨域的SRv6 TE Policy。在SRv6 TE Policy的SID列表中,SRv6 SID按照报文转发路径上节点由近到远的顺序排列,SID列表为:<A:0:0:0:1:1::, A:0:0:0:2:1::, A:0:0:0:20:2::, B:0:0:0:30:1::, B:0:0:0:3:1::, B:0:0:0:4:2::>
图78 G-SRv6报文转发
CE 1访问CE 2时,PE及P设备上SRv6报文头处理过程和目的地址替换过程如下:
(1) CE 1发送访问CE 2的报文给PE 1。
(2) PE 1收到报文后,为报文添加SRH,封装SRv6 TE Policy的SID列表<A:0:0:0:1:1::, A:0:0:0:2:1::, A:0:0:0:20:2::, B:0:0:0:30:1::, B:0:0:0:3:1::, B:0:0:0:4:2::>和End.DT4 SID B:0:0:0:40:1::2,然后封装IPv6基本头信息,目的地址为A:0:0:0:1:1::。PE 1将封装后的报文转发给P 1。
(3) P 1收到报文后,使用报文的目的地址A:0:0:0:1:1::查找Local SID表,匹配到End.X SID,执行该SID对应的转发动作,即将报文从指定接口转发到P 2,同时更新报文目的地址。由于报文的目的地址A:0:0:0:1:1::在Segment List中为携带COC标记的128-bit SRv6 SID,表示下一个SID为G-SID,所以将SL-1(取值为3)、将SI设置为3,先根据报文的[SL=3]定位所处的G-SID组,再根据[SI=3]对应的32-bit G-SID计算目的地址。其中,Common Prefix=A:0:0:0::/64,G-SID=2:1,SI=3,组合成的目的地址为A:0:0:0:2:1::3。
(4) P 2收到报文后,使用报文的目的地址A:0:0:0:2:1::(忽略目的地址的低两位SI值)查找Local SID表,匹配到End.X SID,执行该SID对应的转发动作,即将报文从指定接口转发到ASBR 1,同时更新报文目的地址。由于报文的目的地址A:0:0:0:2:1::在Segment List中为携带COC标记的32-bit G-SID,表示下一个SID为G-SID,所以将SI-1,先根据报文的[SL=3]定位所处的G-SID组,再根据[SI=2]对应的32-bit G-SID计算目的地址。其中,Common Prefix=A:0:0:0::/64,G-SID=20:2,SI=2,组合成的目的地址为A:0:0:0:20:2::2。
(5) ASBR 1收到报文后,使用报文的目的地址A:0:0:0:20:2::(忽略目的地址的低两位SI值)查找Local SID表,匹配到End.X SID,执行该SID对应的转发动作,即将报文从指定接口转发到ASBR 2,同时更新报文目的地址。由于报文的目的地址A:0:0:0:20:2::在Segment List中是未携带COC标记的32-bit G-SID,所以将SL-1(取值为2),同时查找[SL=2]对应的128-bit SRv6 SID,并使用该SRv6 SID替换IPv6头中的目的地址,即目的地址为B:0:0:0:30:1::。
(6) ASBR 2收到报文后,使用报文的目的地址B:0:0:0:30:1::查找Local SID表,匹配到End.X SID,执行该SID对应的转发动作,即将报文从指定接口转发到P 3,同时更新报文目的地址。由于报文的目的地址B:0:0:0:30:1::在Segment List中为携带COC标记的128-bit SRv6 SID,表示下一个SID为G-SID,所以将SL-1(取值为1)、将SI设置为3,先根据报文的[SL=1]定位所处的G-SID组,再根据[SI=3]对应的32-bit G-SID计算目的地址。其中,Common Prefix=B:0:0:0::/64,G-SID=3:1,SI=3,组合成的目的地址为B:0:0:0:3:1::3。
(7) P 3收到报文后,使用报文的目的地址B:0:0:0:3:1::(忽略目的地址的低两位SI值)查找Local SID表,匹配到End.X SID,执行该SID对应的转发动作,即将报文从指定接口转发到ASBR 1,同时更新报文目的地址。由于报文的目的地址B:0:0:0:3:1::在Segment List中为携带COC标记的32-bit G-SID,表示下一个SID为G-SID,所以将SI-1 ,先根据报文的[SL=1]定位所处的G-SID组,再根据[SI=2]对应的32-bit G-SID计算目的地址。其中,Common Prefix=B:0:0:0::/64,G-SID=4:2,SI=2,组合成的目的地址为B:0:0:0:4:2::2。
(8) P 4收到报文后,使用报文的目的地址B:0:0:0:4:2::(忽略目的地址的低两位SI值)查找Local SID表,匹配到End.X SID,执行该SID对应的转发动作,即将报文从指定接口转发到PE 2,同时更新报文目的地址。由于报文的目的地址B:0:0:0:4:2::在Segment List中是未携带COC标记的32-bit G-SID,所以将SL-1(取值为0),同时查找[SL=0]对应的128-bit SRv6 SID,并使用该SRv6 SID替换IPv6头中的目的地址,即目的地址B:0:0:0:40:1::2。
(9) PE 2收到报文后,使用目的地址B:0:0:0:40:1::2查找Local SID表,匹配到End.DT4 SID,执行End.DT4 SID对应的转发动作,即解封装去掉IPv6报文头,并根据End.DT4 SID匹配VPN实例A,查找VPN实例A的路由表,将报文发送给CE 2。
网络切片是指在同一个物理IP网络的基础上,网络管理员通过各种切片技术为特定业务或用户划分出多个逻辑网络,即切片网络。如下图所示,在物理网络中存在自动驾驶、远程医疗和无线通信三类业务,按业务划分三个切片网络为三类业务服务。每个切片网络都有自己的逻辑拓扑、SLA(Service Level Agreement,服务水平协议)需求、安全和可靠性要求。运营商和企业无需建设多张专网,利用网络切片技术即可最大化地利用现有的网络物理设施资源,并根据需求为不同的业务或用户划分出多个逻辑网络,在逻辑网络上灵活提供差异化网络服务。
图79 网络切片应用
对于运营商或者大型企业而言,大量业务通过一张网络承载,不断涌现的新业务对这张网络提出了差异化SLA的需求,例如自动驾驶业务对时延,抖动的要求十分严格,但对带宽的需求不大,而VR和高清视频等业务又对网络带宽需求极大,对时延的要求相对不高。传统网络采用的VPN技术只能在控制平面实现私网路由的隔离,在数据转发平面上仍然共用物理链路的资源,不同VPN业务不能实现差异化SLA要求,而建设独立的专网成本过高。部署网络切片方案可以用较小的成本为不同业务按需提供不同切片网络,在切片网络内部署不同QoS策略和可靠性保护技术来满足差异化SLA需求。
从网络资源安全性的角度看,一些用户或业务要求独享网络资源,例如政府和金融专线业务。用户希望运营商能提供安全可靠的隔离措施,避免其他用户或者业务抢占网络资源,造成网络使用体验下降的问题。网络切片方案可以在数据转发平面为不同用户提供独享带宽资源,在控制平面隔离不同用户和业务的路由信息,满足资源隔离的需求。
在SRv6网络中部署网络切片方案时可以通过Flex-Algo技术为租户灵活定制逻辑网络拓扑,并通过TI-LFA FRR技术提供毫秒级故障切换,同时将FRR备份切换限制在切片拓扑内部,不影响其他租户切片网络。
利用SDN控制器可以实现分钟级的切片网络自动化部署。在一些网络中,租户数量众多,而且租户业务的种类繁多,不同业务的带宽需求又各不相同,部署网络切片方案时,可以通过为大量租户或者业务提供网络切片,并为切片网络精细化分配带宽资源,避免浪费。
网络切片并非特指某一种网络技术,而是利用多种网络技术实现的一整套解决方案。为了满足不同用户和业务的差异化SLA、资源隔离、灵活定制拓扑和智能切片管理的需求,可以同时利用子接口切片技术、FlexE技术、Flex-Algo灵活算法和Slice ID切片等切片技术来实现在物理网络上划分逻辑网络的功能。其中,子接口切片技术和FlexE技术均用于为切片网络分配带宽资源,灵活算法和Slice ID切片是划分逻辑切片网络的两种方式,可以两两之间对比分析。
子接口切片技术通过在高速物理接口的子接口上创建独立的QoS调度队列,并为该队列分配带宽,利用队列调度机制来实现数据转发时不同切片业务的隔离。切片子接口作为业务数据的转发接口,用于承载小带宽低成本的切片业务。
图80 子接口切片技术工作机制
技术特点:
· 子接口切片带宽不小于300kbps。
· 以太网口和路由聚合口上均可以划分子接口切片,切片数量可达千级。
· 切片子接口具有独立的调度队列和带宽资源。
· 硬件依赖弱,队列调度机制引入少量时延。
FlexE技术是一种将捆绑在一起的一组物理接口按时隙交叉复用后灵活划分成不同带宽的FlexE业务接口的技术。FlexE业务接口作为网络切片方案中的数据转发接口,用于承载大带宽高附加值的行业切片业务。
图81 FlexE技术工作机制
技术特点:
· 业务接口的带宽粒度为5Gbps。
· 可以通过端口捆绑实现超大带宽,切片数量可达百级。
· FlexE业务接口具备独立MAC地址和带宽资源。
· 硬件依赖强,时延低稳定性好。
Flex-Algo(Flexible Algorithm,灵活算法)技术通过IGP协议报文通告路由计算的算法类型、度量值类型、链路的亲和属性等拓扑约束条件信息,实现基于IGP协议计算出满足特定条件的路径。
利用链路的亲和属性等拓扑约束条件配合不同的Flex-Algo算法,在控制平面可以将物理网络按需划分成多个独立的逻辑网络。
图82 Flex-Algo工作机制
技术特点:
· 灵活定制拓扑:利用Flex-Algo技术实现网络切片的最大优势在于网络管理员可以合理设计和规划链路的亲和属性等约束条件,实现切片网络拓扑的灵活定制。
· 灵活的算路机制:用户在各自的切片网络拓扑中,可以根据需要,选取合适的度量值类型(例如IGP链路开销、链路时延或MPLS TE度量值)灵活计算最优路径。
· 高可靠性:Flex-Algo支持TI-LFA FRR备份路径计算,且FRR备份路径切换仅限于Flex-Algo算法计算的切片网络拓扑中,不会影响其他Flex-Algo算法计算的切片网络。
· 控制平面路由算路依赖:通过Flex-Algo技术划分的网络切片依赖于控制平面路由算路的结果,且最大支持的切片数量有限。在SRv6组网中,每个Flex-Algo算法计算出的切片网络拓扑都需要一套独立的SRv6 Locator,因此造成了IPv6地址资源的浪费,又增加了控制平面算路的复杂度。
基于Slice ID的网络切片是一种应用在SRv6组网场景中的网络切片技术,它通过全局唯一的Slice ID来标识切片网络中的设备和数据转发通道,并以此来划分切片网络。
在切片网络中转发的业务报文携带Slice ID信息。设备转发该报文时,先查询FIB表找到出接口,再根据Slice ID从对应出接口上的数据转发通道转发报文。
图83 Slice ID切片工作机制
技术特点:
· 支持的切片数量极多:基于Slice ID的网络切片技术最大可支持6000个网络切片,可以满足海量业务切片的需求。
· 配置实现简单:仅需在设备和链路配置Slice ID就可以实现切片网络的划分。
· 节省IPv6地址资源:在SRv6组网环境中,基于Slice ID的切片网络共用一套SRv6 Locator,相对于基于亲和属性计算约束路径的Flex-Algo技术大大节省了IPv6地址资源。
· 控制面复杂度低:相对于基于亲和属性计算约束路径的Flex-Algo技术,基于Slice ID的网络切片技术在控制平面无需计算多个拓扑网络,降低控制面复杂度。在数据转发时,设备通过报文携带的Slice ID查找数据转发通道实现转发资源的隔离。
随着工业4.0的概念的发展,传统的工厂希望借助运营商的5G技术升级成为智慧工厂。智慧工厂将使用更多AI机器替代工厂中的人力,技术工人希望在数据中控机房实现对这些AI机器的远程操控,同时,智慧工厂还需要实时采集各类设备和环境的告警指标信息和视频监控画面,并将其传输到数据中控机房,便于远程管理。
在下图所示的运营商承载网络中,使用Flex-Algo技术为智慧工厂定制网络拓扑来实现行业切片网络,在行业切片网络中采用基于Slice ID的网络切片技术将行业切片网络划分出三个业务网络切片,分别承载远程操控、视频监控和告警监控这三类业务,并根据业务的SLA需求为不同业务提供不同的质量保证:
· 远程操控业务:采用Slice ID 1标识的切片网络承载,在该切片网络上采用FlexE业务接口转发数据报文,提供稳定的低时延,并部署TI-LFA FRR保障可靠性。
· 视频监控业务:采用Slice ID 2标识的切片网络承载,在该切片网络上采用1Gbps带宽切片子接口转发数据报文,满足上百路1080P视频监控业务。
· 告警监控业务:采用Slice ID 3标识的切片网络承载,在该切片网络上采用FlexE业务接口转发数据报文,提供稳定的低时延。
图84 网络切片综合应用
随着5G网络的部署和应用,IP承载网络中的业务类型越来越丰富。不同类型的业务对网络性能的要求存在较大差异,例如增强移动宽带(eMBB,enhanced Mobile Broadband)、海量机器类通信(mMTC,massive Machine Type Communications)、超高可靠低时延通信( uRLLC,ultra-Reliable and Low-latency Communications)业务分别对带宽、连接数、时延有较高的要求。因此,网络管理者希望对不同种类的业务进行分片承载和独立调度。
网络切片技术可以将同一个物理网络根据不同的业务需求划分为多个虚拟网络。网络切片技术既节省了网络建设成本,又满足了灵活多变的业务应用场景需求。子接口切片就是网络切片技术中的一种。子接口切片技术可以在高速率端口上划分出多个供不同业务使用的小带宽,以实现不同类型业务的隔离。
图85 子接口切片应用
子接口切片是一种小粒度的网络切片技术。通过在高速率端口上创建子接口,并为某些子接口配置子接口切片带宽,就可以实现子接口切片功能。这些配置了子接口切片带宽的子接口称为切片子接口。切片子接口独享为其分配的带宽,并使用独立的队列进行调度。
下图中,在接口的出方向上存在切片子接口A的报文、切片子接口B的报文、普通子接口C的报文和主接口的报文。
· 设备为切片子接口A和B各分配一个独立于主接口的流量管理队列,独立进行QoS调度。切片子接口独享带宽,主接口和其他子接口不能抢占切片子接口的带宽。每个切片子接口均可认为是一个独立接口。
· 普通子接口的报文和主接口报文统一进入主接口队列进行调度,共享接口的剩余带宽(剩余带宽=主接口总带宽-所有切片子接口带宽的总和)。
图86 子接口切片工作机制
常见的网络切片技术包括子接口切片和FlexE。下表为子接口切片技术与FlexE技术的对比。从两种网络切片技术的对比可以看出,子接口切片技术的优势是配置简单、对硬件和标准无依赖、适合带宽1Gbps以内的小粒度的切片场景。
表15 子接口切片技术特点
|
技术特点 |
子接口切片 |
FlexE |
|
配置复杂程度 |
简单 |
中等 |
|
最小带宽分配粒度 |
300kbps |
5Gbps:已商用 1Gbps::未标准化 |
|
支持的切片数量 |
千级 |
百级 |
|
硬件依赖 |
弱 |
强 |
|
|
子接口切片可以应用在如下场景:
· 边缘网络与骨干汇聚网之间不同业务流量进行隔离。
· 用户侧网络CE与运营商网络侧边缘设备PE之间不同业务流量进行隔离。
如下图所示的典型VPN网络中,用户VPN的两个站点之间存在语音、邮件和远程直播业务,根据业务的时延和带宽等需求,网络管理员在PE和CE设备上为不同业务配置切片子接口,保证运营商骨干网与用户网络之间的业务流量相互隔离。
图87 子接口切片应用场景
FlexE(Flex Ethernet,灵活以太网)技术是在Ethernet技术基础上,为满足高速传送、灵活带宽设置等需求,通过时隙交叉技术和端口捆绑技术实现的低成本、可动态配置的电信级接口技术。
图88 FlexE优点
FlexE技术中的关键角色包括:
· FlexE物理接口
切换到灵活以太模式的以太网物理接口。
· FlexE组
一组FlexE物理接口组成的集合。FlexE组的带宽等于加入该组的所有FlexE物理接口的带宽总和。
· FlexE业务接口
创建FlexE物理接口时,由设备自动生成的逻辑接口。该类接口可以灵活指定带宽,用于转发业务流量。为FlexE业务接口分配的带宽不能超过FlexE组中所有FlexE物理接口的带宽总和。
|
|
FlexE技术通过将多个FlexE物理接口捆绑形成一个FlexE组,并根据业务流量需求将组内总带宽按需灵活分配给各FlexE业务接口,达到为不同业务分配不同带宽,以及为不同专线用户分配不同带宽的目的。
FlexE技术将FlexE物理接口的物理层划分多个相同的时隙,每个时隙对应相同的带宽(如下图所示时隙带宽为5G),多个时隙带宽可灵活组合成不同大小的逻辑接口带宽,也就是FlexE业务接口的带宽。
图89 FlexE业务接口捆绑和时隙划分
FlexE技术可以实现业务带宽需求与物理接口带宽解耦合,通过端口捆绑和时隙交叉技术轻松通过低速率接口实现超大带宽,从而实现业务带宽的逐步演进
(10G->50G->100G->200G->400G->xT)。
图90 FlexE带宽扩展特性
FlexE技术通过时隙控制机制,可以保障业务流量严格均匀地分布在FlexE组的各个业务接口上,并且通过增加或减少时隙数量实时地调整FlexE业务接口的带宽,应对业务流量的实时变化。
图91 FlexE带宽均衡分配特性
每个FlexE业务接口都具备独立的MAC地址,不同接口之间的转发资源隔离。FlexE技术通过在不同FlexE业务接口上传输不同业务,实现业务之间的相互隔离。
图92 FlexE业务隔离特性
在运营商网络中部署新业务时,可以将新业务部署到新增的FlexE业务接口上,无需调整物理接口的业务部署,使新业务部署更加简单、快捷。
图93 FlexE业务简洁部署特性
IEEE 802.3制定的以太网标准采用固定速率(如10GE、100GE等),无法满足灵活带宽组网的需求。FlexE通过接口捆绑技术对接口带宽进行灵活组合,能够构造出更大带宽的链路(如5*100GE、10*100GE等)。
图94 FlexE接口带宽扩展
随着网络业务种类的不断增加,专线服务的要求越来越多样化。例如,某些业务要求独享带宽和极低延迟,而一些业务却重视隐私保护和高安全性。基于FlexE业务接口的专线服务,可以很好地满足多业务需求。
图95 FlexE支持多专线业务
网络分片是指对网络资源进行分割,以满足不同业务的承载需求,并保证服务的SLA(如带宽、时延等)。FlexE技术应用于5G网络,利用FlexE的业务接口隔离业务流量的特点,可以在5G网络中实现网络分片,即实现不同5G业务(如eMBB增强移动宽带、uRLLC超可靠低时延通信等)承载在同一个IP网络中,并为不同业务提供不同SLA。
图96 5G网络分片
传统IGP基于链路的开销值来计算到达目的地的最优路径。在链路开销值不能作为路径优劣的唯一标准时,传统IGP的路由计算方法无法满足用户的不同需求。例如,流媒体、视频会议等业务对网络时延要求高,需要IGP根据链路时延进行路径计算;如果网络中的某些链路存在故障风险,则需要IGP在计算路径时排除具有故障风险的链路。
Flex-Algo(Flexible Algorithm,灵活算法)很好地满足了这些需求。采用Flex-Algo算法,用户可以根据需要自由选择最优路径计算方法和度量值类型,并可以为不同的业务规划不同的网络拓扑,从而达到灵活控制路径的选择、实现流量工程等目的。
Flex-Algo算法通过算法标识符来唯一标识。算法标识符的取值范围为128~255。Flex-Algo算法可以定制的内容包括三个方面:路由计算的算法类型、度量值类型和拓扑约束条件。
图97 Flex-Algo算法定义及通告方法
FAD选择
IGP域中,不同设备均可以对同一算法标识符的Flex-Algo算法进行定义(FAD),他们的定义可能不同。为了确保各台设备计算结果一致,对于同一算法标识符的Flex-Algo算法,设备只能使用一种定义。设备根据如下规则选择Flex-Algo算法的FAD:
· 从IGP域的FAD通告中,选择具有最高优先级的FAD。
· 如果存在多个具有相同最高优先级的FAD,则选择路由器标识符最大的设备通告的FAD。
例如,在下图中,Device A和Device B都对标识符为130的Flex-Algo算法进行了定义,但定义的内容不同。使用IGP泛洪了各自的定义后,Device A通告的FAD被选中,这意味着Device A和Device B在使用Flex-Algo算法130进行最优路径计算时,均使用链路开销值作为度量值。
图98 FAD选择
拓扑计算
所有设备选定FAD后,Flex-Algo算法将会判断链路的亲和属性和共享风险链路组是否与约束条件匹配,匹配的链路会被Flex-Algo算法加入拓扑或从拓扑中排除。Flex-Algo算法支持多种约束条件的规则,包括:
图99 不同约束条件的规则
例如,FAD中包含亲和属性的Exclude-Any规则,规则中指定了亲和属性为“红色”的链路,则Flex-Algo算法生成的拓扑会排除亲和属性为“红色”的链路。
图100 匹配亲和属性的Exclude-Any规则的拓扑生成
Flex-Algo算法在生成的拓扑中,根据FAD通告的算法类型和度量值类型来计算最优路径。使用不同的度量值类型可能计算出截然不同的最优路径。例如,在下图中,使用开销值作为度量值时,计算出的从Device A到Device B的最优路径为绿色路径;使用时延作为度量值时,计算出的从Device A到Device B的最优路径为紫色路径。
图101 使用不同的度量值类型计算最优路径
用户可以根据需求,自由选择Flex-Algo算法使用何种度量值类型以及约束条件,可以满足多种业务的需求。
网络切片技术可以将同一个物理网络根据不同的业务需求划分为多个虚拟网络。Flex-Algo算法借助约束条件进行拓扑的规划,可以实现网络切片,在不同的网络切片中承载不同的业务流量。如下图所示,绿色路径链路时延低,资费较高;红色路径时延高,但资费更低。通过Flex-Algo算法的规划进行网络切片后,可以将从A到B的重要业务流量限制在绿色路径内,普通数据业务流量限制在红色路径内,实现了普通数据业务和重要业务的隔离,在保障业务质量的同时,节约了成本。
图102 基于Flex-Algo算法的拓扑规划
IGP路由域内所有支持Flex-Algo算法的设备使用相同算法定义,从而各节点使用相同的Flex-Algo算法计算出相同的结果,从理论上避免了环路。
Flex-Algo支持通过TI-LFA FRR(Topology-Independent Loop-free Alternate Fast Reroute,拓扑无关无环备份快速重路由)计算备份路径,实现当网络中的某处链路或节点故障时,流量会快速切换到备份路径继续转发,从而最大程度上避免流量的丢失。
图103 TI-LFA FRR应用
Flex-Algo算法可以应用于SRv6以及SR-MPLS网络,为SRv6 SID或SR-MPLS节点计算出公网转发路径,并且可以为SRv6 TE Policy以及SR-MPLS TE Policy直接计算出SID List,满足了流量工程的需求。
SRv6 Locator前缀关联Flex-Algo算法后,IGP协议将其泛洪出去。其他节点收到携带SRv6 Locator前缀的IGP路由后,将使用Flex-Algo算法计算到达SRv6 Locator前缀所在节点的最优路径。
· 未使用Flex-Algo算法时,PE基于IS-IS链路开销计算到达Locator前缀A5:80::/64所在节点的最优路径,如下图所示。
图104 计算到达Locator前缀的最优路径(未使用Flex-Algo算法)
· Locator段A5:80::/64关联Flex-Algo算法,算法的FAD为:
¡ 使用SPF算法。
¡ 基于IS-IS链路开销计算到达目的地的最小开销路径。
¡ 包含亲和属性为“红色”的链路。
PE基于Flex-Algo算法计算到达Locator前缀A5:80::/64所在节点的最优路径,如下图所示。
图105 计算到达Locator前缀的最优路径(基于Flex-Algo算法)
SR节点通过IGP协议搜集SR-MPLS网络中的前缀SID信息以及IGP网络拓扑信息,并使用Flex-Algo算法,计算出到达SR-MPLS节点的最优路径,在该路径上建立SRLSP。
(1) Device F为自己的Loopback地址指定SID,分配的索引值为21。组网中的节点均使用IGP泛洪前缀SID(即SRGB基值+索引值)信息。
图106 泛洪前缀SID信息
(2) Device F将本节点的前缀SID关联Flex-Algo算法,该算法的FAD为:
· 使用SPF算法。
· 基于IS-IS链路开销计算到达目的地的最小开销路径。
· 排除亲和属性为“红色”的链路。
网络中的节点均加入该Flex-Algo算法。
图107 使用Flex-Algo算法计算到达SR-MPLS节点的最优路径
(3) 如上图所示,Device A采用Flex-Algo算法计算出的到达Router F的路径为Device A -> Device C -> Device D -> Device F,并在该路径上建立SRLSP。路径上各SR节点建立的标签转发表项如下图。
图108 各SR节点建立的标签转发表项
SRv6 TE Policy和SR-MPLS TE Policy可以通过ODN(On-Demand Next-Hop,按需下一跳)功能自动创建:如果设备收到的BGP路由中,Color属性与ODN模板相匹配,则根据该ODN模板自动创建一个SRv6 TE Policy或SR-MPLS TE Policy。
ODN模板关联Flex-Algo算法后,Flex-Algo算法会自动为ODN创建的SRv6 TE Policy/SR-MPLS TE Policy的候选路径计算SID列表。SRv6和SR-MPLS组网中Flex-Algo算法动态计算SID列表的过程类似,下文以SRv6组网为例进行介绍。
(1) 在Device A上,创建了ODN模板,ODN模板的Color值为60,并且关联了Flex-Algo算法,FAD为:
· 使用SPF算法。
· 基于IS-IS链路开销计算到达目的地的最小开销路径。
· 排除亲和属性为“红色”的链路。
图109 Flex-Algo算法为ODN创建的SRv6 TE Policy的候选路径计算SID列表
(2) Device A接收到Color属性与ODN模板的Color值相同的BGP路由(如上图所示)后,自动创建一个SRv6 TE Policy。其中,Preference 为200的候选路径由Flex-Algo动态计算,计算出的SID列表为<Device C, Device D, Device F>。从Device A去往Device F的流量引流到该SRv6 TE Policy时,流量将沿着上图的紫色路径进行转发。
在5G和云时代,运营商和企业采用网络切片技术,将一张共享的物理网络虚拟成多个逻辑网络来为不同租户提供服务,从而满足不断涌现的各种新业务对网络功能差异化的需求。
基于Slice ID的网络切片是一种应用在SRv6组网场景中的网络切片技术方案,它通过全局唯一的Slice ID标识虚拟的逻辑网络,以实现网络切片的功能。
在物理网络划分为虚拟切片网络的方法为:
(1) 规划Slice ID:根据业务需求,为不同切片网络分配不同的Slice ID。
(2) 根据Slice ID将物理设备映射到虚拟切片网络:在物理设备上创建网络切片实例,网络切片实例的标识为Slice ID。这样,就可以将该物理设备映射到Slice ID对应的虚拟切片网络。
(3) 根据Slice ID将物理接口映射到虚拟切片网络:在物理接口上开启切片功能并创建网络切片通道,网络切片通道的标识是Slice ID。这样,就可以将该物理接口映射到Slice ID对应的虚拟切片网络。同一物理接口下的不同网络切片通道具有独立的队列调度机制和带宽保障机制,因此,不同网络切片通道中的业务转发互不影响。
(4) 具有相同Slice ID的网络切片实例和网络切片通道构成一个虚拟切片网络。
图110 基于Slice ID的网络切片
在采用基于Slice ID的网络切片技术的网络中,IPv6报文将携带逐跳扩展头HBH(Hop-by-Hop Extension Header),并在逐跳扩展头中携带Slice ID信息,通过HBH扩展头中的Slice ID来标识报文所属的切片网络。报文经过所有网络设备都会通过HBH中的Slice ID来判断该报文所属的切片网络,并在Slice ID标识的切片通道中转发报文。
图111 携带Slice ID选项的IPv6逐跳扩展头报文结构
|
网络中仅需隧道的源节点和尾节点支持SRv6,但所有设备均需支持Slice ID。 |
在下图所示的IPv4 L3VPN over SRv6 TE Policy组网中,存在切片网络Slice ID 1和切片网络Slice ID 2。PE 1、P和PE 2设备及其物理转发接口均映射到切片网络Slice ID 1和切片网络Slice ID 2中。VPN业务报文被引流到SRv6 TE Policy隧道中转发。
为了确保报文仅在指定的切片网络中转发, SRv6 TE Policy需要与网络切片的Slice ID进行关联,使得报文被引流到SRv6 TE Policy的同时封装Slice ID的信息。可以通过以下两种方式实现SRv6 TE Policy和Slice ID的关联:
· 手工配置SRv6 TE Policy的候选路径关联切片网络的Slice ID。
· 对等体发布的BGP SRv6 Policy路由中携带Slice ID属性,本地设备从BGP SRv6 Policy路由中学习到SRv6 TE Policy 与Slice ID的关联关系。
报文在切片网络中的转发流程如下:
(1) CE 1向PE 1发送IPv4单播报文。PE 1接收到CE 1发送的报文之后,查找VPN实例路由表,该路由的出接口为SRv6 TE Policy。PE 1为报文封装如下信息:
· SRH头,在SRH头中携带SRv6 TE Policy的SID List。
· HBH扩展头,在HBH扩展头中携带SRv6 TE Policy关联的Slice ID 1。
· IPv6基本报文头。
(2) PE 1将报文转发给P,转发时根据目的地址P查找出接口,并根据Slice ID信息在出接口上查找与其对应的网络切片通道,并通过该通道转发报文。
(3) P根据SRH头将目的地址修改为PE 2,根据目的地址PE 2查找出接口,通过出接口上Slice ID 1对应的网络切片通道转发报文。
(4) 报文到达尾节点PE 2后,PE 2使用报文的IPv6目的地址查找Local SID表,匹配到End SID,PE 2将报文中SRH中的SL减1,IPv6的目的地址更新为End.DT4 SID。PE 2根据End.DT4 SID查找Local SID表,执行End.DT4 SID对应的转发动作,即解封装报文去掉IPv6报文头(包括HBH和SRH),并根据End.DT4 SID匹配VPN的路由表,查表后将报文发送给CE 2。
图112 网络切片报文的转发流程
基于Slice ID的网络切片技术方案适用于SRv6组网环境,适应未来SDN网络发展趋势。
基于Slice ID的网络切片技术优势还具有如下优势:
· 配置和实现简单
配置过程简单,通过物理网络的IP地址和切片网络的Slice ID就可以实现不同切片网络报文转发的隔离。所有切片网络仅需一套IP地址,避免IP地址浪费。
· 带宽可精细控制
物理接口下的网络切片通道的带宽值较小且可精细控制,相较于FlexE技术1Gbps的带宽粒度,产品支持的网络切片通道带宽最小值为1Mbps。
· 支持的接口类型丰富
三层以太网接口、三层聚合接口,三层聚合子接口,三层子接口和FlexE接口均支持网络切片通道。
· 支持的切片数量多
目前设备最大可支持6000个网络切片,充分满足现有业务需求。
在下图所示的运营商承载网络中,存在自动驾驶业务和4K/8K高清IPTV业务。采用基于Slice ID的网络切片技术将物理网络划分两个网络切片,分别承载这两类业务,为不同业务提供不同的QoS质量保证:
· 为切片网络Slice ID 1分配足够大的带宽,在该切片网络上承载4K/8K高清IPTV业务,以便为4K/8K高清IPTV业务提供带宽保障。
· 将边缘计算数据中心划分到切片网络Slice ID 2,直连接入环。切片网络Slice ID 2承载自动驾驶业务,通过边缘计算DC为自动驾驶业务提供超低时延保证。
图113 基于Slice ID的网络切片的应用场景
iFIT(In-situ Flow Information Telemetry,带内流信息测量)是一种网络性能指标测量技术,应用于MPLS(Multiprotocol Label Switching,多协议标签交换)、SR-MPLS(Segment Routing with MPLS,MPLS段路由)和SRv6网络。它基于RFC 8321,可随流直接测量业务流的SLA(包括丢包率、时延、抖动、实时流量等)参数,具有部署方便、测量精度高等优点。
· 易于部署 智能运维
仅需在入节点配置iFIT测量参数,在需要测量的节点上开启iFIT功能,中间节点和出节点便能自动完成测量并上报测量结果。中间设备可不支持或不开启iFIT功能。
· 测量精度高
相比NQA等通过模拟业务报文进行测量的技术,iFIT直接标识业务报文,对业务流进行性能测量,统计数据可以真实反映网络质量,测量结果更精准。
· 支持场景多样
iFIT支持MPLS、SR-MPLS和SRv6网络,支持单点入单点出、单点入多点出以及多点入多点出等场景。
· 快速排障 精准定界
iFIT可同时进行端到端和逐点测量,与发现丢包后再逐跳排查故障点的测量方法相比,可快速排障,精准定界。
iFIT使用多点(多个测量点)收集、集中(单个分析器)计算的网络模型,该模型中包含以下元素:
· 入节点(Ingress):目标流进入测量网络的设备。它负责对目标流进行筛选,为目标流添加iFIT报文头,收集目标流的统计数据并上报给分析器。
· 中间节点(Transmit):根据报文中包含的iFIT报文头自动识别iFIT目标流,并根据iFIT报文头中携带的测量类型收集目标流的统计数据,然后将统计数据上报给分析器。
· 出节点(Egress):目标流离开测量网络的设备。出节点根据报文中包含的iFIT报文头自动识别iFIT目标流,收集目标流的统计数据并上报给分析器,然后去掉iFIT报文头,将目标流转发给下一跳。
· 分析器(Analyzer):负责收集入节点、中间节点、出节点上送的统计数据,并完成数据的汇总和计算。
· 目标流:iFIT测量的对象,是网络中符合指定匹配规则的业务流。网络管理员可以通过源IP地址/网段、目的IP地址/网段、协议类型、源端口号、目的端口号等参数的组合来定义一条目标流。
· MP(Measurement Point,测量点):MP和三层物理接口绑定,负责执行测量动作和产生统计数据。根据职责不同,MP分为入MP(流量入口测量点)、出MP(流量出口测量点)和中间MP三种类型。
图114 iFIT网络模型
· 使用场景:测量业务流量经过某网络的入节点和出节点之间的整体SLA。
· 测量范围:入MP和出MP之间的网络SLA。例如,iFIT网络模型图中MP 1到MP 6之间的SLA。
· 优势:中间设备无需支持或开启iFIT。可兼容现有网络设备,保护用户投资。
· 使用场景:可同时测量网络端到端的整体SLA以及网络中任意设备内、链路间的SLA 。
· 测量范围:端到端网络之间,任意两个MP之间的SLA。例如, iFIT网络模型图中MP 2到MP 3之间的SLA。
· 优势:可同时测量端到端、设备内、链路间的SLA ,快速排障,精准定界。
为便于网络管理员及时了解网络丢包情况,iFIT按周期测量丢包率。同时,为了区别两个相邻周期的报文, iFIT采用周期交替染色技术,具体测量机制如下:
(1) 入MP对报文进行丢包染色。
iFIT使用iFIT报文头中的L字段作为丢包测量染色位,将该位设置为1表示染色,设置为0表示不染色。入MP对目标流按周期交替地进行染色、不染色处理,来区别两个相邻周期的报文。
(2) 每个MP按周期统计收到的报文个数。
MP分别统计收到的染色报文和不染色报文。
iFIT让收包统计周期大于发包统计周期,最大程度地避免网络时延与传输乱序对统计结果的不良影响。如下图中染色报文X延时到达,接收端仍会将其统计到染色报文收包统计周期中。
在发送端:染色报文发包统计周期=不染色报文发包统计周期=iFIT统计周期(可配置)
在接收端:染色报文收包统计周期=不染色报文收包统计周期=(1+1/3) iFIT统计周期
根据报文守恒定律,在第i个统计周期,任意两个MP收到的报文个数差即为目标报文在这两个MP间的丢包数: PacketLoss[i] = Tx[i]–Rx[i]
(3) 出MP去掉iFIT报文头后,将报文转发给下一跳。
图115 iFIT丢包测量机制
iFIT时延测量和丢包测量同时进行,并以相同周期进行染色和统计,测量机制如下:
(1) 入MP对报文进行时延染色。
iFIT使用iFIT报文头中的D字段作为时延测量染色位,将该位设置为1表示染色,设置为0表示不染色。入MP对目标流每个统计周期内收到的第一个报文进行时延染色。(下文将时延测量染色位置1的报文称为时延染色报文 )
(2) 每个MP记录时延染色报文经过本MP的时间戳。
在第i个统计周期,任意两个MP间时间戳的差值即为目标报文在这两个MP间的传输时延: Delay[i]=t΄[i]-t [i]
(3) 出MP去掉iFIT报文头后,将报文转发给下一跳。
图116 iFIT时延测量机制
iFIT采用基于gRPC协议Telemetry 技术向分析器上报统计数据。Telemetry是一项监控设备性能和故障的远程数据采集技术。
在IFIT组网中,iFIT设备作为gRPC客户端,iFIT分析器作为gRPC采集器。设备采用gRPC Dial-out模式,主动与分析器建立gRPC连接,并将设备上订阅的iFIT统计数据推送给分析器。
iFIT工作流程分为三个阶段:
(1) 所有参与测量的设备达到时间同步。如果时间不同步,各MP的统计周期不统一,会导致iFIT计算结果不准确。为便于管理维护, 建议分析器和所有iFIT设备之间也时间同步。
· 如果仅测量丢包率,可使用NTP进行时间同步(同步精度为秒级)。
· 如果需要测量时延,请使用PTP进行时间同步(同步精度为亚微秒级)。
(2) 设备按周期收集MP产生的统计数据,并通过Telemetry技术上报给分析器。
(3) 分析器对同一统计周期内相同目标流的报文进行丢包分析,并计算时延、时延抖动等参数。
如下图所示,各节点采用PTP进行时间同步,同时测量丢包和时延参数。
图117 iFIT工作流程
如下图所示的E2E SR-MPLS (Option A)组网环境下,发现企业网用户之间的视频通话画面存在严重马赛克、语音不连续现象。需确定视频通话流量在网络中传输时,发生丢包和时延的位置。
网络管理员可以分别在AS 1和AS 2中部署iFIT,例如:
· 若PE 1、P 1、ASBR 1均支持iFIT,则可在这三台设备上部署逐点测量,以便同时了解目标流经过每台设备、每条链路以及整个AS 1的SLA。
· 若P 1不支持iFIT,则可直接在PE 1和ASBR 1上部署端到端测量,统计目标流经过AS 1时的SLA。
图118 iFIT用于E2E SR-MPLS (Option A)场景组网
如下图所示的L3VPN over SRv6组网环境下,发现VPN 1内用户之间的视频通话画面存在严重马赛克、语音不连续现象。需确定视频通话流量在网络中传输时,发生丢包和时延的位置。
网络管理员可以在SRv6网络中部署iFIT,例如:
· 若PE 1、P、PE 2均支持iFIT,则可在这三台设备上部署逐点测量,以便同时了解目标流经过每台设备、每条链路以及整个SRv6网络的SLA。
· 若P不支持iFIT,则可直接在PE 1和PE 2上部署端到端测量,统计目标流经过SRv6网络时的SLA。
图119 iFIT用于L3VPN over SRv6场景组网
BIER(Bit Index Explicit Replication,位索引显式复制)是一种新型的组播技术,通过在组播网络的入节点上将组播报文目的节点的集合以BS(Bit String,位串)的方式封装在组播报文的BIER头中,使得网络的中间节点无需感知组播业务、无需维护组播流状态,根据BIER头中的BS就能实现组播业务的复制和转发,增强了组播业务可扩展性。
G-BIER(Generalized BIER,通用位索引显式复制)是中国移动的企业标准。通过对RFC定义的标准BIER头进行适配性修改,实现了BIER网络与IPv6网络的更好融合。
图120 G-BIER组网
· 简化控制平面
在承载网络的中间节点上,不需要运行PIM和MPLS协议,控制平面协议统一为单播路由协议IGP和BGP,简化了承载网络控制平面协议的部署。
· 利于SDN架构演进
部署组播业务不需要操作网络中间节点,只需在入节点为组播报文添加指导后续组播复制的G-BIER封装。G-BIER封装中携带标识组播出口节点的位串,中间节点根据位串实现组播复制和转发,有利于SDN架构网络的演进。
· 适合大规模组播业务部署
G-BIER不需要为每条组播流量建立组播转发树及保存组播流状态,仅需在转发路径的各节点上建立位索引转发表就能实现基于BS的报文转发,消除了大规模部署组播业务给网络带来的压力。
· 支持组播VPN架构
在NG MVPN(Next Generation MVPN,下一代组播VPN)业务中,G-BIER隧道可以代替RSVP TE P2MP和mLDP P2MP隧道,作为公网承载隧道,将组播私网流量通过G-BIER封装,发送给G-BIER域内其他节点。
G-BIER网络的基本元素为BFR(Bit Forwarding Router,位转发路由器)。根据在网络中的作用,BFR分为如下三类:BFIR、Transit BFR和BFER。
图121 G-BIER网络模型
· BFIR(Bit Forwarding Ingress Router,位转发入口路由器):组播数据流量进入G-BIER域的节点,负责对进入G-BIER网络的报文进行G-BIER封装。每台BFIR由唯一的BFR ID来标识。
· Transit BFR:组播数据流量在G-BIER域中转发的中间节点,负责对G-BIER报文进行转发。无需用BFR ID来标识。
· BFER (Bit Forwarding Egress Router,位转发出口路由器) :组播数据流量出G-BIER域的节点,负责对G-BIER报文进行解封装,并转发给组播接收者。每台BFER由唯一的BFR ID来标识。
· G-BIER边缘设备:BFIR和BFER统称为G-BIER边缘设备。
· G-BIER 域:在一个路由域或者管理域内所有BFR的集合。一个G-BIER域(G-BIER Domain)可以划分为一个或者多个G-BIER子域(SD ,Sub-domain)。每个SD通过一个唯一的SD ID来标识。
G-BIER报文封装格式从外到内依次为IPv6基本头、IPv6扩展头DOH(Destination Options Header,目的选项头)和原始组播数据报文。其中,G-BIER头封装在DOH中。
图122 G-BIER报文封装格式
G-BIER网络架构分为Underlay、G-BIER和Overlay三层,如下图所示。
图123 G-BIER三层网络架构
· F-BM(Forwarding-Bit Mask ,转发位掩码):用来表示BFR往下一跳邻居复制发送组播报文时,能通过该邻居以最优路径到达的G-BIER边缘节点(BFIR和BFER)的集合。F-BM是将能通过该邻居,以最优路径到达的所有G-BIER边缘节点的BFR ID对应的比特位,进行“位或”计算后得到。
· BIFT(Bit Index Forwarding Table,位索引转发表):G-BIER子域内的组播流量通过查询BIFT来实现逐跳转发。BIFT每条表项记录了一个下一跳邻居和对应的F-BM。不同的BIFT用BIFT-ID来标识。G-BIER的BITFT-ID由(BSL,SD,SI)三元组确定。
· BS(Bit String,比特串) :G-BIER转发过程中,BFIR需明确要将组播报文发往哪些BFER。在一个G-BIER子域中,组播报文发往的BFER集合用二元组( SI ,BS) 来表示,BFIR根据此(BS,SI)和BIFT的F-BM来复制转发报文,最终发给G-BIER子域中的BFER节点。
(1) 组播报文到达BFIR,BFIR查找组播转发表判断此报文需要进行G-BIER转发,并获取BIER的转发信息(BIFT-ID和BS)。BIER的转发信息通过BFIR和BFER之间交互BGP MVPN路由生成。 如下图所示,Device A通过BGP MVPN路由获知Device D、Device E和Device F下游均存在接收者,获取到的BS值“0111”为Device D、Device E和Device F的BFR ID对应的比特位进行“位或”计算后得到。
图124 G-BIER转发过程(一)
(2) BFIR将BS与特定的BIFT中F-BM逐一进行“位与”计算,若得到BS不为全0,则复制一份报文并按照G-BIER报文封装格式进行封装(封装的BS值为计算后得到的值、DA为下一跳邻居的MPRA、SA为组播服务源地址),发给该表项对应的下一跳邻居。如下图所示,BS值“0111”与Device A上BIFT中F-BM逐一进行“位与”计算,发现只有Device B对应的F-BM与“0111”进行“位与”计算后不为0,因此只会将组播报文复制一份进行G-BIER封装(封装的BS值为“位与”运算后得到的“0111”)后发送给Device B。
图125 G-BIER转发过程(二)
(3) Transit BFR将收到的G-BIER报文头部的DA地址,与本地设备上配置的MPRA进行匹配。
· 如果能够匹配,则进行G-BIER转发。Transit BFR上执行与步骤②相同的操作,查找特定的BIFT,按照BIFT转发给下一跳邻居。其中,G-BIER封装的SA在转发过程中保持不变。如下图所示,以Device B为例,BS值“0111”与Device B上BIFT中F-BM逐一进行“位与”计算,发现Device C和Device E对应的F-BM与“0111”进行“位与”计算后不为0,因此会将组播报文复制并进行G-BIER封装后分别发送给Device C(封装的BS值为“位与”计算后得到的“0011”)和Device E(封装的BS值为“位与”计算后得到的“0100”)。 Device C上的转发过程与Device B类似,不再赘述。
· 如果不能匹配,则进行普通的IP转发。
图126 G-BIER转发过程(三)
(4) BFER收到G-BIER报文后,需要在BFER上结束G-BIER转发。此时,BFER首先解封装G-BIER头得到组播报文,然后根据SA中的MSID查找对应的组播转发表,并根据组播转发表将组播报文转发给最终的组播接收者。
|
|
如下图所示,以Device D为例,将BS值“0001”与BIFT中F-BM逐一进行“位与”计算后,发现只有本节点对应的F-BM与BS进行“位与”计算后不为0,表示Device D为BFER,需要在Device D上结束G-BIER转发。此时,Device D解封装G-BIER头后得到组播报文后,根据组播转发表发送给下游组播接收者。 Device E和Device F上的操作与Device D类似,不再赘述。
图127 G-BIER转发过程(四)
NG MVPN over G-BIER是应用G-BIER技术的一个典型应用场景,在该场景下,使用G-BIER建立承载隧道,组播私网流量经过G-BIER封装后穿越公网发送到G-BIER子域其他各节点。
NG MVPN over G-BIER组网模型如下图所示。
图128 NG MVPN over G-BIER组网模型
在MVPN over G-BIER中,使用新增的BGP属性MSID用来标识MVPN实例,该属性中携带标识MVPN实例的组播服务源地址。
(1) 组播源侧PE对组播报文进行G-BIER封装时,IPv6基本头中的源地址需要配置为组播服务源地址。
· 组播服务源地址由组播源侧PE的组播服务前缀和组播服务ID值共同生成。
· 组播报文在转发过程中,该组播服务源地址保持不变。
(2) 组播源侧PE通过1类路由Intra-AS I-PMSI A-D route中携带MSID属性,将组播服务源地址通告给接收者侧PE。接收者侧PE记录该源地址与MVPN实例的对应关系。
(3) 当接收侧PE收到G-BIER封装的组播报文时,会通过报文中的组播服务源地址找到相应的MVPN实例,在对应的MVPN实例中找到对应的组播转发表项,并转发组播报文。
NG MVPN over G-BIER运行机制如下:
(1) 组播源侧PE首先通过与接收者PE交互BGP MVPN路由,获知组播流量需要发送给哪些接收者侧PE。
(2) 组播源侧PE和接收者侧PE之间通过BGP报文中携带的Intra-AS I-PMSI A-D Route、S-PMSI A-D Route和Leaf A-D Route三大路由信息传递G-BIER信息(BFR ID、Sub domain ID、BFR prefix)。
(3) 组播数据根据PIM路由表由CE传输到PE上的相容性隧道,完成私网到公网的无缝连接。组播源侧PE将收到私网组播数据封装G-BIER头后,通过相容性隧道传输给远端PE,远端PE收到该报文后通过剥离封装信息将其还原成私网组播报文。
(4) 当组播源侧PE上有满足切换选择性隧道条件的组播流量时,与对应的远端PE建立选择性隧道,并通过选择性隧道传输封装了G-BIER头的私网组播数据。
若组播业务属于公共业务,可将组播源部署在公网中,例如,运营商提供点播业务给该省干网下连的各城域网中的家庭/企业用户。在省干网和城域网中应用G-BIER技术,可以满足组播用户的快速加入以及组播业务的快速部署需求。
如下图所示,IPv6省干网和IPv6城域网处于不同的自治域,部署在公网中的组播源通过省干网业务路由器PSR接入省干网路由器PB,向城域网的终端用户提供从运营商网络到家庭/企业网络IPTV业务。
为了保证业务高可靠性,采用双根热备份方式。其中,PSR 1和PSR 2分别为G-BIER主备双根,组播源通过以太网交换机SW 1和SW 2分别与主备双根连接。
图129 在公网部署G-BIER组播业务
若在公网组播业务的基础上,还存在私有组播业务的需求,可将组播源部署在组播用户所属的VPN中,仅为该VPN中的用户提供组播业务。私有组播业务通过运营商网络的G-BIER 隧道承载,同时还可实现不同VPN之间的组播业务隔离。如下图所示,在VPN a内部署组播源,为处于同属于VPN a的本地站点(Site 2)和远端站点(Site 3和Site 4)内的组播接收者提供组播服务。
图130 在MVPN部署G-BIER组播业务
优势:
通过在省干网和城域网中应用G-BIER技术,可以满足组播用户的快速加入以及组播业务的快速部署需求,不需要建立从组播源侧节点到组播接收者侧节点的组播分发树,中间节点无需运行组播路由协议和维护组播转发状态,适合运营商大规模部署组播业务。
BIER(Bit Index Explicit Replication,位索引显式复制)是一种无状态的新型组播技术,解决了传统组播网络扩容困难、运维管理复杂、故障收敛慢等问题,能够高效完成组播报文的分发。但由于BIER依赖于MPLS技术,部署在非MPLS网络的组播业务中则需要升级全网设备,存在局限性。
随着IPv6技术的蓬勃发展,在单播转发领域,基于IPv6数据平面的SRv6技术发展迅猛,势头超越了基于MPLS数据平面的SR-MPLS;在组播领域,如何应用BIER架构,实现不依赖MPLS且顺应IPv6网络发展趋势的技术,成了亟待解决的问题。在此背景下,业界提出了基于IPv6的BIERv6 (Bit Index Explicit Replication IPv6 Encapsulation,IPv6封装的比特索引显式复制)技术。
BIERv6继承了BIER的核心设计思想,将组播报文目的节点的集合以BS (Bit String,位串)的形式封装在报文头中,中间节点无需感知组播业务、维护组播流状态,仅根据报文头中的BS即可完成组播报文的复制转发。BIERv6同时结合了IPv6可扩展的优势,利用IPv6扩展报文头携带指导BIER转发的信息,彻底摆脱了MPLS的标签转发机制,便于新业务的演进和叠加。
BIERv6技术将BIER协议与IPv6报文转发相结合,可以无缝融入SRv6网络,同时简化了网络协议、降低了网络部署难度,能够更好地应对未来网络发展的挑战。
· 简化网络协议
BIERv6利用BIFT(Bit Index Forwarding Table,位索引转发表)指导转发组播MVPN业务和公网组播业务,无需分配、管理和维护MPLS标签, 简化了网络协议。
· 简化业务部署和运维
中间节点不感知组播业务,组播业务部署不涉及中间节点,组播业务变化对中间节点没有影响。网络拓扑变化时无需对大量组播分发树执行撤销和重建操作,大大简化了网络的管理和运维。
· 网络可靠性高
BIERv6根据BIFT来转发组播数据。当网络中出现故障时,只需要Underlay层路由收敛后刷新位索引转发表即可。因此,故障收敛快,网络可靠性高。
· 支持组播VPN架构
在NG MVPN业务中,BIERv6隧道可以代替RSVP TE P2MP和mLDP P2MP隧道,作为公网承载隧道,将组播私网流量通过BIERv6封装,发送给BIERv6域内其他节点。有关NG MVPN的详细介绍,请参见《组播VPN技术介绍》。
· IPv6协议扩展
BIERv6使用IPv6目的选项扩展头携带BIERv6头,新增End.BIER SID作为目的IPv6地址用来指示设备转发层面处理报文中BIERv6扩展头。
· BIFT建立过程
在BIERv6子域中组播流量通过查找BIFT来实现逐跳转发,BIFT的建立是BIERv6转发的核心。
· 路由协议扩展
BIERv6分别扩展了IS-IS和BGP协议用来泛洪BIER信息和携带BIERv6隧道源地址。
· BIERv6转发过程
组播报文在BIERv6域内根据报文中的BS查找BIFT进行转发,分别在入节点和出节点上进行BIERv6头的封装和解封装。
BIERv6充分利用了IPv6扩展报文头在新增选项时不必修改现有报文结构的特点,在IPv6扩展头DOH(Destination Options Header,目的选项头)中携带BIERv6头 。
BIERv6报文格式从外到内依次为IPv6基本头、DOH和原始组播数据报文,具体如下图所示。
图131 BIERv6报文格式
End.BIER SID是BIERv6网络中定义的一种新类型的SID,称为End.BIER地址。IGP协议在泛洪BIER信息时,通过IS-IS sub-sub-TLV携带该地址,以通知其他邻居在向本节点发送BIERv6报文时,使用该IPv6地址作为目的IPv6地址。
当BFR收到BIERv6报文后,会将BIERv6报文的目的IPv6地址与本地配置的End.BIER地址进行匹配。
· 若匹配成功,则表示BFR需要对该报文进行BIERv6转发。
· 若匹配失败,则表示BFR需要对该报文进行普通的IPv6转发。
BIERv6通过扩展后的IGP协议泛洪BIER信息,各个节点根据BIER信息建立BIFT转发组播数据。IS-IS 针对BIERv6的扩展是在BIER扩展的基础上,新增了BIERv6封装信息Sub-Sub-TLV和End.BIER Sub-Sub-TLV。
表16 IS-IS BIERv6扩展
|
类型 |
名称 |
作用 |
携带位置 |
|
TLV |
IS-IS Reachability Prefix TLV |
用于发布节点的BFR Prefix |
IS-IS报文 |
|
Sub-TLV |
BIER Info Sub-TLV |
用于发布节点的BIER信息(Sub-domain、BFR ID信息) |
IS-IS报文的237类TLV |
|
Sub-Sub-TLV |
BIERv6封装信息Sub-Sub-TLV |
用于发布节点的Max-SI和BSL |
BIER Info Sub-TLV |
|
End.BIER sub-sub-TLV |
用于发布节点的End.BIER SID |
BIER Info Sub-TLV |
BIERv6扩展了BGP MVPN路由中的1类路由Intra-AS I-PMSI A-D route和3类路由S-PMSI A-D route,通过1类和3类路由中的Prefix-SID属性携带BIERv6隧道封装的IPv6源地址。BIERv6隧道源地址可以用来标识MVPN,具体处理过程如下:
(1) 组播源侧PE通过在1类和3类路由中携带Prefix-SID,将BIERv6隧道源地址通告给接收者侧PE。
(2) 接收者侧PE收到1类和3类路由后,根据路由携带的Route Target属性匹配本地的VPN实例或公网实例,并记录路由携带的Prefix-SID与VPN实例或公网实例的对应关系。
(3) 接收侧PE收到BIERv6封装的组播报文时,会根据报文中的BIERv6隧道源地址找到对应的VPN实例或公网实例,在VPN实例或公网实例对应的MVPN实例中查找组播转发表项,并转发组播报文。
在BIERv6子域中组播流量通过查找BIFT来实现逐跳转发。BIFT的建立过程如下:
(1) BFR通过IGP/BGP扩展协议在BIERv6子域内泛洪本地的BIERv6信息(SD、BFR prefix、BFR ID等)。
(2) BFR接收到携带BIERv6信息的IGP/BGP路由后,获知到达每一个BFR边缘节点的下一跳BFR邻居。
(3) BFR将能通过下一跳邻居、以最优路径到达的所有BFR边缘节点的BFR ID对应的比特位,进行“位或”计算后得到F-BM (Forwarding-Bit Mask,转发位串掩码)。从而生成F-BM和NBR (BFR Neighbor ,BFR邻居)的对应关系表项,即BIFT表项。
如下图所示,Device A、Device D、Device E和Device F均为BFR边缘节点,各BFR上均生成了BIFT表项。以Device B上表项为例说明BIFT表项的建立过程:
(1) Device B通过IGP泛洪获取了BIERv6子域内所有BFR节点的BIERv6信息。
(2) Device B通过IGP计算到达每一个BFR边缘节点的最优下一跳邻居:
· 到达Device A的下一跳邻居为Device A。
· 到达Device D和Device F的下一跳邻居为Device C。
· 到达Device E的下一跳邻居为Device E。
(3) 将通过下一跳邻居能够到达的BFR边缘节点的BFR ID对应的比特位进行“位或”计算得到F-BM。以下一跳邻居为Device C为例,通过Device C能够以最优路径到达的BFR边缘节点为Device D和Device F,将Device D和Device F对应的比特串“0001”和“0010”进行“位或”运算后得到Device C对应的F-BM为“0011”。
图132 BIFT的建立
(1) 组播报文到达BFIR,BFIR查找组播转发表发现报文出接口为BIERv6类型的隧道口,由此判断出此报文需要进行BIERv6转发,并获取到BIERv6的转发所需信息(BIFT-ID和BS)。BIERv6的转发信息通过BFIR和BFER之间交互BGP MVPN路由生成。 如下图所示,Device A通过BGP MVPN路由获知Device D、Device E和Device F下游均存在接收者,获取到的BS值“0111”为Device D、Device E和Device F的BFR ID对应的比特位进行“位或”计算后得到。
图133 BIERv6转发过程(一)
(2) BFIR将BS与特定的BIFT中F-BM逐一进行“位与”计算,若得到BS不为全0,则复制一份报文并按照BIERv6报文封装格式进行封装(封装的BS值为计算后得到的值、DA为下一跳邻居的End.BIER SID、SA为BIERv6隧道源地址),发给该表项对应的下一跳邻居。如下图所示,BS值“0111”与Device A上BIFT中F-BM逐一进行“位与”计算,发现只有Device B对应的F-BM与“0111”进行“位与”计算后不为0,因此只会将组播报文复制一份进行BIERv6封装(封装的BS值为“位与”运算后得到的“0111”)后发送给Device B。
图134 BIERv6转发过程(二)
(3) Transit BFR将收到的BIERv6报文头部的DA地址,与本地设备上配置的End.BIER SID进行匹配。
· 如果能够匹配,则进行BIERv6转发。Transit BFR上执行与步骤②相同的操作,查找特定的BIFT,按照BIFT转发给下一跳邻居。其中,BIERv6封装的SA在转发过程中保持不变。如下图所示,以Device B为例,BS值“0111”与Device B上BIFT中F-BM逐一进行“位与”计算,发现Device C和Device E对应的F-BM与“0111”进行“位与”计算后不为0,因此会将组播报文复制并进行BIERv6封装后分别发送给Device C(封装的BS值为“位与”计算后得到的“0011”)和Device E(封装的BS值为“位与”计算后得到的“0100”)。 Device C上的转发过程与Device B类似,不再赘述。
· 如果不能匹配,则进行普通的IPv6转发。
图135 BIERv6转发过程(三)
(4) BFER收到BIERv6报文后,需要在BFER上结束BIERv6转发。此时,BFER首先解封装BIERv6头得到组播报文,然后根据SA中的Prefix-SID属性查找对应的组播转发表,并根据组播转发表将组播报文转发给最终的组播接收者。
|
|
如下图所示,以Device D为例,将BS值“0001”与BIFT中F-BM逐一进行“位与”计算后,发现本节点对应的F-BM与BS进行“位与”计算后不为0,表示Device D为BFER,需要在Device D上结束BIERv6转发。此时,Device D解封装BIERv6头后得到组播报文后,根据组播转发表发送给下游组播接收者。 Device E和Device F上的操作与Device D类似,不再赘述。
图136 BIERv6转发过程(四)
随着云网络的不断普及,接入互联网的设备数量急剧增加,用户对于网络服务质量的要求也不断提高。SRv6技术和BIERv6技术分别解决了IPv6网络中如何高效简便地以单播和组播方式传输数据的问题。
如下图所示,在服务商的核心网络中部署BIERv6功能来传输依赖组播传输方式的业务数据,部署SRv6功能来传输通过单播方式传输的业务数据。通过将SRv6与BIERv6技术组合部署,可以实现基于统一的IPv6数据平面、统一的IGP和BGP路由协议,为用户提供完整的单播和组播服务,达到简化协议的目的。
图137 BIERv6功能的应用
SRv6 SFC(Service Function Chain,基于SRv6的服务链)使用SRv6 TE Policy编排业务报文的转发路径,通过在原始报文中添加SRv6 TE Policy的路径信息,来引导报文按照指定的路径依次经过各个服务节点。SRv6 SFC支持的服务节点包括防火墙( FW )、入侵防御系统(IPS)、负载均衡(LB)设备和地址转换(NAT)设备等。
SRv6 SFC技术通过灵活控制业务报文所经过的服务节点,来满足网络中不同业务对于安全性、可靠性的需求。
SRv6 SFC目前仅适用于L3VPN over SRv6 TE Policy的组网场景。
图138 SRv6 SFC组网
· SRv6 SFC网络
由SC、SFF、SF和Tail Endpoint节点组成,用于将特定的用户业务报文引导到指定的服务节点进行处理,并转发到目的地。
· SC(Service Classifier)
业务分类节点,位于SRv6 SFC网络边缘,是SRv6 SFC网络的源节点。SC上需创建SRv6 TE Policy,并将业务报文引流到SRv6 TE Policy进行转发。
· SF(Service Function)
服务节点,提供某类应用服务,例如防火墙、负载均衡、地址转换等业务。SF可以是实体物理设备,也可以是部署在虚拟机上的软件产品。能够识别SRv6报文的服务节点称为SRv6-aware SF,不能识别SRv6报文的服务节点称为SRv6-unaware SF。
· SFF(Service Function Forwarder)
服务链转发节点。SFF作为SF的代理,根据收到报文的SRv6 SID,将报文转发到SFF关联的若干SF上处理。SF处理报文后再将报文返回给SFF,SFF决定是否继续转发该报文。
· Tail Endpoint
SRv6 SFC网络的尾节点,即SRv6 TE Policy的目的节点。尾节点根据SRv6 SID指令转发报文。
· SRv6 SFC的工作模式
SRv6 SFC支持SRv6服务链静态代理和SRv6服务链伪代理两种工作模式。两种工作模式的报文转发过程不同。
SRv6服务链静态代理适用于SF不能识别SRv6报文的场景。
由于SF不能识别SRv6报文,SFF需要将SRv6报文解封装,去除IPv6基础头部和扩展的SRH头部后,把用户网络的原始数据报文转发给SF处理。SF处理完原始报文后,将其转发回SFF。SFF根据手工配置的SID列表为处理后的业务报文重新封装SRv6头部,使报文继续在SRv6 SFC网络中转发。
在SC连接用户网络的接口上配置QoS策略,根据QoS策略中的流分类将特定的用户报文重定向到指定的SRv6 TE Policy。
为了实现服务链静态代理,在SFF上需要创建End.AS SID类型的SID,并在SRv6 TE Policy的SID列表中引入End.AS SID。End.AS SID用于标识SRv6服务链静态代理的某个SF。End.AS SID对应的转发动作是:
· 报文从转发节点SFF发送到服务节点SF之前,SFF先解封装报文,然后根据End.AS SID关联的出接口转发报文。
· 报文从服务节点SF发送到转发节点SFF之后,SFF根据报文的入接口(或者入接口和VLAN)查找关联的End.AS SID,并为报文重新添加SRv6封装,封装的SRH中包含为该End.AS SID指定的SID列表。
图139 SRv6 SFC静态代理工作机制
当SFF和SF之间不可达时,需要经过SF处理的报文到达SFF后会被丢弃,业务报文既无法在SRv6网络中转发,也不能被后续SF处理。在SRv6 SFC静态代理工作模式下,可以通过双归保护和Bypass保护来提高SRv6 SFC网络的可靠性:
· 双归保护是指一个SF双归连接主备两个SFF。当主用SFF到SF的路径不可达时,业务切换到备份SFF上处理。双归保护适用于SFC网络中存在两个SFF连接同一个SF的保护场景,配置相对复杂。
· Bypass保护是指SF故障或SF和SFF之间链路故障时,报文绕行该故障SF,由Bypass SF处理。Bypass保护适用于SFC网络中存在多个冗余SF节点的保护场景。
图140 SRv6服务链静态代理双归保护组网
SRv6服务链静态代理双归保护组网中,主用SFF 1和备用SFF 2上需要保证:
· 互相指定对方的End SID为双归备份SID。
· 主用SFF 1和备用SFF 2上的主用和备用End.AS SID必须相同。
在上图组网环境中,当SFF 1与SF不可达时,SFF 1解封装报文,去掉原IPv6和SRH报文头,并重新封装IPv6和SRH头部。其中,新的IPv6头部目的地址为b,新的SRH头部中包含备End.AS SID x2和SFF 2的End SID b。之后,SFF 1根据IPv6目的地址查找路由表,将报文转发至双归备份节点SFF 2。报文到达SFF 2后,按照正常SRv6服务链静态代理的转发流程处理报文。
图141 SRv6服务链静态代理Bypass保护组网
在上图所示的SRv6服务链静态代理Bypass保护组网环境中,需要在SFF 1上开启Bypass保护功能。根据是否在SFF 1上指定Bypass End.AS SID,Bypass保护功能的具体处理流程有所不同:
· 在SFF 1上指定Bypass End.AS SID时:
¡ 当SFF 1和SF之间不可达时,SFF 1解封装报文,去掉原IPv6和SRH报文头,并重新封装IPv6头部,IPv6头部的目的地址为Bypass End.AS SID b;
¡ SFF 1查路由表将封装后的报文转发至双归备份节点SFF 2;
¡ 报文到达SFF 2后,按照正常SRv6服务链静态代理的转发流程处理报文。
· 在SFF 1上不指定Bypass End.AS SID时:
¡ 当SFF 1和SF之间不可达时,SFF 1跳过当前的End.AS SID a,修改IPv6头部目的地址为c;
¡ SFF 1按照正常SRv6转发流程将报文转发至尾节点。
网络中同时部署Bypass保护和双归保护功能的情况下:
(1) 如果主SFF和主SF之间不可达,则优先按双归保护机制转发报文,由备SFF将报文转发至主SF处理。
(2) 如果备SFF和主SF之间不可达,则按Bypass保护机制转发报文,报文绕行到Bypass SF处理。
(3) 双归保护和Bypass保护均不可用时,SFF将丢弃报文。
图142 同时部署Bypass保护和双归保护功能组网
SRv6服务链伪代理适用于SF可以识别SRv6报文的场景。
SFF将SRv6报文的目的地址修改为SRH[0],即SRv6 TE Policy的SID列表中最后一个SID。再根据配置的出接口将SRv6报文转发给SF。SF完成应用服务处理后,不改变SRv6报文的源、目的地址和SRH头部信息,将报文转发回SFF,SFF按照正常SRv6转发流程处理报文。
在SC连接用户网络的接口上配置QoS策略,根据QoS策略中的流分类将特定的用户报文重定向到指定的SRv6 TE Policy。
为了实现服务链伪代理,在SFF上需要引入End.AM SID,并且在SRv6 TE Policy的SID列表中引入End.AM SID。End.AM SID用于标识SRv6服务链伪代理的某个SF。End.AM SID对应的转发动作是:
· 报文从SFF转发到SF时,SFF将SRv6报文的目的地址修改为SRH[0],根据End.AM SID关联的出接口转发报文。
· 报文从SF返回SFF时,SFF将SRv6报文目的地址恢复为SRH[SL],按照正常SRv6报文转发流程转发报文。
图143 SRv6 SFC伪代理工作机制
SRv6 SFC将用户访问服务器的报文引导至防火墙,通过防火墙过滤攻击流量,以保证网络安全。
图144 SRv6 SFC典型应用
确定性网络(Deterministic Networking)是在以太网的基础上为多种业务提供端到端确定性服务质量(QoS)保障的一种新的网络技术架构。现有的IP网络,因其“尽力而为”的转发逻辑,以及存在微突发和拥塞的情况,无法在海量互联网连接的同时提供端到端报文转发的确定性。H3C以IETF DetNet标准为基础,提出了基于RCQF(Resilient Cycle Queuing and Forwarding,弹性周期排队转发)技术的端到端确定性数据传输方案。以“说到做到” 为目标,可以为大规模网络建设提供“准时、稳定、可靠”的确定性质量保障。
确定性网络采用了多种技术和协议,以保证数据在网络上的低延时(准时)、低抖动(稳定)和低丢包率(可靠)。本文将重点介绍实现DetNet网络的核心技术,包括RCQF技术、DetNet OAM(Operations, Administration and Maintenance for Deterministic Networking,确定性网络的操作、管理和维护)技术和多发选收技术。
· RCQF技术
RCQF技术主要用来满足端到端确定性传输过程中的“低抖动”需求,同时增加了弹性能力使其适用于广域网和5G网络。RCQF的弹性能力包括:弹性适应传输时延、传输抖动、大带宽、大包长、接口速率等。
· DetNet OAM
DetNet OAM是一种实现目标报文在SRv6网中确定性传输的主动探测技术。它通过构造探测报文并测量相邻节点间的时隙偏差,然后基于该时隙偏差将报文映射到接口转发出队列,从而实现业务报文在SRv6网络中的确定性传输。
· 多发选收
多发选收技术是指在入口设备上将报文复制成多份,并通过多条路径进行转发。当报文到达出口设备时,选收成一份发送出去。使用该技术,当某条链路发生故障时,报文仍然可以准确地到达对端,同时避免了链路切换所带来的时间开销。
图145 抖动的原理
RCQF如何实现“低抖动”?
RCQF采用了周期排队转发机制 ,其基本思想为:
· 在确定性网络中,为每个确定性业务流提前规划转发路径。
· 在确定性转发设备上,为每个报文分配一个特定的发送时间周期。
图146 周期排队转发机制
RCQF控制“低抖动”的基本机制如下:
· 每个转发节点保持频率
同步,并将自己的时间划分等长时间周期(T)。
· 每个报文在转发节点上的发送时机都被限制在一个特定的
周期内。
· 每个节点的抖动有界,保证端到端的最终抖动有界:2个周期(Y-X=2T)。
图147 RCQF控制“低抖动”的机制
什么是时隙?
设备将转发芯片上的一片内存划分为16个队列。其中:
· 1~15号队列用于转发具有确定性传输需求的报文。
· 0号队列用于转发不要求确定性传输的报文。
· 每个队列按时间片(即周期或时隙)轮询转发报文,每个队列对应一个时间片。如下图所示,队列1对应时隙T1,队列2对应时隙T2,以此类推,队列15对应时隙T15。转发芯片依次发送队列1到队列15的报文,每个队列发送报文的时长为T。
· 如果某个队列中的报文发送完毕,但是该队列对应的时隙还没用完,则时隙中的剩余时间用于发送队列0中的非确定性报文。待时隙时间到达后,开始发送下一个队列的确定性报文。
图148 时隙的原理
什么是时隙偏差?
时隙偏差是指相邻节点之间报文发送时隙的偏差值,由于时隙编号与队列编号一一对应,且每个设备时钟完全同步,时隙偏差的计算方法如下:
· 对于SRv6的源节点,DetNetOAM时隙偏差=DetNetOAM探测报文模拟出本设备时出队列的队列编号-DetNetOAM探测报文进入本设备时入队列的队列编号。
· 对于SRv6的Midpoint和Endpoint节点,DetNetOAM时隙偏差=DetNetOAM探测报文出本设备时出队列的队列编号-DetNetOAM探测报文出上游设备时出队列的队列编号。
如下图所示,源节点A的时隙偏差Δta=Qa2-Qa1,Midpoint B的时隙偏差Δtb=Qb-Qa2, Endpoint C的时隙偏差Δtc=Qc-Qb
图149 何为时隙偏差?
DetNet OAM的工作机制
DetNet OAM的核心功能是探测时隙偏差,转发节点将时隙偏差映射成业务报文的出接口队列,用于指导报文转发。确定性网络技术使用最大时隙偏差指导转发,最终实现时延抖动的确定性。DetNet OAM探测源节点和相邻节点间的最大时隙偏差的工作流程如下:
· SRv6路径的入节点按周期模拟业务流量生成DetNet OAM探测报文,每周期内进行10次探测,探测报文沿着Segment List转发。
· Segment List上的入节点探测本设备探测报文在出接口队列和入接口队列之间的时隙偏差Δt1、其他节点计算本节点和上游节点出队列探测报文的时隙偏差(Δt2,Δt3和Δt4),并将周期内多次探测结果中时隙偏差的最大值、最小值、平均值上送给控制器。
· 控制器取探测周期内时隙偏差的最大值,生成时隙偏差列表(Δt1, Δt2, Δt3, Δt4),并将时隙偏差列表发送给入节点。
· 入节点将时隙偏差列表封装在SRv6报文头中,指导报文转发。
图150 DetNet OAM的工作机制
什么是多发选收?
多发选收,顾名思义就是当DetNet网络存在多条传输链路时,首节点会将确定性业务流的报文复制多份,并在多条链路上同时发送,然后在尾节点上进行冗余副本的消除和重新排序,达到多路备份的目的。如果其中某条链路故障,确定性业务流的报文仍能从其他链路转发到接收端,确保了单个随机事件或单个设备故障不会导致丢包,大大提升了确定性网络的可靠性。
图151 多发选收技术原理
多发选收技术如何提升可靠性?
如下图所示,网络有一定的故障率,在未应用多发选收技术时,若报文按路径PE1->P1->P2->PE2转发,假设每一跳的可靠性为0.99999,则该条路径整体的可靠性为0.99999*0.99999*0.99999≈0.99997。
当应用多发选收技术时,报文按路径PE1->P1->P2->PE2和路径PE1->P3->P4->PE2同时转发,两条路径只要任意一条正常,则报文可以正常转发到接收端,因此多发选收的可靠性为1-(1-0.99997)* (1-0.99997) ≈0.999999999。可以看出,多发选收技术可以极大的提升确定性网络的可靠性。
图152 多发选收技术的可靠性
2022年2月23日下午,全球首张确定性网络在济南对外发布。山东率先建成了覆盖全省16市骨干节点、总长5600公里的高质量确定性网络。
经中国信息通信研究院测试评估,由H3C CR16000-F高端路由器参与承建的山东省确定性网络,在“12G确定性流量+80G背景流量”的高负载下,确定性流量平均时延抖动 6 us 、最大时延抖动仅为 14 us ,实现了广域网端到端确定性流量抖动低于20 us的研究目标,主要性能指标达到国际领先水平。
APN6(Application-aware IPv6 Networking,应用感知型IPv6网络)是一种新型的网络架构,它利用了IPv6扩展头来携带应用信息,使网络设备在解析IPv6报文时可以识别应用,并且感知应用对于网络的需求,进而为不同的应用业务提供精准且差异化的网络服务。APN6将原本位于TCP/IP协议栈不同层次、相互解耦的网络层和应用层重新耦合。
如果把一个IPv6报文比作快递包裹,那么APN6网络中的快递单上不仅仅包含寄件人地址和收件人地址信息,还可以携带寄件客户和收件客户的VIP等级(网络中的用户分组)、包裹类型(网络中的应用业务分类)、客户对于物流运输时限和运输过程中的特殊要求(网络中的时延、丢包等需求)。
图153 APN6网络传输信息
如下图所示,Comware当前采用IPv6目的选项扩展头DOH(Destination Option Header)来携带应用信息,DOH扩展头的位置存在两种情况:
· 在SRH(Segment Routing Header,SRv6报文头)之前:Trace模式,表示携带应用信息的报文可以被APN6网络中每个转发设备逐跳分析和处理。
· 在SRH之后:E2E模式,表示携带应用信息的报文仅在封装和解封装报文时被分析和处理。
图154 APN6报文DOH扩展头的两种模式
APN6网络中报文携带的应用信息被称为APN Header,其长度可变,APN Header包括两类信息:
· APN ID:应用的标识,其长度可变,APN6网络的IPv6报文中必须携带该字段。APN ID又可以划分为:
¡ APP-Group-ID:应用组的标识,长度可变。
¡ User-Group-ID:用户组的标识,长度可变。
¡ Reserved:预留字段。
· APN Parameters:应用对网络质量的需求信息,例如带宽要求、时延要求、抖动要求和丢包率要求等,APN6网络的IPv6报文中该字段为可选项。
图155 APN6的报文和标识情况
IETF草案draft-peng-apn-yang中定义了APN ID的数据模型,即APN ID Template。如下图所示,以总长度为64位的APN ID为例,管理员配置APN ID Template时:
· 支持定义APP-Group-ID最长可占用长度x,同时可以按索引顺序向APP-Group-ID字段中填充多个Field Name,每个Field Name代表一个应用组。
· 支持定义User-Group-ID最长可占用长度y,同时可以按索引顺序向User-Group-ID字段中填充多个Field Name,每个Field Name代表一个用户组。
· 预留字段长度为APN ID的总长度减去x和y。
图156 APN ID的数据模型
APN6的网络架构中存在各种不同设备角色:
· APN-Edge:APN6边缘设备,用于接入应用终端或应用服务器。APN-Edge可以通过QoS策略根据报文的五元组、外层SVLAN或内层C-VLAN等信息来标记报文的应用信息。
· APN-Head:APN6头端节点,即隧道的头端节点。APN-Head可以根据报文的应用信息,将流量引入到合适的隧道中。APN-Edge和APN-Head可以是同一台设备。
· APN-Midpoint:APN6中间节点,支持根据报文携带的应用信息为用户提供iFIT、SRv6 SFC等增值服务。
· APN-Endpoint:APN6尾节点,即隧道的尾节点。APN-Endpoint负责解封装APN6报文。APN-Endpoint还可以继续转发携带应用信息的IPv6报文。
· APN-Controller:APN6网络的控制器,主要用于统一规划和维护APN ID和APN Parameters等信息,定义并下发APN ID相关的转发策略和标记策略。
图157 APN6的网络架构
传统的应用报文中缺少应用对网络质量的需求信息,应用信息的标识也不明确,通常需要借助ACL规则来识别报文。APN6使用APN ID和APN Parameters来标识应用和用户。APN6网络仅需要边缘节点直接在IPv6的报文头中携带APN ID和APN Parameters,网络中其他中转设备直接解析报文头即可识别应用信息,简化运维部署,减少了各设备上的硬件ACL资源消耗。
图158 ACL和APN6规则识别报文对比
IPv6的扩展报文头可以提供可编程空间来携带丰富的APN6应用信息,便于后续的扩展。逐跳选项报文头、目的选项报文头和路由报文头都可以提供可编程空间,均可以用于扩展来携带应用信息。目前,Comware根据草案draft-li-apn-ipv6-encap的定义将APN6的应用信息携带在DOH中。
图159 IPv6报文头均可携带APN6应用信息
APN6兼容各种IPv6+技术,例如SRv6网络切片、确定性网络、SRv6 SFC、iFIT等技术。APN6网络架构中搭配这些技术,可以实现更加精细化的网络服务。例如,APN6结合SRv6网络切片技术,为不同应用提供专属切片网络,保证业务独享资源;APN6结合iFIT技术提供应用级别的实时性能策略、故障界定和可视化运维等。
图160 APN6兼容各种IPv6+技术
APN6可以与SDWAN结合应用,在下图所示的分支站点接入数据中心的SDWAN网络中,通过部署APN6可以实现多种功能。
· 路径选择:基于APN ID,将用户A的特定流量引入到对应的SRv6 TE Policy隧道中转发,流量从客户端到骨干网再到云数据中心实现端到端的统一路径规划,SRv6 TE Policy为特定流量提供可靠性保障。
· 隔离策略:PE A上可以基于APN ID设置隔离策略,不允许APN ID标识的某些用户访问数据中心。基于APN ID可以实现灵活的访问控制。
· 故障检测:对于一些竞技游戏比赛的流量、重要视频会议业务,可以部署iFIT检测,针对特定应用的流量实现逐段的业务质量监控和故障定位,一旦某段网络出现波动可以快速定位故障,并针对性地调优。
图161 APN6应用
随着NFV(Network Function Virtualization,网络功能虚拟化)技术的应用和发展,网络运营商摆脱了对专用硬件的依赖。通过在数据中心部署NFV和云化网元节点,运营商可以向企业客户提供更加多样且差异化的增值服务,因此,运营商一直在积极部署CDC(Cloud Data Center,云数据中心)。CDC和传统的城域网、IP承载网以及IP骨干网的云网融合是现网的一大趋势。
部署云网融合的一体化方案时,网络运营商面临以下问题:
· 统一采用SRv6承载业务时,SRv6报文头开销过大,带宽利用率低。在SRv6 SFC服务链场景中或者TI-LFA FRR的保护机制触发的情况下,SRv6报文很可能出现MTU超限的问题。
· 不支持可视化运维管理,无法清晰界定网络侧和云数据中心故障,判定责任比较困难。
图162 传统运维方案的弊端
H3C提出的云网一体化方案支持G-SRv6技术和iFIT随流检测技术,以更好地满足运营商的企业云服务需求。
H3C的云网一体化方案采用G-SRv6技术和iFIT随流检测技术,解决客户痛点。
· 从接入网到城域网,再到云网核心均通过控制器集中控制,统一管理,由控制器北向接口向用户提供业务编排的能力,实现业务敏捷部署、自动化开通,满足业务快速上线的需求。
· 云网核心采用EVPN L3VPN over SRv6来承载业务,并部署G-SRv6,以压缩SRH扩展头部长度,降低额外开销,提升SRv6网络的有效载荷和带宽利用率。
· 在云PE和网PE上部署逐跳的iFIT随流检测功能,控制器通过Telemetry订阅iFIT检测的信息以实现云PE到网PE之间网络质量可视化呈现,此举使得在网络环节中进行实时隧道转发路径的调整成为可能,同时也可以快速定位故障发生的具体位置,准确划分责任。
图163 云网一体化方案的优势
云网核心均采用CR19000系列核心路由器,部署EVPN L3VPN over SRv6承载业务,采用G-SRv6、iFIT随流检测等技术,满足用户需求。
· 管理员可以通过统一门户页面编排网络转发路径和需要实现的增值业务功能。
· 控制器从北向接口获取管理员编排的配置信息,再通过Netconf下发配置信息到城域网和云网核心设备。
· 控制器通过Telemetry订阅iFIT检测的信息,分析云PE到网PE之间网络质量,并进行可视化呈现。
图164 云网一体化方案的组网
组播技术是IPTV业务系统中的关键技术。频道信号源相当于组播源,终端用户相当于组播数据的接收者,而频道则与组播组对应。
图165 传统组播技术的工作原理
IPTV业务系统采用传统组播方案时,存在以下问题:
· 网络中间节点参与组播协议的运行和组播表项的维护,既导致了高昂的运维成本,也带来了业务规模难以扩展、业务弹性差等困扰。
· 随着组播业务的大规模部署,每当网络发生变化时,组播表项收敛都会十分缓慢。例如,新用户加入时,等待组播表项收敛的时间较长,用户体验不佳。
图166 传统组播方案的瓶颈
新华三提供以G-BIER技术为基础的组播业务方案,以更好地满足日益增长的组播业务需求、适应网络架构发展趋势。
此方案支持将组播源部署在云端,组播源对用户透明,同时支持组播业务快速部署,也便于用户快速加入组播组,能够更好地适应运营商服务的云化趋势。
新方案以G-BIER技术为驱动,针对客户痛点优化组播网络。
· 组播业务部署不涉及网络中间节点,降低了操作难度,提升了部署速度。
· 组播业务变化不影响网络中间节点,消除了大规模部署带来的网络压力,提升了组播业务扩展性。
· 网络中间节点无需感知组播业务,用户加入或离开时组播表项收敛快,降低了终端用户等待时间。
· 网络中间节点无需运行PIM协议,降低了运维难度,节约了运维成本。
图167 G-BIER组播方案优势
为保证业务高可靠性,方案采用双根热备方式,云端组播源通过以太网交换机SW与主备双根连接,借助G-BIER技术,经由核心设备和BRAS设备,向家庭/企业用户提供IPTV业务。
图168 G-BIER组播方案组网
电子政务外网涉及信息外向传输和互联互通,其客户痛点主要有以下几个方面:
· IPv6需求:电子政务外网需要推进互联网协议第六版(IPv6)规模部署和应用工作。
· 高带宽需求:客户需要拥有足够的带宽资源来支持大规模的数据传输和高负载的电子政务应用,保证政务信息的及时传输和处理。
· 高可靠性需求:电子政务外网必须保证24小时稳定运行,确保电子政务系统的正常运作,并且具有容错性和灾备能力,保障电子政务信息系统的可靠性和稳定性。
· 高融合性需求:电子政务系统非常复杂,由多个部门的信息系统交织而成。客户希望电子政务外网能够实现政务系统的统一和融合,提供一站式服务的便利性和高效性。
· 高效运维需求:客户希望通过自动化、智能化的运维管理工具来简化运维流程和操作,并提供实时监控和故障快速定位的能力,以实现电子政务外网的高效、低成本运维。
H3C提出了新一代IPv6+电子政务外网解决方案,使用了SRv6、网络切片、随流检测等新技术来满足电子政务外网需求。
· IPv6演进:配合推进电子政务公共平台IPv6改造,满足数据大集中、智慧城市治理、移动办公等业务带来的大量IP地址需求。
· 超宽承载:40G/100G骨干网,为全省政府部门承载政务服务、市场调节等业务。
· 架构可靠:由不同运营商承建双网络平面架构,实现异地灾备。当主平面发生故障时,网络可以快速切换到备平面,以保证网络的持续性和高可用性。
· 泛在接入:支持5G政务业务、物联网的接入,以及学校、医院等公共单位的统一接入。
· 高效运维:通过随流检测等技术实现网络故障的快速定界定位,减轻运维人员的工作量,提高工作效率,并提升政府客户的满意度。
图169 新一代IPv6+电子政务外网解决方案的客户价值
本方案以IPv6+技术为驱动,针对客户痛点优化电子政务外网。
· 网络整体架构:采用路由器组建40G/100G超宽电子政务外网。
· 主备双平面:由不同运营商承建的双平面互为备份,确保高可用性。
· 网络切片:将网络资源按不同业务逻辑划分成多个独立、可管理的网络片段,实现业务统一承载、特定业务带宽/时延保证、重保业务资源独享。
· IPv6+技术方案:采用SDN架构和SRv6技术,统一承载EVPN L3VPN和IPv4/IPv6业务,实现流量工程和网络SLA差异化保障,保证网络整体的高可靠性和高效性。SDN控制器通过Telemetry订阅iFIT检测信息,实现业务质量可视化,帮助网络管理员实现网络性能的实时监控和优化。
图170 新一代IPv6+电子政务外网解决方案组网
随着智能能源领域在生产与数据网络方面的不断发展与升级,用户需关注电力系统监测、油气管道传输监测以及石油天然气炼化过程的监控等关键业务。在传统IP网络中部署这些业务时,面临如下挑战:
· 业务资源隔离:为降低建设和运维成本,企业希望在一张网中实现业务资源隔离,以满足资源独享的需求。而传统IP网络中业务之间互相抢占资源,无法满足资源独享的需求。
· 低时延抖动:传统的IP网络中,若业务流量突然加剧,可能导致报文转发时延不稳定。uRLLC(超高可靠低时延通信)业务在时延抖动、确定性等方面存在很高的要求。不同的uRLLC业务时延抖动要求也各不相同。传统IP网络无法满足差异化的时延抖动要求。
· 极高可靠性:对于uRLLC业务,客户需要其可靠性能够达到99.9999%,而传统IP网络无法满足这一需求。
· 业务精细化管理:传统IP网络中,如果某个业务流量突发变化,会对其他业务造成影响。因此,客户需要解决业务精细化管理的问题,以避免这种情况的发生。
图171 传统IP网络面临的挑战
H3C的智慧能源方案采用网络切片和确定性网络技术,以更好地满足智慧能源网络业务多样化以及确定性时延抖动的需求。
H3C的智慧能源方案采用网络切片和确定性网络技术,解决客户痛点,提高客户的满意度、降低故障停机时间、保证uRLLC业务的可靠性等,为客户带来了实际的利益和价值。
· 精细化网络切片:全网采用SDN/SRv6部署,通过控制器对业务进行自动化、精细化网络切片。针对不同的网络切片,提供业务连接和访问的隔离;不同的网络切片在网络中分配完全独享的网络资源,从而可以保障业务在网络中不会相互影响。客户可以在一张网中满足不同业务的差异化SLA要求。
· 差异化的SLA保障:不同网络切片根据网络的带宽、时延、抖动等SLA需求,提供差异化的SLA保障,满足各类业务的需求。各类业务都可以得到符合其需求的服务保障,从而提升客户满意度。
· 极高可靠性:基于SRv6的网络切片支持多种可靠性机制(如TI-LFA),可以为IP网络中的任意故障点提供保护,极大地增强了网络切片的可靠性,并有效降低客户的故障停机时间,提高业务连续性和稳定性。
· 确定性时延抖动:确定性网络提供了有界时延和有界抖动的确定性转发能力,可以确保uRLLC业务的时间抖动为微秒级,从而保证uRLLC业务的可靠性,提高客户的业务水平和竞争优势。
图172 网络切片和确定性网络技术的客户价值
省骨干网均采用CR19000系列核心路由器,地市接入网均采用CR16000-F系列高端路由器,全网部署EVPN L3VPN over SRv6承载业务,采用网络切片、确定性网络等技术,满足用户需求。
· 根据不同业务的SLA需求,通过控制器对不同业务进行精细化网络切片。
· 每个网络切片根据业务的时延抖动要求部署确定性网络,例如uRLLC业务。
图173 智慧能源方案组网
智慧教育是一种借助互联网技术将信息化和教育相结合,为老师和学生提供更加智能化的教学和学习体验、服务和支持的新教育模式。
虽然智慧教育应用广泛,但已有的智慧教育网络存在网络带宽不足、网络传输速度慢、网络延迟高、网络安全隐患大、灵活性差和扩展性差等问题。IPv6+智慧教育方案可以借助SRv6、随流检测、SAVNET等技术解决这些问题,并克服网络安全风险。
H3C提出的IPv6+智慧教育方案是一种利用SRv6、G-SRv6、随流检测、SAVNET等多种IPv6+相关技术,为教育机构和学生提供更加智能化的教学和学习服务的解决方案。
H3C提出的IPv6+智慧教育方案致力于解决智慧教育应用中存在的痛点。该方案采用了多种IPv6+相关技术,结合智能教育解决方案和云计算等技术,可以为教育机构和学生提供更智能、高效、安全的教学和学习服务。具体价值如下:
· 提高网络传输效率:采用SRv6分段路由技术为业务提供带宽和QoS保障,提高网络传输速度,确保网络流量更加顺畅。
· 提高数据传输能力:采用高质量的IPv6+路由器设备,如新华三的CR系列核心路由器,提高了数据传输能力,确保网络传输的稳定性。
· 确保网络安全:采用SAVNET等真实源地址验证体系,确保网络的安全可靠,并有效防止网络攻击和侵扰。
图174 智慧教育的客户价值
SRv6应用于教育国干网、省干网、城域网,基于SRv6可以实现L2/L3 VPN功能,并实现关键应用流量智能调度。
骨干核心均采用CR19000系列核心路由器,部署EVPN L3VPN over SRv6来承载业务,采用G-SRv6、iFIT随流检测等技术,满足用户需求。
· 管理员可以通过统一门户页面编排网络转发路径和需要实现的增值业务功能。
· 控制器从北向接口获取管理员编排的配置信息,再通过NETCONF下发配置信息到城域网和云网核心设备。
· 控制器通过Telemetry订阅iFIT检测的信息,分析网络质量,并进行可视化呈现。
· 部署SAVNET等真实源地址验证体系,确保网络的安全可靠。
图175 智慧教育方案组网
