• 产品与解决方案
  • 行业解决方案
  • 服务
  • 支持
  • 合作伙伴
  • 新华三人才研学中心
  • 关于我们

QoS技术介绍


QoS

QoS简介

概述

QoSQuality of Service)即服务质量。对于网络业务,服务质量包括传输的带宽、传送的时延、数据的丢包率等。在网络中可以通过保证传输的带宽、降低传送的时延、降低数据的丢包率以及时延抖动等措施来提高服务质量。

网络资源总是有限的,只要存在抢夺网络资源的情况,就会出现服务质量的要求。服务质量是相对网络业务而言的,在保证某类业务的服务质量的同时,可能就是在损害其它业务的服务质量。例如,在网络总带宽固定的情况下,如果某类业务占用的带宽越多,那么其他业务能使用的带宽就越少,可能会影响其他业务的使用。因此,网络管理者需要根据各种业务的特点来对网络资源进行合理的规划和分配,从而使网络资源得到高效利用。

下面从QoS服务模型出发,对目前使用最多、最成熟的一些QoS技术逐一进行描述。在特定的环境下合理地使用这些技术,可以有效地提高服务质量。

QoS服务模型简介

通常QoS提供以下三种服务模型:

l              Best-Effort service(尽力而为服务模型)

l              Integrated service(综合服务模型,简称Int-Serv

l              Differentiated service(区分服务模型,简称Diff-Serv

1. Best-Effort服务模型

Best-Effort是一个单一的服务模型,也是最简单的服务模型。对Best-Effort服务模型,网络尽最大的可能性来发送报文。但对时延、可靠性等性能不提供任何保证。

Best-Effort服务模型是网络的缺省服务模型,通过FIFO队列来实现。它适用于绝大多数网络应用,如FTPE-Mail等。

2. Int-Serv服务模型

Int-Serv是一个综合服务模型,它可以满足多种QoS需求。该模型使用资源预留协议(RSVP),RSVP运行在从源端到目的端的每个设备上,可以监视每个流,以防止其消耗资源过多。这种体系能够明确区分并保证每一个业务流的服务质量,为网络提供最细粒度化的服务质量区分。

但是,Inter-Serv模型对设备的要求很高,当网络中的数据流数量很大时,设备的存储和处理能力会遇到很大的压力。Inter-Serv模型可扩展性很差,难以在Internet核心网络实施。

3. Diff-Serv服务模型

Diff-Serv是一个多服务模型,它可以满足不同的QoS需求。与Int-Serv不同,它不需要通知网络为每个业务预留资源。区分服务实现简单,扩展性较好。

本文提到的技术都是基于Diff-Serv服务模型。

QoS技术综述

QoS技术包括流分类、流量监管、流量整形、接口限速、拥塞管理、拥塞避免等。下面对常用的技术简单进行一下介绍。

1. QoS技术在网络中的位置

图 1 常用QoS技术在网络中的位置

 

如上图所示,流分类、流量监管、流量整形、拥塞管理和拥塞避免主要完成如下功能:

l              流分类:采用一定的规则识别符合某类特征的报文,它是对网络业务进行区分服务的前提和基础。

l              流量监管:对进入或流出设备的特定流量进行监管。当流量超出设定值时,可以采取限制或惩罚措施,以保护网络资源不受损害。可以作用在接口入方向和出方向。

l              流量整形:一种主动调整流的输出速率的流量控制措施,用来使流量适配下游设备可供给的网络资源,避免不必要的报文丢弃,通常作用在接口出方向。

l              拥塞管理:就是当拥塞发生时如何制定一个资源的调度策略,以决定报文转发的处理次序,通常作用在接口出方向。

l              拥塞避免:监督网络资源的使用情况,当发现拥塞有加剧的趋势时采取主动丢弃报文的策略,通过调整队列长度来解除网络的过载,通常作用在接口出方向。

2. QoS技术在设备中的处理顺序

图 2 QoS技术在同一网络设备中的处理顺序

 

上图简要描述了各种QoS技术在网络设备中的处理顺序。

(1)        首先通过流分类对各种业务进行识别和区分,它是后续各种动作的基础;

(2)        通过各种动作对特性的业务进行处理。这些动作需要和流分类关联起来才有意义。具体采取何种动作,与所处的阶段以及网络当前的负载状况有关。例如,当报文进入网络时进行流量监管;流出节点之前进行流量整形;拥塞时对队列进行拥塞管理;拥塞加剧时采取拥塞避免措施等。

QoS配置方式简介

配置方式介绍

QoS的配置方式分为QoS策略配置方式和非QoS策略配置方式两种。

有些QoS功能只能使用其中一种方式来配置,有些使用两种方式都可以进行配置。在实际应用中,两种配置方式也可以结合起来使用。

1. QoS策略配置方式

QoS策略配置方式是指不通过QoS策略来进行配置。例如,端口限速功能可以通过直接在接口上配置来实现。

2. QoS策略配置方式

QoS策略配置方式是指通过配置QoS策略来实现QoS功能。

QoS策略包含了三个要素:类、流行为、策略。用户可以通过QoS策略将指定的类和流行为绑定起来,灵活地进行QoS配置。

(1)       

类的要素包括:类的名称和类的规则。

用户可以通过命令定义一系列的规则来对报文进行分类。同时用户可以指定规则之间的关系:and或者or

l              and:报文只有匹配了所有的规则,设备才认为报文属于这个类。

l              or:报文只要匹配了类中的任何一个规则,设备就认为报文属于这个类。

(2)        流行为

流行为用来定义针对报文所做的QoS动作。

流行为的要素包括:流行为的名称和流行为中定义的动作。

用户可以通过命令在一个流行为中定义多个动作。

(3)        策略

策略用来将指定的类和流行为绑定起来,对分类后的报文执行流行为中定义的动作。

策略的要素包括:策略名称、绑定在一起的类和流行为的名称。

用户可以在一个策略中定义多个类与流行为的绑定关系。

优先级映射简介

概述

报文在进入设备以后,设备会根据自身情况和相应规则(primapremark)分配或修改报文的各种优先级的值,为队列调度和拥塞控制服务。

优先级映射功能通过报文所携带的优先级字段来映射其他优先级字段值,就可以获得各种用以决定报文调度能力的各种优先级字段,从而可以全面有效的控制报文的转发调度能力。

优先级介绍

优先级用于标识报文传输的优先程度,可以分为两类:报文携带优先级和设备调度优先级。

报文携带优先级包括:802.1p优先级、DSCP优先级、IP优先级、EXP优先级等。这些优先级都是根据公认的标准和协议生成,体现了报文自身的优先等级。

设备调度优先级是指报文在设备内转发时所使用的优先级,只对当前设备自身有效。设备调度优先级包括以下几种:

l              本地优先级(LP):设备为报文分配的一种具有本地意义的优先级,每个本地优先级对应一个队列,本地优先级值越大的报文,进入的队列优先级越高,从而能够获得优先的调度。

l              丢弃优先级(DP):在进行报文丢弃时参考的参数,丢弃优先级值越大的报文越被优先丢弃。

l              用户优先级(UP):设备对于进入的流量,会自动获取报文的优先级,这种报文优先级称为用户优先级。

优先级映射表

设备提供了多张优先级映射表,分别对应相应的优先级映射关系。

通常情况下,可以通过查找缺省优先级映射表来为报文分配相应的优先级。如果缺省优先级映射表无法满足用户需求,可以根据实际情况对映射表进行修改。

流量监管、流量整形和接口限速简介

概述

如果不限制用户发送的流量,那么大量用户不断突发的数据只会使网络更拥挤。为了使有限的网络资源能够更好地发挥效用,更好地为更多的用户服务,必须对用户的流量加以限制。比如限制每个时间间隔某个流只能得到承诺分配给它的那部分资源,防止由于过分突发所引发的网络拥塞。

流量监管、流量整形和接口限速都可以通过对流量规格的监督来限制流量及其资源的使用,它们有一个前提条件,就是要知道流量是否超出了规格,然后才能根据评估结果实施调控。一般采用令牌桶(Token Bucket)对流量的规格进行评估。

流量评估与令牌桶

1. 令牌桶的特点

令牌桶可以看作是一个存放一定数量令牌的容器。系统按设定的速度向桶中放置令牌,当桶中令牌满时,多出的令牌溢出,桶中令牌不再增加。

2. 用令牌桶评估流量

在用令牌桶评估流量规格时,是以令牌桶中的令牌数量是否足够满足报文的转发为依据的。如果桶中存在足够的令牌可以用来转发报文,称流量遵守或符合这个规格,否则称为不符合或超标。

评估流量时令牌桶的参数包括:

l              平均速率:向桶中放置令牌的速率,即允许的流的平均速度。通常配置为CIR

l              突发尺寸:令牌桶的容量,即每次突发所允许的最大的流量尺寸。通常配置为CBS,突发尺寸必须大于最大报文长度。

每到达一个报文就进行一次评估。每次评估,如果桶中有足够的令牌可供使用,则说明流量控制在允许的范围内,此时要从桶中取走与报文转发权限相当的令牌数量;否则说明已经耗费太多令牌,流量超标了。

3. 复杂评估

为了评估更复杂的情况,实施更灵活的调控策略,可以配置两个令牌桶(简称C桶和E桶)。例如TP中有四个参数:

l              CIR:表示向C桶中投放令牌的速率,即C桶允许传输或转发报文的平均速率;

l              CBS:表示C桶的容量,即C桶瞬间能够通过的承诺突发流量;

l              PIR:表示向E桶中投放令牌的速率,即E桶允许传输或转发报文的最大速率;

l              EBS:表示E桶的容量,即E桶瞬间能够通过的超出突发流量。

CBSEBS是由两个不同的令牌桶承载的。每次评估时,依据下面的情况,可以分别实施不同的流控策略:

l              如果C桶有足够的令牌,报文被标记为green,即绿色报文;

l              如果C桶令牌不足,但E桶有足够的令牌,报文被标记为yellow,即黄色报文;

l              如果C桶和E桶都没有足够的令牌,报文被标记为red,即红色报文。

流量监管

流量监管的典型应用是监督进入网络的某一流量的规格,把它限制在一个合理的范围之内,或对超出的部分流量进行“惩罚”,以保护网络资源和运营商的利益。例如可以限制HTTP报文不能占用超过50%的网络带宽。如果发现某个连接的流量超标,流量监管可以选择丢弃报文,或重新设置报文的优先级。

图 3 TP示意图

 

流量监管广泛的用于监管进入Internet服务提供商ISP的网络流量。流量监管还包括对所监管流量的流分类服务,并依据不同的评估结果,实施预先设定好的监管动作。这些动作可以是:

l              转发:比如对评估结果为“符合”的报文继续正常转发的处理。

l              丢弃:比如对评估结果为“不符合”的报文进行丢弃。

l              改变优先级并转发:比如对评估结果为“符合”的报文,将之标记为其它的优先级后再进行转发。

l              改变优先级并进入下一级监管:比如对评估结果为“符合”的报文,将之标记为其它的优先级后再进入下一级的监管。

l              进入下一级的监管:流量监管可以逐级堆叠,每级关注和监管更具体的目标。

流量整形

TSTraffic Shaping,流量整形)是一种主动调整流量输出速率的措施。一个典型应用是基于下游网络结点的TP指标来控制本地流量的输出。

流量整形与流量监管的主要区别在于,流量整形对流量监管中需要丢弃的报文进行缓存——通常是将它们放入缓冲区或队列内。当令牌桶有足够的令牌时,再均匀的向外发送这些被缓存的报文。流量整形与流量监管的另一区别是,整形可能会增加延迟,而监管几乎不引入额外的延迟。

图 4 TS示意图

 

例如,在下图所示的应用中,设备Router ARouter B发送报文。Router B要对Router A发送来的报文进行TP监管,对超出规格的流量直接丢弃。

图 5 流量整形的应用

 

为了减少报文的无谓丢失,可以在Router A的出口对报文进行流量整形处理。将超出流量整形特性的报文缓存在Router A中。当可以继续发送下一批报文时,流量整形再从缓冲队列中取出报文进行发送。这样,发向Router B的报文将都符合Router B的流量规定。

接口限速

利用LRLine Rate,物理接口限速)可以在一个物理接口上限制发送报文(包括紧急报文)的总速率。

LR也是采用令牌桶进行流量控制。如果在设备的某个接口上配置了LR,所有经由该接口发送的报文首先要经过LR的令牌桶进行处理。如果令牌桶中有足够的令牌,则报文可以发送;否则,报文将进入QoS队列进行拥塞管理。这样,就可以对通过该物理接口的报文流量进行控制。

图 6 LR处理过程示意图

 

由于采用了令牌桶控制流量,当令牌桶中存有令牌时,可以允许报文的突发性传输;当令牌桶中没有令牌时,报文必须等到桶中生成了新的令牌后才可以继续发送。这就限制了报文的流量不能大于令牌生成的速度,达到了限制流量,同时允许突发流量通过的目的。

与流量监管相比,物理接口限速能够限制在物理接口上通过的所有报文。当用户只要求对所有报文限速时,使用物理接口限速比较简单。

拥塞管理简介

拥塞的产生、影响和对策

所谓拥塞,是指当前供给资源相对于正常转发处理需要资源的不足,从而导致服务质量下降的一种现象。

在复杂的Internet分组交换环境下,拥塞极为常见。以下图中的两种情况为例:

图 7 流量拥塞示意图

 

拥塞有可能会引发一系列的负面影响:

l              拥塞增加了报文传输的延迟和抖动,可能会引起报文重传,从而导致更多的拥塞产生。

l              拥塞使网络的有效吞吐率降低,造成网络资源的利用率降低。

l              拥塞加剧会耗费大量的网络资源(特别是存储资源),不合理的资源分配甚至可能导致系统陷入资源死锁而崩溃。

在分组交换以及多用户业务并存的复杂环境下,拥塞又是不可避免的,因此必须采用适当的方法来解决拥塞。

拥塞管理的中心内容就是当拥塞发生时如何制定一个资源的调度策略,以决定报文转发的处理次序。

拥塞管理策略

对于拥塞管理,一般采用队列技术,使用一个队列算法对流量进行分类,之后用某种优先级别算法将这些流量发送出去。每种队列算法都是用以解决特定的网络流量问题,并对带宽资源的分配、延迟、抖动等有着十分重要的影响。

拥塞管理的处理包括队列的创建、报文的分类、将报文送入不同的队列、队列调度等。队列调度对不同优先级的报文进行分级处理,优先级高的会得到优先发送。

这里介绍几种常用的队列调度机制。

1. FIFO(先入先出队列,First In First Out Queuing

图 8 先入先出队列示意图

 

如上图所示,FIFO按照时间到达的先后决定分组的转发次序。用户的业务流在某个设备能够获得的资源取决于分组的到达时机及当时的负载情况。Best-Effort报文转发方式采用的就是FIFO的排队策略。

如果设备的每个端口只有一个基于FIFO的输入或输出队列,那么恶性的应用可能会占用所有的网络资源,严重影响关键业务数据的传送。

每个队列内部报文的发送(次序)关系缺省是FIFO

2. PQ(优先队列,Priority Queuing

图 9 优先队列示意图

 

PQ队列是针对关键业务应用设计的。关键业务有一个重要的特点,即在拥塞发生时要求优先获得服务以减小响应的延迟。PQ可以根据网络协议(比如IPIPX)、数据流入接口、报文长短、源地址/目的地址等灵活地指定优先次序。优先队列将报文分成4类,分别为高优先队列(top)、中优先队列(middle)、正常优先队列(normal)和低优先队列(bottom),它们的优先级依次降低。缺省情况下,数据流进入normal队列。每个队列内部又遵循FIFO原则。

在队列调度时,PQ严格按照优先级从高到低的次序,优先发送较高优先级队列中的分组,当较高优先级队列为空时,再发送较低优先级队列中的分组。这样,将关键业务的分组放入较高优先级的队列,将非关键业务的分组放入较低优先级的队列,可以保证关键业务的分组被优先传送,非关键业务的分组在处理关键业务数据的空闲间隙被传送。

PQ的缺点是:拥塞发生时,如果较高优先级队列中长时间有分组存在,那么低优先级队列中的报文将一直得不到服务。

3. CQ(定制队列,Custom Queuing

图 10 定制队列示意图

 

CQ通常有17个队列,0160队列为保留的系统队列,116号队列是用户队列,如上图所示。用户可以配置流分类的规则,指定16个用户队列占用接口或PVC带宽的比例关系。

在队列调度时,系统队列中的分组被优先发送。直到系统队列为空,再采用轮询的方式按照预先配置的带宽比例依次从116号用户队列中取出一定数量的分组发送出去。这样,就可以使不同业务的分组获得不同的带宽,既可以保证关键业务能获得较多的带宽,又不至于使非关键业务得不到带宽。缺省情况下,数据流进入1号队列。

定制队列的另一个优点是:可根据业务的繁忙程度分配带宽,适用于对带宽有特殊需求的应用。虽然16个用户队列的调度是轮询进行的,但对每个队列不是固定地分配服务时间片——如果某个队列为空,那么马上换到下一个队列调度。因此,当没有某些类别的报文时,CQ调度机制能自动增加现存类别的报文可占的带宽。

4. WFQ(加权公平队列,Weighted Fair Queuing

图 11 加权公平队列示意图

 

在介绍加权公平队列前,先要理解公平队列FQFair Queuing)。FQ是为了公平地分享网络资源,尽可能使所有流的延迟和抖动达到较优而推出的。它照顾了各方面的利益,主要表现在:

l              不同的队列获得公平的调度机会,从总体上均衡各个流的延迟。

l              短报文和长报文获得公平的调度:如果不同队列间同时存在多个长报文和短报文等待发送,应当顾及短报文的利益,让短报文优先获得调度,从而在总体上减少各个流的报文间的抖动。

FQ相比,WFQ在计算报文调度次序时增加了优先权方面的考虑。从统计上,WFQ使高优先权的报文获得优先调度的机会多于低优先权的报文。WFQ能够按流的“会话”信息(协议类型、源和目的TCPUDP端口号、源和目的IP地址、ToS域中的优先级位等)自动进行流分类,并且尽可能多地提供队列,以将每个流均匀地放入不同队列中,从而在总体上均衡各个流的延迟。在出队的时候,WFQ按流的优先级来分配每个流应占有出口的带宽。优先级的数值越小,所得的带宽越少。优先级的数值越大,所得的带宽越多。

例如:接口中当前共有5个流,它们的优先级分别为01234,则带宽总配额为所有(流的优先级+1)的和,即1234515

每个流所占带宽比例为:(自己的优先级数+1/(所有(流的优先级+1)的和)。即每个流可得的带宽分别为:1/152/153/154/155/15

由于WFQ在拥塞发生时能均衡各个流的延迟和抖动,所以WFQ在一些特殊场合得到了有效的应用。比如在使用资源预留协议RSVPResource Reservation Protocol)的保证型业务中,通常就是采用WFQ作为调度策略;在流量整形中,也采用WFQ调度缓存的报文。

5. CBQ(基于类的队列,Class Based Queuing

图 12 基于类的队列示意图

 

CBQ是对WFQ功能的扩展,为用户提供了定义类的支持。在网络拥塞时,CBQ根据用户定义的类规则对报文进行匹配,并使其进入相应的队列,在入队列之前必须进行拥塞避免机制和带宽限制的检查。在报文出队列时,加权公平调度每个类对应的队列中的报文。

CBQ包括以下队列:

l              紧急队列:CBQ提供一个紧急队列,紧急报文入该队列,该队列采用FIFO调度,没有带宽限制。

l              LLQLow Latency Queuing,低延迟队列):即EF队列。如果CBQ加权公平对待所有类的队列,实时业务报文(包括语音与视频业务,对延迟比较敏感)就可能得不到及时发送。为此引入一个EF队列,为实时业务报文提供严格优先发送服务。LLQ将严格优先队列机制与CBQ结合起来使用,用户在定义类时可以指定其享受严格优先服务,这样的类称作优先类。所有优先类的报文将进入同一个优先队列,在入队列之前需对各类报文进行带宽限制的检查。报文出队列时,将首先发送优先队列中的报文,直到发送完后才发送其他类对应的队列的报文。为了不让其他队列中的报文延迟时间过长,在使用LLQ时将会为每个优先类指定可用最大带宽,该带宽值用于拥塞发生时监管流量。如果拥塞未发生,优先类允许使用超过分配的带宽。如果拥塞发生,优先类超过分配带宽的数据包将被丢弃。

l              BQBandwidth Queuing,带宽队列):即AF队列。为AF业务提供严格、精确的带宽保证,并且保证各类AF业务之间按一定的比例关系进行队列调度。最多支持64AF队列。

l              缺省队列:一个WFQ队列,用来支撑BE业务,使用接口剩余带宽进行发送。

系统在为报文匹配规则时,规则如下:

l              先匹配优先类,然后再匹配其他类;

l              对多个优先类,按照配置顺序逐一匹配;

l              对其他类,也是按照配置顺序逐一匹配;

l              对类中多个规则,按照配置顺序逐一匹配。

6. RTPReal-time Transport Protocol)优先队列

RTP优先队列是一种保证实时业务(包括语音与视频业务)服务质量的简单的队列技术。其原理就是将承载语音或视频的RTP报文送入高优先级队列,使其得到优先发送,保证时延和抖动降低为较低限度,从而保证了语音或视频这种对时延敏感业务的服务质量。

图 13 RTP队列示意图

 

如上图所示,RTP优先队列将RTP报文送入一个具有较高优先级的队列。RTP报文是端口号在一定范围内为偶数的UDP报文,端口号的范围可以配置。RTP优先队列可以同下面队列(包括FIFOPQCQWFQ)结合使用,而它的优先级是最高的。

硬件实现拥塞管理简介

拥塞的产生、影响和对策

所谓拥塞,是指当前供给资源相对于正常转发处理需要资源的不足,从而导致服务质量下降的一种现象。

在复杂的Internet分组交换环境下,拥塞极为常见。以下图中的两种情况为例:

图 14 流量拥塞示意图

 

拥塞有可能会引发一系列的负面影响:

l              拥塞增加了报文传输的延迟和抖动,可能会引起报文重传,从而导致更多的拥塞产生。

l              拥塞使网络的有效吞吐率降低,造成网络资源的利用率降低。

l              拥塞加剧会耗费大量的网络资源(特别是存储资源),不合理的资源分配甚至可能导致系统陷入资源死锁而崩溃。

在分组交换以及多用户业务并存的复杂环境下,拥塞又是不可避免的,因此必须采用适当的方法来解决拥塞。

拥塞管理的中心内容就是当拥塞发生时如何制定一个资源的调度策略,以决定报文转发的处理次序。拥塞管理的处理包括队列的创建、报文的分类、将报文送入不同的队列、队列调度等。

拥塞管理策略

对于拥塞管理,一般采用队列技术,使用一个队列算法对流量进行分类,之后用某种优先级别算法将这些流量发送出去。每种队列算法都是用以解决特定的网络流量问题,并对带宽资源的分配、延迟、抖动等有着十分重要的影响。

队列调度对不同优先级的报文进行分级处理,优先级高的会得到优先发送。这里介绍四种常用的队列:严格优先级SPStrict-Priority)队列、加权轮询WRRWeighted Round Robin)队列、加权公平队列(Weighted Fair Queuing)和基于类的队列CBQClass Based Queuing)。

1. SP队列

图 15 SP队列示意图

 

SP队列是针对关键业务类型应用设计的。关键业务有一个重要的特点,即在拥塞发生时要求优先获得服务以减小响应的延迟。以上图为例,优先队列将端口的8个输出队列分成8类,依次为76543210队列,它们的优先级依次降低。

在队列调度时,SP严格按照优先级从高到低的次序优先发送较高优先级队列中的分组,当较高优先级队列为空时,再发送较低优先级队列中的分组。这样,将关键业务的分组放入较高优先级的队列,将非关键业务的分组放入较低优先级的队列,可以保证关键业务的分组被优先传送,非关键业务的分组在处理关键业务数据的空闲间隙被传送。

SP的缺点是:拥塞发生时,如果较高优先级队列中长时间有分组存在,那么低优先级队列中的报文将一直得不到服务。

SP队列分为:

l              基本SP队列:基本SP队列包含多个队列,分别对应不同的优先级,按优先级递减的顺序进行调度。

l              多模式SP队列:在基本SP队列基础上扩展出不同的调度模式。

多模式SP队列的模式说明如下:

l              SP模式0,基本SP队列,严格按照优先级对队列进行调度。

l              SP模式1,此种模式下,当外部存储器空间足够时,按SP队列调度算法执行;当外部存储器没有空间时,即使有更高优先级的队列等候在那里,调度算法也可选择芯片内存中的低优先级报文进行转发。

l              SP模式2,此种模式下,只要芯片内存中有报文,这些报文就会被选择输出;芯片内存中没有报文时,所有的报文按SP队列调度算法进行调度。本模式的缺点是会降低外部存储器总线带宽。

2. WRR队列

图 16 WRR队列示意图

 

WRR队列在队列之间进行轮流调度,保证每个队列都得到一定的服务时间。以端口有8个输出队列为例,WRR可为每个队列配置一个加权值(依次为w7w6w5w4w3w2w1w0),加权值表示获取资源的比重。如一个100Mbps的端口,配置它的WRR队列的加权值为5050303010101010(依次对应w7w6w5w4w3w2w1w0),这样可以保证最低优先级队列至少获得5Mbps的带宽,避免了采用SP调度时低优先级队列中的报文可能长时间得不到服务的缺点。

WRR队列还有一个优点是,虽然多个队列的调度是轮询进行的,但对每个队列不是固定地分配服务时间片——如果某个队列为空,那么马上换到下一个队列调度,这样带宽资源可以得到充分的利用。

WRR队列分为:

l              基本WRR队列:基本WRR队列包含多个队列,用户可以定制各个队列的权重、百分比或字节计数,WRR按用户设定的参数进行加权轮询调度。

l              分组WRR队列:所有队列全部采用WRR调度,用户可以根据需要将输出队列划分为WRR优先级队列组1WRR优先级队列组2。进行队列调度时,设备首先在优先级队列组1中进行轮询调度;优先级队列组1中没有报文发送时,设备才在优先级队列组2中进行轮询调度。

l              带最大时延的WRR队列:带最大时延的WRR队列调度算法与基本WRR队列相比,一个特别之处是,保证在优先级最高的队列中的报文从进入队列到离开队列的最大时间不超过所设定的最大时延。

3. WFQ队列

图 17 WFQ队列

 

WFQWRR队列调度算法类似,在权重算法上都支持byte-countweight,也支持SP分组,可以相互替换。

两者差异如下:WRR支持最大时延,可以保证所配置队列中的报文从进入队列到离开队列的最大时间不超过所设定的最大时延;WFQ支持带宽保证,可以保证端口流量拥塞时能够获得的最小队列带宽。

4. CBQ队列

CBQ为用户提供了定义类的支持,为每个用户定义的类分配一个单独的FIFO预留队列,用来缓冲同一类的数据。在网络拥塞时,CBQ对报文根据用户定义的类规则进行匹配,并使其进入相应的队列,在入队列之前必须进行拥塞避免机制和带宽限制的检查。在报文出队列时,加权公平调度每个类对应的队列中的报文。

CBQ提供LLQLow Latency Queuing,低延迟队列),为实时业务报文提供严格优先发送服务。在使用LLQ时将会为每个优先类指定可用最大带宽,该带宽值用于拥塞发生时监管流量。如果拥塞未发生,优先类允许使用超过分配的带宽。如果拥塞发生,优先类超过分配带宽的数据包将被丢弃。LLQ还可以指定Burst-size

CBQ还提供BQBandwidth Queuing,带宽队列)调度队列和加权公平调度队列。这两种队列缺省采用尾丢弃的策略。用户还可以选择用加权随机早期检测(Weighted Random Early DetectionWRED)的丢弃策略来进行流量限制。

系统在为报文匹配规则时,规则如下:

l              不同类之间按照C-B对的配置顺序逐一匹配,先配置先生效。

l              同一个类内的多个规则也是按照配置顺序逐一匹配,先配置先生效。

拥塞避免简介

过度的拥塞会对网络资源造成极大危害,必须采取某种措施加以解除。拥塞避免(Congestion Avoidance)是一种流量控制机制,它通过监视网络资源(如队列或内存缓冲区)的使用情况,在拥塞产生或有加剧的趋势时主动丢弃报文,通过调整网络的流量来解除网络过载。

与端到端的流量控制相比,这里的流量控制具有更广泛的意义,它影响到设备中更多的业务流的负载。设备在丢弃报文时,需要与源端的流量控制动作(比如TCP流量控制)相配合,调整网络的流量到一个合理的负载状态。丢包策略和源端流控机制有效的组合,可以使网络的吞吐量和利用效率最大化,并且使报文丢弃和延迟最小化。

传统的丢包策略

传统的丢包策略采用尾部丢弃(Tail-Drop)的方法。当队列的长度达到最大值后,所有新到来的报文都将被丢弃。

这种丢弃策略会引发TCP全局同步现象:当队列同时丢弃多个TCP连接的报文时,将造成多个TCP连接同时进入拥塞避免和慢启动状态以降低并调整流量,而后又会在某个时间同时出现流量高峰。如此反复,使网络流量忽大忽小,网络不停震荡。

REDWRED

为避免TCP全局同步现象,可使用REDRandom Early Detection,随机早期检测)或WREDWeighted Random Early Detection,加权随机早期检测)。

REDWRED通过随机丢弃报文避免了TCP的全局同步现象,使得当某个TCP连接的报文被丢弃、开始减速发送的时候,其他的TCP连接仍然有较高的发送速度。这样,无论什么时候,总有TCP连接在进行较快的发送,提高了线路带宽的利用率。

RED类算法中,为每个队列都设定上限和下限,对队列中的报文进行如下处理:

l              当队列的长度小于下限时,不丢弃报文;

l              当队列的长度超过上限时,丢弃所有到来的报文;

l              当队列的长度在上限和下限之间时,开始随机丢弃到来的报文。队列越长,丢弃概率越高,但有一个最大丢弃概率。

RED不同,WRED生成的随机数是基于优先权的,它引入IP优先权区别丢弃策略,考虑了高优先权报文的利益,使其被丢弃的概率相对较小。

直接采用队列的长度和上限、下限比较并进行丢弃,将会对突发性的数据流造成不公正的待遇,不利于数据流的传输。WRED采用平均队列和设置的队列上限、下限比较来确定丢弃的概率。

队列平均长度既反映了队列的变化趋势,又对队列长度的突发变化不敏感,避免了对突发性数据流的不公正待遇。计算队列平均长度的公式为:平均队列长度=(以前的平均队列长度×(1-1/2n次方)))+(当前队列长度×(1/2n次方)))。其中n可以通过命令qos wred weighting-constant进行配置。

当队列机制采用WFQ时,可以为不同优先级的报文设定计算队列平均长度时的指数、上限、下限、丢弃概率,从而对不同优先级的报文提供不同的丢弃特性。

当队列机制采用FIFOPQCQ时,可以为每个队列设定计算队列平均长度时的指数、上限、下限、丢弃概率,为不同类别的报文提供不同的丢弃特性。

WRED和队列机制的关系

WRED和队列机制的关系如下图所示。

图 18 WRED和队列机制关系示意图

 

WREDWFQ配合使用时,可以实现基于流的WRED。在进行分类的时候,不同的流有自己的队列,对于流量小的流,由于其队列长度总是比较小,所以丢弃的概率将比较小。而流量大的流将会有较大的队列长度,从而丢弃较多的报文,保护了流量较小的流的利益。

流量过滤简介

流量过滤就是将符合流分类的流配置流量过滤动作。

例如,可以根据网络的实际情况禁止从某个源IP地址发送的报文通过。

重标记简介

重标记是将报文的优先级或者标志位进行设置,重新定义流量的优先级等。例如,对于IP报文来说,所谓重标记就是对IP报文中的IP优先级或DSCP值进行重新设置,改变IP报文在网络传输中状态。

重标记动作的配置,可以通过与类关联,将原来报文的优先级或标志位重新进行标记。

流量重定向简介流量重定向就是将符合流分类的流重定向到其他地方进行处理。

目前支持的流量重定向包括以下几种:

l              重定向到均衡组:均衡组可以像以太网接口一样被其他业务使用。

l              重定向到CPU:对于需要CPU处理的报文,可以通过配置上送给CPU

l              重定向到接口:对于收到需要由某个接口处理的报文时,可以通过配置重定向到此接口。

l              重定向到下一跳:对于收到需要由某个接口处理的报文时,可以通过配置重定向到此接口。

l              重定向到业务环回组:当某块业务板收到需要由其它业务板进行处理的报文时,该业务板将此报文发送到能处理该业务的单板上完成报文的处理和转发,将多个业务环回端口绑定在一起就构成业务环回组,能够增加板间业务重定向的吞吐能力。

l              重定向到指定的VPN实例:对于需要某个VPN处理的报文,可以通过配置重定向到此VPN实例。

全局CAR简介

全局CAR是在全局创建的一种策略,所有应用该策略的数据流将共同接受全局CAR的监管。

目前全局CAR支持聚合CAR和分层CAR两种。

聚合CAR

聚合CAR是指能够对多个业务流使用同一个CAR进行流量监管,即如果多个端口应用同一聚合CAR,则这多个端口的流量之和必须在此聚合CAR设定的流量监管范围之内。

分层CAR

分层CAR是一种更灵活的流量监管策略,用户可以在为每个流单独配置CAR动作(或聚合CAR)的基础上,再通过分层CAR对多个流的流量总和进行限制。

分层CAR与普通CAR(或聚合CAR)的结合应用有两种模式:

l              and:在该模式下,对于多条数据流应用同一个分层CAR,必须每条流满足各自的普通CAR(或聚合CAR)配置,同时各流量之和又满足分层CAR的配置,流量才能正常通过。and模式适用于严格限制流量带宽的环境,分层CAR的限速配置通常小于各流量自身CAR的限速值之和。例如对于Internet流量,可以使用普通CAR将数据流1和数据流2各自限速为128kbps,再使用分层CAR限制总流量为192kbps。当不存在数据流1时,数据流2可以用达到自身限速上限的速率访问Internet,如果存在数据流1,则两个数据流不能超过各自限速且总速率不能超过192kbps

l              or:在该模式下,对于多条数据流应用同一个分层CAR,只要每条流满足各自的普通CAR(或聚合CAR)配置或者各流量之和满足分层CAR配置,流量即可正常通过。or模式适用于保证高优先级业务带宽的环境,分层CAR的限速值通常等于或大于各流量自身的限速值之和。例如对于视频流量,使用普通CAR将数据流1和数据流2各自限速128kbps,再使用分层CAR限制总流量为512kbps,则当数据流1的流量不足128kbps时,即使数据流2的流量达到了的384kbps,仍然可以正常通过。

两种模式可以结合起来使用,达到合理利用带宽的效果。例如,存在一条视频流和一条数据流,使用普通CAR将数据流限速1024kbps、视频流限速2048kbps。连接视频流接口采用or模式CAR限速3072kbps,因为可能存在多台视频设备同时上线出现的突发流量,当视频设备流量速率超出2048kbps时,如果总体流量资源仍有剩余(即数据流速率在1024kbps以内),这时视频流可以临时借用数据流的带宽;同时,连接数据流接口采用and模式CAR限速3072kbps,确保数据流量不能超出自身限速的1024kbps

EACL简介

EACLEnhanced ACL,增强型ACL),即把ACL重定向到业务板。目前设备只支持自反ACLBT限流。

自反ACL

自反ACL是增强系统安全性的一种方法,它是一种动态的ACL。所谓动态ACL就是动态生成ACL表项,其基本思想就是根据内网访问外网的情况生成外网访问内网的ACL规则,如果内网没有访问外网,外网不能主动发起对内网的访问。

BT限流

BitTorrent(比特洪流,简称BT)是一种用来进行文件下载的共享软件,其特点是下载的人越多,速度越快。BT下载大大降低了下载服务器的负荷,但也造成网络下载数据量的剧增,使得网络带宽被大量的BT下载流量占据,严重影响其它网络业务,由此产生了对BT流量进行有效控制的需求。

QoS根据BT对等协议的特征(报文包含“BitTorrent protocol”字段)来标记报文,从而达到限制BT报文传输的目的。

DAR简介

今天,Internet已经成为企业实施各种业务的主要媒介,各种基于业务的应用也不断出现。因此,目前只对报文中的IP报头进行检查的简单机制已经无法适用于当今复杂的网络,故提出了基于业务的深度应用识别的概念。

DARDeeper Application Recognition,深度应用识别)是一个智能的识别分类工具,它可以对报文中第4层到第7层的内容和一些动态协议(如BTHTTPFTPRTP)进行检查和识别,以区分出各种基于应用的协议,弥补了原先只能对报文进行简单分类的不足。

另外,随着P2PPeer to Peer,对等网络)技术的不断发展和广泛应用,P2P数据流量在网络流量中所占的比重越来越大,这不仅对网络带宽资源造成了浪费,还对其他业务的正常运行造成了严重影响。因此,DAR还需要对P2P流量进行单独的识别。

通过对报文进行深度的识别和分类,大大加强了用户对数据流的控制,可以更有效的为关键业务数据实施高优先级的策略,进一步保护用户投资。

流量统计简介

流量统计就是通过与类关联,对符合匹配规则的流进行统计。例如,可以统计从某个源IP地址发送的报文,然后管理员对统计信息进行分析,根据分析情况采取相应的措施。

报文统计简介

设备支持两个统计计数器,可以对入方向和出方向的报文进行统计。

用户可指定每个计数器所统计的报文类型,报文类型包括:单板所有指定方向报文,或单板以下元素的组合所指定的报文——指定接口、指定VLAN、指定本地优先级、指定丢弃优先级。

用户可以同时使能两个统计计数器,分别统计不同的报文类型。

端口队列统计简介

端口队列统计功能可以对队列总长度、当前队列长度、转发报文总数和转发各种颜色报文数等信息进行统计。

当不需要统计时,可以关闭此功能。

Burst功能简介

在下列情况下,Burst功能可以提供更好的报文缓存功能和流量转发性能:

l              广播或者组播报文流量密集,瞬间突发大流量的网络环境中;

l              报文从高速链路进入设备,由低速链路转发出去;或者报文从相同速率的多个接口同时进入设备,由一个相同速率的接口转发出去。

用户可以通过使能Burst功能,降低设备在上述特定环境中的报文丢包率,提高对报文的处理能力。需要注意的是,使能Burst功能后,设备的QoS性能可能会受到影响,建议用户根据自己的具体网络环境进行配置。

QPPB简介

QPPB概述

在部署大型复杂网络时,需要执行大量的复杂流分类,而且无法按照团体属性、ACLPrefixAS-Path对报文进行分类。如果网络结构不稳定,需经常变化网络结构时,配置修改的工作量非常大甚至难以实施,可以通过部署QPPB减少配置修改的工作量。

应用QPPB技术可以由BGP路由发送者通过设置BGP属性预先对路由进行分类。这样在网络拓扑结构发生变化时只需要修改路由发送者上的路由策略就可以满足需求。

QPPBQoS Policy Propagation Through the Border Gateway Protocol,通过BGP传播QoS策略)技术是一项通过BGP路由策略部署QoS的技术,通过基于BGP路由的团体列表、AS-Paths listACLPrefix list等属性进行路由分类,对不同的分类应用不同的QoS策略。

QPPB技术适用于基于目的地址或源地址进行流分类的应用场合,适用于IBGPEBGP,可以在同一个自治系统内部或者不同的自治系统之间实现。

QPPB原理

QPPB技术主要通过BGP传播的路由属性设置QoS参数,应用QoS策略,从而实现QoS保障,分为对路由发送者的设置和对路由接收者的设置。

BGP路由发送者在向邻居发送路由时,先匹配路由策略,为发送的不同路由信息设置不同的BGP路由属性。

BGP邻居在接收到路由后,匹配路由策略,QPPB可以根据报文的源IP地址或目的IP地址为接收到的BGP路由设置IP优先级和QoS本地ID。配置QoS策略,根据IP优先级和QoS本地ID对报文进行分类,应用不同的QoS策略,从而实现QoS保证。

 

附件下载

新华三官网
联系我们