diffserv.tex
上传用户:rrhhcc
上传日期:2015-12-11
资源大小:54129k
文件大小:19k
源码类别:

通讯编程

开发平台:

Visual C++

  1. %
  2. % Most parts are ported from the Manual of diffserv from Nortel
  3. % -xuanc (Nov 16, 2000)        
  4. % Second cut by xuanc (Oct 18, 2001)
  5. %
  6. chapter{Differentiated Services Module in ns}
  7. label{chap:diffserv}
  8. textbf{Note: The Differentiated Services module described in this chapter has been integrated into ns-2.1b8.}
  9. Differentiated Services, or DiffServ, is an IP QoS architecture based on 
  10.   packet marking that allows packets to be prioritized according to user 
  11.   requirements.  
  12. During the time of congestion, 
  13.   more low priority packets are discarded than high priority packets.
  14. This chapter describes the DiffServ module that was originally 
  15.   implemented by the Advanced IP Networks group in 
  16.   Nortel Networks~cite{Diffserv}.
  17. section{Overview}
  18. label{sec:diffservoverview}
  19. The DiffServ architecture provides QoS by 
  20.   dividing traffic into different categories, 
  21.   marking each packet with a code point that indicates its category, 
  22.   and scheduling packets according accordingly. 
  23. The DiffServ module in~ns can support four classes of traffic, 
  24.   each of which has three dropping precedences allowing
  25.   differential treatment of traffic within a single class. 
  26. Packets in a single class of traffic are enqueued into 
  27.   one corresponding physical RED queue, 
  28.   which contains three virtual queues (one for each drop precedence).
  29. Different RED parameters can be configured for virtual queues, 
  30.   causing packets from one virtual queue to be dropped 
  31.   more frequently than packets from another.  
  32. A packet with a lower dropping precedence is given 
  33.   better treatment in times of congestion 
  34.   because it is assigned a code point that corresponds to a virtual 
  35.   queue with relatively lenient RED parameters.  
  36. The DiffServ module in~ns has three major components:
  37. begin{description}
  38. item [Policy:]
  39. Policy is specified by network administrator about 
  40.   the level of service a class of traffic should receive in the network.  
  41. item [Edge router:]
  42. Edge router marks packets with a code point according to the policy specified.
  43. item [Core router:]
  44. Core router examines packets' code point marking and forwarding them accordingly.
  45. end{description}
  46. DiffServ attempts to restrict complexity to only the edge routers.
  47. section{Implementation}
  48. label{sec:diffservimplement}
  49. The procedures and functions described in this section can be found in
  50. nsf{diffserv/dsred, dsredq, dsEdge, dsCore, dsPolicy.{cc, h}}.
  51. subsection{RED queue in DiffServ module}
  52. label{sec:dsredq}
  53. A DiffServ queue (in class~code{dsREDQueue}) derived from 
  54.   the base class~code{Queue} is implemented in DiffServ module to 
  55.   provide the basic DiffServ router functionality, 
  56.   see code{dsred.{h,cc}}).
  57. code{dsREDQueue} has the following abilities:
  58. begin{itemize}
  59. item
  60. to implement multiple physical RED queues along a single link;
  61. item
  62. to implement multiple virtual queues within a physical queue, 
  63.   with individual set of parameters for each virtual queue;
  64. item
  65. to determine in which physical and virtual queue a packet is enqueued 
  66.   according to its code point;
  67. item
  68. to determine in from which physical and virtual queue a packet is dequeued 
  69.   according to the scheduling scheme chosen.
  70. end{itemize}
  71. The class~code{dsREDQueue} consists of four physical RED queues,
  72.   each containing three virtual queues.
  73. The number of physical and virtual queues are 
  74.   defined in~code{numPrec} and~code{numQueues_}.
  75. Each combination of physical and virtual queue number is associated with 
  76.   a code point (or a drop preference), 
  77.   which specifies a certain level of service.
  78. The physical queue is defined in class~code{redQueue}, 
  79.   which enables traffic differentiation by defining virtual queues with
  80.   independent configuration and state parameters,
  81.   see~code{dsredq.{h,cc}}. 
  82. For example, 
  83.   the length of each virtual queue is calculated only on packets mapped to 
  84.   that queue.  
  85. Thus, packet dropping decisions can be applied based on 
  86.   the state and configuration parameters of that virtual queues.
  87. Class~code{redQueue} is not equivalent to class~code{REDQueue},
  88.   which was already present in~ns.  
  89. Instead, it is a modified version of RED implementation with 
  90.   the notion of virtual queues and 
  91.   is only used by class~code{redQueue} to realize physical queues.
  92. All user interaction with class~code{redQueue} 
  93.   is handled through the command interface of class~code{dsREDQueue}.
  94. Class~code{dsREDQueue} contains a data structure known as 
  95.   the Per Hop Behavior (PHB) Table 
  96. In DiffServ, edge routers mark packets with code points and 
  97.   core routers simply respond to existing code points;
  98.   both of them use PHB table to map a code point to 
  99.   a particular physical and virtual queue.
  100. The PHB Table is defined as an array with three fields:
  101. begin{program}
  102. struct phbParam {
  103.    int codePt_; // corresponding code point
  104.    int queue_; // physical queue
  105.    int prec_; // virtual queue (drop precedence)
  106. };
  107. end{program}
  108. subsection{Edge and core routers}
  109. label{sec:dsedge}
  110. The DiffServ edge and core routers are defined in 
  111.   class~code{edgeQueue} and class~code{coreQueue}, 
  112.   which are derived from class~code{dsREDQueue},
  113.   see code{dsEdge, dsCore.{h,cc}}. 
  114. Packet marking is implemented in class~code{edgeQueue}.
  115. A packet is marked with a code point according to 
  116.   the policy specified
  117.   before it is put into the corresponding physical and virtual queue.
  118. Class~code{edgeQueue} has a reference to an instance of 
  119.   class~code{PolicyClassifier},
  120.   which contains policies for packet marking.
  121. subsection{Policy}
  122. label{sec:dspolicy}
  123. Class~code{Policy} and its sub-classes (see~code{dsPolicy.{cc, h}}) 
  124.   define the policies used by edge routers to mark incoming packets.
  125. A policy is established between a source and destination node.  
  126. All flows matching that source-destination pair are 
  127.   treated as a single traffic aggregate.
  128. Policy for each different traffic aggregate has 
  129.   an associated policer type, meter type, and initial code point.  
  130. The meter type specifies the method for measuring the state variables 
  131.   needed by the policer.  
  132. For example, 
  133.   the TSW Tagger is a meter that measures the average traffic rate, 
  134.   using a specified time window.
  135. When a packet arrives at an edge router, 
  136.   it is examined to determine to which aggregate it belongs.  
  137. The meter specified by the corresponding policy is invoked to 
  138.   update all state variables.  
  139. The policer is invoked to determine how to mark the packet
  140.   depending on the aggregate's state variables:
  141.   the specified initial code point or 
  142.   a downgraded code point.
  143. Then the packet is enqueued accordingly.
  144. Currently, six different policy models are defined:
  145. begin{enumerate}
  146. item
  147. Time Sliding Window with 2 Color Marking (TSW2CMPolicer): 
  148.   uses a CIR and two drop precedences.  
  149. The lower precedence is used probabilistically when the CIR is exceeded.
  150. item
  151. Time Sliding Window with 3 Color Marking (TSW3CMPolicer): 
  152.   uses a CIR, a PIR, and three drop precedences.  
  153. The medium drop precedence is used probabilistically 
  154.   when the CIR is exceeded and the lowest drop precedence is used 
  155.   probabilistic ally when the PIR is exceeded.
  156. item
  157. Token Bucket (tokenBucketPolicer): 
  158.   uses a CIR and a CBS and two drop precedences.  
  159. An arriving packet is marked with the lower precedence if and 
  160.   only if it is larger than the token bucket.
  161. item
  162. Single Rate Three Color Marker (srTCMPolicer): 
  163.   uses a CIR, CBS, and an EBS to choose from three drop precedences.
  164. item
  165. Two Rate Three Color Marker (trTCMPolicer): 
  166.   uses a CIR, CBS, PIR, and a PBS to choose from three drop precedences.
  167. item
  168. NullPolicer: does not downgrade any packets
  169. end{enumerate}
  170. The policies above are defined as a sub-classes of code{dsPolicy}.
  171. The specific meter and policer are implemented in functions 
  172.   code{applyMeter} and code{applyPolicer},
  173.   which are defined as virtual functions in class~code{dsPolicy}.
  174. User specified policy can be added in the similar way.
  175. Please refer to~code{NullPolicy} as the simplest example.
  176. All policies are stored in the policy table in class~code{PolicyClassifier}.
  177. This table is an array that includes fields for 
  178.   the source and destination nodes, 
  179.   a policer type, a meter type, 
  180.   an initial code point, and various state information as shown below:
  181. begin{quote}
  182. The rates CIR and PIR are specified in bits per second:
  183. CIR: committed information rate
  184. PIR: peak information rate
  185. The buckets CBS, EBS, and PBS are specified in bytes:
  186. CBS: committed burst size
  187. EBS: excess burst size
  188. PBS: peak burst size
  189. C bucket: current size of the committed bucket
  190. E bucket: current size of the excess bucket
  191. P bucket: current size of the peak bucket
  192. Arrival time of last packet
  193. Average sending rate
  194. TSW window length
  195. end{quote}
  196. Class~code{PolicyClassifier} also contains a Policer Table to 
  197.   store the mappings from a policy type and initial code point pair to 
  198.   its associated downgraded code point(s).  
  199. section{Configuration}
  200. label{sec:diffservconfig}
  201. The number of physical and virtual queues can be configured as:
  202. code{$dsredq set numQueues_ 1}
  203. code{$dsredq setNumPrec 2}
  204. Variable~code{numQueues_} in class~code{dsREDQueue}
  205.   specifies the number of physical queues.
  206. It has a default value as 4 defined in~nsf{tcl/lib/ns-default.tcl} 
  207.   and can be changed as shown in the example above.
  208. Variable~code{setNumPrec} sets the number of virtual queues
  209.   within one physical queue.
  210. RED parameters can be configured for each virtual queue as follows:
  211. code{$dsredq configQ 0 1 10 20 0.10}
  212. The mean packet size (in bytes) is also needed for 
  213.   the average RED queue length calculation.
  214. code{$dsredq meanPktSize 1500}
  215. The variant of MRED used to calculate queue sizes can be configured.
  216. code{$dsredq setMREDMode RIO-C 0}
  217. The above command sets the MRED mode of physical queue 0 to RIO-C. 
  218. If the second argument was not included, 
  219.   all queues would be set to RIO-C 
  220.   which is the default. 
  221. The various MRED modes supported in DiffServ module are:
  222. begin{description}
  223. item [RIO-C (RIO Coupled):] 
  224. The probability of dropping an out-of-profile packet is based on 
  225.   the weighted average lengths of all virtual queues; 
  226.   while the probability of dropping an in-profile packet is based solely on 
  227.   the weighted average length of its virtual queue.
  228. item [RIO-D (RIO De-coupled):] 
  229. Similar to RIO-C; 
  230.   except the probability of dropping an out-of-profile packet is based on 
  231.   the size of its virtual queue.
  232. item [WRED (Weighted RED):] 
  233. All probabilities are based on a single queue length. 
  234. item [DROP:] 
  235. Same as a drop tail queue with queue limit set by RED minimum threshold: 
  236.   when the queue size reaches the minimum threshold, 
  237.   all packets are dropped regardless of marking.
  238. end{description}
  239. The following command adds an entry to the PHB Table and 
  240.   maps code point 11 to physical queue 0 and virtual queue 1. 
  241. code{$dsredq addPHBEntry 11 0 1}
  242. In~ns, packets are defaulted to a code point of zero.
  243. Therefore, user must add a PHB entry for the zero code point in order to 
  244.  handle best effort traffic.
  245. In addition, commands are available to allow the user to choose the 
  246.   scheduling mode between physical queues. 
  247. For example:
  248. code{$dsredq setSchedularMode WRR}
  249. code{$dsredq addQueueWeights 1 5}
  250. The above pair of commands sets the scheduling mode to Weighted Round Robin 
  251.   and the weight for queue 1 to 5. 
  252. Other scheduling modes supported are 
  253.   Weighted Interleaved Round Robin (WIRR), Round Robin (RR), 
  254.   and Priority (PRI). 
  255. The default scheduling mode is Round Robin.
  256. For Priority scheduling, 
  257.   priority is arranged in sequential order with 
  258.   queue 0 having the highest priority. 
  259. Also, one can set the a limit on the maximum bandwidth 
  260.   a particular queue can get using as follows:
  261. code{$dsredq setSchedularMode PRI}
  262. code{$dsredq addQueueRate 0 5000000}
  263. These commands specify the maximum bandwidth that 
  264.   queue 0 can consume is 5Mb.
  265. The code{addPolicyEntry} command is used to 
  266.   add an entry to the Policy Table.  
  267. It takes different parameters depending on what policer type is used.  
  268. The first two parameters after the command name are always 
  269.   the source and destination node IDs, 
  270.   and the next parameter is the policer type. 
  271. Following the policer type are the parameters needed by that policer as 
  272. summarized below:
  273. begin{quote}
  274. begin{tabular}{llllll}
  275. Null&{Initial code point}\
  276. TSW2CM&{Initial code point}&CIR\
  277. TSW3CM&{Initial code point}&CIR&PIR\
  278. TokenBucket&{Initial code point}&CIR&CBS\
  279. srTCM&{Initial code point}&CIR&CBS&EBS\
  280. trTCM&{Initial code point}&CIR&CBS&PIR&PBS
  281. end{tabular}
  282. end{quote}
  283.  
  284. Note that the Null policer requires only the initial code point. Since
  285. this policer does not downgrade packets, other information is not necessary.  
  286. Consider a Tcl script for which 
  287.   code{$q} is a variable for an edge queue, 
  288.   and code{$s} and code{$d} are source and destination nodes.   
  289. The following command adds a TSW2CM policer for traffic going from 
  290.   the source to the destination:
  291. code{$q addPolicyEntry [$s id] [$d id] TSW2CM 10 2000000}
  292. Other parameters could be used for different policers 
  293.   in place of "TSW2CM":
  294. begin{quote}
  295. begin{tabular}{llllll}
  296. Null&10\
  297. TSW3CM&10&2000000&3000000\
  298. TokenBucket&10&2000000&10000\
  299. srTCM&10&2000000&10000&20000\
  300. trTCM&10&2000000&10000&3000000&10000
  301. end{tabular}
  302. end{quote}
  303. Note, however, 
  304.   that only one policy can be applied to any source destination pair.
  305. The following command adds an entry to the Policer Table, 
  306.   specifying that the trTCM has
  307.   initial (green) code point 10, downgraded (yellow) code point 11 
  308.   and further downgraded (red) code point 12:
  309. code{$dsredq addPolicerEntry trTCM 10 11 12}
  310. There must be a Policer Table entry in place for every 
  311. policer type and initial code point pair.
  312. It should be noticed that the Null policer is added in the following way:
  313. code{$dsredq addPolicerEntry Null 10}
  314. Downgrade code points are not specified because the Null policy does not
  315. meter traffic characteristics.
  316. Queries supported:
  317. begin{description}
  318. item
  319. Output entires in Policy Table, one line at a time:
  320. code{$dsredq printPolicyTable}
  321. item
  322. Output entires in Policer Table, one line at a time:
  323. code{$dsredq printPolicerTable}
  324. item
  325. Output entries in PHB table, one line at a time:
  326. code{$dsredq printPHBTable}
  327. item
  328. Packets statistic results:
  329. code{$dsredq printStats}
  330. Sample output:
  331. begin{quote}
  332. begin{tabular}{lllll}
  333. multicolumn{5}{l}{Packets Statistics}  \
  334. hlinehline
  335.  CP & TotPkts & TxPkts & ldrops & edrops \
  336. hline
  337. All & 249126 & 249090 &    21 &      15  \
  338.  10 & 150305 & 150300 &     0 &       5  \
  339.  20 & 98821  &  98790 &    21 &      10  \
  340. end{tabular}
  341. end{quote}
  342. begin{quote}
  343. CP: code point
  344. TotPkts: packets received
  345. TxPkts: packets sent
  346. ldrops: packets are dropped due to link overflow
  347.                
  348. edrops: RED early dropping).
  349. end{quote}
  350. item
  351. Returns the RED weighted average size of the specified physical queue:
  352. code{$dsredq getAverage 0}
  353. item
  354. Returns the current size of the C Bucket (in bytes):
  355. code{$dsredq getCBucket}
  356. end{description}
  357. section{Commands at a glance}
  358. label{sec:diffservcommand}
  359. The following is a list of related commands commonly used in
  360.   simulation scripts:
  361. begin{program}
  362. $ns simplex-link $edge $core 10Mb 5ms dsRED/edge
  363. $ns simplex-link $core $edge 10Mb 5ms dsRED/core
  364. end{program}
  365. These two commands create the queues along 
  366.   the link between an edge router and a core router.
  367. begin{program}
  368. set qEC [[$ns link $edge $core] queue]
  369. # Set DS RED parameters from Edge to Core:
  370. $qEC meanPktSize $packetSize
  371. $qEC set numQueues_ 1
  372. $qEC setNumPrec 2
  373. $qEC addPolicyEntry [$s1 id] [$dest id] TokenBucket 10 $cir0 $cbs0
  374. $qEC addPolicyEntry [$s2 id] [$dest id] TokenBucket 10 $cir1 $cbs1
  375. $qEC addPolicerEntry TokenBucket 10 11
  376. $qEC addPHBEntry 10 0 0
  377. $qEC addPHBEntry 11 0 1
  378. $qEC configQ 0 0 20 40 0.02
  379. $qEC configQ 0 1 10 20 0.10
  380. end{program}
  381. This block of code obtains handle to the DiffServ queue 
  382.   from an edge router to a core router and 
  383.   configures all of the parameters for it.
  384. The meanPktSize command is required for the RED state variables to be 
  385.   calculated accurately.  
  386. Setting the number of physical queues and precedence levels is optional, 
  387.   but it aids efficiency. 
  388. Because neither the scheduling or MRED mode type are set, 
  389.   they default to Round Robin scheduling and RIO-C Active Queue Management.
  390. The addPolicyEntry commands establish two policies at the edge queue: 
  391.   one between nodes S1 and Dest and one between nodes S2 and Dest.  
  392. Note that the code{[$s1 id]} command returns the ID value 
  393.   needed by code{addPolicyEntry}.  
  394. The CIR and CBS values used in the policies are the ones set at 
  395.   the beginning of the script.
  396. The code{addPolicerEntry} line is required 
  397.   because each policer type and initial code point pair requires 
  398.   an entry in the Policer Table.  
  399. Each of the policies uses the same policer and initial code point, 
  400.   so only one entry is needed.
  401. The~code{addPHBEntry} commands map each code point to 
  402.   a combination of physical and virtual queue.
  403. Although each code point in this example maps to 
  404.   a unique combination of physical and virtual queue,
  405.   multiple code points could receive identical treatment.
  406. Finally, the~code{configQ} commands set the RED parameters for 
  407.   each virtual queue.  
  408. It specifies the virtual queue by first two parameters,
  409.   for example, 0 and 1.
  410. The next three parameters are the minimum threshold, maximum threshold,
  411.   and the maximum dropping probability.
  412. Note that as the precedence value increases, 
  413.   the RED parameters become harsher.
  414. begin{program}
  415. set qCE [[$ns link $core $e1] queue]
  416. # Set DS RED parameters from Core to Edge:
  417. $qCE meanPktSize $packetSize
  418. $qCE set numQueues_ 1
  419. $qCE setNumPrec 2
  420. $qCE addPHBEntry 10 0 0
  421. $qCE addPHBEntry 11 0 1
  422. $qCE configQ 0 0 20 40 0.02
  423. $qCE configQ 0 1 10 20 0.10
  424. end{program}
  425. Note that the configuration of a core queue matches that of an edge queue, 
  426.   except that there is no Policy Table or Policer Table to 
  427.   configure at a core router.  
  428. A core router's chief requirement is that it has a PHB entry for 
  429.   all code points that it will see.
  430. begin{program}
  431. $qE1C printPolicyTable
  432. $qCE2 printCoreStats
  433. end{program}
  434. These methods output the policy or policer tables on link and different 
  435.   statistics.  
  436. For further information, please refer to the example scripts under 
  437. nsf{tcl/ex/diffserv}.