tcp_westwood.c
上传用户:rrhhcc
上传日期:2015-12-11
资源大小:54129k
文件大小:8k
源码类别:

通讯编程

开发平台:

Visual C++

  1. /* Modified Linux module source code from /home/weixl/linux-2.6.22.6 */
  2. #define NS_PROTOCOL "tcp_westwood.c"
  3. #include "../ns-linux-c.h"
  4. #include "../ns-linux-util.h"
  5. /*
  6.  * TCP Westwood+: end-to-end bandwidth estimation for TCP
  7.  *
  8.  *      Angelo Dell'Aera: author of the first version of TCP Westwood+ in Linux 2.4
  9.  *
  10.  * Support at http://c3lab.poliba.it/index.php/Westwood
  11.  * Main references in literature:
  12.  *
  13.  * - Mascolo S, Casetti, M. Gerla et al.
  14.  *   "TCP Westwood: bandwidth estimation for TCP" Proc. ACM Mobicom 2001
  15.  *
  16.  * - A. Grieco, s. Mascolo
  17.  *   "Performance evaluation of New Reno, Vegas, Westwood+ TCP" ACM Computer
  18.  *     Comm. Review, 2004
  19.  *
  20.  * - A. Dell'Aera, L. Grieco, S. Mascolo.
  21.  *   "Linux 2.4 Implementation of Westwood+ TCP with Rate-Halving :
  22.  *    A Performance Evaluation Over the Internet" (ICC 2004), Paris, June 2004
  23.  *
  24.  * Westwood+ employs end-to-end bandwidth measurement to set cwnd and
  25.  * ssthresh after packet loss. The probing phase is as the original Reno.
  26.  */
  27. /* TCP Westwood structure */
  28. struct westwood {
  29. u32    bw_ns_est;        /* first bandwidth estimation..not too smoothed 8) */
  30. u32    bw_est;           /* bandwidth estimate */
  31. u32    rtt_win_sx;       /* here starts a new evaluation... */
  32. u32    bk;
  33. u32    snd_una;          /* used for evaluating the number of acked bytes */
  34. u32    cumul_ack;
  35. u32    accounted;
  36. u32    rtt;
  37. u32    rtt_min;          /* minimum observed RTT */
  38. u8     first_ack;        /* flag which infers that this is the first ack */
  39. u8     reset_rtt_min;    /* Reset RTT min to next RTT sample*/
  40. };
  41. /* TCP Westwood functions and constants */
  42. #define TCP_WESTWOOD_RTT_MIN   (HZ/20) /* 50ms */
  43. #define TCP_WESTWOOD_INIT_RTT  (20*HZ) /* maybe too conservative?! */
  44. /*
  45.  * @tcp_westwood_create
  46.  * This function initializes fields used in TCP Westwood+,
  47.  * it is called after the initial SYN, so the sequence numbers
  48.  * are correct but new passive connections we have no
  49.  * information about RTTmin at this time so we simply set it to
  50.  * TCP_WESTWOOD_INIT_RTT. This value was chosen to be too conservative
  51.  * since in this way we're sure it will be updated in a consistent
  52.  * way as soon as possible. It will reasonably happen within the first
  53.  * RTT period of the connection lifetime.
  54.  */
  55. static void tcp_westwood_init(struct sock *sk)
  56. {
  57. struct westwood *w = inet_csk_ca(sk);
  58. w->bk = 0;
  59. w->bw_ns_est = 0;
  60. w->bw_est = 0;
  61. w->accounted = 0;
  62. w->cumul_ack = 0;
  63. w->reset_rtt_min = 1;
  64. w->rtt_min = w->rtt = TCP_WESTWOOD_INIT_RTT;
  65. w->rtt_win_sx = tcp_time_stamp;
  66. w->snd_una = tcp_sk(sk)->snd_una;
  67. w->first_ack = 1;
  68. }
  69. /*
  70.  * @westwood_do_filter
  71.  * Low-pass filter. Implemented using constant coefficients.
  72.  */
  73. static inline u32 westwood_do_filter(u32 a, u32 b)
  74. {
  75. return (((7 * a) + b) >> 3);
  76. }
  77. static void westwood_filter(struct westwood *w, u32 delta)
  78. {
  79. /* If the filter is empty fill it with the first sample of bandwidth  */
  80. if (w->bw_ns_est == 0 && w->bw_est == 0) {
  81. w->bw_ns_est = w->bk / delta;
  82. w->bw_est = w->bw_ns_est;
  83. } else {
  84. w->bw_ns_est = westwood_do_filter(w->bw_ns_est, w->bk / delta);
  85. w->bw_est = westwood_do_filter(w->bw_est, w->bw_ns_est);
  86. }
  87. }
  88. /*
  89.  * @westwood_pkts_acked
  90.  * Called after processing group of packets.
  91.  * but all westwood needs is the last sample of srtt.
  92.  */
  93. static void tcp_westwood_pkts_acked(struct sock *sk, u32 cnt, ktime_t last)
  94. {
  95. struct westwood *w = inet_csk_ca(sk);
  96. if (cnt > 0)
  97. w->rtt = tcp_sk(sk)->srtt >> 3;
  98. }
  99. /*
  100.  * @westwood_update_window
  101.  * It updates RTT evaluation window if it is the right moment to do
  102.  * it. If so it calls filter for evaluating bandwidth.
  103.  */
  104. static void westwood_update_window(struct sock *sk)
  105. {
  106. struct westwood *w = inet_csk_ca(sk);
  107. s32 delta = tcp_time_stamp - w->rtt_win_sx;
  108. /* Initialize w->snd_una with the first acked sequence number in order
  109.  * to fix mismatch between tp->snd_una and w->snd_una for the first
  110.  * bandwidth sample
  111.  */
  112. if (w->first_ack) {
  113. w->snd_una = tcp_sk(sk)->snd_una;
  114. w->first_ack = 0;
  115. }
  116. /*
  117.  * See if a RTT-window has passed.
  118.  * Be careful since if RTT is less than
  119.  * 50ms we don't filter but we continue 'building the sample'.
  120.  * This minimum limit was chosen since an estimation on small
  121.  * time intervals is better to avoid...
  122.  * Obviously on a LAN we reasonably will always have
  123.  * right_bound = left_bound + WESTWOOD_RTT_MIN
  124.  */
  125. if (w->rtt && delta > max_t(u32, w->rtt, TCP_WESTWOOD_RTT_MIN)) {
  126. westwood_filter(w, delta);
  127. w->bk = 0;
  128. w->rtt_win_sx = tcp_time_stamp;
  129. }
  130. }
  131. static inline void update_rtt_min(struct westwood *w)
  132. {
  133. if (w->reset_rtt_min) {
  134. w->rtt_min = w->rtt;
  135. w->reset_rtt_min = 0;
  136. } else
  137. w->rtt_min = min(w->rtt, w->rtt_min);
  138. }
  139. /*
  140.  * @westwood_fast_bw
  141.  * It is called when we are in fast path. In particular it is called when
  142.  * header prediction is successful. In such case in fact update is
  143.  * straight forward and doesn't need any particular care.
  144.  */
  145. static inline void westwood_fast_bw(struct sock *sk)
  146. {
  147. const struct tcp_sock *tp = tcp_sk(sk);
  148. struct westwood *w = inet_csk_ca(sk);
  149. westwood_update_window(sk);
  150. w->bk += tp->snd_una - w->snd_una;
  151. w->snd_una = tp->snd_una;
  152. update_rtt_min(w);
  153. }
  154. /*
  155.  * @westwood_acked_count
  156.  * This function evaluates cumul_ack for evaluating bk in case of
  157.  * delayed or partial acks.
  158.  */
  159. static inline u32 westwood_acked_count(struct sock *sk)
  160. {
  161. const struct tcp_sock *tp = tcp_sk(sk);
  162. struct westwood *w = inet_csk_ca(sk);
  163. w->cumul_ack = tp->snd_una - w->snd_una;
  164. /* If cumul_ack is 0 this is a dupack since it's not moving
  165.  * tp->snd_una.
  166.  */
  167. if (!w->cumul_ack) {
  168. w->accounted += tp->mss_cache;
  169. w->cumul_ack = tp->mss_cache;
  170. }
  171. if (w->cumul_ack > tp->mss_cache) {
  172. /* Partial or delayed ack */
  173. if (w->accounted >= w->cumul_ack) {
  174. w->accounted -= w->cumul_ack;
  175. w->cumul_ack = tp->mss_cache;
  176. } else {
  177. w->cumul_ack -= w->accounted;
  178. w->accounted = 0;
  179. }
  180. }
  181. w->snd_una = tp->snd_una;
  182. return w->cumul_ack;
  183. }
  184. /*
  185.  * TCP Westwood
  186.  * Here limit is evaluated as Bw estimation*RTTmin (for obtaining it
  187.  * in packets we use mss_cache). Rttmin is guaranteed to be >= 2
  188.  * so avoids ever returning 0.
  189.  */
  190. static u32 tcp_westwood_bw_rttmin(const struct sock *sk)
  191. {
  192. const struct tcp_sock *tp = tcp_sk(sk);
  193. const struct westwood *w = inet_csk_ca(sk);
  194. return max_t(u32, (w->bw_est * w->rtt_min) / tp->mss_cache, 2);
  195. }
  196. static void tcp_westwood_event(struct sock *sk, enum tcp_ca_event event)
  197. {
  198. struct tcp_sock *tp = tcp_sk(sk);
  199. struct westwood *w = inet_csk_ca(sk);
  200. switch (event) {
  201. case CA_EVENT_FAST_ACK:
  202. westwood_fast_bw(sk);
  203. break;
  204. case CA_EVENT_COMPLETE_CWR:
  205. tp->snd_cwnd = tp->snd_ssthresh = tcp_westwood_bw_rttmin(sk);
  206. break;
  207. case CA_EVENT_FRTO:
  208. tp->snd_ssthresh = tcp_westwood_bw_rttmin(sk);
  209. /* Update RTT_min when next ack arrives */
  210. w->reset_rtt_min = 1;
  211. break;
  212. case CA_EVENT_SLOW_ACK:
  213. westwood_update_window(sk);
  214. w->bk += westwood_acked_count(sk);
  215. update_rtt_min(w);
  216. break;
  217. default:
  218. /* don't care */
  219. break;
  220. }
  221. }
  222. /* Extract info for Tcp socket info provided via netlink. */
  223. static void tcp_westwood_info(struct sock *sk, u32 ext,
  224.       struct sk_buff *skb)
  225. {
  226. /* const struct westwood *ca = inet_csk_ca(sk);
  227. if (ext & (1 << (INET_DIAG_VEGASINFO - 1))) {
  228. struct tcpvegas_info info = {
  229. .tcpv_enabled = 1,
  230. .tcpv_rtt = jiffies_to_usecs(ca->rtt),
  231. .tcpv_minrtt = jiffies_to_usecs(ca->rtt_min),
  232. };
  233. nla_put(skb, INET_DIAG_VEGASINFO, sizeof(info), &info);
  234. }
  235. */
  236. }
  237. static struct tcp_congestion_ops tcp_westwood = {
  238. .init = tcp_westwood_init,
  239. .ssthresh = tcp_reno_ssthresh,
  240. .cong_avoid = tcp_reno_cong_avoid,
  241. .min_cwnd = tcp_westwood_bw_rttmin,
  242. .cwnd_event = tcp_westwood_event,
  243. .get_info = tcp_westwood_info,
  244. .pkts_acked = tcp_westwood_pkts_acked,
  245. .owner = THIS_MODULE,
  246. .name = "westwood"
  247. };
  248. static int __init tcp_westwood_register(void)
  249. {
  250. BUILD_BUG_ON(sizeof(struct westwood) > ICSK_CA_PRIV_SIZE);
  251. return tcp_register_congestion_control(&tcp_westwood);
  252. }
  253. static void __exit tcp_westwood_unregister(void)
  254. {
  255. tcp_unregister_congestion_control(&tcp_westwood);
  256. }
  257. module_init(tcp_westwood_register);
  258. module_exit(tcp_westwood_unregister);
  259. MODULE_AUTHOR("Stephen Hemminger, Angelo Dell'Aera");
  260. MODULE_LICENSE("GPL");
  261. MODULE_DESCRIPTION("TCP Westwood+");
  262. #undef NS_PROTOCOL