ip_nat_helper.c
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:9k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /* ip_nat_mangle.c - generic support functions for NAT helpers 
  2.  *
  3.  * (C) 2000 by Harald Welte <laforge@gnumonks.org>
  4.  *
  5.  * distributed under the terms of GNU GPL
  6.  */
  7. #include <linux/version.h>
  8. #include <linux/module.h>
  9. #include <linux/types.h>
  10. #include <linux/timer.h>
  11. #include <linux/skbuff.h>
  12. #include <linux/netfilter_ipv4.h>
  13. #include <linux/brlock.h>
  14. #include <net/checksum.h>
  15. #include <net/icmp.h>
  16. #include <net/ip.h>
  17. #include <net/tcp.h>
  18. #define ASSERT_READ_LOCK(x) MUST_BE_READ_LOCKED(&ip_nat_lock)
  19. #define ASSERT_WRITE_LOCK(x) MUST_BE_WRITE_LOCKED(&ip_nat_lock)
  20. #include <linux/netfilter_ipv4/ip_nat.h>
  21. #include <linux/netfilter_ipv4/ip_nat_protocol.h>
  22. #include <linux/netfilter_ipv4/ip_nat_core.h>
  23. #include <linux/netfilter_ipv4/ip_nat_helper.h>
  24. #include <linux/netfilter_ipv4/listhelp.h>
  25. #if 0
  26. #define DEBUGP printk
  27. #define DUMP_OFFSET(x) printk("offset_before=%d, offset_after=%d, correction_pos=%un", x->offset_before, x->offset_after, x->correction_pos);
  28. #else
  29. #define DEBUGP(format, args...)
  30. #define DUMP_OFFSET(x)
  31. #endif
  32. DECLARE_LOCK(ip_nat_seqofs_lock);
  33.  
  34. static inline int 
  35. ip_nat_resize_packet(struct sk_buff **skb,
  36.      struct ip_conntrack *ct, 
  37.      enum ip_conntrack_info ctinfo,
  38.      int new_size)
  39. {
  40. struct iphdr *iph;
  41. struct tcphdr *tcph;
  42. void *data;
  43. int dir;
  44. struct ip_nat_seq *this_way, *other_way;
  45. DEBUGP("ip_nat_resize_packet: old_size = %u, new_size = %un",
  46. (*skb)->len, new_size);
  47. iph = (*skb)->nh.iph;
  48. tcph = (void *)iph + iph->ihl*4;
  49. data = (void *)tcph + tcph->doff*4;
  50. dir = CTINFO2DIR(ctinfo);
  51. this_way = &ct->nat.info.seq[dir];
  52. other_way = &ct->nat.info.seq[!dir];
  53. if (new_size > (*skb)->len + skb_tailroom(*skb)) {
  54. struct sk_buff *newskb;
  55. newskb = skb_copy_expand(*skb, skb_headroom(*skb),
  56.  new_size - (*skb)->len,
  57.  GFP_ATOMIC);
  58. if (!newskb) {
  59. printk("ip_nat_resize_packet: oomn");
  60. return 0;
  61. } else {
  62. kfree_skb(*skb);
  63. *skb = newskb;
  64. }
  65. }
  66. iph = (*skb)->nh.iph;
  67. tcph = (void *)iph + iph->ihl*4;
  68. data = (void *)tcph + tcph->doff*4;
  69. DEBUGP("ip_nat_resize_packet: Seq_offset before: ");
  70. DUMP_OFFSET(this_way);
  71. LOCK_BH(&ip_nat_seqofs_lock);
  72. /* SYN adjust. If it's uninitialized, of this is after last 
  73.  * correction, record it: we don't handle more than one 
  74.  * adjustment in the window, but do deal with common case of a 
  75.  * retransmit */
  76. if (this_way->offset_before == this_way->offset_after
  77.     || before(this_way->correction_pos, ntohl(tcph->seq))) {
  78. this_way->correction_pos = ntohl(tcph->seq);
  79. this_way->offset_before = this_way->offset_after;
  80. this_way->offset_after = (int32_t)
  81. this_way->offset_before + new_size - (*skb)->len;
  82. }
  83. UNLOCK_BH(&ip_nat_seqofs_lock);
  84. DEBUGP("ip_nat_resize_packet: Seq_offset after: ");
  85. DUMP_OFFSET(this_way);
  86. return 1;
  87. }
  88. /* Generic function for mangling variable-length address changes inside
  89.  * NATed connections (like the PORT XXX,XXX,XXX,XXX,XXX,XXX command in FTP).
  90.  *
  91.  * Takes care about all the nasty sequence number changes, checksumming,
  92.  * skb enlargement, ...
  93.  *
  94.  * */
  95. int 
  96. ip_nat_mangle_tcp_packet(struct sk_buff **skb,
  97.  struct ip_conntrack *ct,
  98.  enum ip_conntrack_info ctinfo,
  99.  unsigned int match_offset,
  100.  unsigned int match_len,
  101.  char *rep_buffer,
  102.  unsigned int rep_len)
  103. {
  104. struct iphdr *iph = (*skb)->nh.iph;
  105. struct tcphdr *tcph;
  106. unsigned char *data;
  107. u_int32_t tcplen, newlen, newtcplen;
  108. tcplen = (*skb)->len - iph->ihl*4;
  109. newtcplen = tcplen - match_len + rep_len;
  110. newlen = iph->ihl*4 + newtcplen;
  111. if (newlen > 65535) {
  112. if (net_ratelimit())
  113. printk("ip_nat_mangle_tcp_packet: nat'ed packet "
  114. "exceeds maximum packet sizen");
  115. return 0;
  116. }
  117. if ((*skb)->len != newlen) {
  118. if (!ip_nat_resize_packet(skb, ct, ctinfo, newlen)) {
  119. printk("resize_packet failed!!n");
  120. return 0;
  121. }
  122. }
  123. /* Alexey says: if a hook changes _data_ ... it can break
  124.    original packet sitting in tcp queue and this is fatal */
  125. if (skb_cloned(*skb)) {
  126. struct sk_buff *nskb = skb_copy(*skb, GFP_ATOMIC);
  127. if (!nskb) {
  128. if (net_ratelimit())
  129. printk("Out of memory cloning TCP packetn");
  130. return 0;
  131. }
  132. /* Rest of kernel will get very unhappy if we pass it
  133.    a suddenly-orphaned skbuff */
  134. if ((*skb)->sk)
  135. skb_set_owner_w(nskb, (*skb)->sk);
  136. kfree_skb(*skb);
  137. *skb = nskb;
  138. }
  139. /* skb may be copied !! */
  140. iph = (*skb)->nh.iph;
  141. tcph = (void *)iph + iph->ihl*4;
  142. data = (void *)tcph + tcph->doff*4;
  143. /* move post-replacement */
  144. memmove(data + match_offset + rep_len,
  145.  data + match_offset + match_len,
  146.  (*skb)->tail - (data + match_offset + match_len));
  147. /* insert data from buffer */
  148. memcpy(data + match_offset, rep_buffer, rep_len);
  149. /* update skb info */
  150. if (newlen > (*skb)->len) {
  151. DEBUGP("ip_nat_mangle_tcp_packet: Extending packet by "
  152. "%u to %u bytesn", newlen - (*skb)->len, newlen);
  153. skb_put(*skb, newlen - (*skb)->len);
  154. } else {
  155. DEBUGP("ip_nat_mangle_tcp_packet: Shrinking packet from "
  156. "%u to %u bytesn", (*skb)->len, newlen);
  157. skb_trim(*skb, newlen);
  158. }
  159. /* fix checksum information */
  160. iph->tot_len = htons(newlen);
  161. (*skb)->csum = csum_partial((char *)tcph + tcph->doff*4,
  162.     newtcplen - tcph->doff*4, 0);
  163. tcph->check = 0;
  164. tcph->check = tcp_v4_check(tcph, newtcplen, iph->saddr, iph->daddr,
  165.    csum_partial((char *)tcph, tcph->doff*4,
  166.    (*skb)->csum));
  167. ip_send_check(iph);
  168. return 1;
  169. }
  170. /* TCP sequence number adjustment */
  171. int 
  172. ip_nat_seq_adjust(struct sk_buff *skb, 
  173.   struct ip_conntrack *ct, 
  174.   enum ip_conntrack_info ctinfo)
  175. {
  176. struct iphdr *iph;
  177. struct tcphdr *tcph;
  178. int dir, newseq, newack;
  179. struct ip_nat_seq *this_way, *other_way;
  180. iph = skb->nh.iph;
  181. tcph = (void *)iph + iph->ihl*4;
  182. dir = CTINFO2DIR(ctinfo);
  183. this_way = &ct->nat.info.seq[dir];
  184. other_way = &ct->nat.info.seq[!dir];
  185. if (after(ntohl(tcph->seq), this_way->correction_pos))
  186. newseq = ntohl(tcph->seq) + this_way->offset_after;
  187. else
  188. newseq = ntohl(tcph->seq) + this_way->offset_before;
  189. newseq = htonl(newseq);
  190. if (after(ntohl(tcph->ack_seq) - other_way->offset_before,
  191.   other_way->correction_pos))
  192. newack = ntohl(tcph->ack_seq) - other_way->offset_after;
  193. else
  194. newack = ntohl(tcph->ack_seq) - other_way->offset_before;
  195. newack = htonl(newack);
  196. tcph->check = ip_nat_cheat_check(~tcph->seq, newseq,
  197.  ip_nat_cheat_check(~tcph->ack_seq, 
  198.       newack, 
  199.     tcph->check));
  200. DEBUGP("Adjusting sequence number from %u->%u, ack from %u->%un",
  201. ntohl(tcph->seq), ntohl(newseq), ntohl(tcph->ack_seq),
  202. ntohl(newack));
  203. tcph->seq = newseq;
  204. tcph->ack_seq = newack;
  205. return 0;
  206. }
  207. /* Grrr... SACK.  Fuck me even harder.  Don't want to fix it on the
  208.    fly, so blow it away. */
  209. void
  210. ip_nat_delete_sack(struct sk_buff *skb, struct tcphdr *tcph)
  211. {
  212. unsigned int i;
  213. u_int8_t *opt = (u_int8_t *)tcph;
  214. DEBUGP("Seeking SACKPERM in SYN packet (doff = %u).n",
  215.        tcph->doff * 4);
  216. for (i = sizeof(struct tcphdr); i < tcph->doff * 4;) {
  217. DEBUGP("%u ", opt[i]);
  218. switch (opt[i]) {
  219. case TCPOPT_NOP:
  220. case TCPOPT_EOL:
  221. i++;
  222. break;
  223. case TCPOPT_SACK_PERM:
  224. goto found_opt;
  225. default:
  226. /* Worst that can happen: it will take us over. */
  227. i += opt[i+1] ?: 1;
  228. }
  229. }
  230. DEBUGP("n");
  231. return;
  232.  found_opt:
  233. DEBUGP("n");
  234. DEBUGP("Found SACKPERM at offset %u.n", i);
  235. /* Must be within TCP header, and valid SACK perm. */
  236. if (i + opt[i+1] <= tcph->doff*4 && opt[i+1] == 2) {
  237. /* Replace with NOPs. */
  238. tcph->check
  239. = ip_nat_cheat_check(*((u_int16_t *)(opt + i))^0xFFFF,
  240.      (TCPOPT_NOP<<8)|TCPOPT_NOP, tcph->check);
  241. opt[i] = opt[i+1] = TCPOPT_NOP;
  242. }
  243. else DEBUGP("Something wrong with SACK_PERM.n");
  244. }
  245. static inline int
  246. helper_cmp(const struct ip_nat_helper *helper,
  247.    const struct ip_conntrack_tuple *tuple)
  248. {
  249. return ip_ct_tuple_mask_cmp(tuple, &helper->tuple, &helper->mask);
  250. }
  251. int ip_nat_helper_register(struct ip_nat_helper *me)
  252. {
  253. int ret = 0;
  254. WRITE_LOCK(&ip_nat_lock);
  255. if (LIST_FIND(&helpers, helper_cmp, struct ip_nat_helper *,&me->tuple))
  256. ret = -EBUSY;
  257. else {
  258. list_prepend(&helpers, me);
  259. MOD_INC_USE_COUNT;
  260. }
  261. WRITE_UNLOCK(&ip_nat_lock);
  262. return ret;
  263. }
  264. static int
  265. kill_helper(const struct ip_conntrack *i, void *helper)
  266. {
  267. int ret;
  268. READ_LOCK(&ip_nat_lock);
  269. ret = (i->nat.info.helper == helper);
  270. READ_UNLOCK(&ip_nat_lock);
  271. return ret;
  272. }
  273. void ip_nat_helper_unregister(struct ip_nat_helper *me)
  274. {
  275. WRITE_LOCK(&ip_nat_lock);
  276. LIST_DELETE(&helpers, me);
  277. WRITE_UNLOCK(&ip_nat_lock);
  278. /* Someone could be still looking at the helper in a bh. */
  279. br_write_lock_bh(BR_NETPROTO_LOCK);
  280. br_write_unlock_bh(BR_NETPROTO_LOCK);
  281. /* Find anything using it, and umm, kill them.  We can't turn
  282.    them into normal connections: if we've adjusted SYNs, then
  283.    they'll ackstorm.  So we just drop it.  We used to just
  284.    bump module count when a connection existed, but that
  285.    forces admins to gen fake RSTs or bounce box, either of
  286.    which is just a long-winded way of making things
  287.    worse. --RR */
  288. ip_ct_selective_cleanup(kill_helper, me);
  289. MOD_DEC_USE_COUNT;
  290. }