fib_rules.c
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:11k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /*
  2.  * INET An implementation of the TCP/IP protocol suite for the LINUX
  3.  * operating system.  INET is implemented using the  BSD Socket
  4.  * interface as the means of communication with the user level.
  5.  *
  6.  * IPv4 Forwarding Information Base: policy rules.
  7.  *
  8.  * Version: $Id: fib_rules.c,v 1.17 2001/10/31 21:55:54 davem Exp $
  9.  *
  10.  * Authors: Alexey Kuznetsov, <kuznet@ms2.inr.ac.ru>
  11.  *
  12.  * This program is free software; you can redistribute it and/or
  13.  * modify it under the terms of the GNU General Public License
  14.  * as published by the Free Software Foundation; either version
  15.  * 2 of the License, or (at your option) any later version.
  16.  *
  17.  * Fixes:
  18.  *  Rani Assaf : local_rule cannot be deleted
  19.  * Marc Boucher : routing by fwmark
  20.  */
  21. #include <linux/config.h>
  22. #include <asm/uaccess.h>
  23. #include <asm/system.h>
  24. #include <asm/bitops.h>
  25. #include <linux/types.h>
  26. #include <linux/kernel.h>
  27. #include <linux/sched.h>
  28. #include <linux/mm.h>
  29. #include <linux/string.h>
  30. #include <linux/socket.h>
  31. #include <linux/sockios.h>
  32. #include <linux/errno.h>
  33. #include <linux/in.h>
  34. #include <linux/inet.h>
  35. #include <linux/netdevice.h>
  36. #include <linux/if_arp.h>
  37. #include <linux/proc_fs.h>
  38. #include <linux/skbuff.h>
  39. #include <linux/netlink.h>
  40. #include <linux/init.h>
  41. #include <net/ip.h>
  42. #include <net/protocol.h>
  43. #include <net/route.h>
  44. #include <net/tcp.h>
  45. #include <net/sock.h>
  46. #include <net/ip_fib.h>
  47. #define FRprintk(a...)
  48. struct fib_rule
  49. {
  50. struct fib_rule *r_next;
  51. atomic_t r_clntref;
  52. u32 r_preference;
  53. unsigned char r_table;
  54. unsigned char r_action;
  55. unsigned char r_dst_len;
  56. unsigned char r_src_len;
  57. u32 r_src;
  58. u32 r_srcmask;
  59. u32 r_dst;
  60. u32 r_dstmask;
  61. u32 r_srcmap;
  62. u8 r_flags;
  63. u8 r_tos;
  64. #ifdef CONFIG_IP_ROUTE_FWMARK
  65. u32 r_fwmark;
  66. #endif
  67. int r_ifindex;
  68. #ifdef CONFIG_NET_CLS_ROUTE
  69. __u32 r_tclassid;
  70. #endif
  71. char r_ifname[IFNAMSIZ];
  72. int r_dead;
  73. };
  74. static struct fib_rule default_rule = {
  75. r_clntref: ATOMIC_INIT(2),
  76. r_preference: 0x7FFF,
  77. r_table: RT_TABLE_DEFAULT,
  78. r_action: RTN_UNICAST,
  79. };
  80. static struct fib_rule main_rule = {
  81. r_next: &default_rule,
  82. r_clntref: ATOMIC_INIT(2),
  83. r_preference: 0x7FFE,
  84. r_table: RT_TABLE_MAIN,
  85. r_action: RTN_UNICAST,
  86. };
  87. static struct fib_rule local_rule = {
  88. r_next: &main_rule,
  89. r_clntref: ATOMIC_INIT(2),
  90. r_table: RT_TABLE_LOCAL,
  91. r_action: RTN_UNICAST,
  92. };
  93. static struct fib_rule *fib_rules = &local_rule;
  94. static rwlock_t fib_rules_lock = RW_LOCK_UNLOCKED;
  95. int inet_rtm_delrule(struct sk_buff *skb, struct nlmsghdr* nlh, void *arg)
  96. {
  97. struct rtattr **rta = arg;
  98. struct rtmsg *rtm = NLMSG_DATA(nlh);
  99. struct fib_rule *r, **rp;
  100. int err = -ESRCH;
  101. for (rp=&fib_rules; (r=*rp) != NULL; rp=&r->r_next) {
  102. if ((!rta[RTA_SRC-1] || memcmp(RTA_DATA(rta[RTA_SRC-1]), &r->r_src, 4) == 0) &&
  103.     rtm->rtm_src_len == r->r_src_len &&
  104.     rtm->rtm_dst_len == r->r_dst_len &&
  105.     (!rta[RTA_DST-1] || memcmp(RTA_DATA(rta[RTA_DST-1]), &r->r_dst, 4) == 0) &&
  106.     rtm->rtm_tos == r->r_tos &&
  107. #ifdef CONFIG_IP_ROUTE_FWMARK
  108.     (!rta[RTA_PROTOINFO-1] || memcmp(RTA_DATA(rta[RTA_PROTOINFO-1]), &r->r_fwmark, 4) == 0) &&
  109. #endif
  110.     (!rtm->rtm_type || rtm->rtm_type == r->r_action) &&
  111.     (!rta[RTA_PRIORITY-1] || memcmp(RTA_DATA(rta[RTA_PRIORITY-1]), &r->r_preference, 4) == 0) &&
  112.     (!rta[RTA_IIF-1] || strcmp(RTA_DATA(rta[RTA_IIF-1]), r->r_ifname) == 0) &&
  113.     (!rtm->rtm_table || (r && rtm->rtm_table == r->r_table))) {
  114. err = -EPERM;
  115. if (r == &local_rule)
  116. break;
  117. write_lock_bh(&fib_rules_lock);
  118. *rp = r->r_next;
  119. r->r_dead = 1;
  120. write_unlock_bh(&fib_rules_lock);
  121. fib_rule_put(r);
  122. err = 0;
  123. break;
  124. }
  125. }
  126. return err;
  127. }
  128. /* Allocate new unique table id */
  129. static struct fib_table *fib_empty_table(void)
  130. {
  131. int id;
  132. for (id = 1; id <= RT_TABLE_MAX; id++)
  133. if (fib_tables[id] == NULL)
  134. return __fib_new_table(id);
  135. return NULL;
  136. }
  137. void fib_rule_put(struct fib_rule *r)
  138. {
  139. if (atomic_dec_and_test(&r->r_clntref)) {
  140. if (r->r_dead)
  141. kfree(r);
  142. else
  143. printk("Freeing alive rule %pn", r);
  144. }
  145. }
  146. int inet_rtm_newrule(struct sk_buff *skb, struct nlmsghdr* nlh, void *arg)
  147. {
  148. struct rtattr **rta = arg;
  149. struct rtmsg *rtm = NLMSG_DATA(nlh);
  150. struct fib_rule *r, *new_r, **rp;
  151. unsigned char table_id;
  152. if (rtm->rtm_src_len > 32 || rtm->rtm_dst_len > 32 ||
  153.     (rtm->rtm_tos & ~IPTOS_TOS_MASK))
  154. return -EINVAL;
  155. if (rta[RTA_IIF-1] && RTA_PAYLOAD(rta[RTA_IIF-1]) > IFNAMSIZ)
  156. return -EINVAL;
  157. table_id = rtm->rtm_table;
  158. if (table_id == RT_TABLE_UNSPEC) {
  159. struct fib_table *table;
  160. if (rtm->rtm_type == RTN_UNICAST || rtm->rtm_type == RTN_NAT) {
  161. if ((table = fib_empty_table()) == NULL)
  162. return -ENOBUFS;
  163. table_id = table->tb_id;
  164. }
  165. }
  166. new_r = kmalloc(sizeof(*new_r), GFP_KERNEL);
  167. if (!new_r)
  168. return -ENOMEM;
  169. memset(new_r, 0, sizeof(*new_r));
  170. if (rta[RTA_SRC-1])
  171. memcpy(&new_r->r_src, RTA_DATA(rta[RTA_SRC-1]), 4);
  172. if (rta[RTA_DST-1])
  173. memcpy(&new_r->r_dst, RTA_DATA(rta[RTA_DST-1]), 4);
  174. if (rta[RTA_GATEWAY-1])
  175. memcpy(&new_r->r_srcmap, RTA_DATA(rta[RTA_GATEWAY-1]), 4);
  176. new_r->r_src_len = rtm->rtm_src_len;
  177. new_r->r_dst_len = rtm->rtm_dst_len;
  178. new_r->r_srcmask = inet_make_mask(rtm->rtm_src_len);
  179. new_r->r_dstmask = inet_make_mask(rtm->rtm_dst_len);
  180. new_r->r_tos = rtm->rtm_tos;
  181. #ifdef CONFIG_IP_ROUTE_FWMARK
  182. if (rta[RTA_PROTOINFO-1])
  183. memcpy(&new_r->r_fwmark, RTA_DATA(rta[RTA_PROTOINFO-1]), 4);
  184. #endif
  185. new_r->r_action = rtm->rtm_type;
  186. new_r->r_flags = rtm->rtm_flags;
  187. if (rta[RTA_PRIORITY-1])
  188. memcpy(&new_r->r_preference, RTA_DATA(rta[RTA_PRIORITY-1]), 4);
  189. new_r->r_table = table_id;
  190. if (rta[RTA_IIF-1]) {
  191. struct net_device *dev;
  192. memcpy(new_r->r_ifname, RTA_DATA(rta[RTA_IIF-1]), IFNAMSIZ);
  193. new_r->r_ifname[IFNAMSIZ-1] = 0;
  194. new_r->r_ifindex = -1;
  195. dev = __dev_get_by_name(new_r->r_ifname);
  196. if (dev)
  197. new_r->r_ifindex = dev->ifindex;
  198. }
  199. #ifdef CONFIG_NET_CLS_ROUTE
  200. if (rta[RTA_FLOW-1])
  201. memcpy(&new_r->r_tclassid, RTA_DATA(rta[RTA_FLOW-1]), 4);
  202. #endif
  203. rp = &fib_rules;
  204. if (!new_r->r_preference) {
  205. r = fib_rules;
  206. if (r && (r = r->r_next) != NULL) {
  207. rp = &fib_rules->r_next;
  208. if (r->r_preference)
  209. new_r->r_preference = r->r_preference - 1;
  210. }
  211. }
  212. while ( (r = *rp) != NULL ) {
  213. if (r->r_preference > new_r->r_preference)
  214. break;
  215. rp = &r->r_next;
  216. }
  217. new_r->r_next = r;
  218. atomic_inc(&new_r->r_clntref);
  219. write_lock_bh(&fib_rules_lock);
  220. *rp = new_r;
  221. write_unlock_bh(&fib_rules_lock);
  222. return 0;
  223. }
  224. u32 fib_rules_map_destination(u32 daddr, struct fib_result *res)
  225. {
  226. u32 mask = inet_make_mask(res->prefixlen);
  227. return (daddr&~mask)|res->fi->fib_nh->nh_gw;
  228. }
  229. u32 fib_rules_policy(u32 saddr, struct fib_result *res, unsigned *flags)
  230. {
  231. struct fib_rule *r = res->r;
  232. if (r->r_action == RTN_NAT) {
  233. int addrtype = inet_addr_type(r->r_srcmap);
  234. if (addrtype == RTN_NAT) {
  235. /* Packet is from  translated source; remember it */
  236. saddr = (saddr&~r->r_srcmask)|r->r_srcmap;
  237. *flags |= RTCF_SNAT;
  238. } else if (addrtype == RTN_LOCAL || r->r_srcmap == 0) {
  239. /* Packet is from masqueraded source; remember it */
  240. saddr = r->r_srcmap;
  241. *flags |= RTCF_MASQ;
  242. }
  243. }
  244. return saddr;
  245. }
  246. #ifdef CONFIG_NET_CLS_ROUTE
  247. u32 fib_rules_tclass(struct fib_result *res)
  248. {
  249. if (res->r)
  250. return res->r->r_tclassid;
  251. return 0;
  252. }
  253. #endif
  254. static void fib_rules_detach(struct net_device *dev)
  255. {
  256. struct fib_rule *r;
  257. for (r=fib_rules; r; r=r->r_next) {
  258. if (r->r_ifindex == dev->ifindex) {
  259. write_lock_bh(&fib_rules_lock);
  260. r->r_ifindex = -1;
  261. write_unlock_bh(&fib_rules_lock);
  262. }
  263. }
  264. }
  265. static void fib_rules_attach(struct net_device *dev)
  266. {
  267. struct fib_rule *r;
  268. for (r=fib_rules; r; r=r->r_next) {
  269. if (r->r_ifindex == -1 && strcmp(dev->name, r->r_ifname) == 0) {
  270. write_lock_bh(&fib_rules_lock);
  271. r->r_ifindex = dev->ifindex;
  272. write_unlock_bh(&fib_rules_lock);
  273. }
  274. }
  275. }
  276. int fib_lookup(const struct rt_key *key, struct fib_result *res)
  277. {
  278. int err;
  279. struct fib_rule *r, *policy;
  280. struct fib_table *tb;
  281. u32 daddr = key->dst;
  282. u32 saddr = key->src;
  283. FRprintk("Lookup: %u.%u.%u.%u <- %u.%u.%u.%u ",
  284. NIPQUAD(key->dst), NIPQUAD(key->src));
  285. read_lock(&fib_rules_lock);
  286. for (r = fib_rules; r; r=r->r_next) {
  287. if (((saddr^r->r_src) & r->r_srcmask) ||
  288.     ((daddr^r->r_dst) & r->r_dstmask) ||
  289. #ifdef CONFIG_IP_ROUTE_TOS
  290.     (r->r_tos && r->r_tos != key->tos) ||
  291. #endif
  292. #ifdef CONFIG_IP_ROUTE_FWMARK
  293.     (r->r_fwmark && r->r_fwmark != key->fwmark) ||
  294. #endif
  295.     (r->r_ifindex && r->r_ifindex != key->iif))
  296. continue;
  297. FRprintk("tb %d r %d ", r->r_table, r->r_action);
  298. switch (r->r_action) {
  299. case RTN_UNICAST:
  300. case RTN_NAT:
  301. policy = r;
  302. break;
  303. case RTN_UNREACHABLE:
  304. read_unlock(&fib_rules_lock);
  305. return -ENETUNREACH;
  306. default:
  307. case RTN_BLACKHOLE:
  308. read_unlock(&fib_rules_lock);
  309. return -EINVAL;
  310. case RTN_PROHIBIT:
  311. read_unlock(&fib_rules_lock);
  312. return -EACCES;
  313. }
  314. if ((tb = fib_get_table(r->r_table)) == NULL)
  315. continue;
  316. err = tb->tb_lookup(tb, key, res);
  317. if (err == 0) {
  318. res->r = policy;
  319. if (policy)
  320. atomic_inc(&policy->r_clntref);
  321. read_unlock(&fib_rules_lock);
  322. return 0;
  323. }
  324. if (err < 0 && err != -EAGAIN) {
  325. read_unlock(&fib_rules_lock);
  326. return err;
  327. }
  328. }
  329. FRprintk("FAILUREn");
  330. read_unlock(&fib_rules_lock);
  331. return -ENETUNREACH;
  332. }
  333. void fib_select_default(const struct rt_key *key, struct fib_result *res)
  334. {
  335. if (res->r && res->r->r_action == RTN_UNICAST &&
  336.     FIB_RES_GW(*res) && FIB_RES_NH(*res).nh_scope == RT_SCOPE_LINK) {
  337. struct fib_table *tb;
  338. if ((tb = fib_get_table(res->r->r_table)) != NULL)
  339. tb->tb_select_default(tb, key, res);
  340. }
  341. }
  342. static int fib_rules_event(struct notifier_block *this, unsigned long event, void *ptr)
  343. {
  344. struct net_device *dev = ptr;
  345. if (event == NETDEV_UNREGISTER)
  346. fib_rules_detach(dev);
  347. else if (event == NETDEV_REGISTER)
  348. fib_rules_attach(dev);
  349. return NOTIFY_DONE;
  350. }
  351. struct notifier_block fib_rules_notifier = {
  352. notifier_call: fib_rules_event,
  353. };
  354. static __inline__ int inet_fill_rule(struct sk_buff *skb,
  355.      struct fib_rule *r,
  356.      struct netlink_callback *cb)
  357. {
  358. struct rtmsg *rtm;
  359. struct nlmsghdr  *nlh;
  360. unsigned char  *b = skb->tail;
  361. nlh = NLMSG_PUT(skb, NETLINK_CREDS(cb->skb)->pid, cb->nlh->nlmsg_seq, RTM_NEWRULE, sizeof(*rtm));
  362. rtm = NLMSG_DATA(nlh);
  363. rtm->rtm_family = AF_INET;
  364. rtm->rtm_dst_len = r->r_dst_len;
  365. rtm->rtm_src_len = r->r_src_len;
  366. rtm->rtm_tos = r->r_tos;
  367. #ifdef CONFIG_IP_ROUTE_FWMARK
  368. if (r->r_fwmark)
  369. RTA_PUT(skb, RTA_PROTOINFO, 4, &r->r_fwmark);
  370. #endif
  371. rtm->rtm_table = r->r_table;
  372. rtm->rtm_protocol = 0;
  373. rtm->rtm_scope = 0;
  374. rtm->rtm_type = r->r_action;
  375. rtm->rtm_flags = r->r_flags;
  376. if (r->r_dst_len)
  377. RTA_PUT(skb, RTA_DST, 4, &r->r_dst);
  378. if (r->r_src_len)
  379. RTA_PUT(skb, RTA_SRC, 4, &r->r_src);
  380. if (r->r_ifname[0])
  381. RTA_PUT(skb, RTA_IIF, IFNAMSIZ, &r->r_ifname);
  382. if (r->r_preference)
  383. RTA_PUT(skb, RTA_PRIORITY, 4, &r->r_preference);
  384. if (r->r_srcmap)
  385. RTA_PUT(skb, RTA_GATEWAY, 4, &r->r_srcmap);
  386. #ifdef CONFIG_NET_CLS_ROUTE
  387. if (r->r_tclassid)
  388. RTA_PUT(skb, RTA_FLOW, 4, &r->r_tclassid);
  389. #endif
  390. nlh->nlmsg_len = skb->tail - b;
  391. return skb->len;
  392. nlmsg_failure:
  393. rtattr_failure:
  394. skb_put(skb, b - skb->tail);
  395. return -1;
  396. }
  397. int inet_dump_rules(struct sk_buff *skb, struct netlink_callback *cb)
  398. {
  399. int idx;
  400. int s_idx = cb->args[0];
  401. struct fib_rule *r;
  402. read_lock(&fib_rules_lock);
  403. for (r=fib_rules, idx=0; r; r = r->r_next, idx++) {
  404. if (idx < s_idx)
  405. continue;
  406. if (inet_fill_rule(skb, r, cb) < 0)
  407. break;
  408. }
  409. read_unlock(&fib_rules_lock);
  410. cb->args[0] = idx;
  411. return skb->len;
  412. }
  413. void __init fib_rules_init(void)
  414. {
  415. register_netdevice_notifier(&fib_rules_notifier);
  416. }