fib_hash.c
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:20k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /*
  2.  * INET An implementation of the TCP/IP protocol suite for the LINUX
  3.  * operating system.  INET is implemented using the  BSD Socket
  4.  * interface as the means of communication with the user level.
  5.  *
  6.  * IPv4 FIB: lookup engine and maintenance routines.
  7.  *
  8.  * Version: $Id: fib_hash.c,v 1.13 2001/10/31 21:55:54 davem Exp $
  9.  *
  10.  * Authors: Alexey Kuznetsov, <kuznet@ms2.inr.ac.ru>
  11.  *
  12.  * This program is free software; you can redistribute it and/or
  13.  * modify it under the terms of the GNU General Public License
  14.  * as published by the Free Software Foundation; either version
  15.  * 2 of the License, or (at your option) any later version.
  16.  */
  17. #include <linux/config.h>
  18. #include <asm/uaccess.h>
  19. #include <asm/system.h>
  20. #include <asm/bitops.h>
  21. #include <linux/types.h>
  22. #include <linux/kernel.h>
  23. #include <linux/sched.h>
  24. #include <linux/mm.h>
  25. #include <linux/string.h>
  26. #include <linux/socket.h>
  27. #include <linux/sockios.h>
  28. #include <linux/errno.h>
  29. #include <linux/in.h>
  30. #include <linux/inet.h>
  31. #include <linux/netdevice.h>
  32. #include <linux/if_arp.h>
  33. #include <linux/proc_fs.h>
  34. #include <linux/skbuff.h>
  35. #include <linux/netlink.h>
  36. #include <linux/init.h>
  37. #include <net/ip.h>
  38. #include <net/protocol.h>
  39. #include <net/route.h>
  40. #include <net/tcp.h>
  41. #include <net/sock.h>
  42. #include <net/ip_fib.h>
  43. #define FTprint(a...)
  44. /*
  45.    printk(KERN_DEBUG a)
  46.  */
  47. static kmem_cache_t * fn_hash_kmem;
  48. /*
  49.    These bizarre types are just to force strict type checking.
  50.    When I reversed order of bytes and changed to natural mask lengths,
  51.    I forgot to make fixes in several places. Now I am lazy to return
  52.    it back.
  53.  */
  54. typedef struct {
  55. u32 datum;
  56. } fn_key_t;
  57. typedef struct {
  58. u32 datum;
  59. } fn_hash_idx_t;
  60. struct fib_node
  61. {
  62. struct fib_node *fn_next;
  63. struct fib_info *fn_info;
  64. #define FIB_INFO(f) ((f)->fn_info)
  65. fn_key_t fn_key;
  66. u8 fn_tos;
  67. u8 fn_type;
  68. u8 fn_scope;
  69. u8 fn_state;
  70. };
  71. #define FN_S_ZOMBIE 1
  72. #define FN_S_ACCESSED 2
  73. static int fib_hash_zombies;
  74. struct fn_zone
  75. {
  76. struct fn_zone *fz_next; /* Next not empty zone */
  77. struct fib_node **fz_hash; /* Hash table pointer */
  78. int fz_nent; /* Number of entries */
  79. int fz_divisor; /* Hash divisor */
  80. u32 fz_hashmask; /* (1<<fz_divisor) - 1 */
  81. #define FZ_HASHMASK(fz) ((fz)->fz_hashmask)
  82. int fz_order; /* Zone order */
  83. u32 fz_mask;
  84. #define FZ_MASK(fz) ((fz)->fz_mask)
  85. };
  86. /* NOTE. On fast computers evaluation of fz_hashmask and fz_mask
  87.    can be cheaper than memory lookup, so that FZ_* macros are used.
  88.  */
  89. struct fn_hash
  90. {
  91. struct fn_zone *fn_zones[33];
  92. struct fn_zone *fn_zone_list;
  93. };
  94. static __inline__ fn_hash_idx_t fn_hash(fn_key_t key, struct fn_zone *fz)
  95. {
  96. u32 h = ntohl(key.datum)>>(32 - fz->fz_order);
  97. h ^= (h>>20);
  98. h ^= (h>>10);
  99. h ^= (h>>5);
  100. h &= FZ_HASHMASK(fz);
  101. return *(fn_hash_idx_t*)&h;
  102. }
  103. #define fz_key_0(key) ((key).datum = 0)
  104. #define fz_prefix(key,fz) ((key).datum)
  105. static __inline__ fn_key_t fz_key(u32 dst, struct fn_zone *fz)
  106. {
  107. fn_key_t k;
  108. k.datum = dst & FZ_MASK(fz);
  109. return k;
  110. }
  111. static __inline__ struct fib_node ** fz_chain_p(fn_key_t key, struct fn_zone *fz)
  112. {
  113. return &fz->fz_hash[fn_hash(key, fz).datum];
  114. }
  115. static __inline__ struct fib_node * fz_chain(fn_key_t key, struct fn_zone *fz)
  116. {
  117. return fz->fz_hash[fn_hash(key, fz).datum];
  118. }
  119. extern __inline__ int fn_key_eq(fn_key_t a, fn_key_t b)
  120. {
  121. return a.datum == b.datum;
  122. }
  123. extern __inline__ int fn_key_leq(fn_key_t a, fn_key_t b)
  124. {
  125. return a.datum <= b.datum;
  126. }
  127. static rwlock_t fib_hash_lock = RW_LOCK_UNLOCKED;
  128. #define FZ_MAX_DIVISOR 1024
  129. #ifdef CONFIG_IP_ROUTE_LARGE_TABLES
  130. /* The fib hash lock must be held when this is called. */
  131. static __inline__ void fn_rebuild_zone(struct fn_zone *fz,
  132.        struct fib_node **old_ht,
  133.        int old_divisor)
  134. {
  135. int i;
  136. struct fib_node *f, **fp, *next;
  137. for (i=0; i<old_divisor; i++) {
  138. for (f=old_ht[i]; f; f=next) {
  139. next = f->fn_next;
  140. for (fp = fz_chain_p(f->fn_key, fz);
  141.      *fp && fn_key_leq((*fp)->fn_key, f->fn_key);
  142.      fp = &(*fp)->fn_next)
  143. /* NONE */;
  144. f->fn_next = *fp;
  145. *fp = f;
  146. }
  147. }
  148. }
  149. static void fn_rehash_zone(struct fn_zone *fz)
  150. {
  151. struct fib_node **ht, **old_ht;
  152. int old_divisor, new_divisor;
  153. u32 new_hashmask;
  154. old_divisor = fz->fz_divisor;
  155. switch (old_divisor) {
  156. case 16:
  157. new_divisor = 256;
  158. new_hashmask = 0xFF;
  159. break;
  160. case 256:
  161. new_divisor = 1024;
  162. new_hashmask = 0x3FF;
  163. break;
  164. default:
  165. printk(KERN_CRIT "route.c: bad divisor %d!n", old_divisor);
  166. return;
  167. }
  168. #if RT_CACHE_DEBUG >= 2
  169. printk("fn_rehash_zone: hash for zone %d grows from %dn", fz->fz_order, old_divisor);
  170. #endif
  171. ht = kmalloc(new_divisor*sizeof(struct fib_node*), GFP_KERNEL);
  172. if (ht) {
  173. memset(ht, 0, new_divisor*sizeof(struct fib_node*));
  174. write_lock_bh(&fib_hash_lock);
  175. old_ht = fz->fz_hash;
  176. fz->fz_hash = ht;
  177. fz->fz_hashmask = new_hashmask;
  178. fz->fz_divisor = new_divisor;
  179. fn_rebuild_zone(fz, old_ht, old_divisor);
  180. write_unlock_bh(&fib_hash_lock);
  181. kfree(old_ht);
  182. }
  183. }
  184. #endif /* CONFIG_IP_ROUTE_LARGE_TABLES */
  185. static void fn_free_node(struct fib_node * f)
  186. {
  187. fib_release_info(FIB_INFO(f));
  188. kmem_cache_free(fn_hash_kmem, f);
  189. }
  190. static struct fn_zone *
  191. fn_new_zone(struct fn_hash *table, int z)
  192. {
  193. int i;
  194. struct fn_zone *fz = kmalloc(sizeof(struct fn_zone), GFP_KERNEL);
  195. if (!fz)
  196. return NULL;
  197. memset(fz, 0, sizeof(struct fn_zone));
  198. if (z) {
  199. fz->fz_divisor = 16;
  200. fz->fz_hashmask = 0xF;
  201. } else {
  202. fz->fz_divisor = 1;
  203. fz->fz_hashmask = 0;
  204. }
  205. fz->fz_hash = kmalloc(fz->fz_divisor*sizeof(struct fib_node*), GFP_KERNEL);
  206. if (!fz->fz_hash) {
  207. kfree(fz);
  208. return NULL;
  209. }
  210. memset(fz->fz_hash, 0, fz->fz_divisor*sizeof(struct fib_node*));
  211. fz->fz_order = z;
  212. fz->fz_mask = inet_make_mask(z);
  213. /* Find the first not empty zone with more specific mask */
  214. for (i=z+1; i<=32; i++)
  215. if (table->fn_zones[i])
  216. break;
  217. write_lock_bh(&fib_hash_lock);
  218. if (i>32) {
  219. /* No more specific masks, we are the first. */
  220. fz->fz_next = table->fn_zone_list;
  221. table->fn_zone_list = fz;
  222. } else {
  223. fz->fz_next = table->fn_zones[i]->fz_next;
  224. table->fn_zones[i]->fz_next = fz;
  225. }
  226. table->fn_zones[z] = fz;
  227. write_unlock_bh(&fib_hash_lock);
  228. return fz;
  229. }
  230. static int
  231. fn_hash_lookup(struct fib_table *tb, const struct rt_key *key, struct fib_result *res)
  232. {
  233. int err;
  234. struct fn_zone *fz;
  235. struct fn_hash *t = (struct fn_hash*)tb->tb_data;
  236. read_lock(&fib_hash_lock);
  237. for (fz = t->fn_zone_list; fz; fz = fz->fz_next) {
  238. struct fib_node *f;
  239. fn_key_t k = fz_key(key->dst, fz);
  240. for (f = fz_chain(k, fz); f; f = f->fn_next) {
  241. if (!fn_key_eq(k, f->fn_key)) {
  242. if (fn_key_leq(k, f->fn_key))
  243. break;
  244. else
  245. continue;
  246. }
  247. #ifdef CONFIG_IP_ROUTE_TOS
  248. if (f->fn_tos && f->fn_tos != key->tos)
  249. continue;
  250. #endif
  251. f->fn_state |= FN_S_ACCESSED;
  252. if (f->fn_state&FN_S_ZOMBIE)
  253. continue;
  254. if (f->fn_scope < key->scope)
  255. continue;
  256. err = fib_semantic_match(f->fn_type, FIB_INFO(f), key, res);
  257. if (err == 0) {
  258. res->type = f->fn_type;
  259. res->scope = f->fn_scope;
  260. res->prefixlen = fz->fz_order;
  261. goto out;
  262. }
  263. if (err < 0)
  264. goto out;
  265. }
  266. }
  267. err = 1;
  268. out:
  269. read_unlock(&fib_hash_lock);
  270. return err;
  271. }
  272. static int fn_hash_last_dflt=-1;
  273. static int fib_detect_death(struct fib_info *fi, int order,
  274.     struct fib_info **last_resort, int *last_idx)
  275. {
  276. struct neighbour *n;
  277. int state = NUD_NONE;
  278. n = neigh_lookup(&arp_tbl, &fi->fib_nh[0].nh_gw, fi->fib_dev);
  279. if (n) {
  280. state = n->nud_state;
  281. neigh_release(n);
  282. }
  283. if (state==NUD_REACHABLE)
  284. return 0;
  285. if ((state&NUD_VALID) && order != fn_hash_last_dflt)
  286. return 0;
  287. if ((state&NUD_VALID) ||
  288.     (*last_idx<0 && order > fn_hash_last_dflt)) {
  289. *last_resort = fi;
  290. *last_idx = order;
  291. }
  292. return 1;
  293. }
  294. static void
  295. fn_hash_select_default(struct fib_table *tb, const struct rt_key *key, struct fib_result *res)
  296. {
  297. int order, last_idx;
  298. struct fib_node *f;
  299. struct fib_info *fi = NULL;
  300. struct fib_info *last_resort;
  301. struct fn_hash *t = (struct fn_hash*)tb->tb_data;
  302. struct fn_zone *fz = t->fn_zones[0];
  303. if (fz == NULL)
  304. return;
  305. last_idx = -1;
  306. last_resort = NULL;
  307. order = -1;
  308. read_lock(&fib_hash_lock);
  309. for (f = fz->fz_hash[0]; f; f = f->fn_next) {
  310. struct fib_info *next_fi = FIB_INFO(f);
  311. if ((f->fn_state&FN_S_ZOMBIE) ||
  312.     f->fn_scope != res->scope ||
  313.     f->fn_type != RTN_UNICAST)
  314. continue;
  315. if (next_fi->fib_priority > res->fi->fib_priority)
  316. break;
  317. if (!next_fi->fib_nh[0].nh_gw || next_fi->fib_nh[0].nh_scope != RT_SCOPE_LINK)
  318. continue;
  319. f->fn_state |= FN_S_ACCESSED;
  320. if (fi == NULL) {
  321. if (next_fi != res->fi)
  322. break;
  323. } else if (!fib_detect_death(fi, order, &last_resort, &last_idx)) {
  324. if (res->fi)
  325. fib_info_put(res->fi);
  326. res->fi = fi;
  327. atomic_inc(&fi->fib_clntref);
  328. fn_hash_last_dflt = order;
  329. goto out;
  330. }
  331. fi = next_fi;
  332. order++;
  333. }
  334. if (order<=0 || fi==NULL) {
  335. fn_hash_last_dflt = -1;
  336. goto out;
  337. }
  338. if (!fib_detect_death(fi, order, &last_resort, &last_idx)) {
  339. if (res->fi)
  340. fib_info_put(res->fi);
  341. res->fi = fi;
  342. atomic_inc(&fi->fib_clntref);
  343. fn_hash_last_dflt = order;
  344. goto out;
  345. }
  346. if (last_idx >= 0) {
  347. if (res->fi)
  348. fib_info_put(res->fi);
  349. res->fi = last_resort;
  350. if (last_resort)
  351. atomic_inc(&last_resort->fib_clntref);
  352. }
  353. fn_hash_last_dflt = last_idx;
  354. out:
  355. read_unlock(&fib_hash_lock);
  356. }
  357. #define FIB_SCAN(f, fp) 
  358. for ( ; ((f) = *(fp)) != NULL; (fp) = &(f)->fn_next)
  359. #define FIB_SCAN_KEY(f, fp, key) 
  360. for ( ; ((f) = *(fp)) != NULL && fn_key_eq((f)->fn_key, (key)); (fp) = &(f)->fn_next)
  361. #ifndef CONFIG_IP_ROUTE_TOS
  362. #define FIB_SCAN_TOS(f, fp, key, tos) FIB_SCAN_KEY(f, fp, key)
  363. #else
  364. #define FIB_SCAN_TOS(f, fp, key, tos) 
  365. for ( ; ((f) = *(fp)) != NULL && fn_key_eq((f)->fn_key, (key)) && 
  366.      (f)->fn_tos == (tos) ; (fp) = &(f)->fn_next)
  367. #endif
  368. static void rtmsg_fib(int, struct fib_node*, int, int,
  369.       struct nlmsghdr *n,
  370.       struct netlink_skb_parms *);
  371. static int
  372. fn_hash_insert(struct fib_table *tb, struct rtmsg *r, struct kern_rta *rta,
  373. struct nlmsghdr *n, struct netlink_skb_parms *req)
  374. {
  375. struct fn_hash *table = (struct fn_hash*)tb->tb_data;
  376. struct fib_node *new_f, *f, **fp, **del_fp;
  377. struct fn_zone *fz;
  378. struct fib_info *fi;
  379. int z = r->rtm_dst_len;
  380. int type = r->rtm_type;
  381. #ifdef CONFIG_IP_ROUTE_TOS
  382. u8 tos = r->rtm_tos;
  383. #endif
  384. fn_key_t key;
  385. int err;
  386. FTprint("tb(%d)_insert: %d %08x/%d %d %08xn", tb->tb_id, r->rtm_type, rta->rta_dst ?
  387. *(u32*)rta->rta_dst : 0, z, rta->rta_oif ? *rta->rta_oif : -1,
  388. rta->rta_prefsrc ? *(u32*)rta->rta_prefsrc : 0);
  389. if (z > 32)
  390. return -EINVAL;
  391. fz = table->fn_zones[z];
  392. if (!fz && !(fz = fn_new_zone(table, z)))
  393. return -ENOBUFS;
  394. fz_key_0(key);
  395. if (rta->rta_dst) {
  396. u32 dst;
  397. memcpy(&dst, rta->rta_dst, 4);
  398. if (dst & ~FZ_MASK(fz))
  399. return -EINVAL;
  400. key = fz_key(dst, fz);
  401. }
  402. if  ((fi = fib_create_info(r, rta, n, &err)) == NULL)
  403. return err;
  404. #ifdef CONFIG_IP_ROUTE_LARGE_TABLES
  405. if (fz->fz_nent > (fz->fz_divisor<<2) &&
  406.     fz->fz_divisor < FZ_MAX_DIVISOR &&
  407.     (z==32 || (1<<z) > fz->fz_divisor))
  408. fn_rehash_zone(fz);
  409. #endif
  410. fp = fz_chain_p(key, fz);
  411. /*
  412.  * Scan list to find the first route with the same destination
  413.  */
  414. FIB_SCAN(f, fp) {
  415. if (fn_key_leq(key,f->fn_key))
  416. break;
  417. }
  418. #ifdef CONFIG_IP_ROUTE_TOS
  419. /*
  420.  * Find route with the same destination and tos.
  421.  */
  422. FIB_SCAN_KEY(f, fp, key) {
  423. if (f->fn_tos <= tos)
  424. break;
  425. }
  426. #endif
  427. del_fp = NULL;
  428. if (f && (f->fn_state&FN_S_ZOMBIE) &&
  429. #ifdef CONFIG_IP_ROUTE_TOS
  430.     f->fn_tos == tos &&
  431. #endif
  432.     fn_key_eq(f->fn_key, key)) {
  433. del_fp = fp;
  434. fp = &f->fn_next;
  435. f = *fp;
  436. goto create;
  437. }
  438. FIB_SCAN_TOS(f, fp, key, tos) {
  439. if (fi->fib_priority <= FIB_INFO(f)->fib_priority)
  440. break;
  441. }
  442. /* Now f==*fp points to the first node with the same
  443.    keys [prefix,tos,priority], if such key already
  444.    exists or to the node, before which we will insert new one.
  445.  */
  446. if (f && 
  447. #ifdef CONFIG_IP_ROUTE_TOS
  448.     f->fn_tos == tos &&
  449. #endif
  450.     fn_key_eq(f->fn_key, key) &&
  451.     fi->fib_priority == FIB_INFO(f)->fib_priority) {
  452. struct fib_node **ins_fp;
  453. err = -EEXIST;
  454. if (n->nlmsg_flags&NLM_F_EXCL)
  455. goto out;
  456. if (n->nlmsg_flags&NLM_F_REPLACE) {
  457. del_fp = fp;
  458. fp = &f->fn_next;
  459. f = *fp;
  460. goto replace;
  461. }
  462. ins_fp = fp;
  463. err = -EEXIST;
  464. FIB_SCAN_TOS(f, fp, key, tos) {
  465. if (fi->fib_priority != FIB_INFO(f)->fib_priority)
  466. break;
  467. if (f->fn_type == type && f->fn_scope == r->rtm_scope
  468.     && FIB_INFO(f) == fi)
  469. goto out;
  470. }
  471. if (!(n->nlmsg_flags&NLM_F_APPEND)) {
  472. fp = ins_fp;
  473. f = *fp;
  474. }
  475. }
  476. create:
  477. err = -ENOENT;
  478. if (!(n->nlmsg_flags&NLM_F_CREATE))
  479. goto out;
  480. replace:
  481. err = -ENOBUFS;
  482. new_f = kmem_cache_alloc(fn_hash_kmem, SLAB_KERNEL);
  483. if (new_f == NULL)
  484. goto out;
  485. memset(new_f, 0, sizeof(struct fib_node));
  486. new_f->fn_key = key;
  487. #ifdef CONFIG_IP_ROUTE_TOS
  488. new_f->fn_tos = tos;
  489. #endif
  490. new_f->fn_type = type;
  491. new_f->fn_scope = r->rtm_scope;
  492. FIB_INFO(new_f) = fi;
  493. /*
  494.  * Insert new entry to the list.
  495.  */
  496. new_f->fn_next = f;
  497. write_lock_bh(&fib_hash_lock);
  498. *fp = new_f;
  499. write_unlock_bh(&fib_hash_lock);
  500. fz->fz_nent++;
  501. if (del_fp) {
  502. f = *del_fp;
  503. /* Unlink replaced node */
  504. write_lock_bh(&fib_hash_lock);
  505. *del_fp = f->fn_next;
  506. write_unlock_bh(&fib_hash_lock);
  507. if (!(f->fn_state&FN_S_ZOMBIE))
  508. rtmsg_fib(RTM_DELROUTE, f, z, tb->tb_id, n, req);
  509. if (f->fn_state&FN_S_ACCESSED)
  510. rt_cache_flush(-1);
  511. fn_free_node(f);
  512. fz->fz_nent--;
  513. } else {
  514. rt_cache_flush(-1);
  515. }
  516. rtmsg_fib(RTM_NEWROUTE, new_f, z, tb->tb_id, n, req);
  517. return 0;
  518. out:
  519. fib_release_info(fi);
  520. return err;
  521. }
  522. static int
  523. fn_hash_delete(struct fib_table *tb, struct rtmsg *r, struct kern_rta *rta,
  524. struct nlmsghdr *n, struct netlink_skb_parms *req)
  525. {
  526. struct fn_hash *table = (struct fn_hash*)tb->tb_data;
  527. struct fib_node **fp, **del_fp, *f;
  528. int z = r->rtm_dst_len;
  529. struct fn_zone *fz;
  530. fn_key_t key;
  531. int matched;
  532. #ifdef CONFIG_IP_ROUTE_TOS
  533. u8 tos = r->rtm_tos;
  534. #endif
  535. FTprint("tb(%d)_delete: %d %08x/%d %dn", tb->tb_id, r->rtm_type, rta->rta_dst ?
  536.        *(u32*)rta->rta_dst : 0, z, rta->rta_oif ? *rta->rta_oif : -1);
  537. if (z > 32)
  538. return -EINVAL;
  539. if ((fz  = table->fn_zones[z]) == NULL)
  540. return -ESRCH;
  541. fz_key_0(key);
  542. if (rta->rta_dst) {
  543. u32 dst;
  544. memcpy(&dst, rta->rta_dst, 4);
  545. if (dst & ~FZ_MASK(fz))
  546. return -EINVAL;
  547. key = fz_key(dst, fz);
  548. }
  549. fp = fz_chain_p(key, fz);
  550. FIB_SCAN(f, fp) {
  551. if (fn_key_eq(f->fn_key, key))
  552. break;
  553. if (fn_key_leq(key, f->fn_key)) {
  554. return -ESRCH;
  555. }
  556. }
  557. #ifdef CONFIG_IP_ROUTE_TOS
  558. FIB_SCAN_KEY(f, fp, key) {
  559. if (f->fn_tos == tos)
  560. break;
  561. }
  562. #endif
  563. matched = 0;
  564. del_fp = NULL;
  565. FIB_SCAN_TOS(f, fp, key, tos) {
  566. struct fib_info * fi = FIB_INFO(f);
  567. if (f->fn_state&FN_S_ZOMBIE) {
  568. return -ESRCH;
  569. }
  570. matched++;
  571. if (del_fp == NULL &&
  572.     (!r->rtm_type || f->fn_type == r->rtm_type) &&
  573.     (r->rtm_scope == RT_SCOPE_NOWHERE || f->fn_scope == r->rtm_scope) &&
  574.     (!r->rtm_protocol || fi->fib_protocol == r->rtm_protocol) &&
  575.     fib_nh_match(r, n, rta, fi) == 0)
  576. del_fp = fp;
  577. }
  578. if (del_fp) {
  579. f = *del_fp;
  580. rtmsg_fib(RTM_DELROUTE, f, z, tb->tb_id, n, req);
  581. if (matched != 1) {
  582. write_lock_bh(&fib_hash_lock);
  583. *del_fp = f->fn_next;
  584. write_unlock_bh(&fib_hash_lock);
  585. if (f->fn_state&FN_S_ACCESSED)
  586. rt_cache_flush(-1);
  587. fn_free_node(f);
  588. fz->fz_nent--;
  589. } else {
  590. f->fn_state |= FN_S_ZOMBIE;
  591. if (f->fn_state&FN_S_ACCESSED) {
  592. f->fn_state &= ~FN_S_ACCESSED;
  593. rt_cache_flush(-1);
  594. }
  595. if (++fib_hash_zombies > 128)
  596. fib_flush();
  597. }
  598. return 0;
  599. }
  600. return -ESRCH;
  601. }
  602. extern __inline__ int
  603. fn_flush_list(struct fib_node ** fp, int z, struct fn_hash *table)
  604. {
  605. int found = 0;
  606. struct fib_node *f;
  607. while ((f = *fp) != NULL) {
  608. struct fib_info *fi = FIB_INFO(f);
  609. if (fi && ((f->fn_state&FN_S_ZOMBIE) || (fi->fib_flags&RTNH_F_DEAD))) {
  610. write_lock_bh(&fib_hash_lock);
  611. *fp = f->fn_next;
  612. write_unlock_bh(&fib_hash_lock);
  613. fn_free_node(f);
  614. found++;
  615. continue;
  616. }
  617. fp = &f->fn_next;
  618. }
  619. return found;
  620. }
  621. static int fn_hash_flush(struct fib_table *tb)
  622. {
  623. struct fn_hash *table = (struct fn_hash*)tb->tb_data;
  624. struct fn_zone *fz;
  625. int found = 0;
  626. fib_hash_zombies = 0;
  627. for (fz = table->fn_zone_list; fz; fz = fz->fz_next) {
  628. int i;
  629. int tmp = 0;
  630. for (i=fz->fz_divisor-1; i>=0; i--)
  631. tmp += fn_flush_list(&fz->fz_hash[i], fz->fz_order, table);
  632. fz->fz_nent -= tmp;
  633. found += tmp;
  634. }
  635. return found;
  636. }
  637. #ifdef CONFIG_PROC_FS
  638. static int fn_hash_get_info(struct fib_table *tb, char *buffer, int first, int count)
  639. {
  640. struct fn_hash *table = (struct fn_hash*)tb->tb_data;
  641. struct fn_zone *fz;
  642. int pos = 0;
  643. int n = 0;
  644. read_lock(&fib_hash_lock);
  645. for (fz=table->fn_zone_list; fz; fz = fz->fz_next) {
  646. int i;
  647. struct fib_node *f;
  648. int maxslot = fz->fz_divisor;
  649. struct fib_node **fp = fz->fz_hash;
  650. if (fz->fz_nent == 0)
  651. continue;
  652. if (pos + fz->fz_nent <= first) {
  653. pos += fz->fz_nent;
  654. continue;
  655. }
  656. for (i=0; i < maxslot; i++, fp++) {
  657. for (f = *fp; f; f = f->fn_next) {
  658. if (++pos <= first)
  659. continue;
  660. fib_node_get_info(f->fn_type,
  661.   f->fn_state&FN_S_ZOMBIE,
  662.   FIB_INFO(f),
  663.   fz_prefix(f->fn_key, fz),
  664.   FZ_MASK(fz), buffer);
  665. buffer += 128;
  666. if (++n >= count)
  667. goto out;
  668. }
  669. }
  670. }
  671. out:
  672. read_unlock(&fib_hash_lock);
  673.    return n;
  674. }
  675. #endif
  676. static __inline__ int
  677. fn_hash_dump_bucket(struct sk_buff *skb, struct netlink_callback *cb,
  678.      struct fib_table *tb,
  679.      struct fn_zone *fz,
  680.      struct fib_node *f)
  681. {
  682. int i, s_i;
  683. s_i = cb->args[3];
  684. for (i=0; f; i++, f=f->fn_next) {
  685. if (i < s_i) continue;
  686. if (f->fn_state&FN_S_ZOMBIE) continue;
  687. if (fib_dump_info(skb, NETLINK_CB(cb->skb).pid, cb->nlh->nlmsg_seq,
  688.   RTM_NEWROUTE,
  689.   tb->tb_id, (f->fn_state&FN_S_ZOMBIE) ? 0 : f->fn_type, f->fn_scope,
  690.   &f->fn_key, fz->fz_order, f->fn_tos,
  691.   f->fn_info) < 0) {
  692. cb->args[3] = i;
  693. return -1;
  694. }
  695. }
  696. cb->args[3] = i;
  697. return skb->len;
  698. }
  699. static __inline__ int
  700. fn_hash_dump_zone(struct sk_buff *skb, struct netlink_callback *cb,
  701.    struct fib_table *tb,
  702.    struct fn_zone *fz)
  703. {
  704. int h, s_h;
  705. s_h = cb->args[2];
  706. for (h=0; h < fz->fz_divisor; h++) {
  707. if (h < s_h) continue;
  708. if (h > s_h)
  709. memset(&cb->args[3], 0, sizeof(cb->args) - 3*sizeof(cb->args[0]));
  710. if (fz->fz_hash == NULL || fz->fz_hash[h] == NULL)
  711. continue;
  712. if (fn_hash_dump_bucket(skb, cb, tb, fz, fz->fz_hash[h]) < 0) {
  713. cb->args[2] = h;
  714. return -1;
  715. }
  716. }
  717. cb->args[2] = h;
  718. return skb->len;
  719. }
  720. static int fn_hash_dump(struct fib_table *tb, struct sk_buff *skb, struct netlink_callback *cb)
  721. {
  722. int m, s_m;
  723. struct fn_zone *fz;
  724. struct fn_hash *table = (struct fn_hash*)tb->tb_data;
  725. s_m = cb->args[1];
  726. read_lock(&fib_hash_lock);
  727. for (fz = table->fn_zone_list, m=0; fz; fz = fz->fz_next, m++) {
  728. if (m < s_m) continue;
  729. if (m > s_m)
  730. memset(&cb->args[2], 0, sizeof(cb->args) - 2*sizeof(cb->args[0]));
  731. if (fn_hash_dump_zone(skb, cb, tb, fz) < 0) {
  732. cb->args[1] = m;
  733. read_unlock(&fib_hash_lock);
  734. return -1;
  735. }
  736. }
  737. read_unlock(&fib_hash_lock);
  738. cb->args[1] = m;
  739. return skb->len;
  740. }
  741. static void rtmsg_fib(int event, struct fib_node* f, int z, int tb_id,
  742.       struct nlmsghdr *n, struct netlink_skb_parms *req)
  743. {
  744. struct sk_buff *skb;
  745. u32 pid = req ? req->pid : 0;
  746. int size = NLMSG_SPACE(sizeof(struct rtmsg)+256);
  747. skb = alloc_skb(size, GFP_KERNEL);
  748. if (!skb)
  749. return;
  750. if (fib_dump_info(skb, pid, n->nlmsg_seq, event, tb_id,
  751.   f->fn_type, f->fn_scope, &f->fn_key, z, f->fn_tos,
  752.   FIB_INFO(f)) < 0) {
  753. kfree_skb(skb);
  754. return;
  755. }
  756. NETLINK_CB(skb).dst_groups = RTMGRP_IPV4_ROUTE;
  757. if (n->nlmsg_flags&NLM_F_ECHO)
  758. atomic_inc(&skb->users);
  759. netlink_broadcast(rtnl, skb, pid, RTMGRP_IPV4_ROUTE, GFP_KERNEL);
  760. if (n->nlmsg_flags&NLM_F_ECHO)
  761. netlink_unicast(rtnl, skb, pid, MSG_DONTWAIT);
  762. }
  763. #ifdef CONFIG_IP_MULTIPLE_TABLES
  764. struct fib_table * fib_hash_init(int id)
  765. #else
  766. struct fib_table * __init fib_hash_init(int id)
  767. #endif
  768. {
  769. struct fib_table *tb;
  770. if (fn_hash_kmem == NULL)
  771. fn_hash_kmem = kmem_cache_create("ip_fib_hash",
  772.  sizeof(struct fib_node),
  773.  0, SLAB_HWCACHE_ALIGN,
  774.  NULL, NULL);
  775. tb = kmalloc(sizeof(struct fib_table) + sizeof(struct fn_hash), GFP_KERNEL);
  776. if (tb == NULL)
  777. return NULL;
  778. tb->tb_id = id;
  779. tb->tb_lookup = fn_hash_lookup;
  780. tb->tb_insert = fn_hash_insert;
  781. tb->tb_delete = fn_hash_delete;
  782. tb->tb_flush = fn_hash_flush;
  783. tb->tb_select_default = fn_hash_select_default;
  784. tb->tb_dump = fn_hash_dump;
  785. #ifdef CONFIG_PROC_FS
  786. tb->tb_get_info = fn_hash_get_info;
  787. #endif
  788. memset(tb->tb_data, 0, sizeof(struct fn_hash));
  789. return tb;
  790. }