list.h
上传用户:szlgq88
上传日期:2009-04-28
资源大小:48287k
文件大小:24k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. #ifndef _LINUX_LIST_H
  2. #define _LINUX_LIST_H
  3. #ifdef __KERNEL__
  4. #include <linux/stddef.h>
  5. #include <linux/prefetch.h>
  6. #include <asm/system.h>
  7. /*
  8.  * These are non-NULL pointers that will result in page faults
  9.  * under normal circumstances, used to verify that nobody uses
  10.  * non-initialized list entries.
  11.  */
  12. #define LIST_POISON1  ((void *) 0x00100100)
  13. #define LIST_POISON2  ((void *) 0x00200200)
  14. /*
  15.  * Simple doubly linked list implementation.
  16.  *
  17.  * Some of the internal functions ("__xxx") are useful when
  18.  * manipulating whole lists rather than single entries, as
  19.  * sometimes we already know the next/prev entries and we can
  20.  * generate better code by using them directly rather than
  21.  * using the generic single-entry routines.
  22.  */
  23. struct list_head {
  24. struct list_head *next, *prev;
  25. };
  26. #define LIST_HEAD_INIT(name) { &(name), &(name) }
  27. #define LIST_HEAD(name) 
  28. struct list_head name = LIST_HEAD_INIT(name)
  29. #define INIT_LIST_HEAD(ptr) do { 
  30. (ptr)->next = (ptr); (ptr)->prev = (ptr); 
  31. } while (0)
  32. /*
  33.  * Insert a new entry between two known consecutive entries.
  34.  *
  35.  * This is only for internal list manipulation where we know
  36.  * the prev/next entries already!
  37.  */
  38. static inline void __list_add(struct list_head *new,
  39.       struct list_head *prev,
  40.       struct list_head *next)
  41. {
  42. next->prev = new;
  43. new->next = next;
  44. new->prev = prev;
  45. prev->next = new;
  46. }
  47. /**
  48.  * list_add - add a new entry
  49.  * @new: new entry to be added
  50.  * @head: list head to add it after
  51.  *
  52.  * Insert a new entry after the specified head.
  53.  * This is good for implementing stacks.
  54.  */
  55. static inline void list_add(struct list_head *new, struct list_head *head)
  56. {
  57. __list_add(new, head, head->next);
  58. }
  59. /**
  60.  * list_add_tail - add a new entry
  61.  * @new: new entry to be added
  62.  * @head: list head to add it before
  63.  *
  64.  * Insert a new entry before the specified head.
  65.  * This is useful for implementing queues.
  66.  */
  67. static inline void list_add_tail(struct list_head *new, struct list_head *head)
  68. {
  69. __list_add(new, head->prev, head);
  70. }
  71. /*
  72.  * Insert a new entry between two known consecutive entries.
  73.  *
  74.  * This is only for internal list manipulation where we know
  75.  * the prev/next entries already!
  76.  */
  77. static inline void __list_add_rcu(struct list_head * new,
  78. struct list_head * prev, struct list_head * next)
  79. {
  80. new->next = next;
  81. new->prev = prev;
  82. smp_wmb();
  83. next->prev = new;
  84. prev->next = new;
  85. }
  86. /**
  87.  * list_add_rcu - add a new entry to rcu-protected list
  88.  * @new: new entry to be added
  89.  * @head: list head to add it after
  90.  *
  91.  * Insert a new entry after the specified head.
  92.  * This is good for implementing stacks.
  93.  *
  94.  * The caller must take whatever precautions are necessary
  95.  * (such as holding appropriate locks) to avoid racing
  96.  * with another list-mutation primitive, such as list_add_rcu()
  97.  * or list_del_rcu(), running on this same list.
  98.  * However, it is perfectly legal to run concurrently with
  99.  * the _rcu list-traversal primitives, such as
  100.  * list_for_each_entry_rcu().
  101.  */
  102. static inline void list_add_rcu(struct list_head *new, struct list_head *head)
  103. {
  104. __list_add_rcu(new, head, head->next);
  105. }
  106. /**
  107.  * list_add_tail_rcu - add a new entry to rcu-protected list
  108.  * @new: new entry to be added
  109.  * @head: list head to add it before
  110.  *
  111.  * Insert a new entry before the specified head.
  112.  * This is useful for implementing queues.
  113.  *
  114.  * The caller must take whatever precautions are necessary
  115.  * (such as holding appropriate locks) to avoid racing
  116.  * with another list-mutation primitive, such as list_add_tail_rcu()
  117.  * or list_del_rcu(), running on this same list.
  118.  * However, it is perfectly legal to run concurrently with
  119.  * the _rcu list-traversal primitives, such as
  120.  * list_for_each_entry_rcu().
  121.  */
  122. static inline void list_add_tail_rcu(struct list_head *new,
  123. struct list_head *head)
  124. {
  125. __list_add_rcu(new, head->prev, head);
  126. }
  127. /*
  128.  * Delete a list entry by making the prev/next entries
  129.  * point to each other.
  130.  *
  131.  * This is only for internal list manipulation where we know
  132.  * the prev/next entries already!
  133.  */
  134. static inline void __list_del(struct list_head * prev, struct list_head * next)
  135. {
  136. next->prev = prev;
  137. prev->next = next;
  138. }
  139. /**
  140.  * list_del - deletes entry from list.
  141.  * @entry: the element to delete from the list.
  142.  * Note: list_empty on entry does not return true after this, the entry is
  143.  * in an undefined state.
  144.  */
  145. static inline void list_del(struct list_head *entry)
  146. {
  147. __list_del(entry->prev, entry->next);
  148. entry->next = LIST_POISON1;
  149. entry->prev = LIST_POISON2;
  150. }
  151. /**
  152.  * list_del_rcu - deletes entry from list without re-initialization
  153.  * @entry: the element to delete from the list.
  154.  *
  155.  * Note: list_empty on entry does not return true after this,
  156.  * the entry is in an undefined state. It is useful for RCU based
  157.  * lockfree traversal.
  158.  *
  159.  * In particular, it means that we can not poison the forward
  160.  * pointers that may still be used for walking the list.
  161.  *
  162.  * The caller must take whatever precautions are necessary
  163.  * (such as holding appropriate locks) to avoid racing
  164.  * with another list-mutation primitive, such as list_del_rcu()
  165.  * or list_add_rcu(), running on this same list.
  166.  * However, it is perfectly legal to run concurrently with
  167.  * the _rcu list-traversal primitives, such as
  168.  * list_for_each_entry_rcu().
  169.  *
  170.  * Note that the caller is not permitted to immediately free
  171.  * the newly deleted entry.  Instead, either synchronize_rcu()
  172.  * or call_rcu() must be used to defer freeing until an RCU
  173.  * grace period has elapsed.
  174.  */
  175. static inline void list_del_rcu(struct list_head *entry)
  176. {
  177. __list_del(entry->prev, entry->next);
  178. entry->prev = LIST_POISON2;
  179. }
  180. /*
  181.  * list_replace_rcu - replace old entry by new one
  182.  * @old : the element to be replaced
  183.  * @new : the new element to insert
  184.  *
  185.  * The old entry will be replaced with the new entry atomically.
  186.  */
  187. static inline void list_replace_rcu(struct list_head *old, struct list_head *new){
  188. new->next = old->next;
  189. new->prev = old->prev;
  190. smp_wmb();
  191. new->next->prev = new;
  192. new->prev->next = new;
  193. }
  194. /**
  195.  * list_del_init - deletes entry from list and reinitialize it.
  196.  * @entry: the element to delete from the list.
  197.  */
  198. static inline void list_del_init(struct list_head *entry)
  199. {
  200. __list_del(entry->prev, entry->next);
  201. INIT_LIST_HEAD(entry);
  202. }
  203. /**
  204.  * list_move - delete from one list and add as another's head
  205.  * @list: the entry to move
  206.  * @head: the head that will precede our entry
  207.  */
  208. static inline void list_move(struct list_head *list, struct list_head *head)
  209. {
  210.         __list_del(list->prev, list->next);
  211.         list_add(list, head);
  212. }
  213. /**
  214.  * list_move_tail - delete from one list and add as another's tail
  215.  * @list: the entry to move
  216.  * @head: the head that will follow our entry
  217.  */
  218. static inline void list_move_tail(struct list_head *list,
  219.   struct list_head *head)
  220. {
  221.         __list_del(list->prev, list->next);
  222.         list_add_tail(list, head);
  223. }
  224. /**
  225.  * list_empty - tests whether a list is empty
  226.  * @head: the list to test.
  227.  */
  228. static inline int list_empty(const struct list_head *head)
  229. {
  230. return head->next == head;
  231. }
  232. /**
  233.  * list_empty_careful - tests whether a list is
  234.  * empty _and_ checks that no other CPU might be
  235.  * in the process of still modifying either member
  236.  *
  237.  * NOTE: using list_empty_careful() without synchronization
  238.  * can only be safe if the only activity that can happen
  239.  * to the list entry is list_del_init(). Eg. it cannot be used
  240.  * if another CPU could re-list_add() it.
  241.  *
  242.  * @head: the list to test.
  243.  */
  244. static inline int list_empty_careful(const struct list_head *head)
  245. {
  246. struct list_head *next = head->next;
  247. return (next == head) && (next == head->prev);
  248. }
  249. static inline void __list_splice(struct list_head *list,
  250.  struct list_head *head)
  251. {
  252. struct list_head *first = list->next;
  253. struct list_head *last = list->prev;
  254. struct list_head *at = head->next;
  255. first->prev = head;
  256. head->next = first;
  257. last->next = at;
  258. at->prev = last;
  259. }
  260. /**
  261.  * list_splice - join two lists
  262.  * @list: the new list to add.
  263.  * @head: the place to add it in the first list.
  264.  */
  265. static inline void list_splice(struct list_head *list, struct list_head *head)
  266. {
  267. if (!list_empty(list))
  268. __list_splice(list, head);
  269. }
  270. /**
  271.  * list_splice_init - join two lists and reinitialise the emptied list.
  272.  * @list: the new list to add.
  273.  * @head: the place to add it in the first list.
  274.  *
  275.  * The list at @list is reinitialised
  276.  */
  277. static inline void list_splice_init(struct list_head *list,
  278.     struct list_head *head)
  279. {
  280. if (!list_empty(list)) {
  281. __list_splice(list, head);
  282. INIT_LIST_HEAD(list);
  283. }
  284. }
  285. /**
  286.  * list_entry - get the struct for this entry
  287.  * @ptr: the &struct list_head pointer.
  288.  * @type: the type of the struct this is embedded in.
  289.  * @member: the name of the list_struct within the struct.
  290.  */
  291. #define list_entry(ptr, type, member) 
  292. container_of(ptr, type, member)
  293. /**
  294.  * list_for_each - iterate over a list
  295.  * @pos: the &struct list_head to use as a loop counter.
  296.  * @head: the head for your list.
  297.  */
  298. #define list_for_each(pos, head) 
  299. for (pos = (head)->next; prefetch(pos->next), pos != (head); 
  300.          pos = pos->next)
  301. /**
  302.  * __list_for_each - iterate over a list
  303.  * @pos: the &struct list_head to use as a loop counter.
  304.  * @head: the head for your list.
  305.  *
  306.  * This variant differs from list_for_each() in that it's the
  307.  * simplest possible list iteration code, no prefetching is done.
  308.  * Use this for code that knows the list to be very short (empty
  309.  * or 1 entry) most of the time.
  310.  */
  311. #define __list_for_each(pos, head) 
  312. for (pos = (head)->next; pos != (head); pos = pos->next)
  313. /**
  314.  * list_for_each_prev - iterate over a list backwards
  315.  * @pos: the &struct list_head to use as a loop counter.
  316.  * @head: the head for your list.
  317.  */
  318. #define list_for_each_prev(pos, head) 
  319. for (pos = (head)->prev; prefetch(pos->prev), pos != (head); 
  320.          pos = pos->prev)
  321. /**
  322.  * list_for_each_safe - iterate over a list safe against removal of list entry
  323.  * @pos: the &struct list_head to use as a loop counter.
  324.  * @n: another &struct list_head to use as temporary storage
  325.  * @head: the head for your list.
  326.  */
  327. #define list_for_each_safe(pos, n, head) 
  328. for (pos = (head)->next, n = pos->next; pos != (head); 
  329. pos = n, n = pos->next)
  330. /**
  331.  * list_for_each_entry - iterate over list of given type
  332.  * @pos: the type * to use as a loop counter.
  333.  * @head: the head for your list.
  334.  * @member: the name of the list_struct within the struct.
  335.  */
  336. #define list_for_each_entry(pos, head, member)
  337. for (pos = list_entry((head)->next, typeof(*pos), member);
  338.      prefetch(pos->member.next), &pos->member != (head); 
  339.      pos = list_entry(pos->member.next, typeof(*pos), member))
  340. /**
  341.  * list_for_each_entry_reverse - iterate backwards over list of given type.
  342.  * @pos: the type * to use as a loop counter.
  343.  * @head: the head for your list.
  344.  * @member: the name of the list_struct within the struct.
  345.  */
  346. #define list_for_each_entry_reverse(pos, head, member)
  347. for (pos = list_entry((head)->prev, typeof(*pos), member);
  348.      prefetch(pos->member.prev), &pos->member != (head); 
  349.      pos = list_entry(pos->member.prev, typeof(*pos), member))
  350. /**
  351.  * list_prepare_entry - prepare a pos entry for use as a start point in
  352.  * list_for_each_entry_continue
  353.  * @pos: the type * to use as a start point
  354.  * @head: the head of the list
  355.  * @member: the name of the list_struct within the struct.
  356.  */
  357. #define list_prepare_entry(pos, head, member) 
  358. ((pos) ? : list_entry(head, typeof(*pos), member))
  359. /**
  360.  * list_for_each_entry_continue - iterate over list of given type
  361.  * continuing after existing point
  362.  * @pos: the type * to use as a loop counter.
  363.  * @head: the head for your list.
  364.  * @member: the name of the list_struct within the struct.
  365.  */
  366. #define list_for_each_entry_continue(pos, head, member) 
  367. for (pos = list_entry(pos->member.next, typeof(*pos), member);
  368.      prefetch(pos->member.next), &pos->member != (head);
  369.      pos = list_entry(pos->member.next, typeof(*pos), member))
  370. /**
  371.  * list_for_each_entry_safe - iterate over list of given type safe against removal of list entry
  372.  * @pos: the type * to use as a loop counter.
  373.  * @n: another type * to use as temporary storage
  374.  * @head: the head for your list.
  375.  * @member: the name of the list_struct within the struct.
  376.  */
  377. #define list_for_each_entry_safe(pos, n, head, member)
  378. for (pos = list_entry((head)->next, typeof(*pos), member),
  379. n = list_entry(pos->member.next, typeof(*pos), member);
  380.      &pos->member != (head); 
  381.      pos = n, n = list_entry(n->member.next, typeof(*n), member))
  382. /**
  383.  * list_for_each_entry_safe_continue - iterate over list of given type
  384.  * continuing after existing point safe against removal of list entry
  385.  * @pos: the type * to use as a loop counter.
  386.  * @n: another type * to use as temporary storage
  387.  * @head: the head for your list.
  388.  * @member: the name of the list_struct within the struct.
  389.  */
  390. #define list_for_each_entry_safe_continue(pos, n, head, member) 
  391. for (pos = list_entry(pos->member.next, typeof(*pos), member), 
  392. n = list_entry(pos->member.next, typeof(*pos), member);
  393.      &pos->member != (head);
  394.      pos = n, n = list_entry(n->member.next, typeof(*n), member))
  395. /**
  396.  * list_for_each_rcu - iterate over an rcu-protected list
  397.  * @pos: the &struct list_head to use as a loop counter.
  398.  * @head: the head for your list.
  399.  *
  400.  * This list-traversal primitive may safely run concurrently with
  401.  * the _rcu list-mutation primitives such as list_add_rcu()
  402.  * as long as the traversal is guarded by rcu_read_lock().
  403.  */
  404. #define list_for_each_rcu(pos, head) 
  405. for (pos = (head)->next; 
  406. prefetch(rcu_dereference(pos)->next), pos != (head); 
  407.          pos = pos->next)
  408. #define __list_for_each_rcu(pos, head) 
  409. for (pos = (head)->next; 
  410. rcu_dereference(pos) != (head); 
  411.          pos = pos->next)
  412. /**
  413.  * list_for_each_safe_rcu - iterate over an rcu-protected list safe
  414.  * against removal of list entry
  415.  * @pos: the &struct list_head to use as a loop counter.
  416.  * @n: another &struct list_head to use as temporary storage
  417.  * @head: the head for your list.
  418.  *
  419.  * This list-traversal primitive may safely run concurrently with
  420.  * the _rcu list-mutation primitives such as list_add_rcu()
  421.  * as long as the traversal is guarded by rcu_read_lock().
  422.  */
  423. #define list_for_each_safe_rcu(pos, n, head) 
  424. for (pos = (head)->next; 
  425. n = rcu_dereference(pos)->next, pos != (head); 
  426. pos = n)
  427. /**
  428.  * list_for_each_entry_rcu - iterate over rcu list of given type
  429.  * @pos: the type * to use as a loop counter.
  430.  * @head: the head for your list.
  431.  * @member: the name of the list_struct within the struct.
  432.  *
  433.  * This list-traversal primitive may safely run concurrently with
  434.  * the _rcu list-mutation primitives such as list_add_rcu()
  435.  * as long as the traversal is guarded by rcu_read_lock().
  436.  */
  437. #define list_for_each_entry_rcu(pos, head, member) 
  438. for (pos = list_entry((head)->next, typeof(*pos), member); 
  439. prefetch(rcu_dereference(pos)->member.next), 
  440. &pos->member != (head); 
  441. pos = list_entry(pos->member.next, typeof(*pos), member))
  442. /**
  443.  * list_for_each_continue_rcu - iterate over an rcu-protected list
  444.  * continuing after existing point.
  445.  * @pos: the &struct list_head to use as a loop counter.
  446.  * @head: the head for your list.
  447.  *
  448.  * This list-traversal primitive may safely run concurrently with
  449.  * the _rcu list-mutation primitives such as list_add_rcu()
  450.  * as long as the traversal is guarded by rcu_read_lock().
  451.  */
  452. #define list_for_each_continue_rcu(pos, head) 
  453. for ((pos) = (pos)->next; 
  454. prefetch(rcu_dereference((pos))->next), (pos) != (head); 
  455.          (pos) = (pos)->next)
  456. /*
  457.  * Double linked lists with a single pointer list head.
  458.  * Mostly useful for hash tables where the two pointer list head is
  459.  * too wasteful.
  460.  * You lose the ability to access the tail in O(1).
  461.  */
  462. struct hlist_head {
  463. struct hlist_node *first;
  464. };
  465. struct hlist_node {
  466. struct hlist_node *next, **pprev;
  467. };
  468. #define HLIST_HEAD_INIT { .first = NULL }
  469. #define HLIST_HEAD(name) struct hlist_head name = {  .first = NULL }
  470. #define INIT_HLIST_HEAD(ptr) ((ptr)->first = NULL)
  471. #define INIT_HLIST_NODE(ptr) ((ptr)->next = NULL, (ptr)->pprev = NULL)
  472. static inline int hlist_unhashed(const struct hlist_node *h)
  473. {
  474. return !h->pprev;
  475. }
  476. static inline int hlist_empty(const struct hlist_head *h)
  477. {
  478. return !h->first;
  479. }
  480. static inline void __hlist_del(struct hlist_node *n)
  481. {
  482. struct hlist_node *next = n->next;
  483. struct hlist_node **pprev = n->pprev;
  484. *pprev = next;
  485. if (next)
  486. next->pprev = pprev;
  487. }
  488. static inline void hlist_del(struct hlist_node *n)
  489. {
  490. __hlist_del(n);
  491. n->next = LIST_POISON1;
  492. n->pprev = LIST_POISON2;
  493. }
  494. /**
  495.  * hlist_del_rcu - deletes entry from hash list without re-initialization
  496.  * @n: the element to delete from the hash list.
  497.  *
  498.  * Note: list_unhashed() on entry does not return true after this,
  499.  * the entry is in an undefined state. It is useful for RCU based
  500.  * lockfree traversal.
  501.  *
  502.  * In particular, it means that we can not poison the forward
  503.  * pointers that may still be used for walking the hash list.
  504.  *
  505.  * The caller must take whatever precautions are necessary
  506.  * (such as holding appropriate locks) to avoid racing
  507.  * with another list-mutation primitive, such as hlist_add_head_rcu()
  508.  * or hlist_del_rcu(), running on this same list.
  509.  * However, it is perfectly legal to run concurrently with
  510.  * the _rcu list-traversal primitives, such as
  511.  * hlist_for_each_entry().
  512.  */
  513. static inline void hlist_del_rcu(struct hlist_node *n)
  514. {
  515. __hlist_del(n);
  516. n->pprev = LIST_POISON2;
  517. }
  518. static inline void hlist_del_init(struct hlist_node *n)
  519. {
  520. if (n->pprev)  {
  521. __hlist_del(n);
  522. INIT_HLIST_NODE(n);
  523. }
  524. }
  525. static inline void hlist_add_head(struct hlist_node *n, struct hlist_head *h)
  526. {
  527. struct hlist_node *first = h->first;
  528. n->next = first;
  529. if (first)
  530. first->pprev = &n->next;
  531. h->first = n;
  532. n->pprev = &h->first;
  533. }
  534. /**
  535.  * hlist_add_head_rcu - adds the specified element to the specified hlist,
  536.  * while permitting racing traversals.
  537.  * @n: the element to add to the hash list.
  538.  * @h: the list to add to.
  539.  *
  540.  * The caller must take whatever precautions are necessary
  541.  * (such as holding appropriate locks) to avoid racing
  542.  * with another list-mutation primitive, such as hlist_add_head_rcu()
  543.  * or hlist_del_rcu(), running on this same list.
  544.  * However, it is perfectly legal to run concurrently with
  545.  * the _rcu list-traversal primitives, such as
  546.  * hlist_for_each_rcu(), used to prevent memory-consistency
  547.  * problems on Alpha CPUs.  Regardless of the type of CPU, the
  548.  * list-traversal primitive must be guarded by rcu_read_lock().
  549.  */
  550. static inline void hlist_add_head_rcu(struct hlist_node *n,
  551. struct hlist_head *h)
  552. {
  553. struct hlist_node *first = h->first;
  554. n->next = first;
  555. n->pprev = &h->first;
  556. smp_wmb();
  557. if (first)
  558. first->pprev = &n->next;
  559. h->first = n;
  560. }
  561. /* next must be != NULL */
  562. static inline void hlist_add_before(struct hlist_node *n,
  563. struct hlist_node *next)
  564. {
  565. n->pprev = next->pprev;
  566. n->next = next;
  567. next->pprev = &n->next;
  568. *(n->pprev) = n;
  569. }
  570. static inline void hlist_add_after(struct hlist_node *n,
  571. struct hlist_node *next)
  572. {
  573. next->next = n->next;
  574. n->next = next;
  575. next->pprev = &n->next;
  576. if(next->next)
  577. next->next->pprev  = &next->next;
  578. }
  579. /**
  580.  * hlist_add_before_rcu - adds the specified element to the specified hlist
  581.  * before the specified node while permitting racing traversals.
  582.  * @n: the new element to add to the hash list.
  583.  * @next: the existing element to add the new element before.
  584.  *
  585.  * The caller must take whatever precautions are necessary
  586.  * (such as holding appropriate locks) to avoid racing
  587.  * with another list-mutation primitive, such as hlist_add_head_rcu()
  588.  * or hlist_del_rcu(), running on this same list.
  589.  * However, it is perfectly legal to run concurrently with
  590.  * the _rcu list-traversal primitives, such as
  591.  * hlist_for_each_rcu(), used to prevent memory-consistency
  592.  * problems on Alpha CPUs.
  593.  */
  594. static inline void hlist_add_before_rcu(struct hlist_node *n,
  595. struct hlist_node *next)
  596. {
  597. n->pprev = next->pprev;
  598. n->next = next;
  599. smp_wmb();
  600. next->pprev = &n->next;
  601. *(n->pprev) = n;
  602. }
  603. /**
  604.  * hlist_add_after_rcu - adds the specified element to the specified hlist
  605.  * after the specified node while permitting racing traversals.
  606.  * @prev: the existing element to add the new element after.
  607.  * @n: the new element to add to the hash list.
  608.  *
  609.  * The caller must take whatever precautions are necessary
  610.  * (such as holding appropriate locks) to avoid racing
  611.  * with another list-mutation primitive, such as hlist_add_head_rcu()
  612.  * or hlist_del_rcu(), running on this same list.
  613.  * However, it is perfectly legal to run concurrently with
  614.  * the _rcu list-traversal primitives, such as
  615.  * hlist_for_each_rcu(), used to prevent memory-consistency
  616.  * problems on Alpha CPUs.
  617.  */
  618. static inline void hlist_add_after_rcu(struct hlist_node *prev,
  619.        struct hlist_node *n)
  620. {
  621. n->next = prev->next;
  622. n->pprev = &prev->next;
  623. smp_wmb();
  624. prev->next = n;
  625. if (n->next)
  626. n->next->pprev = &n->next;
  627. }
  628. #define hlist_entry(ptr, type, member) container_of(ptr,type,member)
  629. #define hlist_for_each(pos, head) 
  630. for (pos = (head)->first; pos && ({ prefetch(pos->next); 1; }); 
  631.      pos = pos->next)
  632. #define hlist_for_each_safe(pos, n, head) 
  633. for (pos = (head)->first; pos && ({ n = pos->next; 1; }); 
  634.      pos = n)
  635. #define hlist_for_each_rcu(pos, head) 
  636. for ((pos) = (head)->first; 
  637. rcu_dereference((pos)) && ({ prefetch((pos)->next); 1; }); 
  638. (pos) = (pos)->next)
  639. /**
  640.  * hlist_for_each_entry - iterate over list of given type
  641.  * @tpos: the type * to use as a loop counter.
  642.  * @pos: the &struct hlist_node to use as a loop counter.
  643.  * @head: the head for your list.
  644.  * @member: the name of the hlist_node within the struct.
  645.  */
  646. #define hlist_for_each_entry(tpos, pos, head, member)  
  647. for (pos = (head)->first;  
  648.      pos && ({ prefetch(pos->next); 1;}) &&  
  649. ({ tpos = hlist_entry(pos, typeof(*tpos), member); 1;}); 
  650.      pos = pos->next)
  651. /**
  652.  * hlist_for_each_entry_continue - iterate over a hlist continuing after existing point
  653.  * @tpos: the type * to use as a loop counter.
  654.  * @pos: the &struct hlist_node to use as a loop counter.
  655.  * @member: the name of the hlist_node within the struct.
  656.  */
  657. #define hlist_for_each_entry_continue(tpos, pos, member)  
  658. for (pos = (pos)->next;  
  659.      pos && ({ prefetch(pos->next); 1;}) &&  
  660. ({ tpos = hlist_entry(pos, typeof(*tpos), member); 1;}); 
  661.      pos = pos->next)
  662. /**
  663.  * hlist_for_each_entry_from - iterate over a hlist continuing from existing point
  664.  * @tpos: the type * to use as a loop counter.
  665.  * @pos: the &struct hlist_node to use as a loop counter.
  666.  * @member: the name of the hlist_node within the struct.
  667.  */
  668. #define hlist_for_each_entry_from(tpos, pos, member)  
  669. for (; pos && ({ prefetch(pos->next); 1;}) &&  
  670. ({ tpos = hlist_entry(pos, typeof(*tpos), member); 1;}); 
  671.      pos = pos->next)
  672. /**
  673.  * hlist_for_each_entry_safe - iterate over list of given type safe against removal of list entry
  674.  * @tpos: the type * to use as a loop counter.
  675.  * @pos: the &struct hlist_node to use as a loop counter.
  676.  * @n: another &struct hlist_node to use as temporary storage
  677.  * @head: the head for your list.
  678.  * @member: the name of the hlist_node within the struct.
  679.  */
  680. #define hlist_for_each_entry_safe(tpos, pos, n, head, member)   
  681. for (pos = (head)->first;  
  682.      pos && ({ n = pos->next; 1; }) &&   
  683. ({ tpos = hlist_entry(pos, typeof(*tpos), member); 1;}); 
  684.      pos = n)
  685. /**
  686.  * hlist_for_each_entry_rcu - iterate over rcu list of given type
  687.  * @pos: the type * to use as a loop counter.
  688.  * @pos: the &struct hlist_node to use as a loop counter.
  689.  * @head: the head for your list.
  690.  * @member: the name of the hlist_node within the struct.
  691.  *
  692.  * This list-traversal primitive may safely run concurrently with
  693.  * the _rcu list-mutation primitives such as hlist_add_head_rcu()
  694.  * as long as the traversal is guarded by rcu_read_lock().
  695.  */
  696. #define hlist_for_each_entry_rcu(tpos, pos, head, member)  
  697. for (pos = (head)->first;  
  698.      rcu_dereference(pos) && ({ prefetch(pos->next); 1;}) &&  
  699. ({ tpos = hlist_entry(pos, typeof(*tpos), member); 1;}); 
  700.      pos = pos->next)
  701. #else
  702. #warning "don't include kernel headers in userspace"
  703. #endif /* __KERNEL__ */
  704. #endif