rwsem.h
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:6k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /* rwsem.h: R/W semaphores implemented using XADD/CMPXCHG for i486+
  2.  *
  3.  * Written by David Howells (dhowells@redhat.com).
  4.  *
  5.  * Derived from asm-i386/semaphore.h
  6.  *
  7.  *
  8.  * The MSW of the count is the negated number of active writers and waiting
  9.  * lockers, and the LSW is the total number of active locks
  10.  *
  11.  * The lock count is initialized to 0 (no active and no waiting lockers).
  12.  *
  13.  * When a writer subtracts WRITE_BIAS, it'll get 0xffff0001 for the case of an
  14.  * uncontended lock. This can be determined because XADD returns the old value.
  15.  * Readers increment by 1 and see a positive value when uncontended, negative
  16.  * if there are writers (and maybe) readers waiting (in which case it goes to
  17.  * sleep).
  18.  *
  19.  * The value of WAITING_BIAS supports up to 32766 waiting processes. This can
  20.  * be extended to 65534 by manually checking the whole MSW rather than relying
  21.  * on the S flag.
  22.  *
  23.  * The value of ACTIVE_BIAS supports up to 65535 active processes.
  24.  *
  25.  * This should be totally fair - if anything is waiting, a process that wants a
  26.  * lock will go to the back of the queue. When the currently active lock is
  27.  * released, if there's a writer at the front of the queue, then that and only
  28.  * that will be woken up; if there's a bunch of consequtive readers at the
  29.  * front, then they'll all be woken up, but no other readers will be.
  30.  */
  31. #ifndef _I386_RWSEM_H
  32. #define _I386_RWSEM_H
  33. #ifndef _LINUX_RWSEM_H
  34. #error please dont include asm/rwsem.h directly, use linux/rwsem.h instead
  35. #endif
  36. #ifdef __KERNEL__
  37. #include <linux/list.h>
  38. #include <linux/spinlock.h>
  39. #include <linux/stringify.h>
  40. struct rwsem_waiter;
  41. extern struct rw_semaphore *FASTCALL(rwsem_down_read_failed(struct rw_semaphore *sem));
  42. extern struct rw_semaphore *FASTCALL(rwsem_down_write_failed(struct rw_semaphore *sem));
  43. extern struct rw_semaphore *FASTCALL(rwsem_wake(struct rw_semaphore *));
  44. /*
  45.  * the semaphore definition
  46.  */
  47. struct rw_semaphore {
  48. signed long count;
  49. #define RWSEM_UNLOCKED_VALUE 0x00000000
  50. #define RWSEM_ACTIVE_BIAS 0x00000001
  51. #define RWSEM_ACTIVE_MASK 0x0000ffff
  52. #define RWSEM_WAITING_BIAS (-0x00010000)
  53. #define RWSEM_ACTIVE_READ_BIAS RWSEM_ACTIVE_BIAS
  54. #define RWSEM_ACTIVE_WRITE_BIAS (RWSEM_WAITING_BIAS + RWSEM_ACTIVE_BIAS)
  55. spinlock_t wait_lock;
  56. struct list_head wait_list;
  57. #if RWSEM_DEBUG
  58. int debug;
  59. #endif
  60. };
  61. /*
  62.  * initialisation
  63.  */
  64. #if RWSEM_DEBUG
  65. #define __RWSEM_DEBUG_INIT      , 0
  66. #else
  67. #define __RWSEM_DEBUG_INIT /* */
  68. #endif
  69. #define __RWSEM_INITIALIZER(name) 
  70. { RWSEM_UNLOCKED_VALUE, SPIN_LOCK_UNLOCKED, LIST_HEAD_INIT((name).wait_list) 
  71. __RWSEM_DEBUG_INIT }
  72. #define DECLARE_RWSEM(name) 
  73. struct rw_semaphore name = __RWSEM_INITIALIZER(name)
  74. static inline void init_rwsem(struct rw_semaphore *sem)
  75. {
  76. sem->count = RWSEM_UNLOCKED_VALUE;
  77. spin_lock_init(&sem->wait_lock);
  78. INIT_LIST_HEAD(&sem->wait_list);
  79. #if RWSEM_DEBUG
  80. sem->debug = 0;
  81. #endif
  82. }
  83. /*
  84.  * lock for reading
  85.  */
  86. static inline void __down_read(struct rw_semaphore *sem)
  87. {
  88. __asm__ __volatile__(
  89. "# beginning down_readnt"
  90. LOCK_PREFIX "  incl      (%%eax)nt" /* adds 0x00000001, returns the old value */
  91. "  js        2fnt" /* jump if we weren't granted the lock */
  92. "1:nt"
  93. ".subsection 1n"
  94. ".ifndef _text_lock_" __stringify(KBUILD_BASENAME) "n"
  95. "_text_lock_" __stringify(KBUILD_BASENAME) ":n"
  96. ".endifn"
  97. "2:nt"
  98. "  pushl     %%ecxnt"
  99. "  pushl     %%edxnt"
  100. "  call      rwsem_down_read_failednt"
  101. "  popl      %%edxnt"
  102. "  popl      %%ecxnt"
  103. "  jmp       1bn"
  104. ".subsection 0n"
  105. "# ending down_readnt"
  106. : "+m"(sem->count)
  107. : "a"(sem)
  108. : "memory", "cc");
  109. }
  110. /*
  111.  * lock for writing
  112.  */
  113. static inline void __down_write(struct rw_semaphore *sem)
  114. {
  115. int tmp;
  116. tmp = RWSEM_ACTIVE_WRITE_BIAS;
  117. __asm__ __volatile__(
  118. "# beginning down_writent"
  119. LOCK_PREFIX "  xadd      %0,(%%eax)nt" /* subtract 0x0000ffff, returns the old value */
  120. "  testl     %0,%0nt" /* was the count 0 before? */
  121. "  jnz       2fnt" /* jump if we weren't granted the lock */
  122. "1:nt"
  123. ".subsection 1n"
  124. ".ifndef _text_lock_" __stringify(KBUILD_BASENAME) "n"
  125. "_text_lock_" __stringify(KBUILD_BASENAME) ":n"
  126. ".endifn"
  127. "2:nt"
  128. "  pushl     %%ecxnt"
  129. "  call      rwsem_down_write_failednt"
  130. "  popl      %%ecxnt"
  131. "  jmp       1bn"
  132. ".subsection 0n"
  133. "# ending down_write"
  134. : "+d"(tmp), "+m"(sem->count)
  135. : "a"(sem)
  136. : "memory", "cc");
  137. }
  138. /*
  139.  * unlock after reading
  140.  */
  141. static inline void __up_read(struct rw_semaphore *sem)
  142. {
  143. __s32 tmp = -RWSEM_ACTIVE_READ_BIAS;
  144. __asm__ __volatile__(
  145. "# beginning __up_readnt"
  146. LOCK_PREFIX "  xadd      %%edx,(%%eax)nt" /* subtracts 1, returns the old value */
  147. "  js        2fnt" /* jump if the lock is being waited upon */
  148. "1:nt"
  149. ".subsection 1n"
  150. ".ifndef _text_lock_" __stringify(KBUILD_BASENAME) "n"
  151. "_text_lock_" __stringify(KBUILD_BASENAME) ":n"
  152. ".endifn"
  153. "2:nt"
  154. "  decw      %%dxnt" /* do nothing if still outstanding active readers */
  155. "  jnz       1bnt"
  156. "  pushl     %%ecxnt"
  157. "  call      rwsem_wakent"
  158. "  popl      %%ecxnt"
  159. "  jmp       1bn"
  160. ".subsection 0n"
  161. "# ending __up_readn"
  162. : "+m"(sem->count), "+d"(tmp)
  163. : "a"(sem)
  164. : "memory", "cc");
  165. }
  166. /*
  167.  * unlock after writing
  168.  */
  169. static inline void __up_write(struct rw_semaphore *sem)
  170. {
  171. __asm__ __volatile__(
  172. "# beginning __up_writent"
  173. "  movl      %2,%%edxnt"
  174. LOCK_PREFIX "  xaddl     %%edx,(%%eax)nt" /* tries to transition 0xffff0001 -> 0x00000000 */
  175. "  jnz       2fnt" /* jump if the lock is being waited upon */
  176. "1:nt"
  177. ".subsection 1n"
  178. ".ifndef _text_lock_" __stringify(KBUILD_BASENAME) "n"
  179. "_text_lock_" __stringify(KBUILD_BASENAME) ":n"
  180. ".endifn"
  181. "2:nt"
  182. "  decw      %%dxnt" /* did the active count reduce to 0? */
  183. "  jnz       1bnt" /* jump back if not */
  184. "  pushl     %%ecxnt"
  185. "  call      rwsem_wakent"
  186. "  popl      %%ecxnt"
  187. "  jmp       1bn"
  188. ".subsection 0n"
  189. "# ending __up_writen"
  190. : "+m"(sem->count)
  191. : "a"(sem), "i"(-RWSEM_ACTIVE_WRITE_BIAS)
  192. : "memory", "cc", "edx");
  193. }
  194. /*
  195.  * implement atomic add functionality
  196.  */
  197. static inline void rwsem_atomic_add(int delta, struct rw_semaphore *sem)
  198. {
  199. __asm__ __volatile__(
  200. LOCK_PREFIX "addl %1,%0"
  201. :"=m"(sem->count)
  202. :"ir"(delta), "m"(sem->count));
  203. }
  204. /*
  205.  * implement exchange and add functionality
  206.  */
  207. static inline int rwsem_atomic_update(int delta, struct rw_semaphore *sem)
  208. {
  209. int tmp = delta;
  210. __asm__ __volatile__(
  211. LOCK_PREFIX "xadd %0,(%2)"
  212. : "+r"(tmp), "=m"(sem->count)
  213. : "r"(sem), "m"(sem->count)
  214. : "memory");
  215. return tmp+delta;
  216. }
  217. #endif /* __KERNEL__ */
  218. #endif /* _I386_RWSEM_H */