rwsem.h
上传用户:jlfgdled
上传日期:2013-04-10
资源大小:33168k
文件大小:7k
源码类别:

Linux/Unix编程

开发平台:

Unix_Linux

  1. /* rwsem.h: R/W semaphores implemented using XADD/CMPXCHG for i486+
  2.  *
  3.  * Written by David Howells (dhowells@redhat.com).
  4.  *
  5.  * Derived from asm-i386/semaphore.h
  6.  *
  7.  * Trylock by Brian Watson (Brian.J.Watson@compaq.com).
  8.  *
  9.  *
  10.  * The MSW of the count is the negated number of active writers and waiting
  11.  * lockers, and the LSW is the total number of active locks
  12.  *
  13.  * The lock count is initialized to 0 (no active and no waiting lockers).
  14.  *
  15.  * When a writer subtracts WRITE_BIAS, it'll get 0xffff0001 for the case of an
  16.  * uncontended lock. This can be determined because XADD returns the old value.
  17.  * Readers increment by 1 and see a positive value when uncontended, negative
  18.  * if there are writers (and maybe) readers waiting (in which case it goes to
  19.  * sleep).
  20.  *
  21.  * The value of WAITING_BIAS supports up to 32766 waiting processes. This can
  22.  * be extended to 65534 by manually checking the whole MSW rather than relying
  23.  * on the S flag.
  24.  *
  25.  * The value of ACTIVE_BIAS supports up to 65535 active processes.
  26.  *
  27.  * This should be totally fair - if anything is waiting, a process that wants a
  28.  * lock will go to the back of the queue. When the currently active lock is
  29.  * released, if there's a writer at the front of the queue, then that and only
  30.  * that will be woken up; if there's a bunch of consequtive readers at the
  31.  * front, then they'll all be woken up, but no other readers will be.
  32.  */
  33. #ifndef _I386_RWSEM_H
  34. #define _I386_RWSEM_H
  35. #ifndef _LINUX_RWSEM_H
  36. #error please dont include asm/rwsem.h directly, use linux/rwsem.h instead
  37. #endif
  38. #ifdef __KERNEL__
  39. #include <linux/list.h>
  40. #include <linux/spinlock.h>
  41. struct rwsem_waiter;
  42. extern struct rw_semaphore *FASTCALL(rwsem_down_read_failed(struct rw_semaphore *sem));
  43. extern struct rw_semaphore *FASTCALL(rwsem_down_write_failed(struct rw_semaphore *sem));
  44. extern struct rw_semaphore *FASTCALL(rwsem_wake(struct rw_semaphore *));
  45. /*
  46.  * the semaphore definition
  47.  */
  48. struct rw_semaphore {
  49. signed long count;
  50. #define RWSEM_UNLOCKED_VALUE 0x00000000
  51. #define RWSEM_ACTIVE_BIAS 0x00000001
  52. #define RWSEM_ACTIVE_MASK 0x0000ffff
  53. #define RWSEM_WAITING_BIAS (-0x00010000)
  54. #define RWSEM_ACTIVE_READ_BIAS RWSEM_ACTIVE_BIAS
  55. #define RWSEM_ACTIVE_WRITE_BIAS (RWSEM_WAITING_BIAS + RWSEM_ACTIVE_BIAS)
  56. spinlock_t wait_lock;
  57. struct list_head wait_list;
  58. #if RWSEM_DEBUG
  59. int debug;
  60. #endif
  61. };
  62. /*
  63.  * initialisation
  64.  */
  65. #if RWSEM_DEBUG
  66. #define __RWSEM_DEBUG_INIT      , 0
  67. #else
  68. #define __RWSEM_DEBUG_INIT /* */
  69. #endif
  70. #define __RWSEM_INITIALIZER(name) 
  71. { RWSEM_UNLOCKED_VALUE, SPIN_LOCK_UNLOCKED, LIST_HEAD_INIT((name).wait_list) 
  72. __RWSEM_DEBUG_INIT }
  73. #define DECLARE_RWSEM(name) 
  74. struct rw_semaphore name = __RWSEM_INITIALIZER(name)
  75. static inline void init_rwsem(struct rw_semaphore *sem)
  76. {
  77. sem->count = RWSEM_UNLOCKED_VALUE;
  78. spin_lock_init(&sem->wait_lock);
  79. INIT_LIST_HEAD(&sem->wait_list);
  80. #if RWSEM_DEBUG
  81. sem->debug = 0;
  82. #endif
  83. }
  84. /*
  85.  * lock for reading
  86.  */
  87. static inline void __down_read(struct rw_semaphore *sem)
  88. {
  89. __asm__ __volatile__(
  90. "# beginning down_readnt"
  91. LOCK_PREFIX "  incl      (%%eax)nt" /* adds 0x00000001, returns the old value */
  92. "  js        2fnt" /* jump if we weren't granted the lock */
  93. "1:nt"
  94. LOCK_SECTION_START("")
  95. "2:nt"
  96. "  pushl     %%ecxnt"
  97. "  pushl     %%edxnt"
  98. "  call      rwsem_down_read_failednt"
  99. "  popl      %%edxnt"
  100. "  popl      %%ecxnt"
  101. "  jmp       1bn"
  102. LOCK_SECTION_END
  103. "# ending down_readnt"
  104. : "+m"(sem->count)
  105. : "a"(sem)
  106. : "memory", "cc");
  107. }
  108. /*
  109.  * trylock for reading -- returns 1 if successful, 0 if contention
  110.  */
  111. static inline int __down_read_trylock(struct rw_semaphore *sem)
  112. {
  113. __s32 result, tmp;
  114. __asm__ __volatile__(
  115. "# beginning __down_read_trylocknt"
  116. "  movl      %0,%1nt"
  117. "1:nt"
  118. "  movl      %1,%2nt"
  119. "  addl      %3,%2nt"
  120. "  jle      2fnt"
  121. LOCK_PREFIX "  cmpxchgl  %2,%0nt"
  122. "  jnz      1bnt"
  123. "2:nt"
  124. "# ending __down_read_trylocknt"
  125. : "+m"(sem->count), "=&a"(result), "=&r"(tmp)
  126. : "i"(RWSEM_ACTIVE_READ_BIAS)
  127. : "memory", "cc");
  128. return result>=0 ? 1 : 0;
  129. }
  130. /*
  131.  * lock for writing
  132.  */
  133. static inline void __down_write(struct rw_semaphore *sem)
  134. {
  135. int tmp;
  136. tmp = RWSEM_ACTIVE_WRITE_BIAS;
  137. __asm__ __volatile__(
  138. "# beginning down_writent"
  139. LOCK_PREFIX "  xadd      %0,(%%eax)nt" /* subtract 0x0000ffff, returns the old value */
  140. "  testl     %0,%0nt" /* was the count 0 before? */
  141. "  jnz       2fnt" /* jump if we weren't granted the lock */
  142. "1:nt"
  143. LOCK_SECTION_START("")
  144. "2:nt"
  145. "  pushl     %%ecxnt"
  146. "  call      rwsem_down_write_failednt"
  147. "  popl      %%ecxnt"
  148. "  jmp       1bn"
  149. LOCK_SECTION_END
  150. "# ending down_write"
  151. : "+d"(tmp), "+m"(sem->count)
  152. : "a"(sem)
  153. : "memory", "cc");
  154. }
  155. /*
  156.  * trylock for writing -- returns 1 if successful, 0 if contention
  157.  */
  158. static inline int __down_write_trylock(struct rw_semaphore *sem)
  159. {
  160. signed long ret = cmpxchg(&sem->count,
  161.   RWSEM_UNLOCKED_VALUE, 
  162.   RWSEM_ACTIVE_WRITE_BIAS);
  163. if (ret == RWSEM_UNLOCKED_VALUE)
  164. return 1;
  165. return 0;
  166. }
  167. /*
  168.  * unlock after reading
  169.  */
  170. static inline void __up_read(struct rw_semaphore *sem)
  171. {
  172. __s32 tmp = -RWSEM_ACTIVE_READ_BIAS;
  173. __asm__ __volatile__(
  174. "# beginning __up_readnt"
  175. LOCK_PREFIX "  xadd      %%edx,(%%eax)nt" /* subtracts 1, returns the old value */
  176. "  js        2fnt" /* jump if the lock is being waited upon */
  177. "1:nt"
  178. LOCK_SECTION_START("")
  179. "2:nt"
  180. "  decw      %%dxnt" /* do nothing if still outstanding active readers */
  181. "  jnz       1bnt"
  182. "  pushl     %%ecxnt"
  183. "  call      rwsem_wakent"
  184. "  popl      %%ecxnt"
  185. "  jmp       1bn"
  186. LOCK_SECTION_END
  187. "# ending __up_readn"
  188. : "+m"(sem->count), "+d"(tmp)
  189. : "a"(sem)
  190. : "memory", "cc");
  191. }
  192. /*
  193.  * unlock after writing
  194.  */
  195. static inline void __up_write(struct rw_semaphore *sem)
  196. {
  197. __asm__ __volatile__(
  198. "# beginning __up_writent"
  199. "  movl      %2,%%edxnt"
  200. LOCK_PREFIX "  xaddl     %%edx,(%%eax)nt" /* tries to transition 0xffff0001 -> 0x00000000 */
  201. "  jnz       2fnt" /* jump if the lock is being waited upon */
  202. "1:nt"
  203. LOCK_SECTION_START("")
  204. "2:nt"
  205. "  decw      %%dxnt" /* did the active count reduce to 0? */
  206. "  jnz       1bnt" /* jump back if not */
  207. "  pushl     %%ecxnt"
  208. "  call      rwsem_wakent"
  209. "  popl      %%ecxnt"
  210. "  jmp       1bn"
  211. LOCK_SECTION_END
  212. "# ending __up_writen"
  213. : "+m"(sem->count)
  214. : "a"(sem), "i"(-RWSEM_ACTIVE_WRITE_BIAS)
  215. : "memory", "cc", "edx");
  216. }
  217. /*
  218.  * implement atomic add functionality
  219.  */
  220. static inline void rwsem_atomic_add(int delta, struct rw_semaphore *sem)
  221. {
  222. __asm__ __volatile__(
  223. LOCK_PREFIX "addl %1,%0"
  224. :"=m"(sem->count)
  225. :"ir"(delta), "m"(sem->count));
  226. }
  227. /*
  228.  * implement exchange and add functionality
  229.  */
  230. static inline int rwsem_atomic_update(int delta, struct rw_semaphore *sem)
  231. {
  232. int tmp = delta;
  233. __asm__ __volatile__(
  234. LOCK_PREFIX "xadd %0,(%2)"
  235. : "+r"(tmp), "=m"(sem->count)
  236. : "r"(sem), "m"(sem->count)
  237. : "memory");
  238. return tmp+delta;
  239. }
  240. #endif /* __KERNEL__ */
  241. #endif /* _I386_RWSEM_H */