bitops.h
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:22k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /*
  2.  * This file is subject to the terms and conditions of the GNU General Public
  3.  * License.  See the file "COPYING" in the main directory of this archive
  4.  * for more details.
  5.  *
  6.  * Copyright (c) 1994 - 1997, 1999, 2000  Ralf Baechle (ralf@gnu.org)
  7.  * Copyright (c) 2000  Silicon Graphics, Inc.
  8.  */
  9. #ifndef _ASM_BITOPS_H
  10. #define _ASM_BITOPS_H
  11. #include <linux/types.h>
  12. #include <asm/byteorder.h> /* sigh ... */
  13. #ifdef __KERNEL__
  14. #include <asm/sgidefs.h>
  15. #include <asm/system.h>
  16. #include <linux/config.h>
  17. /*
  18.  * clear_bit() doesn't provide any barrier for the compiler.
  19.  */
  20. #define smp_mb__before_clear_bit() barrier()
  21. #define smp_mb__after_clear_bit() barrier()
  22. /*
  23.  * Only disable interrupt for kernel mode stuff to keep usermode stuff
  24.  * that dares to use kernel include files alive.
  25.  */
  26. #define __bi_flags unsigned long flags
  27. #define __bi_cli() __cli()
  28. #define __bi_save_flags(x) __save_flags(x)
  29. #define __bi_save_and_cli(x) __save_and_cli(x)
  30. #define __bi_restore_flags(x) __restore_flags(x)
  31. #else
  32. #define __bi_flags
  33. #define __bi_cli()
  34. #define __bi_save_flags(x)
  35. #define __bi_save_and_cli(x)
  36. #define __bi_restore_flags(x)
  37. #endif /* __KERNEL__ */
  38. #ifdef CONFIG_CPU_HAS_LLSC
  39. #include <asm/mipsregs.h>
  40. /*
  41.  * These functions for MIPS ISA > 1 are interrupt and SMP proof and
  42.  * interrupt friendly
  43.  */
  44. /*
  45.  * set_bit - Atomically set a bit in memory
  46.  * @nr: the bit to set
  47.  * @addr: the address to start counting from
  48.  *
  49.  * This function is atomic and may not be reordered.  See __set_bit()
  50.  * if you do not require the atomic guarantees.
  51.  * Note that @nr may be almost arbitrarily large; this function is not
  52.  * restricted to acting on a single-word quantity.
  53.  */
  54. extern __inline__ void
  55. set_bit(int nr, volatile void *addr)
  56. {
  57. unsigned long *m = ((unsigned long *) addr) + (nr >> 5);
  58. unsigned long temp;
  59. __asm__ __volatile__(
  60. "1:tllt%0, %1tt# set_bitnt"
  61. "ort%0, %2nt"
  62. "sct%0, %1nt"
  63. "beqzt%0, 1b"
  64. : "=&r" (temp), "=m" (*m)
  65. : "ir" (1UL << (nr & 0x1f)), "m" (*m));
  66. }
  67. /*
  68.  * __set_bit - Set a bit in memory
  69.  * @nr: the bit to set
  70.  * @addr: the address to start counting from
  71.  *
  72.  * Unlike set_bit(), this function is non-atomic and may be reordered.
  73.  * If it's called on the same region of memory simultaneously, the effect
  74.  * may be that only one operation succeeds.
  75.  */
  76. extern __inline__ void __set_bit(int nr, volatile void * addr)
  77. {
  78. unsigned long * m = ((unsigned long *) addr) + (nr >> 5);
  79. *m |= 1UL << (nr & 31);
  80. }
  81. /*
  82.  * clear_bit - Clears a bit in memory
  83.  * @nr: Bit to clear
  84.  * @addr: Address to start counting from
  85.  *
  86.  * clear_bit() is atomic and may not be reordered.  However, it does
  87.  * not contain a memory barrier, so if it is used for locking purposes,
  88.  * you should call smp_mb__before_clear_bit() and/or smp_mb__after_clear_bit()
  89.  * in order to ensure changes are visible on other processors.
  90.  */
  91. extern __inline__ void
  92. clear_bit(int nr, volatile void *addr)
  93. {
  94. unsigned long *m = ((unsigned long *) addr) + (nr >> 5);
  95. unsigned long temp;
  96. __asm__ __volatile__(
  97. "1:tllt%0, %1tt# clear_bitnt"
  98. "andt%0, %2nt"
  99. "sct%0, %1nt"
  100. "beqzt%0, 1bnt"
  101. : "=&r" (temp), "=m" (*m)
  102. : "ir" (~(1UL << (nr & 0x1f))), "m" (*m));
  103. }
  104. /*
  105.  * change_bit - Toggle a bit in memory
  106.  * @nr: Bit to clear
  107.  * @addr: Address to start counting from
  108.  *
  109.  * change_bit() is atomic and may not be reordered.
  110.  * Note that @nr may be almost arbitrarily large; this function is not
  111.  * restricted to acting on a single-word quantity.
  112.  */
  113. extern __inline__ void
  114. change_bit(int nr, volatile void *addr)
  115. {
  116. unsigned long *m = ((unsigned long *) addr) + (nr >> 5);
  117. unsigned long temp;
  118. __asm__ __volatile__(
  119. "1:tllt%0, %1tt# change_bitnt"
  120. "xort%0, %2nt"
  121. "sct%0, %1nt"
  122. "beqzt%0, 1b"
  123. : "=&r" (temp), "=m" (*m)
  124. : "ir" (1UL << (nr & 0x1f)), "m" (*m));
  125. }
  126. /*
  127.  * __change_bit - Toggle a bit in memory
  128.  * @nr: the bit to set
  129.  * @addr: the address to start counting from
  130.  *
  131.  * Unlike change_bit(), this function is non-atomic and may be reordered.
  132.  * If it's called on the same region of memory simultaneously, the effect
  133.  * may be that only one operation succeeds.
  134.  */
  135. extern __inline__ void __change_bit(int nr, volatile void * addr)
  136. {
  137. unsigned long * m = ((unsigned long *) addr) + (nr >> 5);
  138. *m ^= 1UL << (nr & 31);
  139. }
  140. /*
  141.  * test_and_set_bit - Set a bit and return its old value
  142.  * @nr: Bit to set
  143.  * @addr: Address to count from
  144.  *
  145.  * This operation is atomic and cannot be reordered.  
  146.  * It also implies a memory barrier.
  147.  */
  148. extern __inline__ int
  149. test_and_set_bit(int nr, volatile void *addr)
  150. {
  151. unsigned long *m = ((unsigned long *) addr) + (nr >> 5);
  152. unsigned long temp, res;
  153. __asm__ __volatile__(
  154. ".settnoreordertt# test_and_set_bitn"
  155. "1:tllt%0, %1nt"
  156. "ort%2, %0, %3nt"
  157. "sct%2, %1nt"
  158. "beqzt%2, 1bnt"
  159. " andt%2, %0, %3nt"
  160. ".settreorder"
  161. : "=&r" (temp), "=m" (*m), "=&r" (res)
  162. : "r" (1UL << (nr & 0x1f)), "m" (*m)
  163. : "memory");
  164. return res != 0;
  165. }
  166. /*
  167.  * __test_and_set_bit - Set a bit and return its old value
  168.  * @nr: Bit to set
  169.  * @addr: Address to count from
  170.  *
  171.  * This operation is non-atomic and can be reordered.  
  172.  * If two examples of this operation race, one can appear to succeed
  173.  * but actually fail.  You must protect multiple accesses with a lock.
  174.  */
  175. extern __inline__ int __test_and_set_bit(int nr, volatile void * addr)
  176. {
  177. int mask, retval;
  178. volatile int *a = addr;
  179. a += nr >> 5;
  180. mask = 1 << (nr & 0x1f);
  181. retval = (mask & *a) != 0;
  182. *a |= mask;
  183. return retval;
  184. }
  185. /*
  186.  * test_and_clear_bit - Clear a bit and return its old value
  187.  * @nr: Bit to set
  188.  * @addr: Address to count from
  189.  *
  190.  * This operation is atomic and cannot be reordered.  
  191.  * It also implies a memory barrier.
  192.  */
  193. extern __inline__ int
  194. test_and_clear_bit(int nr, volatile void *addr)
  195. {
  196. unsigned long *m = ((unsigned long *) addr) + (nr >> 5);
  197. unsigned long temp, res;
  198. __asm__ __volatile__(
  199. ".settnoreordertt# test_and_clear_bitn"
  200. "1:tllt%0, %1nt"
  201. "ort%2, %0, %3nt"
  202. "xort%2, %3nt"
  203. "sct%2, %1nt"
  204. "beqzt%2, 1bnt"
  205. " andt%2, %0, %3nt"
  206. ".settreorder"
  207. : "=&r" (temp), "=m" (*m), "=&r" (res)
  208. : "r" (1UL << (nr & 0x1f)), "m" (*m)
  209. : "memory");
  210. return res != 0;
  211. }
  212. /*
  213.  * __test_and_clear_bit - Clear a bit and return its old value
  214.  * @nr: Bit to set
  215.  * @addr: Address to count from
  216.  *
  217.  * This operation is non-atomic and can be reordered.  
  218.  * If two examples of this operation race, one can appear to succeed
  219.  * but actually fail.  You must protect multiple accesses with a lock.
  220.  */
  221. extern __inline__ int __test_and_clear_bit(int nr, volatile void * addr)
  222. {
  223. int mask, retval;
  224. volatile int *a = addr;
  225. a += nr >> 5;
  226. mask = 1 << (nr & 0x1f);
  227. retval = (mask & *a) != 0;
  228. *a &= ~mask;
  229. return retval;
  230. }
  231. /*
  232.  * test_and_change_bit - Change a bit and return its new value
  233.  * @nr: Bit to set
  234.  * @addr: Address to count from
  235.  *
  236.  * This operation is atomic and cannot be reordered.  
  237.  * It also implies a memory barrier.
  238.  */
  239. extern __inline__ int
  240. test_and_change_bit(int nr, volatile void *addr)
  241. {
  242. unsigned long *m = ((unsigned long *) addr) + (nr >> 5);
  243. unsigned long temp, res;
  244. __asm__ __volatile__(
  245. ".settnoreordertt# test_and_change_bitn"
  246. "1:tllt%0, %1nt"
  247. "xort%2, %0, %3nt"
  248. "sct%2, %1nt"
  249. "beqzt%2, 1bnt"
  250. " andt%2, %0, %3nt"
  251. ".settreorder"
  252. : "=&r" (temp), "=m" (*m), "=&r" (res)
  253. : "r" (1UL << (nr & 0x1f)), "m" (*m)
  254. : "memory");
  255. return res != 0;
  256. }
  257. /*
  258.  * __test_and_change_bit - Change a bit and return its old value
  259.  * @nr: Bit to set
  260.  * @addr: Address to count from
  261.  *
  262.  * This operation is non-atomic and can be reordered.  
  263.  * If two examples of this operation race, one can appear to succeed
  264.  * but actually fail.  You must protect multiple accesses with a lock.
  265.  */
  266. extern __inline__ int __test_and_change_bit(int nr, volatile void * addr)
  267. {
  268. int mask, retval;
  269. volatile int *a = addr;
  270. a += nr >> 5;
  271. mask = 1 << (nr & 0x1f);
  272. retval = (mask & *a) != 0;
  273. *a ^= mask;
  274. return retval;
  275. }
  276. #else /* MIPS I */
  277. /*
  278.  * set_bit - Atomically set a bit in memory
  279.  * @nr: the bit to set
  280.  * @addr: the address to start counting from
  281.  *
  282.  * This function is atomic and may not be reordered.  See __set_bit()
  283.  * if you do not require the atomic guarantees.
  284.  * Note that @nr may be almost arbitrarily large; this function is not
  285.  * restricted to acting on a single-word quantity.
  286.  */
  287. extern __inline__ void set_bit(int nr, volatile void * addr)
  288. {
  289. int mask;
  290. volatile int *a = addr;
  291. __bi_flags;
  292. a += nr >> 5;
  293. mask = 1 << (nr & 0x1f);
  294. __bi_save_and_cli(flags);
  295. *a |= mask;
  296. __bi_restore_flags(flags);
  297. }
  298. /*
  299.  * __set_bit - Set a bit in memory
  300.  * @nr: the bit to set
  301.  * @addr: the address to start counting from
  302.  *
  303.  * Unlike set_bit(), this function is non-atomic and may be reordered.
  304.  * If it's called on the same region of memory simultaneously, the effect
  305.  * may be that only one operation succeeds.
  306.  */
  307. extern __inline__ void __set_bit(int nr, volatile void * addr)
  308. {
  309. int mask;
  310. volatile int *a = addr;
  311. a += nr >> 5;
  312. mask = 1 << (nr & 0x1f);
  313. *a |= mask;
  314. }
  315. /*
  316.  * clear_bit - Clears a bit in memory
  317.  * @nr: Bit to clear
  318.  * @addr: Address to start counting from
  319.  *
  320.  * clear_bit() is atomic and may not be reordered.  However, it does
  321.  * not contain a memory barrier, so if it is used for locking purposes,
  322.  * you should call smp_mb__before_clear_bit() and/or smp_mb__after_clear_bit()
  323.  * in order to ensure changes are visible on other processors.
  324.  */
  325. extern __inline__ void clear_bit(int nr, volatile void * addr)
  326. {
  327. int mask;
  328. volatile int *a = addr;
  329. __bi_flags;
  330. a += nr >> 5;
  331. mask = 1 << (nr & 0x1f);
  332. __bi_save_and_cli(flags);
  333. *a &= ~mask;
  334. __bi_restore_flags(flags);
  335. }
  336. /*
  337.  * change_bit - Toggle a bit in memory
  338.  * @nr: Bit to clear
  339.  * @addr: Address to start counting from
  340.  *
  341.  * change_bit() is atomic and may not be reordered.
  342.  * Note that @nr may be almost arbitrarily large; this function is not
  343.  * restricted to acting on a single-word quantity.
  344.  */
  345. extern __inline__ void change_bit(int nr, volatile void * addr)
  346. {
  347. int mask;
  348. volatile int *a = addr;
  349. __bi_flags;
  350. a += nr >> 5;
  351. mask = 1 << (nr & 0x1f);
  352. __bi_save_and_cli(flags);
  353. *a ^= mask;
  354. __bi_restore_flags(flags);
  355. }
  356. /*
  357.  * __change_bit - Toggle a bit in memory
  358.  * @nr: the bit to set
  359.  * @addr: the address to start counting from
  360.  *
  361.  * Unlike change_bit(), this function is non-atomic and may be reordered.
  362.  * If it's called on the same region of memory simultaneously, the effect
  363.  * may be that only one operation succeeds.
  364.  */
  365. extern __inline__ void __change_bit(int nr, volatile void * addr)
  366. {
  367. unsigned long * m = ((unsigned long *) addr) + (nr >> 5);
  368. *m ^= 1UL << (nr & 31);
  369. }
  370. /*
  371.  * test_and_set_bit - Set a bit and return its old value
  372.  * @nr: Bit to set
  373.  * @addr: Address to count from
  374.  *
  375.  * This operation is atomic and cannot be reordered.  
  376.  * It also implies a memory barrier.
  377.  */
  378. extern __inline__ int test_and_set_bit(int nr, volatile void * addr)
  379. {
  380. int mask, retval;
  381. volatile int *a = addr;
  382. __bi_flags;
  383. a += nr >> 5;
  384. mask = 1 << (nr & 0x1f);
  385. __bi_save_and_cli(flags);
  386. retval = (mask & *a) != 0;
  387. *a |= mask;
  388. __bi_restore_flags(flags);
  389. return retval;
  390. }
  391. /*
  392.  * __test_and_set_bit - Set a bit and return its old value
  393.  * @nr: Bit to set
  394.  * @addr: Address to count from
  395.  *
  396.  * This operation is non-atomic and can be reordered.  
  397.  * If two examples of this operation race, one can appear to succeed
  398.  * but actually fail.  You must protect multiple accesses with a lock.
  399.  */
  400. extern __inline__ int __test_and_set_bit(int nr, volatile void * addr)
  401. {
  402. int mask, retval;
  403. volatile int *a = addr;
  404. a += nr >> 5;
  405. mask = 1 << (nr & 0x1f);
  406. retval = (mask & *a) != 0;
  407. *a |= mask;
  408. return retval;
  409. }
  410. /*
  411.  * test_and_clear_bit - Clear a bit and return its old value
  412.  * @nr: Bit to set
  413.  * @addr: Address to count from
  414.  *
  415.  * This operation is atomic and cannot be reordered.  
  416.  * It also implies a memory barrier.
  417.  */
  418. extern __inline__ int test_and_clear_bit(int nr, volatile void * addr)
  419. {
  420. int mask, retval;
  421. volatile int *a = addr;
  422. __bi_flags;
  423. a += nr >> 5;
  424. mask = 1 << (nr & 0x1f);
  425. __bi_save_and_cli(flags);
  426. retval = (mask & *a) != 0;
  427. *a &= ~mask;
  428. __bi_restore_flags(flags);
  429. return retval;
  430. }
  431. /*
  432.  * __test_and_clear_bit - Clear a bit and return its old value
  433.  * @nr: Bit to set
  434.  * @addr: Address to count from
  435.  *
  436.  * This operation is non-atomic and can be reordered.  
  437.  * If two examples of this operation race, one can appear to succeed
  438.  * but actually fail.  You must protect multiple accesses with a lock.
  439.  */
  440. extern __inline__ int __test_and_clear_bit(int nr, volatile void * addr)
  441. {
  442. int mask, retval;
  443. volatile int *a = addr;
  444. a += nr >> 5;
  445. mask = 1 << (nr & 0x1f);
  446. retval = (mask & *a) != 0;
  447. *a &= ~mask;
  448. return retval;
  449. }
  450. /*
  451.  * test_and_change_bit - Change a bit and return its new value
  452.  * @nr: Bit to set
  453.  * @addr: Address to count from
  454.  *
  455.  * This operation is atomic and cannot be reordered.  
  456.  * It also implies a memory barrier.
  457.  */
  458. extern __inline__ int test_and_change_bit(int nr, volatile void * addr)
  459. {
  460. int mask, retval;
  461. volatile int *a = addr;
  462. __bi_flags;
  463. a += nr >> 5;
  464. mask = 1 << (nr & 0x1f);
  465. __bi_save_and_cli(flags);
  466. retval = (mask & *a) != 0;
  467. *a ^= mask;
  468. __bi_restore_flags(flags);
  469. return retval;
  470. }
  471. /*
  472.  * __test_and_change_bit - Change a bit and return its old value
  473.  * @nr: Bit to set
  474.  * @addr: Address to count from
  475.  *
  476.  * This operation is non-atomic and can be reordered.  
  477.  * If two examples of this operation race, one can appear to succeed
  478.  * but actually fail.  You must protect multiple accesses with a lock.
  479.  */
  480. extern __inline__ int __test_and_change_bit(int nr, volatile void * addr)
  481. {
  482. int mask, retval;
  483. volatile int *a = addr;
  484. a += nr >> 5;
  485. mask = 1 << (nr & 0x1f);
  486. retval = (mask & *a) != 0;
  487. *a ^= mask;
  488. return retval;
  489. }
  490. #undef __bi_flags
  491. #undef __bi_cli
  492. #undef __bi_save_flags
  493. #undef __bi_restore_flags
  494. #endif /* MIPS I */
  495. /*
  496.  * test_bit - Determine whether a bit is set
  497.  * @nr: bit number to test
  498.  * @addr: Address to start counting from
  499.  */
  500. extern __inline__ int test_bit(int nr, volatile void *addr)
  501. {
  502. return ((1UL << (nr & 31)) & (((const unsigned int *) addr)[nr >> 5])) != 0;
  503. }
  504. #ifndef __MIPSEB__
  505. /* Little endian versions. */
  506. /*
  507.  * find_first_zero_bit - find the first zero bit in a memory region
  508.  * @addr: The address to start the search at
  509.  * @size: The maximum size to search
  510.  *
  511.  * Returns the bit-number of the first zero bit, not the number of the byte
  512.  * containing a bit.
  513.  */
  514. extern __inline__ int find_first_zero_bit (void *addr, unsigned size)
  515. {
  516. unsigned long dummy;
  517. int res;
  518. if (!size)
  519. return 0;
  520. __asm__ (".settnoreordernt"
  521. ".settnoatn"
  522. "1:tsubut$1,%6,%0nt"
  523. "blezt$1,2fnt"
  524. "lwt$1,(%5)nt"
  525. "addiut%5,4nt"
  526. #if (_MIPS_ISA == _MIPS_ISA_MIPS2 ) || (_MIPS_ISA == _MIPS_ISA_MIPS3 ) || 
  527.     (_MIPS_ISA == _MIPS_ISA_MIPS4 ) || (_MIPS_ISA == _MIPS_ISA_MIPS5 ) || 
  528.     (_MIPS_ISA == _MIPS_ISA_MIPS32) || (_MIPS_ISA == _MIPS_ISA_MIPS64)
  529. "beqlt%1,$1,1bnt"
  530. "addiut%0,32nt"
  531. #else
  532. "addiut%0,32nt"
  533. "beqt%1,$1,1bnt"
  534. "nopnt"
  535. "subut%0,32nt"
  536. #endif
  537. #ifdef __MIPSEB__
  538. #error "Fix this for big endian"
  539. #endif /* __MIPSEB__ */
  540. "lit%1,1n"
  541. "1:tandt%2,$1,%1nt"
  542. "beqzt%2,2fnt"
  543. "sllt%1,%1,1nt"
  544. "bnezt%1,1bnt"
  545. "addt%0,%0,1nt"
  546. ".settatnt"
  547. ".settreordern"
  548. "2:"
  549. : "=r" (res), "=r" (dummy), "=r" (addr)
  550. : "0" ((signed int) 0), "1" ((unsigned int) 0xffffffff),
  551.   "2" (addr), "r" (size)
  552. : "$1");
  553. return res;
  554. }
  555. /*
  556.  * find_next_zero_bit - find the first zero bit in a memory region
  557.  * @addr: The address to base the search on
  558.  * @offset: The bitnumber to start searching at
  559.  * @size: The maximum size to search
  560.  */
  561. extern __inline__ int find_next_zero_bit (void * addr, int size, int offset)
  562. {
  563. unsigned int *p = ((unsigned int *) addr) + (offset >> 5);
  564. int set = 0, bit = offset & 31, res;
  565. unsigned long dummy;
  566. if (bit) {
  567. /*
  568.  * Look for zero in first byte
  569.  */
  570. #ifdef __MIPSEB__
  571. #error "Fix this for big endian byte order"
  572. #endif
  573. __asm__(".settnoreordernt"
  574. ".settnoatn"
  575. "1:tandt$1,%4,%1nt"
  576. "beqzt$1,1fnt"
  577. "sllt%1,%1,1nt"
  578. "bnezt%1,1bnt"
  579. "addiut%0,1nt"
  580. ".settatnt"
  581. ".settreordern"
  582. "1:"
  583. : "=r" (set), "=r" (dummy)
  584. : "0" (0), "1" (1 << bit), "r" (*p)
  585. : "$1");
  586. if (set < (32 - bit))
  587. return set + offset;
  588. set = 32 - bit;
  589. p++;
  590. }
  591. /*
  592.  * No zero yet, search remaining full bytes for a zero
  593.  */
  594. res = find_first_zero_bit(p, size - 32 * (p - (unsigned int *) addr));
  595. return offset + set + res;
  596. }
  597. #endif /* !(__MIPSEB__) */
  598. /*
  599.  * ffz - find first zero in word.
  600.  * @word: The word to search
  601.  *
  602.  * Undefined if no zero exists, so code should check against ~0UL first.
  603.  */
  604. extern __inline__ unsigned long ffz(unsigned long word)
  605. {
  606. unsigned int __res;
  607. unsigned int mask = 1;
  608. __asm__ (
  609. ".settnoreordernt"
  610. ".settnoatnt"
  611. "movet%0,$0n"
  612. "1:tandt$1,%2,%1nt"
  613. "beqzt$1,2fnt"
  614. "sllt%1,1nt"
  615. "bnezt%1,1bnt"
  616. "addiut%0,1nt"
  617. ".settatnt"
  618. ".settreordern"
  619. "2:nt"
  620. : "=&r" (__res), "=r" (mask)
  621. : "r" (word), "1" (mask)
  622. : "$1");
  623. return __res;
  624. }
  625. #ifdef __KERNEL__
  626. /**
  627.  * ffs - find first bit set
  628.  * @x: the word to search
  629.  *
  630.  * This is defined the same way as
  631.  * the libc and compiler builtin ffs routines, therefore
  632.  * differs in spirit from the above ffz (man ffs).
  633.  */
  634. #define ffs(x) generic_ffs(x)
  635. /*
  636.  * hweightN - returns the hamming weight of a N-bit word
  637.  * @x: the word to weigh
  638.  *
  639.  * The Hamming Weight of a number is the total number of bits set in it.
  640.  */
  641. #define hweight32(x) generic_hweight32(x)
  642. #define hweight16(x) generic_hweight16(x)
  643. #define hweight8(x) generic_hweight8(x)
  644. #endif /* __KERNEL__ */
  645. #ifdef __MIPSEB__
  646. /*
  647.  * find_next_zero_bit - find the first zero bit in a memory region
  648.  * @addr: The address to base the search on
  649.  * @offset: The bitnumber to start searching at
  650.  * @size: The maximum size to search
  651.  */
  652. extern __inline__ int find_next_zero_bit(void *addr, int size, int offset)
  653. {
  654. unsigned long *p = ((unsigned long *) addr) + (offset >> 5);
  655. unsigned long result = offset & ~31UL;
  656. unsigned long tmp;
  657. if (offset >= size)
  658. return size;
  659. size -= result;
  660. offset &= 31UL;
  661. if (offset) {
  662. tmp = *(p++);
  663. tmp |= ~0UL >> (32-offset);
  664. if (size < 32)
  665. goto found_first;
  666. if (~tmp)
  667. goto found_middle;
  668. size -= 32;
  669. result += 32;
  670. }
  671. while (size & ~31UL) {
  672. if (~(tmp = *(p++)))
  673. goto found_middle;
  674. result += 32;
  675. size -= 32;
  676. }
  677. if (!size)
  678. return result;
  679. tmp = *p;
  680. found_first:
  681. tmp |= ~0UL << size;
  682. found_middle:
  683. return result + ffz(tmp);
  684. }
  685. /* Linus sez that gcc can optimize the following correctly, we'll see if this
  686.  * holds on the Sparc as it does for the ALPHA.
  687.  */
  688. #if 0 /* Fool kernel-doc since it doesn't do macros yet */
  689. /*
  690.  * find_first_zero_bit - find the first zero bit in a memory region
  691.  * @addr: The address to start the search at
  692.  * @size: The maximum size to search
  693.  *
  694.  * Returns the bit-number of the first zero bit, not the number of the byte
  695.  * containing a bit.
  696.  */
  697. extern int find_first_zero_bit (void *addr, unsigned size);
  698. #endif
  699. #define find_first_zero_bit(addr, size) 
  700.         find_next_zero_bit((addr), (size), 0)
  701. #endif /* (__MIPSEB__) */
  702. /* Now for the ext2 filesystem bit operations and helper routines. */
  703. #ifdef __MIPSEB__
  704. extern __inline__ int ext2_set_bit(int nr, void * addr)
  705. {
  706. int mask, retval, flags;
  707. unsigned char *ADDR = (unsigned char *) addr;
  708. ADDR += nr >> 3;
  709. mask = 1 << (nr & 0x07);
  710. save_and_cli(flags);
  711. retval = (mask & *ADDR) != 0;
  712. *ADDR |= mask;
  713. restore_flags(flags);
  714. return retval;
  715. }
  716. extern __inline__ int ext2_clear_bit(int nr, void * addr)
  717. {
  718. int mask, retval, flags;
  719. unsigned char *ADDR = (unsigned char *) addr;
  720. ADDR += nr >> 3;
  721. mask = 1 << (nr & 0x07);
  722. save_and_cli(flags);
  723. retval = (mask & *ADDR) != 0;
  724. *ADDR &= ~mask;
  725. restore_flags(flags);
  726. return retval;
  727. }
  728. extern __inline__ int ext2_test_bit(int nr, const void * addr)
  729. {
  730. int mask;
  731. const unsigned char *ADDR = (const unsigned char *) addr;
  732. ADDR += nr >> 3;
  733. mask = 1 << (nr & 0x07);
  734. return ((mask & *ADDR) != 0);
  735. }
  736. #define ext2_find_first_zero_bit(addr, size) 
  737.         ext2_find_next_zero_bit((addr), (size), 0)
  738. extern __inline__ unsigned long ext2_find_next_zero_bit(void *addr, unsigned long size, unsigned long offset)
  739. {
  740. unsigned long *p = ((unsigned long *) addr) + (offset >> 5);
  741. unsigned long result = offset & ~31UL;
  742. unsigned long tmp;
  743. if (offset >= size)
  744. return size;
  745. size -= result;
  746. offset &= 31UL;
  747. if(offset) {
  748. /* We hold the little endian value in tmp, but then the
  749.  * shift is illegal. So we could keep a big endian value
  750.  * in tmp, like this:
  751.  *
  752.  * tmp = __swab32(*(p++));
  753.  * tmp |= ~0UL >> (32-offset);
  754.  *
  755.  * but this would decrease preformance, so we change the
  756.  * shift:
  757.  */
  758. tmp = *(p++);
  759. tmp |= __swab32(~0UL >> (32-offset));
  760. if(size < 32)
  761. goto found_first;
  762. if(~tmp)
  763. goto found_middle;
  764. size -= 32;
  765. result += 32;
  766. }
  767. while(size & ~31UL) {
  768. if(~(tmp = *(p++)))
  769. goto found_middle;
  770. result += 32;
  771. size -= 32;
  772. }
  773. if(!size)
  774. return result;
  775. tmp = *p;
  776. found_first:
  777. /* tmp is little endian, so we would have to swab the shift,
  778.  * see above. But then we have to swab tmp below for ffz, so
  779.  * we might as well do this here.
  780.  */
  781. return result + ffz(__swab32(tmp) | (~0UL << size));
  782. found_middle:
  783. return result + ffz(__swab32(tmp));
  784. }
  785. #else /* !(__MIPSEB__) */
  786. /* Native ext2 byte ordering, just collapse using defines. */
  787. #define ext2_set_bit(nr, addr) test_and_set_bit((nr), (addr))
  788. #define ext2_clear_bit(nr, addr) test_and_clear_bit((nr), (addr))
  789. #define ext2_test_bit(nr, addr) test_bit((nr), (addr))
  790. #define ext2_find_first_zero_bit(addr, size) find_first_zero_bit((addr), (size))
  791. #define ext2_find_next_zero_bit(addr, size, offset) 
  792.                 find_next_zero_bit((addr), (size), (offset))
  793.  
  794. #endif /* !(__MIPSEB__) */
  795. /*
  796.  * Bitmap functions for the minix filesystem.
  797.  * FIXME: These assume that Minix uses the native byte/bitorder.
  798.  * This limits the Minix filesystem's value for data exchange very much.
  799.  */
  800. #define minix_test_and_set_bit(nr,addr) test_and_set_bit(nr,addr)
  801. #define minix_set_bit(nr,addr) set_bit(nr,addr)
  802. #define minix_test_and_clear_bit(nr,addr) test_and_clear_bit(nr,addr)
  803. #define minix_test_bit(nr,addr) test_bit(nr,addr)
  804. #define minix_find_first_zero_bit(addr,size) find_first_zero_bit(addr,size)
  805. #endif /* _ASM_BITOPS_H */