irq_smp.c
上传用户:jlfgdled
上传日期:2013-04-10
资源大小:33168k
文件大小:5k
源码类别:

Linux/Unix编程

开发平台:

Unix_Linux

  1. /*
  2.  *  linux/arch/parisc/kernel/irq_smp.c
  3.  *  (90% stolen from alpha port, 9% from ia64, rest is mine -ggg)
  4.  *  
  5.  *  Copyright (C) 2001 Hewlett-Packard Co
  6.  *  Copyright (C) 2001 Grant Grundler <grundler@puffin.external.hp.com>
  7.  *
  8.  */
  9. #include <linux/kernel.h>
  10. #include <linux/signal.h>
  11. #include <linux/sched.h>
  12. #include <linux/interrupt.h>
  13. #include <linux/random.h>
  14. #include <linux/init.h>
  15. #include <linux/delay.h>
  16. #include <linux/irq.h>
  17. #include <asm/system.h>
  18. #include <asm/io.h>
  19. int global_irq_holder = NO_PROC_ID; /* Who has global_irq_lock. */
  20. spinlock_t global_irq_lock = SPIN_LOCK_UNLOCKED; /* protects IRQ's. */
  21. /* Global IRQ locking depth. */
  22. static void *previous_irqholder = NULL;
  23. #define MAXCOUNT 100000000
  24. static void
  25. show(char * str, void *where)
  26. {
  27. int cpu = smp_processor_id();
  28. printk("n%s, CPU %d: %pn", str, cpu, where);
  29. printk("irq:  %d [%d %d]n",
  30. irqs_running(),
  31. local_irq_count(0),
  32. local_irq_count(1));
  33. printk("bh:   %d [%d %d]n",
  34. spin_is_locked(&global_bh_lock) ? 1 : 0,
  35. local_bh_count(0),
  36. local_bh_count(1));
  37. }
  38. static inline void
  39. wait_on_irq(int cpu, void *where)
  40. {
  41. int count = MAXCOUNT;
  42. for (;;) {
  43. /*
  44.  * Wait until all interrupts are gone. Wait
  45.  * for bottom half handlers unless we're
  46.  * already executing in one..
  47.  */
  48. if (!irqs_running()) {
  49. if (local_bh_count(cpu)
  50.     || !spin_is_locked(&global_bh_lock))
  51. break;
  52. }
  53. /* Duh, we have to loop. Release the lock to avoid deadlocks */
  54. spin_unlock(&global_irq_lock);
  55. for (;;) {
  56. if (!--count) {
  57. show("wait_on_irq", where);
  58. count = MAXCOUNT;
  59. }
  60. __sti();
  61. udelay(1); /* make sure to run pending irqs */
  62. __cli();
  63. if (irqs_running())
  64. continue;
  65. if (spin_is_locked(&global_irq_lock))
  66. continue;
  67. if (!local_bh_count(cpu)
  68.     && spin_is_locked(&global_bh_lock))
  69. continue;
  70. if (spin_trylock(&global_irq_lock))
  71. break;
  72. }
  73. }
  74. }
  75. static inline void
  76. get_irqlock(int cpu, void* where)
  77. {
  78. if (!spin_trylock(&global_irq_lock)) {
  79. /* Do we already hold the lock?  */
  80. if (cpu == global_irq_holder)
  81. return;
  82. /* Uhhuh.. Somebody else got it.  Wait.  */
  83. spin_lock(&global_irq_lock);
  84. }
  85. /*
  86.  * Ok, we got the lock bit.
  87.  * But that's actually just the easy part.. Now
  88.  * we need to make sure that nobody else is running
  89.  * in an interrupt context. 
  90.  */
  91. wait_on_irq(cpu, where);
  92. /*
  93.  * Finally.
  94.  */
  95. #if DEBUG_SPINLOCK
  96. global_irq_lock.task = current;
  97. global_irq_lock.previous = where;
  98. #endif
  99. global_irq_holder = cpu;
  100. previous_irqholder = where;
  101. }
  102. /*
  103. ** A global "cli()" while in an interrupt context
  104. ** turns into just a local cli(). Interrupts
  105. ** should use spinlocks for the (very unlikely)
  106. ** case that they ever want to protect against
  107. ** each other.
  108. ** 
  109. ** If we already have local interrupts disabled,
  110. ** this will not turn a local disable into a
  111. ** global one (problems with spinlocks: this makes
  112. ** save_flags+cli+sti usable inside a spinlock).
  113. */
  114. void
  115. __global_cli(void)
  116. {
  117. unsigned int flags;
  118. __save_flags(flags);
  119. if (flags & PSW_I) {
  120. int cpu = smp_processor_id();
  121. __cli(); 
  122. if (!local_irq_count(cpu)) {
  123. void *where = __builtin_return_address(0);
  124. get_irqlock(cpu, where);
  125. }
  126. }
  127. }
  128. void
  129. __global_sti(void)
  130. {
  131. int cpu = smp_processor_id();
  132. if (!local_irq_count(cpu))
  133. release_irqlock(cpu);
  134. __sti();
  135. }
  136. /*
  137.  * SMP flags value to restore to:
  138.  * 0 - global cli
  139.  * 1 - global sti
  140.  * 2 - local cli
  141.  * 3 - local sti
  142.  */
  143. unsigned long
  144. __global_save_flags(void)
  145. {
  146. int retval;
  147. int local_enabled;
  148. unsigned long flags;
  149. int cpu = smp_processor_id();
  150. __save_flags(flags);
  151. local_enabled = (flags & PSW_I) != 0;
  152. /* default to local */
  153. retval = 2 + local_enabled;
  154. /* Check for global flags if we're not in an interrupt.  */
  155. if (!local_irq_count(cpu)) {
  156. if (local_enabled)
  157. retval = 1;
  158. if (global_irq_holder == cpu)
  159. retval = 0;
  160. }
  161. return retval;
  162. }
  163. void
  164. __global_restore_flags(unsigned long flags)
  165. {
  166. switch (flags) {
  167. case 0:
  168. __global_cli();
  169. break;
  170. case 1:
  171. __global_sti();
  172. break;
  173. case 2:
  174. __cli();
  175. break;
  176. case 3:
  177. __sti();
  178. break;
  179. default:
  180. printk(KERN_ERR "global_restore_flags: %08lx (%p)n",
  181. flags, __builtin_return_address(0));
  182. }
  183. }
  184. /*
  185.  * From its use, I infer that synchronize_irq() stalls a thread until
  186.  * the effects of a command to an external device are known to have
  187.  * taken hold.  Typically, the command is to stop sending interrupts.
  188.  * The strategy here is wait until there is at most one processor
  189.  * (this one) in an irq.  The memory barrier serializes the write to
  190.  * the device and the subsequent accesses of global_irq_count.
  191.  * --jmartin
  192.  */
  193. #define DEBUG_SYNCHRONIZE_IRQ 0
  194. void
  195. synchronize_irq(void)
  196. {
  197. /* Jay's version.  */
  198. if (irqs_running()) {
  199. cli();
  200. sti();
  201. }
  202. }