irq.c
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:9k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /*
  2.  *  arch/s390/kernel/irq.c
  3.  *
  4.  *  S390 version
  5.  *    Copyright (C) 1999,2000 IBM Deutschland Entwicklung GmbH, IBM Corporation
  6.  *    Author(s): Ingo Adlung (adlung@de.ibm.com)
  7.  *
  8.  *  Derived from "arch/i386/kernel/irq.c"
  9.  *    Copyright (C) 1992, 1999 Linus Torvalds, Ingo Molnar
  10.  *
  11.  *  S/390 I/O interrupt processing and I/O request processing is
  12.  *   implemented in arch/s390/kernel/s390io.c
  13.  */
  14. #include <linux/module.h>
  15. #include <linux/config.h>
  16. #include <linux/ptrace.h>
  17. #include <linux/errno.h>
  18. #include <linux/kernel_stat.h>
  19. #include <linux/signal.h>
  20. #include <linux/sched.h>
  21. #include <linux/ioport.h>
  22. #include <linux/interrupt.h>
  23. #include <linux/timex.h>
  24. #include <linux/slab.h>
  25. #include <linux/string.h>
  26. #include <linux/random.h>
  27. #include <linux/smp.h>
  28. #include <linux/threads.h>
  29. #include <linux/smp_lock.h>
  30. #include <linux/init.h>
  31. #include <asm/system.h>
  32. #include <asm/io.h>
  33. #include <asm/irq.h>
  34. #include <asm/bitops.h>
  35. #include <asm/smp.h>
  36. #include <asm/pgtable.h>
  37. #include <asm/delay.h>
  38. #include <asm/lowcore.h>
  39. void          s390_init_IRQ   ( void );
  40. void          s390_free_irq   ( unsigned int irq, void *dev_id);
  41. int           s390_request_irq( unsigned int irq,
  42.                      void           (*handler)(int, void *, struct pt_regs *),
  43.                      unsigned long  irqflags,
  44.                      const char    *devname,
  45.                      void          *dev_id);
  46. #if 0
  47. /*
  48.  * The following vectors are part of the Linux architecture, there
  49.  * is no hardware IRQ pin equivalent for them, they are triggered
  50.  * through the ICC by us (IPIs), via smp_message_pass():
  51.  */
  52. BUILD_SMP_INTERRUPT(reschedule_interrupt)
  53. BUILD_SMP_INTERRUPT(invalidate_interrupt)
  54. BUILD_SMP_INTERRUPT(stop_cpu_interrupt)
  55. BUILD_SMP_INTERRUPT(mtrr_interrupt)
  56. BUILD_SMP_INTERRUPT(spurious_interrupt)
  57. #endif
  58. #if 0
  59. int get_irq_list(char *buf)
  60. {
  61. int i, j;
  62. struct irqaction * action;
  63. char *p = buf;
  64. p += sprintf(p, "           ");
  65. for (j=0; j<smp_num_cpus; j++)
  66. p += sprintf(p, "CPU%d       ",j);
  67. *p++ = 'n';
  68. for (i = 0 ; i < NR_IRQS ; i++)
  69. {
  70. if (ioinfo[i] == INVALID_STORAGE_AREA)
  71. continue;
  72. action = ioinfo[i]->irq_desc.action;
  73.    if (!action)
  74. continue;
  75. p += sprintf(p, "%3d: ",i);
  76. #ifndef CONFIG_SMP
  77. p += sprintf(p, "%10u ", kstat_irqs(i));
  78. #else
  79. for (j=0; j<smp_num_cpus; j++)
  80. p += sprintf( p, "%10u ",
  81.               kstat.irqs[cpu_logical_map(j)][i]);
  82. #endif
  83. p += sprintf(p, " %14s", ioinfo[i]->irq_desc.handler->typename);
  84. p += sprintf(p, "  %s", action->name);
  85. for (action=action->next; action; action = action->next)
  86. {
  87. p += sprintf(p, ", %s", action->name);
  88. } /* endfor */
  89. *p++ = 'n';
  90. } /* endfor */
  91. p += sprintf(p, "NMI: %10un", nmi_counter);
  92. #ifdef CONFIG_SMP
  93. p += sprintf(p, "IPI: %10un", atomic_read(&ipi_count));
  94. #endif
  95. return p - buf;
  96. }
  97. #endif
  98. /*
  99.  * Global interrupt locks for SMP. Allow interrupts to come in on any
  100.  * CPU, yet make cli/sti act globally to protect critical regions..
  101.  */
  102. #ifdef CONFIG_SMP
  103. atomic_t global_irq_holder = ATOMIC_INIT(NO_PROC_ID);
  104. atomic_t global_irq_lock = ATOMIC_INIT(0);
  105. atomic_t global_irq_count = ATOMIC_INIT(0);
  106. atomic_t global_bh_count;
  107. /*
  108.  * "global_cli()" is a special case, in that it can hold the
  109.  * interrupts disabled for a longish time, and also because
  110.  * we may be doing TLB invalidates when holding the global
  111.  * IRQ lock for historical reasons. Thus we may need to check
  112.  * SMP invalidate events specially by hand here (but not in
  113.  * any normal spinlocks)
  114.  *
  115.  * Thankfully we don't need this as we can deliver flush tlbs with
  116.  * interrupts disabled DJB :-)
  117.  */
  118. #define check_smp_invalidate(cpu)
  119. static void show(char * str)
  120. {
  121. int i;
  122. unsigned long *stack;
  123. int cpu = smp_processor_id();
  124. printk("n%s, CPU %d:n", str, cpu);
  125. printk("irq:  %d [%d]n",
  126.        atomic_read(&global_irq_count),local_irq_count(smp_processor_id()));
  127. printk("bh:   %d [%d]n",
  128.        atomic_read(&global_bh_count),local_bh_count(smp_processor_id()));
  129. stack = (unsigned long *) &str;
  130. for (i = 40; i ; i--) {
  131. unsigned long x = *++stack;
  132. if (x > (unsigned long) &init_task_union && x < (unsigned long) &vsprintf) {
  133. printk("<[%08lx]> ", x);
  134. }
  135. }
  136. }
  137. #define MAXCOUNT 100000000
  138. static inline void wait_on_bh(void)
  139. {
  140. int count = MAXCOUNT;
  141. do {
  142. if (!--count) {
  143. show("wait_on_bh");
  144. count = ~0;
  145. }
  146. /* nothing .. wait for the other bh's to go away */
  147. } while (atomic_read(&global_bh_count) != 0);
  148. }
  149. static inline void wait_on_irq(int cpu)
  150. {
  151. int count = MAXCOUNT;
  152. for (;;) {
  153. /*
  154.  * Wait until all interrupts are gone. Wait
  155.  * for bottom half handlers unless we're
  156.  * already executing in one..
  157.  */
  158. if (!atomic_read(&global_irq_count)) {
  159. if (local_bh_count(cpu)||
  160.     !atomic_read(&global_bh_count))
  161. break;
  162. }
  163. /* Duh, we have to loop. Release the lock to avoid deadlocks */
  164.                 atomic_set(&global_irq_lock, 0);
  165. for (;;) {
  166. if (!--count) {
  167. show("wait_on_irq");
  168. count = ~0;
  169. }
  170. __sti();
  171. SYNC_OTHER_CORES(cpu);
  172. __cli();
  173. check_smp_invalidate(cpu);
  174. if (atomic_read(&global_irq_count))
  175. continue;
  176. if (atomic_read(&global_irq_lock))
  177. continue;
  178. if (!local_bh_count(cpu)
  179.     && atomic_read(&global_bh_count))
  180. continue;
  181.                         if (!atomic_compare_and_swap(0, 1, &global_irq_lock))
  182. break;
  183. }
  184. }
  185. }
  186. /*
  187.  * This is called when we want to synchronize with
  188.  * bottom half handlers. We need to wait until
  189.  * no other CPU is executing any bottom half handler.
  190.  *
  191.  * Don't wait if we're already running in an interrupt
  192.  * context or are inside a bh handler.
  193.  */
  194. void synchronize_bh(void)
  195. {
  196. if (atomic_read(&global_bh_count) && !in_interrupt())
  197. wait_on_bh();
  198. }
  199. /*
  200.  * This is called when we want to synchronize with
  201.  * interrupts. We may for example tell a device to
  202.  * stop sending interrupts: but to make sure there
  203.  * are no interrupts that are executing on another
  204.  * CPU we need to call this function.
  205.  */
  206. void synchronize_irq(void)
  207. {
  208. if (atomic_read(&global_irq_count)) {
  209. /* Stupid approach */
  210. cli();
  211. sti();
  212. }
  213. }
  214. static inline void get_irqlock(int cpu)
  215. {
  216. if (atomic_compare_and_swap(0,1,&global_irq_lock) != 0) {
  217. /* do we already hold the lock? */
  218. if ( cpu == atomic_read(&global_irq_holder))
  219. return;
  220. /* Uhhuh.. Somebody else got it. Wait.. */
  221. do {
  222. check_smp_invalidate(cpu);
  223. } while (atomic_compare_and_swap(0,1,&global_irq_lock) != 0);
  224. }
  225. /*
  226.  * We also to make sure that nobody else is running
  227.  * in an interrupt context.
  228.  */
  229. wait_on_irq(cpu);
  230. /*
  231.  * Ok, finally..
  232.  */
  233. atomic_set(&global_irq_holder,cpu);
  234. }
  235. #define EFLAGS_I_SHIFT 57
  236. /*
  237.  * A global "cli()" while in an interrupt context
  238.  * turns into just a local cli(). Interrupts
  239.  * should use spinlocks for the (very unlikely)
  240.  * case that they ever want to protect against
  241.  * each other.
  242.  *
  243.  * If we already have local interrupts disabled,
  244.  * this will not turn a local disable into a
  245.  * global one (problems with spinlocks: this makes
  246.  * save_flags+cli+sti usable inside a spinlock).
  247.  */
  248. void __global_cli(void)
  249. {
  250. unsigned long flags;
  251. __save_flags(flags);
  252. if (flags & (1UL << EFLAGS_I_SHIFT)) {
  253. int cpu = smp_processor_id();
  254. __cli();
  255. if (!in_irq())
  256. get_irqlock(cpu);
  257. }
  258. }
  259. void __global_sti(void)
  260. {
  261. if (!in_irq())
  262. release_irqlock(smp_processor_id());
  263. __sti();
  264. }
  265. /*
  266.  * SMP flags value to restore to:
  267.  * 0 - global cli
  268.  * 1 - global sti
  269.  * 2 - local cli
  270.  * 3 - local sti
  271.  */
  272. unsigned long __global_save_flags(void)
  273. {
  274. int retval;
  275. int local_enabled;
  276. unsigned long flags;
  277. __save_flags(flags);
  278. local_enabled = (flags >> EFLAGS_I_SHIFT) & 1;
  279. /* default to local */
  280. retval = 2 + local_enabled;
  281. /* check for global flags if we're not in an interrupt */
  282. if (!in_irq())
  283. {
  284. if (local_enabled)
  285. retval = 1;
  286. if (atomic_read(&global_irq_holder)== smp_processor_id())
  287. retval = 0;
  288. }
  289. return retval;
  290. }
  291. void __global_restore_flags(unsigned long flags)
  292. {
  293. switch (flags) {
  294. case 0:
  295. __global_cli();
  296. break;
  297. case 1:
  298. __global_sti();
  299. break;
  300. case 2:
  301. __cli();
  302. break;
  303. case 3:
  304. __sti();
  305. break;
  306. default:
  307. printk("global_restore_flags: %08lx (%08lx)n",
  308.        flags, (&flags)[-1]);
  309. }
  310. }
  311. #endif
  312. void __init init_IRQ(void)
  313. {
  314.    s390_init_IRQ();
  315. }
  316. void free_irq(unsigned int irq, void *dev_id)
  317. {
  318.    s390_free_irq( irq, dev_id);
  319. }
  320. int request_irq( unsigned int   irq,
  321.                  void           (*handler)(int, void *, struct pt_regs *),
  322.                  unsigned long  irqflags,
  323.                  const char    *devname,
  324.                  void          *dev_id)
  325. {
  326.    return( s390_request_irq( irq, handler, irqflags, devname, dev_id ) );
  327. }
  328. void init_irq_proc(void)
  329. {
  330.         /* For now, nothing... */
  331. }
  332. #ifdef CONFIG_SMP
  333. EXPORT_SYMBOL(__global_cli);
  334. EXPORT_SYMBOL(__global_sti);
  335. EXPORT_SYMBOL(__global_save_flags);
  336. EXPORT_SYMBOL(__global_restore_flags);
  337. EXPORT_SYMBOL(global_irq_holder);
  338. EXPORT_SYMBOL(global_irq_lock);
  339. EXPORT_SYMBOL(global_irq_count);
  340. EXPORT_SYMBOL(global_bh_count);
  341. #endif
  342. EXPORT_SYMBOL(global_bh_lock);