irq.c
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:13k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /* $Id: irq.c,v 1.8 2000/02/08 02:01:17 grundler Exp $
  2.  *
  3.  * Code to handle x86 style IRQs plus some generic interrupt stuff.
  4.  *
  5.  * This is not in any way SMP-clean.
  6.  *
  7.  * Copyright (C) 1992 Linus Torvalds
  8.  * Copyright (C) 1994, 1995, 1996, 1997, 1998 Ralf Baechle
  9.  * Copyright (C) 1999 SuSE GmbH (Author: Philipp Rumpf, prumpf@tux.org)
  10.  * Copyright (C) 2000 Hewlett Packard Corp (Co-Author: Grant Grundler, grundler@cup.hp.com)
  11.  *
  12.  *    This program is free software; you can redistribute it and/or modify
  13.  *    it under the terms of the GNU General Public License as published by
  14.  *    the Free Software Foundation; either version 2, or (at your option)
  15.  *    any later version.
  16.  *
  17.  *    This program is distributed in the hope that it will be useful,
  18.  *    but WITHOUT ANY WARRANTY; without even the implied warranty of
  19.  *    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
  20.  *    GNU General Public License for more details.
  21.  *
  22.  *    You should have received a copy of the GNU General Public License
  23.  *    along with this program; if not, write to the Free Software
  24.  *    Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
  25.  */
  26. #include <linux/config.h>
  27. #include <linux/bitops.h>
  28. #include <asm/bitops.h>
  29. #include <asm/pdc.h>
  30. #include <linux/errno.h>
  31. #include <linux/init.h>
  32. #include <linux/kernel_stat.h>
  33. #include <linux/signal.h>
  34. #include <linux/sched.h>
  35. #include <linux/types.h>
  36. #include <linux/ioport.h>
  37. #include <linux/timex.h>
  38. #include <linux/slab.h>
  39. #include <linux/random.h>
  40. #include <linux/interrupt.h>
  41. #include <linux/irq.h>
  42. #include <asm/cache.h>
  43. #undef DEBUG_IRQ
  44. extern void timer_interrupt(int, void *, struct pt_regs *);
  45. extern void ipi_interrupt(int, void *, struct pt_regs *);
  46. #ifdef DEBUG_IRQ
  47. #define DBG_IRQ(x...)   printk(x)
  48. #else /* DEBUG_IRQ */
  49. #define DBG_IRQ(x...)
  50. #endif /* DEBUG_IRQ */
  51. #define EIEM_MASK(irq) (1L<<(MAX_CPU_IRQ-IRQ_OFFSET(irq)))
  52. #define CLEAR_EIEM_BIT(irq) set_eiem(get_eiem() & ~EIEM_MASK(irq))
  53. #define SET_EIEM_BIT(irq) set_eiem(get_eiem() | EIEM_MASK(irq))
  54. static void disable_cpu_irq(void *unused, int irq)
  55. {
  56. CLEAR_EIEM_BIT(irq);
  57. }
  58. static void enable_cpu_irq(void *unused, int irq)
  59. {
  60. unsigned long mask = EIEM_MASK(irq);
  61. mtctl(mask, 23);
  62. SET_EIEM_BIT(irq);
  63. }
  64. static struct irqaction cpu_irq_actions[IRQ_PER_REGION] = {
  65. [IRQ_OFFSET(TIMER_IRQ)] { timer_interrupt, 0, 0, "timer", NULL, NULL },
  66. [IRQ_OFFSET(IPI_IRQ)] { ipi_interrupt, 0, 0, "IPI", NULL, NULL },
  67. };
  68. struct irq_region cpu_irq_region = {
  69. { disable_cpu_irq, enable_cpu_irq, NULL, NULL },
  70. { &cpu_data[0], "PA-PIC", IRQ_REG_MASK|IRQ_REG_DIS, IRQ_FROM_REGION(CPU_IRQ_REGION)},
  71. cpu_irq_actions
  72. };
  73. struct irq_region *irq_region[NR_IRQ_REGS] = {
  74. [ 0 ] NULL, /* abuse will data page fault (aka code 15) */
  75. [ CPU_IRQ_REGION ] &cpu_irq_region,
  76. };
  77. /* we special-case the real IRQs here, which feels right given the relatively
  78.  * high cost of indirect calls.  If anyone is bored enough to benchmark this
  79.  * and find out whether I am right, feel free to.   prumpf */
  80. static inline void mask_irq(int irq)
  81. {
  82. struct irq_region *region;
  83. #ifdef DEBUG_IRQ
  84. if (irq != TIMER_IRQ)
  85. #endif
  86. DBG_IRQ("mask_irq(%d) %d+%dn", irq, IRQ_REGION(irq), IRQ_OFFSET(irq));
  87. if(IRQ_REGION(irq) != CPU_IRQ_REGION) {
  88. region = irq_region[IRQ_REGION(irq)];
  89. if(region->data.flags & IRQ_REG_MASK)
  90. region->ops.mask_irq(region->data.dev, IRQ_OFFSET(irq));
  91. } else {
  92. CLEAR_EIEM_BIT(irq);
  93. }
  94. }
  95. static inline void unmask_irq(int irq)
  96. {
  97. struct irq_region *region;
  98. #ifdef DEBUG_IRQ
  99. if (irq != TIMER_IRQ)
  100. #endif
  101. DBG_IRQ("unmask_irq(%d) %d+%dn", irq, IRQ_REGION(irq), IRQ_OFFSET(irq));
  102. if(IRQ_REGION(irq) != CPU_IRQ_REGION) {
  103. region = irq_region[IRQ_REGION(irq)];
  104. if(region->data.flags & IRQ_REG_MASK)
  105. region->ops.unmask_irq(region->data.dev, IRQ_OFFSET(irq));
  106. } else {
  107. SET_EIEM_BIT(irq);
  108. }
  109. }
  110. void disable_irq(int irq)
  111. {
  112. struct irq_region *region;
  113. #ifdef DEBUG_IRQ
  114. if (irq != TIMER_IRQ)
  115. #endif
  116. DBG_IRQ("disable_irq(%d) %d+%dn", irq, IRQ_REGION(irq), IRQ_OFFSET(irq));
  117. region = irq_region[IRQ_REGION(irq)];
  118. if(region->data.flags & IRQ_REG_DIS)
  119. region->ops.disable_irq(region->data.dev, IRQ_OFFSET(irq));
  120. else
  121. BUG();
  122. }
  123. void enable_irq(int irq) 
  124. {
  125. struct irq_region *region;
  126. #ifdef DEBUG_IRQ
  127. if (irq != TIMER_IRQ)
  128. #endif
  129. DBG_IRQ("enable_irq(%d) %d+%dn", irq, IRQ_REGION(irq), IRQ_OFFSET(irq));
  130. region = irq_region[IRQ_REGION(irq)];
  131. if(region->data.flags & IRQ_REG_DIS)
  132. region->ops.enable_irq(region->data.dev, IRQ_OFFSET(irq));
  133. else
  134. BUG();
  135. }
  136. int get_irq_list(char *buf)
  137. {
  138. #ifdef CONFIG_PROC_FS
  139. char *p = buf;
  140. int i, j;
  141. int regnr, irq_no;
  142. struct irq_region *region;
  143. struct irqaction *action, *mainaction;
  144. p += sprintf(p, "           ");
  145. for (j=0; j<smp_num_cpus; j++)
  146. p += sprintf(p, "CPU%d       ",j);
  147. *p++ = 'n';
  148. for (regnr = 0; regnr < NR_IRQ_REGS; regnr++) {
  149.     region = irq_region[regnr];
  150.     if (!region || !region->action)
  151. continue;
  152.     
  153.     mainaction = region->action;
  154.     for (i = 0; i <= MAX_CPU_IRQ; i++) {
  155. action = mainaction++;
  156. if (!action || !action->name)
  157.     continue;
  158. irq_no = IRQ_FROM_REGION(regnr) + i;
  159. p += sprintf(p, "%3d: ", irq_no);
  160. #ifndef CONFIG_SMP
  161. p += sprintf(p, "%10u ", kstat_irqs(irq_no));
  162. #else
  163. for (j = 0; j < smp_num_cpus; j++)
  164.     p += sprintf(p, "%10u ",
  165.     kstat.irqs[cpu_logical_map(j)][irq_no]);
  166. #endif
  167. p += sprintf(p, " %14s", 
  168.     region->data.name ? region->data.name : "N/A");
  169. p += sprintf(p, "  %s", action->name);
  170. for (action=action->next; action; action = action->next)
  171.     p += sprintf(p, ", %s", action->name);
  172. *p++ = 'n';
  173.     }           
  174. }  
  175. p += sprintf(p, "n");
  176. #if CONFIG_SMP
  177. p += sprintf(p, "LOC: ");
  178. for (j = 0; j < smp_num_cpus; j++)
  179. p += sprintf(p, "%10u ",
  180. apic_timer_irqs[cpu_logical_map(j)]);
  181. p += sprintf(p, "n");
  182. #endif
  183. return p - buf;
  184. #else /* CONFIG_PROC_FS */
  185. return 0;
  186. #endif /* CONFIG_PROC_FS */
  187. }
  188. /*
  189. ** The following form a "set": Virtual IRQ, Transaction Address, Trans Data.
  190. ** Respectively, these map to IRQ region+EIRR, Processor HPA, EIRR bit.
  191. **
  192. ** To use txn_XXX() interfaces, get a Virtual IRQ first.
  193. ** Then use that to get the Transaction address and data.
  194. */
  195. int
  196. txn_alloc_irq(void)
  197. {
  198. int irq;
  199. /* never return irq 0 cause that's the interval timer */
  200. for(irq=1; irq<=MAX_CPU_IRQ; irq++) {
  201. if(cpu_irq_region.action[irq].handler == NULL) {
  202. return (IRQ_FROM_REGION(CPU_IRQ_REGION) + irq);
  203. }
  204. }
  205. /* unlikely, but be prepared */
  206. return -1;
  207. }
  208. int
  209. txn_claim_irq(int irq)
  210. {
  211. if (irq_region[IRQ_REGION(irq)]->action[IRQ_OFFSET(irq)].handler ==NULL)
  212. {
  213. return irq;
  214. }
  215. /* unlikely, but be prepared */
  216. return -1;
  217. }
  218. unsigned long
  219. txn_alloc_addr(int virt_irq)
  220. {
  221. struct cpuinfo_parisc *dev = (struct cpuinfo_parisc *) (irq_region[IRQ_REGION(virt_irq)]->data.dev);
  222. if (0==dev) {
  223. printk(KERN_ERR "txn_alloc_addr(0x%x): CPU IRQ region? dev %pn",
  224. virt_irq,dev);
  225. return(0UL);
  226. }
  227. return (dev->txn_addr);
  228. }
  229. /*
  230. ** The alloc process needs to accept a parameter to accomodate limitations
  231. ** of the HW/SW which use these bits:
  232. ** Legacy PA I/O (GSC/NIO): 5 bits (architected EIM register)
  233. ** V-class (EPIC):          6 bits
  234. ** N/L-class/A500:          8 bits (iosapic)
  235. ** PCI 2.2 MSI:             16 bits (I think)
  236. ** Existing PCI devices:    32-bits (NCR c720/ATM/GigE/HyperFabric)
  237. **
  238. ** On the service provider side:
  239. ** o PA 1.1 (and PA2.0 narrow mode)     5-bits (width of EIR register)
  240. ** o PA 2.0 wide mode                   6-bits (per processor)
  241. ** o IA64                               8-bits (0-256 total)
  242. **
  243. ** So a Legacy PA I/O device on a PA 2.0 box can't use all
  244. ** the bits supported by the processor...and the N/L-class
  245. ** I/O subsystem supports more bits than PA2.0 has. The first
  246. ** case is the problem.
  247. */
  248. unsigned int
  249. txn_alloc_data(int virt_irq, unsigned int bits_wide)
  250. {
  251. /* XXX FIXME : bits_wide indicates how wide the transaction
  252. ** data is allowed to be...we may need a different virt_irq
  253. ** if this one won't work. Another reason to index virtual
  254. ** irq's into a table which can manage CPU/IRQ bit seperately.
  255. */
  256. if (IRQ_OFFSET(virt_irq) > (1 << (bits_wide -1)))
  257. {
  258. panic("Sorry -- didn't allocate valid IRQ for this devicen");
  259. }
  260. return(IRQ_OFFSET(virt_irq));
  261. }
  262. /* FIXME: SMP, flags, bottom halves, rest */
  263. void do_irq(struct irqaction *action, int irq, struct pt_regs * regs)
  264. {
  265. int cpu = smp_processor_id();
  266. irq_enter(cpu, irq);
  267. #ifdef DEBUG_IRQ
  268. if (irq != TIMER_IRQ)
  269. #endif
  270. DBG_IRQ("do_irq(%d) %d+%dn", irq, IRQ_REGION(irq), IRQ_OFFSET(irq));
  271. if (action->handler == NULL)
  272. printk(KERN_ERR "No handler for interrupt %d !n", irq);
  273. for(; action && action->handler; action = action->next) {
  274. action->handler(irq, action->dev_id, regs);
  275. }
  276. irq_exit(cpu, irq);
  277. /* don't need to care about unmasking and stuff */
  278. do_softirq();
  279. }
  280. void do_irq_mask(unsigned long mask, struct irq_region *region, struct pt_regs *regs)
  281. {
  282. unsigned long bit;
  283. int irq;
  284. int cpu = smp_processor_id();
  285. #ifdef DEBUG_IRQ
  286. if (mask != (1L << MAX_CPU_IRQ))
  287.     printk("do_irq_mask %08lx %p %pn", mask, region, regs);
  288. #endif
  289. for(bit=(1L<<MAX_CPU_IRQ), irq = 0; mask && bit; bit>>=1, irq++) {
  290. int irq_num;
  291. if(!(bit&mask))
  292. continue;
  293. irq_num = region->data.irqbase + irq;
  294. ++kstat.irqs[cpu][IRQ_FROM_REGION(CPU_IRQ_REGION) | irq];
  295. if (IRQ_REGION(irq_num) != CPU_IRQ_REGION)
  296.     ++kstat.irqs[cpu][irq_num];
  297. mask_irq(irq_num);
  298. do_irq(&region->action[irq], irq_num, regs);
  299. unmask_irq(irq_num);
  300. }
  301. }
  302. static inline int alloc_irqregion(void)
  303. {
  304. int irqreg;
  305. for(irqreg=1; irqreg<=(NR_IRQ_REGS); irqreg++) {
  306. if(irq_region[irqreg] == NULL)
  307. return irqreg;
  308. }
  309. return 0;
  310. }
  311. struct irq_region *alloc_irq_region(
  312. int count, struct irq_region_ops *ops, unsigned long flags,
  313. const char *name, void *dev)
  314. {
  315. struct irq_region *region;
  316. int index;
  317. index = alloc_irqregion();
  318. if((IRQ_REGION(count-1)))
  319. return NULL;
  320. if (count < IRQ_PER_REGION) {
  321.     DBG_IRQ("alloc_irq_region() using minimum of %d irq lines for %s (%d)n", 
  322. IRQ_PER_REGION, name, count);
  323.     count = IRQ_PER_REGION;
  324. }
  325. if(flags & IRQ_REG_MASK)
  326. if(!(ops->mask_irq && ops->unmask_irq))
  327. return NULL;
  328. if(flags & IRQ_REG_DIS)
  329. if(!(ops->disable_irq && ops->enable_irq))
  330. return NULL;
  331. if((irq_region[index]))
  332. return NULL;
  333. region = kmalloc(sizeof *region, GFP_ATOMIC);
  334. if(!region)
  335. return NULL;
  336. region->action = kmalloc(sizeof *region->action * count, GFP_ATOMIC);
  337. if(!region->action) {
  338. kfree(region);
  339. return NULL;
  340. }
  341. memset(region->action, 0, sizeof *region->action * count);
  342. region->ops = *ops;
  343. region->data.irqbase = IRQ_FROM_REGION(index);
  344. region->data.flags = flags;
  345. region->data.name = name;
  346. region->data.dev = dev;
  347. irq_region[index] = region;
  348. return irq_region[index];
  349. }
  350. /* FIXME: SMP, flags, bottom halves, rest */
  351. int request_irq(unsigned int irq, 
  352. void (*handler)(int, void *, struct pt_regs *),
  353. unsigned long irqflags, 
  354. const char * devname,
  355. void *dev_id)
  356. {
  357. struct irqaction * action;
  358. #if 0
  359. printk(KERN_INFO "request_irq(%d, %p, 0x%lx, %s, %p)n",irq, handler, irqflags, devname, dev_id);
  360. #endif
  361. if(!handler) {
  362. printk(KERN_ERR "request_irq(%d,...): Augh! No handler for irq!n",
  363. irq);
  364. return -EINVAL;
  365. }
  366. if ((IRQ_REGION(irq) == 0) || irq_region[IRQ_REGION(irq)] == NULL) {
  367. /*
  368. ** Bug catcher for drivers which use "char" or u8 for
  369. ** the IRQ number. They lose the region number which
  370. ** is in pcidev->irq (an int).
  371. */
  372. printk(KERN_ERR "%p (%s?) called request_irq with an invalid irq %dn",
  373. __builtin_return_address(0), devname, irq);
  374. return -EINVAL;
  375. }
  376. action = &irq_region[IRQ_REGION(irq)]->action[IRQ_OFFSET(irq)];
  377. if(action->handler) {
  378. while(action->next)
  379. action = action->next;
  380. action->next = kmalloc(sizeof *action, GFP_ATOMIC);
  381. action = action->next;
  382. }
  383. if(!action) {
  384. printk(KERN_ERR "request_irq():Augh! No action!n") ;
  385. return -ENOMEM;
  386. }
  387. action->handler = handler;
  388. action->flags = irqflags;
  389. action->mask = 0;
  390. action->name = devname;
  391. action->next = NULL;
  392. action->dev_id = dev_id;
  393. enable_irq(irq);
  394. return 0;
  395. }
  396. void free_irq(unsigned int irq, void *dev_id)
  397. {
  398. struct irqaction *action, **p;
  399. action = &irq_region[IRQ_REGION(irq)]->action[IRQ_OFFSET(irq)];
  400. if(action->dev_id == dev_id) {
  401. if(action->next == NULL)
  402. action->handler = NULL;
  403. else
  404. memcpy(action, action->next, sizeof *action);
  405. return;
  406. }
  407. p = &action->next;
  408. action = action->next;
  409. for (; (action = *p) != NULL; p = &action->next) {
  410. if (action->dev_id != dev_id)
  411. continue;
  412. /* Found it - now free it */
  413. *p = action->next;
  414. kfree(action);
  415. return;
  416. }
  417. printk(KERN_ERR "Trying to free free IRQ%dn",irq);
  418. }
  419. unsigned long probe_irq_on (void)
  420. {
  421. return 0;
  422. }
  423. int probe_irq_off (unsigned long irqs)
  424. {
  425. return 0;
  426. }
  427. void __init init_IRQ(void)
  428. {
  429. }
  430. void init_irq_proc(void)
  431. {
  432. }