system.h
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:4k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. #ifndef __PARISC_SYSTEM_H
  2. #define __PARISC_SYSTEM_H
  3. #include <linux/config.h>
  4. #include <asm/psw.h>
  5. /* The program status word as bitfields.  */
  6. struct pa_psw {
  7. unsigned int y:1;
  8. unsigned int z:1;
  9. unsigned int rv:2;
  10. unsigned int w:1;
  11. unsigned int e:1;
  12. unsigned int s:1;
  13. unsigned int t:1;
  14. unsigned int h:1;
  15. unsigned int l:1;
  16. unsigned int n:1;
  17. unsigned int x:1;
  18. unsigned int b:1;
  19. unsigned int c:1;
  20. unsigned int v:1;
  21. unsigned int m:1;
  22. unsigned int cb:8;
  23. unsigned int o:1;
  24. unsigned int g:1;
  25. unsigned int f:1;
  26. unsigned int r:1;
  27. unsigned int q:1;
  28. unsigned int p:1;
  29. unsigned int d:1;
  30. unsigned int i:1;
  31. };
  32. #define pa_psw(task) ((struct pa_psw *) ((char *) (task) + TASK_PT_PSW))
  33. struct task_struct;
  34. extern struct task_struct *_switch_to(struct task_struct *, struct task_struct *);
  35. #define prepare_to_switch() do { } while(0)
  36. #define switch_to(prev, next, last) do {
  37. (last) = _switch_to(prev, next);
  38. } while(0)
  39. /* borrowed this from sparc64 -- probably the SMP case is hosed for us */
  40. #ifdef CONFIG_SMP
  41. #define smp_mb() mb()
  42. #define smp_rmb() rmb()
  43. #define smp_wmb() wmb()
  44. #else
  45. /* This is simply the barrier() macro from linux/kernel.h but when serial.c
  46.  * uses tqueue.h uses smp_mb() defined using barrier(), linux/kernel.h
  47.  * hasn't yet been included yet so it fails, thus repeating the macro here.
  48.  */
  49. #define smp_mb() __asm__ __volatile__("":::"memory");
  50. #define smp_rmb() __asm__ __volatile__("":::"memory");
  51. #define smp_wmb() __asm__ __volatile__("":::"memory");
  52. #endif
  53. /* interrupt control */
  54. #define __save_flags(x) __asm__ __volatile__("ssm 0, %0" : "=r" (x) : : "memory")
  55. #define __restore_flags(x) __asm__ __volatile__("mtsm %0" : : "r" (x) : "memory")
  56. #define __cli() __asm__ __volatile__("rsm %0,%%r0n" : : "i" (PSW_I) : "memory" )
  57. #define __sti() __asm__ __volatile__("ssm %0,%%r0n" : : "i" (PSW_I) : "memory" )
  58. #define local_irq_save(x) 
  59. __asm__ __volatile__("rsm %1,%0" : "=r" (x) :"i" (PSW_I) : "memory" )
  60. #define local_irq_restore(x) 
  61. __asm__ __volatile__("mtsm %0" : : "r" (x) : "memory" )
  62. #define local_irq_disable() __cli()
  63. #define local_irq_enable()  __sti()
  64. #ifdef CONFIG_SMP
  65. #else
  66. #define cli() __cli()
  67. #define sti() __sti()
  68. #define save_flags(x) __save_flags(x)
  69. #define restore_flags(x) __restore_flags(x)
  70. #endif
  71. #define mfctl(reg) ({
  72. unsigned long cr;
  73. __asm__ __volatile__(
  74. "mfctl " #reg ",%0" :
  75.  "=r" (cr)
  76. );
  77. cr;
  78. })
  79. #define mtctl(gr, cr) 
  80. __asm__ __volatile__("mtctl %0,%1" 
  81. : /* no outputs */ 
  82. : "r" (gr), "i" (cr))
  83. /* these are here to de-mystefy the calling code, and to provide hooks */
  84. /* which I needed for debugging EIEM problems -PB */
  85. #define get_eiem() mfctl(15)
  86. static inline void set_eiem(unsigned long val)
  87. {
  88. mtctl(val, 15);
  89. }
  90. #define mfsp(reg) ({
  91. unsigned long cr;
  92. __asm__ __volatile__(
  93. "mfsp " #reg ",%0" :
  94.  "=r" (cr)
  95. );
  96. cr;
  97. })
  98. #define mtsp(gr, cr) 
  99. __asm__ __volatile__("mtsp %0,%1" 
  100. : /* no outputs */ 
  101. : "r" (gr), "i" (cr))
  102. #define mb()  __asm__ __volatile__ ("sync" : : :"memory")
  103. #define wmb() mb()
  104. extern unsigned long __xchg(unsigned long, unsigned long *, int);
  105. #define xchg(ptr,x) 
  106.  (__typeof__(*(ptr)))__xchg((unsigned long)(x),(unsigned long*)(ptr),sizeof(*(ptr)))
  107. /* LDCW, the only atomic read-write operation PA-RISC has.  Sigh. */
  108. #define __ldcw(a) ({ 
  109. unsigned __ret; 
  110. __asm__ __volatile__("ldcw 0(%1),%0" : "=r" (__ret) : "r" (a)); 
  111. __ret; 
  112. })
  113. #ifdef CONFIG_SMP
  114. /*
  115.  * Your basic SMP spinlocks, allowing only a single CPU anywhere
  116.  */
  117. typedef struct {
  118. volatile unsigned int __attribute__((aligned(16))) lock;
  119. } spinlock_t;
  120. #endif
  121. #endif