pgtsrmmu.h
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:7k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /* $Id: pgtsrmmu.h,v 1.31 2000/07/16 21:48:52 anton Exp $
  2.  * pgtsrmmu.h:  SRMMU page table defines and code.
  3.  *
  4.  * Copyright (C) 1995 David S. Miller (davem@caip.rutgers.edu)
  5.  */
  6. #ifndef _SPARC_PGTSRMMU_H
  7. #define _SPARC_PGTSRMMU_H
  8. #include <asm/page.h>
  9. /* PMD_SHIFT determines the size of the area a second-level page table can map */
  10. #define SRMMU_PMD_SHIFT         18
  11. #define SRMMU_PMD_SIZE          (1UL << SRMMU_PMD_SHIFT)
  12. #define SRMMU_PMD_MASK          (~(SRMMU_PMD_SIZE-1))
  13. #define SRMMU_PMD_ALIGN(addr)   (((addr)+SRMMU_PMD_SIZE-1)&SRMMU_PMD_MASK)
  14. /* PGDIR_SHIFT determines what a third-level page table entry can map */
  15. #define SRMMU_PGDIR_SHIFT       24
  16. #define SRMMU_PGDIR_SIZE        (1UL << SRMMU_PGDIR_SHIFT)
  17. #define SRMMU_PGDIR_MASK        (~(SRMMU_PGDIR_SIZE-1))
  18. #define SRMMU_PGDIR_ALIGN(addr) (((addr)+SRMMU_PGDIR_SIZE-1)&SRMMU_PGDIR_MASK)
  19. #define SRMMU_PTRS_PER_PTE      64
  20. #define SRMMU_PTRS_PER_PMD      64
  21. #define SRMMU_PTRS_PER_PGD      256
  22. #define SRMMU_PTE_TABLE_SIZE    0x100 /* 64 entries, 4 bytes a piece */
  23. #define SRMMU_PMD_TABLE_SIZE    0x100 /* 64 entries, 4 bytes a piece */
  24. #define SRMMU_PGD_TABLE_SIZE    0x400 /* 256 entries, 4 bytes a piece */
  25. /* Definition of the values in the ET field of PTD's and PTE's */
  26. #define SRMMU_ET_MASK         0x3
  27. #define SRMMU_ET_INVALID      0x0
  28. #define SRMMU_ET_PTD          0x1
  29. #define SRMMU_ET_PTE          0x2
  30. #define SRMMU_ET_REPTE        0x3 /* AIEEE, SuperSparc II reverse endian page! */
  31. /* Physical page extraction from PTP's and PTE's. */
  32. #define SRMMU_CTX_PMASK    0xfffffff0
  33. #define SRMMU_PTD_PMASK    0xfffffff0
  34. #define SRMMU_PTE_PMASK    0xffffff00
  35. /* The pte non-page bits.  Some notes:
  36.  * 1) cache, dirty, valid, and ref are frobbable
  37.  *    for both supervisor and user pages.
  38.  * 2) exec and write will only give the desired effect
  39.  *    on user pages
  40.  * 3) use priv and priv_readonly for changing the
  41.  *    characteristics of supervisor ptes
  42.  */
  43. #define SRMMU_CACHE        0x80
  44. #define SRMMU_DIRTY        0x40
  45. #define SRMMU_REF          0x20
  46. #define SRMMU_EXEC         0x08
  47. #define SRMMU_WRITE        0x04
  48. #define SRMMU_VALID        0x02 /* SRMMU_ET_PTE */
  49. #define SRMMU_PRIV         0x1c
  50. #define SRMMU_PRIV_RDONLY  0x18
  51. #define SRMMU_CHG_MASK    (0xffffff00 | SRMMU_REF | SRMMU_DIRTY)
  52. /* Some day I will implement true fine grained access bits for
  53.  * user pages because the SRMMU gives us the capabilities to
  54.  * enforce all the protection levels that vma's can have.
  55.  * XXX But for now...
  56.  */
  57. #define SRMMU_PAGE_NONE    __pgprot(SRMMU_VALID | SRMMU_CACHE | 
  58.     SRMMU_PRIV | SRMMU_REF)
  59. #define SRMMU_PAGE_SHARED  __pgprot(SRMMU_VALID | SRMMU_CACHE | 
  60.     SRMMU_EXEC | SRMMU_WRITE | SRMMU_REF)
  61. #define SRMMU_PAGE_COPY    __pgprot(SRMMU_VALID | SRMMU_CACHE | 
  62.     SRMMU_EXEC | SRMMU_REF)
  63. #define SRMMU_PAGE_RDONLY  __pgprot(SRMMU_VALID | SRMMU_CACHE | 
  64.     SRMMU_EXEC | SRMMU_REF)
  65. #define SRMMU_PAGE_KERNEL  __pgprot(SRMMU_VALID | SRMMU_CACHE | SRMMU_PRIV | 
  66.     SRMMU_DIRTY | SRMMU_REF)
  67. /* SRMMU Register addresses in ASI 0x4.  These are valid for all
  68.  * current SRMMU implementations that exist.
  69.  */
  70. #define SRMMU_CTRL_REG           0x00000000
  71. #define SRMMU_CTXTBL_PTR         0x00000100
  72. #define SRMMU_CTX_REG            0x00000200
  73. #define SRMMU_FAULT_STATUS       0x00000300
  74. #define SRMMU_FAULT_ADDR         0x00000400
  75. #define WINDOW_FLUSH(tmp1, tmp2)
  76. mov 0, tmp1;
  77. 98: ld [%g6 + AOFF_task_thread + AOFF_thread_uwinmask], tmp2;
  78. orcc %g0, tmp2, %g0;
  79. add tmp1, 1, tmp1;
  80. bne 98b;
  81.  save %sp, -64, %sp;
  82. 99: subcc tmp1, 1, tmp1;
  83. bne 99b;
  84.  restore %g0, %g0, %g0;
  85. #ifndef __ASSEMBLY__
  86. /* Accessing the MMU control register. */
  87. extern __inline__ unsigned int srmmu_get_mmureg(void)
  88. {
  89.         unsigned int retval;
  90. __asm__ __volatile__("lda [%%g0] %1, %0nt" :
  91.      "=r" (retval) :
  92.      "i" (ASI_M_MMUREGS));
  93. return retval;
  94. }
  95. extern __inline__ void srmmu_set_mmureg(unsigned long regval)
  96. {
  97. __asm__ __volatile__("sta %0, [%%g0] %1nt" : :
  98.      "r" (regval), "i" (ASI_M_MMUREGS) : "memory");
  99. }
  100. extern __inline__ void srmmu_set_ctable_ptr(unsigned long paddr)
  101. {
  102. paddr = ((paddr >> 4) & SRMMU_CTX_PMASK);
  103. __asm__ __volatile__("sta %0, [%1] %2nt" : :
  104.      "r" (paddr), "r" (SRMMU_CTXTBL_PTR),
  105.      "i" (ASI_M_MMUREGS) :
  106.      "memory");
  107. }
  108. extern __inline__ unsigned long srmmu_get_ctable_ptr(void)
  109. {
  110. unsigned int retval;
  111. __asm__ __volatile__("lda [%1] %2, %0nt" :
  112.      "=r" (retval) :
  113.      "r" (SRMMU_CTXTBL_PTR),
  114.      "i" (ASI_M_MMUREGS));
  115. return (retval & SRMMU_CTX_PMASK) << 4;
  116. }
  117. extern __inline__ void srmmu_set_context(int context)
  118. {
  119. __asm__ __volatile__("sta %0, [%1] %2nt" : :
  120.      "r" (context), "r" (SRMMU_CTX_REG),
  121.      "i" (ASI_M_MMUREGS) : "memory");
  122. }
  123. extern __inline__ int srmmu_get_context(void)
  124. {
  125. register int retval;
  126. __asm__ __volatile__("lda [%1] %2, %0nt" :
  127.      "=r" (retval) :
  128.      "r" (SRMMU_CTX_REG),
  129.      "i" (ASI_M_MMUREGS));
  130. return retval;
  131. }
  132. extern __inline__ unsigned int srmmu_get_fstatus(void)
  133. {
  134. unsigned int retval;
  135. __asm__ __volatile__("lda [%1] %2, %0nt" :
  136.      "=r" (retval) :
  137.      "r" (SRMMU_FAULT_STATUS), "i" (ASI_M_MMUREGS));
  138. return retval;
  139. }
  140. extern __inline__ unsigned int srmmu_get_faddr(void)
  141. {
  142. unsigned int retval;
  143. __asm__ __volatile__("lda [%1] %2, %0nt" :
  144.      "=r" (retval) :
  145.      "r" (SRMMU_FAULT_ADDR), "i" (ASI_M_MMUREGS));
  146. return retval;
  147. }
  148. /* This is guaranteed on all SRMMU's. */
  149. extern __inline__ void srmmu_flush_whole_tlb(void)
  150. {
  151. __asm__ __volatile__("sta %%g0, [%0] %1nt": :
  152.      "r" (0x400),        /* Flush entire TLB!! */
  153.      "i" (ASI_M_FLUSH_PROBE) : "memory");
  154. }
  155. /* These flush types are not available on all chips... */
  156. extern __inline__ void srmmu_flush_tlb_ctx(void)
  157. {
  158. __asm__ __volatile__("sta %%g0, [%0] %1nt": :
  159.      "r" (0x300),        /* Flush TLB ctx.. */
  160.      "i" (ASI_M_FLUSH_PROBE) : "memory");
  161. }
  162. extern __inline__ void srmmu_flush_tlb_region(unsigned long addr)
  163. {
  164. addr &= SRMMU_PGDIR_MASK;
  165. __asm__ __volatile__("sta %%g0, [%0] %1nt": :
  166.      "r" (addr | 0x200), /* Flush TLB region.. */
  167.      "i" (ASI_M_FLUSH_PROBE) : "memory");
  168. }
  169. extern __inline__ void srmmu_flush_tlb_segment(unsigned long addr)
  170. {
  171. addr &= SRMMU_PMD_MASK;
  172. __asm__ __volatile__("sta %%g0, [%0] %1nt": :
  173.      "r" (addr | 0x100), /* Flush TLB segment.. */
  174.      "i" (ASI_M_FLUSH_PROBE) : "memory");
  175. }
  176. extern __inline__ void srmmu_flush_tlb_page(unsigned long page)
  177. {
  178. page &= PAGE_MASK;
  179. __asm__ __volatile__("sta %%g0, [%0] %1nt": :
  180.      "r" (page),        /* Flush TLB page.. */
  181.      "i" (ASI_M_FLUSH_PROBE) : "memory");
  182. }
  183. extern __inline__ unsigned long srmmu_hwprobe(unsigned long vaddr)
  184. {
  185. unsigned long retval;
  186. vaddr &= PAGE_MASK;
  187. __asm__ __volatile__("lda [%1] %2, %0nt" :
  188.      "=r" (retval) :
  189.      "r" (vaddr | 0x400), "i" (ASI_M_FLUSH_PROBE));
  190. return retval;
  191. }
  192. extern __inline__ int
  193. srmmu_get_pte (unsigned long addr)
  194. {
  195. register unsigned long entry;
  196.         
  197. __asm__ __volatile__("ntlda [%1] %2,%0nt" :
  198. "=r" (entry):
  199. "r" ((addr & 0xfffff000) | 0x400), "i" (ASI_M_FLUSH_PROBE));
  200. return entry;
  201. }
  202. extern unsigned long (*srmmu_read_physical)(unsigned long paddr);
  203. extern void (*srmmu_write_physical)(unsigned long paddr, unsigned long word);
  204. #endif /* !(__ASSEMBLY__) */
  205. #endif /* !(_SPARC_PGTSRMMU_H) */