mm-armv.c
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:11k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /*
  2.  *  linux/arch/arm/mm/mm-armv.c
  3.  *
  4.  *  Copyright (C) 1998-2000 Russell King
  5.  *
  6.  * This program is free software; you can redistribute it and/or modify
  7.  * it under the terms of the GNU General Public License version 2 as
  8.  * published by the Free Software Foundation.
  9.  *
  10.  *  Page table sludge for ARM v3 and v4 processor architectures.
  11.  */
  12. #include <linux/sched.h>
  13. #include <linux/mm.h>
  14. #include <linux/init.h>
  15. #include <linux/bootmem.h>
  16. #include <asm/hardware.h>
  17. #include <asm/pgtable.h>
  18. #include <asm/pgalloc.h>
  19. #include <asm/page.h>
  20. #include <asm/setup.h>
  21. #include <asm/mach/map.h>
  22. /*
  23.  * These are useful for identifing cache coherency
  24.  * problems by allowing the cache or the cache and
  25.  * writebuffer to be turned off.  (Note: the write
  26.  * buffer should not be on and the cache off).
  27.  */
  28. static int __init nocache_setup(char *__unused)
  29. {
  30. cr_alignment &= ~4;
  31. cr_no_alignment &= ~4;
  32. flush_cache_all();
  33. set_cr(cr_alignment);
  34. return 1;
  35. }
  36. static int __init nowrite_setup(char *__unused)
  37. {
  38. cr_alignment &= ~(8|4);
  39. cr_no_alignment &= ~(8|4);
  40. flush_cache_all();
  41. set_cr(cr_alignment);
  42. return 1;
  43. }
  44. static int __init noalign_setup(char *__unused)
  45. {
  46. cr_alignment &= ~2;
  47. cr_no_alignment &= ~2;
  48. set_cr(cr_alignment);
  49. return 1;
  50. }
  51. __setup("noalign", noalign_setup);
  52. __setup("nocache", nocache_setup);
  53. __setup("nowb", nowrite_setup);
  54. #define FIRST_KERNEL_PGD_NR (FIRST_USER_PGD_NR + USER_PTRS_PER_PGD)
  55. #define clean_cache_area(start,size) 
  56. cpu_cache_clean_invalidate_range((unsigned long)start, ((unsigned long)start) + size, 0);
  57. /*
  58.  * need to get a 16k page for level 1
  59.  */
  60. pgd_t *get_pgd_slow(struct mm_struct *mm)
  61. {
  62. pgd_t *new_pgd, *init_pgd;
  63. pmd_t *new_pmd, *init_pmd;
  64. pte_t *new_pte, *init_pte;
  65. new_pgd = (pgd_t *)__get_free_pages(GFP_KERNEL, 2);
  66. if (!new_pgd)
  67. goto no_pgd;
  68. memzero(new_pgd, FIRST_KERNEL_PGD_NR * sizeof(pgd_t));
  69. init_pgd = pgd_offset_k(0);
  70. if (vectors_base() == 0) {
  71. init_pmd = pmd_offset(init_pgd, 0);
  72. init_pte = pte_offset(init_pmd, 0);
  73. /*
  74.  * This lock is here just to satisfy pmd_alloc and pte_lock
  75.  */
  76. spin_lock(&mm->page_table_lock);
  77. /*
  78.  * On ARM, first page must always be allocated since it
  79.  * contains the machine vectors.
  80.  */
  81. new_pmd = pmd_alloc(mm, new_pgd, 0);
  82. if (!new_pmd)
  83. goto no_pmd;
  84. new_pte = pte_alloc(mm, new_pmd, 0);
  85. if (!new_pte)
  86. goto no_pte;
  87. set_pte(new_pte, *init_pte);
  88. spin_unlock(&mm->page_table_lock);
  89. }
  90. /*
  91.  * Copy over the kernel and IO PGD entries
  92.  */
  93. memcpy(new_pgd + FIRST_KERNEL_PGD_NR, init_pgd + FIRST_KERNEL_PGD_NR,
  94.        (PTRS_PER_PGD - FIRST_KERNEL_PGD_NR) * sizeof(pgd_t));
  95. /*
  96.  * FIXME: this should not be necessary
  97.  */
  98. clean_cache_area(new_pgd, PTRS_PER_PGD * sizeof(pgd_t));
  99. return new_pgd;
  100. no_pte:
  101. spin_unlock(&mm->page_table_lock);
  102. pmd_free(new_pmd);
  103. free_pages((unsigned long)new_pgd, 2);
  104. return NULL;
  105. no_pmd:
  106. spin_unlock(&mm->page_table_lock);
  107. free_pages((unsigned long)new_pgd, 2);
  108. return NULL;
  109. no_pgd:
  110. return NULL;
  111. }
  112. void free_pgd_slow(pgd_t *pgd)
  113. {
  114. pmd_t *pmd;
  115. pte_t *pte;
  116. if (!pgd)
  117. return;
  118. /* pgd is always present and good */
  119. pmd = (pmd_t *)pgd;
  120. if (pmd_none(*pmd))
  121. goto free;
  122. if (pmd_bad(*pmd)) {
  123. pmd_ERROR(*pmd);
  124. pmd_clear(pmd);
  125. goto free;
  126. }
  127. pte = pte_offset(pmd, 0);
  128. pmd_clear(pmd);
  129. pte_free(pte);
  130. pmd_free(pmd);
  131. free:
  132. free_pages((unsigned long) pgd, 2);
  133. }
  134. /*
  135.  * Create a SECTION PGD between VIRT and PHYS in domain
  136.  * DOMAIN with protection PROT
  137.  */
  138. static inline void
  139. alloc_init_section(unsigned long virt, unsigned long phys, int prot)
  140. {
  141. pmd_t pmd;
  142. pmd_val(pmd) = phys | prot;
  143. set_pmd(pmd_offset(pgd_offset_k(virt), virt), pmd);
  144. }
  145. /*
  146.  * Add a PAGE mapping between VIRT and PHYS in domain
  147.  * DOMAIN with protection PROT.  Note that due to the
  148.  * way we map the PTEs, we must allocate two PTE_SIZE'd
  149.  * blocks - one for the Linux pte table, and one for
  150.  * the hardware pte table.
  151.  */
  152. static inline void
  153. alloc_init_page(unsigned long virt, unsigned long phys, int domain, int prot)
  154. {
  155. pmd_t *pmdp;
  156. pte_t *ptep;
  157. pmdp = pmd_offset(pgd_offset_k(virt), virt);
  158. if (pmd_none(*pmdp)) {
  159. pte_t *ptep = alloc_bootmem_low_pages(2 * PTRS_PER_PTE *
  160.       sizeof(pte_t));
  161. ptep += PTRS_PER_PTE;
  162. set_pmd(pmdp, __mk_pmd(ptep, PMD_TYPE_TABLE | PMD_DOMAIN(domain)));
  163. }
  164. ptep = pte_offset(pmdp, virt);
  165. set_pte(ptep, mk_pte_phys(phys, __pgprot(prot)));
  166. }
  167. /*
  168.  * Clear any PGD mapping.  On a two-level page table system,
  169.  * the clearance is done by the middle-level functions (pmd)
  170.  * rather than the top-level (pgd) functions.
  171.  */
  172. static inline void clear_mapping(unsigned long virt)
  173. {
  174. pmd_clear(pmd_offset(pgd_offset_k(virt), virt));
  175. }
  176. /*
  177.  * Create the page directory entries and any necessary
  178.  * page tables for the mapping specified by `md'.  We
  179.  * are able to cope here with varying sizes and address
  180.  * offsets, and we take full advantage of sections.
  181.  */
  182. static void __init create_mapping(struct map_desc *md)
  183. {
  184. unsigned long virt, length;
  185. int prot_sect, prot_pte;
  186. long off;
  187. if (md->prot_read && md->prot_write &&
  188.     !md->cacheable && !md->bufferable) {
  189. printk(KERN_WARNING "Security risk: creating user "
  190.        "accessible mapping for 0x%08lx at 0x%08lxn",
  191.        md->physical, md->virtual);
  192. }
  193. if (md->virtual != vectors_base() && md->virtual < PAGE_OFFSET) {
  194. printk(KERN_WARNING "MM: not creating mapping for "
  195.        "0x%08lx at 0x%08lx in user regionn",
  196.        md->physical, md->virtual);
  197. }
  198. prot_pte = L_PTE_PRESENT | L_PTE_YOUNG | L_PTE_DIRTY |
  199.    (md->prot_read  ? L_PTE_USER       : 0) |
  200.    (md->prot_write ? L_PTE_WRITE      : 0) |
  201.    (md->cacheable  ? L_PTE_CACHEABLE  : 0) |
  202.    (md->bufferable ? L_PTE_BUFFERABLE : 0);
  203. prot_sect = PMD_TYPE_SECT | PMD_DOMAIN(md->domain) |
  204.     (md->prot_read  ? PMD_SECT_AP_READ    : 0) |
  205.     (md->prot_write ? PMD_SECT_AP_WRITE   : 0) |
  206.     (md->cacheable  ? PMD_SECT_CACHEABLE  : 0) |
  207.     (md->bufferable ? PMD_SECT_BUFFERABLE : 0);
  208. virt   = md->virtual;
  209. off    = md->physical - virt;
  210. length = md->length;
  211. while ((virt & 0xfffff || (virt + off) & 0xfffff) && length >= PAGE_SIZE) {
  212. alloc_init_page(virt, virt + off, md->domain, prot_pte);
  213. virt   += PAGE_SIZE;
  214. length -= PAGE_SIZE;
  215. }
  216. while (length >= PGDIR_SIZE) {
  217. alloc_init_section(virt, virt + off, prot_sect);
  218. virt   += PGDIR_SIZE;
  219. length -= PGDIR_SIZE;
  220. }
  221. while (length >= PAGE_SIZE) {
  222. alloc_init_page(virt, virt + off, md->domain, prot_pte);
  223. virt   += PAGE_SIZE;
  224. length -= PAGE_SIZE;
  225. }
  226. }
  227. /*
  228.  * In order to soft-boot, we need to insert a 1:1 mapping in place of
  229.  * the user-mode pages.  This will then ensure that we have predictable
  230.  * results when turning the mmu off
  231.  */
  232. void setup_mm_for_reboot(char mode)
  233. {
  234. pgd_t *pgd;
  235. pmd_t pmd;
  236. int i;
  237. if (current->mm && current->mm->pgd)
  238. pgd = current->mm->pgd;
  239. else
  240. pgd = init_mm.pgd;
  241. for (i = 0; i < FIRST_USER_PGD_NR + USER_PTRS_PER_PGD; i++) {
  242. pmd_val(pmd) = (i << PGDIR_SHIFT) |
  243. PMD_SECT_AP_WRITE | PMD_SECT_AP_READ |
  244. PMD_TYPE_SECT;
  245. set_pmd(pmd_offset(pgd + i, i << PGDIR_SHIFT), pmd);
  246. }
  247. }
  248. /*
  249.  * Setup initial mappings.  We use the page we allocated for zero page to hold
  250.  * the mappings, which will get overwritten by the vectors in traps_init().
  251.  * The mappings must be in virtual address order.
  252.  */
  253. void __init memtable_init(struct meminfo *mi)
  254. {
  255. struct map_desc *init_maps, *p, *q;
  256. unsigned long address = 0;
  257. int i;
  258. init_maps = p = alloc_bootmem_low_pages(PAGE_SIZE);
  259. for (i = 0; i < mi->nr_banks; i++) {
  260. if (mi->bank[i].size == 0)
  261. continue;
  262. p->physical   = mi->bank[i].start;
  263. p->virtual    = __phys_to_virt(p->physical);
  264. p->length     = mi->bank[i].size;
  265. p->domain     = DOMAIN_KERNEL;
  266. p->prot_read  = 0;
  267. p->prot_write = 1;
  268. p->cacheable  = 1;
  269. p->bufferable = 1;
  270. p ++;
  271. }
  272. #ifdef FLUSH_BASE
  273. p->physical   = FLUSH_BASE_PHYS;
  274. p->virtual    = FLUSH_BASE;
  275. p->length     = PGDIR_SIZE;
  276. p->domain     = DOMAIN_KERNEL;
  277. p->prot_read  = 1;
  278. p->prot_write = 0;
  279. p->cacheable  = 1;
  280. p->bufferable = 1;
  281. p ++;
  282. #endif
  283. #ifdef FLUSH_BASE_MINICACHE
  284. p->physical   = FLUSH_BASE_PHYS + PGDIR_SIZE;
  285. p->virtual    = FLUSH_BASE_MINICACHE;
  286. p->length     = PGDIR_SIZE;
  287. p->domain     = DOMAIN_KERNEL;
  288. p->prot_read  = 1;
  289. p->prot_write = 0;
  290. p->cacheable  = 1;
  291. p->bufferable = 0;
  292. p ++;
  293. #endif
  294. /*
  295.  * Go through the initial mappings, but clear out any
  296.  * pgdir entries that are not in the description.
  297.  */
  298. q = init_maps;
  299. do {
  300. if (address < q->virtual || q == p) {
  301. clear_mapping(address);
  302. address += PGDIR_SIZE;
  303. } else {
  304. create_mapping(q);
  305. address = q->virtual + q->length;
  306. address = (address + PGDIR_SIZE - 1) & PGDIR_MASK;
  307. q ++;
  308. }
  309. } while (address != 0);
  310. /*
  311.  * Create a mapping for the machine vectors at virtual address 0
  312.  * or 0xffff0000.  We should always try the high mapping.
  313.  */
  314. init_maps->physical   = virt_to_phys(init_maps);
  315. init_maps->virtual    = vectors_base();
  316. init_maps->length     = PAGE_SIZE;
  317. init_maps->domain     = DOMAIN_USER;
  318. init_maps->prot_read  = 0;
  319. init_maps->prot_write = 0;
  320. init_maps->cacheable  = 1;
  321. init_maps->bufferable = 1;
  322. create_mapping(init_maps);
  323. flush_cache_all();
  324. }
  325. /*
  326.  * Create the architecture specific mappings
  327.  */
  328. void __init iotable_init(struct map_desc *io_desc)
  329. {
  330. int i;
  331. for (i = 0; io_desc[i].last == 0; i++)
  332. create_mapping(io_desc + i);
  333. }
  334. static inline void free_memmap(int node, unsigned long start, unsigned long end)
  335. {
  336. unsigned long pg, pgend;
  337. start = __phys_to_virt(start);
  338. end   = __phys_to_virt(end);
  339. pg    = PAGE_ALIGN((unsigned long)(virt_to_page(start)));
  340. pgend = ((unsigned long)(virt_to_page(end))) & PAGE_MASK;
  341. start = __virt_to_phys(pg);
  342. end   = __virt_to_phys(pgend);
  343. free_bootmem_node(NODE_DATA(node), start, end - start);
  344. }
  345. static inline void free_unused_memmap_node(int node, struct meminfo *mi)
  346. {
  347. unsigned long bank_start, prev_bank_end = 0;
  348. unsigned int i;
  349. /*
  350.  * [FIXME] This relies on each bank being in address order.  This
  351.  * may not be the case, especially if the user has provided the
  352.  * information on the command line.
  353.  */
  354. for (i = 0; i < mi->nr_banks; i++) {
  355. if (mi->bank[i].size == 0 || mi->bank[i].node != node)
  356. continue;
  357. bank_start = mi->bank[i].start & PAGE_MASK;
  358. /*
  359.  * If we had a previous bank, and there is a space
  360.  * between the current bank and the previous, free it.
  361.  */
  362. if (prev_bank_end && prev_bank_end != bank_start)
  363. free_memmap(node, prev_bank_end, bank_start);
  364. prev_bank_end = PAGE_ALIGN(mi->bank[i].start +
  365.    mi->bank[i].size);
  366. }
  367. }
  368. /*
  369.  * The mem_map array can get very big.  Free
  370.  * the unused area of the memory map.
  371.  */
  372. void __init create_memmap_holes(struct meminfo *mi)
  373. {
  374. int node;
  375. for (node = 0; node < numnodes; node++)
  376. free_unused_memmap_node(node, mi);
  377. }
  378. /*
  379.  * PTE table allocation cache.
  380.  *
  381.  * This is a move away from our custom 2K page allocator.  We now use the
  382.  * slab cache to keep track of these objects.
  383.  *
  384.  * With this, it is questionable as to whether the PGT cache gains us
  385.  * anything.  We may be better off dropping the PTE stuff from our PGT
  386.  * cache implementation.
  387.  */
  388. kmem_cache_t *pte_cache;
  389. /*
  390.  * The constructor gets called for each object within the cache when the
  391.  * cache page is created.  Note that if slab tries to misalign the blocks,
  392.  * we BUG() loudly.
  393.  */
  394. static void pte_cache_ctor(void *pte, kmem_cache_t *cache, unsigned long flags)
  395. {
  396. unsigned long block = (unsigned long)pte;
  397. if (block & 2047)
  398. BUG();
  399. memzero(pte, 2 * PTRS_PER_PTE * sizeof(pte_t));
  400. cpu_cache_clean_invalidate_range(block, block +
  401. PTRS_PER_PTE * sizeof(pte_t), 0);
  402. }
  403. void __init pgtable_cache_init(void)
  404. {
  405. pte_cache = kmem_cache_create("pte-cache",
  406. 2 * PTRS_PER_PTE * sizeof(pte_t), 0, 0,
  407. pte_cache_ctor, NULL);
  408. if (!pte_cache)
  409. BUG();
  410. }