init.c
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:12k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /*
  2.  * This file is subject to the terms and conditions of the GNU General Public
  3.  * License.  See the file "COPYING" in the main directory of this archive
  4.  * for more details.
  5.  *
  6.  * Copyright (C) 1994 - 2000 by Ralf Baechle
  7.  * Copyright (C) 1999, 2000 by Silicon Graphics
  8.  */
  9. #include <linux/config.h>
  10. #include <linux/init.h>
  11. #include <linux/signal.h>
  12. #include <linux/sched.h>
  13. #include <linux/kernel.h>
  14. #include <linux/errno.h>
  15. #include <linux/string.h>
  16. #include <linux/types.h>
  17. #include <linux/pagemap.h>
  18. #include <linux/ptrace.h>
  19. #include <linux/mman.h>
  20. #include <linux/mm.h>
  21. #include <linux/bootmem.h>
  22. #include <linux/highmem.h>
  23. #include <linux/swap.h>
  24. #include <linux/swapctl.h>
  25. #ifdef CONFIG_BLK_DEV_INITRD
  26. #include <linux/blk.h>
  27. #endif
  28. #include <asm/bootinfo.h>
  29. #include <asm/cachectl.h>
  30. #include <asm/dma.h>
  31. #include <asm/system.h>
  32. #include <asm/pgtable.h>
  33. #include <asm/pgalloc.h>
  34. #ifdef CONFIG_SGI_IP22
  35. #include <asm/sgialib.h>
  36. #endif
  37. #include <asm/mmu_context.h>
  38. #include <asm/tlb.h>
  39. mmu_gather_t mmu_gathers[NR_CPUS];
  40. unsigned long totalram_pages;
  41. void pgd_init(unsigned long page)
  42. {
  43. unsigned long *p, *end;
  44.   p = (unsigned long *) page;
  45. end = p + PTRS_PER_PGD;
  46. while (p < end) {
  47. p[0] = (unsigned long) invalid_pmd_table;
  48. p[1] = (unsigned long) invalid_pmd_table;
  49. p[2] = (unsigned long) invalid_pmd_table;
  50. p[3] = (unsigned long) invalid_pmd_table;
  51. p[4] = (unsigned long) invalid_pmd_table;
  52. p[5] = (unsigned long) invalid_pmd_table;
  53. p[6] = (unsigned long) invalid_pmd_table;
  54. p[7] = (unsigned long) invalid_pmd_table;
  55. p += 8;
  56. }
  57. }
  58. pgd_t *get_pgd_slow(void)
  59. {
  60. pgd_t *ret, *init;
  61. ret = (pgd_t *) __get_free_pages(GFP_KERNEL, 1);
  62. if (ret) {
  63. init = pgd_offset(&init_mm, 0);
  64. pgd_init((unsigned long)ret);
  65. memcpy(ret + USER_PTRS_PER_PGD, init + USER_PTRS_PER_PGD,
  66. (PTRS_PER_PGD - USER_PTRS_PER_PGD) * sizeof(pgd_t));
  67. }
  68. return ret;
  69. }
  70. void pmd_init(unsigned long addr, unsigned long pagetable)
  71. {
  72. unsigned long *p, *end;
  73.   p = (unsigned long *) addr;
  74. end = p + PTRS_PER_PMD;
  75. while (p < end) {
  76. p[0] = (unsigned long)pagetable;
  77. p[1] = (unsigned long)pagetable;
  78. p[2] = (unsigned long)pagetable;
  79. p[3] = (unsigned long)pagetable;
  80. p[4] = (unsigned long)pagetable;
  81. p[5] = (unsigned long)pagetable;
  82. p[6] = (unsigned long)pagetable;
  83. p[7] = (unsigned long)pagetable;
  84. p += 8;
  85. }
  86. }
  87. int do_check_pgt_cache(int low, int high)
  88. {
  89. int freed = 0;
  90. if (pgtable_cache_size > high) {
  91. do {
  92. if (pgd_quicklist)
  93. free_pgd_slow(get_pgd_fast()), freed++;
  94. if (pmd_quicklist)
  95. free_pmd_slow(get_pmd_fast()), freed++;
  96. if (pte_quicklist)
  97. free_pte_slow(get_pte_fast()), freed++;
  98. } while (pgtable_cache_size > low);
  99. }
  100. return freed;
  101. }
  102. asmlinkage int sys_cacheflush(void *addr, int bytes, int cache)
  103. {
  104. /* XXX Just get it working for now... */
  105. flush_cache_l1();
  106. return 0;
  107. }
  108. /*
  109.  * We have up to 8 empty zeroed pages so we can map one of the right colour
  110.  * when needed.  This is necessary only on R4000 / R4400 SC and MC versions
  111.  * where we have to avoid VCED / VECI exceptions for good performance at
  112.  * any price.  Since page is never written to after the initialization we
  113.  * don't have to care about aliases on other CPUs.
  114.  */
  115. unsigned long empty_zero_page, zero_page_mask;
  116. unsigned long setup_zero_pages(void)
  117. {
  118. unsigned long order, size;
  119. struct page *page;
  120. switch (mips_cputype) {
  121. case CPU_R4000SC:
  122. case CPU_R4000MC:
  123. case CPU_R4400SC:
  124. case CPU_R4400MC:
  125. order = 3;
  126. break;
  127. default:
  128. order = 0;
  129. }
  130. empty_zero_page = __get_free_pages(GFP_KERNEL, order);
  131. if (!empty_zero_page)
  132. panic("Oh boy, that early out of memory?");
  133. page = virt_to_page(empty_zero_page);
  134. while (page < virt_to_page(empty_zero_page + (PAGE_SIZE << order))) {
  135. set_bit(PG_reserved, &page->flags);
  136. set_page_count(page, 0);
  137. page++;
  138. }
  139. size = PAGE_SIZE << order;
  140. zero_page_mask = (size - 1) & PAGE_MASK;
  141. memset((void *)empty_zero_page, 0, size);
  142. return 1UL << order;
  143. }
  144. void __init add_memory_region(unsigned long start, unsigned long size,
  145.                               long type)
  146. {
  147.         int x = boot_mem_map.nr_map;
  148.         if (x == BOOT_MEM_MAP_MAX) {
  149.                 printk("Ooops! Too many entries in the memory map!n");
  150.                 return;
  151.         }
  152.         boot_mem_map.map[x].addr = start;
  153.         boot_mem_map.map[x].size = size;
  154.         boot_mem_map.map[x].type = type;
  155.         boot_mem_map.nr_map++;
  156. }
  157. static void __init print_memory_map(void)
  158. {
  159.         int i;
  160.         for (i = 0; i < boot_mem_map.nr_map; i++) {
  161.                 printk(" memory: %08lx @ %08lx ",
  162.                         boot_mem_map.map[i].size, boot_mem_map.map[i].addr);
  163.                 switch (boot_mem_map.map[i].type) {
  164.                 case BOOT_MEM_RAM:
  165.                         printk("(usable)n");
  166.                         break;
  167.                 case BOOT_MEM_ROM_DATA:
  168.                         printk("(ROM data)n");
  169.                         break;
  170.                 case BOOT_MEM_RESERVED:
  171.                         printk("(reserved)n");
  172.                         break;
  173.                 default:
  174.                         printk("type %lun", boot_mem_map.map[i].type);
  175.                         break;
  176.                 }
  177.         }
  178. }
  179. void bootmem_init(void) {
  180. #ifdef CONFIG_BLK_DEV_INITRD
  181. unsigned long tmp;
  182. unsigned long *initrd_header;
  183. #endif
  184. unsigned long bootmap_size;
  185. unsigned long start_pfn, max_pfn;
  186. int i;
  187. extern int _end;
  188. #define PFN_UP(x) (((x) + PAGE_SIZE - 1) >> PAGE_SHIFT)
  189. #define PFN_DOWN(x) ((x) >> PAGE_SHIFT)
  190. #define PFN_PHYS(x) ((x) << PAGE_SHIFT)
  191. /*
  192.  * Partially used pages are not usable - thus
  193.  * we are rounding upwards.
  194.  */
  195. start_pfn = PFN_UP(__pa(&_end));
  196. /* Find the highest page frame number we have available.  */
  197. max_pfn = 0;
  198. for (i = 0; i < boot_mem_map.nr_map; i++) {
  199. unsigned long start, end;
  200. if (boot_mem_map.map[i].type != BOOT_MEM_RAM)
  201. continue;
  202. start = PFN_UP(boot_mem_map.map[i].addr);
  203. end = PFN_DOWN(boot_mem_map.map[i].addr
  204.       + boot_mem_map.map[i].size);
  205. if (start >= end)
  206. continue;
  207. if (end > max_pfn)
  208. max_pfn = end;
  209. }
  210. /* Initialize the boot-time allocator.  */
  211. bootmap_size = init_bootmem(start_pfn, max_pfn);
  212. /*
  213.  * Register fully available low RAM pages with the bootmem allocator.
  214.  */
  215. for (i = 0; i < boot_mem_map.nr_map; i++) {
  216. unsigned long curr_pfn, last_pfn, size;
  217. /*
  218.  * Reserve usable memory.
  219.  */
  220. if (boot_mem_map.map[i].type != BOOT_MEM_RAM)
  221. continue;
  222. /*
  223.  * We are rounding up the start address of usable memory:
  224.  */
  225. curr_pfn = PFN_UP(boot_mem_map.map[i].addr);
  226. if (curr_pfn >= max_pfn)
  227. continue;
  228. if (curr_pfn < start_pfn)
  229. curr_pfn = start_pfn;
  230. /*
  231.  * ... and at the end of the usable range downwards:
  232.  */
  233. last_pfn = PFN_DOWN(boot_mem_map.map[i].addr
  234.     + boot_mem_map.map[i].size);
  235. if (last_pfn > max_pfn)
  236. last_pfn = max_pfn;
  237. /*
  238.  * ... finally, did all the rounding and playing
  239.  * around just make the area go away?
  240.  */
  241. if (last_pfn <= curr_pfn)
  242. continue;
  243. size = last_pfn - curr_pfn;
  244. free_bootmem(PFN_PHYS(curr_pfn), PFN_PHYS(size));
  245. }
  246. /* Reserve the bootmap memory.  */
  247. reserve_bootmem(PFN_PHYS(start_pfn), bootmap_size);
  248. #ifdef CONFIG_BLK_DEV_INITRD
  249. #error "Initrd is broken, please fit it."
  250. tmp = (((unsigned long)&_end + PAGE_SIZE-1) & PAGE_MASK) - 8;
  251. if (tmp < (unsigned long)&_end)
  252. tmp += PAGE_SIZE;
  253. initrd_header = (unsigned long *)tmp;
  254. if (initrd_header[0] == 0x494E5244) {
  255. initrd_start = (unsigned long)&initrd_header[2];
  256. initrd_end = initrd_start + initrd_header[1];
  257. initrd_below_start_ok = 1;
  258. if (initrd_end > memory_end) {
  259. printk("initrd extends beyond end of memory "
  260.        "(0x%08lx > 0x%08lx)ndisabling initrdn",
  261.        initrd_end,memory_end);
  262. initrd_start = 0;
  263. } else
  264. *memory_start_p = initrd_end;
  265. }
  266. #endif
  267. #undef PFN_UP
  268. #undef PFN_DOWN
  269. #undef PFN_PHYS
  270. }
  271. void show_mem(void)
  272. {
  273. int i, free = 0, total = 0, reserved = 0;
  274. int shared = 0, cached = 0;
  275. printk("Mem-info:n");
  276. show_free_areas();
  277. printk("Free swap:       %6dkBn", nr_swap_pages<<(PAGE_SHIFT-10));
  278. i = max_mapnr;
  279. while (i-- > 0) {
  280. total++;
  281. if (PageReserved(mem_map+i))
  282. reserved++;
  283. else if (PageSwapCache(mem_map+i))
  284. cached++;
  285. else if (!page_count(mem_map + i))
  286. free++;
  287. else
  288. shared += page_count(mem_map + i) - 1;
  289. }
  290. printk("%d pages of RAMn", total);
  291. printk("%d reserved pagesn", reserved);
  292. printk("%d pages sharedn", shared);
  293. printk("%d pages swap cachedn",cached);
  294. printk("%ld pages in page table cachen", pgtable_cache_size);
  295. printk("%d free pagesn", free);
  296. show_buffers();
  297. }
  298. #ifndef CONFIG_DISCONTIGMEM
  299. /* References to section boundaries */
  300. extern char _stext, _etext, _fdata, _edata;
  301. extern char __init_begin, __init_end;
  302. void __init paging_init(void)
  303. {
  304. pmd_t *pmd = kpmdtbl;
  305. pte_t *pte = kptbl;
  306. unsigned long zones_size[MAX_NR_ZONES] = {0, 0, 0};
  307. unsigned long max_dma, low;
  308. int i;
  309. /* Initialize the entire pgd.  */
  310. pgd_init((unsigned long)swapper_pg_dir);
  311. pmd_init((unsigned long)invalid_pmd_table, (unsigned long)invalid_pte_table);
  312. memset((void *)invalid_pte_table, 0, sizeof(pte_t) * PTRS_PER_PTE);
  313. max_dma =  virt_to_phys((char *)MAX_DMA_ADDRESS) >> PAGE_SHIFT;
  314. low = max_low_pfn;
  315. #if defined(CONFIG_PCI) || defined(CONFIG_ISA)
  316. if (low < max_dma)
  317. zones_size[ZONE_DMA] = low;
  318. else {
  319. zones_size[ZONE_DMA] = max_dma;
  320. zones_size[ZONE_NORMAL] = low - max_dma;
  321. }
  322. #else
  323. zones_size[ZONE_DMA] = low;
  324. #endif
  325. free_area_init(zones_size);
  326. memset((void *)kptbl, 0, PAGE_SIZE << KPTBL_PAGE_ORDER);
  327. memset((void *)kpmdtbl, 0, PAGE_SIZE);
  328. pgd_set(swapper_pg_dir, kpmdtbl);
  329. for (i = 0; i < (1 << KPTBL_PAGE_ORDER); pmd++,i++,pte+=PTRS_PER_PTE)
  330. pmd_val(*pmd) = (unsigned long)pte;
  331. }
  332. extern int page_is_ram(unsigned long pagenr);
  333. void __init mem_init(void)
  334. {
  335. unsigned long codesize, reservedpages, datasize, initsize;
  336. unsigned long tmp, ram;
  337. max_mapnr = num_physpages = max_low_pfn;
  338. high_memory = (void *) __va(max_mapnr << PAGE_SHIFT);
  339. totalram_pages += free_all_bootmem();
  340. totalram_pages -= setup_zero_pages(); /* Setup zeroed pages.  */
  341. reservedpages = ram = 0;
  342. for (tmp = 0; tmp < max_low_pfn; tmp++)
  343. if (page_is_ram(tmp)) {
  344. ram++;
  345. if (PageReserved(mem_map+tmp))
  346. reservedpages++;
  347. }
  348. codesize =  (unsigned long) &_etext - (unsigned long) &_stext;
  349. datasize =  (unsigned long) &_edata - (unsigned long) &_fdata;
  350. initsize =  (unsigned long) &__init_end - (unsigned long) &__init_begin;
  351. printk("Memory: %luk/%luk available (%ldk kernel code, %ldk reserved, "
  352.        "%ldk data, %ldk init)n",
  353.        (unsigned long) nr_free_pages() << (PAGE_SHIFT-10),
  354.        ram << (PAGE_SHIFT-10),
  355.        codesize >> 10,
  356.        reservedpages << (PAGE_SHIFT-10),
  357.        datasize >> 10,
  358.        initsize >> 10);
  359. }
  360. #endif /* !CONFIG_DISCONTIGMEM */
  361. #ifdef CONFIG_BLK_DEV_INITRD
  362. void free_initrd_mem(unsigned long start, unsigned long end)
  363. {
  364. for (; start < end; start += PAGE_SIZE) {
  365. ClearPageReserved(virt_to_page(start));
  366. set_page_count(virt_to_page(start), 1);
  367. free_page(start);
  368. totalram_pages++;
  369. }
  370. printk ("Freeing initrd memory: %ldk freedn", (end - start) >> 10);
  371. }
  372. #endif
  373. extern char __init_begin, __init_end;
  374. extern void prom_free_prom_memory(void);
  375. void
  376. free_initmem(void)
  377. {
  378. unsigned long addr, page;
  379. prom_free_prom_memory();
  380.     
  381. addr = (unsigned long)(&__init_begin);
  382. while (addr < (unsigned long)&__init_end) {
  383. page = PAGE_OFFSET | CPHYSADDR(addr);
  384. ClearPageReserved(virt_to_page(page));
  385. set_page_count(virt_to_page(page), 1);
  386. free_page(page);
  387. totalram_pages++;
  388. addr += PAGE_SIZE;
  389. }
  390. printk("Freeing unused kernel memory: %ldk freedn",
  391.        (&__init_end - &__init_begin) >> 10);
  392. }
  393. void
  394. si_meminfo(struct sysinfo *val)
  395. {
  396. val->totalram = totalram_pages;
  397. val->sharedram = atomic_read(&shmem_nrpages);
  398. val->freeram = nr_free_pages();
  399. val->bufferram = atomic_read(&buffermem_pages);
  400. val->totalhigh = 0;
  401. val->freehigh = nr_free_highpages();
  402. val->mem_unit = PAGE_SIZE;
  403. return;
  404. }