page_alloc.c
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:18k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /*
  2.  *  linux/mm/page_alloc.c
  3.  *
  4.  *  Copyright (C) 1991, 1992, 1993, 1994  Linus Torvalds
  5.  *  Swap reorganised 29.12.95, Stephen Tweedie
  6.  *  Support of BIGMEM added by Gerhard Wichert, Siemens AG, July 1999
  7.  *  Reshaped it to be a zoned allocator, Ingo Molnar, Red Hat, 1999
  8.  *  Discontiguous memory support, Kanoj Sarcar, SGI, Nov 1999
  9.  *  Zone balancing, Kanoj Sarcar, SGI, Jan 2000
  10.  */
  11. #include <linux/config.h>
  12. #include <linux/mm.h>
  13. #include <linux/swap.h>
  14. #include <linux/swapctl.h>
  15. #include <linux/interrupt.h>
  16. #include <linux/pagemap.h>
  17. #include <linux/bootmem.h>
  18. #include <linux/slab.h>
  19. #include <linux/compiler.h>
  20. int nr_swap_pages;
  21. int nr_active_pages;
  22. int nr_inactive_pages;
  23. struct list_head inactive_list;
  24. struct list_head active_list;
  25. pg_data_t *pgdat_list;
  26. static char *zone_names[MAX_NR_ZONES] = { "DMA", "Normal", "HighMem" };
  27. static int zone_balance_ratio[MAX_NR_ZONES] __initdata = { 128, 128, 128, };
  28. static int zone_balance_min[MAX_NR_ZONES] __initdata = { 20 , 20, 20, };
  29. static int zone_balance_max[MAX_NR_ZONES] __initdata = { 255 , 255, 255, };
  30. /*
  31.  * Free_page() adds the page to the free lists. This is optimized for
  32.  * fast normal cases (no error jumps taken normally).
  33.  *
  34.  * The way to optimize jumps for gcc-2.2.2 is to:
  35.  *  - select the "normal" case and put it inside the if () { XXX }
  36.  *  - no else-statements if you can avoid them
  37.  *
  38.  * With the above two rules, you get a straight-line execution path
  39.  * for the normal case, giving better asm-code.
  40.  */
  41. #define memlist_init(x) INIT_LIST_HEAD(x)
  42. #define memlist_add_head list_add
  43. #define memlist_add_tail list_add_tail
  44. #define memlist_del list_del
  45. #define memlist_entry list_entry
  46. #define memlist_next(x) ((x)->next)
  47. #define memlist_prev(x) ((x)->prev)
  48. /*
  49.  * Temporary debugging check.
  50.  */
  51. #define BAD_RANGE(zone,x) (((zone) != (x)->zone) || (((x)-mem_map) < (zone)->zone_start_mapnr) || (((x)-mem_map) >= (zone)->zone_start_mapnr+(zone)->size))
  52. /*
  53.  * Buddy system. Hairy. You really aren't expected to understand this
  54.  *
  55.  * Hint: -mask = 1+~mask
  56.  */
  57. static void FASTCALL(__free_pages_ok (struct page *page, unsigned int order));
  58. static void __free_pages_ok (struct page *page, unsigned int order)
  59. {
  60. unsigned long index, page_idx, mask, flags;
  61. free_area_t *area;
  62. struct page *base;
  63. zone_t *zone;
  64. /* Yes, think what happens when other parts of the kernel take 
  65.  * a reference to a page in order to pin it for io. -ben
  66.  */
  67. if (PageLRU(page))
  68. lru_cache_del(page);
  69. if (page->buffers)
  70. BUG();
  71. if (page->mapping)
  72. BUG();
  73. if (!VALID_PAGE(page))
  74. BUG();
  75. if (PageSwapCache(page))
  76. BUG();
  77. if (PageLocked(page))
  78. BUG();
  79. if (PageLRU(page))
  80. BUG();
  81. if (PageActive(page))
  82. BUG();
  83. page->flags &= ~((1<<PG_referenced) | (1<<PG_dirty));
  84. if (current->flags & PF_FREE_PAGES)
  85. goto local_freelist;
  86.  back_local_freelist:
  87. zone = page->zone;
  88. mask = (~0UL) << order;
  89. base = zone->zone_mem_map;
  90. page_idx = page - base;
  91. if (page_idx & ~mask)
  92. BUG();
  93. index = page_idx >> (1 + order);
  94. area = zone->free_area + order;
  95. spin_lock_irqsave(&zone->lock, flags);
  96. zone->free_pages -= mask;
  97. while (mask + (1 << (MAX_ORDER-1))) {
  98. struct page *buddy1, *buddy2;
  99. if (area >= zone->free_area + MAX_ORDER)
  100. BUG();
  101. if (!__test_and_change_bit(index, area->map))
  102. /*
  103.  * the buddy page is still allocated.
  104.  */
  105. break;
  106. /*
  107.  * Move the buddy up one level.
  108.  */
  109. buddy1 = base + (page_idx ^ -mask);
  110. buddy2 = base + page_idx;
  111. if (BAD_RANGE(zone,buddy1))
  112. BUG();
  113. if (BAD_RANGE(zone,buddy2))
  114. BUG();
  115. memlist_del(&buddy1->list);
  116. mask <<= 1;
  117. area++;
  118. index >>= 1;
  119. page_idx &= mask;
  120. }
  121. memlist_add_head(&(base + page_idx)->list, &area->free_list);
  122. spin_unlock_irqrestore(&zone->lock, flags);
  123. return;
  124.  local_freelist:
  125. if (current->nr_local_pages)
  126. goto back_local_freelist;
  127. if (in_interrupt())
  128. goto back_local_freelist;
  129. list_add(&page->list, &current->local_pages);
  130. page->index = order;
  131. current->nr_local_pages++;
  132. }
  133. #define MARK_USED(index, order, area) 
  134. __change_bit((index) >> (1+(order)), (area)->map)
  135. static inline struct page * expand (zone_t *zone, struct page *page,
  136.  unsigned long index, int low, int high, free_area_t * area)
  137. {
  138. unsigned long size = 1 << high;
  139. while (high > low) {
  140. if (BAD_RANGE(zone,page))
  141. BUG();
  142. area--;
  143. high--;
  144. size >>= 1;
  145. memlist_add_head(&(page)->list, &(area)->free_list);
  146. MARK_USED(index, high, area);
  147. index += size;
  148. page += size;
  149. }
  150. if (BAD_RANGE(zone,page))
  151. BUG();
  152. return page;
  153. }
  154. static FASTCALL(struct page * rmqueue(zone_t *zone, unsigned int order));
  155. static struct page * rmqueue(zone_t *zone, unsigned int order)
  156. {
  157. free_area_t * area = zone->free_area + order;
  158. unsigned int curr_order = order;
  159. struct list_head *head, *curr;
  160. unsigned long flags;
  161. struct page *page;
  162. spin_lock_irqsave(&zone->lock, flags);
  163. do {
  164. head = &area->free_list;
  165. curr = memlist_next(head);
  166. if (curr != head) {
  167. unsigned int index;
  168. page = memlist_entry(curr, struct page, list);
  169. if (BAD_RANGE(zone,page))
  170. BUG();
  171. memlist_del(curr);
  172. index = page - zone->zone_mem_map;
  173. if (curr_order != MAX_ORDER-1)
  174. MARK_USED(index, curr_order, area);
  175. zone->free_pages -= 1UL << order;
  176. page = expand(zone, page, index, order, curr_order, area);
  177. spin_unlock_irqrestore(&zone->lock, flags);
  178. set_page_count(page, 1);
  179. if (BAD_RANGE(zone,page))
  180. BUG();
  181. if (PageLRU(page))
  182. BUG();
  183. if (PageActive(page))
  184. BUG();
  185. return page;
  186. }
  187. curr_order++;
  188. area++;
  189. } while (curr_order < MAX_ORDER);
  190. spin_unlock_irqrestore(&zone->lock, flags);
  191. return NULL;
  192. }
  193. #ifndef CONFIG_DISCONTIGMEM
  194. struct page *_alloc_pages(unsigned int gfp_mask, unsigned int order)
  195. {
  196. return __alloc_pages(gfp_mask, order,
  197. contig_page_data.node_zonelists+(gfp_mask & GFP_ZONEMASK));
  198. }
  199. #endif
  200. static struct page * FASTCALL(balance_classzone(zone_t *, unsigned int, unsigned int, int *));
  201. static struct page * balance_classzone(zone_t * classzone, unsigned int gfp_mask, unsigned int order, int * freed)
  202. {
  203. struct page * page = NULL;
  204. int __freed = 0;
  205. if (!(gfp_mask & __GFP_WAIT))
  206. goto out;
  207. if (in_interrupt())
  208. BUG();
  209. current->allocation_order = order;
  210. current->flags |= PF_MEMALLOC | PF_FREE_PAGES;
  211. __freed = try_to_free_pages(classzone, gfp_mask, order);
  212. current->flags &= ~(PF_MEMALLOC | PF_FREE_PAGES);
  213. if (current->nr_local_pages) {
  214. struct list_head * entry, * local_pages;
  215. struct page * tmp;
  216. int nr_pages;
  217. local_pages = &current->local_pages;
  218. if (likely(__freed)) {
  219. /* pick from the last inserted so we're lifo */
  220. entry = local_pages->next;
  221. do {
  222. tmp = list_entry(entry, struct page, list);
  223. if (tmp->index == order && memclass(tmp->zone, classzone)) {
  224. list_del(entry);
  225. current->nr_local_pages--;
  226. set_page_count(tmp, 1);
  227. page = tmp;
  228. if (page->buffers)
  229. BUG();
  230. if (page->mapping)
  231. BUG();
  232. if (!VALID_PAGE(page))
  233. BUG();
  234. if (PageSwapCache(page))
  235. BUG();
  236. if (PageLocked(page))
  237. BUG();
  238. if (PageLRU(page))
  239. BUG();
  240. if (PageActive(page))
  241. BUG();
  242. if (PageDirty(page))
  243. BUG();
  244. break;
  245. }
  246. } while ((entry = entry->next) != local_pages);
  247. }
  248. nr_pages = current->nr_local_pages;
  249. /* free in reverse order so that the global order will be lifo */
  250. while ((entry = local_pages->prev) != local_pages) {
  251. list_del(entry);
  252. tmp = list_entry(entry, struct page, list);
  253. __free_pages_ok(tmp, tmp->index);
  254. if (!nr_pages--)
  255. BUG();
  256. }
  257. current->nr_local_pages = 0;
  258. }
  259.  out:
  260. *freed = __freed;
  261. return page;
  262. }
  263. /*
  264.  * This is the 'heart' of the zoned buddy allocator:
  265.  */
  266. struct page * __alloc_pages(unsigned int gfp_mask, unsigned int order, zonelist_t *zonelist)
  267. {
  268. unsigned long min;
  269. zone_t **zone, * classzone;
  270. struct page * page;
  271. int freed;
  272. zone = zonelist->zones;
  273. classzone = *zone;
  274. min = 1UL << order;
  275. for (;;) {
  276. zone_t *z = *(zone++);
  277. if (!z)
  278. break;
  279. min += z->pages_low;
  280. if (z->free_pages > min) {
  281. page = rmqueue(z, order);
  282. if (page)
  283. return page;
  284. }
  285. }
  286. classzone->need_balance = 1;
  287. mb();
  288. if (waitqueue_active(&kswapd_wait))
  289. wake_up_interruptible(&kswapd_wait);
  290. zone = zonelist->zones;
  291. min = 1UL << order;
  292. for (;;) {
  293. unsigned long local_min;
  294. zone_t *z = *(zone++);
  295. if (!z)
  296. break;
  297. local_min = z->pages_min;
  298. if (!(gfp_mask & __GFP_WAIT))
  299. local_min >>= 2;
  300. min += local_min;
  301. if (z->free_pages > min) {
  302. page = rmqueue(z, order);
  303. if (page)
  304. return page;
  305. }
  306. }
  307. /* here we're in the low on memory slow path */
  308. rebalance:
  309. if (current->flags & (PF_MEMALLOC | PF_MEMDIE)) {
  310. zone = zonelist->zones;
  311. for (;;) {
  312. zone_t *z = *(zone++);
  313. if (!z)
  314. break;
  315. page = rmqueue(z, order);
  316. if (page)
  317. return page;
  318. }
  319. return NULL;
  320. }
  321. /* Atomic allocations - we can't balance anything */
  322. if (!(gfp_mask & __GFP_WAIT))
  323. return NULL;
  324. page = balance_classzone(classzone, gfp_mask, order, &freed);
  325. if (page)
  326. return page;
  327. zone = zonelist->zones;
  328. min = 1UL << order;
  329. for (;;) {
  330. zone_t *z = *(zone++);
  331. if (!z)
  332. break;
  333. min += z->pages_min;
  334. if (z->free_pages > min) {
  335. page = rmqueue(z, order);
  336. if (page)
  337. return page;
  338. }
  339. }
  340. /* Don't let big-order allocations loop */
  341. if (order > 3)
  342. return NULL;
  343. /* Yield for kswapd, and try again */
  344. current->policy |= SCHED_YIELD;
  345. __set_current_state(TASK_RUNNING);
  346. schedule();
  347. goto rebalance;
  348. }
  349. /*
  350.  * Common helper functions.
  351.  */
  352. unsigned long __get_free_pages(unsigned int gfp_mask, unsigned int order)
  353. {
  354. struct page * page;
  355. page = alloc_pages(gfp_mask, order);
  356. if (!page)
  357. return 0;
  358. return (unsigned long) page_address(page);
  359. }
  360. unsigned long get_zeroed_page(unsigned int gfp_mask)
  361. {
  362. struct page * page;
  363. page = alloc_pages(gfp_mask, 0);
  364. if (page) {
  365. void *address = page_address(page);
  366. clear_page(address);
  367. return (unsigned long) address;
  368. }
  369. return 0;
  370. }
  371. void __free_pages(struct page *page, unsigned int order)
  372. {
  373. if (!PageReserved(page) && put_page_testzero(page))
  374. __free_pages_ok(page, order);
  375. }
  376. void free_pages(unsigned long addr, unsigned int order)
  377. {
  378. if (addr != 0)
  379. __free_pages(virt_to_page(addr), order);
  380. }
  381. /*
  382.  * Total amount of free (allocatable) RAM:
  383.  */
  384. unsigned int nr_free_pages (void)
  385. {
  386. unsigned int sum;
  387. zone_t *zone;
  388. pg_data_t *pgdat = pgdat_list;
  389. sum = 0;
  390. while (pgdat) {
  391. for (zone = pgdat->node_zones; zone < pgdat->node_zones + MAX_NR_ZONES; zone++)
  392. sum += zone->free_pages;
  393. pgdat = pgdat->node_next;
  394. }
  395. return sum;
  396. }
  397. /*
  398.  * Amount of free RAM allocatable as buffer memory:
  399.  */
  400. unsigned int nr_free_buffer_pages (void)
  401. {
  402. pg_data_t *pgdat = pgdat_list;
  403. unsigned int sum = 0;
  404. do {
  405. zonelist_t *zonelist = pgdat->node_zonelists + (GFP_USER & GFP_ZONEMASK);
  406. zone_t **zonep = zonelist->zones;
  407. zone_t *zone;
  408. for (zone = *zonep++; zone; zone = *zonep++) {
  409. unsigned long size = zone->size;
  410. unsigned long high = zone->pages_high;
  411. if (size > high)
  412. sum += size - high;
  413. }
  414. pgdat = pgdat->node_next;
  415. } while (pgdat);
  416. return sum;
  417. }
  418. #if CONFIG_HIGHMEM
  419. unsigned int nr_free_highpages (void)
  420. {
  421. pg_data_t *pgdat = pgdat_list;
  422. unsigned int pages = 0;
  423. while (pgdat) {
  424. pages += pgdat->node_zones[ZONE_HIGHMEM].free_pages;
  425. pgdat = pgdat->node_next;
  426. }
  427. return pages;
  428. }
  429. #endif
  430. #define K(x) ((x) << (PAGE_SHIFT-10))
  431. /*
  432.  * Show free area list (used inside shift_scroll-lock stuff)
  433.  * We also calculate the percentage fragmentation. We do this by counting the
  434.  * memory on each free list with the exception of the first item on the list.
  435.  */
  436. void show_free_areas_core(pg_data_t *pgdat)
  437. {
  438.   unsigned int order;
  439. unsigned type;
  440. pg_data_t *tmpdat = pgdat;
  441. printk("Free pages:      %6dkB (%6dkB HighMem)n",
  442. K(nr_free_pages()),
  443. K(nr_free_highpages()));
  444. while (tmpdat) {
  445. zone_t *zone;
  446. for (zone = tmpdat->node_zones;
  447.         zone < tmpdat->node_zones + MAX_NR_ZONES; zone++)
  448. printk("Zone:%s freepages:%6lukB min:%6lukB low:%6lukB " 
  449.        "high:%6lukBn", 
  450. zone->name,
  451. K(zone->free_pages),
  452. K(zone->pages_min),
  453. K(zone->pages_low),
  454. K(zone->pages_high));
  455. tmpdat = tmpdat->node_next;
  456. }
  457. printk("( Active: %d, inactive: %d, free: %d )n",
  458.        nr_active_pages,
  459.        nr_inactive_pages,
  460.        nr_free_pages());
  461. for (type = 0; type < MAX_NR_ZONES; type++) {
  462. struct list_head *head, *curr;
  463. zone_t *zone = pgdat->node_zones + type;
  464.   unsigned long nr, total, flags;
  465. total = 0;
  466. if (zone->size) {
  467. spin_lock_irqsave(&zone->lock, flags);
  468.   for (order = 0; order < MAX_ORDER; order++) {
  469. head = &(zone->free_area + order)->free_list;
  470. curr = head;
  471. nr = 0;
  472. for (;;) {
  473. curr = memlist_next(curr);
  474. if (curr == head)
  475. break;
  476. nr++;
  477. }
  478. total += nr * (1 << order);
  479. printk("%lu*%lukB ", nr, K(1UL) << order);
  480. }
  481. spin_unlock_irqrestore(&zone->lock, flags);
  482. }
  483. printk("= %lukB)n", K(total));
  484. }
  485. #ifdef SWAP_CACHE_INFO
  486. show_swap_cache_info();
  487. #endif
  488. }
  489. void show_free_areas(void)
  490. {
  491. show_free_areas_core(pgdat_list);
  492. }
  493. /*
  494.  * Builds allocation fallback zone lists.
  495.  */
  496. static inline void build_zonelists(pg_data_t *pgdat)
  497. {
  498. int i, j, k;
  499. for (i = 0; i <= GFP_ZONEMASK; i++) {
  500. zonelist_t *zonelist;
  501. zone_t *zone;
  502. zonelist = pgdat->node_zonelists + i;
  503. memset(zonelist, 0, sizeof(*zonelist));
  504. j = 0;
  505. k = ZONE_NORMAL;
  506. if (i & __GFP_HIGHMEM)
  507. k = ZONE_HIGHMEM;
  508. if (i & __GFP_DMA)
  509. k = ZONE_DMA;
  510. switch (k) {
  511. default:
  512. BUG();
  513. /*
  514.  * fallthrough:
  515.  */
  516. case ZONE_HIGHMEM:
  517. zone = pgdat->node_zones + ZONE_HIGHMEM;
  518. if (zone->size) {
  519. #ifndef CONFIG_HIGHMEM
  520. BUG();
  521. #endif
  522. zonelist->zones[j++] = zone;
  523. }
  524. case ZONE_NORMAL:
  525. zone = pgdat->node_zones + ZONE_NORMAL;
  526. if (zone->size)
  527. zonelist->zones[j++] = zone;
  528. case ZONE_DMA:
  529. zone = pgdat->node_zones + ZONE_DMA;
  530. if (zone->size)
  531. zonelist->zones[j++] = zone;
  532. }
  533. zonelist->zones[j++] = NULL;
  534. }
  535. #define LONG_ALIGN(x) (((x)+(sizeof(long))-1)&~((sizeof(long))-1))
  536. /*
  537.  * Set up the zone data structures:
  538.  *   - mark all pages reserved
  539.  *   - mark all memory queues empty
  540.  *   - clear the memory bitmaps
  541.  */
  542. void __init free_area_init_core(int nid, pg_data_t *pgdat, struct page **gmap,
  543. unsigned long *zones_size, unsigned long zone_start_paddr, 
  544. unsigned long *zholes_size, struct page *lmem_map)
  545. {
  546. struct page *p;
  547. unsigned long i, j;
  548. unsigned long map_size;
  549. unsigned long totalpages, offset, realtotalpages;
  550. const unsigned long zone_required_alignment = 1UL << (MAX_ORDER-1);
  551. if (zone_start_paddr & ~PAGE_MASK)
  552. BUG();
  553. totalpages = 0;
  554. for (i = 0; i < MAX_NR_ZONES; i++) {
  555. unsigned long size = zones_size[i];
  556. totalpages += size;
  557. }
  558. realtotalpages = totalpages;
  559. if (zholes_size)
  560. for (i = 0; i < MAX_NR_ZONES; i++)
  561. realtotalpages -= zholes_size[i];
  562. printk("On node %d totalpages: %lun", nid, realtotalpages);
  563. INIT_LIST_HEAD(&active_list);
  564. INIT_LIST_HEAD(&inactive_list);
  565. /*
  566.  * Some architectures (with lots of mem and discontinous memory
  567.  * maps) have to search for a good mem_map area:
  568.  * For discontigmem, the conceptual mem map array starts from 
  569.  * PAGE_OFFSET, we need to align the actual array onto a mem map 
  570.  * boundary, so that MAP_NR works.
  571.  */
  572. map_size = (totalpages + 1)*sizeof(struct page);
  573. if (lmem_map == (struct page *)0) {
  574. lmem_map = (struct page *) alloc_bootmem_node(pgdat, map_size);
  575. lmem_map = (struct page *)(PAGE_OFFSET + 
  576. MAP_ALIGN((unsigned long)lmem_map - PAGE_OFFSET));
  577. }
  578. *gmap = pgdat->node_mem_map = lmem_map;
  579. pgdat->node_size = totalpages;
  580. pgdat->node_start_paddr = zone_start_paddr;
  581. pgdat->node_start_mapnr = (lmem_map - mem_map);
  582. pgdat->nr_zones = 0;
  583. /*
  584.  * Initially all pages are reserved - free ones are freed
  585.  * up by free_all_bootmem() once the early boot process is
  586.  * done.
  587.  */
  588. for (p = lmem_map; p < lmem_map + totalpages; p++) {
  589. set_page_count(p, 0);
  590. SetPageReserved(p);
  591. init_waitqueue_head(&p->wait);
  592. memlist_init(&p->list);
  593. }
  594. offset = lmem_map - mem_map;
  595. for (j = 0; j < MAX_NR_ZONES; j++) {
  596. zone_t *zone = pgdat->node_zones + j;
  597. unsigned long mask;
  598. unsigned long size, realsize;
  599. realsize = size = zones_size[j];
  600. if (zholes_size)
  601. realsize -= zholes_size[j];
  602. printk("zone(%lu): %lu pages.n", j, size);
  603. zone->size = size;
  604. zone->name = zone_names[j];
  605. zone->lock = SPIN_LOCK_UNLOCKED;
  606. zone->zone_pgdat = pgdat;
  607. zone->free_pages = 0;
  608. zone->need_balance = 0;
  609. if (!size)
  610. continue;
  611. pgdat->nr_zones = j+1;
  612. mask = (realsize / zone_balance_ratio[j]);
  613. if (mask < zone_balance_min[j])
  614. mask = zone_balance_min[j];
  615. else if (mask > zone_balance_max[j])
  616. mask = zone_balance_max[j];
  617. zone->pages_min = mask;
  618. zone->pages_low = mask*2;
  619. zone->pages_high = mask*3;
  620. zone->zone_mem_map = mem_map + offset;
  621. zone->zone_start_mapnr = offset;
  622. zone->zone_start_paddr = zone_start_paddr;
  623. if ((zone_start_paddr >> PAGE_SHIFT) & (zone_required_alignment-1))
  624. printk("BUG: wrong zone alignment, it will crashn");
  625. for (i = 0; i < size; i++) {
  626. struct page *page = mem_map + offset + i;
  627. page->zone = zone;
  628. if (j != ZONE_HIGHMEM)
  629. page->virtual = __va(zone_start_paddr);
  630. zone_start_paddr += PAGE_SIZE;
  631. }
  632. offset += size;
  633. for (i = 0; ; i++) {
  634. unsigned long bitmap_size;
  635. memlist_init(&zone->free_area[i].free_list);
  636. if (i == MAX_ORDER-1) {
  637. zone->free_area[i].map = NULL;
  638. break;
  639. }
  640. /*
  641.  * Page buddy system uses "index >> (i+1)",
  642.  * where "index" is at most "size-1".
  643.  *
  644.  * The extra "+3" is to round down to byte
  645.  * size (8 bits per byte assumption). Thus
  646.  * we get "(size-1) >> (i+4)" as the last byte
  647.  * we can access.
  648.  *
  649.  * The "+1" is because we want to round the
  650.  * byte allocation up rather than down. So
  651.  * we should have had a "+7" before we shifted
  652.  * down by three. Also, we have to add one as
  653.  * we actually _use_ the last bit (it's [0,n]
  654.  * inclusive, not [0,n[).
  655.  *
  656.  * So we actually had +7+1 before we shift
  657.  * down by 3. But (n+8) >> 3 == (n >> 3) + 1
  658.  * (modulo overflows, which we do not have).
  659.  *
  660.  * Finally, we LONG_ALIGN because all bitmap
  661.  * operations are on longs.
  662.  */
  663. bitmap_size = (size-1) >> (i+4);
  664. bitmap_size = LONG_ALIGN(bitmap_size+1);
  665. zone->free_area[i].map = 
  666.   (unsigned long *) alloc_bootmem_node(pgdat, bitmap_size);
  667. }
  668. }
  669. build_zonelists(pgdat);
  670. }
  671. void __init free_area_init(unsigned long *zones_size)
  672. {
  673. free_area_init_core(0, &contig_page_data, &mem_map, zones_size, 0, 0, 0);
  674. }
  675. static int __init setup_mem_frac(char *str)
  676. {
  677. int j = 0;
  678. while (get_option(&str, &zone_balance_ratio[j++]) == 2);
  679. printk("setup_mem_frac: ");
  680. for (j = 0; j < MAX_NR_ZONES; j++) printk("%d  ", zone_balance_ratio[j]);
  681. printk("n");
  682. return 1;
  683. }
  684. __setup("memfrac=", setup_mem_frac);