lmb.c
上传用户:jlfgdled
上传日期:2013-04-10
资源大小:33168k
文件大小:10k
源码类别:

Linux/Unix编程

开发平台:

Unix_Linux

  1. /*
  2.  *
  3.  * Procedures for interfacing to Open Firmware.
  4.  *
  5.  * Peter Bergner, IBM Corp. June 2001.
  6.  * Copyright (C) 2001 Peter Bergner.
  7.  * 
  8.  *      This program is free software; you can redistribute it and/or
  9.  *      modify it under the terms of the GNU General Public License
  10.  *      as published by the Free Software Foundation; either version
  11.  *      2 of the License, or (at your option) any later version.
  12.  */
  13. #include <linux/config.h>
  14. #include <linux/kernel.h>
  15. #include <asm/types.h>
  16. #include <asm/page.h>
  17. #include <asm/prom.h>
  18. #include <asm/lmb.h>
  19. #include <asm/abs_addr.h>
  20. #include <asm/bitops.h>
  21. #include <asm/udbg.h>
  22. extern unsigned long klimit;
  23. extern unsigned long reloc_offset(void);
  24. static long lmb_add_region(struct lmb_region *, unsigned long, unsigned long, unsigned long);
  25. struct lmb lmb = {
  26. 0, 0,
  27. {0,0,0,0,{{0,0,0}}},
  28. {0,0,0,0,{{0,0,0}}}
  29. };
  30. /* Assumption: base addr of region 1 < base addr of region 2 */
  31. static void
  32. lmb_coalesce_regions(struct lmb_region *rgn, unsigned long r1, unsigned long r2)
  33. {
  34. unsigned long i;
  35. rgn->region[r1].size += rgn->region[r2].size;
  36. for (i=r2; i < rgn->cnt-1 ;i++) {
  37. rgn->region[i].base = rgn->region[i+1].base;
  38. rgn->region[i].physbase = rgn->region[i+1].physbase;
  39. rgn->region[i].size = rgn->region[i+1].size;
  40. rgn->region[i].type = rgn->region[i+1].type;
  41. }
  42. rgn->cnt--;
  43. }
  44. /* This routine called with relocation disabled. */
  45. void
  46. lmb_init(void)
  47. {
  48. unsigned long offset = reloc_offset();
  49. struct lmb *_lmb = PTRRELOC(&lmb);
  50. /* Create a dummy zero size LMB which will get coalesced away later.
  51.  * This simplifies the lmb_add() code below...
  52.  */
  53. _lmb->memory.region[0].base = 0;
  54. _lmb->memory.region[0].size = 0;
  55. _lmb->memory.region[0].type = LMB_MEMORY_AREA;
  56. _lmb->memory.cnt = 1;
  57. /* Ditto. */
  58. _lmb->reserved.region[0].base = 0;
  59. _lmb->reserved.region[0].size = 0;
  60. _lmb->reserved.region[0].type = LMB_MEMORY_AREA;
  61. _lmb->reserved.cnt = 1;
  62. }
  63. /* This routine called with relocation disabled. */
  64. void
  65. lmb_analyze(void)
  66. {
  67. unsigned long i;
  68. unsigned long mem_size = 0;
  69. unsigned long io_size = 0;
  70. unsigned long size_mask = 0;
  71. unsigned long offset = reloc_offset();
  72. struct lmb *_lmb = PTRRELOC(&lmb);
  73. #ifdef CONFIG_MSCHUNKS
  74. unsigned long physbase = 0;
  75. #endif
  76. for (i=0; i < _lmb->memory.cnt ;i++) {
  77. unsigned long lmb_type = _lmb->memory.region[i].type;
  78. unsigned long lmb_size;
  79. if ( lmb_type != LMB_MEMORY_AREA )
  80. continue;
  81. lmb_size = _lmb->memory.region[i].size;
  82. #ifdef CONFIG_MSCHUNKS
  83. _lmb->memory.region[i].physbase = physbase;
  84. physbase += lmb_size;
  85. #else
  86. _lmb->memory.region[i].physbase = _lmb->memory.region[i].base;
  87. #endif
  88. mem_size += lmb_size;
  89. size_mask |= lmb_size;
  90. }
  91. #ifdef CONFIG_MSCHUNKS
  92. for (i=0; i < _lmb->memory.cnt ;i++) {
  93. unsigned long lmb_type = _lmb->memory.region[i].type;
  94. unsigned long lmb_size;
  95. if ( lmb_type != LMB_IO_AREA )
  96. continue;
  97. lmb_size = _lmb->memory.region[i].size;
  98. _lmb->memory.region[i].physbase = physbase;
  99. physbase += lmb_size;
  100. io_size += lmb_size;
  101. size_mask |= lmb_size;
  102. }
  103. #endif /* CONFIG_MSCHUNKS */
  104. _lmb->memory.size = mem_size;
  105. _lmb->memory.iosize = io_size;
  106. _lmb->memory.lcd_size = (1UL << cnt_trailing_zeros(size_mask));
  107. }
  108. /* This routine called with relocation disabled. */
  109. long
  110. lmb_add(unsigned long base, unsigned long size)
  111. {
  112. unsigned long offset = reloc_offset();
  113. struct lmb *_lmb = PTRRELOC(&lmb);
  114. struct lmb_region *_rgn = &(_lmb->memory);
  115. /* On pSeries LPAR systems, the first LMB is our RMO region. */
  116. if ( base == 0 )
  117. _lmb->rmo_size = size;
  118. return lmb_add_region(_rgn, base, size, LMB_MEMORY_AREA);
  119. }
  120. #ifdef CONFIG_MSCHUNKS
  121. /* This routine called with relocation disabled. */
  122. long
  123. lmb_add_io(unsigned long base, unsigned long size)
  124. {
  125. unsigned long offset = reloc_offset();
  126. struct lmb *_lmb = PTRRELOC(&lmb);
  127. struct lmb_region *_rgn = &(_lmb->memory);
  128. return lmb_add_region(_rgn, base, size, LMB_IO_AREA);
  129. }
  130. #endif /* CONFIG_MSCHUNKS */
  131. long
  132. lmb_reserve(unsigned long base, unsigned long size)
  133. {
  134. unsigned long offset = reloc_offset();
  135. struct lmb *_lmb = PTRRELOC(&lmb);
  136. struct lmb_region *_rgn = &(_lmb->reserved);
  137. return lmb_add_region(_rgn, base, size, LMB_MEMORY_AREA);
  138. }
  139. /* This routine called with relocation disabled. */
  140. static long
  141. lmb_add_region(struct lmb_region *rgn, unsigned long base, unsigned long size,
  142. unsigned long type)
  143. {
  144. unsigned long i, coalesced = 0;
  145. long adjacent;
  146. /* First try and coalesce this LMB with another. */
  147. for (i=0; i < rgn->cnt ;i++) {
  148. unsigned long rgnbase = rgn->region[i].base;
  149. unsigned long rgnsize = rgn->region[i].size;
  150. unsigned long rgntype = rgn->region[i].type;
  151. if ( rgntype != type )
  152. continue;
  153. adjacent = lmb_addrs_adjacent(base,size,rgnbase,rgnsize);
  154. if ( adjacent > 0 ) {
  155. rgn->region[i].base -= size;
  156. rgn->region[i].physbase -= size;
  157. rgn->region[i].size += size;
  158. coalesced++;
  159. break;
  160. }
  161. else if ( adjacent < 0 ) {
  162. rgn->region[i].size += size;
  163. coalesced++;
  164. break;
  165. }
  166. }
  167. if ((i < rgn->cnt-1) && lmb_regions_adjacent(rgn, i, i+1) ) {
  168. lmb_coalesce_regions(rgn, i, i+1);
  169. coalesced++;
  170. }
  171. if ( coalesced ) {
  172. return coalesced;
  173. } else if ( rgn->cnt >= MAX_LMB_REGIONS ) {
  174. return -1;
  175. }
  176. /* Couldn't coalesce the LMB, so add it to the sorted table. */
  177. for (i=rgn->cnt-1; i >= 0 ;i--) {
  178. if (base < rgn->region[i].base) {
  179. rgn->region[i+1].base = rgn->region[i].base;
  180. rgn->region[i+1].physbase = rgn->region[i].physbase;
  181. rgn->region[i+1].size = rgn->region[i].size;
  182. rgn->region[i+1].type = rgn->region[i].type;
  183. }  else {
  184. rgn->region[i+1].base = base;
  185. rgn->region[i+1].physbase = lmb_abs_to_phys(base);
  186. rgn->region[i+1].size = size;
  187. rgn->region[i+1].type = type;
  188. break;
  189. }
  190. }
  191. rgn->cnt++;
  192. return 0;
  193. }
  194. long
  195. lmb_overlaps_region(struct lmb_region *rgn, unsigned long base, unsigned long size)
  196. {
  197. unsigned long i;
  198. for (i=0; i < rgn->cnt ;i++) {
  199. unsigned long rgnbase = rgn->region[i].base;
  200. unsigned long rgnsize = rgn->region[i].size;
  201. if ( lmb_addrs_overlap(base,size,rgnbase,rgnsize) ) {
  202. break;
  203. }
  204. }
  205. return (i < rgn->cnt) ? i : -1;
  206. }
  207. unsigned long
  208. lmb_alloc(unsigned long size, unsigned long align)
  209. {
  210. return lmb_alloc_base(size, align, LMB_ALLOC_ANYWHERE);
  211. }
  212. unsigned long
  213. lmb_alloc_base(unsigned long size, unsigned long align, unsigned long max_addr)
  214. {
  215. long i, j;
  216. unsigned long base = 0;
  217. unsigned long offset = reloc_offset();
  218. struct lmb *_lmb = PTRRELOC(&lmb);
  219. struct lmb_region *_mem = &(_lmb->memory);
  220. struct lmb_region *_rsv = &(_lmb->reserved);
  221. for (i=_mem->cnt-1; i >= 0 ;i--) {
  222. unsigned long lmbbase = _mem->region[i].base;
  223. unsigned long lmbsize = _mem->region[i].size;
  224. unsigned long lmbtype = _mem->region[i].type;
  225. if ( lmbtype != LMB_MEMORY_AREA )
  226. continue;
  227. if ( max_addr == LMB_ALLOC_ANYWHERE )
  228. base = _ALIGN_DOWN(lmbbase+lmbsize-size, align);
  229. else if ( lmbbase < max_addr )
  230. base = _ALIGN_DOWN(min(lmbbase+lmbsize,max_addr)-size, align);
  231. else
  232. continue;
  233. while ( (lmbbase <= base) &&
  234. ((j = lmb_overlaps_region(_rsv,base,size)) >= 0) ) {
  235. base = _ALIGN_DOWN(_rsv->region[j].base-size, align);
  236. }
  237. if ( (base != 0) && (lmbbase <= base) )
  238. break;
  239. }
  240. if ( i < 0 )
  241. return 0;
  242. lmb_add_region(_rsv, base, size, LMB_MEMORY_AREA);
  243. return base;
  244. }
  245. unsigned long
  246. lmb_phys_mem_size(void)
  247. {
  248. unsigned long offset = reloc_offset();
  249. struct lmb *_lmb = PTRRELOC(&lmb);
  250. #ifdef CONFIG_MSCHUNKS
  251. return _lmb->memory.size;
  252. #else
  253. struct lmb_region *_mem = &(_lmb->memory);
  254. unsigned long idx = _mem->cnt-1;
  255. unsigned long lastbase = _mem->region[idx].physbase;
  256. unsigned long lastsize = _mem->region[idx].size;
  257. return (lastbase + lastsize);
  258. #endif /* CONFIG_MSCHUNKS */
  259. }
  260. unsigned long
  261. lmb_end_of_DRAM(void)
  262. {
  263. unsigned long offset = reloc_offset();
  264. struct lmb *_lmb = PTRRELOC(&lmb);
  265. struct lmb_region *_mem = &(_lmb->memory);
  266. unsigned long idx;
  267. for(idx=_mem->cnt-1; idx >= 0 ;idx--) {
  268. if ( _mem->region[idx].type != LMB_MEMORY_AREA )
  269. continue;
  270. #ifdef CONFIG_MSCHUNKS
  271. return (_mem->region[idx].physbase + _mem->region[idx].size);
  272. #else
  273. return (_mem->region[idx].base + _mem->region[idx].size);
  274. #endif /* CONFIG_MSCHUNKS */
  275. }
  276. return 0;
  277. }
  278. unsigned long
  279. lmb_abs_to_phys(unsigned long aa)
  280. {
  281. unsigned long i, pa = aa;
  282. unsigned long offset = reloc_offset();
  283. struct lmb *_lmb = PTRRELOC(&lmb);
  284. struct lmb_region *_mem = &(_lmb->memory);
  285. for (i=0; i < _mem->cnt ;i++) {
  286. unsigned long lmbbase = _mem->region[i].base;
  287. unsigned long lmbsize = _mem->region[i].size;
  288. if ( lmb_addrs_overlap(aa,1,lmbbase,lmbsize) ) {
  289. pa = _mem->region[i].physbase + (aa - lmbbase);
  290. break;
  291. }
  292. }
  293. return pa;
  294. }
  295. void
  296. lmb_dump(char *str)
  297. {
  298. unsigned long i;
  299. udbg_printf("nlmb_dump: %sn", str);
  300. udbg_printf("    debug                       = %sn",
  301. (lmb.debug) ? "TRUE" : "FALSE");
  302. udbg_printf("    memory.cnt                  = %dn",
  303. lmb.memory.cnt);
  304. udbg_printf("    memory.size                 = 0x%lxn",
  305. lmb.memory.size);
  306. udbg_printf("    memory.lcd_size             = 0x%lxn",
  307. lmb.memory.lcd_size);
  308. for (i=0; i < lmb.memory.cnt ;i++) {
  309. udbg_printf("    memory.region[%d].base       = 0x%lxn",
  310. i, lmb.memory.region[i].base);
  311. udbg_printf("                      .physbase = 0x%lxn",
  312. lmb.memory.region[i].physbase);
  313. udbg_printf("                      .size     = 0x%lxn",
  314. lmb.memory.region[i].size);
  315. udbg_printf("                      .type     = 0x%lxn",
  316. lmb.memory.region[i].type);
  317. }
  318. udbg_printf("n");
  319. udbg_printf("    reserved.cnt                = %dn",
  320. lmb.reserved.cnt);
  321. udbg_printf("    reserved.size               = 0x%lxn",
  322. lmb.reserved.size);
  323. udbg_printf("    reserved.lcd_size           = 0x%lxn",
  324. lmb.reserved.lcd_size);
  325. for (i=0; i < lmb.reserved.cnt ;i++) {
  326. udbg_printf("    reserved.region[%d].base     = 0x%lxn",
  327. i, lmb.reserved.region[i].base);
  328. udbg_printf("                      .physbase = 0x%lxn",
  329. lmb.reserved.region[i].physbase);
  330. udbg_printf("                      .size     = 0x%lxn",
  331. lmb.reserved.region[i].size);
  332. udbg_printf("                      .type     = 0x%lxn",
  333. lmb.reserved.region[i].type);
  334. }
  335. }