sun3dvma.c
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:5k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /*
  2.  * linux/arch/m68k/mm/sun3dvma.c
  3.  *
  4.  * Copyright (C) 2000 Sam Creasey
  5.  *
  6.  * Contains common routines for sun3/sun3x DVMA management.
  7.  */
  8. #include <linux/kernel.h>
  9. #include <linux/mm.h>
  10. #include <linux/list.h>
  11. #include <asm/page.h>
  12. #include <asm/pgtable.h>
  13. #include <asm/dvma.h>
  14. #ifdef CONFIG_SUN3X
  15. extern void dvma_unmap_iommu(unsigned long baddr, int len);
  16. #else
  17. static inline void dvma_unmap_iommu(unsigned long a, int b)
  18. {
  19. }
  20. #endif
  21. unsigned long iommu_use[IOMMU_TOTAL_ENTRIES];
  22. #define dvma_index(baddr) ((baddr - DVMA_START) >> DVMA_PAGE_SHIFT)
  23. #define dvma_entry_use(baddr) (iommu_use[dvma_index(baddr)])
  24. struct hole {
  25. unsigned long start;
  26. unsigned long end;
  27. unsigned long size;
  28. struct list_head list;
  29. };
  30. static struct list_head hole_list;
  31. static struct list_head hole_cache;
  32. static struct hole initholes[64];
  33. static inline int refill(void)
  34. {
  35. struct hole *hole;
  36. struct hole *prev = NULL;
  37. struct list_head *cur;
  38. int ret = 0;
  39. list_for_each(cur, &hole_list) {
  40. hole = list_entry(cur, struct hole, list);
  41. if(!prev) {
  42. prev = hole;
  43. continue;
  44. }
  45. if(hole->end == prev->start) {
  46. hole->size += prev->size;
  47. hole->end = prev->end;
  48. list_del(&(prev->list));
  49. list_add(&(prev->list), &hole_cache);
  50. ret++;
  51. }
  52. }
  53. return ret;
  54. }
  55. static inline struct hole *rmcache(void)
  56. {
  57. struct hole *ret;
  58. if(list_empty(&hole_cache)) {
  59. if(!refill()) {
  60. printk("out of dvma hole cache!n");
  61. BUG();
  62. }
  63. }
  64. ret = list_entry(hole_cache.next, struct hole, list);
  65. list_del(&(ret->list));
  66. return ret;
  67. }
  68. static inline unsigned long get_baddr(int len, unsigned long align)
  69. {
  70. struct list_head *cur;
  71. struct hole *hole;
  72. if(list_empty(&hole_list)) {
  73. printk("out of dvma holes!n");
  74. BUG();
  75. }
  76. list_for_each(cur, &hole_list) {
  77. unsigned long newlen;
  78. hole = list_entry(cur, struct hole, list);
  79. if(align > DVMA_PAGE_SIZE) 
  80. newlen = len + ((hole->end - len) & (align-1));
  81. else
  82. newlen = len;
  83. if(hole->size > newlen) {
  84. hole->end -= newlen;
  85. hole->size -= newlen;
  86. dvma_entry_use(hole->end) = newlen;
  87. return hole->end;
  88. } else if(hole->size == newlen) {
  89. list_del(&(hole->list));
  90. list_add(&(hole->list), &hole_cache);
  91. dvma_entry_use(hole->start) = newlen;
  92. return hole->start;
  93. }
  94. }
  95. printk("unable to find dvma hole!n");
  96. BUG();
  97. return 0;
  98. }
  99. static inline int free_baddr(unsigned long baddr)
  100. {
  101. unsigned long len;
  102. struct hole *hole;
  103. struct list_head *cur;
  104. unsigned long orig_baddr;
  105. orig_baddr = baddr;
  106. len = dvma_entry_use(baddr);
  107. dvma_entry_use(baddr) = 0;
  108. baddr &= DVMA_PAGE_MASK;
  109. dvma_unmap_iommu(baddr, len);
  110. list_for_each(cur, &hole_list) {
  111. hole = list_entry(cur, struct hole, list);
  112. if(hole->end == baddr) {
  113. hole->end += len;
  114. hole->size += len;
  115. return 0;
  116. } else if(hole->start == (baddr + len)) {
  117. hole->start = baddr;
  118. hole->size += len;
  119. return 0;
  120. }
  121. }
  122. hole = rmcache();
  123. hole->start = baddr;
  124. hole->end = baddr + len;
  125. hole->size = len;
  126. // list_add_tail(&(hole->list), cur);
  127. list_add(&(hole->list), cur);
  128. return 0;
  129. }
  130. void dvma_init(void)
  131. {
  132. struct hole *hole;
  133. int i;
  134. INIT_LIST_HEAD(&hole_list);
  135. INIT_LIST_HEAD(&hole_cache);
  136. /* prepare the hole cache */
  137. for(i = 0; i < 64; i++) 
  138. list_add(&(initholes[i].list), &hole_cache);
  139. hole = rmcache();
  140. hole->start = DVMA_START;
  141. hole->end = DVMA_END;
  142. hole->size = DVMA_SIZE;
  143. list_add(&(hole->list), &hole_list);
  144. memset(iommu_use, 0, sizeof(iommu_use));
  145. dvma_unmap_iommu(DVMA_START, DVMA_SIZE);
  146. #ifdef CONFIG_SUN3
  147. sun3_dvma_init();
  148. #endif
  149. }
  150. inline unsigned long dvma_map_align(unsigned long kaddr, int len, int align)
  151. {
  152. unsigned long baddr;
  153. unsigned long off;
  154. if(!len)
  155. len = 0x800;
  156. if(!kaddr || !len) {
  157. // printk("error: kaddr %lx len %xn", kaddr, len);
  158. // *(int *)4 = 0;
  159. return 0;
  160. }
  161. #ifdef DEBUG
  162. printk("dvma_map request %08lx bytes from %08lxn", 
  163.        len, kaddr);
  164. #endif
  165. off = kaddr & ~DVMA_PAGE_MASK;
  166. kaddr &= PAGE_MASK;
  167. len += off;
  168. len = ((len + (DVMA_PAGE_SIZE-1)) & DVMA_PAGE_MASK);
  169. if(align == 0)
  170. align = DVMA_PAGE_SIZE;
  171. else
  172. align = ((align + (DVMA_PAGE_SIZE-1)) & DVMA_PAGE_MASK);
  173. baddr = get_baddr(len, align);
  174. // printk("using baddr %lxn", baddr);
  175. if(!dvma_map_iommu(kaddr, baddr, len))
  176. return (baddr + off);
  177. printk("dvma_map failed kaddr %lx baddr %lx len %xn", kaddr, baddr, len);
  178. BUG();
  179. return 0;
  180. }
  181. void dvma_unmap(void *baddr)
  182. {
  183. free_baddr((unsigned long)baddr);
  184. return;
  185. }
  186. void *dvma_malloc_align(unsigned long len, unsigned long align)
  187. {
  188. unsigned long kaddr;
  189. unsigned long baddr;
  190. unsigned long vaddr;
  191. if(!len)
  192. return NULL;
  193. #ifdef DEBUG
  194. printk("dvma_malloc request %lx bytesn", len);
  195. #endif
  196. len = ((len + (DVMA_PAGE_SIZE-1)) & DVMA_PAGE_MASK);
  197.         if((kaddr = __get_free_pages(GFP_ATOMIC, get_order(len))) == 0)
  198. return NULL;
  199. if((baddr = (unsigned long)dvma_map_align(kaddr, len, align)) == 0) {
  200. free_pages(kaddr, get_order(len));
  201. return NULL;
  202. }
  203. vaddr = dvma_btov(baddr);
  204. if(dvma_map_cpu(kaddr, vaddr, len) < 0) {
  205. dvma_unmap((void *)baddr);
  206. free_pages(kaddr, get_order(len));
  207. return NULL;
  208. }
  209. #ifdef DEBUG
  210. printk("mapped %08lx bytes %08lx kern -> %08lx busn",
  211.        len, kaddr, baddr);
  212. #endif
  213. return (void *)vaddr;
  214. }
  215. void dvma_free(void *vaddr)
  216. {
  217. return;
  218. }