r128_bufs.c
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:9k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /* r128_bufs.c -- IOCTLs to manage buffers -*- linux-c -*-
  2.  * Created: Wed Apr 12 16:19:08 2000 by kevin@precisioninsight.com
  3.  *
  4.  * Copyright 2000 Precision Insight, Inc., Cedar Park, Texas.
  5.  * Copyright 2000 VA Linux Systems, Inc., Sunnyvale, California.
  6.  * All Rights Reserved.
  7.  *
  8.  * Permission is hereby granted, free of charge, to any person obtaining a
  9.  * copy of this software and associated documentation files (the "Software"),
  10.  * to deal in the Software without restriction, including without limitation
  11.  * the rights to use, copy, modify, merge, publish, distribute, sublicense,
  12.  * and/or sell copies of the Software, and to permit persons to whom the
  13.  * Software is furnished to do so, subject to the following conditions:
  14.  *
  15.  * The above copyright notice and this permission notice (including the next
  16.  * paragraph) shall be included in all copies or substantial portions of the
  17.  * Software.
  18.  *
  19.  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
  20.  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
  21.  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
  22.  * PRECISION INSIGHT AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM, DAMAGES OR
  23.  * OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE,
  24.  * ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER
  25.  * DEALINGS IN THE SOFTWARE.
  26.  *
  27.  * Authors: Kevin E. Martin <martin@valinux.com>
  28.  *          Rickard E. (Rik) Faith <faith@valinux.com>
  29.  *     Jeff Hartmann <jhartmann@valinux.com>
  30.  *
  31.  */
  32. #define __NO_VERSION__
  33. #include <linux/config.h>
  34. #include "drmP.h"
  35. #include "r128_drv.h"
  36. #include "linux/un.h"
  37. #if defined(CONFIG_AGP) || defined(CONFIG_AGP_MODULE)
  38. int r128_addbufs_agp(struct inode *inode, struct file *filp, unsigned int cmd,
  39.      unsigned long arg)
  40. {
  41. drm_file_t       *priv = filp->private_data;
  42. drm_device_t     *dev  = priv->dev;
  43. drm_device_dma_t *dma  = dev->dma;
  44. drm_buf_desc_t    request;
  45. drm_buf_entry_t  *entry;
  46. drm_buf_t        *buf;
  47. unsigned long     offset;
  48. unsigned long     agp_offset;
  49. int               count;
  50. int               order;
  51. int               size;
  52. int               alignment;
  53. int               page_order;
  54. int               total;
  55. int               byte_count;
  56. int               i;
  57. if (!dma) return -EINVAL;
  58. if (copy_from_user(&request,
  59.    (drm_buf_desc_t *)arg,
  60.    sizeof(request)))
  61. return -EFAULT;
  62. count      = request.count;
  63. order      = drm_order(request.size);
  64. size       = 1 << order;
  65. alignment  = (request.flags & _DRM_PAGE_ALIGN) ? PAGE_ALIGN(size):size;
  66. page_order = order - PAGE_SHIFT > 0 ? order - PAGE_SHIFT : 0;
  67. total      = PAGE_SIZE << page_order;
  68. byte_count = 0;
  69. agp_offset = dev->agp->base + request.agp_start;
  70. DRM_DEBUG("count:      %dn",  count);
  71. DRM_DEBUG("order:      %dn",  order);
  72. DRM_DEBUG("size:       %dn",  size);
  73. DRM_DEBUG("agp_offset: %ldn", agp_offset);
  74. DRM_DEBUG("alignment:  %dn",  alignment);
  75. DRM_DEBUG("page_order: %dn",  page_order);
  76. DRM_DEBUG("total:      %dn",  total);
  77. if (order < DRM_MIN_ORDER || order > DRM_MAX_ORDER) return -EINVAL;
  78. if (dev->queue_count) return -EBUSY; /* Not while in use */
  79. spin_lock(&dev->count_lock);
  80. if (dev->buf_use) {
  81. spin_unlock(&dev->count_lock);
  82. return -EBUSY;
  83. }
  84. atomic_inc(&dev->buf_alloc);
  85. spin_unlock(&dev->count_lock);
  86. down(&dev->struct_sem);
  87. entry = &dma->bufs[order];
  88. if (entry->buf_count) {
  89. up(&dev->struct_sem);
  90. atomic_dec(&dev->buf_alloc);
  91. return -ENOMEM; /* May only call once for each order */
  92. }
  93. /* Might be a poor limit, but take that up with XFree86 
  94.    if its a problem */
  95.    
  96. if(count < 0 || count > 4096)
  97. {
  98. up(&dev->struct_sem);
  99. atomic_dec(&dev->buf_alloc);
  100. return -EINVAL;
  101. }
  102. entry->buflist = drm_alloc(count * sizeof(*entry->buflist),
  103.    DRM_MEM_BUFS);
  104. if (!entry->buflist) {
  105. up(&dev->struct_sem);
  106. atomic_dec(&dev->buf_alloc);
  107. return -ENOMEM;
  108. }
  109. memset(entry->buflist, 0, count * sizeof(*entry->buflist));
  110. entry->buf_size   = size;
  111. entry->page_order = page_order;
  112. offset            = 0;
  113. for (offset = 0;
  114.      entry->buf_count < count;
  115.      offset += alignment, ++entry->buf_count) {
  116. buf          = &entry->buflist[entry->buf_count];
  117. buf->idx     = dma->buf_count + entry->buf_count;
  118. buf->total   = alignment;
  119. buf->order   = order;
  120. buf->used    = 0;
  121. buf->offset  = (dma->byte_count + offset);
  122. buf->address = (void *)(agp_offset + offset);
  123. buf->next    = NULL;
  124. buf->waiting = 0;
  125. buf->pending = 0;
  126. init_waitqueue_head(&buf->dma_wait);
  127. buf->pid     = 0;
  128. buf->dev_priv_size = sizeof(drm_r128_buf_priv_t);
  129. buf->dev_private   = drm_alloc(sizeof(drm_r128_buf_priv_t),
  130.        DRM_MEM_BUFS);
  131. memset(buf->dev_private, 0, buf->dev_priv_size);
  132. #if DRM_DMA_HISTOGRAM
  133. buf->time_queued     = 0;
  134. buf->time_dispatched = 0;
  135. buf->time_completed  = 0;
  136. buf->time_freed      = 0;
  137. #endif
  138. byte_count += PAGE_SIZE << page_order;
  139. DRM_DEBUG("buffer %d @ %pn",
  140.   entry->buf_count, buf->address);
  141. }
  142. DRM_DEBUG("byte_count: %dn", byte_count);
  143. dma->buflist = drm_realloc(dma->buflist,
  144.    dma->buf_count * sizeof(*dma->buflist),
  145.    (dma->buf_count + entry->buf_count)
  146.    * sizeof(*dma->buflist),
  147.    DRM_MEM_BUFS);
  148. for (i = dma->buf_count; i < dma->buf_count + entry->buf_count; i++)
  149. dma->buflist[i] = &entry->buflist[i - dma->buf_count];
  150. dma->buf_count  += entry->buf_count;
  151. dma->byte_count += byte_count;
  152. drm_freelist_create(&entry->freelist, entry->buf_count);
  153. for (i = 0; i < entry->buf_count; i++) {
  154. drm_freelist_put(dev, &entry->freelist, &entry->buflist[i]);
  155. }
  156. up(&dev->struct_sem);
  157. request.count = entry->buf_count;
  158. request.size  = size;
  159. if (copy_to_user((drm_buf_desc_t *)arg,
  160.  &request,
  161.  sizeof(request)))
  162. return -EFAULT;
  163. dma->flags = _DRM_DMA_USE_AGP;
  164. atomic_dec(&dev->buf_alloc);
  165. return 0;
  166. }
  167. #endif
  168. int r128_addbufs(struct inode *inode, struct file *filp, unsigned int cmd,
  169.  unsigned long arg)
  170. {
  171. drm_file_t *priv = filp->private_data;
  172. drm_device_t *dev = priv->dev;
  173. drm_r128_private_t *dev_priv = dev->dev_private;
  174. drm_buf_desc_t request;
  175. if (!dev_priv || dev_priv->is_pci) return -EINVAL;
  176. if (copy_from_user(&request,
  177.    (drm_buf_desc_t *)arg,
  178.    sizeof(request)))
  179. return -EFAULT;
  180. #if defined(CONFIG_AGP) || defined(CONFIG_AGP_MODULE)
  181. if (request.flags & _DRM_AGP_BUFFER)
  182. return r128_addbufs_agp(inode, filp, cmd, arg);
  183. else
  184. #endif
  185. return -EINVAL;
  186. }
  187. int r128_mapbufs(struct inode *inode, struct file *filp, unsigned int cmd,
  188.  unsigned long arg)
  189. {
  190. drm_file_t *priv = filp->private_data;
  191. drm_device_t *dev = priv->dev;
  192. drm_r128_private_t *dev_priv = dev->dev_private;
  193. drm_device_dma_t *dma = dev->dma;
  194. int  retcode = 0;
  195. const int  zero = 0;
  196. unsigned long  virtual;
  197. unsigned long  address;
  198. drm_buf_map_t  request;
  199. int  i;
  200. if (!dma || !dev_priv || dev_priv->is_pci) return -EINVAL;
  201. DRM_DEBUG("n");
  202. spin_lock(&dev->count_lock);
  203. if (atomic_read(&dev->buf_alloc)) {
  204. spin_unlock(&dev->count_lock);
  205. return -EBUSY;
  206. }
  207. ++dev->buf_use; /* Can't allocate more after this call */
  208. spin_unlock(&dev->count_lock);
  209. if (copy_from_user(&request,
  210.    (drm_buf_map_t *)arg,
  211.    sizeof(request)))
  212. return -EFAULT;
  213. if (request.count >= dma->buf_count) {
  214. if (dma->flags & _DRM_DMA_USE_AGP) {
  215. drm_map_t *map;
  216. map = dev_priv->buffers;
  217. if (!map) {
  218. retcode = -EINVAL;
  219. goto done;
  220. }
  221. down_write(&current->mm->mmap_sem);
  222. virtual = do_mmap(filp, 0, map->size,
  223.   PROT_READ|PROT_WRITE,
  224.   MAP_SHARED,
  225.   (unsigned long)map->offset);
  226. up_write(&current->mm->mmap_sem);
  227. } else {
  228. down_write(&current->mm->mmap_sem);
  229. virtual = do_mmap(filp, 0, dma->byte_count,
  230.   PROT_READ|PROT_WRITE, MAP_SHARED, 0);
  231. up_write(&current->mm->mmap_sem);
  232. }
  233. if (virtual > -1024UL) {
  234. /* Real error */
  235. retcode = (signed long)virtual;
  236. goto done;
  237. }
  238. request.virtual = (void *)virtual;
  239. for (i = 0; i < dma->buf_count; i++) {
  240. if (copy_to_user(&request.list[i].idx,
  241.  &dma->buflist[i]->idx,
  242.  sizeof(request.list[0].idx))) {
  243. retcode = -EFAULT;
  244. goto done;
  245. }
  246. if (copy_to_user(&request.list[i].total,
  247.  &dma->buflist[i]->total,
  248.  sizeof(request.list[0].total))) {
  249. retcode = -EFAULT;
  250. goto done;
  251. }
  252. if (copy_to_user(&request.list[i].used,
  253.  &zero,
  254.  sizeof(zero))) {
  255. retcode = -EFAULT;
  256. goto done;
  257. }
  258. address = virtual + dma->buflist[i]->offset;
  259. if (copy_to_user(&request.list[i].address,
  260.  &address,
  261.  sizeof(address))) {
  262. retcode = -EFAULT;
  263. goto done;
  264. }
  265. }
  266. }
  267.  done:
  268. request.count = dma->buf_count;
  269. DRM_DEBUG("%d buffers, retcode = %dn", request.count, retcode);
  270. if (copy_to_user((drm_buf_map_t *)arg,
  271.  &request,
  272.  sizeof(request)))
  273. return -EFAULT;
  274. return retcode;
  275. }