context.c
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:9k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /* context.c -- IOCTLs for contexts and DMA queues -*- linux-c -*-
  2.  * Created: Tue Feb  2 08:37:54 1999 by faith@precisioninsight.com
  3.  *
  4.  * Copyright 1999 Precision Insight, Inc., Cedar Park, Texas.
  5.  * Copyright 2000 VA Linux Systems, Inc., Sunnyvale, California.
  6.  * All Rights Reserved.
  7.  *
  8.  * Permission is hereby granted, free of charge, to any person obtaining a
  9.  * copy of this software and associated documentation files (the "Software"),
  10.  * to deal in the Software without restriction, including without limitation
  11.  * the rights to use, copy, modify, merge, publish, distribute, sublicense,
  12.  * and/or sell copies of the Software, and to permit persons to whom the
  13.  * Software is furnished to do so, subject to the following conditions:
  14.  * 
  15.  * The above copyright notice and this permission notice (including the next
  16.  * paragraph) shall be included in all copies or substantial portions of the
  17.  * Software.
  18.  * 
  19.  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
  20.  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
  21.  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
  22.  * PRECISION INSIGHT AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM, DAMAGES OR
  23.  * OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE,
  24.  * ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER
  25.  * DEALINGS IN THE SOFTWARE.
  26.  * 
  27.  * Authors:
  28.  *    Rickard E. (Rik) Faith <faith@valinux.com>
  29.  *
  30.  */
  31. #define __NO_VERSION__
  32. #include "drmP.h"
  33. static int drm_init_queue(drm_device_t *dev, drm_queue_t *q, drm_ctx_t *ctx)
  34. {
  35. DRM_DEBUG("n");
  36. if (atomic_read(&q->use_count) != 1
  37.     || atomic_read(&q->finalization)
  38.     || atomic_read(&q->block_count)) {
  39. DRM_ERROR("New queue is already in use: u%d f%d b%dn",
  40.   atomic_read(&q->use_count),
  41.   atomic_read(&q->finalization),
  42.   atomic_read(&q->block_count));
  43. }
  44.   
  45. atomic_set(&q->finalization,  0);
  46. atomic_set(&q->block_count,   0);
  47. atomic_set(&q->block_read,    0);
  48. atomic_set(&q->block_write,   0);
  49. atomic_set(&q->total_queued,  0);
  50. atomic_set(&q->total_flushed, 0);
  51. atomic_set(&q->total_locks,   0);
  52. init_waitqueue_head(&q->write_queue);
  53. init_waitqueue_head(&q->read_queue);
  54. init_waitqueue_head(&q->flush_queue);
  55. q->flags = ctx->flags;
  56. drm_waitlist_create(&q->waitlist, dev->dma->buf_count);
  57. return 0;
  58. }
  59. /* drm_alloc_queue:
  60. PRE: 1) dev->queuelist[0..dev->queue_count] is allocated and will not
  61. disappear (so all deallocation must be done after IOCTLs are off)
  62.      2) dev->queue_count < dev->queue_slots
  63.      3) dev->queuelist[i].use_count == 0 and
  64. dev->queuelist[i].finalization == 0 if i not in use 
  65. POST: 1) dev->queuelist[i].use_count == 1
  66.       2) dev->queue_count < dev->queue_slots */
  67. static int drm_alloc_queue(drm_device_t *dev)
  68. {
  69. int     i;
  70. drm_queue_t *queue;
  71. int     oldslots;
  72. int     newslots;
  73. /* Check for a free queue */
  74. for (i = 0; i < dev->queue_count; i++) {
  75. atomic_inc(&dev->queuelist[i]->use_count);
  76. if (atomic_read(&dev->queuelist[i]->use_count) == 1
  77.     && !atomic_read(&dev->queuelist[i]->finalization)) {
  78. DRM_DEBUG("%d (free)n", i);
  79. return i;
  80. }
  81. atomic_dec(&dev->queuelist[i]->use_count);
  82. }
  83. /* Allocate a new queue */
  84. queue = drm_alloc(sizeof(*queue), DRM_MEM_QUEUES);
  85. if(queue == NULL)
  86. return -ENOMEM;
  87. memset(queue, 0, sizeof(*queue));
  88. down(&dev->struct_sem);
  89. atomic_set(&queue->use_count, 1);
  90. ++dev->queue_count;
  91. if (dev->queue_count >= dev->queue_slots) {
  92. oldslots = dev->queue_slots * sizeof(*dev->queuelist);
  93. if (!dev->queue_slots) dev->queue_slots = 1;
  94. dev->queue_slots *= 2;
  95. newslots = dev->queue_slots * sizeof(*dev->queuelist);
  96. dev->queuelist = drm_realloc(dev->queuelist,
  97.      oldslots,
  98.      newslots,
  99.      DRM_MEM_QUEUES);
  100. if (!dev->queuelist) {
  101. up(&dev->struct_sem);
  102. DRM_DEBUG("out of memoryn");
  103. return -ENOMEM;
  104. }
  105. }
  106. dev->queuelist[dev->queue_count-1] = queue;
  107. up(&dev->struct_sem);
  108. DRM_DEBUG("%d (new)n", dev->queue_count - 1);
  109. return dev->queue_count - 1;
  110. }
  111. int drm_resctx(struct inode *inode, struct file *filp, unsigned int cmd,
  112.        unsigned long arg)
  113. {
  114. drm_ctx_res_t res;
  115. drm_ctx_t ctx;
  116. int i;
  117. DRM_DEBUG("%dn", DRM_RESERVED_CONTEXTS);
  118. if (copy_from_user(&res, (drm_ctx_res_t *)arg, sizeof(res)))
  119. return -EFAULT;
  120. if (res.count >= DRM_RESERVED_CONTEXTS) {
  121. memset(&ctx, 0, sizeof(ctx));
  122. for (i = 0; i < DRM_RESERVED_CONTEXTS; i++) {
  123. ctx.handle = i;
  124. if (copy_to_user(&res.contexts[i],
  125.  &i,
  126.  sizeof(i)))
  127. return -EFAULT;
  128. }
  129. }
  130. res.count = DRM_RESERVED_CONTEXTS;
  131. if (copy_to_user((drm_ctx_res_t *)arg, &res, sizeof(res)))
  132. return -EFAULT;
  133. return 0;
  134. }
  135. int drm_addctx(struct inode *inode, struct file *filp, unsigned int cmd,
  136.        unsigned long arg)
  137. {
  138. drm_file_t *priv = filp->private_data;
  139. drm_device_t *dev = priv->dev;
  140. drm_ctx_t ctx;
  141. if (copy_from_user(&ctx, (drm_ctx_t *)arg, sizeof(ctx)))
  142. return -EFAULT;
  143. if ((ctx.handle = drm_alloc_queue(dev)) == DRM_KERNEL_CONTEXT) {
  144. /* Init kernel's context and get a new one. */
  145. drm_init_queue(dev, dev->queuelist[ctx.handle], &ctx);
  146. ctx.handle = drm_alloc_queue(dev);
  147. }
  148. drm_init_queue(dev, dev->queuelist[ctx.handle], &ctx);
  149. DRM_DEBUG("%dn", ctx.handle);
  150. if (copy_to_user((drm_ctx_t *)arg, &ctx, sizeof(ctx)))
  151. return -EFAULT;
  152. return 0;
  153. }
  154. int drm_modctx(struct inode *inode, struct file *filp, unsigned int cmd,
  155.        unsigned long arg)
  156. {
  157. drm_file_t *priv = filp->private_data;
  158. drm_device_t *dev = priv->dev;
  159. drm_ctx_t ctx;
  160. drm_queue_t *q;
  161. if (copy_from_user(&ctx, (drm_ctx_t *)arg, sizeof(ctx)))
  162. return -EFAULT;
  163. DRM_DEBUG("%dn", ctx.handle);
  164. if (ctx.handle < 0 || ctx.handle >= dev->queue_count) return -EINVAL;
  165. q = dev->queuelist[ctx.handle];
  166. atomic_inc(&q->use_count);
  167. if (atomic_read(&q->use_count) == 1) {
  168. /* No longer in use */
  169. atomic_dec(&q->use_count);
  170. return -EINVAL;
  171. }
  172. if (DRM_BUFCOUNT(&q->waitlist)) {
  173. atomic_dec(&q->use_count);
  174. return -EBUSY;
  175. }
  176. q->flags = ctx.flags;
  177. atomic_dec(&q->use_count);
  178. return 0;
  179. }
  180. int drm_getctx(struct inode *inode, struct file *filp, unsigned int cmd,
  181.        unsigned long arg)
  182. {
  183. drm_file_t *priv = filp->private_data;
  184. drm_device_t *dev = priv->dev;
  185. drm_ctx_t ctx;
  186. drm_queue_t *q;
  187. if (copy_from_user(&ctx, (drm_ctx_t *)arg, sizeof(ctx)))
  188. return -EFAULT;
  189. DRM_DEBUG("%dn", ctx.handle);
  190. if (ctx.handle >= dev->queue_count) return -EINVAL;
  191. q = dev->queuelist[ctx.handle];
  192. atomic_inc(&q->use_count);
  193. if (atomic_read(&q->use_count) == 1) {
  194. /* No longer in use */
  195. atomic_dec(&q->use_count);
  196. return -EINVAL;
  197. }
  198. ctx.flags = q->flags;
  199. atomic_dec(&q->use_count);
  200. if (copy_to_user((drm_ctx_t *)arg, &ctx, sizeof(ctx)))
  201. return -EFAULT;
  202. return 0;
  203. }
  204. int drm_switchctx(struct inode *inode, struct file *filp, unsigned int cmd,
  205.   unsigned long arg)
  206. {
  207. drm_file_t *priv = filp->private_data;
  208. drm_device_t *dev = priv->dev;
  209. drm_ctx_t ctx;
  210. if (copy_from_user(&ctx, (drm_ctx_t *)arg, sizeof(ctx)))
  211. return -EFAULT;
  212. DRM_DEBUG("%dn", ctx.handle);
  213. return drm_context_switch(dev, dev->last_context, ctx.handle);
  214. }
  215. int drm_newctx(struct inode *inode, struct file *filp, unsigned int cmd,
  216.        unsigned long arg)
  217. {
  218. drm_file_t *priv = filp->private_data;
  219. drm_device_t *dev = priv->dev;
  220. drm_ctx_t ctx;
  221. if (copy_from_user(&ctx, (drm_ctx_t *)arg, sizeof(ctx)))
  222. return -EFAULT;
  223. DRM_DEBUG("%dn", ctx.handle);
  224. drm_context_switch_complete(dev, ctx.handle);
  225. return 0;
  226. }
  227. int drm_rmctx(struct inode *inode, struct file *filp, unsigned int cmd,
  228.       unsigned long arg)
  229. {
  230. drm_file_t *priv = filp->private_data;
  231. drm_device_t *dev = priv->dev;
  232. drm_ctx_t ctx;
  233. drm_queue_t *q;
  234. drm_buf_t *buf;
  235. if (copy_from_user(&ctx, (drm_ctx_t *)arg, sizeof(ctx)))
  236. return -EFAULT;
  237. DRM_DEBUG("%dn", ctx.handle);
  238. if (ctx.handle >= dev->queue_count) return -EINVAL;
  239. q = dev->queuelist[ctx.handle];
  240. atomic_inc(&q->use_count);
  241. if (atomic_read(&q->use_count) == 1) {
  242. /* No longer in use */
  243. atomic_dec(&q->use_count);
  244. return -EINVAL;
  245. }
  246. atomic_inc(&q->finalization); /* Mark queue in finalization state */
  247. atomic_sub(2, &q->use_count); /* Mark queue as unused (pending
  248.  finalization) */
  249. while (test_and_set_bit(0, &dev->interrupt_flag)) {
  250. schedule();
  251. if (signal_pending(current)) {
  252. clear_bit(0, &dev->interrupt_flag);
  253. return -EINTR;
  254. }
  255. }
  256. /* Remove queued buffers */
  257. while ((buf = drm_waitlist_get(&q->waitlist))) {
  258. drm_free_buffer(dev, buf);
  259. }
  260. clear_bit(0, &dev->interrupt_flag);
  261. /* Wakeup blocked processes */
  262. wake_up_interruptible(&q->read_queue);
  263. wake_up_interruptible(&q->write_queue);
  264. wake_up_interruptible(&q->flush_queue);
  265. /* Finalization over.  Queue is made
  266.    available when both use_count and
  267.    finalization become 0, which won't
  268.    happen until all the waiting processes
  269.    stop waiting. */
  270. atomic_dec(&q->finalization);
  271. return 0;
  272. }