dma.c
上传用户:jlfgdled
上传日期:2013-04-10
资源大小:33168k
文件大小:14k
源码类别:

Linux/Unix编程

开发平台:

Unix_Linux

  1. /* dma.c -- DMA IOCTL and function support -*- linux-c -*-
  2.  * Created: Fri Mar 19 14:30:16 1999 by faith@precisioninsight.com
  3.  *
  4.  * Copyright 1999, 2000 Precision Insight, Inc., Cedar Park, Texas.
  5.  * Copyright 2000 VA Linux Systems, Inc., Sunnyvale, California.
  6.  * All Rights Reserved.
  7.  *
  8.  * Permission is hereby granted, free of charge, to any person obtaining a
  9.  * copy of this software and associated documentation files (the "Software"),
  10.  * to deal in the Software without restriction, including without limitation
  11.  * the rights to use, copy, modify, merge, publish, distribute, sublicense,
  12.  * and/or sell copies of the Software, and to permit persons to whom the
  13.  * Software is furnished to do so, subject to the following conditions:
  14.  * 
  15.  * The above copyright notice and this permission notice (including the next
  16.  * paragraph) shall be included in all copies or substantial portions of the
  17.  * Software.
  18.  * 
  19.  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
  20.  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
  21.  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
  22.  * PRECISION INSIGHT AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM, DAMAGES OR
  23.  * OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE,
  24.  * ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER
  25.  * DEALINGS IN THE SOFTWARE.
  26.  * 
  27.  * Authors:
  28.  *    Rickard E. (Rik) Faith <faith@valinuxa.com>
  29.  *
  30.  */
  31. #define __NO_VERSION__
  32. #include "drmP.h"
  33. #include <linux/interrupt.h> /* For task queue support */
  34. void drm_dma_setup(drm_device_t *dev)
  35. {
  36. int i;
  37. if (!(dev->dma = drm_alloc(sizeof(*dev->dma), DRM_MEM_DRIVER))) {
  38.                 printk(KERN_ERR "drm_dma_setup: can't drm_alloc dev->dma");
  39.                 return;
  40.         }       
  41. memset(dev->dma, 0, sizeof(*dev->dma));
  42. for (i = 0; i <= DRM_MAX_ORDER; i++)
  43. memset(&dev->dma->bufs[i], 0, sizeof(dev->dma->bufs[0]));
  44. }
  45. void drm_dma_takedown(drm_device_t *dev)
  46. {
  47. drm_device_dma_t  *dma = dev->dma;
  48. int   i, j;
  49. if (!dma) return;
  50. /* Clear dma buffers */
  51. for (i = 0; i <= DRM_MAX_ORDER; i++) {
  52. if (dma->bufs[i].seg_count) {
  53. DRM_DEBUG("order %d: buf_count = %d,"
  54.   " seg_count = %dn",
  55.   i,
  56.   dma->bufs[i].buf_count,
  57.   dma->bufs[i].seg_count);
  58. for (j = 0; j < dma->bufs[i].seg_count; j++) {
  59. drm_free_pages(dma->bufs[i].seglist[j],
  60.        dma->bufs[i].page_order,
  61.        DRM_MEM_DMA);
  62. }
  63. drm_free(dma->bufs[i].seglist,
  64.  dma->bufs[i].seg_count
  65.  * sizeof(*dma->bufs[0].seglist),
  66.  DRM_MEM_SEGS);
  67. }
  68.     if(dma->bufs[i].buf_count) {
  69.     for(j = 0; j < dma->bufs[i].buf_count; j++) {
  70.    if(dma->bufs[i].buflist[j].dev_private) {
  71.       drm_free(dma->bufs[i].buflist[j].dev_private,
  72.        dma->bufs[i].buflist[j].dev_priv_size,
  73.        DRM_MEM_BUFS);
  74.    }
  75. }
  76.     drm_free(dma->bufs[i].buflist,
  77.  dma->bufs[i].buf_count *
  78.  sizeof(*dma->bufs[0].buflist),
  79.  DRM_MEM_BUFS);
  80.     drm_freelist_destroy(&dma->bufs[i].freelist);
  81. }
  82. }
  83. if (dma->buflist) {
  84. drm_free(dma->buflist,
  85.  dma->buf_count * sizeof(*dma->buflist),
  86.  DRM_MEM_BUFS);
  87. }
  88. if (dma->pagelist) {
  89. drm_free(dma->pagelist,
  90.  dma->page_count * sizeof(*dma->pagelist),
  91.  DRM_MEM_PAGES);
  92. }
  93. drm_free(dev->dma, sizeof(*dev->dma), DRM_MEM_DRIVER);
  94. dev->dma = NULL;
  95. }
  96. #if DRM_DMA_HISTOGRAM
  97. /* This is slow, but is useful for debugging. */
  98. int drm_histogram_slot(unsigned long count)
  99. {
  100. int value = DRM_DMA_HISTOGRAM_INITIAL;
  101. int slot;
  102. for (slot = 0;
  103.      slot < DRM_DMA_HISTOGRAM_SLOTS;
  104.      ++slot, value = DRM_DMA_HISTOGRAM_NEXT(value)) {
  105. if (count < value) return slot;
  106. }
  107. return DRM_DMA_HISTOGRAM_SLOTS - 1;
  108. }
  109. void drm_histogram_compute(drm_device_t *dev, drm_buf_t *buf)
  110. {
  111. cycles_t queued_to_dispatched;
  112. cycles_t dispatched_to_completed;
  113. cycles_t completed_to_freed;
  114. int  q2d, d2c, c2f, q2c, q2f;
  115. if (buf->time_queued) {
  116. queued_to_dispatched = (buf->time_dispatched
  117.    - buf->time_queued);
  118. dispatched_to_completed = (buf->time_completed
  119.    - buf->time_dispatched);
  120. completed_to_freed = (buf->time_freed
  121.    - buf->time_completed);
  122. q2d = drm_histogram_slot(queued_to_dispatched);
  123. d2c = drm_histogram_slot(dispatched_to_completed);
  124. c2f = drm_histogram_slot(completed_to_freed);
  125. q2c = drm_histogram_slot(queued_to_dispatched
  126.  + dispatched_to_completed);
  127. q2f = drm_histogram_slot(queued_to_dispatched
  128.  + dispatched_to_completed
  129.  + completed_to_freed);
  130. atomic_inc(&dev->histo.total);
  131. atomic_inc(&dev->histo.queued_to_dispatched[q2d]);
  132. atomic_inc(&dev->histo.dispatched_to_completed[d2c]);
  133. atomic_inc(&dev->histo.completed_to_freed[c2f]);
  134. atomic_inc(&dev->histo.queued_to_completed[q2c]);
  135. atomic_inc(&dev->histo.queued_to_freed[q2f]);
  136. }
  137. buf->time_queued     = 0;
  138. buf->time_dispatched = 0;
  139. buf->time_completed  = 0;
  140. buf->time_freed      = 0;
  141. }
  142. #endif
  143. void drm_free_buffer(drm_device_t *dev, drm_buf_t *buf)
  144. {
  145. drm_device_dma_t *dma = dev->dma;
  146. if (!buf) return;
  147. buf->waiting  = 0;
  148. buf->pending  = 0;
  149. buf->pid      = 0;
  150. buf->used     = 0;
  151. #if DRM_DMA_HISTOGRAM
  152. buf->time_completed = get_cycles();
  153. #endif
  154. if (waitqueue_active(&buf->dma_wait)) {
  155. wake_up_interruptible(&buf->dma_wait);
  156. } else {
  157. /* If processes are waiting, the last one
  158.    to wake will put the buffer on the free
  159.    list.  If no processes are waiting, we
  160.    put the buffer on the freelist here. */
  161. drm_freelist_put(dev, &dma->bufs[buf->order].freelist, buf);
  162. }
  163. }
  164. void drm_reclaim_buffers(drm_device_t *dev, pid_t pid)
  165. {
  166. drm_device_dma_t *dma = dev->dma;
  167. int  i;
  168. if (!dma) return;
  169. for (i = 0; i < dma->buf_count; i++) {
  170. if (dma->buflist[i]->pid == pid) {
  171. switch (dma->buflist[i]->list) {
  172. case DRM_LIST_NONE:
  173. drm_free_buffer(dev, dma->buflist[i]);
  174. break;
  175. case DRM_LIST_WAIT:
  176. dma->buflist[i]->list = DRM_LIST_RECLAIM;
  177. break;
  178. default:
  179. /* Buffer already on hardware. */
  180. break;
  181. }
  182. }
  183. }
  184. }
  185. int drm_context_switch(drm_device_t *dev, int old, int new)
  186. {
  187. char     buf[64];
  188. drm_queue_t *q;
  189. atomic_inc(&dev->total_ctx);
  190. if (test_and_set_bit(0, &dev->context_flag)) {
  191. DRM_ERROR("Reentering -- FIXMEn");
  192. return -EBUSY;
  193. }
  194. #if DRM_DMA_HISTOGRAM
  195. dev->ctx_start = get_cycles();
  196. #endif
  197. DRM_DEBUG("Context switch from %d to %dn", old, new);
  198. if (new >= dev->queue_count) {
  199. clear_bit(0, &dev->context_flag);
  200. return -EINVAL;
  201. }
  202. if (new == dev->last_context) {
  203. clear_bit(0, &dev->context_flag);
  204. return 0;
  205. }
  206. q = dev->queuelist[new];
  207. atomic_inc(&q->use_count);
  208. if (atomic_read(&q->use_count) == 1) {
  209. atomic_dec(&q->use_count);
  210. clear_bit(0, &dev->context_flag);
  211. return -EINVAL;
  212. }
  213. if (drm_flags & DRM_FLAG_NOCTX) {
  214. drm_context_switch_complete(dev, new);
  215. } else {
  216. sprintf(buf, "C %d %dn", old, new);
  217. drm_write_string(dev, buf);
  218. }
  219. atomic_dec(&q->use_count);
  220. return 0;
  221. }
  222. int drm_context_switch_complete(drm_device_t *dev, int new)
  223. {
  224. drm_device_dma_t *dma = dev->dma;
  225. dev->last_context = new;  /* PRE/POST: This is the _only_ writer. */
  226. dev->last_switch  = jiffies;
  227. if (!_DRM_LOCK_IS_HELD(dev->lock.hw_lock->lock)) {
  228. DRM_ERROR("Lock isn't held after context switchn");
  229. }
  230. if (!dma || !(dma->next_buffer && dma->next_buffer->while_locked)) {
  231. if (drm_lock_free(dev, &dev->lock.hw_lock->lock,
  232.   DRM_KERNEL_CONTEXT)) {
  233. DRM_ERROR("Cannot free lockn");
  234. }
  235. }
  236. #if DRM_DMA_HISTOGRAM
  237. atomic_inc(&dev->histo.ctx[drm_histogram_slot(get_cycles()
  238.       - dev->ctx_start)]);
  239.    
  240. #endif
  241. clear_bit(0, &dev->context_flag);
  242. wake_up_interruptible(&dev->context_wait);
  243. return 0;
  244. }
  245. void drm_clear_next_buffer(drm_device_t *dev)
  246. {
  247. drm_device_dma_t *dma = dev->dma;
  248. dma->next_buffer = NULL;
  249. if (dma->next_queue && !DRM_BUFCOUNT(&dma->next_queue->waitlist)) {
  250. wake_up_interruptible(&dma->next_queue->flush_queue);
  251. }
  252. dma->next_queue  = NULL;
  253. }
  254. int drm_select_queue(drm_device_t *dev, void (*wrapper)(unsigned long))
  255. {
  256. int    i;
  257. int    candidate = -1;
  258. int    j      = jiffies;
  259. if (!dev) {
  260. DRM_ERROR("No devicen");
  261. return -1;
  262. }
  263. if (!dev->queuelist || !dev->queuelist[DRM_KERNEL_CONTEXT]) {
  264. /* This only happens between the time the
  265.    interrupt is initialized and the time
  266.    the queues are initialized. */
  267. return -1;
  268. }
  269. /* Doing "while locked" DMA? */
  270. if (DRM_WAITCOUNT(dev, DRM_KERNEL_CONTEXT)) {
  271. return DRM_KERNEL_CONTEXT;
  272. }
  273. /* If there are buffers on the last_context
  274.    queue, and we have not been executing
  275.    this context very long, continue to
  276.    execute this context. */
  277. if (dev->last_switch <= j
  278.     && dev->last_switch + DRM_TIME_SLICE > j
  279.     && DRM_WAITCOUNT(dev, dev->last_context)) {
  280. return dev->last_context;
  281. }
  282. /* Otherwise, find a candidate */
  283. for (i = dev->last_checked + 1; i < dev->queue_count; i++) {
  284. if (DRM_WAITCOUNT(dev, i)) {
  285. candidate = dev->last_checked = i;
  286. break;
  287. }
  288. }
  289. if (candidate < 0) {
  290. for (i = 0; i < dev->queue_count; i++) {
  291. if (DRM_WAITCOUNT(dev, i)) {
  292. candidate = dev->last_checked = i;
  293. break;
  294. }
  295. }
  296. }
  297. if (wrapper
  298.     && candidate >= 0
  299.     && candidate != dev->last_context
  300.     && dev->last_switch <= j
  301.     && dev->last_switch + DRM_TIME_SLICE > j) {
  302. if (dev->timer.expires != dev->last_switch + DRM_TIME_SLICE) {
  303. del_timer(&dev->timer);
  304. dev->timer.function = wrapper;
  305. dev->timer.data     = (unsigned long)dev;
  306. dev->timer.expires  = dev->last_switch+DRM_TIME_SLICE;
  307. add_timer(&dev->timer);
  308. }
  309. return -1;
  310. }
  311. return candidate;
  312. }
  313. int drm_dma_enqueue(drm_device_t *dev, drm_dma_t *d)
  314. {
  315. int   i;
  316. drm_queue_t   *q;
  317. drm_buf_t   *buf;
  318. int   idx;
  319. int   while_locked = 0;
  320. drm_device_dma_t  *dma = dev->dma;
  321. DECLARE_WAITQUEUE(entry, current);
  322. DRM_DEBUG("%dn", d->send_count);
  323. if (d->flags & _DRM_DMA_WHILE_LOCKED) {
  324. int context = dev->lock.hw_lock->lock;
  325. if (!_DRM_LOCK_IS_HELD(context)) {
  326. DRM_ERROR("No lock held during "while locked""
  327.   " requestn");
  328. return -EINVAL;
  329. }
  330. if (d->context != _DRM_LOCKING_CONTEXT(context)
  331.     && _DRM_LOCKING_CONTEXT(context) != DRM_KERNEL_CONTEXT) {
  332. DRM_ERROR("Lock held by %d while %d makes"
  333.   " "while locked" requestn",
  334.   _DRM_LOCKING_CONTEXT(context),
  335.   d->context);
  336. return -EINVAL;
  337. }
  338. q = dev->queuelist[DRM_KERNEL_CONTEXT];
  339. while_locked = 1;
  340. } else {
  341. q = dev->queuelist[d->context];
  342. }
  343. atomic_inc(&q->use_count);
  344. if (atomic_read(&q->block_write)) {
  345. add_wait_queue(&q->write_queue, &entry);
  346. atomic_inc(&q->block_count);
  347. for (;;) {
  348. current->state = TASK_INTERRUPTIBLE;
  349. if (!atomic_read(&q->block_write)) break;
  350. schedule();
  351. if (signal_pending(current)) {
  352. atomic_dec(&q->use_count);
  353. remove_wait_queue(&q->write_queue, &entry);
  354. return -EINTR;
  355. }
  356. }
  357. atomic_dec(&q->block_count);
  358. current->state = TASK_RUNNING;
  359. remove_wait_queue(&q->write_queue, &entry);
  360. }
  361. for (i = 0; i < d->send_count; i++) {
  362. idx = d->send_indices[i];
  363. if (idx < 0 || idx >= dma->buf_count) {
  364. atomic_dec(&q->use_count);
  365. DRM_ERROR("Index %d (of %d max)n",
  366.   d->send_indices[i], dma->buf_count - 1);
  367. return -EINVAL;
  368. }
  369. buf = dma->buflist[ idx ];
  370. if (buf->pid != current->pid) {
  371. atomic_dec(&q->use_count);
  372. DRM_ERROR("Process %d using buffer owned by %dn",
  373.   current->pid, buf->pid);
  374. return -EINVAL;
  375. }
  376. if (buf->list != DRM_LIST_NONE) {
  377. atomic_dec(&q->use_count);
  378. DRM_ERROR("Process %d using buffer %d on list %dn",
  379.   current->pid, buf->idx, buf->list);
  380. }
  381. buf->used   = d->send_sizes[i];
  382. buf->while_locked = while_locked;
  383. buf->context   = d->context;
  384. if (!buf->used) {
  385. DRM_ERROR("Queueing 0 length buffern");
  386. }
  387. if (buf->pending) {
  388. atomic_dec(&q->use_count);
  389. DRM_ERROR("Queueing pending buffer:"
  390.   " buffer %d, offset %dn",
  391.   d->send_indices[i], i);
  392. return -EINVAL;
  393. }
  394. if (buf->waiting) {
  395. atomic_dec(&q->use_count);
  396. DRM_ERROR("Queueing waiting buffer:"
  397.   " buffer %d, offset %dn",
  398.   d->send_indices[i], i);
  399. return -EINVAL;
  400. }
  401. buf->waiting = 1;
  402. if (atomic_read(&q->use_count) == 1
  403.     || atomic_read(&q->finalization)) {
  404. drm_free_buffer(dev, buf);
  405. } else {
  406. drm_waitlist_put(&q->waitlist, buf);
  407. atomic_inc(&q->total_queued);
  408. }
  409. }
  410. atomic_dec(&q->use_count);
  411. return 0;
  412. }
  413. static int drm_dma_get_buffers_of_order(drm_device_t *dev, drm_dma_t *d,
  414. int order)
  415. {
  416. int   i;
  417. drm_buf_t   *buf;
  418. drm_device_dma_t  *dma = dev->dma;
  419. for (i = d->granted_count; i < d->request_count; i++) {
  420. buf = drm_freelist_get(&dma->bufs[order].freelist,
  421.        d->flags & _DRM_DMA_WAIT);
  422. if (!buf) break;
  423. if (buf->pending || buf->waiting) {
  424. DRM_ERROR("Free buffer %d in use by %d (w%d, p%d)n",
  425.   buf->idx,
  426.   buf->pid,
  427.   buf->waiting,
  428.   buf->pending);
  429. }
  430. buf->pid     = current->pid;
  431. if (copy_to_user(&d->request_indices[i],
  432.  &buf->idx,
  433.  sizeof(buf->idx)))
  434. return -EFAULT;
  435. if (copy_to_user(&d->request_sizes[i],
  436.  &buf->total,
  437.  sizeof(buf->total)))
  438. return -EFAULT;
  439. ++d->granted_count;
  440. }
  441. return 0;
  442. }
  443. int drm_dma_get_buffers(drm_device_t *dev, drm_dma_t *dma)
  444. {
  445. int   order;
  446. int   retcode = 0;
  447. int   tmp_order;
  448. order = drm_order(dma->request_size);
  449. dma->granted_count = 0;
  450. retcode    = drm_dma_get_buffers_of_order(dev, dma, order);
  451. if (dma->granted_count < dma->request_count
  452.     && (dma->flags & _DRM_DMA_SMALLER_OK)) {
  453. for (tmp_order = order - 1;
  454.      !retcode
  455.      && dma->granted_count < dma->request_count
  456.      && tmp_order >= DRM_MIN_ORDER;
  457.      --tmp_order) {
  458. retcode = drm_dma_get_buffers_of_order(dev, dma,
  459.        tmp_order);
  460. }
  461. }
  462. if (dma->granted_count < dma->request_count
  463.     && (dma->flags & _DRM_DMA_LARGER_OK)) {
  464. for (tmp_order = order + 1;
  465.      !retcode
  466.      && dma->granted_count < dma->request_count
  467.      && tmp_order <= DRM_MAX_ORDER;
  468.      ++tmp_order) {
  469. retcode = drm_dma_get_buffers_of_order(dev, dma,
  470.        tmp_order);
  471. }
  472. }
  473. return 0;
  474. }