r128_cce.c
上传用户:jlfgdled
上传日期:2013-04-10
资源大小:33168k
文件大小:34k
源码类别:

Linux/Unix编程

开发平台:

Unix_Linux

  1. /* r128_cce.c -- ATI Rage 128 driver -*- linux-c -*-
  2.  * Created: Wed Apr  5 19:24:19 2000 by kevin@precisioninsight.com
  3.  *
  4.  * Copyright 2000 Precision Insight, Inc., Cedar Park, Texas.
  5.  * Copyright 2000 VA Linux Systems, Inc., Sunnyvale, California.
  6.  * All Rights Reserved.
  7.  *
  8.  * Permission is hereby granted, free of charge, to any person obtaining a
  9.  * copy of this software and associated documentation files (the "Software"),
  10.  * to deal in the Software without restriction, including without limitation
  11.  * the rights to use, copy, modify, merge, publish, distribute, sublicense,
  12.  * and/or sell copies of the Software, and to permit persons to whom the
  13.  * Software is furnished to do so, subject to the following conditions:
  14.  *
  15.  * The above copyright notice and this permission notice (including the next
  16.  * paragraph) shall be included in all copies or substantial portions of the
  17.  * Software.
  18.  *
  19.  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
  20.  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
  21.  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
  22.  * PRECISION INSIGHT AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM, DAMAGES OR
  23.  * OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE,
  24.  * ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER
  25.  * DEALINGS IN THE SOFTWARE.
  26.  *
  27.  * Authors:
  28.  *   Gareth Hughes <gareth@valinux.com>
  29.  *
  30.  */
  31. #define __NO_VERSION__
  32. #include "drmP.h"
  33. #include "r128_drv.h"
  34. #include <linux/interrupt.h> /* For task queue support */
  35. #include <linux/delay.h>
  36. /* FIXME: Temporary CCE packet buffer */
  37. u32 r128_cce_buffer[(1 << 14)] __attribute__ ((aligned (32)));
  38. /* CCE microcode (from ATI) */
  39. static u32 r128_cce_microcode[] = {
  40. 0, 276838400, 0, 268449792, 2, 142, 2, 145, 0, 1076765731, 0,
  41. 1617039951, 0, 774592877, 0, 1987540286, 0, 2307490946U, 0,
  42. 599558925, 0, 589505315, 0, 596487092, 0, 589505315, 1,
  43. 11544576, 1, 206848, 1, 311296, 1, 198656, 2, 912273422, 11,
  44. 262144, 0, 0, 1, 33559837, 1, 7438, 1, 14809, 1, 6615, 12, 28,
  45. 1, 6614, 12, 28, 2, 23, 11, 18874368, 0, 16790922, 1, 409600, 9,
  46. 30, 1, 147854772, 16, 420483072, 3, 8192, 0, 10240, 1, 198656,
  47. 1, 15630, 1, 51200, 10, 34858, 9, 42, 1, 33559823, 2, 10276, 1,
  48. 15717, 1, 15718, 2, 43, 1, 15936948, 1, 570480831, 1, 14715071,
  49. 12, 322123831, 1, 33953125, 12, 55, 1, 33559908, 1, 15718, 2,
  50. 46, 4, 2099258, 1, 526336, 1, 442623, 4, 4194365, 1, 509952, 1,
  51. 459007, 3, 0, 12, 92, 2, 46, 12, 176, 1, 15734, 1, 206848, 1,
  52. 18432, 1, 133120, 1, 100670734, 1, 149504, 1, 165888, 1,
  53. 15975928, 1, 1048576, 6, 3145806, 1, 15715, 16, 2150645232U, 2,
  54. 268449859, 2, 10307, 12, 176, 1, 15734, 1, 15735, 1, 15630, 1,
  55. 15631, 1, 5253120, 6, 3145810, 16, 2150645232U, 1, 15864, 2, 82,
  56. 1, 343310, 1, 1064207, 2, 3145813, 1, 15728, 1, 7817, 1, 15729,
  57. 3, 15730, 12, 92, 2, 98, 1, 16168, 1, 16167, 1, 16002, 1, 16008,
  58. 1, 15974, 1, 15975, 1, 15990, 1, 15976, 1, 15977, 1, 15980, 0,
  59. 15981, 1, 10240, 1, 5253120, 1, 15720, 1, 198656, 6, 110, 1,
  60. 180224, 1, 103824738, 2, 112, 2, 3145839, 0, 536885440, 1,
  61. 114880, 14, 125, 12, 206975, 1, 33559995, 12, 198784, 0,
  62. 33570236, 1, 15803, 0, 15804, 3, 294912, 1, 294912, 3, 442370,
  63. 1, 11544576, 0, 811612160, 1, 12593152, 1, 11536384, 1,
  64. 14024704, 7, 310382726, 0, 10240, 1, 14796, 1, 14797, 1, 14793,
  65. 1, 14794, 0, 14795, 1, 268679168, 1, 9437184, 1, 268449792, 1,
  66. 198656, 1, 9452827, 1, 1075854602, 1, 1075854603, 1, 557056, 1,
  67. 114880, 14, 159, 12, 198784, 1, 1109409213, 12, 198783, 1,
  68. 1107312059, 12, 198784, 1, 1109409212, 2, 162, 1, 1075854781, 1,
  69. 1073757627, 1, 1075854780, 1, 540672, 1, 10485760, 6, 3145894,
  70. 16, 274741248, 9, 168, 3, 4194304, 3, 4209949, 0, 0, 0, 256, 14,
  71. 174, 1, 114857, 1, 33560007, 12, 176, 0, 10240, 1, 114858, 1,
  72. 33560018, 1, 114857, 3, 33560007, 1, 16008, 1, 114874, 1,
  73. 33560360, 1, 114875, 1, 33560154, 0, 15963, 0, 256, 0, 4096, 1,
  74. 409611, 9, 188, 0, 10240, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
  75. 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
  76. 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
  77. 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
  78. 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
  79. 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
  80. 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0
  81. };
  82. #define DO_REMAP(_m) (_m)->handle = drm_ioremap((_m)->offset, (_m)->size)
  83. #define DO_REMAPFREE(_m)                                                    
  84. do {                                                                
  85. if ((_m)->handle && (_m)->size)                             
  86. drm_ioremapfree((_m)->handle, (_m)->size);          
  87. } while (0)
  88. #define DO_FIND_MAP(_m, _o)                                                 
  89. do {                                                                
  90. int _i;                                                     
  91. for (_i = 0; _i < dev->map_count; _i++) {                   
  92. if (dev->maplist[_i]->offset == _o) {               
  93. _m = dev->maplist[_i];                      
  94. break;                                      
  95. }                                                   
  96. }                                                           
  97. } while (0)
  98. int R128_READ_PLL(drm_device_t *dev, int addr)
  99. {
  100. drm_r128_private_t *dev_priv = dev->dev_private;
  101. R128_WRITE8(R128_CLOCK_CNTL_INDEX, addr & 0x1f);
  102. return R128_READ(R128_CLOCK_CNTL_DATA);
  103. }
  104. #if 0
  105. static void r128_status( drm_r128_private_t *dev_priv )
  106. {
  107. printk( "GUI_STAT           = 0x%08xn",
  108. (unsigned int)R128_READ( R128_GUI_STAT ) );
  109. printk( "PM4_STAT           = 0x%08xn",
  110. (unsigned int)R128_READ( R128_PM4_STAT ) );
  111. printk( "PM4_BUFFER_DL_WPTR = 0x%08xn",
  112. (unsigned int)R128_READ( R128_PM4_BUFFER_DL_WPTR ) );
  113. printk( "PM4_BUFFER_DL_RPTR = 0x%08xn",
  114. (unsigned int)R128_READ( R128_PM4_BUFFER_DL_RPTR ) );
  115. printk( "PM4_MICRO_CNTL     = 0x%08xn",
  116. (unsigned int)R128_READ( R128_PM4_MICRO_CNTL ) );
  117. printk( "PM4_BUFFER_CNTL    = 0x%08xn",
  118. (unsigned int)R128_READ( R128_PM4_BUFFER_CNTL ) );
  119. }
  120. #endif
  121. /* ================================================================
  122.  * Engine, FIFO control
  123.  */
  124. static int r128_do_pixcache_flush( drm_r128_private_t *dev_priv )
  125. {
  126. u32 tmp;
  127. int i;
  128. tmp = R128_READ( R128_PC_NGUI_CTLSTAT ) | R128_PC_FLUSH_ALL;
  129. R128_WRITE( R128_PC_NGUI_CTLSTAT, tmp );
  130. for ( i = 0 ; i < dev_priv->usec_timeout ; i++ ) {
  131. if ( !(R128_READ( R128_PC_NGUI_CTLSTAT ) & R128_PC_BUSY) ) {
  132. return 0;
  133. }
  134. udelay( 1 );
  135. }
  136. DRM_ERROR( "%s failed!n", __FUNCTION__ );
  137. return -EBUSY;
  138. }
  139. static int r128_do_wait_for_fifo( drm_r128_private_t *dev_priv, int entries )
  140. {
  141. int i;
  142. for ( i = 0 ; i < dev_priv->usec_timeout ; i++ ) {
  143. int slots = R128_READ( R128_GUI_STAT ) & R128_GUI_FIFOCNT_MASK;
  144. if ( slots >= entries ) return 0;
  145. udelay( 1 );
  146. }
  147. DRM_ERROR( "%s failed!n", __FUNCTION__ );
  148. return -EBUSY;
  149. }
  150. static int r128_do_wait_for_idle( drm_r128_private_t *dev_priv )
  151. {
  152. int i, ret;
  153. ret = r128_do_wait_for_fifo( dev_priv, 64 );
  154. if ( !ret ) return ret;
  155. for ( i = 0 ; i < dev_priv->usec_timeout ; i++ ) {
  156. if ( !(R128_READ( R128_GUI_STAT ) & R128_GUI_ACTIVE) ) {
  157. r128_do_pixcache_flush( dev_priv );
  158. return 0;
  159. }
  160. udelay( 1 );
  161. }
  162. DRM_ERROR( "%s failed!n", __FUNCTION__ );
  163. return -EBUSY;
  164. }
  165. /* ================================================================
  166.  * CCE control, initialization
  167.  */
  168. /* Load the microcode for the CCE */
  169. static void r128_cce_load_microcode( drm_r128_private_t *dev_priv )
  170. {
  171. int i;
  172. r128_do_wait_for_idle( dev_priv );
  173. R128_WRITE( R128_PM4_MICROCODE_ADDR, 0 );
  174. for ( i = 0 ; i < 256 ; i++ ) {
  175. R128_WRITE( R128_PM4_MICROCODE_DATAH,
  176.     r128_cce_microcode[i * 2] );
  177. R128_WRITE( R128_PM4_MICROCODE_DATAL,
  178.     r128_cce_microcode[i * 2 + 1] );
  179. }
  180. }
  181. /* Flush any pending commands to the CCE.  This should only be used just
  182.  * prior to a wait for idle, as it informs the engine that the command
  183.  * stream is ending.
  184.  */
  185. static void r128_do_cce_flush( drm_r128_private_t *dev_priv )
  186. {
  187. u32 tmp;
  188. tmp = R128_READ( R128_PM4_BUFFER_DL_WPTR ) | R128_PM4_BUFFER_DL_DONE;
  189. R128_WRITE( R128_PM4_BUFFER_DL_WPTR, tmp );
  190. }
  191. /* Wait for the CCE to go idle.
  192.  */
  193. static int r128_do_cce_idle( drm_r128_private_t *dev_priv )
  194. {
  195. int i;
  196. for ( i = 0 ; i < dev_priv->usec_timeout ; i++ ) {
  197. if ( *dev_priv->ring.head == dev_priv->ring.tail ) {
  198. int pm4stat = R128_READ( R128_PM4_STAT );
  199. if ( ( (pm4stat & R128_PM4_FIFOCNT_MASK) >=
  200.        dev_priv->cce_fifo_size ) &&
  201.      !(pm4stat & (R128_PM4_BUSY |
  202.   R128_PM4_GUI_ACTIVE)) ) {
  203. return r128_do_pixcache_flush( dev_priv );
  204. }
  205. }
  206. udelay( 1 );
  207. }
  208. #if 0
  209. DRM_ERROR( "failed!n" );
  210. r128_status( dev_priv );
  211. #endif
  212. return -EBUSY;
  213. }
  214. /* Start the Concurrent Command Engine.
  215.  */
  216. static void r128_do_cce_start( drm_r128_private_t *dev_priv )
  217. {
  218. r128_do_wait_for_idle( dev_priv );
  219. R128_WRITE( R128_PM4_BUFFER_CNTL,
  220.     dev_priv->cce_mode | dev_priv->ring.size_l2qw );
  221. R128_READ( R128_PM4_BUFFER_ADDR ); /* as per the sample code */
  222. R128_WRITE( R128_PM4_MICRO_CNTL, R128_PM4_MICRO_FREERUN );
  223. dev_priv->cce_running = 1;
  224. }
  225. /* Reset the Concurrent Command Engine.  This will not flush any pending
  226.  * commangs, so you must wait for the CCE command stream to complete
  227.  * before calling this routine.
  228.  */
  229. static void r128_do_cce_reset( drm_r128_private_t *dev_priv )
  230. {
  231. R128_WRITE( R128_PM4_BUFFER_DL_WPTR, 0 );
  232. R128_WRITE( R128_PM4_BUFFER_DL_RPTR, 0 );
  233. *dev_priv->ring.head = 0;
  234. dev_priv->ring.tail = 0;
  235. }
  236. /* Stop the Concurrent Command Engine.  This will not flush any pending
  237.  * commangs, so you must flush the command stream and wait for the CCE
  238.  * to go idle before calling this routine.
  239.  */
  240. static void r128_do_cce_stop( drm_r128_private_t *dev_priv )
  241. {
  242. R128_WRITE( R128_PM4_MICRO_CNTL, 0 );
  243. R128_WRITE( R128_PM4_BUFFER_CNTL, R128_PM4_NONPM4 );
  244. dev_priv->cce_running = 0;
  245. }
  246. /* Reset the engine.  This will stop the CCE if it is running.
  247.  */
  248. static int r128_do_engine_reset( drm_device_t *dev )
  249. {
  250. drm_r128_private_t *dev_priv = dev->dev_private;
  251. u32 clock_cntl_index, mclk_cntl, gen_reset_cntl;
  252. r128_do_pixcache_flush( dev_priv );
  253. clock_cntl_index = R128_READ( R128_CLOCK_CNTL_INDEX );
  254. mclk_cntl = R128_READ_PLL( dev, R128_MCLK_CNTL );
  255. R128_WRITE_PLL( R128_MCLK_CNTL,
  256. mclk_cntl | R128_FORCE_GCP | R128_FORCE_PIPE3D_CP );
  257. gen_reset_cntl = R128_READ( R128_GEN_RESET_CNTL );
  258. /* Taken from the sample code - do not change */
  259. R128_WRITE( R128_GEN_RESET_CNTL,
  260.     gen_reset_cntl | R128_SOFT_RESET_GUI );
  261. R128_READ( R128_GEN_RESET_CNTL );
  262. R128_WRITE( R128_GEN_RESET_CNTL,
  263.     gen_reset_cntl & ~R128_SOFT_RESET_GUI );
  264. R128_READ( R128_GEN_RESET_CNTL );
  265. R128_WRITE_PLL( R128_MCLK_CNTL, mclk_cntl );
  266. R128_WRITE( R128_CLOCK_CNTL_INDEX, clock_cntl_index );
  267. R128_WRITE( R128_GEN_RESET_CNTL, gen_reset_cntl );
  268. /* Reset the CCE ring */
  269. r128_do_cce_reset( dev_priv );
  270. /* The CCE is no longer running after an engine reset */
  271. dev_priv->cce_running = 0;
  272. /* Reset any pending vertex, indirect buffers */
  273. r128_freelist_reset( dev );
  274. return 0;
  275. }
  276. static void r128_cce_init_ring_buffer( drm_device_t *dev )
  277. {
  278. drm_r128_private_t *dev_priv = dev->dev_private;
  279. u32 ring_start;
  280. u32 tmp;
  281. /* The manual (p. 2) says this address is in "VM space".  This
  282.  * means it's an offset from the start of AGP space.
  283.  */
  284. ring_start = dev_priv->cce_ring->offset - dev->agp->base;
  285. R128_WRITE( R128_PM4_BUFFER_OFFSET, ring_start | R128_AGP_OFFSET );
  286. R128_WRITE( R128_PM4_BUFFER_DL_WPTR, 0 );
  287. R128_WRITE( R128_PM4_BUFFER_DL_RPTR, 0 );
  288. /* DL_RPTR_ADDR is a physical address in AGP space. */
  289. *dev_priv->ring.head = 0;
  290. R128_WRITE( R128_PM4_BUFFER_DL_RPTR_ADDR,
  291.     dev_priv->ring_rptr->offset );
  292. /* Set watermark control */
  293. R128_WRITE( R128_PM4_BUFFER_WM_CNTL,
  294.     ((R128_WATERMARK_L/4) << R128_WMA_SHIFT)
  295.     | ((R128_WATERMARK_M/4) << R128_WMB_SHIFT)
  296.     | ((R128_WATERMARK_N/4) << R128_WMC_SHIFT)
  297.     | ((R128_WATERMARK_K/64) << R128_WB_WM_SHIFT) );
  298. /* Force read.  Why?  Because it's in the examples... */
  299. R128_READ( R128_PM4_BUFFER_ADDR );
  300. /* Turn on bus mastering */
  301. tmp = R128_READ( R128_BUS_CNTL ) & ~R128_BUS_MASTER_DIS;
  302. R128_WRITE( R128_BUS_CNTL, tmp );
  303. }
  304. static int r128_do_init_cce( drm_device_t *dev, drm_r128_init_t *init )
  305. {
  306. drm_r128_private_t *dev_priv;
  307.         int i;
  308. dev_priv = drm_alloc( sizeof(drm_r128_private_t), DRM_MEM_DRIVER );
  309. if ( dev_priv == NULL )
  310. return -ENOMEM;
  311. dev->dev_private = (void *)dev_priv;
  312. memset( dev_priv, 0, sizeof(drm_r128_private_t) );
  313. dev_priv->is_pci = init->is_pci;
  314. /* GH: We don't support PCI cards until PCI GART is implemented.
  315.  * Fail here so we can remove all checks for PCI cards around
  316.  * the CCE ring code.
  317.  */
  318. if ( dev_priv->is_pci ) {
  319. drm_free( dev_priv, sizeof(*dev_priv), DRM_MEM_DRIVER );
  320. dev->dev_private = NULL;
  321. return -EINVAL;
  322. }
  323. dev_priv->usec_timeout = init->usec_timeout;
  324. if ( dev_priv->usec_timeout < 1 ||
  325.      dev_priv->usec_timeout > R128_MAX_USEC_TIMEOUT ) {
  326. drm_free( dev_priv, sizeof(*dev_priv), DRM_MEM_DRIVER );
  327. dev->dev_private = NULL;
  328. return -EINVAL;
  329. }
  330. dev_priv->cce_mode = init->cce_mode;
  331. dev_priv->cce_secure = init->cce_secure;
  332. /* GH: Simple idle check.
  333.  */
  334. atomic_set( &dev_priv->idle_count, 0 );
  335. /* We don't support anything other than bus-mastering ring mode,
  336.  * but the ring can be in either AGP or PCI space for the ring
  337.  * read pointer.
  338.  */
  339. if ( ( init->cce_mode != R128_PM4_192BM ) &&
  340.      ( init->cce_mode != R128_PM4_128BM_64INDBM ) &&
  341.      ( init->cce_mode != R128_PM4_64BM_128INDBM ) &&
  342.      ( init->cce_mode != R128_PM4_64BM_64VCBM_64INDBM ) ) {
  343. drm_free( dev_priv, sizeof(*dev_priv), DRM_MEM_DRIVER );
  344. dev->dev_private = NULL;
  345. return -EINVAL;
  346. }
  347. switch ( init->cce_mode ) {
  348. case R128_PM4_NONPM4:
  349. dev_priv->cce_fifo_size = 0;
  350. break;
  351. case R128_PM4_192PIO:
  352. case R128_PM4_192BM:
  353. dev_priv->cce_fifo_size = 192;
  354. break;
  355. case R128_PM4_128PIO_64INDBM:
  356. case R128_PM4_128BM_64INDBM:
  357. dev_priv->cce_fifo_size = 128;
  358. break;
  359. case R128_PM4_64PIO_128INDBM:
  360. case R128_PM4_64BM_128INDBM:
  361. case R128_PM4_64PIO_64VCBM_64INDBM:
  362. case R128_PM4_64BM_64VCBM_64INDBM:
  363. case R128_PM4_64PIO_64VCPIO_64INDPIO:
  364. dev_priv->cce_fifo_size = 64;
  365. break;
  366. }
  367. dev_priv->fb_bpp = init->fb_bpp;
  368. dev_priv->front_offset = init->front_offset;
  369. dev_priv->front_pitch = init->front_pitch;
  370. dev_priv->back_offset = init->back_offset;
  371. dev_priv->back_pitch = init->back_pitch;
  372. dev_priv->depth_bpp = init->depth_bpp;
  373. dev_priv->depth_offset = init->depth_offset;
  374. dev_priv->depth_pitch = init->depth_pitch;
  375. dev_priv->span_offset = init->span_offset;
  376. dev_priv->front_pitch_offset_c = (((dev_priv->front_pitch/8) << 21) |
  377.   (dev_priv->front_offset >> 5));
  378. dev_priv->back_pitch_offset_c = (((dev_priv->back_pitch/8) << 21) |
  379.  (dev_priv->back_offset >> 5));
  380. dev_priv->depth_pitch_offset_c = (((dev_priv->depth_pitch/8) << 21) |
  381.   (dev_priv->depth_offset >> 5) |
  382.   R128_DST_TILE);
  383. dev_priv->span_pitch_offset_c = (((dev_priv->depth_pitch/8) << 21) |
  384.  (dev_priv->span_offset >> 5));
  385. /* FIXME: We want multiple shared areas, including one shared
  386.  * only by the X Server and kernel module.
  387.  */
  388. for ( i = 0 ; i < dev->map_count ; i++ ) {
  389. if ( dev->maplist[i]->type == _DRM_SHM ) {
  390. dev_priv->sarea = dev->maplist[i];
  391. break;
  392. }
  393. }
  394. DO_FIND_MAP( dev_priv->fb, init->fb_offset );
  395. DO_FIND_MAP( dev_priv->mmio, init->mmio_offset );
  396. DO_FIND_MAP( dev_priv->cce_ring, init->ring_offset );
  397. DO_FIND_MAP( dev_priv->ring_rptr, init->ring_rptr_offset );
  398. DO_FIND_MAP( dev_priv->buffers, init->buffers_offset );
  399. if ( !dev_priv->is_pci ) {
  400. DO_FIND_MAP( dev_priv->agp_textures,
  401.      init->agp_textures_offset );
  402. }
  403. dev_priv->sarea_priv =
  404. (drm_r128_sarea_t *)((u8 *)dev_priv->sarea->handle +
  405.      init->sarea_priv_offset);
  406. DO_REMAP( dev_priv->cce_ring );
  407. DO_REMAP( dev_priv->ring_rptr );
  408. DO_REMAP( dev_priv->buffers );
  409. #if 0
  410. if ( !dev_priv->is_pci ) {
  411. DO_REMAP( dev_priv->agp_textures );
  412. }
  413. #endif
  414. dev_priv->ring.head = ((__volatile__ u32 *)
  415.        dev_priv->ring_rptr->handle);
  416. dev_priv->ring.start = (u32 *)dev_priv->cce_ring->handle;
  417. dev_priv->ring.end = ((u32 *)dev_priv->cce_ring->handle
  418.       + init->ring_size / sizeof(u32));
  419. dev_priv->ring.size = init->ring_size;
  420. dev_priv->ring.size_l2qw = drm_order( init->ring_size / 8 );
  421. dev_priv->ring.tail_mask =
  422. (dev_priv->ring.size / sizeof(u32)) - 1;
  423. dev_priv->sarea_priv->last_frame = 0;
  424. R128_WRITE( R128_LAST_FRAME_REG, dev_priv->sarea_priv->last_frame );
  425. dev_priv->sarea_priv->last_dispatch = 0;
  426. R128_WRITE( R128_LAST_DISPATCH_REG,
  427.     dev_priv->sarea_priv->last_dispatch );
  428. r128_cce_init_ring_buffer( dev );
  429. r128_cce_load_microcode( dev_priv );
  430. r128_do_engine_reset( dev );
  431. return 0;
  432. }
  433. static int r128_do_cleanup_cce( drm_device_t *dev )
  434. {
  435. if ( dev->dev_private ) {
  436. drm_r128_private_t *dev_priv = dev->dev_private;
  437. DO_REMAPFREE( dev_priv->cce_ring );
  438. DO_REMAPFREE( dev_priv->ring_rptr );
  439. DO_REMAPFREE( dev_priv->buffers );
  440. #if 0
  441. if ( !dev_priv->is_pci ) {
  442. DO_REMAPFREE( dev_priv->agp_textures );
  443. }
  444. #endif
  445. drm_free( dev->dev_private, sizeof(drm_r128_private_t),
  446.   DRM_MEM_DRIVER );
  447. dev->dev_private = NULL;
  448. }
  449. return 0;
  450. }
  451. int r128_cce_init( struct inode *inode, struct file *filp,
  452.    unsigned int cmd, unsigned long arg )
  453. {
  454.         drm_file_t *priv = filp->private_data;
  455.         drm_device_t *dev = priv->dev;
  456. drm_r128_init_t init;
  457. if ( copy_from_user( &init, (drm_r128_init_t *)arg, sizeof(init) ) )
  458. return -EFAULT;
  459. switch ( init.func ) {
  460. case R128_INIT_CCE:
  461. return r128_do_init_cce( dev, &init );
  462. case R128_CLEANUP_CCE:
  463. return r128_do_cleanup_cce( dev );
  464. }
  465. return -EINVAL;
  466. }
  467. int r128_cce_start( struct inode *inode, struct file *filp,
  468.     unsigned int cmd, unsigned long arg )
  469. {
  470.         drm_file_t *priv = filp->private_data;
  471.         drm_device_t *dev = priv->dev;
  472. drm_r128_private_t *dev_priv = dev->dev_private;
  473. DRM_DEBUG( "%sn", __FUNCTION__ );
  474. if ( !_DRM_LOCK_IS_HELD( dev->lock.hw_lock->lock ) ||
  475.      dev->lock.pid != current->pid ) {
  476. DRM_ERROR( "%s called without lock heldn", __FUNCTION__ );
  477. return -EINVAL;
  478. }
  479. if ( dev_priv->cce_running || dev_priv->cce_mode == R128_PM4_NONPM4 ) {
  480. DRM_DEBUG( "%s while CCE runningn", __FUNCTION__ );
  481. return 0;
  482. }
  483. r128_do_cce_start( dev_priv );
  484. return 0;
  485. }
  486. /* Stop the CCE.  The engine must have been idled before calling this
  487.  * routine.
  488.  */
  489. int r128_cce_stop( struct inode *inode, struct file *filp,
  490.    unsigned int cmd, unsigned long arg )
  491. {
  492.         drm_file_t *priv = filp->private_data;
  493.         drm_device_t *dev = priv->dev;
  494. drm_r128_private_t *dev_priv = dev->dev_private;
  495. drm_r128_cce_stop_t stop;
  496. int ret;
  497. DRM_DEBUG( "%sn", __FUNCTION__ );
  498. if ( !_DRM_LOCK_IS_HELD( dev->lock.hw_lock->lock ) ||
  499.      dev->lock.pid != current->pid ) {
  500. DRM_ERROR( "%s called without lock heldn", __FUNCTION__ );
  501. return -EINVAL;
  502. }
  503. if ( copy_from_user( &stop, (drm_r128_init_t *)arg, sizeof(stop) ) )
  504. return -EFAULT;
  505. /* Flush any pending CCE commands.  This ensures any outstanding
  506.  * commands are exectuted by the engine before we turn it off.
  507.  */
  508. if ( stop.flush ) {
  509. r128_do_cce_flush( dev_priv );
  510. }
  511. /* If we fail to make the engine go idle, we return an error
  512.  * code so that the DRM ioctl wrapper can try again.
  513.  */
  514. if ( stop.idle ) {
  515. ret = r128_do_cce_idle( dev_priv );
  516. if ( ret < 0 ) return ret;
  517. }
  518. /* Finally, we can turn off the CCE.  If the engine isn't idle,
  519.  * we will get some dropped triangles as they won't be fully
  520.  * rendered before the CCE is shut down.
  521.  */
  522. r128_do_cce_stop( dev_priv );
  523. /* Reset the engine */
  524. r128_do_engine_reset( dev );
  525. return 0;
  526. }
  527. /* Just reset the CCE ring.  Called as part of an X Server engine reset.
  528.  */
  529. int r128_cce_reset( struct inode *inode, struct file *filp,
  530.     unsigned int cmd, unsigned long arg )
  531. {
  532.         drm_file_t *priv = filp->private_data;
  533.         drm_device_t *dev = priv->dev;
  534. drm_r128_private_t *dev_priv = dev->dev_private;
  535. DRM_DEBUG( "%sn", __FUNCTION__ );
  536. if ( !_DRM_LOCK_IS_HELD( dev->lock.hw_lock->lock ) ||
  537.      dev->lock.pid != current->pid ) {
  538. DRM_ERROR( "%s called without lock heldn", __FUNCTION__ );
  539. return -EINVAL;
  540. }
  541. if ( !dev_priv ) {
  542. DRM_DEBUG( "%s called before init donen", __FUNCTION__ );
  543. return -EINVAL;
  544. }
  545. r128_do_cce_reset( dev_priv );
  546. /* The CCE is no longer running after an engine reset */
  547. dev_priv->cce_running = 0;
  548. return 0;
  549. }
  550. int r128_cce_idle( struct inode *inode, struct file *filp,
  551.    unsigned int cmd, unsigned long arg )
  552. {
  553.         drm_file_t *priv = filp->private_data;
  554.         drm_device_t *dev = priv->dev;
  555. drm_r128_private_t *dev_priv = dev->dev_private;
  556. DRM_DEBUG( "%sn", __FUNCTION__ );
  557. if ( !_DRM_LOCK_IS_HELD( dev->lock.hw_lock->lock ) ||
  558.      dev->lock.pid != current->pid ) {
  559. DRM_ERROR( "%s called without lock heldn", __FUNCTION__ );
  560. return -EINVAL;
  561. }
  562. if ( dev_priv->cce_running ) {
  563. r128_do_cce_flush( dev_priv );
  564. }
  565. return r128_do_cce_idle( dev_priv );
  566. }
  567. int r128_engine_reset( struct inode *inode, struct file *filp,
  568.        unsigned int cmd, unsigned long arg )
  569. {
  570.         drm_file_t *priv = filp->private_data;
  571.         drm_device_t *dev = priv->dev;
  572. DRM_DEBUG( "%sn", __FUNCTION__ );
  573. if ( !_DRM_LOCK_IS_HELD( dev->lock.hw_lock->lock ) ||
  574.      dev->lock.pid != current->pid ) {
  575. DRM_ERROR( "%s called without lock heldn", __FUNCTION__ );
  576. return -EINVAL;
  577. }
  578. return r128_do_engine_reset( dev );
  579. }
  580. /* ================================================================
  581.  * Freelist management
  582.  */
  583. #define R128_BUFFER_USED 0xffffffff
  584. #define R128_BUFFER_FREE 0
  585. #if 0
  586. static int r128_freelist_init( drm_device_t *dev )
  587. {
  588. drm_device_dma_t *dma = dev->dma;
  589. drm_r128_private_t *dev_priv = dev->dev_private;
  590. drm_buf_t *buf;
  591. drm_r128_buf_priv_t *buf_priv;
  592. drm_r128_freelist_t *entry;
  593. int i;
  594. dev_priv->head = drm_alloc( sizeof(drm_r128_freelist_t),
  595.     DRM_MEM_DRIVER );
  596. if ( dev_priv->head == NULL )
  597. return -ENOMEM;
  598. memset( dev_priv->head, 0, sizeof(drm_r128_freelist_t) );
  599. dev_priv->head->age = R128_BUFFER_USED;
  600. for ( i = 0 ; i < dma->buf_count ; i++ ) {
  601. buf = dma->buflist[i];
  602. buf_priv = buf->dev_private;
  603. entry = drm_alloc( sizeof(drm_r128_freelist_t),
  604.    DRM_MEM_DRIVER );
  605. if ( !entry ) return -ENOMEM;
  606. entry->age = R128_BUFFER_FREE;
  607. entry->buf = buf;
  608. entry->prev = dev_priv->head;
  609. entry->next = dev_priv->head->next;
  610. if ( !entry->next )
  611. dev_priv->tail = entry;
  612. buf_priv->discard = 0;
  613. buf_priv->dispatched = 0;
  614. buf_priv->list_entry = entry;
  615. dev_priv->head->next = entry;
  616. if ( dev_priv->head->next )
  617. dev_priv->head->next->prev = entry;
  618. }
  619. return 0;
  620. }
  621. #endif
  622. drm_buf_t *r128_freelist_get( drm_device_t *dev )
  623. {
  624. drm_device_dma_t *dma = dev->dma;
  625. drm_r128_private_t *dev_priv = dev->dev_private;
  626. drm_r128_buf_priv_t *buf_priv;
  627. drm_buf_t *buf;
  628. int i, t;
  629. /* FIXME: Optimize -- use freelist code */
  630. for ( i = 0 ; i < dma->buf_count ; i++ ) {
  631. buf = dma->buflist[i];
  632. buf_priv = buf->dev_private;
  633. if ( buf->pid == 0 )
  634. return buf;
  635. }
  636. for ( t = 0 ; t < dev_priv->usec_timeout ; t++ ) {
  637. u32 done_age = R128_READ( R128_LAST_DISPATCH_REG );
  638. for ( i = 0 ; i < dma->buf_count ; i++ ) {
  639. buf = dma->buflist[i];
  640. buf_priv = buf->dev_private;
  641. if ( buf->pending && buf_priv->age <= done_age ) {
  642. /* The buffer has been processed, so it
  643.  * can now be used.
  644.  */
  645. buf->pending = 0;
  646. return buf;
  647. }
  648. }
  649. udelay( 1 );
  650. }
  651. DRM_ERROR( "returning NULL!n" );
  652. return NULL;
  653. }
  654. void r128_freelist_reset( drm_device_t *dev )
  655. {
  656. drm_device_dma_t *dma = dev->dma;
  657. int i;
  658. for ( i = 0 ; i < dma->buf_count ; i++ ) {
  659. drm_buf_t *buf = dma->buflist[i];
  660. drm_r128_buf_priv_t *buf_priv = buf->dev_private;
  661. buf_priv->age = 0;
  662. }
  663. }
  664. /* ================================================================
  665.  * CCE packet submission
  666.  */
  667. int r128_wait_ring( drm_r128_private_t *dev_priv, int n )
  668. {
  669. drm_r128_ring_buffer_t *ring = &dev_priv->ring;
  670. int i;
  671. for ( i = 0 ; i < dev_priv->usec_timeout ; i++ ) {
  672. ring->space = *ring->head - ring->tail;
  673. if ( ring->space <= 0 )
  674. ring->space += ring->size;
  675. if ( ring->space >= n )
  676. return 0;
  677. udelay( 1 );
  678. }
  679. return -EBUSY;
  680. }
  681. void r128_update_ring_snapshot( drm_r128_private_t *dev_priv )
  682. {
  683. drm_r128_ring_buffer_t *ring = &dev_priv->ring;
  684. ring->space = *ring->head - ring->tail;
  685. #if R128_PERFORMANCE_BOXES
  686. if ( ring->space == 0 )
  687. atomic_inc( &dev_priv->idle_count );
  688. #endif
  689. if ( ring->space <= 0 )
  690. ring->space += ring->size;
  691. }
  692. #if 0
  693. static int r128_verify_command( drm_r128_private_t *dev_priv,
  694. u32 cmd, int *size )
  695. {
  696. int writing = 1;
  697. *size = 0;
  698. switch ( cmd & R128_CCE_PACKET_MASK ) {
  699. case R128_CCE_PACKET0:
  700. if ( (cmd & R128_CCE_PACKET0_REG_MASK) <= (0x1004 >> 2) &&
  701.      (cmd & R128_CCE_PACKET0_REG_MASK) !=
  702.      (R128_PM4_VC_FPU_SETUP >> 2) ) {
  703. writing = 0;
  704. }
  705. *size = ((cmd & R128_CCE_PACKET_COUNT_MASK) >> 16) + 2;
  706. break;
  707. case R128_CCE_PACKET1:
  708. if ( (cmd & R128_CCE_PACKET1_REG0_MASK) <= (0x1004 >> 2) &&
  709.      (cmd & R128_CCE_PACKET1_REG0_MASK) !=
  710.      (R128_PM4_VC_FPU_SETUP >> 2) ) {
  711. writing = 0;
  712. }
  713. if ( (cmd & R128_CCE_PACKET1_REG1_MASK) <= (0x1004 << 9) &&
  714.      (cmd & R128_CCE_PACKET1_REG1_MASK) !=
  715.      (R128_PM4_VC_FPU_SETUP << 9) ) {
  716. writing = 0;
  717. }
  718. *size = 3;
  719. break;
  720. case R128_CCE_PACKET2:
  721. break;
  722. case R128_CCE_PACKET3:
  723. *size = ((cmd & R128_CCE_PACKET_COUNT_MASK) >> 16) + 2;
  724. break;
  725. }
  726. return writing;
  727. }
  728. static int r128_submit_packet_ring_secure( drm_r128_private_t *dev_priv,
  729.    u32 *commands, int *count )
  730. {
  731. #if 0
  732. int write = dev_priv->sarea_priv->ring_write;
  733. int *write_ptr = dev_priv->ring_start + write;
  734. int c = *count;
  735. u32 tmp = 0;
  736. int psize = 0;
  737. int writing = 1;
  738. int timeout;
  739. while ( c > 0 ) {
  740. tmp = *commands++;
  741. if ( !psize ) {
  742. writing = r128_verify_command( dev_priv, tmp, &psize );
  743. }
  744. psize--;
  745. if ( writing ) {
  746. write++;
  747. *write_ptr++ = tmp;
  748. }
  749. if ( write >= dev_priv->ring_entries ) {
  750. write = 0;
  751. write_ptr = dev_priv->ring_start;
  752. }
  753. timeout = 0;
  754. while ( write == *dev_priv->ring_read_ptr ) {
  755. R128_READ( R128_PM4_BUFFER_DL_RPTR );
  756. if ( timeout++ >= dev_priv->usec_timeout )
  757. return -EBUSY;
  758. udelay( 1 );
  759. }
  760. c--;
  761. }
  762. if ( write < 32 ) {
  763. memcpy( dev_priv->ring_end,
  764. dev_priv->ring_start,
  765. write * sizeof(u32) );
  766. }
  767. /* Make sure WC cache has been flushed */
  768. r128_flush_write_combine();
  769. dev_priv->sarea_priv->ring_write = write;
  770. R128_WRITE( R128_PM4_BUFFER_DL_WPTR, write );
  771. *count = 0;
  772. #endif
  773. return 0;
  774. }
  775. static int r128_submit_packet_ring_insecure( drm_r128_private_t *dev_priv,
  776.      u32 *commands, int *count )
  777. {
  778. #if 0
  779. int write = dev_priv->sarea_priv->ring_write;
  780. int *write_ptr = dev_priv->ring_start + write;
  781. int c = *count;
  782. int timeout;
  783. while ( c > 0 ) {
  784. write++;
  785. *write_ptr++ = *commands++;
  786. if ( write >= dev_priv->ring_entries ) {
  787. write = 0;
  788. write_ptr = dev_priv->ring_start;
  789. }
  790. timeout = 0;
  791. while ( write == *dev_priv->ring_read_ptr ) {
  792. R128_READ( R128_PM4_BUFFER_DL_RPTR );
  793. if ( timeout++ >= dev_priv->usec_timeout )
  794. return -EBUSY;
  795. udelay( 1 );
  796. }
  797. c--;
  798. }
  799. if ( write < 32 ) {
  800. memcpy( dev_priv->ring_end,
  801. dev_priv->ring_start,
  802. write * sizeof(u32) );
  803. }
  804. /* Make sure WC cache has been flushed */
  805. r128_flush_write_combine();
  806. dev_priv->sarea_priv->ring_write = write;
  807. R128_WRITE( R128_PM4_BUFFER_DL_WPTR, write );
  808. *count = 0;
  809. #endif
  810. return 0;
  811. }
  812. #endif
  813. /* Internal packet submission routine.  This uses the insecure versions
  814.  * of the packet submission functions, and thus should only be used for
  815.  * packets generated inside the kernel module.
  816.  */
  817. int r128_do_submit_packet( drm_r128_private_t *dev_priv,
  818.    u32 *buffer, int count )
  819. {
  820. int c = count;
  821. int ret = 0;
  822. #if 0
  823. int left = 0;
  824. if ( c >= dev_priv->ring_entries ) {
  825. c = dev_priv->ring_entries - 1;
  826. left = count - c;
  827. }
  828. /* Since this is only used by the kernel we can use the
  829.  * insecure ring buffer submit packet routine.
  830.  */
  831. ret = r128_submit_packet_ring_insecure( dev_priv, buffer, &c );
  832. c += left;
  833. #endif
  834. return ( ret < 0 ) ? ret : c;
  835. }
  836. /* External packet submission routine.  This uses the secure versions
  837.  * by default, and can thus submit packets received from user space.
  838.  */
  839. int r128_cce_packet( struct inode *inode, struct file *filp,
  840.      unsigned int cmd, unsigned long arg )
  841. {
  842.         drm_file_t *priv = filp->private_data;
  843.         drm_device_t *dev = priv->dev;
  844. drm_r128_private_t *dev_priv = dev->dev_private;
  845. drm_r128_packet_t packet;
  846. u32 *buffer;
  847. int c;
  848. int size;
  849. int ret = 0;
  850. #if 0
  851. /* GH: Disable packet submission for now.
  852.  */
  853. return -EINVAL;
  854. #endif
  855. if ( !_DRM_LOCK_IS_HELD( dev->lock.hw_lock->lock ) ||
  856.      dev->lock.pid != current->pid ) {
  857. DRM_ERROR( "r128_submit_packet called without lock heldn" );
  858. return -EINVAL;
  859. }
  860. if ( copy_from_user( &packet, (drm_r128_packet_t *)arg,
  861.      sizeof(packet) ) )
  862. return -EFAULT;
  863. #if 0
  864. c = packet.count;
  865. size = c * sizeof(*buffer);
  866. {
  867. int left = 0;
  868. if ( c >= dev_priv->ring_entries ) {
  869. c = dev_priv->ring_entries - 1;
  870. size = c * sizeof(*buffer);
  871. left = packet.count - c;
  872. }
  873. buffer = kmalloc( size, 0 );
  874. if ( buffer == NULL)
  875. return -ENOMEM;
  876. if ( copy_from_user( buffer, packet.buffer, size ) )
  877. return -EFAULT;
  878. if ( dev_priv->cce_secure ) {
  879. ret = r128_submit_packet_ring_secure( dev_priv,
  880.       buffer, &c );
  881. } else {
  882. ret = r128_submit_packet_ring_insecure( dev_priv,
  883. buffer, &c );
  884. }
  885. c += left;
  886. }
  887. kfree( buffer );
  888. #else
  889. c = 0;
  890. #endif
  891. packet.count = c;
  892. if ( copy_to_user( (drm_r128_packet_t *)arg, &packet,
  893.    sizeof(packet) ) )
  894. return -EFAULT;
  895. if ( ret ) {
  896. return ret;
  897. } else if ( c > 0 ) {
  898. return -EAGAIN;
  899. }
  900. return 0;
  901. }
  902. #if 0
  903. static int r128_send_vertbufs( drm_device_t *dev, drm_r128_vertex_t *v )
  904. {
  905. drm_device_dma_t    *dma      = dev->dma;
  906. drm_r128_private_t  *dev_priv = dev->dev_private;
  907. drm_r128_buf_priv_t *buf_priv;
  908. drm_buf_t           *buf;
  909. int                  i, ret;
  910. RING_LOCALS;
  911. /* Make sure we have valid data */
  912. for (i = 0; i < v->send_count; i++) {
  913. int idx = v->send_indices[i];
  914. if (idx < 0 || idx >= dma->buf_count) {
  915. DRM_ERROR("Index %d (of %d max)n",
  916.   idx, dma->buf_count - 1);
  917. return -EINVAL;
  918. }
  919. buf = dma->buflist[idx];
  920. if (buf->pid != current->pid) {
  921. DRM_ERROR("Process %d using buffer owned by %dn",
  922.   current->pid, buf->pid);
  923. return -EINVAL;
  924. }
  925. if (buf->pending) {
  926. DRM_ERROR("Sending pending buffer:"
  927.   " buffer %d, offset %dn",
  928.   v->send_indices[i], i);
  929. return -EINVAL;
  930. }
  931. }
  932. /* Wait for idle, if we've wrapped to make sure that all pending
  933.            buffers have been processed */
  934. if (dev_priv->submit_age == R128_MAX_VBUF_AGE) {
  935. if ((ret = r128_do_cce_idle(dev)) < 0) return ret;
  936. dev_priv->submit_age = 0;
  937. r128_freelist_reset(dev);
  938. }
  939. /* Make sure WC cache has been flushed (if in PIO mode) */
  940. if (!dev_priv->cce_is_bm_mode) r128_flush_write_combine();
  941. /* FIXME: Add support for sending vertex buffer to the CCE here
  942.    instead of in client code.  The v->prim holds the primitive
  943.    type that should be drawn.  Loop over the list buffers in
  944.    send_indices[] and submit a packet for each VB.
  945.    This will require us to loop over the clip rects here as
  946.    well, which implies that we extend the kernel driver to allow
  947.    cliprects to be stored here.  Note that the cliprects could
  948.    possibly come from the X server instead of the client, but
  949.    this will require additional changes to the DRI to allow for
  950.    this optimization. */
  951. /* Submit a CCE packet that writes submit_age to R128_VB_AGE_REG */
  952. #if 0
  953. cce_buffer[0] = R128CCE0(R128_CCE_PACKET0, R128_VB_AGE_REG, 0);
  954. cce_buffer[1] = dev_priv->submit_age;
  955. if ((ret = r128_do_submit_packet(dev, cce_buffer, 2)) < 0) {
  956. /* Until we add support for sending VBs to the CCE in
  957.    this routine, we can recover from this error.  After
  958.    we add that support, we won't be able to easily
  959.    recover, so we will probably have to implement
  960.    another mechanism for handling timeouts from packets
  961.    submitted directly by the kernel. */
  962. return ret;
  963. }
  964. #else
  965. BEGIN_RING( 2 );
  966. OUT_RING( CCE_PACKET0( R128_VB_AGE_REG, 0 ) );
  967. OUT_RING( dev_priv->submit_age );
  968. ADVANCE_RING();
  969. #endif
  970. /* Now that the submit packet request has succeeded, we can mark
  971.            the buffers as pending */
  972. for (i = 0; i < v->send_count; i++) {
  973. buf = dma->buflist[v->send_indices[i]];
  974. buf->pending = 1;
  975. buf_priv      = buf->dev_private;
  976. buf_priv->age = dev_priv->submit_age;
  977. }
  978. dev_priv->submit_age++;
  979. return 0;
  980. }
  981. #endif
  982. static int r128_cce_get_buffers( drm_device_t *dev, drm_dma_t *d )
  983. {
  984. int i;
  985. drm_buf_t *buf;
  986. for ( i = d->granted_count ; i < d->request_count ; i++ ) {
  987. buf = r128_freelist_get( dev );
  988. if ( !buf ) return -EAGAIN;
  989. buf->pid = current->pid;
  990. if ( copy_to_user( &d->request_indices[i], &buf->idx,
  991.    sizeof(buf->idx) ) )
  992. return -EFAULT;
  993. if ( copy_to_user( &d->request_sizes[i], &buf->total,
  994.    sizeof(buf->total) ) )
  995. return -EFAULT;
  996. d->granted_count++;
  997. }
  998. return 0;
  999. }
  1000. int r128_cce_buffers( struct inode *inode, struct file *filp,
  1001.       unsigned int cmd, unsigned long arg )
  1002. {
  1003. drm_file_t *priv = filp->private_data;
  1004. drm_device_t *dev = priv->dev;
  1005. drm_device_dma_t *dma = dev->dma;
  1006. int ret = 0;
  1007. drm_dma_t d;
  1008. if ( copy_from_user( &d, (drm_dma_t *) arg, sizeof(d) ) )
  1009. return -EFAULT;
  1010. if ( !_DRM_LOCK_IS_HELD( dev->lock.hw_lock->lock ) ||
  1011.      dev->lock.pid != current->pid ) {
  1012. DRM_ERROR( "%s called without lock heldn", __FUNCTION__ );
  1013. return -EINVAL;
  1014. }
  1015. /* Please don't send us buffers.
  1016.  */
  1017. if ( d.send_count != 0 ) {
  1018. DRM_ERROR( "Process %d trying to send %d buffers via drmDMAn",
  1019.    current->pid, d.send_count );
  1020. return -EINVAL;
  1021. }
  1022. /* We'll send you buffers.
  1023.  */
  1024. if ( d.request_count < 0 || d.request_count > dma->buf_count ) {
  1025. DRM_ERROR( "Process %d trying to get %d buffers (of %d max)n",
  1026.    current->pid, d.request_count, dma->buf_count );
  1027. return -EINVAL;
  1028. }
  1029. d.granted_count = 0;
  1030. if ( d.request_count ) {
  1031. ret = r128_cce_get_buffers( dev, &d );
  1032. }
  1033. if ( copy_to_user( (drm_dma_t *) arg, &d, sizeof(d) ) )
  1034. return -EFAULT;
  1035. return ret;
  1036. }