r128_cce.c
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:28k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /* r128_cce.c -- ATI Rage 128 driver -*- linux-c -*-
  2.  * Created: Wed Apr  5 19:24:19 2000 by kevin@precisioninsight.com
  3.  *
  4.  * Copyright 2000 Precision Insight, Inc., Cedar Park, Texas.
  5.  * Copyright 2000 VA Linux Systems, Inc., Sunnyvale, California.
  6.  * All Rights Reserved.
  7.  *
  8.  * Permission is hereby granted, free of charge, to any person obtaining a
  9.  * copy of this software and associated documentation files (the "Software"),
  10.  * to deal in the Software without restriction, including without limitation
  11.  * the rights to use, copy, modify, merge, publish, distribute, sublicense,
  12.  * and/or sell copies of the Software, and to permit persons to whom the
  13.  * Software is furnished to do so, subject to the following conditions:
  14.  *
  15.  * The above copyright notice and this permission notice (including the next
  16.  * paragraph) shall be included in all copies or substantial portions of the
  17.  * Software.
  18.  *
  19.  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
  20.  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
  21.  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
  22.  * PRECISION INSIGHT AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM, DAMAGES OR
  23.  * OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE,
  24.  * ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER
  25.  * DEALINGS IN THE SOFTWARE.
  26.  *
  27.  * Authors:
  28.  *    Gareth Hughes <gareth@valinux.com>
  29.  */
  30. #define __NO_VERSION__
  31. #include "r128.h"
  32. #include "drmP.h"
  33. #include "r128_drv.h"
  34. #include <linux/interrupt.h> /* For task queue support */
  35. #include <linux/delay.h>
  36. #define R128_FIFO_DEBUG 0
  37. /* CCE microcode (from ATI) */
  38. static u32 r128_cce_microcode[] = {
  39. 0, 276838400, 0, 268449792, 2, 142, 2, 145, 0, 1076765731, 0,
  40. 1617039951, 0, 774592877, 0, 1987540286, 0, 2307490946U, 0,
  41. 599558925, 0, 589505315, 0, 596487092, 0, 589505315, 1,
  42. 11544576, 1, 206848, 1, 311296, 1, 198656, 2, 912273422, 11,
  43. 262144, 0, 0, 1, 33559837, 1, 7438, 1, 14809, 1, 6615, 12, 28,
  44. 1, 6614, 12, 28, 2, 23, 11, 18874368, 0, 16790922, 1, 409600, 9,
  45. 30, 1, 147854772, 16, 420483072, 3, 8192, 0, 10240, 1, 198656,
  46. 1, 15630, 1, 51200, 10, 34858, 9, 42, 1, 33559823, 2, 10276, 1,
  47. 15717, 1, 15718, 2, 43, 1, 15936948, 1, 570480831, 1, 14715071,
  48. 12, 322123831, 1, 33953125, 12, 55, 1, 33559908, 1, 15718, 2,
  49. 46, 4, 2099258, 1, 526336, 1, 442623, 4, 4194365, 1, 509952, 1,
  50. 459007, 3, 0, 12, 92, 2, 46, 12, 176, 1, 15734, 1, 206848, 1,
  51. 18432, 1, 133120, 1, 100670734, 1, 149504, 1, 165888, 1,
  52. 15975928, 1, 1048576, 6, 3145806, 1, 15715, 16, 2150645232U, 2,
  53. 268449859, 2, 10307, 12, 176, 1, 15734, 1, 15735, 1, 15630, 1,
  54. 15631, 1, 5253120, 6, 3145810, 16, 2150645232U, 1, 15864, 2, 82,
  55. 1, 343310, 1, 1064207, 2, 3145813, 1, 15728, 1, 7817, 1, 15729,
  56. 3, 15730, 12, 92, 2, 98, 1, 16168, 1, 16167, 1, 16002, 1, 16008,
  57. 1, 15974, 1, 15975, 1, 15990, 1, 15976, 1, 15977, 1, 15980, 0,
  58. 15981, 1, 10240, 1, 5253120, 1, 15720, 1, 198656, 6, 110, 1,
  59. 180224, 1, 103824738, 2, 112, 2, 3145839, 0, 536885440, 1,
  60. 114880, 14, 125, 12, 206975, 1, 33559995, 12, 198784, 0,
  61. 33570236, 1, 15803, 0, 15804, 3, 294912, 1, 294912, 3, 442370,
  62. 1, 11544576, 0, 811612160, 1, 12593152, 1, 11536384, 1,
  63. 14024704, 7, 310382726, 0, 10240, 1, 14796, 1, 14797, 1, 14793,
  64. 1, 14794, 0, 14795, 1, 268679168, 1, 9437184, 1, 268449792, 1,
  65. 198656, 1, 9452827, 1, 1075854602, 1, 1075854603, 1, 557056, 1,
  66. 114880, 14, 159, 12, 198784, 1, 1109409213, 12, 198783, 1,
  67. 1107312059, 12, 198784, 1, 1109409212, 2, 162, 1, 1075854781, 1,
  68. 1073757627, 1, 1075854780, 1, 540672, 1, 10485760, 6, 3145894,
  69. 16, 274741248, 9, 168, 3, 4194304, 3, 4209949, 0, 0, 0, 256, 14,
  70. 174, 1, 114857, 1, 33560007, 12, 176, 0, 10240, 1, 114858, 1,
  71. 33560018, 1, 114857, 3, 33560007, 1, 16008, 1, 114874, 1,
  72. 33560360, 1, 114875, 1, 33560154, 0, 15963, 0, 256, 0, 4096, 1,
  73. 409611, 9, 188, 0, 10240, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
  74. 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
  75. 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
  76. 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
  77. 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
  78. 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
  79. 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0
  80. };
  81. int R128_READ_PLL(drm_device_t *dev, int addr)
  82. {
  83. drm_r128_private_t *dev_priv = dev->dev_private;
  84. R128_WRITE8(R128_CLOCK_CNTL_INDEX, addr & 0x1f);
  85. return R128_READ(R128_CLOCK_CNTL_DATA);
  86. }
  87. #if R128_FIFO_DEBUG
  88. static void r128_status( drm_r128_private_t *dev_priv )
  89. {
  90. printk( "GUI_STAT           = 0x%08xn",
  91. (unsigned int)R128_READ( R128_GUI_STAT ) );
  92. printk( "PM4_STAT           = 0x%08xn",
  93. (unsigned int)R128_READ( R128_PM4_STAT ) );
  94. printk( "PM4_BUFFER_DL_WPTR = 0x%08xn",
  95. (unsigned int)R128_READ( R128_PM4_BUFFER_DL_WPTR ) );
  96. printk( "PM4_BUFFER_DL_RPTR = 0x%08xn",
  97. (unsigned int)R128_READ( R128_PM4_BUFFER_DL_RPTR ) );
  98. printk( "PM4_MICRO_CNTL     = 0x%08xn",
  99. (unsigned int)R128_READ( R128_PM4_MICRO_CNTL ) );
  100. printk( "PM4_BUFFER_CNTL    = 0x%08xn",
  101. (unsigned int)R128_READ( R128_PM4_BUFFER_CNTL ) );
  102. }
  103. #endif
  104. /* ================================================================
  105.  * Engine, FIFO control
  106.  */
  107. static int r128_do_pixcache_flush( drm_r128_private_t *dev_priv )
  108. {
  109. u32 tmp;
  110. int i;
  111. tmp = R128_READ( R128_PC_NGUI_CTLSTAT ) | R128_PC_FLUSH_ALL;
  112. R128_WRITE( R128_PC_NGUI_CTLSTAT, tmp );
  113. for ( i = 0 ; i < dev_priv->usec_timeout ; i++ ) {
  114. if ( !(R128_READ( R128_PC_NGUI_CTLSTAT ) & R128_PC_BUSY) ) {
  115. return 0;
  116. }
  117. udelay( 1 );
  118. }
  119. #if R128_FIFO_DEBUG
  120. DRM_ERROR( "%s failed!n", __FUNCTION__ );
  121. #endif
  122. return -EBUSY;
  123. }
  124. static int r128_do_wait_for_fifo( drm_r128_private_t *dev_priv, int entries )
  125. {
  126. int i;
  127. for ( i = 0 ; i < dev_priv->usec_timeout ; i++ ) {
  128. int slots = R128_READ( R128_GUI_STAT ) & R128_GUI_FIFOCNT_MASK;
  129. if ( slots >= entries ) return 0;
  130. udelay( 1 );
  131. }
  132. #if R128_FIFO_DEBUG
  133. DRM_ERROR( "%s failed!n", __FUNCTION__ );
  134. #endif
  135. return -EBUSY;
  136. }
  137. int r128_do_wait_for_idle( drm_r128_private_t *dev_priv )
  138. {
  139. int i, ret;
  140. ret = r128_do_wait_for_fifo( dev_priv, 64 );
  141. if ( ret < 0 ) return ret;
  142. for ( i = 0 ; i < dev_priv->usec_timeout ; i++ ) {
  143. if ( !(R128_READ( R128_GUI_STAT ) & R128_GUI_ACTIVE) ) {
  144. r128_do_pixcache_flush( dev_priv );
  145. return 0;
  146. }
  147. udelay( 1 );
  148. }
  149. #if R128_FIFO_DEBUG
  150. DRM_ERROR( "%s failed!n", __FUNCTION__ );
  151. #endif
  152. return -EBUSY;
  153. }
  154. /* ================================================================
  155.  * CCE control, initialization
  156.  */
  157. /* Load the microcode for the CCE */
  158. static void r128_cce_load_microcode( drm_r128_private_t *dev_priv )
  159. {
  160. int i;
  161. DRM_DEBUG( "%sn", __FUNCTION__ );
  162. r128_do_wait_for_idle( dev_priv );
  163. R128_WRITE( R128_PM4_MICROCODE_ADDR, 0 );
  164. for ( i = 0 ; i < 256 ; i++ ) {
  165. R128_WRITE( R128_PM4_MICROCODE_DATAH,
  166.     r128_cce_microcode[i * 2] );
  167. R128_WRITE( R128_PM4_MICROCODE_DATAL,
  168.     r128_cce_microcode[i * 2 + 1] );
  169. }
  170. }
  171. /* Flush any pending commands to the CCE.  This should only be used just
  172.  * prior to a wait for idle, as it informs the engine that the command
  173.  * stream is ending.
  174.  */
  175. static void r128_do_cce_flush( drm_r128_private_t *dev_priv )
  176. {
  177. u32 tmp;
  178. tmp = R128_READ( R128_PM4_BUFFER_DL_WPTR ) | R128_PM4_BUFFER_DL_DONE;
  179. R128_WRITE( R128_PM4_BUFFER_DL_WPTR, tmp );
  180. }
  181. /* Wait for the CCE to go idle.
  182.  */
  183. int r128_do_cce_idle( drm_r128_private_t *dev_priv )
  184. {
  185. int i;
  186. for ( i = 0 ; i < dev_priv->usec_timeout ; i++ ) {
  187. if ( GET_RING_HEAD( &dev_priv->ring ) == dev_priv->ring.tail ) {
  188. int pm4stat = R128_READ( R128_PM4_STAT );
  189. if ( ( (pm4stat & R128_PM4_FIFOCNT_MASK) >=
  190.        dev_priv->cce_fifo_size ) &&
  191.      !(pm4stat & (R128_PM4_BUSY |
  192.   R128_PM4_GUI_ACTIVE)) ) {
  193. return r128_do_pixcache_flush( dev_priv );
  194. }
  195. }
  196. udelay( 1 );
  197. }
  198. #if R128_FIFO_DEBUG
  199. DRM_ERROR( "failed!n" );
  200. r128_status( dev_priv );
  201. #endif
  202. return -EBUSY;
  203. }
  204. /* Start the Concurrent Command Engine.
  205.  */
  206. static void r128_do_cce_start( drm_r128_private_t *dev_priv )
  207. {
  208. r128_do_wait_for_idle( dev_priv );
  209. R128_WRITE( R128_PM4_BUFFER_CNTL,
  210.     dev_priv->cce_mode | dev_priv->ring.size_l2qw );
  211. R128_READ( R128_PM4_BUFFER_ADDR ); /* as per the sample code */
  212. R128_WRITE( R128_PM4_MICRO_CNTL, R128_PM4_MICRO_FREERUN );
  213. dev_priv->cce_running = 1;
  214. }
  215. /* Reset the Concurrent Command Engine.  This will not flush any pending
  216.  * commands, so you must wait for the CCE command stream to complete
  217.  * before calling this routine.
  218.  */
  219. static void r128_do_cce_reset( drm_r128_private_t *dev_priv )
  220. {
  221. R128_WRITE( R128_PM4_BUFFER_DL_WPTR, 0 );
  222. R128_WRITE( R128_PM4_BUFFER_DL_RPTR, 0 );
  223. SET_RING_HEAD( &dev_priv->ring, 0 );
  224. dev_priv->ring.tail = 0;
  225. }
  226. /* Stop the Concurrent Command Engine.  This will not flush any pending
  227.  * commands, so you must flush the command stream and wait for the CCE
  228.  * to go idle before calling this routine.
  229.  */
  230. static void r128_do_cce_stop( drm_r128_private_t *dev_priv )
  231. {
  232. R128_WRITE( R128_PM4_MICRO_CNTL, 0 );
  233. R128_WRITE( R128_PM4_BUFFER_CNTL, R128_PM4_NONPM4 );
  234. dev_priv->cce_running = 0;
  235. }
  236. /* Reset the engine.  This will stop the CCE if it is running.
  237.  */
  238. static int r128_do_engine_reset( drm_device_t *dev )
  239. {
  240. drm_r128_private_t *dev_priv = dev->dev_private;
  241. u32 clock_cntl_index, mclk_cntl, gen_reset_cntl;
  242. r128_do_pixcache_flush( dev_priv );
  243. clock_cntl_index = R128_READ( R128_CLOCK_CNTL_INDEX );
  244. mclk_cntl = R128_READ_PLL( dev, R128_MCLK_CNTL );
  245. R128_WRITE_PLL( R128_MCLK_CNTL,
  246. mclk_cntl | R128_FORCE_GCP | R128_FORCE_PIPE3D_CP );
  247. gen_reset_cntl = R128_READ( R128_GEN_RESET_CNTL );
  248. /* Taken from the sample code - do not change */
  249. R128_WRITE( R128_GEN_RESET_CNTL,
  250.     gen_reset_cntl | R128_SOFT_RESET_GUI );
  251. R128_READ( R128_GEN_RESET_CNTL );
  252. R128_WRITE( R128_GEN_RESET_CNTL,
  253.     gen_reset_cntl & ~R128_SOFT_RESET_GUI );
  254. R128_READ( R128_GEN_RESET_CNTL );
  255. R128_WRITE_PLL( R128_MCLK_CNTL, mclk_cntl );
  256. R128_WRITE( R128_CLOCK_CNTL_INDEX, clock_cntl_index );
  257. R128_WRITE( R128_GEN_RESET_CNTL, gen_reset_cntl );
  258. /* Reset the CCE ring */
  259. r128_do_cce_reset( dev_priv );
  260. /* The CCE is no longer running after an engine reset */
  261. dev_priv->cce_running = 0;
  262. /* Reset any pending vertex, indirect buffers */
  263. r128_freelist_reset( dev );
  264. return 0;
  265. }
  266. static void r128_cce_init_ring_buffer( drm_device_t *dev,
  267.        drm_r128_private_t *dev_priv )
  268. {
  269. u32 ring_start;
  270. u32 tmp;
  271. DRM_DEBUG( "%sn", __FUNCTION__ );
  272. /* The manual (p. 2) says this address is in "VM space".  This
  273.  * means it's an offset from the start of AGP space.
  274.  */
  275. #if __REALLY_HAVE_AGP
  276. if ( !dev_priv->is_pci )
  277. ring_start = dev_priv->cce_ring->offset - dev->agp->base;
  278. else
  279. #endif
  280. ring_start = dev_priv->cce_ring->offset - dev->sg->handle;
  281. R128_WRITE( R128_PM4_BUFFER_OFFSET, ring_start | R128_AGP_OFFSET );
  282. R128_WRITE( R128_PM4_BUFFER_DL_WPTR, 0 );
  283. R128_WRITE( R128_PM4_BUFFER_DL_RPTR, 0 );
  284. /* DL_RPTR_ADDR is a physical address in AGP space. */
  285. SET_RING_HEAD( &dev_priv->ring, 0 );
  286. if ( !dev_priv->is_pci ) {
  287. R128_WRITE( R128_PM4_BUFFER_DL_RPTR_ADDR,
  288.     dev_priv->ring_rptr->offset );
  289. } else {
  290. drm_sg_mem_t *entry = dev->sg;
  291. unsigned long tmp_ofs, page_ofs;
  292. tmp_ofs = dev_priv->ring_rptr->offset - dev->sg->handle;
  293. page_ofs = tmp_ofs >> PAGE_SHIFT;
  294. R128_WRITE( R128_PM4_BUFFER_DL_RPTR_ADDR,
  295.           entry->busaddr[page_ofs]);
  296. DRM_DEBUG( "ring rptr: offset=0x%08x handle=0x%08lxn",
  297.    entry->busaddr[page_ofs],
  298.          entry->handle + tmp_ofs );
  299. }
  300. /* Set watermark control */
  301. R128_WRITE( R128_PM4_BUFFER_WM_CNTL,
  302.     ((R128_WATERMARK_L/4) << R128_WMA_SHIFT)
  303.     | ((R128_WATERMARK_M/4) << R128_WMB_SHIFT)
  304.     | ((R128_WATERMARK_N/4) << R128_WMC_SHIFT)
  305.     | ((R128_WATERMARK_K/64) << R128_WB_WM_SHIFT) );
  306. /* Force read.  Why?  Because it's in the examples... */
  307. R128_READ( R128_PM4_BUFFER_ADDR );
  308. /* Turn on bus mastering */
  309. tmp = R128_READ( R128_BUS_CNTL ) & ~R128_BUS_MASTER_DIS;
  310. R128_WRITE( R128_BUS_CNTL, tmp );
  311. }
  312. static int r128_do_init_cce( drm_device_t *dev, drm_r128_init_t *init )
  313. {
  314. drm_r128_private_t *dev_priv;
  315. struct list_head *list;
  316. DRM_DEBUG( "%sn", __FUNCTION__ );
  317. dev_priv = DRM(alloc)( sizeof(drm_r128_private_t), DRM_MEM_DRIVER );
  318. if ( dev_priv == NULL )
  319. return -ENOMEM;
  320. memset( dev_priv, 0, sizeof(drm_r128_private_t) );
  321. dev_priv->is_pci = init->is_pci;
  322. if ( dev_priv->is_pci && !dev->sg ) {
  323. DRM_ERROR( "PCI GART memory not allocated!n" );
  324. dev->dev_private = (void *)dev_priv;
  325. r128_do_cleanup_cce( dev );
  326. return -EINVAL;
  327. }
  328. dev_priv->usec_timeout = init->usec_timeout;
  329. if ( dev_priv->usec_timeout < 1 ||
  330.      dev_priv->usec_timeout > R128_MAX_USEC_TIMEOUT ) {
  331. DRM_DEBUG( "TIMEOUT problem!n" );
  332. dev->dev_private = (void *)dev_priv;
  333. r128_do_cleanup_cce( dev );
  334. return -EINVAL;
  335. }
  336. dev_priv->cce_mode = init->cce_mode;
  337. /* GH: Simple idle check.
  338.  */
  339. atomic_set( &dev_priv->idle_count, 0 );
  340. /* We don't support anything other than bus-mastering ring mode,
  341.  * but the ring can be in either AGP or PCI space for the ring
  342.  * read pointer.
  343.  */
  344. if ( ( init->cce_mode != R128_PM4_192BM ) &&
  345.      ( init->cce_mode != R128_PM4_128BM_64INDBM ) &&
  346.      ( init->cce_mode != R128_PM4_64BM_128INDBM ) &&
  347.      ( init->cce_mode != R128_PM4_64BM_64VCBM_64INDBM ) ) {
  348. DRM_DEBUG( "Bad cce_mode!n" );
  349. dev->dev_private = (void *)dev_priv;
  350. r128_do_cleanup_cce( dev );
  351. return -EINVAL;
  352. }
  353. switch ( init->cce_mode ) {
  354. case R128_PM4_NONPM4:
  355. dev_priv->cce_fifo_size = 0;
  356. break;
  357. case R128_PM4_192PIO:
  358. case R128_PM4_192BM:
  359. dev_priv->cce_fifo_size = 192;
  360. break;
  361. case R128_PM4_128PIO_64INDBM:
  362. case R128_PM4_128BM_64INDBM:
  363. dev_priv->cce_fifo_size = 128;
  364. break;
  365. case R128_PM4_64PIO_128INDBM:
  366. case R128_PM4_64BM_128INDBM:
  367. case R128_PM4_64PIO_64VCBM_64INDBM:
  368. case R128_PM4_64BM_64VCBM_64INDBM:
  369. case R128_PM4_64PIO_64VCPIO_64INDPIO:
  370. dev_priv->cce_fifo_size = 64;
  371. break;
  372. }
  373. switch ( init->fb_bpp ) {
  374. case 16:
  375. dev_priv->color_fmt = R128_DATATYPE_RGB565;
  376. break;
  377. case 32:
  378. default:
  379. dev_priv->color_fmt = R128_DATATYPE_ARGB8888;
  380. break;
  381. }
  382. dev_priv->front_offset = init->front_offset;
  383. dev_priv->front_pitch = init->front_pitch;
  384. dev_priv->back_offset = init->back_offset;
  385. dev_priv->back_pitch = init->back_pitch;
  386. switch ( init->depth_bpp ) {
  387. case 16:
  388. dev_priv->depth_fmt = R128_DATATYPE_RGB565;
  389. break;
  390. case 24:
  391. case 32:
  392. default:
  393. dev_priv->depth_fmt = R128_DATATYPE_ARGB8888;
  394. break;
  395. }
  396. dev_priv->depth_offset = init->depth_offset;
  397. dev_priv->depth_pitch = init->depth_pitch;
  398. dev_priv->span_offset = init->span_offset;
  399. dev_priv->front_pitch_offset_c = (((dev_priv->front_pitch/8) << 21) |
  400.   (dev_priv->front_offset >> 5));
  401. dev_priv->back_pitch_offset_c = (((dev_priv->back_pitch/8) << 21) |
  402.  (dev_priv->back_offset >> 5));
  403. dev_priv->depth_pitch_offset_c = (((dev_priv->depth_pitch/8) << 21) |
  404.   (dev_priv->depth_offset >> 5) |
  405.   R128_DST_TILE);
  406. dev_priv->span_pitch_offset_c = (((dev_priv->depth_pitch/8) << 21) |
  407.  (dev_priv->span_offset >> 5));
  408. list_for_each(list, &dev->maplist->head) {
  409. drm_map_list_t *r_list = (drm_map_list_t *)list;
  410. if( r_list->map &&
  411.     r_list->map->type == _DRM_SHM &&
  412.     r_list->map->flags & _DRM_CONTAINS_LOCK ) {
  413. dev_priv->sarea = r_list->map;
  414.   break;
  415.   }
  416.   }
  417. if(!dev_priv->sarea) {
  418. DRM_ERROR("could not find sarea!n");
  419. dev->dev_private = (void *)dev_priv;
  420. r128_do_cleanup_cce( dev );
  421. return -EINVAL;
  422. }
  423. DRM_FIND_MAP( dev_priv->fb, init->fb_offset );
  424. if(!dev_priv->fb) {
  425. DRM_ERROR("could not find framebuffer!n");
  426. dev->dev_private = (void *)dev_priv;
  427. r128_do_cleanup_cce( dev );
  428. return -EINVAL;
  429. }
  430. DRM_FIND_MAP( dev_priv->mmio, init->mmio_offset );
  431. if(!dev_priv->mmio) {
  432. DRM_ERROR("could not find mmio region!n");
  433. dev->dev_private = (void *)dev_priv;
  434. r128_do_cleanup_cce( dev );
  435. return -EINVAL;
  436. }
  437. DRM_FIND_MAP( dev_priv->cce_ring, init->ring_offset );
  438. if(!dev_priv->cce_ring) {
  439. DRM_ERROR("could not find cce ring region!n");
  440. dev->dev_private = (void *)dev_priv;
  441. r128_do_cleanup_cce( dev );
  442. return -EINVAL;
  443. }
  444. DRM_FIND_MAP( dev_priv->ring_rptr, init->ring_rptr_offset );
  445. if(!dev_priv->ring_rptr) {
  446. DRM_ERROR("could not find ring read pointer!n");
  447. dev->dev_private = (void *)dev_priv;
  448. r128_do_cleanup_cce( dev );
  449. return -EINVAL;
  450. }
  451. DRM_FIND_MAP( dev_priv->buffers, init->buffers_offset );
  452. if(!dev_priv->buffers) {
  453. DRM_ERROR("could not find dma buffer region!n");
  454. dev->dev_private = (void *)dev_priv;
  455. r128_do_cleanup_cce( dev );
  456. return -EINVAL;
  457. }
  458. if ( !dev_priv->is_pci ) {
  459. DRM_FIND_MAP( dev_priv->agp_textures,
  460.       init->agp_textures_offset );
  461. if(!dev_priv->agp_textures) {
  462. DRM_ERROR("could not find agp texture region!n");
  463. dev->dev_private = (void *)dev_priv;
  464. r128_do_cleanup_cce( dev );
  465. return -EINVAL;
  466. }
  467. }
  468. dev_priv->sarea_priv =
  469. (drm_r128_sarea_t *)((u8 *)dev_priv->sarea->handle +
  470.      init->sarea_priv_offset);
  471. if ( !dev_priv->is_pci ) {
  472. DRM_IOREMAP( dev_priv->cce_ring );
  473. DRM_IOREMAP( dev_priv->ring_rptr );
  474. DRM_IOREMAP( dev_priv->buffers );
  475. if(!dev_priv->cce_ring->handle ||
  476.    !dev_priv->ring_rptr->handle ||
  477.    !dev_priv->buffers->handle) {
  478. DRM_ERROR("Could not ioremap agp regions!n");
  479. dev->dev_private = (void *)dev_priv;
  480. r128_do_cleanup_cce( dev );
  481. return -ENOMEM;
  482. }
  483. } else {
  484. dev_priv->cce_ring->handle =
  485. (void *)dev_priv->cce_ring->offset;
  486. dev_priv->ring_rptr->handle =
  487. (void *)dev_priv->ring_rptr->offset;
  488. dev_priv->buffers->handle = (void *)dev_priv->buffers->offset;
  489. }
  490. #if __REALLY_HAVE_AGP
  491. if ( !dev_priv->is_pci )
  492. dev_priv->cce_buffers_offset = dev->agp->base;
  493. else
  494. #endif
  495. dev_priv->cce_buffers_offset = dev->sg->handle;
  496. dev_priv->ring.head = ((__volatile__ u32 *)
  497.        dev_priv->ring_rptr->handle);
  498. dev_priv->ring.start = (u32 *)dev_priv->cce_ring->handle;
  499. dev_priv->ring.end = ((u32 *)dev_priv->cce_ring->handle
  500.       + init->ring_size / sizeof(u32));
  501. dev_priv->ring.size = init->ring_size;
  502. dev_priv->ring.size_l2qw = DRM(order)( init->ring_size / 8 );
  503. dev_priv->ring.tail_mask =
  504. (dev_priv->ring.size / sizeof(u32)) - 1;
  505. dev_priv->ring.high_mark = 128;
  506. dev_priv->sarea_priv->last_frame = 0;
  507. R128_WRITE( R128_LAST_FRAME_REG, dev_priv->sarea_priv->last_frame );
  508. dev_priv->sarea_priv->last_dispatch = 0;
  509. R128_WRITE( R128_LAST_DISPATCH_REG,
  510.     dev_priv->sarea_priv->last_dispatch );
  511. if ( dev_priv->is_pci ) {
  512. if (!DRM(ati_pcigart_init)( dev, &dev_priv->phys_pci_gart,
  513.           &dev_priv->bus_pci_gart) ) {
  514. DRM_ERROR( "failed to init PCI GART!n" );
  515. dev->dev_private = (void *)dev_priv;
  516. r128_do_cleanup_cce( dev );
  517. return -ENOMEM;
  518. }
  519. R128_WRITE( R128_PCI_GART_PAGE, dev_priv->bus_pci_gart );
  520. }
  521. r128_cce_init_ring_buffer( dev, dev_priv );
  522. r128_cce_load_microcode( dev_priv );
  523. dev->dev_private = (void *)dev_priv;
  524. r128_do_engine_reset( dev );
  525. return 0;
  526. }
  527. int r128_do_cleanup_cce( drm_device_t *dev )
  528. {
  529. if ( dev->dev_private ) {
  530. drm_r128_private_t *dev_priv = dev->dev_private;
  531. if ( !dev_priv->is_pci ) {
  532. DRM_IOREMAPFREE( dev_priv->cce_ring );
  533. DRM_IOREMAPFREE( dev_priv->ring_rptr );
  534. DRM_IOREMAPFREE( dev_priv->buffers );
  535. } else {
  536. if (!DRM(ati_pcigart_cleanup)( dev,
  537. dev_priv->phys_pci_gart,
  538. dev_priv->bus_pci_gart ))
  539. DRM_ERROR( "failed to cleanup PCI GART!n" );
  540. }
  541. DRM(free)( dev->dev_private, sizeof(drm_r128_private_t),
  542.    DRM_MEM_DRIVER );
  543. dev->dev_private = NULL;
  544. }
  545. return 0;
  546. }
  547. int r128_cce_init( struct inode *inode, struct file *filp,
  548.    unsigned int cmd, unsigned long arg )
  549. {
  550.         drm_file_t *priv = filp->private_data;
  551.         drm_device_t *dev = priv->dev;
  552. drm_r128_init_t init;
  553. DRM_DEBUG( "%sn", __FUNCTION__ );
  554. if ( copy_from_user( &init, (drm_r128_init_t *)arg, sizeof(init) ) )
  555. return -EFAULT;
  556. switch ( init.func ) {
  557. case R128_INIT_CCE:
  558. return r128_do_init_cce( dev, &init );
  559. case R128_CLEANUP_CCE:
  560. return r128_do_cleanup_cce( dev );
  561. }
  562. return -EINVAL;
  563. }
  564. int r128_cce_start( struct inode *inode, struct file *filp,
  565.     unsigned int cmd, unsigned long arg )
  566. {
  567.         drm_file_t *priv = filp->private_data;
  568.         drm_device_t *dev = priv->dev;
  569. drm_r128_private_t *dev_priv = dev->dev_private;
  570. DRM_DEBUG( "%sn", __FUNCTION__ );
  571. LOCK_TEST_WITH_RETURN( dev );
  572. if ( dev_priv->cce_running || dev_priv->cce_mode == R128_PM4_NONPM4 ) {
  573. DRM_DEBUG( "%s while CCE runningn", __FUNCTION__ );
  574. return 0;
  575. }
  576. r128_do_cce_start( dev_priv );
  577. return 0;
  578. }
  579. /* Stop the CCE.  The engine must have been idled before calling this
  580.  * routine.
  581.  */
  582. int r128_cce_stop( struct inode *inode, struct file *filp,
  583.    unsigned int cmd, unsigned long arg )
  584. {
  585.         drm_file_t *priv = filp->private_data;
  586.         drm_device_t *dev = priv->dev;
  587. drm_r128_private_t *dev_priv = dev->dev_private;
  588. drm_r128_cce_stop_t stop;
  589. int ret;
  590. DRM_DEBUG( "%sn", __FUNCTION__ );
  591. LOCK_TEST_WITH_RETURN( dev );
  592. if ( copy_from_user( &stop, (drm_r128_init_t *)arg, sizeof(stop) ) )
  593. return -EFAULT;
  594. /* Flush any pending CCE commands.  This ensures any outstanding
  595.  * commands are exectuted by the engine before we turn it off.
  596.  */
  597. if ( stop.flush ) {
  598. r128_do_cce_flush( dev_priv );
  599. }
  600. /* If we fail to make the engine go idle, we return an error
  601.  * code so that the DRM ioctl wrapper can try again.
  602.  */
  603. if ( stop.idle ) {
  604. ret = r128_do_cce_idle( dev_priv );
  605. if ( ret < 0 ) return ret;
  606. }
  607. /* Finally, we can turn off the CCE.  If the engine isn't idle,
  608.  * we will get some dropped triangles as they won't be fully
  609.  * rendered before the CCE is shut down.
  610.  */
  611. r128_do_cce_stop( dev_priv );
  612. /* Reset the engine */
  613. r128_do_engine_reset( dev );
  614. return 0;
  615. }
  616. /* Just reset the CCE ring.  Called as part of an X Server engine reset.
  617.  */
  618. int r128_cce_reset( struct inode *inode, struct file *filp,
  619.     unsigned int cmd, unsigned long arg )
  620. {
  621.         drm_file_t *priv = filp->private_data;
  622.         drm_device_t *dev = priv->dev;
  623. drm_r128_private_t *dev_priv = dev->dev_private;
  624. DRM_DEBUG( "%sn", __FUNCTION__ );
  625. LOCK_TEST_WITH_RETURN( dev );
  626. if ( !dev_priv ) {
  627. DRM_DEBUG( "%s called before init donen", __FUNCTION__ );
  628. return -EINVAL;
  629. }
  630. r128_do_cce_reset( dev_priv );
  631. /* The CCE is no longer running after an engine reset */
  632. dev_priv->cce_running = 0;
  633. return 0;
  634. }
  635. int r128_cce_idle( struct inode *inode, struct file *filp,
  636.    unsigned int cmd, unsigned long arg )
  637. {
  638.         drm_file_t *priv = filp->private_data;
  639.         drm_device_t *dev = priv->dev;
  640. drm_r128_private_t *dev_priv = dev->dev_private;
  641. DRM_DEBUG( "%sn", __FUNCTION__ );
  642. LOCK_TEST_WITH_RETURN( dev );
  643. if ( dev_priv->cce_running ) {
  644. r128_do_cce_flush( dev_priv );
  645. }
  646. return r128_do_cce_idle( dev_priv );
  647. }
  648. int r128_engine_reset( struct inode *inode, struct file *filp,
  649.        unsigned int cmd, unsigned long arg )
  650. {
  651.         drm_file_t *priv = filp->private_data;
  652.         drm_device_t *dev = priv->dev;
  653. DRM_DEBUG( "%sn", __FUNCTION__ );
  654. LOCK_TEST_WITH_RETURN( dev );
  655. return r128_do_engine_reset( dev );
  656. }
  657. /* ================================================================
  658.  * Fullscreen mode
  659.  */
  660. static int r128_do_init_pageflip( drm_device_t *dev )
  661. {
  662. drm_r128_private_t *dev_priv = dev->dev_private;
  663. DRM_DEBUG( "%sn", __FUNCTION__ );
  664. dev_priv->crtc_offset =      R128_READ( R128_CRTC_OFFSET );
  665. dev_priv->crtc_offset_cntl = R128_READ( R128_CRTC_OFFSET_CNTL );
  666. R128_WRITE( R128_CRTC_OFFSET, dev_priv->front_offset );
  667. R128_WRITE( R128_CRTC_OFFSET_CNTL,
  668.     dev_priv->crtc_offset_cntl | R128_CRTC_OFFSET_FLIP_CNTL );
  669. dev_priv->page_flipping = 1;
  670. dev_priv->current_page = 0;
  671. return 0;
  672. }
  673. int r128_do_cleanup_pageflip( drm_device_t *dev )
  674. {
  675. drm_r128_private_t *dev_priv = dev->dev_private;
  676. DRM_DEBUG( "%sn", __FUNCTION__ );
  677. R128_WRITE( R128_CRTC_OFFSET,      dev_priv->crtc_offset );
  678. R128_WRITE( R128_CRTC_OFFSET_CNTL, dev_priv->crtc_offset_cntl );
  679. dev_priv->page_flipping = 0;
  680. dev_priv->current_page = 0;
  681. return 0;
  682. }
  683. int r128_fullscreen( struct inode *inode, struct file *filp,
  684.      unsigned int cmd, unsigned long arg )
  685. {
  686.         drm_file_t *priv = filp->private_data;
  687.         drm_device_t *dev = priv->dev;
  688. drm_r128_fullscreen_t fs;
  689. LOCK_TEST_WITH_RETURN( dev );
  690. if ( copy_from_user( &fs, (drm_r128_fullscreen_t *)arg, sizeof(fs) ) )
  691. return -EFAULT;
  692. switch ( fs.func ) {
  693. case R128_INIT_FULLSCREEN:
  694. return r128_do_init_pageflip( dev );
  695. case R128_CLEANUP_FULLSCREEN:
  696. return r128_do_cleanup_pageflip( dev );
  697. }
  698. return -EINVAL;
  699. }
  700. /* ================================================================
  701.  * Freelist management
  702.  */
  703. #define R128_BUFFER_USED 0xffffffff
  704. #define R128_BUFFER_FREE 0
  705. #if 0
  706. static int r128_freelist_init( drm_device_t *dev )
  707. {
  708. drm_device_dma_t *dma = dev->dma;
  709. drm_r128_private_t *dev_priv = dev->dev_private;
  710. drm_buf_t *buf;
  711. drm_r128_buf_priv_t *buf_priv;
  712. drm_r128_freelist_t *entry;
  713. int i;
  714. dev_priv->head = DRM(alloc)( sizeof(drm_r128_freelist_t),
  715.      DRM_MEM_DRIVER );
  716. if ( dev_priv->head == NULL )
  717. return -ENOMEM;
  718. memset( dev_priv->head, 0, sizeof(drm_r128_freelist_t) );
  719. dev_priv->head->age = R128_BUFFER_USED;
  720. for ( i = 0 ; i < dma->buf_count ; i++ ) {
  721. buf = dma->buflist[i];
  722. buf_priv = buf->dev_private;
  723. entry = DRM(alloc)( sizeof(drm_r128_freelist_t),
  724.     DRM_MEM_DRIVER );
  725. if ( !entry ) return -ENOMEM;
  726. entry->age = R128_BUFFER_FREE;
  727. entry->buf = buf;
  728. entry->prev = dev_priv->head;
  729. entry->next = dev_priv->head->next;
  730. if ( !entry->next )
  731. dev_priv->tail = entry;
  732. buf_priv->discard = 0;
  733. buf_priv->dispatched = 0;
  734. buf_priv->list_entry = entry;
  735. dev_priv->head->next = entry;
  736. if ( dev_priv->head->next )
  737. dev_priv->head->next->prev = entry;
  738. }
  739. return 0;
  740. }
  741. #endif
  742. drm_buf_t *r128_freelist_get( drm_device_t *dev )
  743. {
  744. drm_device_dma_t *dma = dev->dma;
  745. drm_r128_private_t *dev_priv = dev->dev_private;
  746. drm_r128_buf_priv_t *buf_priv;
  747. drm_buf_t *buf;
  748. int i, t;
  749. /* FIXME: Optimize -- use freelist code */
  750. for ( i = 0 ; i < dma->buf_count ; i++ ) {
  751. buf = dma->buflist[i];
  752. buf_priv = buf->dev_private;
  753. if ( buf->pid == 0 )
  754. return buf;
  755. }
  756. for ( t = 0 ; t < dev_priv->usec_timeout ; t++ ) {
  757. u32 done_age = R128_READ( R128_LAST_DISPATCH_REG );
  758. for ( i = 0 ; i < dma->buf_count ; i++ ) {
  759. buf = dma->buflist[i];
  760. buf_priv = buf->dev_private;
  761. if ( buf->pending && buf_priv->age <= done_age ) {
  762. /* The buffer has been processed, so it
  763.  * can now be used.
  764.  */
  765. buf->pending = 0;
  766. return buf;
  767. }
  768. }
  769. udelay( 1 );
  770. }
  771. DRM_ERROR( "returning NULL!n" );
  772. return NULL;
  773. }
  774. void r128_freelist_reset( drm_device_t *dev )
  775. {
  776. drm_device_dma_t *dma = dev->dma;
  777. int i;
  778. for ( i = 0 ; i < dma->buf_count ; i++ ) {
  779. drm_buf_t *buf = dma->buflist[i];
  780. drm_r128_buf_priv_t *buf_priv = buf->dev_private;
  781. buf_priv->age = 0;
  782. }
  783. }
  784. /* ================================================================
  785.  * CCE command submission
  786.  */
  787. int r128_wait_ring( drm_r128_private_t *dev_priv, int n )
  788. {
  789. drm_r128_ring_buffer_t *ring = &dev_priv->ring;
  790. int i;
  791. for ( i = 0 ; i < dev_priv->usec_timeout ; i++ ) {
  792. r128_update_ring_snapshot( ring );
  793. if ( ring->space >= n )
  794. return 0;
  795. udelay( 1 );
  796. }
  797. /* FIXME: This is being ignored... */
  798. DRM_ERROR( "failed!n" );
  799. return -EBUSY;
  800. }
  801. static int r128_cce_get_buffers( drm_device_t *dev, drm_dma_t *d )
  802. {
  803. int i;
  804. drm_buf_t *buf;
  805. for ( i = d->granted_count ; i < d->request_count ; i++ ) {
  806. buf = r128_freelist_get( dev );
  807. if ( !buf ) return -EAGAIN;
  808. buf->pid = current->pid;
  809. if ( copy_to_user( &d->request_indices[i], &buf->idx,
  810.    sizeof(buf->idx) ) )
  811. return -EFAULT;
  812. if ( copy_to_user( &d->request_sizes[i], &buf->total,
  813.    sizeof(buf->total) ) )
  814. return -EFAULT;
  815. d->granted_count++;
  816. }
  817. return 0;
  818. }
  819. int r128_cce_buffers( struct inode *inode, struct file *filp,
  820.       unsigned int cmd, unsigned long arg )
  821. {
  822. drm_file_t *priv = filp->private_data;
  823. drm_device_t *dev = priv->dev;
  824. drm_device_dma_t *dma = dev->dma;
  825. int ret = 0;
  826. drm_dma_t d;
  827. LOCK_TEST_WITH_RETURN( dev );
  828. if ( copy_from_user( &d, (drm_dma_t *) arg, sizeof(d) ) )
  829. return -EFAULT;
  830. /* Please don't send us buffers.
  831.  */
  832. if ( d.send_count != 0 ) {
  833. DRM_ERROR( "Process %d trying to send %d buffers via drmDMAn",
  834.    current->pid, d.send_count );
  835. return -EINVAL;
  836. }
  837. /* We'll send you buffers.
  838.  */
  839. if ( d.request_count < 0 || d.request_count > dma->buf_count ) {
  840. DRM_ERROR( "Process %d trying to get %d buffers (of %d max)n",
  841.    current->pid, d.request_count, dma->buf_count );
  842. return -EINVAL;
  843. }
  844. d.granted_count = 0;
  845. if ( d.request_count ) {
  846. ret = r128_cce_get_buffers( dev, &d );
  847. }
  848. if ( copy_to_user( (drm_dma_t *) arg, &d, sizeof(d) ) )
  849. return -EFAULT;
  850. return ret;
  851. }