radeon_cp.c
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:38k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /* radeon_cp.c -- CP support for Radeon -*- linux-c -*-
  2.  *
  3.  * Copyright 2000 Precision Insight, Inc., Cedar Park, Texas.
  4.  * Copyright 2000 VA Linux Systems, Inc., Fremont, California.
  5.  * All Rights Reserved.
  6.  *
  7.  * Permission is hereby granted, free of charge, to any person obtaining a
  8.  * copy of this software and associated documentation files (the "Software"),
  9.  * to deal in the Software without restriction, including without limitation
  10.  * the rights to use, copy, modify, merge, publish, distribute, sublicense,
  11.  * and/or sell copies of the Software, and to permit persons to whom the
  12.  * Software is furnished to do so, subject to the following conditions:
  13.  *
  14.  * The above copyright notice and this permission notice (including the next
  15.  * paragraph) shall be included in all copies or substantial portions of the
  16.  * Software.
  17.  *
  18.  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
  19.  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
  20.  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
  21.  * PRECISION INSIGHT AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM, DAMAGES OR
  22.  * OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE,
  23.  * ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER
  24.  * DEALINGS IN THE SOFTWARE.
  25.  *
  26.  * Authors:
  27.  *    Kevin E. Martin <martin@valinux.com>
  28.  *    Gareth Hughes <gareth@valinux.com>
  29.  */
  30. #define __NO_VERSION__
  31. #include "radeon.h"
  32. #include "drmP.h"
  33. #include "radeon_drv.h"
  34. #include <linux/interrupt.h> /* For task queue support */
  35. #include <linux/delay.h>
  36. #define RADEON_FIFO_DEBUG 0
  37. #if defined(__alpha__)
  38. # define PCIGART_ENABLED
  39. #else
  40. # undef PCIGART_ENABLED
  41. #endif
  42. /* CP microcode (from ATI) */
  43. static u32 radeon_cp_microcode[][2] = {
  44. { 0x21007000, 0000000000 },
  45. { 0x20007000, 0000000000 },
  46. { 0x000000b4, 0x00000004 },
  47. { 0x000000b8, 0x00000004 },
  48. { 0x6f5b4d4c, 0000000000 },
  49. { 0x4c4c427f, 0000000000 },
  50. { 0x5b568a92, 0000000000 },
  51. { 0x4ca09c6d, 0000000000 },
  52. { 0xad4c4c4c, 0000000000 },
  53. { 0x4ce1af3d, 0000000000 },
  54. { 0xd8afafaf, 0000000000 },
  55. { 0xd64c4cdc, 0000000000 },
  56. { 0x4cd10d10, 0000000000 },
  57. { 0x000f0000, 0x00000016 },
  58. { 0x362f242d, 0000000000 },
  59. { 0x00000012, 0x00000004 },
  60. { 0x000f0000, 0x00000016 },
  61. { 0x362f282d, 0000000000 },
  62. { 0x000380e7, 0x00000002 },
  63. { 0x04002c97, 0x00000002 },
  64. { 0x000f0001, 0x00000016 },
  65. { 0x333a3730, 0000000000 },
  66. { 0x000077ef, 0x00000002 },
  67. { 0x00061000, 0x00000002 },
  68. { 0x00000021, 0x0000001a },
  69. { 0x00004000, 0x0000001e },
  70. { 0x00061000, 0x00000002 },
  71. { 0x00000021, 0x0000001a },
  72. { 0x00004000, 0x0000001e },
  73. { 0x00061000, 0x00000002 },
  74. { 0x00000021, 0x0000001a },
  75. { 0x00004000, 0x0000001e },
  76. { 0x00000017, 0x00000004 },
  77. { 0x0003802b, 0x00000002 },
  78. { 0x040067e0, 0x00000002 },
  79. { 0x00000017, 0x00000004 },
  80. { 0x000077e0, 0x00000002 },
  81. { 0x00065000, 0x00000002 },
  82. { 0x000037e1, 0x00000002 },
  83. { 0x040067e1, 0x00000006 },
  84. { 0x000077e0, 0x00000002 },
  85. { 0x000077e1, 0x00000002 },
  86. { 0x000077e1, 0x00000006 },
  87. { 0xffffffff, 0000000000 },
  88. { 0x10000000, 0000000000 },
  89. { 0x0003802b, 0x00000002 },
  90. { 0x040067e0, 0x00000006 },
  91. { 0x00007675, 0x00000002 },
  92. { 0x00007676, 0x00000002 },
  93. { 0x00007677, 0x00000002 },
  94. { 0x00007678, 0x00000006 },
  95. { 0x0003802c, 0x00000002 },
  96. { 0x04002676, 0x00000002 },
  97. { 0x00007677, 0x00000002 },
  98. { 0x00007678, 0x00000006 },
  99. { 0x0000002f, 0x00000018 },
  100. { 0x0000002f, 0x00000018 },
  101. { 0000000000, 0x00000006 },
  102. { 0x00000030, 0x00000018 },
  103. { 0x00000030, 0x00000018 },
  104. { 0000000000, 0x00000006 },
  105. { 0x01605000, 0x00000002 },
  106. { 0x00065000, 0x00000002 },
  107. { 0x00098000, 0x00000002 },
  108. { 0x00061000, 0x00000002 },
  109. { 0x64c0603e, 0x00000004 },
  110. { 0x000380e6, 0x00000002 },
  111. { 0x040025c5, 0x00000002 },
  112. { 0x00080000, 0x00000016 },
  113. { 0000000000, 0000000000 },
  114. { 0x0400251d, 0x00000002 },
  115. { 0x00007580, 0x00000002 },
  116. { 0x00067581, 0x00000002 },
  117. { 0x04002580, 0x00000002 },
  118. { 0x00067581, 0x00000002 },
  119. { 0x00000049, 0x00000004 },
  120. { 0x00005000, 0000000000 },
  121. { 0x000380e6, 0x00000002 },
  122. { 0x040025c5, 0x00000002 },
  123. { 0x00061000, 0x00000002 },
  124. { 0x0000750e, 0x00000002 },
  125. { 0x00019000, 0x00000002 },
  126. { 0x00011055, 0x00000014 },
  127. { 0x00000055, 0x00000012 },
  128. { 0x0400250f, 0x00000002 },
  129. { 0x0000504f, 0x00000004 },
  130. { 0x000380e6, 0x00000002 },
  131. { 0x040025c5, 0x00000002 },
  132. { 0x00007565, 0x00000002 },
  133. { 0x00007566, 0x00000002 },
  134. { 0x00000058, 0x00000004 },
  135. { 0x000380e6, 0x00000002 },
  136. { 0x040025c5, 0x00000002 },
  137. { 0x01e655b4, 0x00000002 },
  138. { 0x4401b0e4, 0x00000002 },
  139. { 0x01c110e4, 0x00000002 },
  140. { 0x26667066, 0x00000018 },
  141. { 0x040c2565, 0x00000002 },
  142. { 0x00000066, 0x00000018 },
  143. { 0x04002564, 0x00000002 },
  144. { 0x00007566, 0x00000002 },
  145. { 0x0000005d, 0x00000004 },
  146. { 0x00401069, 0x00000008 },
  147. { 0x00101000, 0x00000002 },
  148. { 0x000d80ff, 0x00000002 },
  149. { 0x0080006c, 0x00000008 },
  150. { 0x000f9000, 0x00000002 },
  151. { 0x000e00ff, 0x00000002 },
  152. { 0000000000, 0x00000006 },
  153. { 0x0000008f, 0x00000018 },
  154. { 0x0000005b, 0x00000004 },
  155. { 0x000380e6, 0x00000002 },
  156. { 0x040025c5, 0x00000002 },
  157. { 0x00007576, 0x00000002 },
  158. { 0x00065000, 0x00000002 },
  159. { 0x00009000, 0x00000002 },
  160. { 0x00041000, 0x00000002 },
  161. { 0x0c00350e, 0x00000002 },
  162. { 0x00049000, 0x00000002 },
  163. { 0x00051000, 0x00000002 },
  164. { 0x01e785f8, 0x00000002 },
  165. { 0x00200000, 0x00000002 },
  166. { 0x0060007e, 0x0000000c },
  167. { 0x00007563, 0x00000002 },
  168. { 0x006075f0, 0x00000021 },
  169. { 0x20007073, 0x00000004 },
  170. { 0x00005073, 0x00000004 },
  171. { 0x000380e6, 0x00000002 },
  172. { 0x040025c5, 0x00000002 },
  173. { 0x00007576, 0x00000002 },
  174. { 0x00007577, 0x00000002 },
  175. { 0x0000750e, 0x00000002 },
  176. { 0x0000750f, 0x00000002 },
  177. { 0x00a05000, 0x00000002 },
  178. { 0x00600083, 0x0000000c },
  179. { 0x006075f0, 0x00000021 },
  180. { 0x000075f8, 0x00000002 },
  181. { 0x00000083, 0x00000004 },
  182. { 0x000a750e, 0x00000002 },
  183. { 0x000380e6, 0x00000002 },
  184. { 0x040025c5, 0x00000002 },
  185. { 0x0020750f, 0x00000002 },
  186. { 0x00600086, 0x00000004 },
  187. { 0x00007570, 0x00000002 },
  188. { 0x00007571, 0x00000002 },
  189. { 0x00007572, 0x00000006 },
  190. { 0x000380e6, 0x00000002 },
  191. { 0x040025c5, 0x00000002 },
  192. { 0x00005000, 0x00000002 },
  193. { 0x00a05000, 0x00000002 },
  194. { 0x00007568, 0x00000002 },
  195. { 0x00061000, 0x00000002 },
  196. { 0x00000095, 0x0000000c },
  197. { 0x00058000, 0x00000002 },
  198. { 0x0c607562, 0x00000002 },
  199. { 0x00000097, 0x00000004 },
  200. { 0x000380e6, 0x00000002 },
  201. { 0x040025c5, 0x00000002 },
  202. { 0x00600096, 0x00000004 },
  203. { 0x400070e5, 0000000000 },
  204. { 0x000380e6, 0x00000002 },
  205. { 0x040025c5, 0x00000002 },
  206. { 0x000380e5, 0x00000002 },
  207. { 0x000000a8, 0x0000001c },
  208. { 0x000650aa, 0x00000018 },
  209. { 0x040025bb, 0x00000002 },
  210. { 0x000610ab, 0x00000018 },
  211. { 0x040075bc, 0000000000 },
  212. { 0x000075bb, 0x00000002 },
  213. { 0x000075bc, 0000000000 },
  214. { 0x00090000, 0x00000006 },
  215. { 0x00090000, 0x00000002 },
  216. { 0x000d8002, 0x00000006 },
  217. { 0x00007832, 0x00000002 },
  218. { 0x00005000, 0x00000002 },
  219. { 0x000380e7, 0x00000002 },
  220. { 0x04002c97, 0x00000002 },
  221. { 0x00007820, 0x00000002 },
  222. { 0x00007821, 0x00000002 },
  223. { 0x00007800, 0000000000 },
  224. { 0x01200000, 0x00000002 },
  225. { 0x20077000, 0x00000002 },
  226. { 0x01200000, 0x00000002 },
  227. { 0x20007000, 0x00000002 },
  228. { 0x00061000, 0x00000002 },
  229. { 0x0120751b, 0x00000002 },
  230. { 0x8040750a, 0x00000002 },
  231. { 0x8040750b, 0x00000002 },
  232. { 0x00110000, 0x00000002 },
  233. { 0x000380e5, 0x00000002 },
  234. { 0x000000c6, 0x0000001c },
  235. { 0x000610ab, 0x00000018 },
  236. { 0x844075bd, 0x00000002 },
  237. { 0x000610aa, 0x00000018 },
  238. { 0x840075bb, 0x00000002 },
  239. { 0x000610ab, 0x00000018 },
  240. { 0x844075bc, 0x00000002 },
  241. { 0x000000c9, 0x00000004 },
  242. { 0x804075bd, 0x00000002 },
  243. { 0x800075bb, 0x00000002 },
  244. { 0x804075bc, 0x00000002 },
  245. { 0x00108000, 0x00000002 },
  246. { 0x01400000, 0x00000002 },
  247. { 0x006000cd, 0x0000000c },
  248. { 0x20c07000, 0x00000020 },
  249. { 0x000000cf, 0x00000012 },
  250. { 0x00800000, 0x00000006 },
  251. { 0x0080751d, 0x00000006 },
  252. { 0000000000, 0000000000 },
  253. { 0x0000775c, 0x00000002 },
  254. { 0x00a05000, 0x00000002 },
  255. { 0x00661000, 0x00000002 },
  256. { 0x0460275d, 0x00000020 },
  257. { 0x00004000, 0000000000 },
  258. { 0x01e00830, 0x00000002 },
  259. { 0x21007000, 0000000000 },
  260. { 0x6464614d, 0000000000 },
  261. { 0x69687420, 0000000000 },
  262. { 0x00000073, 0000000000 },
  263. { 0000000000, 0000000000 },
  264. { 0x00005000, 0x00000002 },
  265. { 0x000380d0, 0x00000002 },
  266. { 0x040025e0, 0x00000002 },
  267. { 0x000075e1, 0000000000 },
  268. { 0x00000001, 0000000000 },
  269. { 0x000380e0, 0x00000002 },
  270. { 0x04002394, 0x00000002 },
  271. { 0x00005000, 0000000000 },
  272. { 0000000000, 0000000000 },
  273. { 0000000000, 0000000000 },
  274. { 0x00000008, 0000000000 },
  275. { 0x00000004, 0000000000 },
  276. { 0000000000, 0000000000 },
  277. { 0000000000, 0000000000 },
  278. { 0000000000, 0000000000 },
  279. { 0000000000, 0000000000 },
  280. { 0000000000, 0000000000 },
  281. { 0000000000, 0000000000 },
  282. { 0000000000, 0000000000 },
  283. { 0000000000, 0000000000 },
  284. { 0000000000, 0000000000 },
  285. { 0000000000, 0000000000 },
  286. { 0000000000, 0000000000 },
  287. { 0000000000, 0000000000 },
  288. { 0000000000, 0000000000 },
  289. { 0000000000, 0000000000 },
  290. { 0000000000, 0000000000 },
  291. { 0000000000, 0000000000 },
  292. { 0000000000, 0000000000 },
  293. { 0000000000, 0000000000 },
  294. { 0000000000, 0000000000 },
  295. { 0000000000, 0000000000 },
  296. { 0000000000, 0000000000 },
  297. { 0000000000, 0000000000 },
  298. { 0000000000, 0000000000 },
  299. { 0000000000, 0000000000 },
  300. };
  301. int RADEON_READ_PLL(drm_device_t *dev, int addr)
  302. {
  303. drm_radeon_private_t *dev_priv = dev->dev_private;
  304. RADEON_WRITE8(RADEON_CLOCK_CNTL_INDEX, addr & 0x1f);
  305. return RADEON_READ(RADEON_CLOCK_CNTL_DATA);
  306. }
  307. #if RADEON_FIFO_DEBUG
  308. static void radeon_status( drm_radeon_private_t *dev_priv )
  309. {
  310. printk( "%s:n", __FUNCTION__ );
  311. printk( "RBBM_STATUS = 0x%08xn",
  312. (unsigned int)RADEON_READ( RADEON_RBBM_STATUS ) );
  313. printk( "CP_RB_RTPR = 0x%08xn",
  314. (unsigned int)RADEON_READ( RADEON_CP_RB_RPTR ) );
  315. printk( "CP_RB_WTPR = 0x%08xn",
  316. (unsigned int)RADEON_READ( RADEON_CP_RB_WPTR ) );
  317. printk( "AIC_CNTL = 0x%08xn",
  318. (unsigned int)RADEON_READ( RADEON_AIC_CNTL ) );
  319. printk( "AIC_STAT = 0x%08xn",
  320. (unsigned int)RADEON_READ( RADEON_AIC_STAT ) );
  321. printk( "AIC_PT_BASE = 0x%08xn",
  322. (unsigned int)RADEON_READ( RADEON_AIC_PT_BASE ) );
  323. printk( "TLB_ADDR = 0x%08xn",
  324. (unsigned int)RADEON_READ( RADEON_AIC_TLB_ADDR ) );
  325. printk( "TLB_DATA = 0x%08xn",
  326. (unsigned int)RADEON_READ( RADEON_AIC_TLB_DATA ) );
  327. }
  328. #endif
  329. /* ================================================================
  330.  * Engine, FIFO control
  331.  */
  332. static int radeon_do_pixcache_flush( drm_radeon_private_t *dev_priv )
  333. {
  334. u32 tmp;
  335. int i;
  336. tmp  = RADEON_READ( RADEON_RB2D_DSTCACHE_CTLSTAT );
  337. tmp |= RADEON_RB2D_DC_FLUSH_ALL;
  338. RADEON_WRITE( RADEON_RB2D_DSTCACHE_CTLSTAT, tmp );
  339. for ( i = 0 ; i < dev_priv->usec_timeout ; i++ ) {
  340. if ( !(RADEON_READ( RADEON_RB2D_DSTCACHE_CTLSTAT )
  341.        & RADEON_RB2D_DC_BUSY) ) {
  342. return 0;
  343. }
  344. udelay( 1 );
  345. }
  346. #if RADEON_FIFO_DEBUG
  347. DRM_ERROR( "failed!n" );
  348. radeon_status( dev_priv );
  349. #endif
  350. return -EBUSY;
  351. }
  352. static int radeon_do_wait_for_fifo( drm_radeon_private_t *dev_priv,
  353.     int entries )
  354. {
  355. int i;
  356. for ( i = 0 ; i < dev_priv->usec_timeout ; i++ ) {
  357. int slots = ( RADEON_READ( RADEON_RBBM_STATUS )
  358.       & RADEON_RBBM_FIFOCNT_MASK );
  359. if ( slots >= entries ) return 0;
  360. udelay( 1 );
  361. }
  362. #if RADEON_FIFO_DEBUG
  363. DRM_ERROR( "failed!n" );
  364. radeon_status( dev_priv );
  365. #endif
  366. return -EBUSY;
  367. }
  368. static int radeon_do_wait_for_idle( drm_radeon_private_t *dev_priv )
  369. {
  370. int i, ret;
  371. ret = radeon_do_wait_for_fifo( dev_priv, 64 );
  372. if ( ret < 0 ) return ret;
  373. for ( i = 0 ; i < dev_priv->usec_timeout ; i++ ) {
  374. if ( !(RADEON_READ( RADEON_RBBM_STATUS )
  375.        & RADEON_RBBM_ACTIVE) ) {
  376. radeon_do_pixcache_flush( dev_priv );
  377. return 0;
  378. }
  379. udelay( 1 );
  380. }
  381. #if RADEON_FIFO_DEBUG
  382. DRM_ERROR( "failed!n" );
  383. radeon_status( dev_priv );
  384. #endif
  385. return -EBUSY;
  386. }
  387. /* ================================================================
  388.  * CP control, initialization
  389.  */
  390. /* Load the microcode for the CP */
  391. static void radeon_cp_load_microcode( drm_radeon_private_t *dev_priv )
  392. {
  393. int i;
  394. DRM_DEBUG( "%sn", __FUNCTION__ );
  395. radeon_do_wait_for_idle( dev_priv );
  396. RADEON_WRITE( RADEON_CP_ME_RAM_ADDR, 0 );
  397. for ( i = 0 ; i < 256 ; i++ ) {
  398. RADEON_WRITE( RADEON_CP_ME_RAM_DATAH,
  399.       radeon_cp_microcode[i][1] );
  400. RADEON_WRITE( RADEON_CP_ME_RAM_DATAL,
  401.       radeon_cp_microcode[i][0] );
  402. }
  403. }
  404. /* Flush any pending commands to the CP.  This should only be used just
  405.  * prior to a wait for idle, as it informs the engine that the command
  406.  * stream is ending.
  407.  */
  408. static void radeon_do_cp_flush( drm_radeon_private_t *dev_priv )
  409. {
  410. DRM_DEBUG( "%sn", __FUNCTION__ );
  411. #if 0
  412. u32 tmp;
  413. tmp = RADEON_READ( RADEON_CP_RB_WPTR ) | (1 << 31);
  414. RADEON_WRITE( RADEON_CP_RB_WPTR, tmp );
  415. #endif
  416. }
  417. /* Wait for the CP to go idle.
  418.  */
  419. int radeon_do_cp_idle( drm_radeon_private_t *dev_priv )
  420. {
  421. RING_LOCALS;
  422. DRM_DEBUG( "%sn", __FUNCTION__ );
  423. BEGIN_RING( 6 );
  424. RADEON_PURGE_CACHE();
  425. RADEON_PURGE_ZCACHE();
  426. RADEON_WAIT_UNTIL_IDLE();
  427. ADVANCE_RING();
  428. return radeon_do_wait_for_idle( dev_priv );
  429. }
  430. /* Start the Command Processor.
  431.  */
  432. static void radeon_do_cp_start( drm_radeon_private_t *dev_priv )
  433. {
  434. RING_LOCALS;
  435. DRM_DEBUG( "%sn", __FUNCTION__ );
  436. radeon_do_wait_for_idle( dev_priv );
  437. RADEON_WRITE( RADEON_CP_CSQ_CNTL, dev_priv->cp_mode );
  438. dev_priv->cp_running = 1;
  439. BEGIN_RING( 6 );
  440. RADEON_PURGE_CACHE();
  441. RADEON_PURGE_ZCACHE();
  442. RADEON_WAIT_UNTIL_IDLE();
  443. ADVANCE_RING();
  444. }
  445. /* Reset the Command Processor.  This will not flush any pending
  446.  * commands, so you must wait for the CP command stream to complete
  447.  * before calling this routine.
  448.  */
  449. static void radeon_do_cp_reset( drm_radeon_private_t *dev_priv )
  450. {
  451. u32 cur_read_ptr;
  452. DRM_DEBUG( "%sn", __FUNCTION__ );
  453. cur_read_ptr = RADEON_READ( RADEON_CP_RB_RPTR );
  454. RADEON_WRITE( RADEON_CP_RB_WPTR, cur_read_ptr );
  455. *dev_priv->ring.head = cur_read_ptr;
  456. dev_priv->ring.tail = cur_read_ptr;
  457. }
  458. /* Stop the Command Processor.  This will not flush any pending
  459.  * commands, so you must flush the command stream and wait for the CP
  460.  * to go idle before calling this routine.
  461.  */
  462. static void radeon_do_cp_stop( drm_radeon_private_t *dev_priv )
  463. {
  464. DRM_DEBUG( "%sn", __FUNCTION__ );
  465. RADEON_WRITE( RADEON_CP_CSQ_CNTL, RADEON_CSQ_PRIDIS_INDDIS );
  466. dev_priv->cp_running = 0;
  467. }
  468. /* Reset the engine.  This will stop the CP if it is running.
  469.  */
  470. static int radeon_do_engine_reset( drm_device_t *dev )
  471. {
  472. drm_radeon_private_t *dev_priv = dev->dev_private;
  473. u32 clock_cntl_index, mclk_cntl, rbbm_soft_reset;
  474. DRM_DEBUG( "%sn", __FUNCTION__ );
  475. radeon_do_pixcache_flush( dev_priv );
  476. clock_cntl_index = RADEON_READ( RADEON_CLOCK_CNTL_INDEX );
  477. mclk_cntl = RADEON_READ_PLL( dev, RADEON_MCLK_CNTL );
  478. RADEON_WRITE_PLL( RADEON_MCLK_CNTL, ( mclk_cntl |
  479.       RADEON_FORCEON_MCLKA |
  480.       RADEON_FORCEON_MCLKB |
  481.         RADEON_FORCEON_YCLKA |
  482.       RADEON_FORCEON_YCLKB |
  483.       RADEON_FORCEON_MC |
  484.       RADEON_FORCEON_AIC ) );
  485. rbbm_soft_reset = RADEON_READ( RADEON_RBBM_SOFT_RESET );
  486. RADEON_WRITE( RADEON_RBBM_SOFT_RESET, ( rbbm_soft_reset |
  487. RADEON_SOFT_RESET_CP |
  488. RADEON_SOFT_RESET_HI |
  489. RADEON_SOFT_RESET_SE |
  490. RADEON_SOFT_RESET_RE |
  491. RADEON_SOFT_RESET_PP |
  492. RADEON_SOFT_RESET_E2 |
  493. RADEON_SOFT_RESET_RB ) );
  494. RADEON_READ( RADEON_RBBM_SOFT_RESET );
  495. RADEON_WRITE( RADEON_RBBM_SOFT_RESET, ( rbbm_soft_reset &
  496. ~( RADEON_SOFT_RESET_CP |
  497.    RADEON_SOFT_RESET_HI |
  498.    RADEON_SOFT_RESET_SE |
  499.    RADEON_SOFT_RESET_RE |
  500.    RADEON_SOFT_RESET_PP |
  501.    RADEON_SOFT_RESET_E2 |
  502.    RADEON_SOFT_RESET_RB ) ) );
  503. RADEON_READ( RADEON_RBBM_SOFT_RESET );
  504. RADEON_WRITE_PLL( RADEON_MCLK_CNTL, mclk_cntl );
  505. RADEON_WRITE( RADEON_CLOCK_CNTL_INDEX, clock_cntl_index );
  506. RADEON_WRITE( RADEON_RBBM_SOFT_RESET,  rbbm_soft_reset );
  507. /* Reset the CP ring */
  508. radeon_do_cp_reset( dev_priv );
  509. /* The CP is no longer running after an engine reset */
  510. dev_priv->cp_running = 0;
  511. /* Reset any pending vertex, indirect buffers */
  512. radeon_freelist_reset( dev );
  513. return 0;
  514. }
  515. static void radeon_cp_init_ring_buffer( drm_device_t *dev,
  516.         drm_radeon_private_t *dev_priv )
  517. {
  518. u32 ring_start, cur_read_ptr;
  519. u32 tmp;
  520. /* Initialize the memory controller */
  521. RADEON_WRITE( RADEON_MC_FB_LOCATION,
  522.       (dev_priv->agp_vm_start - 1) & 0xffff0000 );
  523. if ( !dev_priv->is_pci ) {
  524. RADEON_WRITE( RADEON_MC_AGP_LOCATION,
  525.       (((dev_priv->agp_vm_start - 1 +
  526.  dev_priv->agp_size) & 0xffff0000) |
  527.        (dev_priv->agp_vm_start >> 16)) );
  528. }
  529. #if __REALLY_HAVE_AGP
  530. if ( !dev_priv->is_pci )
  531. ring_start = (dev_priv->cp_ring->offset
  532.       - dev->agp->base
  533.       + dev_priv->agp_vm_start);
  534.        else
  535. #endif
  536. ring_start = (dev_priv->cp_ring->offset
  537.       - dev->sg->handle
  538.       + dev_priv->agp_vm_start);
  539. RADEON_WRITE( RADEON_CP_RB_BASE, ring_start );
  540. /* Set the write pointer delay */
  541. RADEON_WRITE( RADEON_CP_RB_WPTR_DELAY, 0 );
  542. /* Initialize the ring buffer's read and write pointers */
  543. cur_read_ptr = RADEON_READ( RADEON_CP_RB_RPTR );
  544. RADEON_WRITE( RADEON_CP_RB_WPTR, cur_read_ptr );
  545. *dev_priv->ring.head = cur_read_ptr;
  546. dev_priv->ring.tail = cur_read_ptr;
  547. if ( !dev_priv->is_pci ) {
  548. RADEON_WRITE( RADEON_CP_RB_RPTR_ADDR,
  549.       dev_priv->ring_rptr->offset );
  550. } else {
  551. drm_sg_mem_t *entry = dev->sg;
  552. unsigned long tmp_ofs, page_ofs;
  553. tmp_ofs = dev_priv->ring_rptr->offset - dev->sg->handle;
  554. page_ofs = tmp_ofs >> PAGE_SHIFT;
  555. RADEON_WRITE( RADEON_CP_RB_RPTR_ADDR,
  556.      entry->busaddr[page_ofs]);
  557. DRM_DEBUG( "ring rptr: offset=0x%08x handle=0x%08lxn",
  558.    entry->busaddr[page_ofs],
  559.    entry->handle + tmp_ofs );
  560. }
  561. /* Set ring buffer size */
  562. RADEON_WRITE( RADEON_CP_RB_CNTL, dev_priv->ring.size_l2qw );
  563. radeon_do_wait_for_idle( dev_priv );
  564. /* Turn on bus mastering */
  565. tmp = RADEON_READ( RADEON_BUS_CNTL ) & ~RADEON_BUS_MASTER_DIS;
  566. RADEON_WRITE( RADEON_BUS_CNTL, tmp );
  567. /* Sync everything up */
  568. RADEON_WRITE( RADEON_ISYNC_CNTL,
  569.       (RADEON_ISYNC_ANY2D_IDLE3D |
  570.        RADEON_ISYNC_ANY3D_IDLE2D |
  571.        RADEON_ISYNC_WAIT_IDLEGUI |
  572.        RADEON_ISYNC_CPSCRATCH_IDLEGUI) );
  573. }
  574. static int radeon_do_init_cp( drm_device_t *dev, drm_radeon_init_t *init )
  575. {
  576. drm_radeon_private_t *dev_priv;
  577. struct list_head *list;
  578. u32 tmp;
  579. DRM_DEBUG( "%sn", __FUNCTION__ );
  580. dev_priv = DRM(alloc)( sizeof(drm_radeon_private_t), DRM_MEM_DRIVER );
  581. if ( dev_priv == NULL )
  582. return -ENOMEM;
  583. memset( dev_priv, 0, sizeof(drm_radeon_private_t) );
  584. dev_priv->is_pci = init->is_pci;
  585. #if !defined(PCIGART_ENABLED)
  586. /* PCI support is not 100% working, so we disable it here.
  587.  */
  588. if ( dev_priv->is_pci ) {
  589. DRM_ERROR( "PCI GART not yet supported for Radeon!n" );
  590. dev->dev_private = (void *)dev_priv;
  591. radeon_do_cleanup_cp(dev);
  592. return -EINVAL;
  593. }
  594. #endif
  595. if ( dev_priv->is_pci && !dev->sg ) {
  596. DRM_ERROR( "PCI GART memory not allocated!n" );
  597. dev->dev_private = (void *)dev_priv;
  598. radeon_do_cleanup_cp(dev);
  599. return -EINVAL;
  600. }
  601. dev_priv->usec_timeout = init->usec_timeout;
  602. if ( dev_priv->usec_timeout < 1 ||
  603.      dev_priv->usec_timeout > RADEON_MAX_USEC_TIMEOUT ) {
  604. DRM_DEBUG( "TIMEOUT problem!n" );
  605. dev->dev_private = (void *)dev_priv;
  606. radeon_do_cleanup_cp(dev);
  607. return -EINVAL;
  608. }
  609. dev_priv->cp_mode = init->cp_mode;
  610. /* Simple idle check.
  611.  */
  612. atomic_set( &dev_priv->idle_count, 0 );
  613. /* We don't support anything other than bus-mastering ring mode,
  614.  * but the ring can be in either AGP or PCI space for the ring
  615.  * read pointer.
  616.  */
  617. if ( ( init->cp_mode != RADEON_CSQ_PRIBM_INDDIS ) &&
  618.      ( init->cp_mode != RADEON_CSQ_PRIBM_INDBM ) ) {
  619. DRM_DEBUG( "BAD cp_mode (%x)!n", init->cp_mode );
  620. dev->dev_private = (void *)dev_priv;
  621. radeon_do_cleanup_cp(dev);
  622. return -EINVAL;
  623. }
  624. switch ( init->fb_bpp ) {
  625. case 16:
  626. dev_priv->color_fmt = RADEON_COLOR_FORMAT_RGB565;
  627. break;
  628. case 32:
  629. default:
  630. dev_priv->color_fmt = RADEON_COLOR_FORMAT_ARGB8888;
  631. break;
  632. }
  633. dev_priv->front_offset = init->front_offset;
  634. dev_priv->front_pitch = init->front_pitch;
  635. dev_priv->back_offset = init->back_offset;
  636. dev_priv->back_pitch = init->back_pitch;
  637. switch ( init->depth_bpp ) {
  638. case 16:
  639. dev_priv->depth_fmt = RADEON_DEPTH_FORMAT_16BIT_INT_Z;
  640. break;
  641. case 32:
  642. default:
  643. dev_priv->depth_fmt = RADEON_DEPTH_FORMAT_24BIT_INT_Z;
  644. break;
  645. }
  646. dev_priv->depth_offset = init->depth_offset;
  647. dev_priv->depth_pitch = init->depth_pitch;
  648. dev_priv->front_pitch_offset = (((dev_priv->front_pitch/64) << 22) |
  649. (dev_priv->front_offset >> 10));
  650. dev_priv->back_pitch_offset = (((dev_priv->back_pitch/64) << 22) |
  651.        (dev_priv->back_offset >> 10));
  652. dev_priv->depth_pitch_offset = (((dev_priv->depth_pitch/64) << 22) |
  653. (dev_priv->depth_offset >> 10));
  654. /* Hardware state for depth clears.  Remove this if/when we no
  655.  * longer clear the depth buffer with a 3D rectangle.  Hard-code
  656.  * all values to prevent unwanted 3D state from slipping through
  657.  * and screwing with the clear operation.
  658.  */
  659. dev_priv->depth_clear.rb3d_cntl = (RADEON_PLANE_MASK_ENABLE |
  660.    RADEON_Z_ENABLE |
  661.    (dev_priv->color_fmt << 10) |
  662.    RADEON_ZBLOCK16);
  663. dev_priv->depth_clear.rb3d_zstencilcntl = (dev_priv->depth_fmt |
  664.    RADEON_Z_TEST_ALWAYS |
  665.    RADEON_STENCIL_TEST_ALWAYS |
  666.    RADEON_STENCIL_S_FAIL_KEEP |
  667.    RADEON_STENCIL_ZPASS_KEEP |
  668.    RADEON_STENCIL_ZFAIL_KEEP |
  669.    RADEON_Z_WRITE_ENABLE);
  670. dev_priv->depth_clear.se_cntl = (RADEON_FFACE_CULL_CW |
  671.  RADEON_BFACE_SOLID |
  672.  RADEON_FFACE_SOLID |
  673.  RADEON_FLAT_SHADE_VTX_LAST |
  674.  RADEON_DIFFUSE_SHADE_FLAT |
  675.  RADEON_ALPHA_SHADE_FLAT |
  676.  RADEON_SPECULAR_SHADE_FLAT |
  677.  RADEON_FOG_SHADE_FLAT |
  678.  RADEON_VTX_PIX_CENTER_OGL |
  679.  RADEON_ROUND_MODE_TRUNC |
  680.  RADEON_ROUND_PREC_8TH_PIX);
  681. list_for_each(list, &dev->maplist->head) {
  682. drm_map_list_t *r_list = (drm_map_list_t *)list;
  683. if( r_list->map &&
  684.     r_list->map->type == _DRM_SHM &&
  685.     r_list->map->flags & _DRM_CONTAINS_LOCK ) {
  686. dev_priv->sarea = r_list->map;
  687.   break;
  688.   }
  689.   }
  690. if(!dev_priv->sarea) {
  691. DRM_ERROR("could not find sarea!n");
  692. dev->dev_private = (void *)dev_priv;
  693. radeon_do_cleanup_cp(dev);
  694. return -EINVAL;
  695. }
  696. DRM_FIND_MAP( dev_priv->fb, init->fb_offset );
  697. if(!dev_priv->fb) {
  698. DRM_ERROR("could not find framebuffer!n");
  699. dev->dev_private = (void *)dev_priv;
  700. radeon_do_cleanup_cp(dev);
  701. return -EINVAL;
  702. }
  703. DRM_FIND_MAP( dev_priv->mmio, init->mmio_offset );
  704. if(!dev_priv->mmio) {
  705. DRM_ERROR("could not find mmio region!n");
  706. dev->dev_private = (void *)dev_priv;
  707. radeon_do_cleanup_cp(dev);
  708. return -EINVAL;
  709. }
  710. DRM_FIND_MAP( dev_priv->cp_ring, init->ring_offset );
  711. if(!dev_priv->cp_ring) {
  712. DRM_ERROR("could not find cp ring region!n");
  713. dev->dev_private = (void *)dev_priv;
  714. radeon_do_cleanup_cp(dev);
  715. return -EINVAL;
  716. }
  717. DRM_FIND_MAP( dev_priv->ring_rptr, init->ring_rptr_offset );
  718. if(!dev_priv->ring_rptr) {
  719. DRM_ERROR("could not find ring read pointer!n");
  720. dev->dev_private = (void *)dev_priv;
  721. radeon_do_cleanup_cp(dev);
  722. return -EINVAL;
  723. }
  724. DRM_FIND_MAP( dev_priv->buffers, init->buffers_offset );
  725. if(!dev_priv->buffers) {
  726. DRM_ERROR("could not find dma buffer region!n");
  727. dev->dev_private = (void *)dev_priv;
  728. radeon_do_cleanup_cp(dev);
  729. return -EINVAL;
  730. }
  731. if ( !dev_priv->is_pci ) {
  732. DRM_FIND_MAP( dev_priv->agp_textures,
  733.       init->agp_textures_offset );
  734. if(!dev_priv->agp_textures) {
  735. DRM_ERROR("could not find agp texture region!n");
  736. dev->dev_private = (void *)dev_priv;
  737. radeon_do_cleanup_cp(dev);
  738. return -EINVAL;
  739. }
  740. }
  741. dev_priv->sarea_priv =
  742. (drm_radeon_sarea_t *)((u8 *)dev_priv->sarea->handle +
  743.        init->sarea_priv_offset);
  744. if ( !dev_priv->is_pci ) {
  745. DRM_IOREMAP( dev_priv->cp_ring );
  746. DRM_IOREMAP( dev_priv->ring_rptr );
  747. DRM_IOREMAP( dev_priv->buffers );
  748. if(!dev_priv->cp_ring->handle ||
  749.    !dev_priv->ring_rptr->handle ||
  750.    !dev_priv->buffers->handle) {
  751. DRM_ERROR("could not find ioremap agp regions!n");
  752. dev->dev_private = (void *)dev_priv;
  753. radeon_do_cleanup_cp(dev);
  754. return -EINVAL;
  755. }
  756. } else {
  757. dev_priv->cp_ring->handle =
  758. (void *)dev_priv->cp_ring->offset;
  759. dev_priv->ring_rptr->handle =
  760. (void *)dev_priv->ring_rptr->offset;
  761. dev_priv->buffers->handle = (void *)dev_priv->buffers->offset;
  762. DRM_DEBUG( "dev_priv->cp_ring->handle %pn",
  763.    dev_priv->cp_ring->handle );
  764. DRM_DEBUG( "dev_priv->ring_rptr->handle %pn",
  765.    dev_priv->ring_rptr->handle );
  766. DRM_DEBUG( "dev_priv->buffers->handle %pn",
  767.    dev_priv->buffers->handle );
  768. }
  769. dev_priv->agp_size = init->agp_size;
  770. dev_priv->agp_vm_start = RADEON_READ( RADEON_CONFIG_APER_SIZE );
  771. #if __REALLY_HAVE_AGP
  772. if ( !dev_priv->is_pci )
  773. dev_priv->agp_buffers_offset = (dev_priv->buffers->offset
  774. - dev->agp->base
  775. + dev_priv->agp_vm_start);
  776. else
  777. #endif
  778. dev_priv->agp_buffers_offset = (dev_priv->buffers->offset
  779. - dev->sg->handle
  780. + dev_priv->agp_vm_start);
  781. DRM_DEBUG( "dev_priv->agp_size %dn",
  782.    dev_priv->agp_size );
  783. DRM_DEBUG( "dev_priv->agp_vm_start 0x%xn",
  784.    dev_priv->agp_vm_start );
  785. DRM_DEBUG( "dev_priv->agp_buffers_offset 0x%lxn",
  786.    dev_priv->agp_buffers_offset );
  787. dev_priv->ring.head = ((__volatile__ u32 *)
  788.        dev_priv->ring_rptr->handle);
  789. dev_priv->ring.start = (u32 *)dev_priv->cp_ring->handle;
  790. dev_priv->ring.end = ((u32 *)dev_priv->cp_ring->handle
  791.       + init->ring_size / sizeof(u32));
  792. dev_priv->ring.size = init->ring_size;
  793. dev_priv->ring.size_l2qw = DRM(order)( init->ring_size / 8 );
  794. dev_priv->ring.tail_mask =
  795. (dev_priv->ring.size / sizeof(u32)) - 1;
  796. dev_priv->ring.high_mark = RADEON_RING_HIGH_MARK;
  797. #if 0
  798. /* Initialize the scratch register pointer.  This will cause
  799.  * the scratch register values to be written out to memory
  800.  * whenever they are updated.
  801.  * FIXME: This doesn't quite work yet, so we're disabling it
  802.  * for the release.
  803.  */
  804. RADEON_WRITE( RADEON_SCRATCH_ADDR, (dev_priv->ring_rptr->offset +
  805.     RADEON_SCRATCH_REG_OFFSET) );
  806. RADEON_WRITE( RADEON_SCRATCH_UMSK, 0x7 );
  807. #endif
  808. dev_priv->scratch = ((__volatile__ u32 *)
  809.      dev_priv->ring_rptr->handle +
  810.      (RADEON_SCRATCH_REG_OFFSET / sizeof(u32)));
  811. dev_priv->sarea_priv->last_frame = 0;
  812. RADEON_WRITE( RADEON_LAST_FRAME_REG,
  813.       dev_priv->sarea_priv->last_frame );
  814. dev_priv->sarea_priv->last_dispatch = 0;
  815. RADEON_WRITE( RADEON_LAST_DISPATCH_REG,
  816.       dev_priv->sarea_priv->last_dispatch );
  817. dev_priv->sarea_priv->last_clear = 0;
  818. RADEON_WRITE( RADEON_LAST_CLEAR_REG,
  819.       dev_priv->sarea_priv->last_clear );
  820. if ( dev_priv->is_pci ) {
  821. if (!DRM(ati_pcigart_init)( dev, &dev_priv->phys_pci_gart,
  822.     &dev_priv->bus_pci_gart)) {
  823. DRM_ERROR( "failed to init PCI GART!n" );
  824. dev->dev_private = (void *)dev_priv;
  825. radeon_do_cleanup_cp(dev);
  826. return -ENOMEM;
  827. }
  828. /* Turn on PCI GART
  829.  */
  830. tmp = RADEON_READ( RADEON_AIC_CNTL )
  831.       | RADEON_PCIGART_TRANSLATE_EN;
  832. RADEON_WRITE( RADEON_AIC_CNTL, tmp );
  833. /* set PCI GART page-table base address
  834.  */
  835. RADEON_WRITE( RADEON_AIC_PT_BASE, dev_priv->bus_pci_gart );
  836. /* set address range for PCI address translate
  837.  */
  838. RADEON_WRITE( RADEON_AIC_LO_ADDR, dev_priv->agp_vm_start );
  839. RADEON_WRITE( RADEON_AIC_HI_ADDR, dev_priv->agp_vm_start
  840.   + dev_priv->agp_size - 1);
  841. /* Turn off AGP aperture -- is this required for PCIGART?
  842.  */
  843. RADEON_WRITE( RADEON_MC_AGP_LOCATION, 0xffffffc0 ); /* ?? */
  844. RADEON_WRITE( RADEON_AGP_COMMAND, 0 ); /* clear AGP_COMMAND */
  845. } else {
  846. /* Turn off PCI GART
  847.  */
  848. tmp = RADEON_READ( RADEON_AIC_CNTL )
  849.       & ~RADEON_PCIGART_TRANSLATE_EN;
  850. RADEON_WRITE( RADEON_AIC_CNTL, tmp );
  851. }
  852. radeon_cp_load_microcode( dev_priv );
  853. radeon_cp_init_ring_buffer( dev, dev_priv );
  854. #if ROTATE_BUFS
  855. dev_priv->last_buf = 0;
  856. #endif
  857. dev->dev_private = (void *)dev_priv;
  858. radeon_do_engine_reset( dev );
  859. return 0;
  860. }
  861. int radeon_do_cleanup_cp( drm_device_t *dev )
  862. {
  863. DRM_DEBUG( "%sn", __FUNCTION__ );
  864. if ( dev->dev_private ) {
  865. drm_radeon_private_t *dev_priv = dev->dev_private;
  866. if ( !dev_priv->is_pci ) {
  867. DRM_IOREMAPFREE( dev_priv->cp_ring );
  868. DRM_IOREMAPFREE( dev_priv->ring_rptr );
  869. DRM_IOREMAPFREE( dev_priv->buffers );
  870. } else {
  871. if (!DRM(ati_pcigart_cleanup)( dev,
  872. dev_priv->phys_pci_gart,
  873. dev_priv->bus_pci_gart ))
  874. DRM_ERROR( "failed to cleanup PCI GART!n" );
  875. }
  876. DRM(free)( dev->dev_private, sizeof(drm_radeon_private_t),
  877.    DRM_MEM_DRIVER );
  878. dev->dev_private = NULL;
  879. }
  880. return 0;
  881. }
  882. int radeon_cp_init( struct inode *inode, struct file *filp,
  883.     unsigned int cmd, unsigned long arg )
  884. {
  885.         drm_file_t *priv = filp->private_data;
  886.         drm_device_t *dev = priv->dev;
  887. drm_radeon_init_t init;
  888. if ( copy_from_user( &init, (drm_radeon_init_t *)arg, sizeof(init) ) )
  889. return -EFAULT;
  890. switch ( init.func ) {
  891. case RADEON_INIT_CP:
  892. return radeon_do_init_cp( dev, &init );
  893. case RADEON_CLEANUP_CP:
  894. return radeon_do_cleanup_cp( dev );
  895. }
  896. return -EINVAL;
  897. }
  898. int radeon_cp_start( struct inode *inode, struct file *filp,
  899.      unsigned int cmd, unsigned long arg )
  900. {
  901.         drm_file_t *priv = filp->private_data;
  902.         drm_device_t *dev = priv->dev;
  903. drm_radeon_private_t *dev_priv = dev->dev_private;
  904. DRM_DEBUG( "%sn", __FUNCTION__ );
  905. LOCK_TEST_WITH_RETURN( dev );
  906. if ( dev_priv->cp_running ) {
  907. DRM_DEBUG( "%s while CP runningn", __FUNCTION__ );
  908. return 0;
  909. }
  910. if ( dev_priv->cp_mode == RADEON_CSQ_PRIDIS_INDDIS ) {
  911. DRM_DEBUG( "%s called with bogus CP mode (%d)n",
  912.    __FUNCTION__, dev_priv->cp_mode );
  913. return 0;
  914. }
  915. radeon_do_cp_start( dev_priv );
  916. return 0;
  917. }
  918. /* Stop the CP.  The engine must have been idled before calling this
  919.  * routine.
  920.  */
  921. int radeon_cp_stop( struct inode *inode, struct file *filp,
  922.     unsigned int cmd, unsigned long arg )
  923. {
  924.         drm_file_t *priv = filp->private_data;
  925.         drm_device_t *dev = priv->dev;
  926. drm_radeon_private_t *dev_priv = dev->dev_private;
  927. drm_radeon_cp_stop_t stop;
  928. int ret;
  929. DRM_DEBUG( "%sn", __FUNCTION__ );
  930. LOCK_TEST_WITH_RETURN( dev );
  931. if ( copy_from_user( &stop, (drm_radeon_init_t *)arg, sizeof(stop) ) )
  932. return -EFAULT;
  933. /* Flush any pending CP commands.  This ensures any outstanding
  934.  * commands are exectuted by the engine before we turn it off.
  935.  */
  936. if ( stop.flush ) {
  937. radeon_do_cp_flush( dev_priv );
  938. }
  939. /* If we fail to make the engine go idle, we return an error
  940.  * code so that the DRM ioctl wrapper can try again.
  941.  */
  942. if ( stop.idle ) {
  943. ret = radeon_do_cp_idle( dev_priv );
  944. if ( ret < 0 ) return ret;
  945. }
  946. /* Finally, we can turn off the CP.  If the engine isn't idle,
  947.  * we will get some dropped triangles as they won't be fully
  948.  * rendered before the CP is shut down.
  949.  */
  950. radeon_do_cp_stop( dev_priv );
  951. /* Reset the engine */
  952. radeon_do_engine_reset( dev );
  953. return 0;
  954. }
  955. /* Just reset the CP ring.  Called as part of an X Server engine reset.
  956.  */
  957. int radeon_cp_reset( struct inode *inode, struct file *filp,
  958.      unsigned int cmd, unsigned long arg )
  959. {
  960.         drm_file_t *priv = filp->private_data;
  961.         drm_device_t *dev = priv->dev;
  962. drm_radeon_private_t *dev_priv = dev->dev_private;
  963. DRM_DEBUG( "%sn", __FUNCTION__ );
  964. LOCK_TEST_WITH_RETURN( dev );
  965. if ( !dev_priv ) {
  966. DRM_DEBUG( "%s called before init donen", __FUNCTION__ );
  967. return -EINVAL;
  968. }
  969. radeon_do_cp_reset( dev_priv );
  970. /* The CP is no longer running after an engine reset */
  971. dev_priv->cp_running = 0;
  972. return 0;
  973. }
  974. int radeon_cp_idle( struct inode *inode, struct file *filp,
  975.     unsigned int cmd, unsigned long arg )
  976. {
  977.         drm_file_t *priv = filp->private_data;
  978.         drm_device_t *dev = priv->dev;
  979. drm_radeon_private_t *dev_priv = dev->dev_private;
  980. DRM_DEBUG( "%sn", __FUNCTION__ );
  981. LOCK_TEST_WITH_RETURN( dev );
  982. return radeon_do_cp_idle( dev_priv );
  983. }
  984. int radeon_engine_reset( struct inode *inode, struct file *filp,
  985.  unsigned int cmd, unsigned long arg )
  986. {
  987.         drm_file_t *priv = filp->private_data;
  988.         drm_device_t *dev = priv->dev;
  989. DRM_DEBUG( "%sn", __FUNCTION__ );
  990. LOCK_TEST_WITH_RETURN( dev );
  991. return radeon_do_engine_reset( dev );
  992. }
  993. /* ================================================================
  994.  * Fullscreen mode
  995.  */
  996. static int radeon_do_init_pageflip( drm_device_t *dev )
  997. {
  998. drm_radeon_private_t *dev_priv = dev->dev_private;
  999. DRM_DEBUG( "%sn", __FUNCTION__ );
  1000. dev_priv->crtc_offset =      RADEON_READ( RADEON_CRTC_OFFSET );
  1001. dev_priv->crtc_offset_cntl = RADEON_READ( RADEON_CRTC_OFFSET_CNTL );
  1002. RADEON_WRITE( RADEON_CRTC_OFFSET, dev_priv->front_offset );
  1003. RADEON_WRITE( RADEON_CRTC_OFFSET_CNTL,
  1004.       dev_priv->crtc_offset_cntl |
  1005.       RADEON_CRTC_OFFSET_FLIP_CNTL );
  1006. dev_priv->page_flipping = 1;
  1007. dev_priv->current_page = 0;
  1008. return 0;
  1009. }
  1010. int radeon_do_cleanup_pageflip( drm_device_t *dev )
  1011. {
  1012. drm_radeon_private_t *dev_priv = dev->dev_private;
  1013. DRM_DEBUG( "%sn", __FUNCTION__ );
  1014. RADEON_WRITE( RADEON_CRTC_OFFSET,      dev_priv->crtc_offset );
  1015. RADEON_WRITE( RADEON_CRTC_OFFSET_CNTL, dev_priv->crtc_offset_cntl );
  1016. dev_priv->page_flipping = 0;
  1017. dev_priv->current_page = 0;
  1018. return 0;
  1019. }
  1020. int radeon_fullscreen( struct inode *inode, struct file *filp,
  1021.        unsigned int cmd, unsigned long arg )
  1022. {
  1023.         drm_file_t *priv = filp->private_data;
  1024.         drm_device_t *dev = priv->dev;
  1025. drm_radeon_fullscreen_t fs;
  1026. LOCK_TEST_WITH_RETURN( dev );
  1027. if ( copy_from_user( &fs, (drm_radeon_fullscreen_t *)arg,
  1028.      sizeof(fs) ) )
  1029. return -EFAULT;
  1030. switch ( fs.func ) {
  1031. case RADEON_INIT_FULLSCREEN:
  1032. return radeon_do_init_pageflip( dev );
  1033. case RADEON_CLEANUP_FULLSCREEN:
  1034. return radeon_do_cleanup_pageflip( dev );
  1035. }
  1036. return -EINVAL;
  1037. }
  1038. /* ================================================================
  1039.  * Freelist management
  1040.  */
  1041. #define RADEON_BUFFER_USED 0xffffffff
  1042. #define RADEON_BUFFER_FREE 0
  1043. #if 0
  1044. static int radeon_freelist_init( drm_device_t *dev )
  1045. {
  1046. drm_device_dma_t *dma = dev->dma;
  1047. drm_radeon_private_t *dev_priv = dev->dev_private;
  1048. drm_buf_t *buf;
  1049. drm_radeon_buf_priv_t *buf_priv;
  1050. drm_radeon_freelist_t *entry;
  1051. int i;
  1052. dev_priv->head = DRM(alloc)( sizeof(drm_radeon_freelist_t),
  1053.      DRM_MEM_DRIVER );
  1054. if ( dev_priv->head == NULL )
  1055. return -ENOMEM;
  1056. memset( dev_priv->head, 0, sizeof(drm_radeon_freelist_t) );
  1057. dev_priv->head->age = RADEON_BUFFER_USED;
  1058. for ( i = 0 ; i < dma->buf_count ; i++ ) {
  1059. buf = dma->buflist[i];
  1060. buf_priv = buf->dev_private;
  1061. entry = DRM(alloc)( sizeof(drm_radeon_freelist_t),
  1062.     DRM_MEM_DRIVER );
  1063. if ( !entry ) return -ENOMEM;
  1064. entry->age = RADEON_BUFFER_FREE;
  1065. entry->buf = buf;
  1066. entry->prev = dev_priv->head;
  1067. entry->next = dev_priv->head->next;
  1068. if ( !entry->next )
  1069. dev_priv->tail = entry;
  1070. buf_priv->discard = 0;
  1071. buf_priv->dispatched = 0;
  1072. buf_priv->list_entry = entry;
  1073. dev_priv->head->next = entry;
  1074. if ( dev_priv->head->next )
  1075. dev_priv->head->next->prev = entry;
  1076. }
  1077. return 0;
  1078. }
  1079. #endif
  1080. drm_buf_t *radeon_freelist_get( drm_device_t *dev )
  1081. {
  1082. drm_device_dma_t *dma = dev->dma;
  1083. drm_radeon_private_t *dev_priv = dev->dev_private;
  1084. drm_radeon_buf_priv_t *buf_priv;
  1085. drm_buf_t *buf;
  1086. int i, t;
  1087. #if ROTATE_BUFS
  1088. int start;
  1089. #endif
  1090. /* FIXME: Optimize -- use freelist code */
  1091. for ( i = 0 ; i < dma->buf_count ; i++ ) {
  1092. buf = dma->buflist[i];
  1093. buf_priv = buf->dev_private;
  1094. if ( buf->pid == 0 ) {
  1095. DRM_DEBUG( "  ret buf=%d last=%d pid=0n",
  1096.    buf->idx, dev_priv->last_buf );
  1097. return buf;
  1098. }
  1099. DRM_DEBUG( "    skipping buf=%d pid=%dn",
  1100.    buf->idx, buf->pid );
  1101. }
  1102. #if ROTATE_BUFS
  1103. if ( ++dev_priv->last_buf >= dma->buf_count )
  1104. dev_priv->last_buf = 0;
  1105. start = dev_priv->last_buf;
  1106. #endif
  1107. for ( t = 0 ; t < dev_priv->usec_timeout ; t++ ) {
  1108. #if 0
  1109. /* FIXME: Disable this for now */
  1110. u32 done_age = dev_priv->scratch[RADEON_LAST_DISPATCH];
  1111. #else
  1112. u32 done_age = RADEON_READ( RADEON_LAST_DISPATCH_REG );
  1113. #endif
  1114. #if ROTATE_BUFS
  1115. for ( i = start ; i < dma->buf_count ; i++ ) {
  1116. #else
  1117. for ( i = 0 ; i < dma->buf_count ; i++ ) {
  1118. #endif
  1119. buf = dma->buflist[i];
  1120. buf_priv = buf->dev_private;
  1121. if ( buf->pending && buf_priv->age <= done_age ) {
  1122. /* The buffer has been processed, so it
  1123.  * can now be used.
  1124.  */
  1125. buf->pending = 0;
  1126. DRM_DEBUG( "  ret buf=%d last=%d age=%d done=%dn", buf->idx, dev_priv->last_buf, buf_priv->age, done_age );
  1127. return buf;
  1128. }
  1129. DRM_DEBUG( "    skipping buf=%d age=%d done=%dn",
  1130.    buf->idx, buf_priv->age,
  1131.    done_age );
  1132. #if ROTATE_BUFS
  1133. start = 0;
  1134. #endif
  1135. }
  1136. udelay( 1 );
  1137. }
  1138. DRM_ERROR( "returning NULL!n" );
  1139. return NULL;
  1140. }
  1141. void radeon_freelist_reset( drm_device_t *dev )
  1142. {
  1143. drm_device_dma_t *dma = dev->dma;
  1144. #if ROTATE_BUFS
  1145. drm_radeon_private_t *dev_priv = dev->dev_private;
  1146. #endif
  1147. int i;
  1148. #if ROTATE_BUFS
  1149. dev_priv->last_buf = 0;
  1150. #endif
  1151. for ( i = 0 ; i < dma->buf_count ; i++ ) {
  1152. drm_buf_t *buf = dma->buflist[i];
  1153. drm_radeon_buf_priv_t *buf_priv = buf->dev_private;
  1154. buf_priv->age = 0;
  1155. }
  1156. }
  1157. /* ================================================================
  1158.  * CP command submission
  1159.  */
  1160. int radeon_wait_ring( drm_radeon_private_t *dev_priv, int n )
  1161. {
  1162. drm_radeon_ring_buffer_t *ring = &dev_priv->ring;
  1163. int i;
  1164. for ( i = 0 ; i < dev_priv->usec_timeout ; i++ ) {
  1165. radeon_update_ring_snapshot( ring );
  1166. if ( ring->space > n )
  1167. return 0;
  1168. udelay( 1 );
  1169. }
  1170. /* FIXME: This return value is ignored in the BEGIN_RING macro! */
  1171. #if RADEON_FIFO_DEBUG
  1172. radeon_status( dev_priv );
  1173. DRM_ERROR( "failed!n" );
  1174. #endif
  1175. return -EBUSY;
  1176. }
  1177. static int radeon_cp_get_buffers( drm_device_t *dev, drm_dma_t *d )
  1178. {
  1179. int i;
  1180. drm_buf_t *buf;
  1181. for ( i = d->granted_count ; i < d->request_count ; i++ ) {
  1182. buf = radeon_freelist_get( dev );
  1183. if ( !buf ) return -EAGAIN;
  1184. buf->pid = current->pid;
  1185. if ( copy_to_user( &d->request_indices[i], &buf->idx,
  1186.    sizeof(buf->idx) ) )
  1187. return -EFAULT;
  1188. if ( copy_to_user( &d->request_sizes[i], &buf->total,
  1189.    sizeof(buf->total) ) )
  1190. return -EFAULT;
  1191. d->granted_count++;
  1192. }
  1193. return 0;
  1194. }
  1195. int radeon_cp_buffers( struct inode *inode, struct file *filp,
  1196.        unsigned int cmd, unsigned long arg )
  1197. {
  1198. drm_file_t *priv = filp->private_data;
  1199. drm_device_t *dev = priv->dev;
  1200. drm_device_dma_t *dma = dev->dma;
  1201. int ret = 0;
  1202. drm_dma_t d;
  1203. LOCK_TEST_WITH_RETURN( dev );
  1204. if ( copy_from_user( &d, (drm_dma_t *)arg, sizeof(d) ) )
  1205. return -EFAULT;
  1206. /* Please don't send us buffers.
  1207.  */
  1208. if ( d.send_count != 0 ) {
  1209. DRM_ERROR( "Process %d trying to send %d buffers via drmDMAn",
  1210.    current->pid, d.send_count );
  1211. return -EINVAL;
  1212. }
  1213. /* We'll send you buffers.
  1214.  */
  1215. if ( d.request_count < 0 || d.request_count > dma->buf_count ) {
  1216. DRM_ERROR( "Process %d trying to get %d buffers (of %d max)n",
  1217.    current->pid, d.request_count, dma->buf_count );
  1218. return -EINVAL;
  1219. }
  1220. d.granted_count = 0;
  1221. if ( d.request_count ) {
  1222. ret = radeon_cp_get_buffers( dev, &d );
  1223. }
  1224. if ( copy_to_user( (drm_dma_t *)arg, &d, sizeof(d) ) )
  1225. return -EFAULT;
  1226. return ret;
  1227. }