r128_state.c
上传用户:jlfgdled
上传日期:2013-04-10
资源大小:33168k
文件大小:39k
源码类别:

Linux/Unix编程

开发平台:

Unix_Linux

  1. /* r128_state.c -- State support for r128 -*- linux-c -*-
  2.  * Created: Thu Jan 27 02:53:43 2000 by gareth@valinux.com
  3.  *
  4.  * Copyright 2000 VA Linux Systems, Inc., Sunnyvale, California.
  5.  * All Rights Reserved.
  6.  *
  7.  * Permission is hereby granted, free of charge, to any person obtaining a
  8.  * copy of this software and associated documentation files (the "Software"),
  9.  * to deal in the Software without restriction, including without limitation
  10.  * the rights to use, copy, modify, merge, publish, distribute, sublicense,
  11.  * and/or sell copies of the Software, and to permit persons to whom the
  12.  * Software is furnished to do so, subject to the following conditions:
  13.  *
  14.  * The above copyright notice and this permission notice (including the next
  15.  * paragraph) shall be included in all copies or substantial portions of the
  16.  * Software.
  17.  *
  18.  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
  19.  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
  20.  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
  21.  * PRECISION INSIGHT AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM, DAMAGES OR
  22.  * OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE,
  23.  * ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER
  24.  * DEALINGS IN THE SOFTWARE.
  25.  *
  26.  * Authors:
  27.  *    Gareth Hughes <gareth@valinux.com>
  28.  */
  29. #include "r128.h"
  30. #include "drmP.h"
  31. #include "r128_drv.h"
  32. #include "drm.h"
  33. #include <linux/delay.h>
  34. /* ================================================================
  35.  * CCE hardware state programming functions
  36.  */
  37. static void r128_emit_clip_rects( drm_r128_private_t *dev_priv,
  38.   drm_clip_rect_t *boxes, int count )
  39. {
  40. u32 aux_sc_cntl = 0x00000000;
  41. RING_LOCALS;
  42. DRM_DEBUG( "    %sn", __FUNCTION__ );
  43. BEGIN_RING( 17 );
  44. if ( count >= 1 ) {
  45. OUT_RING( CCE_PACKET0( R128_AUX1_SC_LEFT, 3 ) );
  46. OUT_RING( boxes[0].x1 );
  47. OUT_RING( boxes[0].x2 - 1 );
  48. OUT_RING( boxes[0].y1 );
  49. OUT_RING( boxes[0].y2 - 1 );
  50. aux_sc_cntl |= (R128_AUX1_SC_EN | R128_AUX1_SC_MODE_OR);
  51. }
  52. if ( count >= 2 ) {
  53. OUT_RING( CCE_PACKET0( R128_AUX2_SC_LEFT, 3 ) );
  54. OUT_RING( boxes[1].x1 );
  55. OUT_RING( boxes[1].x2 - 1 );
  56. OUT_RING( boxes[1].y1 );
  57. OUT_RING( boxes[1].y2 - 1 );
  58. aux_sc_cntl |= (R128_AUX2_SC_EN | R128_AUX2_SC_MODE_OR);
  59. }
  60. if ( count >= 3 ) {
  61. OUT_RING( CCE_PACKET0( R128_AUX3_SC_LEFT, 3 ) );
  62. OUT_RING( boxes[2].x1 );
  63. OUT_RING( boxes[2].x2 - 1 );
  64. OUT_RING( boxes[2].y1 );
  65. OUT_RING( boxes[2].y2 - 1 );
  66. aux_sc_cntl |= (R128_AUX3_SC_EN | R128_AUX3_SC_MODE_OR);
  67. }
  68. OUT_RING( CCE_PACKET0( R128_AUX_SC_CNTL, 0 ) );
  69. OUT_RING( aux_sc_cntl );
  70. ADVANCE_RING();
  71. }
  72. static inline void r128_emit_core( drm_r128_private_t *dev_priv )
  73. {
  74. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  75. drm_r128_context_regs_t *ctx = &sarea_priv->context_state;
  76. RING_LOCALS;
  77. DRM_DEBUG( "    %sn", __FUNCTION__ );
  78. BEGIN_RING( 2 );
  79. OUT_RING( CCE_PACKET0( R128_SCALE_3D_CNTL, 0 ) );
  80. OUT_RING( ctx->scale_3d_cntl );
  81. ADVANCE_RING();
  82. }
  83. static inline void r128_emit_context( drm_r128_private_t *dev_priv )
  84. {
  85. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  86. drm_r128_context_regs_t *ctx = &sarea_priv->context_state;
  87. RING_LOCALS;
  88. DRM_DEBUG( "    %sn", __FUNCTION__ );
  89. BEGIN_RING( 13 );
  90. OUT_RING( CCE_PACKET0( R128_DST_PITCH_OFFSET_C, 11 ) );
  91. OUT_RING( ctx->dst_pitch_offset_c );
  92. OUT_RING( ctx->dp_gui_master_cntl_c );
  93. OUT_RING( ctx->sc_top_left_c );
  94. OUT_RING( ctx->sc_bottom_right_c );
  95. OUT_RING( ctx->z_offset_c );
  96. OUT_RING( ctx->z_pitch_c );
  97. OUT_RING( ctx->z_sten_cntl_c );
  98. OUT_RING( ctx->tex_cntl_c );
  99. OUT_RING( ctx->misc_3d_state_cntl_reg );
  100. OUT_RING( ctx->texture_clr_cmp_clr_c );
  101. OUT_RING( ctx->texture_clr_cmp_msk_c );
  102. OUT_RING( ctx->fog_color_c );
  103. ADVANCE_RING();
  104. }
  105. static inline void r128_emit_setup( drm_r128_private_t *dev_priv )
  106. {
  107. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  108. drm_r128_context_regs_t *ctx = &sarea_priv->context_state;
  109. RING_LOCALS;
  110. DRM_DEBUG( "    %sn", __FUNCTION__ );
  111. BEGIN_RING( 3 );
  112. OUT_RING( CCE_PACKET1( R128_SETUP_CNTL, R128_PM4_VC_FPU_SETUP ) );
  113. OUT_RING( ctx->setup_cntl );
  114. OUT_RING( ctx->pm4_vc_fpu_setup );
  115. ADVANCE_RING();
  116. }
  117. static inline void r128_emit_masks( drm_r128_private_t *dev_priv )
  118. {
  119. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  120. drm_r128_context_regs_t *ctx = &sarea_priv->context_state;
  121. RING_LOCALS;
  122. DRM_DEBUG( "    %sn", __FUNCTION__ );
  123. BEGIN_RING( 5 );
  124. OUT_RING( CCE_PACKET0( R128_DP_WRITE_MASK, 0 ) );
  125. OUT_RING( ctx->dp_write_mask );
  126. OUT_RING( CCE_PACKET0( R128_STEN_REF_MASK_C, 1 ) );
  127. OUT_RING( ctx->sten_ref_mask_c );
  128. OUT_RING( ctx->plane_3d_mask_c );
  129. ADVANCE_RING();
  130. }
  131. static inline void r128_emit_window( drm_r128_private_t *dev_priv )
  132. {
  133. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  134. drm_r128_context_regs_t *ctx = &sarea_priv->context_state;
  135. RING_LOCALS;
  136. DRM_DEBUG( "    %sn", __FUNCTION__ );
  137. BEGIN_RING( 2 );
  138. OUT_RING( CCE_PACKET0( R128_WINDOW_XY_OFFSET, 0 ) );
  139. OUT_RING( ctx->window_xy_offset );
  140. ADVANCE_RING();
  141. }
  142. static inline void r128_emit_tex0( drm_r128_private_t *dev_priv )
  143. {
  144. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  145. drm_r128_context_regs_t *ctx = &sarea_priv->context_state;
  146. drm_r128_texture_regs_t *tex = &sarea_priv->tex_state[0];
  147. int i;
  148. RING_LOCALS;
  149. DRM_DEBUG( "    %sn", __FUNCTION__ );
  150. BEGIN_RING( 7 + R128_MAX_TEXTURE_LEVELS );
  151. OUT_RING( CCE_PACKET0( R128_PRIM_TEX_CNTL_C,
  152.        2 + R128_MAX_TEXTURE_LEVELS ) );
  153. OUT_RING( tex->tex_cntl );
  154. OUT_RING( tex->tex_combine_cntl );
  155. OUT_RING( ctx->tex_size_pitch_c );
  156. for ( i = 0 ; i < R128_MAX_TEXTURE_LEVELS ; i++ ) {
  157. OUT_RING( tex->tex_offset[i] );
  158. }
  159. OUT_RING( CCE_PACKET0( R128_CONSTANT_COLOR_C, 1 ) );
  160. OUT_RING( ctx->constant_color_c );
  161. OUT_RING( tex->tex_border_color );
  162. ADVANCE_RING();
  163. }
  164. static inline void r128_emit_tex1( drm_r128_private_t *dev_priv )
  165. {
  166. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  167. drm_r128_texture_regs_t *tex = &sarea_priv->tex_state[1];
  168. int i;
  169. RING_LOCALS;
  170. DRM_DEBUG( "    %sn", __FUNCTION__ );
  171. BEGIN_RING( 5 + R128_MAX_TEXTURE_LEVELS );
  172. OUT_RING( CCE_PACKET0( R128_SEC_TEX_CNTL_C,
  173.        1 + R128_MAX_TEXTURE_LEVELS ) );
  174. OUT_RING( tex->tex_cntl );
  175. OUT_RING( tex->tex_combine_cntl );
  176. for ( i = 0 ; i < R128_MAX_TEXTURE_LEVELS ; i++ ) {
  177. OUT_RING( tex->tex_offset[i] );
  178. }
  179. OUT_RING( CCE_PACKET0( R128_SEC_TEXTURE_BORDER_COLOR_C, 0 ) );
  180. OUT_RING( tex->tex_border_color );
  181. ADVANCE_RING();
  182. }
  183. static inline void r128_emit_state( drm_r128_private_t *dev_priv )
  184. {
  185. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  186. unsigned int dirty = sarea_priv->dirty;
  187. DRM_DEBUG( "%s: dirty=0x%08xn", __FUNCTION__, dirty );
  188. if ( dirty & R128_UPLOAD_CORE ) {
  189. r128_emit_core( dev_priv );
  190. sarea_priv->dirty &= ~R128_UPLOAD_CORE;
  191. }
  192. if ( dirty & R128_UPLOAD_CONTEXT ) {
  193. r128_emit_context( dev_priv );
  194. sarea_priv->dirty &= ~R128_UPLOAD_CONTEXT;
  195. }
  196. if ( dirty & R128_UPLOAD_SETUP ) {
  197. r128_emit_setup( dev_priv );
  198. sarea_priv->dirty &= ~R128_UPLOAD_SETUP;
  199. }
  200. if ( dirty & R128_UPLOAD_MASKS ) {
  201. r128_emit_masks( dev_priv );
  202. sarea_priv->dirty &= ~R128_UPLOAD_MASKS;
  203. }
  204. if ( dirty & R128_UPLOAD_WINDOW ) {
  205. r128_emit_window( dev_priv );
  206. sarea_priv->dirty &= ~R128_UPLOAD_WINDOW;
  207. }
  208. if ( dirty & R128_UPLOAD_TEX0 ) {
  209. r128_emit_tex0( dev_priv );
  210. sarea_priv->dirty &= ~R128_UPLOAD_TEX0;
  211. }
  212. if ( dirty & R128_UPLOAD_TEX1 ) {
  213. r128_emit_tex1( dev_priv );
  214. sarea_priv->dirty &= ~R128_UPLOAD_TEX1;
  215. }
  216. /* Turn off the texture cache flushing */
  217. sarea_priv->context_state.tex_cntl_c &= ~R128_TEX_CACHE_FLUSH;
  218. sarea_priv->dirty &= ~R128_REQUIRE_QUIESCENCE;
  219. }
  220. #if R128_PERFORMANCE_BOXES
  221. /* ================================================================
  222.  * Performance monitoring functions
  223.  */
  224. static void r128_clear_box( drm_r128_private_t *dev_priv,
  225.     int x, int y, int w, int h,
  226.     int r, int g, int b )
  227. {
  228. u32 pitch, offset;
  229. u32 fb_bpp, color;
  230. RING_LOCALS;
  231. switch ( dev_priv->fb_bpp ) {
  232. case 16:
  233. fb_bpp = R128_GMC_DST_16BPP;
  234. color = (((r & 0xf8) << 8) |
  235.  ((g & 0xfc) << 3) |
  236.  ((b & 0xf8) >> 3));
  237. break;
  238. case 24:
  239. fb_bpp = R128_GMC_DST_24BPP;
  240. color = ((r << 16) | (g << 8) | b);
  241. break;
  242. case 32:
  243. fb_bpp = R128_GMC_DST_32BPP;
  244. color = (((0xff) << 24) | (r << 16) | (g <<  8) | b);
  245. break;
  246. default:
  247. return;
  248. }
  249. offset = dev_priv->back_offset;
  250. pitch = dev_priv->back_pitch >> 3;
  251. BEGIN_RING( 6 );
  252. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI, 4 ) );
  253. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL |
  254.   R128_GMC_BRUSH_SOLID_COLOR |
  255.   fb_bpp |
  256.   R128_GMC_SRC_DATATYPE_COLOR |
  257.   R128_ROP3_P |
  258.   R128_GMC_CLR_CMP_CNTL_DIS |
  259.   R128_GMC_AUX_CLIP_DIS );
  260. OUT_RING( (pitch << 21) | (offset >> 5) );
  261. OUT_RING( color );
  262. OUT_RING( (x << 16) | y );
  263. OUT_RING( (w << 16) | h );
  264. ADVANCE_RING();
  265. }
  266. static void r128_cce_performance_boxes( drm_r128_private_t *dev_priv )
  267. {
  268. if ( atomic_read( &dev_priv->idle_count ) == 0 ) {
  269. r128_clear_box( dev_priv, 64, 4, 8, 8, 0, 255, 0 );
  270. } else {
  271. atomic_set( &dev_priv->idle_count, 0 );
  272. }
  273. }
  274. #endif
  275. /* ================================================================
  276.  * CCE command dispatch functions
  277.  */
  278. static void r128_print_dirty( const char *msg, unsigned int flags )
  279. {
  280. DRM_INFO( "%s: (0x%x) %s%s%s%s%s%s%s%s%sn",
  281.   msg,
  282.   flags,
  283.   (flags & R128_UPLOAD_CORE)        ? "core, " : "",
  284.   (flags & R128_UPLOAD_CONTEXT)     ? "context, " : "",
  285.   (flags & R128_UPLOAD_SETUP)       ? "setup, " : "",
  286.   (flags & R128_UPLOAD_TEX0)        ? "tex0, " : "",
  287.   (flags & R128_UPLOAD_TEX1)        ? "tex1, " : "",
  288.   (flags & R128_UPLOAD_MASKS)       ? "masks, " : "",
  289.   (flags & R128_UPLOAD_WINDOW)      ? "window, " : "",
  290.   (flags & R128_UPLOAD_CLIPRECTS)   ? "cliprects, " : "",
  291.   (flags & R128_REQUIRE_QUIESCENCE) ? "quiescence, " : "" );
  292. }
  293. static void r128_cce_dispatch_clear( drm_device_t *dev,
  294.      drm_r128_clear_t *clear )
  295. {
  296. drm_r128_private_t *dev_priv = dev->dev_private;
  297. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  298. int nbox = sarea_priv->nbox;
  299. drm_clip_rect_t *pbox = sarea_priv->boxes;
  300. unsigned int flags = clear->flags;
  301. int i;
  302. RING_LOCALS;
  303. DRM_DEBUG( "%sn", __FUNCTION__ );
  304. if ( dev_priv->page_flipping && dev_priv->current_page == 1 ) {
  305. unsigned int tmp = flags;
  306. flags &= ~(R128_FRONT | R128_BACK);
  307. if ( tmp & R128_FRONT ) flags |= R128_BACK;
  308. if ( tmp & R128_BACK )  flags |= R128_FRONT;
  309. }
  310. for ( i = 0 ; i < nbox ; i++ ) {
  311. int x = pbox[i].x1;
  312. int y = pbox[i].y1;
  313. int w = pbox[i].x2 - x;
  314. int h = pbox[i].y2 - y;
  315. DRM_DEBUG( "dispatch clear %d,%d-%d,%d flags 0x%xn",
  316.    pbox[i].x1, pbox[i].y1, pbox[i].x2,
  317.    pbox[i].y2, flags );
  318. if ( flags & (R128_FRONT | R128_BACK) ) {
  319. BEGIN_RING( 2 );
  320. OUT_RING( CCE_PACKET0( R128_DP_WRITE_MASK, 0 ) );
  321. OUT_RING( clear->color_mask );
  322. ADVANCE_RING();
  323. }
  324. if ( flags & R128_FRONT ) {
  325. BEGIN_RING( 6 );
  326. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI, 4 ) );
  327. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL |
  328.   R128_GMC_BRUSH_SOLID_COLOR |
  329.   (dev_priv->color_fmt << 8) |
  330.   R128_GMC_SRC_DATATYPE_COLOR |
  331.   R128_ROP3_P |
  332.   R128_GMC_CLR_CMP_CNTL_DIS |
  333.   R128_GMC_AUX_CLIP_DIS );
  334. OUT_RING( dev_priv->front_pitch_offset_c );
  335. OUT_RING( clear->clear_color );
  336. OUT_RING( (x << 16) | y );
  337. OUT_RING( (w << 16) | h );
  338. ADVANCE_RING();
  339. }
  340. if ( flags & R128_BACK ) {
  341. BEGIN_RING( 6 );
  342. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI, 4 ) );
  343. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL |
  344.   R128_GMC_BRUSH_SOLID_COLOR |
  345.   (dev_priv->color_fmt << 8) |
  346.   R128_GMC_SRC_DATATYPE_COLOR |
  347.   R128_ROP3_P |
  348.   R128_GMC_CLR_CMP_CNTL_DIS |
  349.   R128_GMC_AUX_CLIP_DIS );
  350. OUT_RING( dev_priv->back_pitch_offset_c );
  351. OUT_RING( clear->clear_color );
  352. OUT_RING( (x << 16) | y );
  353. OUT_RING( (w << 16) | h );
  354. ADVANCE_RING();
  355. }
  356. if ( flags & R128_DEPTH ) {
  357. BEGIN_RING( 6 );
  358. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI, 4 ) );
  359. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL |
  360.   R128_GMC_BRUSH_SOLID_COLOR |
  361.   (dev_priv->depth_fmt << 8) |
  362.   R128_GMC_SRC_DATATYPE_COLOR |
  363.   R128_ROP3_P |
  364.   R128_GMC_CLR_CMP_CNTL_DIS |
  365.   R128_GMC_AUX_CLIP_DIS |
  366.   R128_GMC_WR_MSK_DIS );
  367. OUT_RING( dev_priv->depth_pitch_offset_c );
  368. OUT_RING( clear->clear_depth );
  369. OUT_RING( (x << 16) | y );
  370. OUT_RING( (w << 16) | h );
  371. ADVANCE_RING();
  372. }
  373. }
  374. }
  375. static void r128_cce_dispatch_swap( drm_device_t *dev )
  376. {
  377. drm_r128_private_t *dev_priv = dev->dev_private;
  378. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  379. int nbox = sarea_priv->nbox;
  380. drm_clip_rect_t *pbox = sarea_priv->boxes;
  381. int i;
  382. RING_LOCALS;
  383. DRM_DEBUG( "%sn", __FUNCTION__ );
  384. #if R128_PERFORMANCE_BOXES
  385. /* Do some trivial performance monitoring...
  386.  */
  387. r128_cce_performance_boxes( dev_priv );
  388. #endif
  389. for ( i = 0 ; i < nbox ; i++ ) {
  390. int x = pbox[i].x1;
  391. int y = pbox[i].y1;
  392. int w = pbox[i].x2 - x;
  393. int h = pbox[i].y2 - y;
  394. BEGIN_RING( 7 );
  395. OUT_RING( CCE_PACKET3( R128_CNTL_BITBLT_MULTI, 5 ) );
  396. OUT_RING( R128_GMC_SRC_PITCH_OFFSET_CNTL |
  397.   R128_GMC_DST_PITCH_OFFSET_CNTL |
  398.   R128_GMC_BRUSH_NONE |
  399.   (dev_priv->color_fmt << 8) |
  400.   R128_GMC_SRC_DATATYPE_COLOR |
  401.   R128_ROP3_S |
  402.   R128_DP_SRC_SOURCE_MEMORY |
  403.   R128_GMC_CLR_CMP_CNTL_DIS |
  404.   R128_GMC_AUX_CLIP_DIS |
  405.   R128_GMC_WR_MSK_DIS );
  406. OUT_RING( dev_priv->back_pitch_offset_c );
  407. OUT_RING( dev_priv->front_pitch_offset_c );
  408. OUT_RING( (x << 16) | y );
  409. OUT_RING( (x << 16) | y );
  410. OUT_RING( (w << 16) | h );
  411. ADVANCE_RING();
  412. }
  413. /* Increment the frame counter.  The client-side 3D driver must
  414.  * throttle the framerate by waiting for this value before
  415.  * performing the swapbuffer ioctl.
  416.  */
  417. dev_priv->sarea_priv->last_frame++;
  418. BEGIN_RING( 2 );
  419. OUT_RING( CCE_PACKET0( R128_LAST_FRAME_REG, 0 ) );
  420. OUT_RING( dev_priv->sarea_priv->last_frame );
  421. ADVANCE_RING();
  422. }
  423. static void r128_cce_dispatch_flip( drm_device_t *dev )
  424. {
  425. drm_r128_private_t *dev_priv = dev->dev_private;
  426. RING_LOCALS;
  427. DRM_DEBUG( "%s: page=%dn", __FUNCTION__, dev_priv->current_page );
  428. #if R128_PERFORMANCE_BOXES
  429. /* Do some trivial performance monitoring...
  430.  */
  431. r128_cce_performance_boxes( dev_priv );
  432. #endif
  433. BEGIN_RING( 4 );
  434. R128_WAIT_UNTIL_PAGE_FLIPPED();
  435. OUT_RING( CCE_PACKET0( R128_CRTC_OFFSET, 0 ) );
  436. if ( dev_priv->current_page == 0 ) {
  437. OUT_RING( dev_priv->back_offset );
  438. dev_priv->current_page = 1;
  439. } else {
  440. OUT_RING( dev_priv->front_offset );
  441. dev_priv->current_page = 0;
  442. }
  443. ADVANCE_RING();
  444. /* Increment the frame counter.  The client-side 3D driver must
  445.  * throttle the framerate by waiting for this value before
  446.  * performing the swapbuffer ioctl.
  447.  */
  448. dev_priv->sarea_priv->last_frame++;
  449. BEGIN_RING( 2 );
  450. OUT_RING( CCE_PACKET0( R128_LAST_FRAME_REG, 0 ) );
  451. OUT_RING( dev_priv->sarea_priv->last_frame );
  452. ADVANCE_RING();
  453. }
  454. static void r128_cce_dispatch_vertex( drm_device_t *dev,
  455.       drm_buf_t *buf )
  456. {
  457. drm_r128_private_t *dev_priv = dev->dev_private;
  458. drm_r128_buf_priv_t *buf_priv = buf->dev_private;
  459. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  460. int format = sarea_priv->vc_format;
  461. int offset = buf->bus_address;
  462. int size = buf->used;
  463. int prim = buf_priv->prim;
  464. int i = 0;
  465. RING_LOCALS;
  466. DRM_DEBUG( "%s: buf=%d nbox=%dn",
  467.    __FUNCTION__, buf->idx, sarea_priv->nbox );
  468. if ( 0 )
  469. r128_print_dirty( "dispatch_vertex", sarea_priv->dirty );
  470. if ( buf->used ) {
  471. buf_priv->dispatched = 1;
  472. if ( sarea_priv->dirty & ~R128_UPLOAD_CLIPRECTS ) {
  473. r128_emit_state( dev_priv );
  474. }
  475. do {
  476. /* Emit the next set of up to three cliprects */
  477. if ( i < sarea_priv->nbox ) {
  478. r128_emit_clip_rects( dev_priv,
  479.       &sarea_priv->boxes[i],
  480.       sarea_priv->nbox - i );
  481. }
  482. /* Emit the vertex buffer rendering commands */
  483. BEGIN_RING( 5 );
  484. OUT_RING( CCE_PACKET3( R128_3D_RNDR_GEN_INDX_PRIM, 3 ) );
  485. OUT_RING( offset );
  486. OUT_RING( size );
  487. OUT_RING( format );
  488. OUT_RING( prim | R128_CCE_VC_CNTL_PRIM_WALK_LIST |
  489.   (size << R128_CCE_VC_CNTL_NUM_SHIFT) );
  490. ADVANCE_RING();
  491. i += 3;
  492. } while ( i < sarea_priv->nbox );
  493. }
  494. if ( buf_priv->discard ) {
  495. buf_priv->age = dev_priv->sarea_priv->last_dispatch;
  496. /* Emit the vertex buffer age */
  497. BEGIN_RING( 2 );
  498. OUT_RING( CCE_PACKET0( R128_LAST_DISPATCH_REG, 0 ) );
  499. OUT_RING( buf_priv->age );
  500. ADVANCE_RING();
  501. buf->pending = 1;
  502. buf->used = 0;
  503. /* FIXME: Check dispatched field */
  504. buf_priv->dispatched = 0;
  505. }
  506. dev_priv->sarea_priv->last_dispatch++;
  507. sarea_priv->dirty &= ~R128_UPLOAD_CLIPRECTS;
  508. sarea_priv->nbox = 0;
  509. }
  510. static void r128_cce_dispatch_indirect( drm_device_t *dev,
  511. drm_buf_t *buf,
  512. int start, int end )
  513. {
  514. drm_r128_private_t *dev_priv = dev->dev_private;
  515. drm_r128_buf_priv_t *buf_priv = buf->dev_private;
  516. RING_LOCALS;
  517. DRM_DEBUG( "indirect: buf=%d s=0x%x e=0x%xn",
  518.    buf->idx, start, end );
  519. if ( start != end ) {
  520. int offset = buf->bus_address + start;
  521. int dwords = (end - start + 3) / sizeof(u32);
  522. /* Indirect buffer data must be an even number of
  523.  * dwords, so if we've been given an odd number we must
  524.  * pad the data with a Type-2 CCE packet.
  525.  */
  526. if ( dwords & 1 ) {
  527. u32 *data = (u32 *)
  528. ((char *)dev_priv->buffers->handle
  529.  + buf->offset + start);
  530. data[dwords++] = cpu_to_le32( R128_CCE_PACKET2 );
  531. }
  532. buf_priv->dispatched = 1;
  533. /* Fire off the indirect buffer */
  534. BEGIN_RING( 3 );
  535. OUT_RING( CCE_PACKET0( R128_PM4_IW_INDOFF, 1 ) );
  536. OUT_RING( offset );
  537. OUT_RING( dwords );
  538. ADVANCE_RING();
  539. }
  540. if ( buf_priv->discard ) {
  541. buf_priv->age = dev_priv->sarea_priv->last_dispatch;
  542. /* Emit the indirect buffer age */
  543. BEGIN_RING( 2 );
  544. OUT_RING( CCE_PACKET0( R128_LAST_DISPATCH_REG, 0 ) );
  545. OUT_RING( buf_priv->age );
  546. ADVANCE_RING();
  547. buf->pending = 1;
  548. buf->used = 0;
  549. /* FIXME: Check dispatched field */
  550. buf_priv->dispatched = 0;
  551. }
  552. dev_priv->sarea_priv->last_dispatch++;
  553. }
  554. static void r128_cce_dispatch_indices( drm_device_t *dev,
  555.        drm_buf_t *buf,
  556.        int start, int end,
  557.        int count )
  558. {
  559. drm_r128_private_t *dev_priv = dev->dev_private;
  560. drm_r128_buf_priv_t *buf_priv = buf->dev_private;
  561. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  562. int format = sarea_priv->vc_format;
  563. int offset = dev_priv->buffers->offset - dev_priv->cce_buffers_offset;
  564. int prim = buf_priv->prim;
  565. u32 *data;
  566. int dwords;
  567. int i = 0;
  568. RING_LOCALS;
  569. DRM_DEBUG( "indices: s=%d e=%d c=%dn", start, end, count );
  570. if ( 0 )
  571. r128_print_dirty( "dispatch_indices", sarea_priv->dirty );
  572. if ( start != end ) {
  573. buf_priv->dispatched = 1;
  574. if ( sarea_priv->dirty & ~R128_UPLOAD_CLIPRECTS ) {
  575. r128_emit_state( dev_priv );
  576. }
  577. dwords = (end - start + 3) / sizeof(u32);
  578. data = (u32 *)((char *)dev_priv->buffers->handle
  579.        + buf->offset + start);
  580. data[0] = cpu_to_le32( CCE_PACKET3( R128_3D_RNDR_GEN_INDX_PRIM,
  581.     dwords-2 ) );
  582. data[1] = cpu_to_le32( offset );
  583. data[2] = cpu_to_le32( R128_MAX_VB_VERTS );
  584. data[3] = cpu_to_le32( format );
  585. data[4] = cpu_to_le32( (prim | R128_CCE_VC_CNTL_PRIM_WALK_IND |
  586. (count << 16)) );
  587. if ( count & 0x1 ) {
  588. #ifdef __LITTLE_ENDIAN
  589. data[dwords-1] &= 0x0000ffff;
  590. #else
  591. data[dwords-1] &= 0xffff0000;
  592. #endif
  593. }
  594. do {
  595. /* Emit the next set of up to three cliprects */
  596. if ( i < sarea_priv->nbox ) {
  597. r128_emit_clip_rects( dev_priv,
  598.       &sarea_priv->boxes[i],
  599.       sarea_priv->nbox - i );
  600. }
  601. r128_cce_dispatch_indirect( dev, buf, start, end );
  602. i += 3;
  603. } while ( i < sarea_priv->nbox );
  604. }
  605. if ( buf_priv->discard ) {
  606. buf_priv->age = dev_priv->sarea_priv->last_dispatch;
  607. /* Emit the vertex buffer age */
  608. BEGIN_RING( 2 );
  609. OUT_RING( CCE_PACKET0( R128_LAST_DISPATCH_REG, 0 ) );
  610. OUT_RING( buf_priv->age );
  611. ADVANCE_RING();
  612. buf->pending = 1;
  613. /* FIXME: Check dispatched field */
  614. buf_priv->dispatched = 0;
  615. }
  616. dev_priv->sarea_priv->last_dispatch++;
  617. sarea_priv->dirty &= ~R128_UPLOAD_CLIPRECTS;
  618. sarea_priv->nbox = 0;
  619. }
  620. static int r128_cce_dispatch_blit( drm_device_t *dev,
  621.    drm_r128_blit_t *blit )
  622. {
  623. drm_r128_private_t *dev_priv = dev->dev_private;
  624. drm_device_dma_t *dma = dev->dma;
  625. drm_buf_t *buf;
  626. drm_r128_buf_priv_t *buf_priv;
  627. u32 *data;
  628. int dword_shift, dwords;
  629. RING_LOCALS;
  630. DRM_DEBUG( "%sn", __FUNCTION__ );
  631. /* The compiler won't optimize away a division by a variable,
  632.  * even if the only legal values are powers of two.  Thus, we'll
  633.  * use a shift instead.
  634.  */
  635. switch ( blit->format ) {
  636. case R128_DATATYPE_ARGB8888:
  637. dword_shift = 0;
  638. break;
  639. case R128_DATATYPE_ARGB1555:
  640. case R128_DATATYPE_RGB565:
  641. case R128_DATATYPE_ARGB4444:
  642. dword_shift = 1;
  643. break;
  644. case R128_DATATYPE_CI8:
  645. case R128_DATATYPE_RGB8:
  646. dword_shift = 2;
  647. break;
  648. default:
  649. DRM_ERROR( "invalid blit format %dn", blit->format );
  650. return -EINVAL;
  651. }
  652. /* Flush the pixel cache, and mark the contents as Read Invalid.
  653.  * This ensures no pixel data gets mixed up with the texture
  654.  * data from the host data blit, otherwise part of the texture
  655.  * image may be corrupted.
  656.  */
  657. BEGIN_RING( 2 );
  658. OUT_RING( CCE_PACKET0( R128_PC_GUI_CTLSTAT, 0 ) );
  659. OUT_RING( R128_PC_RI_GUI | R128_PC_FLUSH_GUI );
  660. ADVANCE_RING();
  661. /* Dispatch the indirect buffer.
  662.  */
  663. buf = dma->buflist[blit->idx];
  664. buf_priv = buf->dev_private;
  665. if ( buf->pid != current->pid ) {
  666. DRM_ERROR( "process %d using buffer owned by %dn",
  667.    current->pid, buf->pid );
  668. return -EINVAL;
  669. }
  670. if ( buf->pending ) {
  671. DRM_ERROR( "sending pending buffer %dn", blit->idx );
  672. return -EINVAL;
  673. }
  674. buf_priv->discard = 1;
  675. dwords = (blit->width * blit->height) >> dword_shift;
  676. data = (u32 *)((char *)dev_priv->buffers->handle + buf->offset);
  677. data[0] = cpu_to_le32( CCE_PACKET3( R128_CNTL_HOSTDATA_BLT, dwords + 6 ) );
  678. data[1] = cpu_to_le32( (R128_GMC_DST_PITCH_OFFSET_CNTL |
  679. R128_GMC_BRUSH_NONE |
  680. (blit->format << 8) |
  681. R128_GMC_SRC_DATATYPE_COLOR |
  682. R128_ROP3_S |
  683. R128_DP_SRC_SOURCE_HOST_DATA |
  684. R128_GMC_CLR_CMP_CNTL_DIS |
  685. R128_GMC_AUX_CLIP_DIS |
  686. R128_GMC_WR_MSK_DIS) );
  687. data[2] = cpu_to_le32( (blit->pitch << 21) | (blit->offset >> 5) );
  688. data[3] = cpu_to_le32( 0xffffffff );
  689. data[4] = cpu_to_le32( 0xffffffff );
  690. data[5] = cpu_to_le32( (blit->y << 16) | blit->x );
  691. data[6] = cpu_to_le32( (blit->height << 16) | blit->width );
  692. data[7] = cpu_to_le32( dwords );
  693. buf->used = (dwords + 8) * sizeof(u32);
  694. r128_cce_dispatch_indirect( dev, buf, 0, buf->used );
  695. /* Flush the pixel cache after the blit completes.  This ensures
  696.  * the texture data is written out to memory before rendering
  697.  * continues.
  698.  */
  699. BEGIN_RING( 2 );
  700. OUT_RING( CCE_PACKET0( R128_PC_GUI_CTLSTAT, 0 ) );
  701. OUT_RING( R128_PC_FLUSH_GUI );
  702. ADVANCE_RING();
  703. return 0;
  704. }
  705. /* ================================================================
  706.  * Tiled depth buffer management
  707.  *
  708.  * FIXME: These should all set the destination write mask for when we
  709.  * have hardware stencil support.
  710.  */
  711. static int r128_cce_dispatch_write_span( drm_device_t *dev,
  712.  drm_r128_depth_t *depth )
  713. {
  714. drm_r128_private_t *dev_priv = dev->dev_private;
  715. int count, x, y;
  716. u32 *buffer;
  717. u8 *mask;
  718. int i;
  719. RING_LOCALS;
  720. DRM_DEBUG( "%sn", __FUNCTION__ );
  721. count = depth->n;
  722. if ( copy_from_user( &x, depth->x, sizeof(x) ) ) {
  723. return -EFAULT;
  724. }
  725. if ( copy_from_user( &y, depth->y, sizeof(y) ) ) {
  726. return -EFAULT;
  727. }
  728. buffer = kmalloc( depth->n * sizeof(u32), GFP_KERNEL );
  729. if ( buffer == NULL )
  730. return -ENOMEM;
  731. if ( copy_from_user( buffer, depth->buffer,
  732.      depth->n * sizeof(u32) ) ) {
  733. kfree( buffer );
  734. return -EFAULT;
  735. }
  736. if ( depth->mask ) {
  737. mask = kmalloc( depth->n * sizeof(u8), GFP_KERNEL );
  738. if ( mask == NULL ) {
  739. kfree( buffer );
  740. return -ENOMEM;
  741. }
  742. if ( copy_from_user( mask, depth->mask,
  743.      depth->n * sizeof(u8) ) ) {
  744. kfree( buffer );
  745. kfree( mask );
  746. return -EFAULT;
  747. }
  748. for ( i = 0 ; i < count ; i++, x++ ) {
  749. if ( mask[i] ) {
  750. BEGIN_RING( 6 );
  751. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI, 4 ) );
  752. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL |
  753.   R128_GMC_BRUSH_SOLID_COLOR |
  754.   (dev_priv->depth_fmt << 8) |
  755.   R128_GMC_SRC_DATATYPE_COLOR |
  756.   R128_ROP3_P |
  757.   R128_GMC_CLR_CMP_CNTL_DIS |
  758.   R128_GMC_WR_MSK_DIS );
  759. OUT_RING( dev_priv->depth_pitch_offset_c );
  760. OUT_RING( buffer[i] );
  761. OUT_RING( (x << 16) | y );
  762. OUT_RING( (1 << 16) | 1 );
  763. ADVANCE_RING();
  764. }
  765. }
  766. kfree( mask );
  767. } else {
  768. for ( i = 0 ; i < count ; i++, x++ ) {
  769. BEGIN_RING( 6 );
  770. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI, 4 ) );
  771. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL |
  772.   R128_GMC_BRUSH_SOLID_COLOR |
  773.   (dev_priv->depth_fmt << 8) |
  774.   R128_GMC_SRC_DATATYPE_COLOR |
  775.   R128_ROP3_P |
  776.   R128_GMC_CLR_CMP_CNTL_DIS |
  777.   R128_GMC_WR_MSK_DIS );
  778. OUT_RING( dev_priv->depth_pitch_offset_c );
  779. OUT_RING( buffer[i] );
  780. OUT_RING( (x << 16) | y );
  781. OUT_RING( (1 << 16) | 1 );
  782. ADVANCE_RING();
  783. }
  784. }
  785. kfree( buffer );
  786. return 0;
  787. }
  788. static int r128_cce_dispatch_write_pixels( drm_device_t *dev,
  789.    drm_r128_depth_t *depth )
  790. {
  791. drm_r128_private_t *dev_priv = dev->dev_private;
  792. int count, *x, *y;
  793. u32 *buffer;
  794. u8 *mask;
  795. int i;
  796. RING_LOCALS;
  797. DRM_DEBUG( "%sn", __FUNCTION__ );
  798. count = depth->n;
  799. x = kmalloc( count * sizeof(*x), GFP_KERNEL );
  800. if ( x == NULL ) {
  801. return -ENOMEM;
  802. }
  803. y = kmalloc( count * sizeof(*y), GFP_KERNEL );
  804. if ( y == NULL ) {
  805. kfree( x );
  806. return -ENOMEM;
  807. }
  808. if ( copy_from_user( x, depth->x, count * sizeof(int) ) ) {
  809. kfree( x );
  810. kfree( y );
  811. return -EFAULT;
  812. }
  813. if ( copy_from_user( y, depth->y, count * sizeof(int) ) ) {
  814. kfree( x );
  815. kfree( y );
  816. return -EFAULT;
  817. }
  818. buffer = kmalloc( depth->n * sizeof(u32), GFP_KERNEL );
  819. if ( buffer == NULL ) {
  820. kfree( x );
  821. kfree( y );
  822. return -ENOMEM;
  823. }
  824. if ( copy_from_user( buffer, depth->buffer,
  825.      depth->n * sizeof(u32) ) ) {
  826. kfree( x );
  827. kfree( y );
  828. kfree( buffer );
  829. return -EFAULT;
  830. }
  831. if ( depth->mask ) {
  832. mask = kmalloc( depth->n * sizeof(u8), GFP_KERNEL );
  833. if ( mask == NULL ) {
  834. kfree( x );
  835. kfree( y );
  836. kfree( buffer );
  837. return -ENOMEM;
  838. }
  839. if ( copy_from_user( mask, depth->mask,
  840.      depth->n * sizeof(u8) ) ) {
  841. kfree( x );
  842. kfree( y );
  843. kfree( buffer );
  844. kfree( mask );
  845. return -EFAULT;
  846. }
  847. for ( i = 0 ; i < count ; i++ ) {
  848. if ( mask[i] ) {
  849. BEGIN_RING( 6 );
  850. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI, 4 ) );
  851. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL |
  852.   R128_GMC_BRUSH_SOLID_COLOR |
  853.   (dev_priv->depth_fmt << 8) |
  854.   R128_GMC_SRC_DATATYPE_COLOR |
  855.   R128_ROP3_P |
  856.   R128_GMC_CLR_CMP_CNTL_DIS |
  857.   R128_GMC_WR_MSK_DIS );
  858. OUT_RING( dev_priv->depth_pitch_offset_c );
  859. OUT_RING( buffer[i] );
  860. OUT_RING( (x[i] << 16) | y[i] );
  861. OUT_RING( (1 << 16) | 1 );
  862. ADVANCE_RING();
  863. }
  864. }
  865. kfree( mask );
  866. } else {
  867. for ( i = 0 ; i < count ; i++ ) {
  868. BEGIN_RING( 6 );
  869. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI, 4 ) );
  870. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL |
  871.   R128_GMC_BRUSH_SOLID_COLOR |
  872.   (dev_priv->depth_fmt << 8) |
  873.   R128_GMC_SRC_DATATYPE_COLOR |
  874.   R128_ROP3_P |
  875.   R128_GMC_CLR_CMP_CNTL_DIS |
  876.   R128_GMC_WR_MSK_DIS );
  877. OUT_RING( dev_priv->depth_pitch_offset_c );
  878. OUT_RING( buffer[i] );
  879. OUT_RING( (x[i] << 16) | y[i] );
  880. OUT_RING( (1 << 16) | 1 );
  881. ADVANCE_RING();
  882. }
  883. }
  884. kfree( x );
  885. kfree( y );
  886. kfree( buffer );
  887. return 0;
  888. }
  889. static int r128_cce_dispatch_read_span( drm_device_t *dev,
  890. drm_r128_depth_t *depth )
  891. {
  892. drm_r128_private_t *dev_priv = dev->dev_private;
  893. int count, x, y;
  894. RING_LOCALS;
  895. DRM_DEBUG( "%sn", __FUNCTION__ );
  896. count = depth->n;
  897. if ( copy_from_user( &x, depth->x, sizeof(x) ) ) {
  898. return -EFAULT;
  899. }
  900. if ( copy_from_user( &y, depth->y, sizeof(y) ) ) {
  901. return -EFAULT;
  902. }
  903. BEGIN_RING( 7 );
  904. OUT_RING( CCE_PACKET3( R128_CNTL_BITBLT_MULTI, 5 ) );
  905. OUT_RING( R128_GMC_SRC_PITCH_OFFSET_CNTL |
  906.   R128_GMC_DST_PITCH_OFFSET_CNTL |
  907.   R128_GMC_BRUSH_NONE |
  908.   (dev_priv->depth_fmt << 8) |
  909.   R128_GMC_SRC_DATATYPE_COLOR |
  910.   R128_ROP3_S |
  911.   R128_DP_SRC_SOURCE_MEMORY |
  912.   R128_GMC_CLR_CMP_CNTL_DIS |
  913.   R128_GMC_WR_MSK_DIS );
  914. OUT_RING( dev_priv->depth_pitch_offset_c );
  915. OUT_RING( dev_priv->span_pitch_offset_c );
  916. OUT_RING( (x << 16) | y );
  917. OUT_RING( (0 << 16) | 0 );
  918. OUT_RING( (count << 16) | 1 );
  919. ADVANCE_RING();
  920. return 0;
  921. }
  922. static int r128_cce_dispatch_read_pixels( drm_device_t *dev,
  923.   drm_r128_depth_t *depth )
  924. {
  925. drm_r128_private_t *dev_priv = dev->dev_private;
  926. int count, *x, *y;
  927. int i;
  928. RING_LOCALS;
  929. DRM_DEBUG( "%sn", __FUNCTION__ );
  930. count = depth->n;
  931. if ( count > dev_priv->depth_pitch ) {
  932. count = dev_priv->depth_pitch;
  933. }
  934. x = kmalloc( count * sizeof(*x), GFP_KERNEL );
  935. if ( x == NULL ) {
  936. return -ENOMEM;
  937. }
  938. y = kmalloc( count * sizeof(*y), GFP_KERNEL );
  939. if ( y == NULL ) {
  940. kfree( x );
  941. return -ENOMEM;
  942. }
  943. if ( copy_from_user( x, depth->x, count * sizeof(int) ) ) {
  944. kfree( x );
  945. kfree( y );
  946. return -EFAULT;
  947. }
  948. if ( copy_from_user( y, depth->y, count * sizeof(int) ) ) {
  949. kfree( x );
  950. kfree( y );
  951. return -EFAULT;
  952. }
  953. for ( i = 0 ; i < count ; i++ ) {
  954. BEGIN_RING( 7 );
  955. OUT_RING( CCE_PACKET3( R128_CNTL_BITBLT_MULTI, 5 ) );
  956. OUT_RING( R128_GMC_SRC_PITCH_OFFSET_CNTL |
  957.   R128_GMC_DST_PITCH_OFFSET_CNTL |
  958.   R128_GMC_BRUSH_NONE |
  959.   (dev_priv->depth_fmt << 8) |
  960.   R128_GMC_SRC_DATATYPE_COLOR |
  961.   R128_ROP3_S |
  962.   R128_DP_SRC_SOURCE_MEMORY |
  963.   R128_GMC_CLR_CMP_CNTL_DIS |
  964.   R128_GMC_WR_MSK_DIS );
  965. OUT_RING( dev_priv->depth_pitch_offset_c );
  966. OUT_RING( dev_priv->span_pitch_offset_c );
  967. OUT_RING( (x[i] << 16) | y[i] );
  968. OUT_RING( (i << 16) | 0 );
  969. OUT_RING( (1 << 16) | 1 );
  970. ADVANCE_RING();
  971. }
  972. kfree( x );
  973. kfree( y );
  974. return 0;
  975. }
  976. /* ================================================================
  977.  * Polygon stipple
  978.  */
  979. static void r128_cce_dispatch_stipple( drm_device_t *dev, u32 *stipple )
  980. {
  981. drm_r128_private_t *dev_priv = dev->dev_private;
  982. int i;
  983. RING_LOCALS;
  984. DRM_DEBUG( "%sn", __FUNCTION__ );
  985. BEGIN_RING( 33 );
  986. OUT_RING( CCE_PACKET0( R128_BRUSH_DATA0, 31 ) );
  987. for ( i = 0 ; i < 32 ; i++ ) {
  988. OUT_RING( stipple[i] );
  989. }
  990. ADVANCE_RING();
  991. }
  992. /* ================================================================
  993.  * IOCTL functions
  994.  */
  995. int r128_cce_clear( struct inode *inode, struct file *filp,
  996.     unsigned int cmd, unsigned long arg )
  997. {
  998. drm_file_t *priv = filp->private_data;
  999. drm_device_t *dev = priv->dev;
  1000. drm_r128_private_t *dev_priv = dev->dev_private;
  1001. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  1002. drm_r128_clear_t clear;
  1003. DRM_DEBUG( "%sn", __FUNCTION__ );
  1004. LOCK_TEST_WITH_RETURN( dev );
  1005. if ( copy_from_user( &clear, (drm_r128_clear_t *) arg,
  1006.      sizeof(clear) ) )
  1007. return -EFAULT;
  1008. RING_SPACE_TEST_WITH_RETURN( dev_priv );
  1009. if ( sarea_priv->nbox > R128_NR_SAREA_CLIPRECTS )
  1010. sarea_priv->nbox = R128_NR_SAREA_CLIPRECTS;
  1011. r128_cce_dispatch_clear( dev, &clear );
  1012. /* Make sure we restore the 3D state next time.
  1013.  */
  1014. dev_priv->sarea_priv->dirty |= R128_UPLOAD_CONTEXT | R128_UPLOAD_MASKS;
  1015. return 0;
  1016. }
  1017. int r128_cce_swap( struct inode *inode, struct file *filp,
  1018.    unsigned int cmd, unsigned long arg )
  1019. {
  1020. drm_file_t *priv = filp->private_data;
  1021. drm_device_t *dev = priv->dev;
  1022. drm_r128_private_t *dev_priv = dev->dev_private;
  1023. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  1024. DRM_DEBUG( "%sn", __FUNCTION__ );
  1025. LOCK_TEST_WITH_RETURN( dev );
  1026. RING_SPACE_TEST_WITH_RETURN( dev_priv );
  1027. if ( sarea_priv->nbox > R128_NR_SAREA_CLIPRECTS )
  1028. sarea_priv->nbox = R128_NR_SAREA_CLIPRECTS;
  1029. if ( !dev_priv->page_flipping ) {
  1030. r128_cce_dispatch_swap( dev );
  1031. dev_priv->sarea_priv->dirty |= (R128_UPLOAD_CONTEXT |
  1032. R128_UPLOAD_MASKS);
  1033. } else {
  1034. r128_cce_dispatch_flip( dev );
  1035. }
  1036. return 0;
  1037. }
  1038. int r128_cce_vertex( struct inode *inode, struct file *filp,
  1039.      unsigned int cmd, unsigned long arg )
  1040. {
  1041. drm_file_t *priv = filp->private_data;
  1042. drm_device_t *dev = priv->dev;
  1043. drm_r128_private_t *dev_priv = dev->dev_private;
  1044. drm_device_dma_t *dma = dev->dma;
  1045. drm_buf_t *buf;
  1046. drm_r128_buf_priv_t *buf_priv;
  1047. drm_r128_vertex_t vertex;
  1048. LOCK_TEST_WITH_RETURN( dev );
  1049. if ( !dev_priv ) {
  1050. DRM_ERROR( "%s called with no initializationn", __FUNCTION__ );
  1051. return -EINVAL;
  1052. }
  1053. if ( copy_from_user( &vertex, (drm_r128_vertex_t *)arg,
  1054.      sizeof(vertex) ) )
  1055. return -EFAULT;
  1056. DRM_DEBUG( "%s: pid=%d index=%d count=%d discard=%dn",
  1057.    __FUNCTION__, current->pid,
  1058.    vertex.idx, vertex.count, vertex.discard );
  1059. if ( vertex.idx < 0 || vertex.idx >= dma->buf_count ) {
  1060. DRM_ERROR( "buffer index %d (of %d max)n",
  1061.    vertex.idx, dma->buf_count - 1 );
  1062. return -EINVAL;
  1063. }
  1064. if ( vertex.prim < 0 ||
  1065.      vertex.prim > R128_CCE_VC_CNTL_PRIM_TYPE_TRI_TYPE2 ) {
  1066. DRM_ERROR( "buffer prim %dn", vertex.prim );
  1067. return -EINVAL;
  1068. }
  1069. RING_SPACE_TEST_WITH_RETURN( dev_priv );
  1070. VB_AGE_TEST_WITH_RETURN( dev_priv );
  1071. buf = dma->buflist[vertex.idx];
  1072. buf_priv = buf->dev_private;
  1073. if ( buf->pid != current->pid ) {
  1074. DRM_ERROR( "process %d using buffer owned by %dn",
  1075.    current->pid, buf->pid );
  1076. return -EINVAL;
  1077. }
  1078. if ( buf->pending ) {
  1079. DRM_ERROR( "sending pending buffer %dn", vertex.idx );
  1080. return -EINVAL;
  1081. }
  1082. buf->used = vertex.count;
  1083. buf_priv->prim = vertex.prim;
  1084. buf_priv->discard = vertex.discard;
  1085. r128_cce_dispatch_vertex( dev, buf );
  1086. return 0;
  1087. }
  1088. int r128_cce_indices( struct inode *inode, struct file *filp,
  1089.       unsigned int cmd, unsigned long arg )
  1090. {
  1091. drm_file_t *priv = filp->private_data;
  1092. drm_device_t *dev = priv->dev;
  1093. drm_r128_private_t *dev_priv = dev->dev_private;
  1094. drm_device_dma_t *dma = dev->dma;
  1095. drm_buf_t *buf;
  1096. drm_r128_buf_priv_t *buf_priv;
  1097. drm_r128_indices_t elts;
  1098. int count;
  1099. LOCK_TEST_WITH_RETURN( dev );
  1100. if ( !dev_priv ) {
  1101. DRM_ERROR( "%s called with no initializationn", __FUNCTION__ );
  1102. return -EINVAL;
  1103. }
  1104. if ( copy_from_user( &elts, (drm_r128_indices_t *)arg,
  1105.      sizeof(elts) ) )
  1106. return -EFAULT;
  1107. DRM_DEBUG( "%s: pid=%d buf=%d s=%d e=%d d=%dn",
  1108.    __FUNCTION__, current->pid,
  1109.    elts.idx, elts.start, elts.end, elts.discard );
  1110. if ( elts.idx < 0 || elts.idx >= dma->buf_count ) {
  1111. DRM_ERROR( "buffer index %d (of %d max)n",
  1112.    elts.idx, dma->buf_count - 1 );
  1113. return -EINVAL;
  1114. }
  1115. if ( elts.prim < 0 ||
  1116.      elts.prim > R128_CCE_VC_CNTL_PRIM_TYPE_TRI_TYPE2 ) {
  1117. DRM_ERROR( "buffer prim %dn", elts.prim );
  1118. return -EINVAL;
  1119. }
  1120. RING_SPACE_TEST_WITH_RETURN( dev_priv );
  1121. VB_AGE_TEST_WITH_RETURN( dev_priv );
  1122. buf = dma->buflist[elts.idx];
  1123. buf_priv = buf->dev_private;
  1124. if ( buf->pid != current->pid ) {
  1125. DRM_ERROR( "process %d using buffer owned by %dn",
  1126.    current->pid, buf->pid );
  1127. return -EINVAL;
  1128. }
  1129. if ( buf->pending ) {
  1130. DRM_ERROR( "sending pending buffer %dn", elts.idx );
  1131. return -EINVAL;
  1132. }
  1133. count = (elts.end - elts.start) / sizeof(u16);
  1134. elts.start -= R128_INDEX_PRIM_OFFSET;
  1135. if ( elts.start & 0x7 ) {
  1136. DRM_ERROR( "misaligned buffer 0x%xn", elts.start );
  1137. return -EINVAL;
  1138. }
  1139. if ( elts.start < buf->used ) {
  1140. DRM_ERROR( "no header 0x%x - 0x%xn", elts.start, buf->used );
  1141. return -EINVAL;
  1142. }
  1143. buf->used = elts.end;
  1144. buf_priv->prim = elts.prim;
  1145. buf_priv->discard = elts.discard;
  1146. r128_cce_dispatch_indices( dev, buf, elts.start, elts.end, count );
  1147. return 0;
  1148. }
  1149. int r128_cce_blit( struct inode *inode, struct file *filp,
  1150.    unsigned int cmd, unsigned long arg )
  1151. {
  1152. drm_file_t *priv = filp->private_data;
  1153. drm_device_t *dev = priv->dev;
  1154. drm_device_dma_t *dma = dev->dma;
  1155. drm_r128_private_t *dev_priv = dev->dev_private;
  1156. drm_r128_blit_t blit;
  1157. LOCK_TEST_WITH_RETURN( dev );
  1158. if ( copy_from_user( &blit, (drm_r128_blit_t *)arg,
  1159.      sizeof(blit) ) )
  1160. return -EFAULT;
  1161. DRM_DEBUG( "%s: pid=%d index=%dn",
  1162.    __FUNCTION__, current->pid, blit.idx );
  1163. if ( blit.idx < 0 || blit.idx >= dma->buf_count ) {
  1164. DRM_ERROR( "buffer index %d (of %d max)n",
  1165.    blit.idx, dma->buf_count - 1 );
  1166. return -EINVAL;
  1167. }
  1168. RING_SPACE_TEST_WITH_RETURN( dev_priv );
  1169. VB_AGE_TEST_WITH_RETURN( dev_priv );
  1170. return r128_cce_dispatch_blit( dev, &blit );
  1171. }
  1172. int r128_cce_depth( struct inode *inode, struct file *filp,
  1173.     unsigned int cmd, unsigned long arg )
  1174. {
  1175. drm_file_t *priv = filp->private_data;
  1176. drm_device_t *dev = priv->dev;
  1177. drm_r128_private_t *dev_priv = dev->dev_private;
  1178. drm_r128_depth_t depth;
  1179. LOCK_TEST_WITH_RETURN( dev );
  1180. if ( copy_from_user( &depth, (drm_r128_depth_t *)arg,
  1181.      sizeof(depth) ) )
  1182. return -EFAULT;
  1183. RING_SPACE_TEST_WITH_RETURN( dev_priv );
  1184. switch ( depth.func ) {
  1185. case R128_WRITE_SPAN:
  1186. return r128_cce_dispatch_write_span( dev, &depth );
  1187. case R128_WRITE_PIXELS:
  1188. return r128_cce_dispatch_write_pixels( dev, &depth );
  1189. case R128_READ_SPAN:
  1190. return r128_cce_dispatch_read_span( dev, &depth );
  1191. case R128_READ_PIXELS:
  1192. return r128_cce_dispatch_read_pixels( dev, &depth );
  1193. }
  1194. return -EINVAL;
  1195. }
  1196. int r128_cce_stipple( struct inode *inode, struct file *filp,
  1197.       unsigned int cmd, unsigned long arg )
  1198. {
  1199. drm_file_t *priv = filp->private_data;
  1200. drm_device_t *dev = priv->dev;
  1201. drm_r128_private_t *dev_priv = dev->dev_private;
  1202. drm_r128_stipple_t stipple;
  1203. u32 mask[32];
  1204. LOCK_TEST_WITH_RETURN( dev );
  1205. if ( copy_from_user( &stipple, (drm_r128_stipple_t *)arg,
  1206.      sizeof(stipple) ) )
  1207. return -EFAULT;
  1208. if ( copy_from_user( &mask, stipple.mask,
  1209.      32 * sizeof(u32) ) )
  1210. return -EFAULT;
  1211. RING_SPACE_TEST_WITH_RETURN( dev_priv );
  1212. r128_cce_dispatch_stipple( dev, mask );
  1213. return 0;
  1214. }
  1215. int r128_cce_indirect( struct inode *inode, struct file *filp,
  1216.        unsigned int cmd, unsigned long arg )
  1217. {
  1218. drm_file_t *priv = filp->private_data;
  1219. drm_device_t *dev = priv->dev;
  1220. drm_r128_private_t *dev_priv = dev->dev_private;
  1221. drm_device_dma_t *dma = dev->dma;
  1222. drm_buf_t *buf;
  1223. drm_r128_buf_priv_t *buf_priv;
  1224. drm_r128_indirect_t indirect;
  1225. #if 0
  1226. RING_LOCALS;
  1227. #endif
  1228. LOCK_TEST_WITH_RETURN( dev );
  1229. if ( !dev_priv ) {
  1230. DRM_ERROR( "%s called with no initializationn", __FUNCTION__ );
  1231. return -EINVAL;
  1232. }
  1233. if ( copy_from_user( &indirect, (drm_r128_indirect_t *)arg,
  1234.      sizeof(indirect) ) )
  1235. return -EFAULT;
  1236. DRM_DEBUG( "indirect: idx=%d s=%d e=%d d=%dn",
  1237.    indirect.idx, indirect.start,
  1238.    indirect.end, indirect.discard );
  1239. if ( indirect.idx < 0 || indirect.idx >= dma->buf_count ) {
  1240. DRM_ERROR( "buffer index %d (of %d max)n",
  1241.    indirect.idx, dma->buf_count - 1 );
  1242. return -EINVAL;
  1243. }
  1244. buf = dma->buflist[indirect.idx];
  1245. buf_priv = buf->dev_private;
  1246. if ( buf->pid != current->pid ) {
  1247. DRM_ERROR( "process %d using buffer owned by %dn",
  1248.    current->pid, buf->pid );
  1249. return -EINVAL;
  1250. }
  1251. if ( buf->pending ) {
  1252. DRM_ERROR( "sending pending buffer %dn", indirect.idx );
  1253. return -EINVAL;
  1254. }
  1255. if ( indirect.start < buf->used ) {
  1256. DRM_ERROR( "reusing indirect: start=0x%x actual=0x%xn",
  1257.    indirect.start, buf->used );
  1258. return -EINVAL;
  1259. }
  1260. RING_SPACE_TEST_WITH_RETURN( dev_priv );
  1261. VB_AGE_TEST_WITH_RETURN( dev_priv );
  1262. buf->used = indirect.end;
  1263. buf_priv->discard = indirect.discard;
  1264. #if 0
  1265. /* Wait for the 3D stream to idle before the indirect buffer
  1266.  * containing 2D acceleration commands is processed.
  1267.  */
  1268. BEGIN_RING( 2 );
  1269. RADEON_WAIT_UNTIL_3D_IDLE();
  1270. ADVANCE_RING();
  1271. #endif
  1272. /* Dispatch the indirect buffer full of commands from the
  1273.  * X server.  This is insecure and is thus only available to
  1274.  * privileged clients.
  1275.  */
  1276. r128_cce_dispatch_indirect( dev, buf, indirect.start, indirect.end );
  1277. return 0;
  1278. }