r128_state.c
上传用户:jlfgdled
上传日期:2013-04-10
资源大小:33168k
文件大小:38k
源码类别:

Linux/Unix编程

开发平台:

Unix_Linux

  1. /* r128_state.c -- State support for r128 -*- linux-c -*-
  2.  * Created: Thu Jan 27 02:53:43 2000 by gareth@valinux.com
  3.  *
  4.  * Copyright 2000 VA Linux Systems, Inc., Sunnyvale, California.
  5.  * All Rights Reserved.
  6.  *
  7.  * Permission is hereby granted, free of charge, to any person obtaining a
  8.  * copy of this software and associated documentation files (the "Software"),
  9.  * to deal in the Software without restriction, including without limitation
  10.  * the rights to use, copy, modify, merge, publish, distribute, sublicense,
  11.  * and/or sell copies of the Software, and to permit persons to whom the
  12.  * Software is furnished to do so, subject to the following conditions:
  13.  *
  14.  * The above copyright notice and this permission notice (including the next
  15.  * paragraph) shall be included in all copies or substantial portions of the
  16.  * Software.
  17.  *
  18.  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
  19.  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
  20.  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
  21.  * PRECISION INSIGHT AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM, DAMAGES OR
  22.  * OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE,
  23.  * ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER
  24.  * DEALINGS IN THE SOFTWARE.
  25.  *
  26.  * Authors:
  27.  *    Gareth Hughes <gareth@valinux.com>
  28.  *
  29.  */
  30. #define __NO_VERSION__
  31. #include "drmP.h"
  32. #include "r128_drv.h"
  33. #include "drm.h"
  34. /* ================================================================
  35.  * CCE hardware state programming functions
  36.  */
  37. static void r128_emit_clip_rects( drm_r128_private_t *dev_priv,
  38.   drm_clip_rect_t *boxes, int count )
  39. {
  40. u32 aux_sc_cntl = 0x00000000;
  41. RING_LOCALS;
  42. DRM_DEBUG( "    %sn", __FUNCTION__ );
  43. BEGIN_RING( 17 );
  44. if ( count >= 1 ) {
  45. OUT_RING( CCE_PACKET0( R128_AUX1_SC_LEFT, 3 ) );
  46. OUT_RING( boxes[0].x1 );
  47. OUT_RING( boxes[0].x2 - 1 );
  48. OUT_RING( boxes[0].y1 );
  49. OUT_RING( boxes[0].y2 - 1 );
  50. aux_sc_cntl |= (R128_AUX1_SC_EN | R128_AUX1_SC_MODE_OR);
  51. }
  52. if ( count >= 2 ) {
  53. OUT_RING( CCE_PACKET0( R128_AUX2_SC_LEFT, 3 ) );
  54. OUT_RING( boxes[1].x1 );
  55. OUT_RING( boxes[1].x2 - 1 );
  56. OUT_RING( boxes[1].y1 );
  57. OUT_RING( boxes[1].y2 - 1 );
  58. aux_sc_cntl |= (R128_AUX2_SC_EN | R128_AUX2_SC_MODE_OR);
  59. }
  60. if ( count >= 3 ) {
  61. OUT_RING( CCE_PACKET0( R128_AUX3_SC_LEFT, 3 ) );
  62. OUT_RING( boxes[2].x1 );
  63. OUT_RING( boxes[2].x2 - 1 );
  64. OUT_RING( boxes[2].y1 );
  65. OUT_RING( boxes[2].y2 - 1 );
  66. aux_sc_cntl |= (R128_AUX3_SC_EN | R128_AUX3_SC_MODE_OR);
  67. }
  68. OUT_RING( CCE_PACKET0( R128_AUX_SC_CNTL, 0 ) );
  69. OUT_RING( aux_sc_cntl );
  70. ADVANCE_RING();
  71. }
  72. static inline void r128_emit_core( drm_r128_private_t *dev_priv )
  73. {
  74. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  75. drm_r128_context_regs_t *ctx = &sarea_priv->context_state;
  76. RING_LOCALS;
  77. DRM_DEBUG( "    %sn", __FUNCTION__ );
  78. BEGIN_RING( 2 );
  79. OUT_RING( CCE_PACKET0( R128_SCALE_3D_CNTL, 0 ) );
  80. OUT_RING( ctx->scale_3d_cntl );
  81. ADVANCE_RING();
  82. }
  83. static inline void r128_emit_context( drm_r128_private_t *dev_priv )
  84. {
  85. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  86. drm_r128_context_regs_t *ctx = &sarea_priv->context_state;
  87. RING_LOCALS;
  88. DRM_DEBUG( "    %sn", __FUNCTION__ );
  89. BEGIN_RING( 13 );
  90. OUT_RING( CCE_PACKET0( R128_DST_PITCH_OFFSET_C, 11 ) );
  91. OUT_RING( ctx->dst_pitch_offset_c );
  92. OUT_RING( ctx->dp_gui_master_cntl_c );
  93. OUT_RING( ctx->sc_top_left_c );
  94. OUT_RING( ctx->sc_bottom_right_c );
  95. OUT_RING( ctx->z_offset_c );
  96. OUT_RING( ctx->z_pitch_c );
  97. OUT_RING( ctx->z_sten_cntl_c );
  98. OUT_RING( ctx->tex_cntl_c );
  99. OUT_RING( ctx->misc_3d_state_cntl_reg );
  100. OUT_RING( ctx->texture_clr_cmp_clr_c );
  101. OUT_RING( ctx->texture_clr_cmp_msk_c );
  102. OUT_RING( ctx->fog_color_c );
  103. ADVANCE_RING();
  104. }
  105. static inline void r128_emit_setup( drm_r128_private_t *dev_priv )
  106. {
  107. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  108. drm_r128_context_regs_t *ctx = &sarea_priv->context_state;
  109. RING_LOCALS;
  110. DRM_DEBUG( "    %sn", __FUNCTION__ );
  111. BEGIN_RING( 3 );
  112. OUT_RING( CCE_PACKET1( R128_SETUP_CNTL, R128_PM4_VC_FPU_SETUP ) );
  113. OUT_RING( ctx->setup_cntl );
  114. OUT_RING( ctx->pm4_vc_fpu_setup );
  115. ADVANCE_RING();
  116. }
  117. static inline void r128_emit_masks( drm_r128_private_t *dev_priv )
  118. {
  119. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  120. drm_r128_context_regs_t *ctx = &sarea_priv->context_state;
  121. RING_LOCALS;
  122. DRM_DEBUG( "    %sn", __FUNCTION__ );
  123. BEGIN_RING( 5 );
  124. OUT_RING( CCE_PACKET0( R128_DP_WRITE_MASK, 0 ) );
  125. OUT_RING( ctx->dp_write_mask );
  126. OUT_RING( CCE_PACKET0( R128_STEN_REF_MASK_C, 1 ) );
  127. OUT_RING( ctx->sten_ref_mask_c );
  128. OUT_RING( ctx->plane_3d_mask_c );
  129. ADVANCE_RING();
  130. }
  131. static inline void r128_emit_window( drm_r128_private_t *dev_priv )
  132. {
  133. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  134. drm_r128_context_regs_t *ctx = &sarea_priv->context_state;
  135. RING_LOCALS;
  136. DRM_DEBUG( "    %sn", __FUNCTION__ );
  137. BEGIN_RING( 2 );
  138. OUT_RING( CCE_PACKET0( R128_WINDOW_XY_OFFSET, 0 ) );
  139. OUT_RING( ctx->window_xy_offset );
  140. ADVANCE_RING();
  141. }
  142. static inline void r128_emit_tex0( drm_r128_private_t *dev_priv )
  143. {
  144. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  145. drm_r128_context_regs_t *ctx = &sarea_priv->context_state;
  146. drm_r128_texture_regs_t *tex = &sarea_priv->tex_state[0];
  147. int i;
  148. RING_LOCALS;
  149. DRM_DEBUG( "    %sn", __FUNCTION__ );
  150. BEGIN_RING( 7 + R128_TEX_MAXLEVELS );
  151. OUT_RING( CCE_PACKET0( R128_PRIM_TEX_CNTL_C,
  152.        2 + R128_TEX_MAXLEVELS ) );
  153. OUT_RING( tex->tex_cntl );
  154. OUT_RING( tex->tex_combine_cntl );
  155. OUT_RING( ctx->tex_size_pitch_c );
  156. for ( i = 0 ; i < R128_TEX_MAXLEVELS ; i++ ) {
  157. OUT_RING( tex->tex_offset[i] );
  158. }
  159. OUT_RING( CCE_PACKET0( R128_CONSTANT_COLOR_C, 1 ) );
  160. OUT_RING( ctx->constant_color_c );
  161. OUT_RING( tex->tex_border_color );
  162. ADVANCE_RING();
  163. }
  164. static inline void r128_emit_tex1( drm_r128_private_t *dev_priv )
  165. {
  166. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  167. drm_r128_texture_regs_t *tex = &sarea_priv->tex_state[1];
  168. int i;
  169. RING_LOCALS;
  170. DRM_DEBUG( "    %sn", __FUNCTION__ );
  171. BEGIN_RING( 5 + R128_TEX_MAXLEVELS );
  172. OUT_RING( CCE_PACKET0( R128_SEC_TEX_CNTL_C,
  173.        1 + R128_TEX_MAXLEVELS ) );
  174. OUT_RING( tex->tex_cntl );
  175. OUT_RING( tex->tex_combine_cntl );
  176. for ( i = 0 ; i < R128_TEX_MAXLEVELS ; i++ ) {
  177. OUT_RING( tex->tex_offset[i] );
  178. }
  179. OUT_RING( CCE_PACKET0( R128_SEC_TEXTURE_BORDER_COLOR_C, 0 ) );
  180. OUT_RING( tex->tex_border_color );
  181. ADVANCE_RING();
  182. }
  183. static inline void r128_emit_state( drm_r128_private_t *dev_priv )
  184. {
  185. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  186. unsigned int dirty = sarea_priv->dirty;
  187. DRM_DEBUG( "%s: dirty=0x%08xn", __FUNCTION__, dirty );
  188. if ( dirty & R128_UPLOAD_CORE ) {
  189. r128_emit_core( dev_priv );
  190. sarea_priv->dirty &= ~R128_UPLOAD_CORE;
  191. }
  192. if ( dirty & R128_UPLOAD_CONTEXT ) {
  193. r128_emit_context( dev_priv );
  194. sarea_priv->dirty &= ~R128_UPLOAD_CONTEXT;
  195. }
  196. if ( dirty & R128_UPLOAD_SETUP ) {
  197. r128_emit_setup( dev_priv );
  198. sarea_priv->dirty &= ~R128_UPLOAD_SETUP;
  199. }
  200. if ( dirty & R128_UPLOAD_MASKS ) {
  201. r128_emit_masks( dev_priv );
  202. sarea_priv->dirty &= ~R128_UPLOAD_MASKS;
  203. }
  204. if ( dirty & R128_UPLOAD_WINDOW ) {
  205. r128_emit_window( dev_priv );
  206. sarea_priv->dirty &= ~R128_UPLOAD_WINDOW;
  207. }
  208. if ( dirty & R128_UPLOAD_TEX0 ) {
  209. r128_emit_tex0( dev_priv );
  210. sarea_priv->dirty &= ~R128_UPLOAD_TEX0;
  211. }
  212. if ( dirty & R128_UPLOAD_TEX1 ) {
  213. r128_emit_tex1( dev_priv );
  214. sarea_priv->dirty &= ~R128_UPLOAD_TEX1;
  215. }
  216. /* Turn off the texture cache flushing */
  217. sarea_priv->context_state.tex_cntl_c &= ~R128_TEX_CACHE_FLUSH;
  218. sarea_priv->dirty &= ~R128_REQUIRE_QUIESCENCE;
  219. }
  220. #if R128_PERFORMANCE_BOXES
  221. /* ================================================================
  222.  * Performance monitoring functions
  223.  */
  224. static void r128_clear_box( drm_r128_private_t *dev_priv,
  225.     int x, int y, int w, int h,
  226.     int r, int g, int b )
  227. {
  228. u32 pitch, offset;
  229. u32 fb_bpp, color;
  230. RING_LOCALS;
  231. switch ( dev_priv->fb_bpp ) {
  232. case 16:
  233. fb_bpp = R128_GMC_DST_16BPP;
  234. color = (((r & 0xf8) << 8) |
  235.  ((g & 0xfc) << 3) |
  236.  ((b & 0xf8) >> 3));
  237. break;
  238. case 24:
  239. fb_bpp = R128_GMC_DST_24BPP;
  240. color = ((r << 16) | (g << 8) | b);
  241. break;
  242. case 32:
  243. fb_bpp = R128_GMC_DST_32BPP;
  244. color = (((0xff) << 24) | (r << 16) | (g <<  8) | b);
  245. break;
  246. default:
  247. return;
  248. }
  249. offset = dev_priv->back_offset;
  250. pitch = dev_priv->back_pitch >> 3;
  251. BEGIN_RING( 6 );
  252. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI, 4 ) );
  253. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL
  254.   | R128_GMC_BRUSH_SOLID_COLOR
  255.   | fb_bpp
  256.   | R128_GMC_SRC_DATATYPE_COLOR
  257.   | R128_ROP3_P
  258.   | R128_GMC_CLR_CMP_CNTL_DIS
  259.   | R128_GMC_AUX_CLIP_DIS );
  260. OUT_RING( (pitch << 21) | (offset >> 5) );
  261. OUT_RING( color );
  262. OUT_RING( (x << 16) | y );
  263. OUT_RING( (w << 16) | h );
  264. ADVANCE_RING();
  265. }
  266. static void r128_cce_performance_boxes( drm_r128_private_t *dev_priv )
  267. {
  268. if ( atomic_read( &dev_priv->idle_count ) == 0 ) {
  269. r128_clear_box( dev_priv, 64, 4, 8, 8, 0, 255, 0 );
  270. } else {
  271. atomic_set( &dev_priv->idle_count, 0 );
  272. }
  273. }
  274. #endif
  275. /* ================================================================
  276.  * CCE command dispatch functions
  277.  */
  278. static void r128_print_dirty( const char *msg, unsigned int flags )
  279. {
  280. DRM_INFO( "%s: (0x%x) %s%s%s%s%s%s%s%s%sn",
  281.   msg,
  282.   flags,
  283.   (flags & R128_UPLOAD_CORE)        ? "core, " : "",
  284.   (flags & R128_UPLOAD_CONTEXT)     ? "context, " : "",
  285.   (flags & R128_UPLOAD_SETUP)       ? "setup, " : "",
  286.   (flags & R128_UPLOAD_TEX0)        ? "tex0, " : "",
  287.   (flags & R128_UPLOAD_TEX1)        ? "tex1, " : "",
  288.   (flags & R128_UPLOAD_MASKS)       ? "masks, " : "",
  289.   (flags & R128_UPLOAD_WINDOW)      ? "window, " : "",
  290.   (flags & R128_UPLOAD_CLIPRECTS)   ? "cliprects, " : "",
  291.   (flags & R128_REQUIRE_QUIESCENCE) ? "quiescence, " : "" );
  292. }
  293. static void r128_cce_dispatch_clear( drm_device_t *dev,
  294.      unsigned int flags,
  295.      int cx, int cy, int cw, int ch,
  296.      unsigned int clear_color,
  297.      unsigned int clear_depth )
  298. {
  299. drm_r128_private_t *dev_priv = dev->dev_private;
  300. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  301. int nbox = sarea_priv->nbox;
  302. drm_clip_rect_t *pbox = sarea_priv->boxes;
  303. u32 fb_bpp, depth_bpp;
  304. int i;
  305. RING_LOCALS;
  306. DRM_DEBUG( "%sn", __FUNCTION__ );
  307. r128_update_ring_snapshot( dev_priv );
  308. switch ( dev_priv->fb_bpp ) {
  309. case 16:
  310. fb_bpp = R128_GMC_DST_16BPP;
  311. break;
  312. case 32:
  313. fb_bpp = R128_GMC_DST_32BPP;
  314. break;
  315. default:
  316. return;
  317. }
  318. switch ( dev_priv->depth_bpp ) {
  319. case 16:
  320. depth_bpp = R128_GMC_DST_16BPP;
  321. break;
  322. case 24:
  323. case 32:
  324. depth_bpp = R128_GMC_DST_32BPP;
  325. break;
  326. default:
  327. return;
  328. }
  329. for ( i = 0 ; i < nbox ; i++ ) {
  330. int x = pbox[i].x1;
  331. int y = pbox[i].y1;
  332. int w = pbox[i].x2 - x;
  333. int h = pbox[i].y2 - y;
  334. DRM_DEBUG( "dispatch clear %d,%d-%d,%d flags 0x%xn",
  335.    pbox[i].x1, pbox[i].y1, pbox[i].x2,
  336.    pbox[i].y2, flags );
  337. if ( flags & (R128_FRONT | R128_BACK) ) {
  338. BEGIN_RING( 2 );
  339. OUT_RING( CCE_PACKET0( R128_DP_WRITE_MASK, 0 ) );
  340. OUT_RING( sarea_priv->context_state.plane_3d_mask_c );
  341. ADVANCE_RING();
  342. }
  343. if ( flags & R128_FRONT ) {
  344. BEGIN_RING( 6 );
  345. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI, 4 ) );
  346. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL
  347.   | R128_GMC_BRUSH_SOLID_COLOR
  348.   | fb_bpp
  349.   | R128_GMC_SRC_DATATYPE_COLOR
  350.   | R128_ROP3_P
  351.   | R128_GMC_CLR_CMP_CNTL_DIS
  352.   | R128_GMC_AUX_CLIP_DIS );
  353. OUT_RING( dev_priv->front_pitch_offset_c );
  354. OUT_RING( clear_color );
  355. OUT_RING( (x << 16) | y );
  356. OUT_RING( (w << 16) | h );
  357. ADVANCE_RING();
  358. }
  359. if ( flags & R128_BACK ) {
  360. BEGIN_RING( 6 );
  361. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI, 4 ) );
  362. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL
  363.   | R128_GMC_BRUSH_SOLID_COLOR
  364.   | fb_bpp
  365.   | R128_GMC_SRC_DATATYPE_COLOR
  366.   | R128_ROP3_P
  367.   | R128_GMC_CLR_CMP_CNTL_DIS
  368.   | R128_GMC_AUX_CLIP_DIS );
  369. OUT_RING( dev_priv->back_pitch_offset_c );
  370. OUT_RING( clear_color );
  371. OUT_RING( (x << 16) | y );
  372. OUT_RING( (w << 16) | h );
  373. ADVANCE_RING();
  374. }
  375. if ( flags & R128_DEPTH ) {
  376. BEGIN_RING( 6 );
  377. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI, 4 ) );
  378. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL
  379.   | R128_GMC_BRUSH_SOLID_COLOR
  380.   | depth_bpp
  381.   | R128_GMC_SRC_DATATYPE_COLOR
  382.   | R128_ROP3_P
  383.   | R128_GMC_CLR_CMP_CNTL_DIS
  384.   | R128_GMC_AUX_CLIP_DIS
  385.   | R128_GMC_WR_MSK_DIS );
  386. OUT_RING( dev_priv->depth_pitch_offset_c );
  387. OUT_RING( clear_depth );
  388. OUT_RING( (x << 16) | y );
  389. OUT_RING( (w << 16) | h );
  390. ADVANCE_RING();
  391. }
  392. }
  393. }
  394. static void r128_cce_dispatch_swap( drm_device_t *dev )
  395. {
  396. drm_r128_private_t *dev_priv = dev->dev_private;
  397. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  398. int nbox = sarea_priv->nbox;
  399. drm_clip_rect_t *pbox = sarea_priv->boxes;
  400. u32 fb_bpp;
  401. int i;
  402. RING_LOCALS;
  403. DRM_DEBUG( "%sn", __FUNCTION__ );
  404. r128_update_ring_snapshot( dev_priv );
  405. #if R128_PERFORMANCE_BOXES
  406. /* Do some trivial performance monitoring...
  407.  */
  408. r128_cce_performance_boxes( dev_priv );
  409. #endif
  410. switch ( dev_priv->fb_bpp ) {
  411. case 16:
  412. fb_bpp = R128_GMC_DST_16BPP;
  413. break;
  414. case 32:
  415. default:
  416. fb_bpp = R128_GMC_DST_32BPP;
  417. break;
  418. }
  419. for ( i = 0 ; i < nbox ; i++ ) {
  420. int x = pbox[i].x1;
  421. int y = pbox[i].y1;
  422. int w = pbox[i].x2 - x;
  423. int h = pbox[i].y2 - y;
  424. BEGIN_RING( 7 );
  425. OUT_RING( CCE_PACKET3( R128_CNTL_BITBLT_MULTI, 5 ) );
  426. OUT_RING( R128_GMC_SRC_PITCH_OFFSET_CNTL
  427.   | R128_GMC_DST_PITCH_OFFSET_CNTL
  428.   | R128_GMC_BRUSH_NONE
  429.   | fb_bpp
  430.   | R128_GMC_SRC_DATATYPE_COLOR
  431.   | R128_ROP3_S
  432.   | R128_DP_SRC_SOURCE_MEMORY
  433.   | R128_GMC_CLR_CMP_CNTL_DIS
  434.   | R128_GMC_AUX_CLIP_DIS
  435.   | R128_GMC_WR_MSK_DIS );
  436. OUT_RING( dev_priv->back_pitch_offset_c );
  437. OUT_RING( dev_priv->front_pitch_offset_c );
  438. OUT_RING( (x << 16) | y );
  439. OUT_RING( (x << 16) | y );
  440. OUT_RING( (w << 16) | h );
  441. ADVANCE_RING();
  442. }
  443. /* Increment the frame counter.  The client-side 3D driver must
  444.  * throttle the framerate by waiting for this value before
  445.  * performing the swapbuffer ioctl.
  446.  */
  447. dev_priv->sarea_priv->last_frame++;
  448. BEGIN_RING( 2 );
  449. OUT_RING( CCE_PACKET0( R128_LAST_FRAME_REG, 0 ) );
  450. OUT_RING( dev_priv->sarea_priv->last_frame );
  451. ADVANCE_RING();
  452. }
  453. static void r128_cce_dispatch_vertex( drm_device_t *dev,
  454.       drm_buf_t *buf )
  455. {
  456. drm_r128_private_t *dev_priv = dev->dev_private;
  457. drm_r128_buf_priv_t *buf_priv = buf->dev_private;
  458. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  459. int format = sarea_priv->vc_format;
  460. int offset = dev_priv->buffers->offset + buf->offset - dev->agp->base;
  461. int size = buf->used;
  462. int prim = buf_priv->prim;
  463. int i = 0;
  464. RING_LOCALS;
  465. DRM_DEBUG( "%s: buf=%d nbox=%dn",
  466.    __FUNCTION__, buf->idx, sarea_priv->nbox );
  467. r128_update_ring_snapshot( dev_priv );
  468. if ( 0 )
  469. r128_print_dirty( "dispatch_vertex", sarea_priv->dirty );
  470. if ( buf->used ) {
  471. buf_priv->dispatched = 1;
  472. if ( sarea_priv->dirty & ~R128_UPLOAD_CLIPRECTS ) {
  473. r128_emit_state( dev_priv );
  474. }
  475. do {
  476. /* Emit the next set of up to three cliprects */
  477. if ( i < sarea_priv->nbox ) {
  478. r128_emit_clip_rects( dev_priv,
  479.       &sarea_priv->boxes[i],
  480.       sarea_priv->nbox - i );
  481. }
  482. /* Emit the vertex buffer rendering commands */
  483. BEGIN_RING( 5 );
  484. OUT_RING( CCE_PACKET3( R128_3D_RNDR_GEN_INDX_PRIM, 3 ) );
  485. OUT_RING( offset );
  486. OUT_RING( size );
  487. OUT_RING( format );
  488. OUT_RING( prim | R128_CCE_VC_CNTL_PRIM_WALK_LIST |
  489.   (size << R128_CCE_VC_CNTL_NUM_SHIFT) );
  490. ADVANCE_RING();
  491. i += 3;
  492. } while ( i < sarea_priv->nbox );
  493. }
  494. if ( buf_priv->discard ) {
  495. buf_priv->age = dev_priv->sarea_priv->last_dispatch;
  496. /* Emit the vertex buffer age */
  497. BEGIN_RING( 2 );
  498. OUT_RING( CCE_PACKET0( R128_LAST_DISPATCH_REG, 0 ) );
  499. OUT_RING( buf_priv->age );
  500. ADVANCE_RING();
  501. buf->pending = 1;
  502. buf->used = 0;
  503. /* FIXME: Check dispatched field */
  504. buf_priv->dispatched = 0;
  505. }
  506. dev_priv->sarea_priv->last_dispatch++;
  507. #if 0
  508. if ( dev_priv->submit_age == R128_MAX_VB_AGE ) {
  509. ret = r128_do_cce_idle( dev_priv );
  510. if ( ret < 0 ) return ret;
  511. dev_priv->submit_age = 0;
  512. r128_freelist_reset( dev );
  513. }
  514. #endif
  515. sarea_priv->dirty &= ~R128_UPLOAD_CLIPRECTS;
  516. sarea_priv->nbox = 0;
  517. }
  518. static void r128_cce_dispatch_indirect( drm_device_t *dev,
  519. drm_buf_t *buf,
  520. int start, int end )
  521. {
  522. drm_r128_private_t *dev_priv = dev->dev_private;
  523. drm_r128_buf_priv_t *buf_priv = buf->dev_private;
  524. RING_LOCALS;
  525. DRM_DEBUG( "indirect: buf=%d s=0x%x e=0x%xn",
  526.    buf->idx, start, end );
  527. r128_update_ring_snapshot( dev_priv );
  528. if ( start != end ) {
  529. int offset = (dev_priv->buffers->offset - dev->agp->base
  530.       + buf->offset + start);
  531. int dwords = (end - start + 3) / sizeof(u32);
  532. /* Indirect buffer data must be an even number of
  533.  * dwords, so if we've been given an odd number we must
  534.  * pad the data with a Type-2 CCE packet.
  535.  */
  536. if ( dwords & 1 ) {
  537. u32 *data = (u32 *)
  538. ((char *)dev_priv->buffers->handle
  539.  + buf->offset + start);
  540. data[dwords++] = R128_CCE_PACKET2;
  541. }
  542. buf_priv->dispatched = 1;
  543. /* Fire off the indirect buffer */
  544. BEGIN_RING( 3 );
  545. OUT_RING( CCE_PACKET0( R128_PM4_IW_INDOFF, 1 ) );
  546. OUT_RING( offset );
  547. OUT_RING( dwords );
  548. ADVANCE_RING();
  549. }
  550. if ( buf_priv->discard ) {
  551. buf_priv->age = dev_priv->sarea_priv->last_dispatch;
  552. /* Emit the indirect buffer age */
  553. BEGIN_RING( 2 );
  554. OUT_RING( CCE_PACKET0( R128_LAST_DISPATCH_REG, 0 ) );
  555. OUT_RING( buf_priv->age );
  556. ADVANCE_RING();
  557. buf->pending = 1;
  558. buf->used = 0;
  559. /* FIXME: Check dispatched field */
  560. buf_priv->dispatched = 0;
  561. }
  562. dev_priv->sarea_priv->last_dispatch++;
  563. #if 0
  564. if ( dev_priv->submit_age == R128_MAX_VB_AGE ) {
  565. ret = r128_do_cce_idle( dev_priv );
  566. if ( ret < 0 ) return ret;
  567. dev_priv->submit_age = 0;
  568. r128_freelist_reset( dev );
  569. }
  570. #endif
  571. }
  572. static void r128_cce_dispatch_indices( drm_device_t *dev,
  573.        drm_buf_t *buf,
  574.        int start, int end,
  575.        int count )
  576. {
  577. drm_r128_private_t *dev_priv = dev->dev_private;
  578. drm_r128_buf_priv_t *buf_priv = buf->dev_private;
  579. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  580. int format = sarea_priv->vc_format;
  581. int offset = dev_priv->buffers->offset - dev->agp->base;
  582. int prim = buf_priv->prim;
  583. u32 *data;
  584. int dwords;
  585. int i = 0;
  586. RING_LOCALS;
  587. DRM_DEBUG( "indices: s=%d e=%d c=%dn", start, end, count );
  588. r128_update_ring_snapshot( dev_priv );
  589. if ( 0 )
  590. r128_print_dirty( "dispatch_indices", sarea_priv->dirty );
  591. if ( start != end ) {
  592. buf_priv->dispatched = 1;
  593. if ( sarea_priv->dirty & ~R128_UPLOAD_CLIPRECTS ) {
  594. r128_emit_state( dev_priv );
  595. }
  596. dwords = (end - start + 3) / sizeof(u32);
  597. data = (u32 *)((char *)dev_priv->buffers->handle
  598.        + buf->offset + start);
  599. data[0] = CCE_PACKET3( R128_3D_RNDR_GEN_INDX_PRIM, dwords-2 );
  600. data[1] = offset;
  601. data[2] = R128_MAX_VB_VERTS;
  602. data[3] = format;
  603. data[4] = (prim | R128_CCE_VC_CNTL_PRIM_WALK_IND |
  604.    (count << 16));
  605. if ( count & 0x1 ) {
  606. data[dwords-1] &= 0x0000ffff;
  607. }
  608. do {
  609. /* Emit the next set of up to three cliprects */
  610. if ( i < sarea_priv->nbox ) {
  611. r128_emit_clip_rects( dev_priv,
  612.       &sarea_priv->boxes[i],
  613.       sarea_priv->nbox - i );
  614. }
  615. r128_cce_dispatch_indirect( dev, buf, start, end );
  616. i += 3;
  617. } while ( i < sarea_priv->nbox );
  618. }
  619. if ( buf_priv->discard ) {
  620. buf_priv->age = dev_priv->sarea_priv->last_dispatch;
  621. /* Emit the vertex buffer age */
  622. BEGIN_RING( 2 );
  623. OUT_RING( CCE_PACKET0( R128_LAST_DISPATCH_REG, 0 ) );
  624. OUT_RING( buf_priv->age );
  625. ADVANCE_RING();
  626. buf->pending = 1;
  627. /* FIXME: Check dispatched field */
  628. buf_priv->dispatched = 0;
  629. }
  630. dev_priv->sarea_priv->last_dispatch++;
  631. #if 0
  632. if ( dev_priv->submit_age == R128_MAX_VB_AGE ) {
  633. ret = r128_do_cce_idle( dev_priv );
  634. if ( ret < 0 ) return ret;
  635. dev_priv->submit_age = 0;
  636. r128_freelist_reset( dev );
  637. }
  638. #endif
  639. sarea_priv->dirty &= ~R128_UPLOAD_CLIPRECTS;
  640. sarea_priv->nbox = 0;
  641. }
  642. static int r128_cce_dispatch_blit( drm_device_t *dev,
  643.    drm_r128_blit_t *blit )
  644. {
  645. drm_r128_private_t *dev_priv = dev->dev_private;
  646. drm_device_dma_t *dma = dev->dma;
  647. drm_buf_t *buf;
  648. drm_r128_buf_priv_t *buf_priv;
  649. u32 *data;
  650. int dword_shift, dwords;
  651. RING_LOCALS;
  652. DRM_DEBUG( "%sn", __FUNCTION__ );
  653. r128_update_ring_snapshot( dev_priv );
  654. /* The compiler won't optimize away a division by a variable,
  655.  * even if the only legal values are powers of two.  Thus, we'll
  656.  * use a shift instead.
  657.  */
  658. switch ( blit->format ) {
  659. case R128_DATATYPE_ARGB1555:
  660. case R128_DATATYPE_RGB565:
  661. case R128_DATATYPE_ARGB4444:
  662. dword_shift = 1;
  663. break;
  664. case R128_DATATYPE_ARGB8888:
  665. dword_shift = 0;
  666. break;
  667. default:
  668. DRM_ERROR( "invalid blit format %dn", blit->format );
  669. return -EINVAL;
  670. }
  671. /* Flush the pixel cache, and mark the contents as Read Invalid.
  672.  * This ensures no pixel data gets mixed up with the texture
  673.  * data from the host data blit, otherwise part of the texture
  674.  * image may be corrupted.
  675.  */
  676. BEGIN_RING( 2 );
  677. OUT_RING( CCE_PACKET0( R128_PC_GUI_CTLSTAT, 0 ) );
  678. OUT_RING( R128_PC_RI_GUI | R128_PC_FLUSH_GUI );
  679. ADVANCE_RING();
  680. /* Dispatch the indirect buffer.
  681.  */
  682. buf = dma->buflist[blit->idx];
  683. buf_priv = buf->dev_private;
  684. if ( buf->pid != current->pid ) {
  685. DRM_ERROR( "process %d using buffer owned by %dn",
  686.    current->pid, buf->pid );
  687. return -EINVAL;
  688. }
  689. if ( buf->pending ) {
  690. DRM_ERROR( "sending pending buffer %dn", blit->idx );
  691. return -EINVAL;
  692. }
  693. buf_priv->discard = 1;
  694. dwords = (blit->width * blit->height) >> dword_shift;
  695. data = (u32 *)((char *)dev_priv->buffers->handle + buf->offset);
  696. data[0] = CCE_PACKET3( R128_CNTL_HOSTDATA_BLT, dwords + 6 );
  697. data[1] = ( R128_GMC_DST_PITCH_OFFSET_CNTL
  698.     | R128_GMC_BRUSH_NONE
  699.     | (blit->format << 8)
  700.     | R128_GMC_SRC_DATATYPE_COLOR
  701.     | R128_ROP3_S
  702.     | R128_DP_SRC_SOURCE_HOST_DATA
  703.     | R128_GMC_CLR_CMP_CNTL_DIS
  704.     | R128_GMC_AUX_CLIP_DIS
  705.     | R128_GMC_WR_MSK_DIS );
  706. data[2] = (blit->pitch << 21) | (blit->offset >> 5);
  707. data[3] = 0xffffffff;
  708. data[4] = 0xffffffff;
  709. data[5] = (blit->y << 16) | blit->x;
  710. data[6] = (blit->height << 16) | blit->width;
  711. data[7] = dwords;
  712. buf->used = (dwords + 8) * sizeof(u32);
  713. r128_cce_dispatch_indirect( dev, buf, 0, buf->used );
  714. /* Flush the pixel cache after the blit completes.  This ensures
  715.  * the texture data is written out to memory before rendering
  716.  * continues.
  717.  */
  718. BEGIN_RING( 2 );
  719. OUT_RING( CCE_PACKET0( R128_PC_GUI_CTLSTAT, 0 ) );
  720. OUT_RING( R128_PC_FLUSH_GUI );
  721. ADVANCE_RING();
  722. return 0;
  723. }
  724. /* ================================================================
  725.  * Tiled depth buffer management
  726.  *
  727.  * FIXME: These should all set the destination write mask for when we
  728.  * have hardware stencil support.
  729.  */
  730. static int r128_cce_dispatch_write_span( drm_device_t *dev,
  731.  drm_r128_depth_t *depth )
  732. {
  733. drm_r128_private_t *dev_priv = dev->dev_private;
  734. int count, x, y;
  735. u32 *buffer;
  736. u8 *mask;
  737. u32 depth_bpp;
  738. int i;
  739. RING_LOCALS;
  740. DRM_DEBUG( "%sn", __FUNCTION__ );
  741. r128_update_ring_snapshot( dev_priv );
  742. switch ( dev_priv->depth_bpp ) {
  743. case 16:
  744. depth_bpp = R128_GMC_DST_16BPP;
  745. break;
  746. case 24:
  747. case 32:
  748. depth_bpp = R128_GMC_DST_32BPP;
  749. break;
  750. default:
  751. return -EINVAL;
  752. }
  753. count = depth->n;
  754. if ( copy_from_user( &x, depth->x, sizeof(x) ) ) {
  755. return -EFAULT;
  756. }
  757. if ( copy_from_user( &y, depth->y, sizeof(y) ) ) {
  758. return -EFAULT;
  759. }
  760. buffer = kmalloc( depth->n * sizeof(u32), 0 );
  761. if ( buffer == NULL )
  762. return -ENOMEM;
  763. if ( copy_from_user( buffer, depth->buffer,
  764.      depth->n * sizeof(u32) ) ) {
  765. kfree( buffer );
  766. return -EFAULT;
  767. }
  768. if ( depth->mask ) {
  769. mask = kmalloc( depth->n * sizeof(u8), 0 );
  770. if ( mask == NULL ) {
  771. kfree( buffer );
  772. return -ENOMEM;
  773. }
  774. if ( copy_from_user( mask, depth->mask,
  775.      depth->n * sizeof(u8) ) ) {
  776. kfree( buffer );
  777. kfree( mask );
  778. return -EFAULT;
  779. }
  780. for ( i = 0 ; i < count ; i++, x++ ) {
  781. if ( mask[i] ) {
  782. BEGIN_RING( 6 );
  783. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI,
  784.        4 ) );
  785. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL
  786.   | R128_GMC_BRUSH_SOLID_COLOR
  787.   | depth_bpp
  788.   | R128_GMC_SRC_DATATYPE_COLOR
  789.   | R128_ROP3_P
  790.   | R128_GMC_CLR_CMP_CNTL_DIS
  791.   | R128_GMC_WR_MSK_DIS );
  792. OUT_RING( dev_priv->depth_pitch_offset_c );
  793. OUT_RING( buffer[i] );
  794. OUT_RING( (x << 16) | y );
  795. OUT_RING( (1 << 16) | 1 );
  796. ADVANCE_RING();
  797. }
  798. }
  799. kfree( mask );
  800. } else {
  801. for ( i = 0 ; i < count ; i++, x++ ) {
  802. BEGIN_RING( 6 );
  803. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI, 4 ) );
  804. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL
  805.   | R128_GMC_BRUSH_SOLID_COLOR
  806.   | depth_bpp
  807.   | R128_GMC_SRC_DATATYPE_COLOR
  808.   | R128_ROP3_P
  809.   | R128_GMC_CLR_CMP_CNTL_DIS
  810.   | R128_GMC_WR_MSK_DIS );
  811. OUT_RING( dev_priv->depth_pitch_offset_c );
  812. OUT_RING( buffer[i] );
  813. OUT_RING( (x << 16) | y );
  814. OUT_RING( (1 << 16) | 1 );
  815. ADVANCE_RING();
  816. }
  817. }
  818. kfree( buffer );
  819. return 0;
  820. }
  821. static int r128_cce_dispatch_write_pixels( drm_device_t *dev,
  822.    drm_r128_depth_t *depth )
  823. {
  824. drm_r128_private_t *dev_priv = dev->dev_private;
  825. int count, *x, *y;
  826. u32 *buffer;
  827. u8 *mask;
  828. u32 depth_bpp;
  829. int i;
  830. RING_LOCALS;
  831. DRM_DEBUG( "%sn", __FUNCTION__ );
  832. r128_update_ring_snapshot( dev_priv );
  833. switch ( dev_priv->depth_bpp ) {
  834. case 16:
  835. depth_bpp = R128_GMC_DST_16BPP;
  836. break;
  837. case 24:
  838. case 32:
  839. depth_bpp = R128_GMC_DST_32BPP;
  840. break;
  841. default:
  842. return -EINVAL;
  843. }
  844. count = depth->n;
  845. x = kmalloc( count * sizeof(*x), 0 );
  846. if ( x == NULL ) {
  847. return -ENOMEM;
  848. }
  849. y = kmalloc( count * sizeof(*y), 0 );
  850. if ( y == NULL ) {
  851. kfree( x );
  852. return -ENOMEM;
  853. }
  854. if ( copy_from_user( x, depth->x, count * sizeof(int) ) ) {
  855. kfree( x );
  856. kfree( y );
  857. return -EFAULT;
  858. }
  859. if ( copy_from_user( y, depth->y, count * sizeof(int) ) ) {
  860. kfree( x );
  861. kfree( y );
  862. return -EFAULT;
  863. }
  864. buffer = kmalloc( depth->n * sizeof(u32), 0 );
  865. if ( buffer == NULL ) {
  866. kfree( x );
  867. kfree( y );
  868. return -ENOMEM;
  869. }
  870. if ( copy_from_user( buffer, depth->buffer,
  871.      depth->n * sizeof(u32) ) ) {
  872. kfree( x );
  873. kfree( y );
  874. kfree( buffer );
  875. return -EFAULT;
  876. }
  877. if ( depth->mask ) {
  878. mask = kmalloc( depth->n * sizeof(u8), 0 );
  879. if ( mask == NULL ) {
  880. kfree( x );
  881. kfree( y );
  882. kfree( buffer );
  883. return -ENOMEM;
  884. }
  885. if ( copy_from_user( mask, depth->mask,
  886.      depth->n * sizeof(u8) ) ) {
  887. kfree( x );
  888. kfree( y );
  889. kfree( buffer );
  890. kfree( mask );
  891. return -EFAULT;
  892. }
  893. for ( i = 0 ; i < count ; i++ ) {
  894. if ( mask[i] ) {
  895. BEGIN_RING( 6 );
  896. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI,
  897.        4 ) );
  898. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL
  899.   | R128_GMC_BRUSH_SOLID_COLOR
  900.   | depth_bpp
  901.   | R128_GMC_SRC_DATATYPE_COLOR
  902.   | R128_ROP3_P
  903.   | R128_GMC_CLR_CMP_CNTL_DIS
  904.   | R128_GMC_WR_MSK_DIS );
  905. OUT_RING( dev_priv->depth_pitch_offset_c );
  906. OUT_RING( buffer[i] );
  907. OUT_RING( (x[i] << 16) | y[i] );
  908. OUT_RING( (1 << 16) | 1 );
  909. ADVANCE_RING();
  910. }
  911. }
  912. kfree( mask );
  913. } else {
  914. for ( i = 0 ; i < count ; i++ ) {
  915. BEGIN_RING( 6 );
  916. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI, 4 ) );
  917. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL
  918.   | R128_GMC_BRUSH_SOLID_COLOR
  919.   | depth_bpp
  920.   | R128_GMC_SRC_DATATYPE_COLOR
  921.   | R128_ROP3_P
  922.   | R128_GMC_CLR_CMP_CNTL_DIS
  923.   | R128_GMC_WR_MSK_DIS );
  924. OUT_RING( dev_priv->depth_pitch_offset_c );
  925. OUT_RING( buffer[i] );
  926. OUT_RING( (x[i] << 16) | y[i] );
  927. OUT_RING( (1 << 16) | 1 );
  928. ADVANCE_RING();
  929. }
  930. }
  931. kfree( x );
  932. kfree( y );
  933. kfree( buffer );
  934. return 0;
  935. }
  936. static int r128_cce_dispatch_read_span( drm_device_t *dev,
  937. drm_r128_depth_t *depth )
  938. {
  939. drm_r128_private_t *dev_priv = dev->dev_private;
  940. int count, x, y;
  941. u32 depth_bpp;
  942. RING_LOCALS;
  943. DRM_DEBUG( "%sn", __FUNCTION__ );
  944. r128_update_ring_snapshot( dev_priv );
  945. switch ( dev_priv->depth_bpp ) {
  946. case 16:
  947. depth_bpp = R128_GMC_DST_16BPP;
  948. break;
  949. case 24:
  950. case 32:
  951. depth_bpp = R128_GMC_DST_32BPP;
  952. break;
  953. default:
  954. return -EINVAL;
  955. }
  956. count = depth->n;
  957. if ( copy_from_user( &x, depth->x, sizeof(x) ) ) {
  958. return -EFAULT;
  959. }
  960. if ( copy_from_user( &y, depth->y, sizeof(y) ) ) {
  961. return -EFAULT;
  962. }
  963. BEGIN_RING( 7 );
  964. OUT_RING( CCE_PACKET3( R128_CNTL_BITBLT_MULTI, 5 ) );
  965. OUT_RING( R128_GMC_SRC_PITCH_OFFSET_CNTL
  966.   | R128_GMC_DST_PITCH_OFFSET_CNTL
  967.   | R128_GMC_BRUSH_NONE
  968.   | depth_bpp
  969.   | R128_GMC_SRC_DATATYPE_COLOR
  970.   | R128_ROP3_S
  971.   | R128_DP_SRC_SOURCE_MEMORY
  972.   | R128_GMC_CLR_CMP_CNTL_DIS
  973.   | R128_GMC_WR_MSK_DIS );
  974. OUT_RING( dev_priv->depth_pitch_offset_c );
  975. OUT_RING( dev_priv->span_pitch_offset_c );
  976. OUT_RING( (x << 16) | y );
  977. OUT_RING( (0 << 16) | 0 );
  978. OUT_RING( (count << 16) | 1 );
  979. ADVANCE_RING();
  980. return 0;
  981. }
  982. static int r128_cce_dispatch_read_pixels( drm_device_t *dev,
  983.   drm_r128_depth_t *depth )
  984. {
  985. drm_r128_private_t *dev_priv = dev->dev_private;
  986. int count, *x, *y;
  987. u32 depth_bpp;
  988. int i;
  989. RING_LOCALS;
  990. DRM_DEBUG( "%sn", __FUNCTION__ );
  991. r128_update_ring_snapshot( dev_priv );
  992. switch ( dev_priv->depth_bpp ) {
  993. case 16:
  994. depth_bpp = R128_GMC_DST_16BPP;
  995. break;
  996. case 24:
  997. case 32:
  998. depth_bpp = R128_GMC_DST_32BPP;
  999. break;
  1000. default:
  1001. return -EINVAL;
  1002. }
  1003. count = depth->n;
  1004. if ( count > dev_priv->depth_pitch ) {
  1005. count = dev_priv->depth_pitch;
  1006. }
  1007. x = kmalloc( count * sizeof(*x), 0 );
  1008. if ( x == NULL ) {
  1009. return -ENOMEM;
  1010. }
  1011. y = kmalloc( count * sizeof(*y), 0 );
  1012. if ( y == NULL ) {
  1013. kfree( x );
  1014. return -ENOMEM;
  1015. }
  1016. if ( copy_from_user( x, depth->x, count * sizeof(int) ) ) {
  1017. kfree( x );
  1018. kfree( y );
  1019. return -EFAULT;
  1020. }
  1021. if ( copy_from_user( y, depth->y, count * sizeof(int) ) ) {
  1022. kfree( x );
  1023. kfree( y );
  1024. return -EFAULT;
  1025. }
  1026. for ( i = 0 ; i < count ; i++ ) {
  1027. BEGIN_RING( 7 );
  1028. OUT_RING( CCE_PACKET3( R128_CNTL_BITBLT_MULTI, 5 ) );
  1029. OUT_RING( R128_GMC_SRC_PITCH_OFFSET_CNTL
  1030.   | R128_GMC_DST_PITCH_OFFSET_CNTL
  1031.   | R128_GMC_BRUSH_NONE
  1032.   | depth_bpp
  1033.   | R128_GMC_SRC_DATATYPE_COLOR
  1034.   | R128_ROP3_S
  1035.   | R128_DP_SRC_SOURCE_MEMORY
  1036.   | R128_GMC_CLR_CMP_CNTL_DIS
  1037.   | R128_GMC_WR_MSK_DIS );
  1038. OUT_RING( dev_priv->depth_pitch_offset_c );
  1039. OUT_RING( dev_priv->span_pitch_offset_c );
  1040. OUT_RING( (x[i] << 16) | y[i] );
  1041. OUT_RING( (i << 16) | 0 );
  1042. OUT_RING( (1 << 16) | 1 );
  1043. ADVANCE_RING();
  1044. }
  1045. kfree( x );
  1046. kfree( y );
  1047. return 0;
  1048. }
  1049. /* ================================================================
  1050.  * Polygon stipple
  1051.  */
  1052. static void r128_cce_dispatch_stipple( drm_device_t *dev, u32 *stipple )
  1053. {
  1054. drm_r128_private_t *dev_priv = dev->dev_private;
  1055. int i;
  1056. RING_LOCALS;
  1057. DRM_DEBUG( "%sn", __FUNCTION__ );
  1058. r128_update_ring_snapshot( dev_priv );
  1059. BEGIN_RING( 33 );
  1060. OUT_RING(  CCE_PACKET0( R128_BRUSH_DATA0, 31 ) );
  1061. for ( i = 0 ; i < 32 ; i++ ) {
  1062. OUT_RING( stipple[i] );
  1063. }
  1064. ADVANCE_RING();
  1065. }
  1066. /* ================================================================
  1067.  * IOCTL functions
  1068.  */
  1069. int r128_cce_clear( struct inode *inode, struct file *filp,
  1070.     unsigned int cmd, unsigned long arg )
  1071. {
  1072. drm_file_t *priv = filp->private_data;
  1073. drm_device_t *dev = priv->dev;
  1074. drm_r128_private_t *dev_priv = dev->dev_private;
  1075. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  1076. drm_r128_clear_t clear;
  1077. DRM_DEBUG( "%sn", __FUNCTION__ );
  1078. if ( !_DRM_LOCK_IS_HELD( dev->lock.hw_lock->lock ) ||
  1079.      dev->lock.pid != current->pid ) {
  1080. DRM_ERROR( "r128_cce_clear called without lock heldn" );
  1081. return -EINVAL;
  1082. }
  1083. if ( copy_from_user( &clear, (drm_r128_clear_t *) arg,
  1084.      sizeof(clear) ) )
  1085. return -EFAULT;
  1086. if ( sarea_priv->nbox > R128_NR_SAREA_CLIPRECTS )
  1087. sarea_priv->nbox = R128_NR_SAREA_CLIPRECTS;
  1088. r128_cce_dispatch_clear( dev, clear.flags,
  1089.  clear.x, clear.y, clear.w, clear.h,
  1090.  clear.clear_color, clear.clear_depth );
  1091. /* Make sure we restore the 3D state next time.
  1092.  */
  1093. dev_priv->sarea_priv->dirty |= R128_UPLOAD_CONTEXT | R128_UPLOAD_MASKS;
  1094. return 0;
  1095. }
  1096. int r128_cce_swap( struct inode *inode, struct file *filp,
  1097.    unsigned int cmd, unsigned long arg )
  1098. {
  1099. drm_file_t *priv = filp->private_data;
  1100. drm_device_t *dev = priv->dev;
  1101. drm_r128_private_t *dev_priv = dev->dev_private;
  1102. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  1103. DRM_DEBUG( "%sn", __FUNCTION__ );
  1104. if ( !_DRM_LOCK_IS_HELD( dev->lock.hw_lock->lock ) ||
  1105.      dev->lock.pid != current->pid ) {
  1106. DRM_ERROR( "r128_cce_swap called without lock heldn" );
  1107. return -EINVAL;
  1108. }
  1109. if ( sarea_priv->nbox > R128_NR_SAREA_CLIPRECTS )
  1110. sarea_priv->nbox = R128_NR_SAREA_CLIPRECTS;
  1111. r128_cce_dispatch_swap( dev );
  1112. /* Make sure we restore the 3D state next time.
  1113.  */
  1114. dev_priv->sarea_priv->dirty |= R128_UPLOAD_CONTEXT | R128_UPLOAD_MASKS;
  1115. return 0;
  1116. }
  1117. int r128_cce_vertex( struct inode *inode, struct file *filp,
  1118.      unsigned int cmd, unsigned long arg )
  1119. {
  1120. drm_file_t *priv = filp->private_data;
  1121. drm_device_t *dev = priv->dev;
  1122. drm_r128_private_t *dev_priv = dev->dev_private;
  1123. drm_device_dma_t *dma = dev->dma;
  1124. drm_buf_t *buf;
  1125. drm_r128_buf_priv_t *buf_priv;
  1126. drm_r128_vertex_t vertex;
  1127. if ( !_DRM_LOCK_IS_HELD( dev->lock.hw_lock->lock ) ||
  1128.      dev->lock.pid != current->pid ) {
  1129. DRM_ERROR( "%s called without lock heldn", __FUNCTION__ );
  1130. return -EINVAL;
  1131. }
  1132. if ( !dev_priv || dev_priv->is_pci ) {
  1133. DRM_ERROR( "%s called with a PCI cardn", __FUNCTION__ );
  1134. return -EINVAL;
  1135. }
  1136. if ( copy_from_user( &vertex, (drm_r128_vertex_t *)arg,
  1137.      sizeof(vertex) ) )
  1138. return -EFAULT;
  1139. DRM_DEBUG( "%s: pid=%d index=%d count=%d discard=%dn",
  1140.    __FUNCTION__, current->pid,
  1141.    vertex.idx, vertex.count, vertex.discard );
  1142. if ( vertex.idx < 0 || vertex.idx >= dma->buf_count ) {
  1143. DRM_ERROR( "buffer index %d (of %d max)n",
  1144.    vertex.idx, dma->buf_count - 1 );
  1145. return -EINVAL;
  1146. }
  1147. if ( vertex.prim < 0 ||
  1148.      vertex.prim > R128_CCE_VC_CNTL_PRIM_TYPE_TRI_TYPE2 ) {
  1149. DRM_ERROR( "buffer prim %dn", vertex.prim );
  1150. return -EINVAL;
  1151. }
  1152. buf = dma->buflist[vertex.idx];
  1153. buf_priv = buf->dev_private;
  1154. if ( buf->pid != current->pid ) {
  1155. DRM_ERROR( "process %d using buffer owned by %dn",
  1156.    current->pid, buf->pid );
  1157. return -EINVAL;
  1158. }
  1159. if ( buf->pending ) {
  1160. DRM_ERROR( "sending pending buffer %dn", vertex.idx );
  1161. return -EINVAL;
  1162. }
  1163. buf->used = vertex.count;
  1164. buf_priv->prim = vertex.prim;
  1165. buf_priv->discard = vertex.discard;
  1166. r128_cce_dispatch_vertex( dev, buf );
  1167. return 0;
  1168. }
  1169. int r128_cce_indices( struct inode *inode, struct file *filp,
  1170.       unsigned int cmd, unsigned long arg )
  1171. {
  1172. drm_file_t *priv = filp->private_data;
  1173. drm_device_t *dev = priv->dev;
  1174. drm_r128_private_t *dev_priv = dev->dev_private;
  1175. drm_device_dma_t *dma = dev->dma;
  1176. drm_buf_t *buf;
  1177. drm_r128_buf_priv_t *buf_priv;
  1178. drm_r128_indices_t elts;
  1179. int count;
  1180. if ( !_DRM_LOCK_IS_HELD( dev->lock.hw_lock->lock ) ||
  1181.      dev->lock.pid != current->pid ) {
  1182. DRM_ERROR( "%s called without lock heldn", __FUNCTION__ );
  1183. return -EINVAL;
  1184. }
  1185. if ( !dev_priv || dev_priv->is_pci ) {
  1186. DRM_ERROR( "%s called with a PCI cardn", __FUNCTION__ );
  1187. return -EINVAL;
  1188. }
  1189. if ( copy_from_user( &elts, (drm_r128_indices_t *)arg,
  1190.      sizeof(elts) ) )
  1191. return -EFAULT;
  1192. DRM_DEBUG( "%s: pid=%d buf=%d s=%d e=%d d=%dn",
  1193.    __FUNCTION__, current->pid,
  1194.    elts.idx, elts.start, elts.end, elts.discard );
  1195. if ( elts.idx < 0 || elts.idx >= dma->buf_count ) {
  1196. DRM_ERROR( "buffer index %d (of %d max)n",
  1197.    elts.idx, dma->buf_count - 1 );
  1198. return -EINVAL;
  1199. }
  1200. if ( elts.prim < 0 ||
  1201.      elts.prim > R128_CCE_VC_CNTL_PRIM_TYPE_TRI_TYPE2 ) {
  1202. DRM_ERROR( "buffer prim %dn", elts.prim );
  1203. return -EINVAL;
  1204. }
  1205. buf = dma->buflist[elts.idx];
  1206. buf_priv = buf->dev_private;
  1207. if ( buf->pid != current->pid ) {
  1208. DRM_ERROR( "process %d using buffer owned by %dn",
  1209.    current->pid, buf->pid );
  1210. return -EINVAL;
  1211. }
  1212. if ( buf->pending ) {
  1213. DRM_ERROR( "sending pending buffer %dn", elts.idx );
  1214. return -EINVAL;
  1215. }
  1216. count = (elts.end - elts.start) / sizeof(u16);
  1217. elts.start -= R128_INDEX_PRIM_OFFSET;
  1218. if ( elts.start & 0x7 ) {
  1219. DRM_ERROR( "misaligned buffer 0x%xn", elts.start );
  1220. return -EINVAL;
  1221. }
  1222. if ( elts.start < buf->used ) {
  1223. DRM_ERROR( "no header 0x%x - 0x%xn", elts.start, buf->used );
  1224. return -EINVAL;
  1225. }
  1226. buf->used = elts.end;
  1227. buf_priv->prim = elts.prim;
  1228. buf_priv->discard = elts.discard;
  1229. r128_cce_dispatch_indices( dev, buf, elts.start, elts.end, count );
  1230. return 0;
  1231. }
  1232. int r128_cce_blit( struct inode *inode, struct file *filp,
  1233.    unsigned int cmd, unsigned long arg )
  1234. {
  1235. drm_file_t *priv = filp->private_data;
  1236. drm_device_t *dev = priv->dev;
  1237. drm_device_dma_t *dma = dev->dma;
  1238. drm_r128_blit_t blit;
  1239. if ( !_DRM_LOCK_IS_HELD( dev->lock.hw_lock->lock ) ||
  1240.      dev->lock.pid != current->pid ) {
  1241. DRM_ERROR( "%s called without lock heldn", __FUNCTION__ );
  1242. return -EINVAL;
  1243. }
  1244. if ( copy_from_user( &blit, (drm_r128_blit_t *)arg,
  1245.      sizeof(blit) ) )
  1246. return -EFAULT;
  1247. DRM_DEBUG( "%s: pid=%d index=%dn",
  1248.    __FUNCTION__, current->pid, blit.idx );
  1249. if ( blit.idx < 0 || blit.idx >= dma->buf_count ) {
  1250. DRM_ERROR( "buffer index %d (of %d max)n",
  1251.    blit.idx, dma->buf_count - 1 );
  1252. return -EINVAL;
  1253. }
  1254. return r128_cce_dispatch_blit( dev, &blit );
  1255. }
  1256. int r128_cce_depth( struct inode *inode, struct file *filp,
  1257.     unsigned int cmd, unsigned long arg )
  1258. {
  1259. drm_file_t *priv = filp->private_data;
  1260. drm_device_t *dev = priv->dev;
  1261. drm_r128_depth_t depth;
  1262. if ( !_DRM_LOCK_IS_HELD( dev->lock.hw_lock->lock ) ||
  1263.      dev->lock.pid != current->pid ) {
  1264. DRM_ERROR( "%s called without lock heldn", __FUNCTION__ );
  1265. return -EINVAL;
  1266. }
  1267. if ( copy_from_user( &depth, (drm_r128_depth_t *)arg,
  1268.      sizeof(depth) ) )
  1269. return -EFAULT;
  1270. switch ( depth.func ) {
  1271. case R128_WRITE_SPAN:
  1272. return r128_cce_dispatch_write_span( dev, &depth );
  1273. case R128_WRITE_PIXELS:
  1274. return r128_cce_dispatch_write_pixels( dev, &depth );
  1275. case R128_READ_SPAN:
  1276. return r128_cce_dispatch_read_span( dev, &depth );
  1277. case R128_READ_PIXELS:
  1278. return r128_cce_dispatch_read_pixels( dev, &depth );
  1279. }
  1280. return -EINVAL;
  1281. }
  1282. int r128_cce_stipple( struct inode *inode, struct file *filp,
  1283.       unsigned int cmd, unsigned long arg )
  1284. {
  1285. drm_file_t *priv = filp->private_data;
  1286. drm_device_t *dev = priv->dev;
  1287. drm_r128_stipple_t stipple;
  1288. u32 mask[32];
  1289. if ( !_DRM_LOCK_IS_HELD( dev->lock.hw_lock->lock ) ||
  1290.      dev->lock.pid != current->pid ) {
  1291. DRM_ERROR( "%s called without lock heldn", __FUNCTION__ );
  1292. return -EINVAL;
  1293. }
  1294. if ( copy_from_user( &stipple, (drm_r128_stipple_t *)arg,
  1295.      sizeof(stipple) ) )
  1296. return -EFAULT;
  1297. if ( copy_from_user( &mask, stipple.mask,
  1298.      32 * sizeof(u32) ) )
  1299. return -EFAULT;
  1300. r128_cce_dispatch_stipple( dev, mask );
  1301. return 0;
  1302. }