r128_state.c
上传用户:lgb322
上传日期:2013-02-24
资源大小:30529k
文件大小:37k
源码类别:

嵌入式Linux

开发平台:

Unix_Linux

  1. /* r128_state.c -- State support for r128 -*- linux-c -*-
  2.  * Created: Thu Jan 27 02:53:43 2000 by gareth@valinux.com
  3.  *
  4.  * Copyright 2000 VA Linux Systems, Inc., Sunnyvale, California.
  5.  * All Rights Reserved.
  6.  *
  7.  * Permission is hereby granted, free of charge, to any person obtaining a
  8.  * copy of this software and associated documentation files (the "Software"),
  9.  * to deal in the Software without restriction, including without limitation
  10.  * the rights to use, copy, modify, merge, publish, distribute, sublicense,
  11.  * and/or sell copies of the Software, and to permit persons to whom the
  12.  * Software is furnished to do so, subject to the following conditions:
  13.  *
  14.  * The above copyright notice and this permission notice (including the next
  15.  * paragraph) shall be included in all copies or substantial portions of the
  16.  * Software.
  17.  *
  18.  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
  19.  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
  20.  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
  21.  * PRECISION INSIGHT AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM, DAMAGES OR
  22.  * OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE,
  23.  * ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER
  24.  * DEALINGS IN THE SOFTWARE.
  25.  *
  26.  * Authors:
  27.  *    Gareth Hughes <gareth@valinux.com>
  28.  */
  29. #define __NO_VERSION__
  30. #include "r128.h"
  31. #include "drmP.h"
  32. #include "r128_drv.h"
  33. #include "drm.h"
  34. #include <linux/delay.h>
  35. /* ================================================================
  36.  * CCE hardware state programming functions
  37.  */
  38. static void r128_emit_clip_rects( drm_r128_private_t *dev_priv,
  39.   drm_clip_rect_t *boxes, int count )
  40. {
  41. u32 aux_sc_cntl = 0x00000000;
  42. RING_LOCALS;
  43. DRM_DEBUG( "    %sn", __FUNCTION__ );
  44. BEGIN_RING( 17 );
  45. if ( count >= 1 ) {
  46. OUT_RING( CCE_PACKET0( R128_AUX1_SC_LEFT, 3 ) );
  47. OUT_RING( boxes[0].x1 );
  48. OUT_RING( boxes[0].x2 - 1 );
  49. OUT_RING( boxes[0].y1 );
  50. OUT_RING( boxes[0].y2 - 1 );
  51. aux_sc_cntl |= (R128_AUX1_SC_EN | R128_AUX1_SC_MODE_OR);
  52. }
  53. if ( count >= 2 ) {
  54. OUT_RING( CCE_PACKET0( R128_AUX2_SC_LEFT, 3 ) );
  55. OUT_RING( boxes[1].x1 );
  56. OUT_RING( boxes[1].x2 - 1 );
  57. OUT_RING( boxes[1].y1 );
  58. OUT_RING( boxes[1].y2 - 1 );
  59. aux_sc_cntl |= (R128_AUX2_SC_EN | R128_AUX2_SC_MODE_OR);
  60. }
  61. if ( count >= 3 ) {
  62. OUT_RING( CCE_PACKET0( R128_AUX3_SC_LEFT, 3 ) );
  63. OUT_RING( boxes[2].x1 );
  64. OUT_RING( boxes[2].x2 - 1 );
  65. OUT_RING( boxes[2].y1 );
  66. OUT_RING( boxes[2].y2 - 1 );
  67. aux_sc_cntl |= (R128_AUX3_SC_EN | R128_AUX3_SC_MODE_OR);
  68. }
  69. OUT_RING( CCE_PACKET0( R128_AUX_SC_CNTL, 0 ) );
  70. OUT_RING( aux_sc_cntl );
  71. ADVANCE_RING();
  72. }
  73. static inline void r128_emit_core( drm_r128_private_t *dev_priv )
  74. {
  75. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  76. drm_r128_context_regs_t *ctx = &sarea_priv->context_state;
  77. RING_LOCALS;
  78. DRM_DEBUG( "    %sn", __FUNCTION__ );
  79. BEGIN_RING( 2 );
  80. OUT_RING( CCE_PACKET0( R128_SCALE_3D_CNTL, 0 ) );
  81. OUT_RING( ctx->scale_3d_cntl );
  82. ADVANCE_RING();
  83. }
  84. static inline void r128_emit_context( drm_r128_private_t *dev_priv )
  85. {
  86. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  87. drm_r128_context_regs_t *ctx = &sarea_priv->context_state;
  88. RING_LOCALS;
  89. DRM_DEBUG( "    %sn", __FUNCTION__ );
  90. BEGIN_RING( 13 );
  91. OUT_RING( CCE_PACKET0( R128_DST_PITCH_OFFSET_C, 11 ) );
  92. OUT_RING( ctx->dst_pitch_offset_c );
  93. OUT_RING( ctx->dp_gui_master_cntl_c );
  94. OUT_RING( ctx->sc_top_left_c );
  95. OUT_RING( ctx->sc_bottom_right_c );
  96. OUT_RING( ctx->z_offset_c );
  97. OUT_RING( ctx->z_pitch_c );
  98. OUT_RING( ctx->z_sten_cntl_c );
  99. OUT_RING( ctx->tex_cntl_c );
  100. OUT_RING( ctx->misc_3d_state_cntl_reg );
  101. OUT_RING( ctx->texture_clr_cmp_clr_c );
  102. OUT_RING( ctx->texture_clr_cmp_msk_c );
  103. OUT_RING( ctx->fog_color_c );
  104. ADVANCE_RING();
  105. }
  106. static inline void r128_emit_setup( drm_r128_private_t *dev_priv )
  107. {
  108. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  109. drm_r128_context_regs_t *ctx = &sarea_priv->context_state;
  110. RING_LOCALS;
  111. DRM_DEBUG( "    %sn", __FUNCTION__ );
  112. BEGIN_RING( 3 );
  113. OUT_RING( CCE_PACKET1( R128_SETUP_CNTL, R128_PM4_VC_FPU_SETUP ) );
  114. OUT_RING( ctx->setup_cntl );
  115. OUT_RING( ctx->pm4_vc_fpu_setup );
  116. ADVANCE_RING();
  117. }
  118. static inline void r128_emit_masks( drm_r128_private_t *dev_priv )
  119. {
  120. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  121. drm_r128_context_regs_t *ctx = &sarea_priv->context_state;
  122. RING_LOCALS;
  123. DRM_DEBUG( "    %sn", __FUNCTION__ );
  124. BEGIN_RING( 5 );
  125. OUT_RING( CCE_PACKET0( R128_DP_WRITE_MASK, 0 ) );
  126. OUT_RING( ctx->dp_write_mask );
  127. OUT_RING( CCE_PACKET0( R128_STEN_REF_MASK_C, 1 ) );
  128. OUT_RING( ctx->sten_ref_mask_c );
  129. OUT_RING( ctx->plane_3d_mask_c );
  130. ADVANCE_RING();
  131. }
  132. static inline void r128_emit_window( drm_r128_private_t *dev_priv )
  133. {
  134. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  135. drm_r128_context_regs_t *ctx = &sarea_priv->context_state;
  136. RING_LOCALS;
  137. DRM_DEBUG( "    %sn", __FUNCTION__ );
  138. BEGIN_RING( 2 );
  139. OUT_RING( CCE_PACKET0( R128_WINDOW_XY_OFFSET, 0 ) );
  140. OUT_RING( ctx->window_xy_offset );
  141. ADVANCE_RING();
  142. }
  143. static inline void r128_emit_tex0( drm_r128_private_t *dev_priv )
  144. {
  145. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  146. drm_r128_context_regs_t *ctx = &sarea_priv->context_state;
  147. drm_r128_texture_regs_t *tex = &sarea_priv->tex_state[0];
  148. int i;
  149. RING_LOCALS;
  150. DRM_DEBUG( "    %sn", __FUNCTION__ );
  151. BEGIN_RING( 7 + R128_MAX_TEXTURE_LEVELS );
  152. OUT_RING( CCE_PACKET0( R128_PRIM_TEX_CNTL_C,
  153.        2 + R128_MAX_TEXTURE_LEVELS ) );
  154. OUT_RING( tex->tex_cntl );
  155. OUT_RING( tex->tex_combine_cntl );
  156. OUT_RING( ctx->tex_size_pitch_c );
  157. for ( i = 0 ; i < R128_MAX_TEXTURE_LEVELS ; i++ ) {
  158. OUT_RING( tex->tex_offset[i] );
  159. }
  160. OUT_RING( CCE_PACKET0( R128_CONSTANT_COLOR_C, 1 ) );
  161. OUT_RING( ctx->constant_color_c );
  162. OUT_RING( tex->tex_border_color );
  163. ADVANCE_RING();
  164. }
  165. static inline void r128_emit_tex1( drm_r128_private_t *dev_priv )
  166. {
  167. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  168. drm_r128_texture_regs_t *tex = &sarea_priv->tex_state[1];
  169. int i;
  170. RING_LOCALS;
  171. DRM_DEBUG( "    %sn", __FUNCTION__ );
  172. BEGIN_RING( 5 + R128_MAX_TEXTURE_LEVELS );
  173. OUT_RING( CCE_PACKET0( R128_SEC_TEX_CNTL_C,
  174.        1 + R128_MAX_TEXTURE_LEVELS ) );
  175. OUT_RING( tex->tex_cntl );
  176. OUT_RING( tex->tex_combine_cntl );
  177. for ( i = 0 ; i < R128_MAX_TEXTURE_LEVELS ; i++ ) {
  178. OUT_RING( tex->tex_offset[i] );
  179. }
  180. OUT_RING( CCE_PACKET0( R128_SEC_TEXTURE_BORDER_COLOR_C, 0 ) );
  181. OUT_RING( tex->tex_border_color );
  182. ADVANCE_RING();
  183. }
  184. static inline void r128_emit_state( drm_r128_private_t *dev_priv )
  185. {
  186. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  187. unsigned int dirty = sarea_priv->dirty;
  188. DRM_DEBUG( "%s: dirty=0x%08xn", __FUNCTION__, dirty );
  189. if ( dirty & R128_UPLOAD_CORE ) {
  190. r128_emit_core( dev_priv );
  191. sarea_priv->dirty &= ~R128_UPLOAD_CORE;
  192. }
  193. if ( dirty & R128_UPLOAD_CONTEXT ) {
  194. r128_emit_context( dev_priv );
  195. sarea_priv->dirty &= ~R128_UPLOAD_CONTEXT;
  196. }
  197. if ( dirty & R128_UPLOAD_SETUP ) {
  198. r128_emit_setup( dev_priv );
  199. sarea_priv->dirty &= ~R128_UPLOAD_SETUP;
  200. }
  201. if ( dirty & R128_UPLOAD_MASKS ) {
  202. r128_emit_masks( dev_priv );
  203. sarea_priv->dirty &= ~R128_UPLOAD_MASKS;
  204. }
  205. if ( dirty & R128_UPLOAD_WINDOW ) {
  206. r128_emit_window( dev_priv );
  207. sarea_priv->dirty &= ~R128_UPLOAD_WINDOW;
  208. }
  209. if ( dirty & R128_UPLOAD_TEX0 ) {
  210. r128_emit_tex0( dev_priv );
  211. sarea_priv->dirty &= ~R128_UPLOAD_TEX0;
  212. }
  213. if ( dirty & R128_UPLOAD_TEX1 ) {
  214. r128_emit_tex1( dev_priv );
  215. sarea_priv->dirty &= ~R128_UPLOAD_TEX1;
  216. }
  217. /* Turn off the texture cache flushing */
  218. sarea_priv->context_state.tex_cntl_c &= ~R128_TEX_CACHE_FLUSH;
  219. sarea_priv->dirty &= ~R128_REQUIRE_QUIESCENCE;
  220. }
  221. #if R128_PERFORMANCE_BOXES
  222. /* ================================================================
  223.  * Performance monitoring functions
  224.  */
  225. static void r128_clear_box( drm_r128_private_t *dev_priv,
  226.     int x, int y, int w, int h,
  227.     int r, int g, int b )
  228. {
  229. u32 pitch, offset;
  230. u32 fb_bpp, color;
  231. RING_LOCALS;
  232. switch ( dev_priv->fb_bpp ) {
  233. case 16:
  234. fb_bpp = R128_GMC_DST_16BPP;
  235. color = (((r & 0xf8) << 8) |
  236.  ((g & 0xfc) << 3) |
  237.  ((b & 0xf8) >> 3));
  238. break;
  239. case 24:
  240. fb_bpp = R128_GMC_DST_24BPP;
  241. color = ((r << 16) | (g << 8) | b);
  242. break;
  243. case 32:
  244. fb_bpp = R128_GMC_DST_32BPP;
  245. color = (((0xff) << 24) | (r << 16) | (g <<  8) | b);
  246. break;
  247. default:
  248. return;
  249. }
  250. offset = dev_priv->back_offset;
  251. pitch = dev_priv->back_pitch >> 3;
  252. BEGIN_RING( 6 );
  253. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI, 4 ) );
  254. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL |
  255.   R128_GMC_BRUSH_SOLID_COLOR |
  256.   fb_bpp |
  257.   R128_GMC_SRC_DATATYPE_COLOR |
  258.   R128_ROP3_P |
  259.   R128_GMC_CLR_CMP_CNTL_DIS |
  260.   R128_GMC_AUX_CLIP_DIS );
  261. OUT_RING( (pitch << 21) | (offset >> 5) );
  262. OUT_RING( color );
  263. OUT_RING( (x << 16) | y );
  264. OUT_RING( (w << 16) | h );
  265. ADVANCE_RING();
  266. }
  267. static void r128_cce_performance_boxes( drm_r128_private_t *dev_priv )
  268. {
  269. if ( atomic_read( &dev_priv->idle_count ) == 0 ) {
  270. r128_clear_box( dev_priv, 64, 4, 8, 8, 0, 255, 0 );
  271. } else {
  272. atomic_set( &dev_priv->idle_count, 0 );
  273. }
  274. }
  275. #endif
  276. /* ================================================================
  277.  * CCE command dispatch functions
  278.  */
  279. static void r128_print_dirty( const char *msg, unsigned int flags )
  280. {
  281. DRM_INFO( "%s: (0x%x) %s%s%s%s%s%s%s%s%sn",
  282.   msg,
  283.   flags,
  284.   (flags & R128_UPLOAD_CORE)        ? "core, " : "",
  285.   (flags & R128_UPLOAD_CONTEXT)     ? "context, " : "",
  286.   (flags & R128_UPLOAD_SETUP)       ? "setup, " : "",
  287.   (flags & R128_UPLOAD_TEX0)        ? "tex0, " : "",
  288.   (flags & R128_UPLOAD_TEX1)        ? "tex1, " : "",
  289.   (flags & R128_UPLOAD_MASKS)       ? "masks, " : "",
  290.   (flags & R128_UPLOAD_WINDOW)      ? "window, " : "",
  291.   (flags & R128_UPLOAD_CLIPRECTS)   ? "cliprects, " : "",
  292.   (flags & R128_REQUIRE_QUIESCENCE) ? "quiescence, " : "" );
  293. }
  294. static void r128_cce_dispatch_clear( drm_device_t *dev,
  295.      drm_r128_clear_t *clear )
  296. {
  297. drm_r128_private_t *dev_priv = dev->dev_private;
  298. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  299. int nbox = sarea_priv->nbox;
  300. drm_clip_rect_t *pbox = sarea_priv->boxes;
  301. unsigned int flags = clear->flags;
  302. int i;
  303. RING_LOCALS;
  304. DRM_DEBUG( "%sn", __FUNCTION__ );
  305. if ( dev_priv->page_flipping && dev_priv->current_page == 1 ) {
  306. unsigned int tmp = flags;
  307. flags &= ~(R128_FRONT | R128_BACK);
  308. if ( tmp & R128_FRONT ) flags |= R128_BACK;
  309. if ( tmp & R128_BACK )  flags |= R128_FRONT;
  310. }
  311. for ( i = 0 ; i < nbox ; i++ ) {
  312. int x = pbox[i].x1;
  313. int y = pbox[i].y1;
  314. int w = pbox[i].x2 - x;
  315. int h = pbox[i].y2 - y;
  316. DRM_DEBUG( "dispatch clear %d,%d-%d,%d flags 0x%xn",
  317.    pbox[i].x1, pbox[i].y1, pbox[i].x2,
  318.    pbox[i].y2, flags );
  319. if ( flags & (R128_FRONT | R128_BACK) ) {
  320. BEGIN_RING( 2 );
  321. OUT_RING( CCE_PACKET0( R128_DP_WRITE_MASK, 0 ) );
  322. OUT_RING( clear->color_mask );
  323. ADVANCE_RING();
  324. }
  325. if ( flags & R128_FRONT ) {
  326. BEGIN_RING( 6 );
  327. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI, 4 ) );
  328. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL |
  329.   R128_GMC_BRUSH_SOLID_COLOR |
  330.   (dev_priv->color_fmt << 8) |
  331.   R128_GMC_SRC_DATATYPE_COLOR |
  332.   R128_ROP3_P |
  333.   R128_GMC_CLR_CMP_CNTL_DIS |
  334.   R128_GMC_AUX_CLIP_DIS );
  335. OUT_RING( dev_priv->front_pitch_offset_c );
  336. OUT_RING( clear->clear_color );
  337. OUT_RING( (x << 16) | y );
  338. OUT_RING( (w << 16) | h );
  339. ADVANCE_RING();
  340. }
  341. if ( flags & R128_BACK ) {
  342. BEGIN_RING( 6 );
  343. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI, 4 ) );
  344. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL |
  345.   R128_GMC_BRUSH_SOLID_COLOR |
  346.   (dev_priv->color_fmt << 8) |
  347.   R128_GMC_SRC_DATATYPE_COLOR |
  348.   R128_ROP3_P |
  349.   R128_GMC_CLR_CMP_CNTL_DIS |
  350.   R128_GMC_AUX_CLIP_DIS );
  351. OUT_RING( dev_priv->back_pitch_offset_c );
  352. OUT_RING( clear->clear_color );
  353. OUT_RING( (x << 16) | y );
  354. OUT_RING( (w << 16) | h );
  355. ADVANCE_RING();
  356. }
  357. if ( flags & R128_DEPTH ) {
  358. BEGIN_RING( 6 );
  359. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI, 4 ) );
  360. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL |
  361.   R128_GMC_BRUSH_SOLID_COLOR |
  362.   (dev_priv->depth_fmt << 8) |
  363.   R128_GMC_SRC_DATATYPE_COLOR |
  364.   R128_ROP3_P |
  365.   R128_GMC_CLR_CMP_CNTL_DIS |
  366.   R128_GMC_AUX_CLIP_DIS |
  367.   R128_GMC_WR_MSK_DIS );
  368. OUT_RING( dev_priv->depth_pitch_offset_c );
  369. OUT_RING( clear->clear_depth );
  370. OUT_RING( (x << 16) | y );
  371. OUT_RING( (w << 16) | h );
  372. ADVANCE_RING();
  373. }
  374. }
  375. }
  376. static void r128_cce_dispatch_swap( drm_device_t *dev )
  377. {
  378. drm_r128_private_t *dev_priv = dev->dev_private;
  379. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  380. int nbox = sarea_priv->nbox;
  381. drm_clip_rect_t *pbox = sarea_priv->boxes;
  382. int i;
  383. RING_LOCALS;
  384. DRM_DEBUG( "%sn", __FUNCTION__ );
  385. #if R128_PERFORMANCE_BOXES
  386. /* Do some trivial performance monitoring...
  387.  */
  388. r128_cce_performance_boxes( dev_priv );
  389. #endif
  390. for ( i = 0 ; i < nbox ; i++ ) {
  391. int x = pbox[i].x1;
  392. int y = pbox[i].y1;
  393. int w = pbox[i].x2 - x;
  394. int h = pbox[i].y2 - y;
  395. BEGIN_RING( 7 );
  396. OUT_RING( CCE_PACKET3( R128_CNTL_BITBLT_MULTI, 5 ) );
  397. OUT_RING( R128_GMC_SRC_PITCH_OFFSET_CNTL |
  398.   R128_GMC_DST_PITCH_OFFSET_CNTL |
  399.   R128_GMC_BRUSH_NONE |
  400.   (dev_priv->color_fmt << 8) |
  401.   R128_GMC_SRC_DATATYPE_COLOR |
  402.   R128_ROP3_S |
  403.   R128_DP_SRC_SOURCE_MEMORY |
  404.   R128_GMC_CLR_CMP_CNTL_DIS |
  405.   R128_GMC_AUX_CLIP_DIS |
  406.   R128_GMC_WR_MSK_DIS );
  407. OUT_RING( dev_priv->back_pitch_offset_c );
  408. OUT_RING( dev_priv->front_pitch_offset_c );
  409. OUT_RING( (x << 16) | y );
  410. OUT_RING( (x << 16) | y );
  411. OUT_RING( (w << 16) | h );
  412. ADVANCE_RING();
  413. }
  414. /* Increment the frame counter.  The client-side 3D driver must
  415.  * throttle the framerate by waiting for this value before
  416.  * performing the swapbuffer ioctl.
  417.  */
  418. dev_priv->sarea_priv->last_frame++;
  419. BEGIN_RING( 2 );
  420. OUT_RING( CCE_PACKET0( R128_LAST_FRAME_REG, 0 ) );
  421. OUT_RING( dev_priv->sarea_priv->last_frame );
  422. ADVANCE_RING();
  423. }
  424. static void r128_cce_dispatch_flip( drm_device_t *dev )
  425. {
  426. drm_r128_private_t *dev_priv = dev->dev_private;
  427. RING_LOCALS;
  428. DRM_DEBUG( "%s: page=%dn", __FUNCTION__, dev_priv->current_page );
  429. #if R128_PERFORMANCE_BOXES
  430. /* Do some trivial performance monitoring...
  431.  */
  432. r128_cce_performance_boxes( dev_priv );
  433. #endif
  434. BEGIN_RING( 4 );
  435. R128_WAIT_UNTIL_PAGE_FLIPPED();
  436. OUT_RING( CCE_PACKET0( R128_CRTC_OFFSET, 0 ) );
  437. if ( dev_priv->current_page == 0 ) {
  438. OUT_RING( dev_priv->back_offset );
  439. dev_priv->current_page = 1;
  440. } else {
  441. OUT_RING( dev_priv->front_offset );
  442. dev_priv->current_page = 0;
  443. }
  444. ADVANCE_RING();
  445. /* Increment the frame counter.  The client-side 3D driver must
  446.  * throttle the framerate by waiting for this value before
  447.  * performing the swapbuffer ioctl.
  448.  */
  449. dev_priv->sarea_priv->last_frame++;
  450. BEGIN_RING( 2 );
  451. OUT_RING( CCE_PACKET0( R128_LAST_FRAME_REG, 0 ) );
  452. OUT_RING( dev_priv->sarea_priv->last_frame );
  453. ADVANCE_RING();
  454. }
  455. static void r128_cce_dispatch_vertex( drm_device_t *dev,
  456.       drm_buf_t *buf )
  457. {
  458. drm_r128_private_t *dev_priv = dev->dev_private;
  459. drm_r128_buf_priv_t *buf_priv = buf->dev_private;
  460. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  461. int format = sarea_priv->vc_format;
  462. int offset = buf->bus_address;
  463. int size = buf->used;
  464. int prim = buf_priv->prim;
  465. int i = 0;
  466. RING_LOCALS;
  467. DRM_DEBUG( "%s: buf=%d nbox=%dn",
  468.    __FUNCTION__, buf->idx, sarea_priv->nbox );
  469. if ( 0 )
  470. r128_print_dirty( "dispatch_vertex", sarea_priv->dirty );
  471. if ( buf->used ) {
  472. buf_priv->dispatched = 1;
  473. if ( sarea_priv->dirty & ~R128_UPLOAD_CLIPRECTS ) {
  474. r128_emit_state( dev_priv );
  475. }
  476. do {
  477. /* Emit the next set of up to three cliprects */
  478. if ( i < sarea_priv->nbox ) {
  479. r128_emit_clip_rects( dev_priv,
  480.       &sarea_priv->boxes[i],
  481.       sarea_priv->nbox - i );
  482. }
  483. /* Emit the vertex buffer rendering commands */
  484. BEGIN_RING( 5 );
  485. OUT_RING( CCE_PACKET3( R128_3D_RNDR_GEN_INDX_PRIM, 3 ) );
  486. OUT_RING( offset );
  487. OUT_RING( size );
  488. OUT_RING( format );
  489. OUT_RING( prim | R128_CCE_VC_CNTL_PRIM_WALK_LIST |
  490.   (size << R128_CCE_VC_CNTL_NUM_SHIFT) );
  491. ADVANCE_RING();
  492. i += 3;
  493. } while ( i < sarea_priv->nbox );
  494. }
  495. if ( buf_priv->discard ) {
  496. buf_priv->age = dev_priv->sarea_priv->last_dispatch;
  497. /* Emit the vertex buffer age */
  498. BEGIN_RING( 2 );
  499. OUT_RING( CCE_PACKET0( R128_LAST_DISPATCH_REG, 0 ) );
  500. OUT_RING( buf_priv->age );
  501. ADVANCE_RING();
  502. buf->pending = 1;
  503. buf->used = 0;
  504. /* FIXME: Check dispatched field */
  505. buf_priv->dispatched = 0;
  506. }
  507. dev_priv->sarea_priv->last_dispatch++;
  508. sarea_priv->dirty &= ~R128_UPLOAD_CLIPRECTS;
  509. sarea_priv->nbox = 0;
  510. }
  511. static void r128_cce_dispatch_indirect( drm_device_t *dev,
  512. drm_buf_t *buf,
  513. int start, int end )
  514. {
  515. drm_r128_private_t *dev_priv = dev->dev_private;
  516. drm_r128_buf_priv_t *buf_priv = buf->dev_private;
  517. RING_LOCALS;
  518. DRM_DEBUG( "indirect: buf=%d s=0x%x e=0x%xn",
  519.    buf->idx, start, end );
  520. if ( start != end ) {
  521. int offset = buf->bus_address + start;
  522. int dwords = (end - start + 3) / sizeof(u32);
  523. /* Indirect buffer data must be an even number of
  524.  * dwords, so if we've been given an odd number we must
  525.  * pad the data with a Type-2 CCE packet.
  526.  */
  527. if ( dwords & 1 ) {
  528. u32 *data = (u32 *)
  529. ((char *)dev_priv->buffers->handle
  530.  + buf->offset + start);
  531. data[dwords++] = cpu_to_le32( R128_CCE_PACKET2 );
  532. }
  533. buf_priv->dispatched = 1;
  534. /* Fire off the indirect buffer */
  535. BEGIN_RING( 3 );
  536. OUT_RING( CCE_PACKET0( R128_PM4_IW_INDOFF, 1 ) );
  537. OUT_RING( offset );
  538. OUT_RING( dwords );
  539. ADVANCE_RING();
  540. }
  541. if ( buf_priv->discard ) {
  542. buf_priv->age = dev_priv->sarea_priv->last_dispatch;
  543. /* Emit the indirect buffer age */
  544. BEGIN_RING( 2 );
  545. OUT_RING( CCE_PACKET0( R128_LAST_DISPATCH_REG, 0 ) );
  546. OUT_RING( buf_priv->age );
  547. ADVANCE_RING();
  548. buf->pending = 1;
  549. buf->used = 0;
  550. /* FIXME: Check dispatched field */
  551. buf_priv->dispatched = 0;
  552. }
  553. dev_priv->sarea_priv->last_dispatch++;
  554. }
  555. static void r128_cce_dispatch_indices( drm_device_t *dev,
  556.        drm_buf_t *buf,
  557.        int start, int end,
  558.        int count )
  559. {
  560. drm_r128_private_t *dev_priv = dev->dev_private;
  561. drm_r128_buf_priv_t *buf_priv = buf->dev_private;
  562. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  563. int format = sarea_priv->vc_format;
  564. int offset = dev_priv->buffers->offset - dev_priv->cce_buffers_offset;
  565. int prim = buf_priv->prim;
  566. u32 *data;
  567. int dwords;
  568. int i = 0;
  569. RING_LOCALS;
  570. DRM_DEBUG( "indices: s=%d e=%d c=%dn", start, end, count );
  571. if ( 0 )
  572. r128_print_dirty( "dispatch_indices", sarea_priv->dirty );
  573. if ( start != end ) {
  574. buf_priv->dispatched = 1;
  575. if ( sarea_priv->dirty & ~R128_UPLOAD_CLIPRECTS ) {
  576. r128_emit_state( dev_priv );
  577. }
  578. dwords = (end - start + 3) / sizeof(u32);
  579. data = (u32 *)((char *)dev_priv->buffers->handle
  580.        + buf->offset + start);
  581. data[0] = cpu_to_le32( CCE_PACKET3( R128_3D_RNDR_GEN_INDX_PRIM,
  582.     dwords-2 ) );
  583. data[1] = cpu_to_le32( offset );
  584. data[2] = cpu_to_le32( R128_MAX_VB_VERTS );
  585. data[3] = cpu_to_le32( format );
  586. data[4] = cpu_to_le32( (prim | R128_CCE_VC_CNTL_PRIM_WALK_IND |
  587. (count << 16)) );
  588. if ( count & 0x1 ) {
  589. #ifdef __LITTLE_ENDIAN
  590. data[dwords-1] &= 0x0000ffff;
  591. #else
  592. data[dwords-1] &= 0xffff0000;
  593. #endif
  594. }
  595. do {
  596. /* Emit the next set of up to three cliprects */
  597. if ( i < sarea_priv->nbox ) {
  598. r128_emit_clip_rects( dev_priv,
  599.       &sarea_priv->boxes[i],
  600.       sarea_priv->nbox - i );
  601. }
  602. r128_cce_dispatch_indirect( dev, buf, start, end );
  603. i += 3;
  604. } while ( i < sarea_priv->nbox );
  605. }
  606. if ( buf_priv->discard ) {
  607. buf_priv->age = dev_priv->sarea_priv->last_dispatch;
  608. /* Emit the vertex buffer age */
  609. BEGIN_RING( 2 );
  610. OUT_RING( CCE_PACKET0( R128_LAST_DISPATCH_REG, 0 ) );
  611. OUT_RING( buf_priv->age );
  612. ADVANCE_RING();
  613. buf->pending = 1;
  614. /* FIXME: Check dispatched field */
  615. buf_priv->dispatched = 0;
  616. }
  617. dev_priv->sarea_priv->last_dispatch++;
  618. sarea_priv->dirty &= ~R128_UPLOAD_CLIPRECTS;
  619. sarea_priv->nbox = 0;
  620. }
  621. static int r128_cce_dispatch_blit( drm_device_t *dev,
  622.    drm_r128_blit_t *blit )
  623. {
  624. drm_r128_private_t *dev_priv = dev->dev_private;
  625. drm_device_dma_t *dma = dev->dma;
  626. drm_buf_t *buf;
  627. drm_r128_buf_priv_t *buf_priv;
  628. u32 *data;
  629. int dword_shift, dwords;
  630. RING_LOCALS;
  631. DRM_DEBUG( "%sn", __FUNCTION__ );
  632. /* The compiler won't optimize away a division by a variable,
  633.  * even if the only legal values are powers of two.  Thus, we'll
  634.  * use a shift instead.
  635.  */
  636. switch ( blit->format ) {
  637. case R128_DATATYPE_ARGB8888:
  638. dword_shift = 0;
  639. break;
  640. case R128_DATATYPE_ARGB1555:
  641. case R128_DATATYPE_RGB565:
  642. case R128_DATATYPE_ARGB4444:
  643. dword_shift = 1;
  644. break;
  645. case R128_DATATYPE_CI8:
  646. case R128_DATATYPE_RGB8:
  647. dword_shift = 2;
  648. break;
  649. default:
  650. DRM_ERROR( "invalid blit format %dn", blit->format );
  651. return -EINVAL;
  652. }
  653. /* Flush the pixel cache, and mark the contents as Read Invalid.
  654.  * This ensures no pixel data gets mixed up with the texture
  655.  * data from the host data blit, otherwise part of the texture
  656.  * image may be corrupted.
  657.  */
  658. BEGIN_RING( 2 );
  659. OUT_RING( CCE_PACKET0( R128_PC_GUI_CTLSTAT, 0 ) );
  660. OUT_RING( R128_PC_RI_GUI | R128_PC_FLUSH_GUI );
  661. ADVANCE_RING();
  662. /* Dispatch the indirect buffer.
  663.  */
  664. buf = dma->buflist[blit->idx];
  665. buf_priv = buf->dev_private;
  666. if ( buf->pid != current->pid ) {
  667. DRM_ERROR( "process %d using buffer owned by %dn",
  668.    current->pid, buf->pid );
  669. return -EINVAL;
  670. }
  671. if ( buf->pending ) {
  672. DRM_ERROR( "sending pending buffer %dn", blit->idx );
  673. return -EINVAL;
  674. }
  675. buf_priv->discard = 1;
  676. dwords = (blit->width * blit->height) >> dword_shift;
  677. data = (u32 *)((char *)dev_priv->buffers->handle + buf->offset);
  678. data[0] = cpu_to_le32( CCE_PACKET3( R128_CNTL_HOSTDATA_BLT, dwords + 6 ) );
  679. data[1] = cpu_to_le32( (R128_GMC_DST_PITCH_OFFSET_CNTL |
  680. R128_GMC_BRUSH_NONE |
  681. (blit->format << 8) |
  682. R128_GMC_SRC_DATATYPE_COLOR |
  683. R128_ROP3_S |
  684. R128_DP_SRC_SOURCE_HOST_DATA |
  685. R128_GMC_CLR_CMP_CNTL_DIS |
  686. R128_GMC_AUX_CLIP_DIS |
  687. R128_GMC_WR_MSK_DIS) );
  688. data[2] = cpu_to_le32( (blit->pitch << 21) | (blit->offset >> 5) );
  689. data[3] = cpu_to_le32( 0xffffffff );
  690. data[4] = cpu_to_le32( 0xffffffff );
  691. data[5] = cpu_to_le32( (blit->y << 16) | blit->x );
  692. data[6] = cpu_to_le32( (blit->height << 16) | blit->width );
  693. data[7] = cpu_to_le32( dwords );
  694. buf->used = (dwords + 8) * sizeof(u32);
  695. r128_cce_dispatch_indirect( dev, buf, 0, buf->used );
  696. /* Flush the pixel cache after the blit completes.  This ensures
  697.  * the texture data is written out to memory before rendering
  698.  * continues.
  699.  */
  700. BEGIN_RING( 2 );
  701. OUT_RING( CCE_PACKET0( R128_PC_GUI_CTLSTAT, 0 ) );
  702. OUT_RING( R128_PC_FLUSH_GUI );
  703. ADVANCE_RING();
  704. return 0;
  705. }
  706. /* ================================================================
  707.  * Tiled depth buffer management
  708.  *
  709.  * FIXME: These should all set the destination write mask for when we
  710.  * have hardware stencil support.
  711.  */
  712. static int r128_cce_dispatch_write_span( drm_device_t *dev,
  713.  drm_r128_depth_t *depth )
  714. {
  715. drm_r128_private_t *dev_priv = dev->dev_private;
  716. int count, x, y;
  717. u32 *buffer;
  718. u8 *mask;
  719. int i;
  720. RING_LOCALS;
  721. DRM_DEBUG( "%sn", __FUNCTION__ );
  722. count = depth->n;
  723. if ( copy_from_user( &x, depth->x, sizeof(x) ) ) {
  724. return -EFAULT;
  725. }
  726. if ( copy_from_user( &y, depth->y, sizeof(y) ) ) {
  727. return -EFAULT;
  728. }
  729. buffer = kmalloc( depth->n * sizeof(u32), GFP_KERNEL );
  730. if ( buffer == NULL )
  731. return -ENOMEM;
  732. if ( copy_from_user( buffer, depth->buffer,
  733.      depth->n * sizeof(u32) ) ) {
  734. kfree( buffer );
  735. return -EFAULT;
  736. }
  737. if ( depth->mask ) {
  738. mask = kmalloc( depth->n * sizeof(u8), GFP_KERNEL );
  739. if ( mask == NULL ) {
  740. kfree( buffer );
  741. return -ENOMEM;
  742. }
  743. if ( copy_from_user( mask, depth->mask,
  744.      depth->n * sizeof(u8) ) ) {
  745. kfree( buffer );
  746. kfree( mask );
  747. return -EFAULT;
  748. }
  749. for ( i = 0 ; i < count ; i++, x++ ) {
  750. if ( mask[i] ) {
  751. BEGIN_RING( 6 );
  752. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI, 4 ) );
  753. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL |
  754.   R128_GMC_BRUSH_SOLID_COLOR |
  755.   (dev_priv->depth_fmt << 8) |
  756.   R128_GMC_SRC_DATATYPE_COLOR |
  757.   R128_ROP3_P |
  758.   R128_GMC_CLR_CMP_CNTL_DIS |
  759.   R128_GMC_WR_MSK_DIS );
  760. OUT_RING( dev_priv->depth_pitch_offset_c );
  761. OUT_RING( buffer[i] );
  762. OUT_RING( (x << 16) | y );
  763. OUT_RING( (1 << 16) | 1 );
  764. ADVANCE_RING();
  765. }
  766. }
  767. kfree( mask );
  768. } else {
  769. for ( i = 0 ; i < count ; i++, x++ ) {
  770. BEGIN_RING( 6 );
  771. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI, 4 ) );
  772. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL |
  773.   R128_GMC_BRUSH_SOLID_COLOR |
  774.   (dev_priv->depth_fmt << 8) |
  775.   R128_GMC_SRC_DATATYPE_COLOR |
  776.   R128_ROP3_P |
  777.   R128_GMC_CLR_CMP_CNTL_DIS |
  778.   R128_GMC_WR_MSK_DIS );
  779. OUT_RING( dev_priv->depth_pitch_offset_c );
  780. OUT_RING( buffer[i] );
  781. OUT_RING( (x << 16) | y );
  782. OUT_RING( (1 << 16) | 1 );
  783. ADVANCE_RING();
  784. }
  785. }
  786. kfree( buffer );
  787. return 0;
  788. }
  789. static int r128_cce_dispatch_write_pixels( drm_device_t *dev,
  790.    drm_r128_depth_t *depth )
  791. {
  792. drm_r128_private_t *dev_priv = dev->dev_private;
  793. int count, *x, *y;
  794. u32 *buffer;
  795. u8 *mask;
  796. int i;
  797. RING_LOCALS;
  798. DRM_DEBUG( "%sn", __FUNCTION__ );
  799. count = depth->n;
  800. x = kmalloc( count * sizeof(*x), GFP_KERNEL );
  801. if ( x == NULL ) {
  802. return -ENOMEM;
  803. }
  804. y = kmalloc( count * sizeof(*y), GFP_KERNEL );
  805. if ( y == NULL ) {
  806. kfree( x );
  807. return -ENOMEM;
  808. }
  809. if ( copy_from_user( x, depth->x, count * sizeof(int) ) ) {
  810. kfree( x );
  811. kfree( y );
  812. return -EFAULT;
  813. }
  814. if ( copy_from_user( y, depth->y, count * sizeof(int) ) ) {
  815. kfree( x );
  816. kfree( y );
  817. return -EFAULT;
  818. }
  819. buffer = kmalloc( depth->n * sizeof(u32), GFP_KERNEL );
  820. if ( buffer == NULL ) {
  821. kfree( x );
  822. kfree( y );
  823. return -ENOMEM;
  824. }
  825. if ( copy_from_user( buffer, depth->buffer,
  826.      depth->n * sizeof(u32) ) ) {
  827. kfree( x );
  828. kfree( y );
  829. kfree( buffer );
  830. return -EFAULT;
  831. }
  832. if ( depth->mask ) {
  833. mask = kmalloc( depth->n * sizeof(u8), GFP_KERNEL );
  834. if ( mask == NULL ) {
  835. kfree( x );
  836. kfree( y );
  837. kfree( buffer );
  838. return -ENOMEM;
  839. }
  840. if ( copy_from_user( mask, depth->mask,
  841.      depth->n * sizeof(u8) ) ) {
  842. kfree( x );
  843. kfree( y );
  844. kfree( buffer );
  845. kfree( mask );
  846. return -EFAULT;
  847. }
  848. for ( i = 0 ; i < count ; i++ ) {
  849. if ( mask[i] ) {
  850. BEGIN_RING( 6 );
  851. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI, 4 ) );
  852. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL |
  853.   R128_GMC_BRUSH_SOLID_COLOR |
  854.   (dev_priv->depth_fmt << 8) |
  855.   R128_GMC_SRC_DATATYPE_COLOR |
  856.   R128_ROP3_P |
  857.   R128_GMC_CLR_CMP_CNTL_DIS |
  858.   R128_GMC_WR_MSK_DIS );
  859. OUT_RING( dev_priv->depth_pitch_offset_c );
  860. OUT_RING( buffer[i] );
  861. OUT_RING( (x[i] << 16) | y[i] );
  862. OUT_RING( (1 << 16) | 1 );
  863. ADVANCE_RING();
  864. }
  865. }
  866. kfree( mask );
  867. } else {
  868. for ( i = 0 ; i < count ; i++ ) {
  869. BEGIN_RING( 6 );
  870. OUT_RING( CCE_PACKET3( R128_CNTL_PAINT_MULTI, 4 ) );
  871. OUT_RING( R128_GMC_DST_PITCH_OFFSET_CNTL |
  872.   R128_GMC_BRUSH_SOLID_COLOR |
  873.   (dev_priv->depth_fmt << 8) |
  874.   R128_GMC_SRC_DATATYPE_COLOR |
  875.   R128_ROP3_P |
  876.   R128_GMC_CLR_CMP_CNTL_DIS |
  877.   R128_GMC_WR_MSK_DIS );
  878. OUT_RING( dev_priv->depth_pitch_offset_c );
  879. OUT_RING( buffer[i] );
  880. OUT_RING( (x[i] << 16) | y[i] );
  881. OUT_RING( (1 << 16) | 1 );
  882. ADVANCE_RING();
  883. }
  884. }
  885. kfree( x );
  886. kfree( y );
  887. kfree( buffer );
  888. return 0;
  889. }
  890. static int r128_cce_dispatch_read_span( drm_device_t *dev,
  891. drm_r128_depth_t *depth )
  892. {
  893. drm_r128_private_t *dev_priv = dev->dev_private;
  894. int count, x, y;
  895. RING_LOCALS;
  896. DRM_DEBUG( "%sn", __FUNCTION__ );
  897. count = depth->n;
  898. if ( copy_from_user( &x, depth->x, sizeof(x) ) ) {
  899. return -EFAULT;
  900. }
  901. if ( copy_from_user( &y, depth->y, sizeof(y) ) ) {
  902. return -EFAULT;
  903. }
  904. BEGIN_RING( 7 );
  905. OUT_RING( CCE_PACKET3( R128_CNTL_BITBLT_MULTI, 5 ) );
  906. OUT_RING( R128_GMC_SRC_PITCH_OFFSET_CNTL |
  907.   R128_GMC_DST_PITCH_OFFSET_CNTL |
  908.   R128_GMC_BRUSH_NONE |
  909.   (dev_priv->depth_fmt << 8) |
  910.   R128_GMC_SRC_DATATYPE_COLOR |
  911.   R128_ROP3_S |
  912.   R128_DP_SRC_SOURCE_MEMORY |
  913.   R128_GMC_CLR_CMP_CNTL_DIS |
  914.   R128_GMC_WR_MSK_DIS );
  915. OUT_RING( dev_priv->depth_pitch_offset_c );
  916. OUT_RING( dev_priv->span_pitch_offset_c );
  917. OUT_RING( (x << 16) | y );
  918. OUT_RING( (0 << 16) | 0 );
  919. OUT_RING( (count << 16) | 1 );
  920. ADVANCE_RING();
  921. return 0;
  922. }
  923. static int r128_cce_dispatch_read_pixels( drm_device_t *dev,
  924.   drm_r128_depth_t *depth )
  925. {
  926. drm_r128_private_t *dev_priv = dev->dev_private;
  927. int count, *x, *y;
  928. int i;
  929. RING_LOCALS;
  930. DRM_DEBUG( "%sn", __FUNCTION__ );
  931. count = depth->n;
  932. if ( count > dev_priv->depth_pitch ) {
  933. count = dev_priv->depth_pitch;
  934. }
  935. x = kmalloc( count * sizeof(*x), GFP_KERNEL );
  936. if ( x == NULL ) {
  937. return -ENOMEM;
  938. }
  939. y = kmalloc( count * sizeof(*y), GFP_KERNEL );
  940. if ( y == NULL ) {
  941. kfree( x );
  942. return -ENOMEM;
  943. }
  944. if ( copy_from_user( x, depth->x, count * sizeof(int) ) ) {
  945. kfree( x );
  946. kfree( y );
  947. return -EFAULT;
  948. }
  949. if ( copy_from_user( y, depth->y, count * sizeof(int) ) ) {
  950. kfree( x );
  951. kfree( y );
  952. return -EFAULT;
  953. }
  954. for ( i = 0 ; i < count ; i++ ) {
  955. BEGIN_RING( 7 );
  956. OUT_RING( CCE_PACKET3( R128_CNTL_BITBLT_MULTI, 5 ) );
  957. OUT_RING( R128_GMC_SRC_PITCH_OFFSET_CNTL |
  958.   R128_GMC_DST_PITCH_OFFSET_CNTL |
  959.   R128_GMC_BRUSH_NONE |
  960.   (dev_priv->depth_fmt << 8) |
  961.   R128_GMC_SRC_DATATYPE_COLOR |
  962.   R128_ROP3_S |
  963.   R128_DP_SRC_SOURCE_MEMORY |
  964.   R128_GMC_CLR_CMP_CNTL_DIS |
  965.   R128_GMC_WR_MSK_DIS );
  966. OUT_RING( dev_priv->depth_pitch_offset_c );
  967. OUT_RING( dev_priv->span_pitch_offset_c );
  968. OUT_RING( (x[i] << 16) | y[i] );
  969. OUT_RING( (i << 16) | 0 );
  970. OUT_RING( (1 << 16) | 1 );
  971. ADVANCE_RING();
  972. }
  973. kfree( x );
  974. kfree( y );
  975. return 0;
  976. }
  977. /* ================================================================
  978.  * Polygon stipple
  979.  */
  980. static void r128_cce_dispatch_stipple( drm_device_t *dev, u32 *stipple )
  981. {
  982. drm_r128_private_t *dev_priv = dev->dev_private;
  983. int i;
  984. RING_LOCALS;
  985. DRM_DEBUG( "%sn", __FUNCTION__ );
  986. BEGIN_RING( 33 );
  987. OUT_RING( CCE_PACKET0( R128_BRUSH_DATA0, 31 ) );
  988. for ( i = 0 ; i < 32 ; i++ ) {
  989. OUT_RING( stipple[i] );
  990. }
  991. ADVANCE_RING();
  992. }
  993. /* ================================================================
  994.  * IOCTL functions
  995.  */
  996. int r128_cce_clear( struct inode *inode, struct file *filp,
  997.     unsigned int cmd, unsigned long arg )
  998. {
  999. drm_file_t *priv = filp->private_data;
  1000. drm_device_t *dev = priv->dev;
  1001. drm_r128_private_t *dev_priv = dev->dev_private;
  1002. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  1003. drm_r128_clear_t clear;
  1004. DRM_DEBUG( "%sn", __FUNCTION__ );
  1005. LOCK_TEST_WITH_RETURN( dev );
  1006. if ( copy_from_user( &clear, (drm_r128_clear_t *) arg,
  1007.      sizeof(clear) ) )
  1008. return -EFAULT;
  1009. RING_SPACE_TEST_WITH_RETURN( dev_priv );
  1010. if ( sarea_priv->nbox > R128_NR_SAREA_CLIPRECTS )
  1011. sarea_priv->nbox = R128_NR_SAREA_CLIPRECTS;
  1012. r128_cce_dispatch_clear( dev, &clear );
  1013. /* Make sure we restore the 3D state next time.
  1014.  */
  1015. dev_priv->sarea_priv->dirty |= R128_UPLOAD_CONTEXT | R128_UPLOAD_MASKS;
  1016. return 0;
  1017. }
  1018. int r128_cce_swap( struct inode *inode, struct file *filp,
  1019.    unsigned int cmd, unsigned long arg )
  1020. {
  1021. drm_file_t *priv = filp->private_data;
  1022. drm_device_t *dev = priv->dev;
  1023. drm_r128_private_t *dev_priv = dev->dev_private;
  1024. drm_r128_sarea_t *sarea_priv = dev_priv->sarea_priv;
  1025. DRM_DEBUG( "%sn", __FUNCTION__ );
  1026. LOCK_TEST_WITH_RETURN( dev );
  1027. RING_SPACE_TEST_WITH_RETURN( dev_priv );
  1028. if ( sarea_priv->nbox > R128_NR_SAREA_CLIPRECTS )
  1029. sarea_priv->nbox = R128_NR_SAREA_CLIPRECTS;
  1030. if ( !dev_priv->page_flipping ) {
  1031. r128_cce_dispatch_swap( dev );
  1032. dev_priv->sarea_priv->dirty |= (R128_UPLOAD_CONTEXT |
  1033. R128_UPLOAD_MASKS);
  1034. } else {
  1035. r128_cce_dispatch_flip( dev );
  1036. }
  1037. return 0;
  1038. }
  1039. int r128_cce_vertex( struct inode *inode, struct file *filp,
  1040.      unsigned int cmd, unsigned long arg )
  1041. {
  1042. drm_file_t *priv = filp->private_data;
  1043. drm_device_t *dev = priv->dev;
  1044. drm_r128_private_t *dev_priv = dev->dev_private;
  1045. drm_device_dma_t *dma = dev->dma;
  1046. drm_buf_t *buf;
  1047. drm_r128_buf_priv_t *buf_priv;
  1048. drm_r128_vertex_t vertex;
  1049. LOCK_TEST_WITH_RETURN( dev );
  1050. if ( !dev_priv ) {
  1051. DRM_ERROR( "%s called with no initializationn", __FUNCTION__ );
  1052. return -EINVAL;
  1053. }
  1054. if ( copy_from_user( &vertex, (drm_r128_vertex_t *)arg,
  1055.      sizeof(vertex) ) )
  1056. return -EFAULT;
  1057. DRM_DEBUG( "%s: pid=%d index=%d count=%d discard=%dn",
  1058.    __FUNCTION__, current->pid,
  1059.    vertex.idx, vertex.count, vertex.discard );
  1060. if ( vertex.idx < 0 || vertex.idx >= dma->buf_count ) {
  1061. DRM_ERROR( "buffer index %d (of %d max)n",
  1062.    vertex.idx, dma->buf_count - 1 );
  1063. return -EINVAL;
  1064. }
  1065. if ( vertex.prim < 0 ||
  1066.      vertex.prim > R128_CCE_VC_CNTL_PRIM_TYPE_TRI_TYPE2 ) {
  1067. DRM_ERROR( "buffer prim %dn", vertex.prim );
  1068. return -EINVAL;
  1069. }
  1070. RING_SPACE_TEST_WITH_RETURN( dev_priv );
  1071. VB_AGE_TEST_WITH_RETURN( dev_priv );
  1072. buf = dma->buflist[vertex.idx];
  1073. buf_priv = buf->dev_private;
  1074. if ( buf->pid != current->pid ) {
  1075. DRM_ERROR( "process %d using buffer owned by %dn",
  1076.    current->pid, buf->pid );
  1077. return -EINVAL;
  1078. }
  1079. if ( buf->pending ) {
  1080. DRM_ERROR( "sending pending buffer %dn", vertex.idx );
  1081. return -EINVAL;
  1082. }
  1083. buf->used = vertex.count;
  1084. buf_priv->prim = vertex.prim;
  1085. buf_priv->discard = vertex.discard;
  1086. r128_cce_dispatch_vertex( dev, buf );
  1087. return 0;
  1088. }
  1089. int r128_cce_indices( struct inode *inode, struct file *filp,
  1090.       unsigned int cmd, unsigned long arg )
  1091. {
  1092. drm_file_t *priv = filp->private_data;
  1093. drm_device_t *dev = priv->dev;
  1094. drm_r128_private_t *dev_priv = dev->dev_private;
  1095. drm_device_dma_t *dma = dev->dma;
  1096. drm_buf_t *buf;
  1097. drm_r128_buf_priv_t *buf_priv;
  1098. drm_r128_indices_t elts;
  1099. int count;
  1100. LOCK_TEST_WITH_RETURN( dev );
  1101. if ( !dev_priv ) {
  1102. DRM_ERROR( "%s called with no initializationn", __FUNCTION__ );
  1103. return -EINVAL;
  1104. }
  1105. if ( copy_from_user( &elts, (drm_r128_indices_t *)arg,
  1106.      sizeof(elts) ) )
  1107. return -EFAULT;
  1108. DRM_DEBUG( "%s: pid=%d buf=%d s=%d e=%d d=%dn",
  1109.    __FUNCTION__, current->pid,
  1110.    elts.idx, elts.start, elts.end, elts.discard );
  1111. if ( elts.idx < 0 || elts.idx >= dma->buf_count ) {
  1112. DRM_ERROR( "buffer index %d (of %d max)n",
  1113.    elts.idx, dma->buf_count - 1 );
  1114. return -EINVAL;
  1115. }
  1116. if ( elts.prim < 0 ||
  1117.      elts.prim > R128_CCE_VC_CNTL_PRIM_TYPE_TRI_TYPE2 ) {
  1118. DRM_ERROR( "buffer prim %dn", elts.prim );
  1119. return -EINVAL;
  1120. }
  1121. RING_SPACE_TEST_WITH_RETURN( dev_priv );
  1122. VB_AGE_TEST_WITH_RETURN( dev_priv );
  1123. buf = dma->buflist[elts.idx];
  1124. buf_priv = buf->dev_private;
  1125. if ( buf->pid != current->pid ) {
  1126. DRM_ERROR( "process %d using buffer owned by %dn",
  1127.    current->pid, buf->pid );
  1128. return -EINVAL;
  1129. }
  1130. if ( buf->pending ) {
  1131. DRM_ERROR( "sending pending buffer %dn", elts.idx );
  1132. return -EINVAL;
  1133. }
  1134. count = (elts.end - elts.start) / sizeof(u16);
  1135. elts.start -= R128_INDEX_PRIM_OFFSET;
  1136. if ( elts.start & 0x7 ) {
  1137. DRM_ERROR( "misaligned buffer 0x%xn", elts.start );
  1138. return -EINVAL;
  1139. }
  1140. if ( elts.start < buf->used ) {
  1141. DRM_ERROR( "no header 0x%x - 0x%xn", elts.start, buf->used );
  1142. return -EINVAL;
  1143. }
  1144. buf->used = elts.end;
  1145. buf_priv->prim = elts.prim;
  1146. buf_priv->discard = elts.discard;
  1147. r128_cce_dispatch_indices( dev, buf, elts.start, elts.end, count );
  1148. return 0;
  1149. }
  1150. int r128_cce_blit( struct inode *inode, struct file *filp,
  1151.    unsigned int cmd, unsigned long arg )
  1152. {
  1153. drm_file_t *priv = filp->private_data;
  1154. drm_device_t *dev = priv->dev;
  1155. drm_device_dma_t *dma = dev->dma;
  1156. drm_r128_private_t *dev_priv = dev->dev_private;
  1157. drm_r128_blit_t blit;
  1158. LOCK_TEST_WITH_RETURN( dev );
  1159. if ( copy_from_user( &blit, (drm_r128_blit_t *)arg,
  1160.      sizeof(blit) ) )
  1161. return -EFAULT;
  1162. DRM_DEBUG( "%s: pid=%d index=%dn",
  1163.    __FUNCTION__, current->pid, blit.idx );
  1164. if ( blit.idx < 0 || blit.idx >= dma->buf_count ) {
  1165. DRM_ERROR( "buffer index %d (of %d max)n",
  1166.    blit.idx, dma->buf_count - 1 );
  1167. return -EINVAL;
  1168. }
  1169. RING_SPACE_TEST_WITH_RETURN( dev_priv );
  1170. VB_AGE_TEST_WITH_RETURN( dev_priv );
  1171. return r128_cce_dispatch_blit( dev, &blit );
  1172. }
  1173. int r128_cce_depth( struct inode *inode, struct file *filp,
  1174.     unsigned int cmd, unsigned long arg )
  1175. {
  1176. drm_file_t *priv = filp->private_data;
  1177. drm_device_t *dev = priv->dev;
  1178. drm_r128_private_t *dev_priv = dev->dev_private;
  1179. drm_r128_depth_t depth;
  1180. LOCK_TEST_WITH_RETURN( dev );
  1181. if ( copy_from_user( &depth, (drm_r128_depth_t *)arg,
  1182.      sizeof(depth) ) )
  1183. return -EFAULT;
  1184. RING_SPACE_TEST_WITH_RETURN( dev_priv );
  1185. switch ( depth.func ) {
  1186. case R128_WRITE_SPAN:
  1187. return r128_cce_dispatch_write_span( dev, &depth );
  1188. case R128_WRITE_PIXELS:
  1189. return r128_cce_dispatch_write_pixels( dev, &depth );
  1190. case R128_READ_SPAN:
  1191. return r128_cce_dispatch_read_span( dev, &depth );
  1192. case R128_READ_PIXELS:
  1193. return r128_cce_dispatch_read_pixels( dev, &depth );
  1194. }
  1195. return -EINVAL;
  1196. }
  1197. int r128_cce_stipple( struct inode *inode, struct file *filp,
  1198.       unsigned int cmd, unsigned long arg )
  1199. {
  1200. drm_file_t *priv = filp->private_data;
  1201. drm_device_t *dev = priv->dev;
  1202. drm_r128_private_t *dev_priv = dev->dev_private;
  1203. drm_r128_stipple_t stipple;
  1204. u32 mask[32];
  1205. LOCK_TEST_WITH_RETURN( dev );
  1206. if ( copy_from_user( &stipple, (drm_r128_stipple_t *)arg,
  1207.      sizeof(stipple) ) )
  1208. return -EFAULT;
  1209. if ( copy_from_user( &mask, stipple.mask,
  1210.      32 * sizeof(u32) ) )
  1211. return -EFAULT;
  1212. RING_SPACE_TEST_WITH_RETURN( dev_priv );
  1213. r128_cce_dispatch_stipple( dev, mask );
  1214. return 0;
  1215. }
  1216. int r128_cce_indirect( struct inode *inode, struct file *filp,
  1217.        unsigned int cmd, unsigned long arg )
  1218. {
  1219. drm_file_t *priv = filp->private_data;
  1220. drm_device_t *dev = priv->dev;
  1221. LOCK_TEST_WITH_RETURN( dev );
  1222. /* Indirect buffer firing is not supported at this time.
  1223.  */
  1224. return -EINVAL;
  1225. }