text_fdct_mmx.c
上传用户:enenge
上传日期:2007-01-08
资源大小:96k
文件大小:32k
源码类别:

流媒体/Mpeg4/MP4

开发平台:

Visual C++

  1. //////////////////////////////////////////////////////////////////////////////
  2. //
  3. //  fdctmm32.c - AP922 MMX fDCT
  4. //  ----------
  5. //  Intel Application Note AP-922 - fast, precise implementation of DCT
  6. //        http://developer.intel.com/vtune/cbts/appnotes.htm
  7. //  ----------
  8. //  
  9. //       This code will run on any MMX CPU.  The dct_row operation can be
  10. //  further optimized using PentiumIII/Athlon instructions (pshufw.)  
  11. //  If the code will be run on a 3D-Now CPU (AMD K6-2/Athlon), a slight
  12. //  accruacy-boost can be obtained.  Please see fdctam32.c for details.
  13. //  
  14. //    For a fast, precise MMX implementation of inverse-DCT 
  15. //              visit http://www.elecard.com/peter
  16. //              or check out Avery Lee's Virtualdub source-code
  17. //                 http://www.concentric.net/~psilon  
  18. //
  19. //  Revision history
  20. //  ----------------
  21. //
  22. //  v1.01 08/26/2000 (clipper bugfix)
  23. //         In my haste to get this code out the door, I neglected to consider
  24. //       the numerical range of output.  I *believe* an IEEE-1180/1990 fdct 
  25. //       is range-limited to {-2048, +2047}.
  26. //       fdctmm32.c now saturates the output DCT coefficients to this range.
  27. //         A few comment typos were corrected. Equivalent-C code for
  28. //       the forward_dct column stage has also been added.  The pseudo-C
  29. //       code in Intel's AP-922 omits several important operations that 
  30. //       would cause dct8_frw_col() to fail, if it were used directly without 
  31. //       modification.
  32. //         There is still room for additional optimization in the 
  33. //       frw_dct_row_mmx() function.  The data pack/unpack operation could be
  34. //       shortened with pshufw.
  35. //
  36. //  v1.0 07/20/2000 (initial release)
  37. //       Initial release of AP922 MMX forward_DCT.
  38. //       
  39. //     
  40. //  liaor@iname.com  http://members.tripod.com/~liaor  
  41. //////////////////////////////////////////////////////////////////////////////
  42. #define INP eax // pointer to (short *blk)
  43. #define OUT ecx // pointer to output (temporary store space qwTemp[])
  44. #define TABLE ebx // pointer to tab_frw_01234567[]
  45. #define TABLEF ebx  // pointer to tg_all_16
  46. #define round_frw_row edx
  47. //#define round_frw_col edx
  48. #define x0 INP + 0*16
  49. #define x1 INP + 1*16
  50. #define x2 INP + 2*16
  51. #define x3 INP + 3*16
  52. #define x4 INP + 4*16
  53. #define x5 INP + 5*16
  54. #define x6 INP + 6*16
  55. #define x7 INP + 7*16
  56. #define y0 OUT + 0*16
  57. #define y1 OUT + 1*16
  58. #define y2 OUT + 2*16
  59. #define y3 OUT + 3*16
  60. #define y4 OUT + 4*16
  61. #define y5 OUT + 5*16
  62. #define y6 OUT + 6*16
  63. #define y7 OUT + 7*16
  64. //////////////////////////////////////////////////////////////////////
  65. //
  66. // constants for the forward DCT
  67. // -----------------------------
  68. //
  69. // Be sure to check that your compiler is aligning all constants to QWORD
  70. // (8-byte) memory boundaries!  Otherwise the unaligned memory access will
  71. // severely stall MMX execution.
  72. //
  73. //////////////////////////////////////////////////////////////////////
  74. #define BITS_FRW_ACC 3 //; 2 or 3 for accuracy
  75. #define SHIFT_FRW_COL BITS_FRW_ACC
  76. #define SHIFT_FRW_ROW (BITS_FRW_ACC + 17)
  77. // v1.01 The original SHIFT_FRW_ROW constant has been replaced by a
  78. //      "two stage" shift operation.  The 1st-shift (CLIP1) aligns the
  79. //      intermediate 32-bit integer data to a {-32768, +32768} (16-bit word) 
  80. //      range.  The MMX instruction "packssdw" simultaneous clips and packs
  81. //      the intermediate-data into 16-bit format.
  82. //      The 2nd-shift (CLIP2) restores the proper final range {-2048,+2047}
  83. #define SHIFT_FRW_ROW_CLIP2 (4)  // 4-bit shift -> { 32768 <> 2048 }
  84. #define SHIFT_FRW_ROW_CLIP1 ( SHIFT_FRW_ROW - SHIFT_FRW_ROW_CLIP2 )
  85. //#define RND_FRW_ROW (262144 * (BITS_FRW_ACC - 1)) //; 1 << (SHIFT_FRW_ROW-1)
  86. #define RND_FRW_ROW (1 << (SHIFT_FRW_ROW-1))
  87. //#define RND_FRW_COL (2 * (BITS_FRW_ACC - 1)) //; 1 << (SHIFT_FRW_COL-1)
  88. #define RND_FRW_COL (1 << (SHIFT_FRW_COL-1))
  89. const static __int64 one_corr = 0x0001000100010001;
  90. const static long r_frw_row[2] = {RND_FRW_ROW, RND_FRW_ROW };
  91. //const static short tg_1_16[4] = {13036, 13036, 13036, 13036 }; //tg * (2<<16) + 0.5
  92. //const static short tg_2_16[4] = {27146, 27146, 27146, 27146 }; //tg * (2<<16) + 0.5
  93. //const static short tg_3_16[4] = {-21746, -21746, -21746, -21746 }; //tg * (2<<16) + 0.5
  94. //const static short cos_4_16[4] = {-19195, -19195, -19195, -19195 }; //cos * (2<<16) + 0.5
  95. //const static short ocos_4_16[4] = {23170, 23170, 23170, 23170 }; //cos * (2<<15) + 0.5
  96. //concatenated table, for forward DCT-column transformation
  97. const static short tg_all_16[] = {
  98. 13036, 13036, 13036, 13036, // tg * (2<<16) + 0.5
  99. 27146, 27146, 27146, 27146, // tg * (2<<16) + 0.5
  100. -21746, -21746, -21746, -21746, // tg * (2<<16) + 0.5
  101. -19195, -19195, -19195, -19195, //cos * (2<<16) + 0.5
  102. 23170, 23170, 23170, 23170 }; //cos * (2<<15) + 0.5
  103. #define tg_1_16 (TABLEF + 0)
  104. #define tg_2_16 (TABLEF + 8)
  105. #define tg_3_16 (TABLEF + 16)
  106. #define cos_4_16 (TABLEF + 24)
  107. #define ocos_4_16 (TABLEF + 32)
  108. // CONCATENATED IDCT COEFF TABLE, rows 0,1,2,3,4,5,6,7 (in order )
  109. //
  110.     /*
  111. static const short tab_inv_01234567[] = { // inverse_dct coeff table
  112. //row0, this row is required
  113. 16384, 16384, 16384, -16384, // ; movq-> w06 w04 w02 w00
  114. 21407, 8867, 8867, -21407, // w07 w05 w03 w01
  115. 16384, -16384, 16384, 16384, //; w14 w12 w10 w08
  116. -8867, 21407, -21407, -8867, //; w15 w13 w11 w09
  117. 22725, 12873, 19266, -22725, //; w22 w20 w18 w16
  118. 19266, 4520, -4520, -12873, //; w23 w21 w19 w17
  119. 12873, 4520, 4520, 19266, //; w30 w28 w26 w24
  120. -22725, 19266, -12873, -22725,  //w31 w29 w27 w25
  121. //row1
  122. 22725, 22725, 22725, -22725, // ; movq-> w06 w04 w02 w00
  123. 29692, 12299, 12299, -29692, // ; w07 w05 w03 w01
  124. 22725, -22725, 22725, 22725, //; w14 w12 w10 w08
  125. -12299, 29692, -29692, -12299, //; w15 w13 w11 w09
  126. 31521, 17855, 26722, -31521, //; w22 w20 w18 w16
  127. 26722, 6270, -6270, -17855, //; w23 w21 w19 w17
  128. 17855, 6270, 6270, 26722, //; w30 w28 w26 w24
  129. -31521, 26722, -17855, -31521, // w31 w29 w27 w25
  130. //row2
  131. 21407, 21407, 21407, -21407, // ; movq-> w06 w04 w02 w00
  132. 27969, 11585, 11585, -27969, // ; w07 w05 w03 w01
  133. 21407, -21407, 21407, 21407, // ; w14 w12 w10 w08
  134. -11585, 27969, -27969, -11585, //  ;w15 w13 w11 w09
  135. 29692, 16819, 25172, -29692,  // ;w22 w20 w18 w16
  136. 25172, 5906, -5906, -16819,  // ;w23 w21 w19 w17
  137. 16819, 5906, 5906, 25172,  // ;w30 w28 w26 w24
  138. -29692, 25172, -16819, -29692, //  ;w31 w29 w27 w25
  139. //row3
  140. 19266, 19266, 19266, -19266, //; movq-> w06 w04 w02 w00
  141. 25172, 10426, 10426, -25172, //; w07 w05 w03 w01
  142. 19266, -19266, 19266, 19266, //; w14 w12 w10 w08
  143. -10426, 25172, -25172, -10426, //; w15 w13 w11 w09
  144. 26722, 15137, 22654, -26722, //; w22 w20 w18 w16
  145. 22654, 5315, -5315, -15137, //; w23 w21 w19 w17
  146. 15137, 5315, 5315, 22654, //; w30 w28 w26 w24
  147. -26722, 22654, -15137, -26722, //; w31 w29 w27 w25
  148. //row4
  149. 16384, 16384, 16384, -16384, // ; movq-> w06 w04 w02 w00
  150. 21407, 8867, 8867, -21407, // w07 w05 w03 w01
  151. 16384, -16384, 16384, 16384, //; w14 w12 w10 w08
  152. -8867, 21407, -21407, -8867, //; w15 w13 w11 w09
  153. 22725, 12873, 19266, -22725, //; w22 w20 w18 w16
  154. 19266, 4520, -4520, -12873, //; w23 w21 w19 w17
  155. 12873, 4520, 4520, 19266, //; w30 w28 w26 w24
  156. -22725, 19266, -12873, -22725,  //w31 w29 w27 w25
  157. //row5
  158. 19266, 19266, 19266, -19266, //; movq-> w06 w04 w02 w00
  159. 25172, 10426, 10426, -25172, //; w07 w05 w03 w01
  160. 19266, -19266, 19266, 19266, //; w14 w12 w10 w08
  161. -10426, 25172, -25172, -10426, //; w15 w13 w11 w09
  162. 26722, 15137, 22654, -26722, //; w22 w20 w18 w16
  163. 22654, 5315, -5315, -15137, //; w23 w21 w19 w17
  164. 15137, 5315, 5315, 22654, //; w30 w28 w26 w24
  165. -26722, 22654, -15137, -26722, //; w31 w29 w27 w25
  166. //row6
  167. 21407, 21407, 21407, -21407, // ; movq-> w06 w04 w02 w00
  168. 27969, 11585, 11585, -27969, // ; w07 w05 w03 w01
  169. 21407, -21407, 21407, 21407, // ; w14 w12 w10 w08
  170. -11585, 27969, -27969, -11585, //  ;w15 w13 w11 w09
  171. 29692, 16819, 25172, -29692,  // ;w22 w20 w18 w16
  172. 25172, 5906, -5906, -16819,  // ;w23 w21 w19 w17
  173. 16819, 5906, 5906, 25172,  // ;w30 w28 w26 w24
  174. -29692, 25172, -16819, -29692, //  ;w31 w29 w27 w25
  175. //row7
  176. 22725, 22725, 22725, -22725, // ; movq-> w06 w04 w02 w00
  177. 29692, 12299, 12299, -29692, // ; w07 w05 w03 w01
  178. 22725, -22725, 22725, 22725, //; w14 w12 w10 w08
  179. -12299, 29692, -29692, -12299, //; w15 w13 w11 w09
  180. 31521, 17855, 26722, -31521, //; w22 w20 w18 w16
  181. 26722, 6270, -6270, -17855, //; w23 w21 w19 w17
  182. 17855, 6270, 6270, 26722, //; w30 w28 w26 w24
  183. -31521, 26722, -17855, -31521}; // w31 w29 w27 w25
  184. */
  185. static const short tab_frw_01234567[] = {  // forward_dct coeff table
  186.     //row0
  187.     16384, 16384, 21407, -8867,     //    w09 w01 w08 w00
  188.     16384, 16384, 8867, -21407,     //    w13 w05 w12 w04
  189.     16384, -16384, 8867, 21407,     //    w11 w03 w10 w02
  190.     -16384, 16384, -21407, -8867,   //    w15 w07 w14 w06
  191.     22725, 12873, 19266, -22725,    //    w22 w20 w18 w16
  192.     19266, 4520, -4520, -12873,     //    w23 w21 w19 w17
  193.     12873, 4520, 4520, 19266,       //    w30 w28 w26 w24
  194.     -22725, 19266, -12873, -22725,  //    w31 w29 w27 w25
  195.     //row1
  196.     22725, 22725, 29692, -12299,    //    w09 w01 w08 w00
  197.     22725, 22725, 12299, -29692,    //    w13 w05 w12 w04
  198.     22725, -22725, 12299, 29692,    //    w11 w03 w10 w02
  199.     -22725, 22725, -29692, -12299,  //    w15 w07 w14 w06
  200.     31521, 17855, 26722, -31521,    //    w22 w20 w18 w16
  201.     26722, 6270, -6270, -17855,     //    w23 w21 w19 w17
  202.     17855, 6270, 6270, 26722,       //    w30 w28 w26 w24
  203.     -31521, 26722, -17855, -31521,  //    w31 w29 w27 w25
  204.     //row2
  205.     21407, 21407, 27969, -11585,    //    w09 w01 w08 w00
  206.     21407, 21407, 11585, -27969,    //    w13 w05 w12 w04
  207.     21407, -21407, 11585, 27969,    //    w11 w03 w10 w02
  208.     -21407, 21407, -27969, -11585,  //    w15 w07 w14 w06
  209.     29692, 16819, 25172, -29692,    //    w22 w20 w18 w16
  210.     25172, 5906, -5906, -16819,     //    w23 w21 w19 w17
  211.     16819, 5906, 5906, 25172,       //    w30 w28 w26 w24
  212.     -29692, 25172, -16819, -29692,  //    w31 w29 w27 w25
  213.     //row3
  214.     19266, 19266, 25172, -10426,    //    w09 w01 w08 w00
  215.     19266, 19266, 10426, -25172,    //    w13 w05 w12 w04
  216.     19266, -19266, 10426, 25172,    //    w11 w03 w10 w02
  217.     -19266, 19266, -25172, -10426,  //    w15 w07 w14 w06, 
  218.     26722, 15137, 22654, -26722,    //    w22 w20 w18 w16
  219.     22654, 5315, -5315, -15137,     //    w23 w21 w19 w17
  220.     15137, 5315, 5315, 22654,       //    w30 w28 w26 w24
  221.     -26722, 22654, -15137, -26722,  //    w31 w29 w27 w25, 
  222.     //row4
  223.     16384, 16384, 21407, -8867,     //    w09 w01 w08 w00
  224.     16384, 16384, 8867, -21407,     //    w13 w05 w12 w04
  225.     16384, -16384, 8867, 21407,     //    w11 w03 w10 w02
  226.     -16384, 16384, -21407, -8867,   //    w15 w07 w14 w06
  227.     22725, 12873, 19266, -22725,    //    w22 w20 w18 w16
  228.     19266, 4520, -4520, -12873,     //    w23 w21 w19 w17
  229.     12873, 4520, 4520, 19266,       //    w30 w28 w26 w24
  230.     -22725, 19266, -12873, -22725,  //    w31 w29 w27 w25 
  231.     //row5
  232.     19266, 19266, 25172, -10426,    //    w09 w01 w08 w00
  233.     19266, 19266, 10426, -25172,    //    w13 w05 w12 w04
  234.     19266, -19266, 10426, 25172,    //    w11 w03 w10 w02
  235.     -19266, 19266, -25172, -10426,  //    w15 w07 w14 w06
  236.     26722, 15137, 22654, -26722,    //    w22 w20 w18 w16
  237.     22654, 5315, -5315, -15137,     //    w23 w21 w19 w17
  238.     15137, 5315, 5315, 22654,       //    w30 w28 w26 w24
  239.     -26722, 22654, -15137, -26722,  //    w31 w29 w27 w25
  240.     //row6
  241.     21407, 21407, 27969, -11585,    //    w09 w01 w08 w00
  242.     21407, 21407, 11585, -27969,    //    w13 w05 w12 w04
  243.     21407, -21407, 11585, 27969,    //    w11 w03 w10 w02
  244.     -21407, 21407, -27969, -11585,  //    w15 w07 w14 w06, 
  245.     29692, 16819, 25172, -29692,    //    w22 w20 w18 w16
  246.     25172, 5906, -5906, -16819,     //    w23 w21 w19 w17
  247.     16819, 5906, 5906, 25172,       //    w30 w28 w26 w24
  248.     -29692, 25172, -16819, -29692,  //    w31 w29 w27 w25, 
  249.     //row7
  250.     22725, 22725, 29692, -12299,    //    w09 w01 w08 w00
  251.     22725, 22725, 12299, -29692,    //    w13 w05 w12 w04
  252.     22725, -22725, 12299, 29692,    //    w11 w03 w10 w02
  253.     -22725, 22725, -29692, -12299,  //    w15 w07 w14 w06, 
  254.     31521, 17855, 26722, -31521,    //    w22 w20 w18 w16
  255.     26722, 6270, -6270, -17855,     //    w23 w21 w19 w17
  256.     17855, 6270, 6270, 26722,       //    w30 w28 w26 w24
  257.     -31521, 26722, -17855, -31521   //    w31 w29 w27 w25
  258. };
  259. void
  260. fdct_mm32( short *blk )
  261. {
  262.     static __int64 xt70[2]; // xt7xt6xt5xt4, xt3xt2xt1xt0
  263.     static int a0, a1, a2, a3, b0, b1, b2, b3;
  264.     static short *sptr, *optr, *tf; // tf = table_ptr
  265.     static short *xt = (short *) &xt70[0];
  266.     static int j;
  267.     
  268.     const static short _tg_1_16   = 13036;  //tg * (2<<16) + 0.5
  269.     const static short _tg_2_16   = 27146;  //tg * (2<<16) + 0.5
  270.     const static short _tg_3_16   =-21746;  //tg * (2<<16) + 0.5
  271.     const static short _cos_4_16  =-19195;  //cos * (2<<16) + 0.5
  272.     const static short _ocos_4_16 = 23170;  //cos * (2<<15) + 0.5
  273.     const static short _one_corr  =     1;  //rounding compensation
  274.     static short t0, t1, t2, t3, t4, t5, t6, t7;
  275.     static short tp03, tm03, tp12, tm12, tp65, tm65;
  276.     static short tp465, tm465, tp765, tm765;
  277.     __asm {
  278.     ////////////////////////////////////////////////////////////////////////
  279.     //
  280.     // The high-level pseudocode for the fdct_mm32() routine :
  281.     //
  282.     // fdct_mm32()
  283.     // {
  284.     //    forward_dct_col03(); // dct_column transform on cols 0-3
  285.     //    forward_dct_col47(); // dct_column transform on cols 4-7
  286.     //    for ( j = 0; j < 8; j=j+1 )
  287.     //      forward_dct_row1(j); // dct_row transform on row #j
  288.     // }
  289. mov INP, dword ptr [blk]; ;// input data is row 0 of blk[]
  290.     ;// transform the left half of the matrix (4 columns)
  291.     lea TABLEF, dword ptr [tg_all_16];
  292.     mov OUT, INP;
  293. // lea round_frw_col, dword ptr [r_frw_col]
  294.     // for ( i = 0; i < 2; i = i + 1)
  295.     // the for-loop is executed twice.  We are better off unrolling the 
  296.     // loop to avoid branch misprediction.
  297. mmx32_fdct_col03: // begin processing columns 0-3
  298.     movq mm0, [x1] ; 0 ; x1
  299.      ;//
  300.     movq mm1, [x6] ; 1 ; x6
  301.      movq mm2, mm0 ; 2 ; x1
  302.     movq mm3, [x2] ; 3 ; x2
  303.      paddsw mm0, mm1 ; t1 = x[1] + x[6]
  304.     movq mm4, [x5] ; 4 ; x5
  305.      psllw mm0, SHIFT_FRW_COL ; t1
  306.     movq mm5, [x0] ; 5 ; x0
  307.      paddsw mm4, mm3 ; t2 = x[2] + x[5]
  308.     paddsw mm5, [x7] ; t0 = x[0] + x[7]
  309.      psllw mm4, SHIFT_FRW_COL ; t2
  310.     movq mm6, mm0 ; 6 ; t1
  311.      psubsw mm2, mm1 ; 1 ; t6 = x[1] - x[6]
  312.     movq mm1, qword ptr [tg_2_16] ; 1 ; tg_2_16
  313.      psubsw mm0, mm4 ; tm12 = t1 - t2
  314.     movq mm7, [x3] ; 7 ; x3
  315.      pmulhw mm1, mm0 ; tm12*tg_2_16
  316.     paddsw mm7, [x4] ; t3 = x[3] + x[4]
  317.      psllw mm5, SHIFT_FRW_COL ; t0
  318.     paddsw mm6, mm4 ; 4 ; tp12 = t1 + t2
  319.      psllw mm7, SHIFT_FRW_COL ; t3
  320.     movq mm4, mm5 ; 4 ; t0
  321.      psubsw mm5, mm7 ; tm03 = t0 - t3
  322.     paddsw mm1, mm5 ; y2 = tm03 + tm12*tg_2_16
  323.      paddsw mm4, mm7 ; 7 ; tp03 = t0 + t3
  324.     por mm1, qword ptr one_corr ; correction y2 +0.5
  325.      psllw mm2, SHIFT_FRW_COL+1 ; t6
  326.     pmulhw mm5, qword ptr [tg_2_16] ; tm03*tg_2_16
  327.      movq mm7, mm4 ; 7 ; tp03
  328.     psubsw mm3, [x5] ; t5 = x[2] - x[5]
  329.      psubsw mm4, mm6 ; y4 = tp03 - tp12
  330.     movq [y2], mm1 ; 1 ; save y2
  331.      paddsw mm7, mm6 ; 6 ; y0 = tp03 + tp12
  332.      
  333.     movq mm1, [x3] ; 1 ; x3
  334.      psllw mm3, SHIFT_FRW_COL+1 ; t5
  335.     psubsw mm1, [x4] ; t4 = x[3] - x[4]
  336.      movq mm6, mm2 ; 6 ; t6
  337.     
  338.     movq [y4], mm4 ; 4 ; save y4
  339.      paddsw mm2, mm3 ; t6 + t5
  340.     pmulhw mm2, qword ptr [ocos_4_16] ; tp65 = (t6 + t5)*cos_4_16
  341.      psubsw mm6, mm3 ; 3 ; t6 - t5
  342.     pmulhw mm6, qword ptr [ocos_4_16] ; tm65 = (t6 - t5)*cos_4_16
  343.      psubsw mm5, mm0 ; 0 ; y6 = tm03*tg_2_16 - tm12
  344.     por mm5, qword ptr one_corr ; correction y6 +0.5
  345.      psllw mm1, SHIFT_FRW_COL ; t4
  346.     por mm2, qword ptr one_corr ; correction tp65 +0.5
  347.      movq mm4, mm1 ; 4 ; t4
  348.     movq mm3, [x0] ; 3 ; x0
  349.      paddsw mm1, mm6 ; tp465 = t4 + tm65
  350.     psubsw mm3, [x7] ; t7 = x[0] - x[7]
  351.      psubsw mm4, mm6 ; 6 ; tm465 = t4 - tm65
  352.     movq mm0, qword ptr [tg_1_16] ; 0 ; tg_1_16
  353.      psllw mm3, SHIFT_FRW_COL ; t7
  354.     movq mm6, qword ptr [tg_3_16] ; 6 ; tg_3_16
  355.      pmulhw mm0, mm1 ; tp465*tg_1_16
  356.     movq [y0], mm7 ; 7 ; save y0
  357.      pmulhw mm6, mm4 ; tm465*tg_3_16
  358.     movq [y6], mm5 ; 5 ; save y6
  359.      movq mm7, mm3 ; 7 ; t7
  360.     movq mm5, qword ptr [tg_3_16] ; 5 ; tg_3_16
  361.      psubsw mm7, mm2 ; tm765 = t7 - tp65
  362.     paddsw mm3, mm2 ; 2 ; tp765 = t7 + tp65
  363.      pmulhw mm5, mm7 ; tm765*tg_3_16
  364.     paddsw mm0, mm3 ; y1 = tp765 + tp465*tg_1_16
  365.      paddsw mm6, mm4 ; tm465*tg_3_16
  366.     pmulhw mm3, qword ptr [tg_1_16] ; tp765*tg_1_16
  367.      ;//
  368.     por mm0, qword ptr one_corr ; correction y1 +0.5
  369.      paddsw mm5, mm7 ; tm765*tg_3_16
  370.     psubsw mm7, mm6 ; 6 ; y3 = tm765 - tm465*tg_3_16
  371.      add INP, 0x08   ; // increment pointer
  372.     movq [y1], mm0 ; 0 ; save y1
  373.      paddsw mm5, mm4 ; 4 ; y5 = tm765*tg_3_16 + tm465
  374.     movq [y3], mm7 ; 7 ; save y3
  375.      psubsw mm3, mm1 ; 1 ; y7 = tp765*tg_1_16 - tp465
  376.     movq [y5], mm5 ; 5 ; save y5
  377.   mmx32_fdct_col47: // begin processing columns 4-7
  378.     movq mm0, [x1] ; 0 ; x1
  379.      ;//
  380.     movq [y7], mm3 ; 3 ; save y7 (columns 0-4)
  381.      ;//
  382.     movq mm1, [x6] ; 1 ; x6
  383.      movq mm2, mm0 ; 2 ; x1
  384.     movq mm3, [x2] ; 3 ; x2
  385.      paddsw mm0, mm1 ; t1 = x[1] + x[6]
  386.     movq mm4, [x5] ; 4 ; x5
  387.      psllw mm0, SHIFT_FRW_COL ; t1
  388.     movq mm5, [x0] ; 5 ; x0
  389.      paddsw mm4, mm3 ; t2 = x[2] + x[5]
  390.     paddsw mm5, [x7] ; t0 = x[0] + x[7]
  391.      psllw mm4, SHIFT_FRW_COL ; t2
  392.     movq mm6, mm0 ; 6 ; t1
  393.      psubsw mm2, mm1 ; 1 ; t6 = x[1] - x[6]
  394.     movq mm1, qword ptr [tg_2_16] ; 1 ; tg_2_16
  395.      psubsw mm0, mm4 ; tm12 = t1 - t2
  396.     movq mm7, [x3] ; 7 ; x3
  397.      pmulhw mm1, mm0 ; tm12*tg_2_16
  398.     paddsw mm7, [x4] ; t3 = x[3] + x[4]
  399.      psllw mm5, SHIFT_FRW_COL ; t0
  400.     paddsw mm6, mm4 ; 4 ; tp12 = t1 + t2
  401.      psllw mm7, SHIFT_FRW_COL ; t3
  402.     movq mm4, mm5 ; 4 ; t0
  403.      psubsw mm5, mm7 ; tm03 = t0 - t3
  404.     paddsw mm1, mm5 ; y2 = tm03 + tm12*tg_2_16
  405.      paddsw mm4, mm7 ; 7 ; tp03 = t0 + t3
  406.     por mm1, qword ptr one_corr ; correction y2 +0.5
  407.      psllw mm2, SHIFT_FRW_COL+1 ; t6
  408.     pmulhw mm5, qword ptr [tg_2_16] ; tm03*tg_2_16
  409.      movq mm7, mm4 ; 7 ; tp03
  410.     psubsw mm3, [x5] ; t5 = x[2] - x[5]
  411.      psubsw mm4, mm6 ; y4 = tp03 - tp12
  412.     movq [y2+8], mm1 ; 1 ; save y2
  413.      paddsw mm7, mm6 ; 6 ; y0 = tp03 + tp12
  414.      
  415.     movq mm1, [x3] ; 1 ; x3
  416.      psllw mm3, SHIFT_FRW_COL+1 ; t5
  417.     psubsw mm1, [x4] ; t4 = x[3] - x[4]
  418.      movq mm6, mm2 ; 6 ; t6
  419.     
  420.     movq [y4+8], mm4 ; 4 ; save y4
  421.      paddsw mm2, mm3 ; t6 + t5
  422.     pmulhw mm2, qword ptr [ocos_4_16] ; tp65 = (t6 + t5)*cos_4_16
  423.      psubsw mm6, mm3 ; 3 ; t6 - t5
  424.     pmulhw mm6, qword ptr [ocos_4_16] ; tm65 = (t6 - t5)*cos_4_16
  425.      psubsw mm5, mm0 ; 0 ; y6 = tm03*tg_2_16 - tm12
  426.     por mm5, qword ptr one_corr ; correction y6 +0.5
  427.      psllw mm1, SHIFT_FRW_COL ; t4
  428.     por mm2, qword ptr one_corr ; correction tp65 +0.5
  429.      movq mm4, mm1 ; 4 ; t4
  430.     movq mm3, [x0] ; 3 ; x0
  431.      paddsw mm1, mm6 ; tp465 = t4 + tm65
  432.     psubsw mm3, [x7] ; t7 = x[0] - x[7]
  433.      psubsw mm4, mm6 ; 6 ; tm465 = t4 - tm65
  434.     movq mm0, qword ptr [tg_1_16] ; 0 ; tg_1_16
  435.      psllw mm3, SHIFT_FRW_COL ; t7
  436.     movq mm6, qword ptr [tg_3_16] ; 6 ; tg_3_16
  437.      pmulhw mm0, mm1 ; tp465*tg_1_16
  438.     movq [y0+8], mm7 ; 7 ; save y0
  439.      pmulhw mm6, mm4 ; tm465*tg_3_16
  440.     movq [y6+8], mm5 ; 5 ; save y6
  441.      movq mm7, mm3 ; 7 ; t7
  442.     movq mm5, qword ptr [tg_3_16] ; 5 ; tg_3_16
  443.      psubsw mm7, mm2 ; tm765 = t7 - tp65
  444.     paddsw mm3, mm2 ; 2 ; tp765 = t7 + tp65
  445.      pmulhw mm5, mm7 ; tm765*tg_3_16
  446.     paddsw mm0, mm3 ; y1 = tp765 + tp465*tg_1_16
  447.      paddsw mm6, mm4 ; tm465*tg_3_16
  448.     pmulhw mm3, qword ptr [tg_1_16] ; tp765*tg_1_16
  449.      ;//
  450.     por mm0, qword ptr one_corr ; correction y1 +0.5
  451.      paddsw mm5, mm7 ; tm765*tg_3_16
  452.     psubsw mm7, mm6 ; 6 ; y3 = tm765 - tm465*tg_3_16
  453.      ;//
  454.     movq [y1+8], mm0 ; 0 ; save y1
  455.      paddsw mm5, mm4 ; 4 ; y5 = tm765*tg_3_16 + tm465
  456.     movq [y3+8], mm7 ; 7 ; save y3
  457.      psubsw mm3, mm1 ; 1 ; y7 = tp765*tg_1_16 - tp465
  458.     movq [y5+8], mm5 ; 5 ; save y5
  459.     movq [y7+8], mm3 ; 3 ; save y7
  460.   //   emms;
  461.   //  }   // end of forward_dct_col07() 
  462.     //  done with dct_col transform
  463.   ////////////////////////////////////////////////////////////////////////
  464.   //
  465.   // fdct_mmx32_rows() --
  466.   // the following subroutine performs the row-transform operation,
  467.   //
  468.   //  The output is stored into blk[], destroying the original
  469.   //  source data.
  470.   //  v1.01 - output is range-clipped to {-2048, +2047}
  471. mov INP, dword ptr [blk]; ;// row 0
  472.  mov edi, 0x08; //x = 8
  473. lea TABLE, dword ptr [tab_frw_01234567]; // row 0
  474.  mov OUT, INP;
  475. lea round_frw_row, dword ptr [r_frw_row];
  476. // for ( x = 8; x > 0; --x )  // transform 1 row per iteration
  477. // ---------- loop begin
  478.   lp_mmx_fdct_row1:
  479.     movd mm5, dword ptr [INP+12]; // mm5 = 7 6
  480.     punpcklwd mm5, dword ptr [INP+8] // mm5 =  5 7 4 6
  481.     movq mm2, mm5;     // mm2 = 5 7 4 6
  482.     psrlq mm5, 32;     // mm5 = _ _ 5 7
  483.     movq mm0, qword ptr [INP]; // mm0 = 3 2 1 0
  484.     punpcklwd mm5, mm2;// mm5 = 4 5 6 7
  485.     movq mm1, mm0;     // mm1 = 3 2 1 0
  486.     paddsw mm0, mm5;   // mm0 = [3+4, 2+5, 1+6, 0+7] (xt3, xt2, xt1, xt0)
  487.     psubsw mm1, mm5;   // mm1 = [3-4, 2-5, 1-6, 0-7] (xt7, xt6, xt5, xt4)
  488.     movq mm2, mm0;     // mm2 = [ xt3 xt2 xt1 xt0 ]
  489.     //movq [ xt3xt2xt1xt0 ], mm0; // debugging
  490.     //movq [ xt7xt6xt5xt4 ], mm1; // debugging
  491.     punpcklwd mm0, mm1;// mm0 = [ xt5 xt1 xt4 xt0 ]
  492.     punpckhwd mm2, mm1;// mm2 = [ xt7 xt3 xt6 xt2 ]
  493.     movq mm1, mm2;     // mm1
  494.     ;// shuffle bytes around
  495. //  movq mm0, qword ptr [INP] ; 0 ; x3 x2 x1 x0
  496. //  movq mm1, qword ptr [INP+8] ; 1 ; x7 x6 x5 x4
  497.     movq mm2, mm0 ; 2 ; x3 x2 x1 x0
  498.     movq mm3, qword ptr [TABLE] ; 3 ; w06 w04 w02 w00
  499.     punpcklwd mm0, mm1 ; x5 x1 x4 x0
  500.     movq mm5, mm0 ; 5 ; x5 x1 x4 x0
  501.     punpckldq mm0, mm0 ; x4 x0 x4 x0  [ xt2 xt0 xt2 xt0 ]
  502.     movq mm4, qword ptr [TABLE+8] ; 4 ; w07 w05 w03 w01
  503.     punpckhwd mm2, mm1 ; 1 ; x7 x3 x6 x2
  504.     pmaddwd mm3, mm0 ; x4*w06+x0*w04 x4*w02+x0*w00
  505.     movq mm6, mm2 ; 6 ; x7 x3 x6 x2
  506.     movq mm1, qword ptr [TABLE+32] ; 1 ; w22 w20 w18 w16
  507.     punpckldq mm2, mm2 ; x6 x2 x6 x2  [ xt3 xt1 xt3 xt1 ]
  508.     pmaddwd mm4, mm2 ; x6*w07+x2*w05 x6*w03+x2*w01
  509.     punpckhdq mm5, mm5 ; x5 x1 x5 x1  [ xt6 xt4 xt6 xt4 ]
  510.     pmaddwd mm0, qword ptr [TABLE+16] ; x4*w14+x0*w12 x4*w10+x0*w08
  511.     punpckhdq mm6, mm6 ; x7 x3 x7 x3  [ xt7 xt5 xt7 xt5 ]
  512.     movq mm7, qword ptr [TABLE+40] ; 7 ; w23 w21 w19 w17
  513.     pmaddwd mm1, mm5 ; x5*w22+x1*w20 x5*w18+x1*w16
  514. //mm3 = a1, a0 (y2,y0)
  515. //mm1 = b1, b0 (y3,y1)
  516. //mm0 = a3,a2  (y6,y4)
  517. //mm5 = b3,b2  (y7,y5)
  518.     paddd mm3, qword ptr [round_frw_row] ; +rounder (y2,y0)
  519.     pmaddwd mm7, mm6 ; x7*w23+x3*w21 x7*w19+x3*w17
  520.     pmaddwd mm2, qword ptr [TABLE+24] ; x6*w15+x2*w13 x6*w11+x2*w09
  521.     paddd mm3, mm4 ; 4 ; a1=sum(even1) a0=sum(even0) // now ( y2, y0)
  522.     pmaddwd mm5, qword ptr [TABLE+48] ; x5*w30+x1*w28 x5*w26+x1*w24
  523.     ;//
  524.     pmaddwd mm6, qword ptr [TABLE+56] ; x7*w31+x3*w29 x7*w27+x3*w25
  525.     paddd mm1, mm7 ; 7 ; b1=sum(odd1) b0=sum(odd0) // now ( y3, y1)
  526.     paddd mm0, qword ptr [round_frw_row] ; +rounder (y6,y4)
  527.     psrad mm3, SHIFT_FRW_ROW_CLIP1 ;// (y2, y0) 
  528.     paddd mm1, qword ptr [round_frw_row] ; +rounder (y3,y1)
  529.     paddd mm0, mm2 ; 2 ; a3=sum(even3) a2=sum(even2) // now (y6, y4)
  530.     paddd mm5, qword ptr [round_frw_row] ; +rounder (y7,y5)
  531.     psrad mm1, SHIFT_FRW_ROW_CLIP1 ;// y1=a1+b1 y0=a0+b0
  532.     paddd mm5, mm6 ; 6 ; b3=sum(odd3) b2=sum(odd2) // now ( y7, y5)
  533.     psrad mm0, SHIFT_FRW_ROW_CLIP1 ;//y3=a3+b3 y2=a2+b2
  534.     add OUT, 16;  // increment row-output address by 1 row
  535.     psrad mm5, SHIFT_FRW_ROW_CLIP1;// y4=a3-b3 y5=a2-b2
  536.     add INP, 16;  // increment row-address by 1 row
  537.     packssdw mm3, mm0 ;// 0 ; y6 y4 y2 y0, saturate {-32768,+32767}
  538.     packssdw mm1, mm5 ;// 3 ; y7 y5 y3 y1, saturate {-32768,+32767}
  539.     movq mm6, mm3;    // mm0 = y6 y4 y2 y0
  540.     punpcklwd mm3, mm1; // y3 y2 y1 y0
  541.     sub edi, 0x01;   // i = i - 1
  542.     
  543.     punpckhwd mm6, mm1; // y7 y6 y5 y4
  544.     add TABLE,64;  // increment to next table
  545.     psraw mm3, SHIFT_FRW_ROW_CLIP2;  // descale [y3 y2 y1 y0] to {-2048,+2047}
  546.     psraw mm6, SHIFT_FRW_ROW_CLIP2;  // descale [y7 y6 y5 y4] to {-2048,+2047}
  547.     movq qword ptr [OUT-16], mm3 ; 1 ; save y3 y2 y1 y0
  548.     movq qword ptr [OUT-8], mm6 ; 7 ; save y7 y6 y5 y4
  549.     cmp edi, 0x00;
  550.     jg lp_mmx_fdct_row1;  // begin fdct processing on next row
  551.     emms;
  552.     }
  553.     
  554. /*
  555.     ////////////////////////////////////////////////////////////////////////
  556.     //
  557.     // DCT_8_FRW_COL(), equivalent c_code
  558.     //
  559.     // This C-code can be substituted for the same __asm block
  560.     //
  561.     // I found several *DISCREPANCIES* between the AP-922 C-listing 
  562.     // and actual corrected code (shown below).
  563.     //
  564.     ////////////////////////////////////////////////////////////////////////
  565.     sptr = (short *) blk;
  566.     optr = (short *) blk; // output will overwrite source data!
  567.     for ( j = 0; j < 8; j=j+1 ) // dct_frw_col1 loop
  568.     {
  569.       // read source-data column #j into xt[0..7]
  570.       xt[7] = sptr[7*8];
  571.       xt[6] = sptr[6*8];
  572.       xt[5] = sptr[5*8];
  573.       xt[4] = sptr[4*8];
  574.       xt[3] = sptr[3*8];
  575.       xt[2] = sptr[2*8];
  576.       xt[1] = sptr[1*8];
  577.       xt[0] = sptr[0*8];
  578.  
  579. #define  LEFT_SHIFT( x ) ((x) << (SHIFT_FRW_COL) )   // left shift
  580. #define LEFT_SHIFT1( x ) ((x) << (SHIFT_FRW_COL+1) ) // left shift+1
  581.       t0 = LEFT_SHIFT ( xt[0] + xt[7] );
  582.       t1 = LEFT_SHIFT ( xt[1] + xt[6] );
  583.       t2 = LEFT_SHIFT ( xt[2] + xt[5] );
  584.       t3 = LEFT_SHIFT ( xt[3] + xt[4] );
  585.       t4 = LEFT_SHIFT ( xt[3] - xt[4] );
  586.       t5 = LEFT_SHIFT1( xt[2] - xt[5] ); // *** DISCREPANCY
  587.       t6 = LEFT_SHIFT1( xt[1] - xt[6] ); // *** DISCREPANCY
  588.       t7 = LEFT_SHIFT ( xt[0] - xt[7] );
  589.  
  590.       tp03 = t0 + t3;
  591.       tm03 = t0 - t3;
  592.       tp12 = t1 + t2;
  593.       tm12 = t1 - t2;
  594. // pmulhw/pmulhrw emulation macros 
  595. #define X86_PMULHW( X ) ((short) ( ((int)X)>>16 ))   //Intel MMX
  596. //#define X86_PMULHRW( X ) ((short) ( ( (((int)X)>>15)+1) >>1) ) //3DNow-MMX
  597.       optr[0*8] = tp03 + tp12;
  598.       optr[4*8] = tp03 - tp12;
  599.       optr[2*8] = tm03 + X86_PMULHW( tm12 * _tg_2_16 );
  600.       optr[2*8] = optr[2*8] | _one_corr; // one_correction
  601.       optr[6*8] = X86_PMULHW( tm03 * _tg_2_16 ) - tm12;
  602.       optr[6*8] = optr[6*8] | _one_corr; // one_correction
  603.  
  604.       tp65 = X86_PMULHW( (t6 +t5 )*_ocos_4_16 ); // *** DISCREPANCY
  605.       tp65 = tp65 | _one_corr; // one_correction
  606.       tm65 = X86_PMULHW( (t6 -t5 )*_ocos_4_16 ); // *** DISCREPANCY
  607.   
  608.       tp765 = t7 + tp65;
  609.       tm765 = t7 - tp65;
  610.       tp465 = t4 + tm65;
  611.       tm465 = t4 - tm65;
  612.  
  613.       optr[1*8]  = tp765 + X86_PMULHW( tp465 * _tg_1_16 );
  614.       optr[1*8]  = optr[1*8] | _one_corr; // one_correction
  615.       optr[7*8] = X86_PMULHW( tp765 * _tg_1_16 ) - tp465;
  616. //    optr[5*8] = X86_PMULHW( tm765 * _tg_3_16 ) + tm465; // *** DISCREPANCY
  617.       // from pg8 of AP-922,  ICONST = [ const*(2^16) + 0.5 ]
  618.       //                      const * x = PMULHW( ICONST,x ) + x
  619.       // The constant "tg_3_16" > 0.5, thus _tg_3_16 is encoded as tg_3_16-1.0
  620.       // optr[5*8] = X86_PMULHW( tm765 * ( tg_3_16 - 1.0 ) ) + tm465
  621.       //           = [tm765*tg_3_16 - tm765] + tm465
  622.       //
  623.       // optr[5*8] + tm765 = [ tm765*tg_3_16 ] + tm465 + tm765
  624.       //                   = [ tm765*tg_3_16 ] + tm465 <-- what we want
  625.       optr[5*8] = X86_PMULHW( tm765 * _tg_3_16 ) + tm465 + tm765;
  626. //    optr[3*8] = tm765 - X86_PMULHW( tm465 * _tg_3_16 ); // *** DISCREPANCY
  627.       // The following operations must be performed in the shown order!
  628.       // same trick (as shown for optr[5*8]) applies to optr[3*8]
  629.       optr[3*8] = X86_PMULHW( tm465 * _tg_3_16 ) + tm465;
  630.       optr[3*8] = tm765 - optr[3*8];
  631.     ++sptr;   // increment source pointer +1 column
  632.     ++optr;   // increment output pointer +1 column
  633.   } // end for ( j = 0 ..., end of C_equivalent code for forward_dct_col_1
  634.  
  635.     ////////////////////////////////////////////////////////////////////////
  636.     //
  637.     // DCT8_FRW_ROW1(), equivalent c_code
  638.     //
  639.     // This C-code can be substituted for the same __asm block
  640.     // For a derivation of this code, please read fdctmm32.doc
  641.     ////////////////////////////////////////////////////////////////////////
  642.     sptr = (short *) blk;
  643.     optr = (short *) blk; // output will overwrite source data!
  644.     tf = &tab_frw_01234567[ 0 ]; // fdct_row load table_forward_w
  645.     for ( j = 0; j < 8; j=j+1 ) // dct_frw_row1 loop
  646.     {
  647.         // forward_dct_row input arithmetic + shuffle
  648.         xt[3] = sptr[3] + sptr[4];
  649.         xt[2] = sptr[2] + sptr[5];
  650.         xt[1] = sptr[1] + sptr[6];
  651.         xt[0] = sptr[0] + sptr[7];
  652.         xt[7] = sptr[3] - sptr[4];
  653.         xt[6] = sptr[2] - sptr[5];
  654.         xt[5] = sptr[1] - sptr[6];
  655.         xt[4] = sptr[0] - sptr[7];
  656.   
  657.         a3 = ( xt[0]*tf[10]+ xt[2]*tf[11]) + ( xt[1]*tf[14]+ xt[3]*tf[15]);
  658.         a2 = ( xt[0]*tf[8] + xt[2]*tf[9] ) + ( xt[1]*tf[12]+ xt[3]*tf[13]);
  659.         a1 = ( xt[0]*tf[2] + xt[2]*tf[3] ) + ( xt[1]*tf[6] + xt[3]*tf[7] );
  660.         a0 = ( xt[0]*tf[0] + xt[2]*tf[1] ) + ( xt[1]*tf[4] + xt[3]*tf[5] );
  661.         tf += 16;  // increment table pointer
  662.         b3 = ( xt[4]*tf[10]+ xt[6]*tf[11]) + ( xt[5]*tf[14]+ xt[7]*tf[15]);
  663.         b2 = ( xt[4]*tf[8] + xt[6]*tf[9] ) + ( xt[5]*tf[12]+ xt[7]*tf[13]);
  664.         b1 = ( xt[4]*tf[2] + xt[6]*tf[3] ) + ( xt[5]*tf[6] + xt[7]*tf[7] );
  665.         b0 = ( xt[4]*tf[0] + xt[6]*tf[1] ) + ( xt[5]*tf[4] + xt[7]*tf[5] );
  666.         tf += 16;  // increment table pointer
  667.         // apply rounding constants to scaled elements
  668.         // note, in the MMX implementation, the shift&round is done *last.*
  669.         // Here, the C-code applies the shifts 1st, then the clipping.
  670. #define SHIFT_AND_ROUND_FRW_ROW( x )  ( ((x)+RND_FRW_ROW) >> SHIFT_FRW_ROW )
  671.         a3 = SHIFT_AND_ROUND_FRW_ROW( a3 );
  672.         a2 = SHIFT_AND_ROUND_FRW_ROW( a2 );
  673.         a1 = SHIFT_AND_ROUND_FRW_ROW( a1 );
  674.         a0 = SHIFT_AND_ROUND_FRW_ROW( a0 );
  675.         b3 = SHIFT_AND_ROUND_FRW_ROW( b3 );
  676.         b2 = SHIFT_AND_ROUND_FRW_ROW( b2 );
  677.         b1 = SHIFT_AND_ROUND_FRW_ROW( b1 );
  678.         b0 = SHIFT_AND_ROUND_FRW_ROW( b0 );
  679.         // v1.01, clip output results to range {-2048, +2047}
  680.         // In the MMX implementation, the "clipper" is integrated into
  681.         // the shift&round operation (thanks to packssdw)
  682.         a3 = (a3 > 2047) ?  2047 : a3; // ceiling @ +2047
  683.         a2 = (a2 > 2047) ?  2047 : a2; // ceiling @ +2047
  684.         a1 = (a1 > 2047) ?  2047 : a1; // ceiling @ +2047
  685.         a0 = (a0 > 2047) ?  2047 : a0; // ceiling @ +2047
  686.         b3 = (b3 > 2047) ?  2047 : b3; // ceiling @ +2047
  687.         b2 = (b2 > 2047) ?  2047 : b2; // ceiling @ +2047
  688.         b1 = (b1 > 2047) ?  2047 : b1; // ceiling @ +2047
  689.         b0 = (b0 > 2047) ?  2047 : b0; // ceiling @ +2047
  690.         a3 = (a3 <-2048) ? -2048 : a3; // floor   @ -2048
  691.         a2 = (a2 <-2048) ? -2048 : a2; // floor   @ -2048
  692.         a1 = (a1 <-2048) ? -2048 : a1; // floor   @ -2048
  693.         a0 = (a0 <-2048) ? -2048 : a0; // floor   @ -2048
  694.         b3 = (b3 <-2048) ? -2048 : b3; // floor   @ -2048
  695.         b2 = (b2 <-2048) ? -2048 : b2; // floor   @ -2048
  696.         b1 = (b1 <-2048) ? -2048 : b1; // floor   @ -2048
  697.         b0 = (b0 <-2048) ? -2048 : b0; // floor   @ -2048
  698.         // forward_dct_row, assign outputs
  699.         optr[ 3 ] = b1;
  700.         optr[ 2 ] = a1;
  701.         optr[ 1 ] = b0;
  702.         optr[ 0 ] = a0;
  703.         optr[ 7 ] = b3;
  704.         optr[ 6 ] = a3;
  705.         optr[ 5 ] = b2;
  706.         optr[ 4 ] = a2;
  707.         sptr += 8;   // increment source pointer +1 row
  708.         optr += 8;   // increment output pointer +1 row
  709.     } // end for ( j = 0 ..., end of C_equivalent code for forward_dct_row_1
  710.   */  
  711. } // fdct_mm32( short *blk )