mmxidct.S
上传用户:aoeyumen
上传日期:2007-01-06
资源大小:3329k
文件大小:21k
源码类别:

DVD

开发平台:

Unix_Linux

  1. /*
  2.  * the input data is tranposed and each 16 bit element in the 8x8 matrix
  3.  * is left aligned:
  4.  * for example in 11...1110000 format
  5.  * If the iDCT is of I macroblock then 0.5 needs to be added to the;DC Component
  6.  * (element[0][0] of the matrix)
  7.  */
  8. /* extrn re_matrix */
  9. .data
  10. .align 16
  11. .type  preSC,@object
  12. preSC:  .short  16384,22725,21407,19266,16384,12873,8867,4520
  13.         .short  22725,31521,29692,26722,22725,17855,12299,6270
  14.         .short  21407,29692,27969,25172,21407,16819,11585,5906
  15.         .short  19266,26722,25172,22654,19266,15137,10426,5315
  16.         .short  16384,22725,21407,19266,16384,12873,8867,4520
  17.         .short  12873,17855,16819,15137,25746,20228,13933,7103
  18.         .short  17734,24598,23170,20853,17734,13933,9597,4892
  19.         .short  18081,25080,23624,21261,18081,14206,9785,4988
  20. .size  preSC,128
  21. .align 8
  22. .type x0005000200010001,@object
  23. .size x0005000200010001,8
  24. x0005000200010001:
  25. .long 0x00010001,0x00050002
  26. .align 8
  27. .type x0040000000000000,@object
  28. .size x0040000000000000,8
  29. x0040000000000000:
  30. .long 0, 0x00400000
  31. .align 8
  32. .type x5a825a825a825a82,@object
  33. .size x5a825a825a825a82,8
  34. x5a825a825a825a82:
  35. .long 0x5a825a82, 0x5a825a82
  36. .align 8
  37. .type x539f539f539f539f,@object
  38. .size x539f539f539f539f,8
  39. x539f539f539f539f:
  40. .long 0x539f539f,0x539f539f
  41. .align 8
  42. .type x4546454645464546,@object
  43. .size x4546454645464546,8
  44. x4546454645464546:
  45. .long 0x45464546,0x45464546
  46. .align 8
  47. .type x61f861f861f861f8,@object
  48. .size x61f861f861f861f8,8
  49. x61f861f861f861f8:
  50. .long 0x61f861f8,0x61f861f8
  51. .align 8
  52. .type  scratch1,@object
  53. .size  scratch1,8
  54. scratch1:
  55. .long 0,0
  56. .align 8
  57. .type  scratch3,@object
  58. .size  scratch3,8
  59. scratch3:
  60. .long 0,0
  61. .align 8
  62. .type  scratch5,@object
  63. .size  scratch5,8
  64. scratch5:
  65. .long 0,0
  66. .align 8
  67. .type  scratch7,@object
  68. .size  scratch7,8
  69. scratch7:
  70. .long 0,0
  71. .type  x0,@object
  72. .size  x0,8
  73. x0:
  74. .long 0,0
  75. .align 8
  76. .text
  77. .align 4
  78. .globl IDCT_mmx
  79. .type  IDCT_mmx,@function
  80. IDCT_mmx:
  81. pushl %ebp
  82. movl %esp,%ebp
  83. pushl %ebx
  84. pushl %ecx
  85. pushl %edx
  86. pushl %esi
  87. pushl %edi
  88. movl 8(%ebp),%esi /* source matrix */
  89. #if 0
  90. movq (%esi), %mm0
  91. movq 8(%esi), %mm1
  92. psllw $4, %mm0
  93. movq 16(%esi), %mm2
  94. psllw $4, %mm1
  95. movq 24(%esi), %mm3
  96. psllw $4, %mm2
  97. movq 32(%esi), %mm4
  98. psllw $4, %mm3
  99. movq 40(%esi), %mm5
  100. psllw $4, %mm4
  101. movq 48(%esi), %mm6
  102. psllw $4, %mm5
  103. movq 56(%esi), %mm7
  104. psllw $4, %mm6
  105. psllw $4, %mm7
  106. movq %mm0,  (%esi)
  107. movq %mm1, 8(%esi)
  108. movq %mm2,16(%esi)
  109. movq %mm3,24(%esi)
  110. movq %mm4,32(%esi)
  111. movq %mm5,40(%esi)
  112. movq %mm6,48(%esi)
  113. movq %mm7,56(%esi)
  114. movq 64(%esi), %mm0
  115. movq 72(%esi), %mm1
  116. psllw $4, %mm0
  117. movq 80(%esi), %mm2
  118. psllw $4, %mm1
  119. movq 88(%esi), %mm3
  120. psllw $4, %mm2
  121. movq 96(%esi), %mm4
  122. psllw $4, %mm3
  123. movq 104(%esi), %mm5
  124. psllw $4, %mm4
  125. movq 112(%esi), %mm6
  126. psllw $4, %mm5
  127. movq 120(%esi), %mm7
  128. psllw $4, %mm6
  129. psllw $4, %mm7
  130. movq %mm0,64(%esi)
  131. movq %mm1,72(%esi)
  132. movq %mm2,80(%esi)
  133. movq %mm3,88(%esi)
  134. movq %mm4,96(%esi)
  135. movq %mm5,104(%esi)
  136. movq %mm6,112(%esi)
  137. movq %mm7,120(%esi)
  138. #endif
  139. leal preSC, %ecx
  140. /* column 0: even part
  141.  * use V4, V12, V0, V8 to produce V22..V25
  142.  */
  143. movq 8*12(%ecx), %mm0 /* maybe the first mul can be done together */
  144. /* with the dequantization in iHuff module */
  145. pmulhw 8*12(%esi), %mm0 /* V12 */
  146. movq 8*4(%ecx), %mm1
  147. pmulhw 8*4(%esi), %mm1 /* V4 */
  148. movq (%ecx), %mm3
  149. psraw $1, %mm0 /* t64=t66 */
  150. pmulhw (%esi), %mm3 /* V0 */
  151. movq 8*8(%ecx), %mm5 /* duplicate V4 */
  152. movq %mm1, %mm2 /* added 11/1/96 */
  153. pmulhw 8*8(%esi),%mm5 /* V8 */
  154. psubsw %mm0, %mm1 /* V16 */
  155. pmulhw x5a825a825a825a82, %mm1 /* 23170 ->V18 */
  156. paddsw %mm0, %mm2 /* V17 */
  157. movq %mm2, %mm0 /* duplicate V17 */
  158. psraw $1, %mm2 /* t75=t82 */
  159. psraw $2, %mm0 /* t72 */
  160. movq %mm3, %mm4 /* duplicate V0 */
  161. paddsw %mm5, %mm3 /* V19 */
  162. psubsw %mm5, %mm4 /* V20 ;mm5 free */
  163. /* moved from the block below */
  164. movq 8*10(%ecx), %mm7
  165. psraw $1, %mm3 /* t74=t81 */
  166. movq %mm3, %mm6 /* duplicate t74=t81 */
  167. psraw $2, %mm4 /* t77=t79 */
  168. psubsw %mm0, %mm1 /* V21 ; mm0 free */
  169. paddsw %mm2, %mm3 /* V22 */
  170. movq %mm1, %mm5 /* duplicate V21 */
  171. paddsw %mm4, %mm1 /* V23 */
  172. movq %mm3, 8*4(%esi) /* V22 */
  173. psubsw %mm5, %mm4 /* V24; mm5 free */
  174. movq %mm1, 8*12(%esi) /* V23 */
  175. psubsw %mm2, %mm6 /* V25; mm2 free */
  176. movq %mm4, (%esi) /* V24 */
  177. /* keep mm6 alive all along the next block */
  178. /* movq %mm6, 8*8(%esi)  V25 */
  179. /* column 0: odd part
  180.  * use V2, V6, V10, V14 to produce V31, V39, V40, V41
  181.  */
  182. /* moved above: movq 8*10(%ecx), %mm7 */
  183. pmulhw 8*10(%esi), %mm7 /* V10 */
  184. movq 8*6(%ecx), %mm0
  185. pmulhw 8*6(%esi), %mm0 /* V6 */
  186. movq 8*2(%ecx), %mm5
  187. movq %mm7, %mm3 /* duplicate V10 */
  188. pmulhw 8*2(%esi), %mm5 /* V2 */
  189. movq 8*14(%ecx), %mm4
  190. psubsw %mm0, %mm7 /* V26 */
  191. pmulhw 8*14(%esi), %mm4 /* V14 */
  192. paddsw %mm0, %mm3 /* V29 ; free mm0 */
  193. movq %mm7, %mm1 /* duplicate V26 */
  194. psraw $1, %mm3 /* t91=t94 */
  195. pmulhw x539f539f539f539f,%mm7 /* V33 */
  196. psraw $1, %mm1 /* t96 */
  197. movq %mm5, %mm0 /* duplicate V2 */
  198. psraw $2, %mm4 /* t85=t87 */
  199. paddsw %mm4,%mm5 /* V27 */
  200. psubsw %mm4, %mm0 /* V28 ; free mm4 */
  201. movq %mm0, %mm2 /* duplicate V28 */
  202. psraw $1, %mm5 /* t90=t93 */
  203. pmulhw x4546454645464546,%mm0 /* V35 */
  204. psraw $1, %mm2 /* t97 */
  205. movq %mm5, %mm4 /* duplicate t90=t93 */
  206. psubsw %mm2, %mm1 /* V32 ; free mm2 */
  207. pmulhw x61f861f861f861f8,%mm1 /* V36 */
  208. psllw $1, %mm7 /* t107 */
  209. paddsw %mm3, %mm5 /* V31 */
  210. psubsw %mm3, %mm4 /* V30 ; free mm3 */
  211. pmulhw x5a825a825a825a82,%mm4 /* V34 */
  212. nop
  213. psubsw %mm1, %mm0 /* V38 */
  214. psubsw %mm7, %mm1 /* V37 ; free mm7 */
  215. psllw $1, %mm1 /* t114 */
  216. /* move from the next block */
  217. movq %mm6, %mm3 /* duplicate V25 */
  218. /* move from the next block */
  219. movq 8*4(%esi), %mm7 /* V22 */
  220. psllw $1, %mm0 /* t110 */
  221. psubsw %mm5, %mm0 /* V39 (mm5 needed for next block) */
  222. psllw $2, %mm4 /* t112 */
  223. /* moved from the next block */
  224. movq 8*12(%esi), %mm2 /* V23 */
  225. psubsw %mm0, %mm4 /* V40 */
  226. paddsw %mm4, %mm1 /* V41; free mm0 */
  227. /* moved from the next block */
  228. psllw $1, %mm2 /* t117=t125 */
  229. /* column 0: output butterfly */
  230. /* moved above:
  231.  * movq %mm6, %mm3 duplicate V25
  232.  * movq 8*4(%esi), %mm7 V22
  233.  * movq 8*12(%esi), %mm2 V23
  234.  * psllw $1, %mm2 t117=t125
  235.  */
  236. psubsw %mm1, %mm6 /* tm6 */
  237. paddsw %mm1, %mm3 /* tm8; free mm1 */
  238. movq %mm7, %mm1 /* duplicate V22 */
  239. paddsw %mm5, %mm7 /* tm0 */
  240. movq %mm3, 8*8(%esi) /* tm8; free mm3 */
  241. psubsw %mm5, %mm1 /* tm14; free mm5 */
  242. movq %mm6, 8*6(%esi) /* tm6; free mm6 */
  243. movq %mm2, %mm3 /* duplicate t117=t125 */
  244. movq (%esi), %mm6 /* V24 */
  245. paddsw %mm0, %mm2 /* tm2 */
  246. movq %mm7, (%esi) /* tm0; free mm7 */
  247. psubsw %mm0, %mm3 /* tm12; free mm0 */
  248. movq %mm1, 8*14(%esi) /* tm14; free mm1 */
  249. psllw $1, %mm6 /* t119=t123 */
  250. movq %mm2, 8*2(%esi) /* tm2; free mm2 */
  251. movq %mm6, %mm0 /* duplicate t119=t123 */
  252. movq %mm3, 8*12(%esi) /* tm12; free mm3 */
  253. paddsw %mm4, %mm6 /* tm4 */
  254. /* moved from next block */
  255. movq 8*5(%ecx), %mm1
  256. psubsw %mm4, %mm0 /* tm10; free mm4 */
  257. /* moved from next block */
  258. pmulhw 8*5(%esi), %mm1 /* V5 */
  259. movq %mm6, 8*4(%esi) /* tm4; free mm6 */
  260. movq %mm0, 8*10(%esi) /* tm10; free mm0 */
  261. /* column 1: even part
  262.  * use V5, V13, V1, V9 to produce V56..V59
  263.  */
  264. /* moved to prev block:
  265.  * movq 8*5(%ecx), %mm1
  266.  * pmulhw 8*5(%esi), %mm1  V5
  267.  */
  268. movq 8*13(%ecx), %mm7
  269. psllw $1, %mm1 /* t128=t130 */
  270. pmulhw 8*13(%esi), %mm7 /* V13 */
  271. movq %mm1, %mm2 /* duplicate t128=t130 */
  272. movq 8(%ecx), %mm3
  273. pmulhw 8(%esi), %mm3 /* V1 */
  274. movq 8*9(%ecx), %mm5
  275. psubsw %mm7, %mm1 /* V50 */
  276. pmulhw 8*9(%esi), %mm5 /* V9 */
  277. paddsw %mm7, %mm2 /* V51 */
  278. pmulhw x5a825a825a825a82, %mm1 /* 23170 ->V52 */
  279. movq %mm2, %mm6 /* duplicate V51 */
  280. psraw $1, %mm2 /* t138=t144 */
  281. movq %mm3, %mm4 /* duplicate V1 */
  282. psraw $2, %mm6 /* t136 */
  283. paddsw %mm5, %mm3 /* V53 */
  284. psubsw %mm5, %mm4 /* V54 ;mm5 free */
  285. movq %mm3, %mm7 /* duplicate V53 */
  286. /* moved from next block */
  287. movq 8*11(%ecx), %mm0
  288. psraw $1, %mm4 /* t140=t142 */
  289. psubsw %mm6, %mm1 /* V55 ; mm6 free */
  290. paddsw %mm2, %mm3 /* V56 */
  291. movq %mm4, %mm5 /* duplicate t140=t142 */
  292. paddsw %mm1, %mm4 /* V57 */
  293. movq %mm3, 8*5(%esi) /* V56 */
  294. psubsw %mm1, %mm5 /* V58; mm1 free */
  295. movq %mm4, 8*13(%esi) /* V57 */
  296. psubsw %mm2, %mm7 /* V59; mm2 free */
  297. movq %mm5, 8*9(%esi) /* V58 */
  298. /* keep mm7 alive all along the next block
  299.  * movq %mm7, 8(%esi) V59
  300.  * moved above
  301.  * movq 8*11(%ecx), %mm0
  302.  */
  303. pmulhw 8*11(%esi), %mm0 /* V11 */
  304. movq 8*7(%ecx), %mm6
  305. pmulhw 8*7(%esi), %mm6 /* V7 */
  306. movq 8*15(%ecx), %mm4
  307. movq %mm0, %mm3 /* duplicate V11 */
  308. pmulhw 8*15(%esi), %mm4 /* V15 */
  309. movq 8*3(%ecx), %mm5
  310. psllw $1, %mm6 /* t146=t152 */
  311. pmulhw 8*3(%esi), %mm5 /* V3 */
  312. paddsw %mm6, %mm0 /* V63 */
  313. /* note that V15 computation has a correction step: 
  314.  * this is a 'magic' constant that rebiases the results to be closer to the
  315.  * expected result.  this magic constant can be refined to reduce the error
  316.  * even more by doing the correction step in a later stage when the number
  317.  * is actually multiplied by 16
  318.  */
  319. paddw x0005000200010001, %mm4
  320. psubsw %mm6, %mm3 /* V60 ; free mm6 */
  321. psraw $1, %mm0 /* t154=t156 */
  322. movq %mm3, %mm1 /* duplicate V60 */
  323. pmulhw x539f539f539f539f, %mm1 /* V67 */
  324. movq %mm5, %mm6 /* duplicate V3 */
  325. psraw $2, %mm4 /* t148=t150 */
  326. paddsw %mm4, %mm5 /* V61 */
  327. psubsw %mm4, %mm6 /* V62 ; free mm4 */
  328. movq %mm5, %mm4 /* duplicate V61 */
  329. psllw $1, %mm1 /* t169 */
  330. paddsw %mm0, %mm5 /* V65 -> result */
  331. psubsw %mm0, %mm4 /* V64 ; free mm0 */
  332. pmulhw x5a825a825a825a82, %mm4 /* V68 */
  333. psraw $1, %mm3 /* t158 */
  334. psubsw %mm6, %mm3 /* V66 */
  335. movq %mm5, %mm2 /* duplicate V65 */
  336. pmulhw x61f861f861f861f8, %mm3 /* V70 */
  337. psllw $1, %mm6 /* t165 */
  338. pmulhw x4546454645464546, %mm6 /* V69 */
  339. psraw $1, %mm2 /* t172 */
  340. /* moved from next block */
  341. movq 8*5(%esi), %mm0 /* V56 */
  342. psllw $1, %mm4 /* t174 */
  343. /* moved from next block */
  344. psraw $1, %mm0 /* t177=t188 */
  345. nop
  346. psubsw %mm3, %mm6 /* V72 */
  347. psubsw %mm1, %mm3 /* V71 ; free mm1 */
  348. psubsw %mm2, %mm6 /* V73 ; free mm2 */
  349. /* moved from next block */
  350. psraw $1, %mm5 /* t178=t189 */
  351. psubsw %mm6, %mm4 /* V74 */
  352. /* moved from next block */
  353. movq %mm0, %mm1 /* duplicate t177=t188 */
  354. paddsw %mm4, %mm3 /* V75 */
  355. /* moved from next block */
  356. paddsw %mm5, %mm0 /* tm1 */
  357. /* location
  358.  *  5 - V56
  359.  * 13 - V57
  360.  *  9 - V58
  361.  *  X - V59, mm7
  362.  *  X - V65, mm5
  363.  *  X - V73, mm6
  364.  *  X - V74, mm4
  365.  *  X - V75, mm3
  366.  * free mm0, mm1 & mm2
  367.  * moved above
  368.  * movq 8*5(%esi), %mm0 V56
  369.  * psllw $1, %mm0 t177=t188 ! new !!
  370.  * psllw $1, %mm5 t178=t189 ! new !!
  371.  * movq %mm0, %mm1 duplicate t177=t188
  372.  * paddsw %mm5, %mm0 tm1
  373.  */
  374. movq 8*13(%esi), %mm2 /* V57 */
  375. psubsw %mm5, %mm1 /* tm15; free mm5 */
  376. movq %mm0, 8(%esi) /* tm1; free mm0 */
  377. psraw $1, %mm7 /* t182=t184 ! new !! */
  378. /* save the store as used directly in the transpose
  379.  * movq %mm1, 120(%esi) tm15; free mm1
  380.  */
  381. movq %mm7, %mm5 /* duplicate t182=t184 */
  382. psubsw %mm3, %mm7 /* tm7 */
  383. paddsw %mm3, %mm5 /* tm9; free mm3 */
  384. movq 8*9(%esi), %mm0 /* V58 */
  385. movq %mm2, %mm3 /* duplicate V57 */
  386. movq %mm7, 8*7(%esi) /* tm7; free mm7 */
  387. psubsw %mm6, %mm3 /* tm13 */
  388. paddsw %mm6, %mm2 /* tm3 ; free mm6 */
  389. /* moved up from the transpose */
  390. movq %mm3, %mm7
  391. /* moved up from the transpose */
  392. punpcklwd %mm1, %mm3
  393. movq %mm0, %mm6 /* duplicate V58 */
  394. movq %mm2, 8*3(%esi) /* tm3; free mm2 */
  395. paddsw %mm4, %mm0 /* tm5 */
  396. psubsw %mm4, %mm6 /* tm11; free mm4 */
  397. /* moved up from the transpose */
  398. punpckhwd %mm1, %mm7
  399. movq %mm0, 8*5(%esi) /* tm5; free mm0 */
  400. /* moved up from the transpose */
  401. movq %mm5, %mm2
  402. /* transpose - M4 part
  403.  *  ---------       ---------
  404.  * | M1 | M2 |     | M1'| M3'|
  405.  *  ---------  -->  ---------
  406.  * | M3 | M4 |     | M2'| M4'|
  407.  *  ---------       ---------
  408.  * Two alternatives: use full mmword approach so the following code can be
  409.  * scheduled before the transpose is done without stores, or use the faster
  410.  * half mmword stores (when possible)
  411.  */
  412. movd %mm3, 8*9+4(%esi) /* MS part of tmt9 */
  413. punpcklwd %mm6, %mm5
  414. movd %mm7, 8*13+4(%esi) /* MS part of tmt13 */
  415. punpckhwd %mm6, %mm2
  416. movd %mm5, 8*9(%esi) /* LS part of tmt9 */
  417. punpckhdq %mm3, %mm5 /* free mm3 */
  418. movd %mm2, 8*13(%esi) /* LS part of tmt13 */
  419. punpckhdq %mm7, %mm2 /* free mm7 */
  420. /* moved up from the M3 transpose */
  421. movq 8*8(%esi), %mm0
  422. /* moved up from the M3 transpose */
  423. movq 8*10(%esi), %mm1
  424. /* moved up from the M3 transpose */
  425. movq %mm0, %mm3
  426. /* shuffle the rest of the data, and write it with 2 mmword writes */
  427. movq %mm5, 8*11(%esi) /* tmt11 */
  428. /* moved up from the M3 transpose */
  429. punpcklwd %mm1, %mm0
  430. movq %mm2, 8*15(%esi) /* tmt15 */
  431. /* moved up from the M3 transpose */
  432. punpckhwd %mm1, %mm3
  433. /* transpose - M3 part
  434.  * moved up to previous code section
  435.  * movq 8*8(%esi), %mm0
  436.  * movq 8*10(%esi), %mm1
  437.  * movq %mm0, %mm3
  438.  * punpcklwd %mm1, %mm0
  439.  * punpckhwd %mm1, %mm3
  440.  */
  441. movq 8*12(%esi), %mm6
  442. movq 8*14(%esi), %mm4
  443. movq %mm6, %mm2
  444. /* shuffle the data and write the lower parts of the transposed in 4 dwords */
  445. punpcklwd %mm4, %mm6
  446. movq %mm0, %mm1
  447. punpckhdq %mm6, %mm1
  448. movq %mm3, %mm7
  449. punpckhwd %mm4, %mm2 /* free mm4 */
  450. punpckldq %mm6, %mm0 /* free mm6 */
  451. /* moved from next block */
  452. movq 8*13(%esi), %mm4 /* tmt13 */
  453. punpckldq %mm2, %mm3
  454. punpckhdq %mm2, %mm7 /* free mm2 */
  455. /* moved from next block */
  456. movq %mm3, %mm5 /* duplicate tmt5 */
  457. /* column 1: even part (after transpose)
  458. * moved above
  459. * movq %mm3, %mm5 duplicate tmt5
  460. * movq 8*13(%esi), %mm4 tmt13
  461. */
  462. psubsw %mm4, %mm3 /* V134 */
  463. pmulhw x5a825a825a825a82, %mm3 /* 23170 ->V136 */
  464. movq 8*9(%esi), %mm6 /* tmt9 */
  465. paddsw %mm4, %mm5 /* V135 ; mm4 free */
  466. movq %mm0, %mm4 /* duplicate tmt1 */
  467. paddsw %mm6, %mm0 /* V137 */
  468. psubsw %mm6, %mm4 /* V138 ; mm6 free */
  469. psllw $2, %mm3 /* t290 */
  470. psubsw %mm5, %mm3 /* V139 */
  471. movq %mm0, %mm6 /* duplicate V137 */
  472. paddsw %mm5, %mm0 /* V140 */
  473. movq %mm4, %mm2 /* duplicate V138 */
  474. paddsw %mm3, %mm2 /* V141 */
  475. psubsw %mm3, %mm4 /* V142 ; mm3 free */
  476. movq %mm0, 8*9(%esi) /* V140 */
  477. psubsw %mm5, %mm6 /* V143 ; mm5 free */
  478. /* moved from next block */
  479. movq 8*11(%esi), %mm0 /* tmt11 */
  480. movq %mm2, 8*13(%esi) /* V141 */
  481. /* moved from next block */
  482. movq %mm0, %mm2 /* duplicate tmt11 */
  483. /* column 1: odd part (after transpose) */
  484. /* moved up to the prev block
  485.  * movq 8*11(%esi), %mm0 tmt11
  486.  * movq %mm0, %mm2 duplicate tmt11
  487.  */
  488. movq 8*15(%esi), %mm5 /* tmt15 */
  489. psubsw %mm7, %mm0 /* V144 */
  490. movq %mm0, %mm3 /* duplicate V144 */
  491. paddsw %mm7, %mm2 /* V147 ; free mm7 */
  492. pmulhw x539f539f539f539f, %mm0 /* 21407-> V151 */
  493. movq %mm1, %mm7 /* duplicate tmt3 */
  494. paddsw %mm5, %mm7 /* V145 */
  495. psubsw %mm5, %mm1 /* V146 ; free mm5 */
  496. psubsw %mm1, %mm3 /* V150 */
  497. movq %mm7, %mm5 /* duplicate V145 */
  498. pmulhw x4546454645464546, %mm1 /* 17734-> V153 */
  499. psubsw %mm2, %mm5 /* V148 */
  500. pmulhw x61f861f861f861f8, %mm3 /* 25080-> V154 */
  501. psllw $2, %mm0 /* t311 */
  502. pmulhw x5a825a825a825a82, %mm5 /* 23170-> V152 */
  503. paddsw %mm2, %mm7 /* V149 ; free mm2 */
  504. psllw $1, %mm1 /* t313 */
  505. nop /* without the nop - freeze here for one clock */
  506. movq %mm3, %mm2 /* duplicate V154 */
  507. psubsw %mm0, %mm3 /* V155 ; free mm0 */
  508. psubsw %mm2, %mm1 /* V156 ; free mm2 */
  509. /* moved from the next block */
  510. movq %mm6, %mm2 /* duplicate V143 */
  511. /* moved from the next block */
  512. movq 8*13(%esi), %mm0 /* V141 */
  513. psllw $1, %mm1 /* t315 */
  514. psubsw %mm7, %mm1 /* V157 (keep V149) */
  515. psllw $2, %mm5 /* t317 */
  516. psubsw %mm1, %mm5 /* V158 */
  517. psllw $1, %mm3 /* t319 */
  518. paddsw %mm5, %mm3 /* V159 */
  519. /* column 1: output butterfly (after transform)
  520.  * moved to the prev block
  521.  * movq %mm6, %mm2 duplicate V143
  522.  * movq 8*13(%esi), %mm0 V141
  523.  */
  524. psubsw %mm3, %mm2 /* V163 */
  525. paddsw %mm3, %mm6 /* V164 ; free mm3 */
  526. movq %mm4, %mm3 /* duplicate V142 */
  527. psubsw %mm5, %mm4 /* V165 ; free mm5 */
  528. movq %mm2, scratch7 /* out7 */
  529. psraw $4, %mm6
  530. psraw $4, %mm4
  531. paddsw %mm5, %mm3 /* V162 */
  532. movq 8*9(%esi), %mm2 /* V140 */
  533. movq %mm0, %mm5 /* duplicate V141 */
  534. /* in order not to perculate this line up,
  535.  * we read 72(%esi) very near to this location
  536.  */
  537. movq %mm6, 8*9(%esi) /* out9 */
  538. paddsw %mm1, %mm0 /* V161 */
  539. movq %mm3, scratch5 /* out5 */
  540. psubsw %mm1, %mm5 /* V166 ; free mm1 */
  541. movq %mm4, 8*11(%esi) /* out11 */
  542. psraw $4, %mm5
  543. movq %mm0, scratch3 /* out3 */
  544. movq %mm2, %mm4 /* duplicate V140 */
  545. movq %mm5, 8*13(%esi) /* out13 */
  546. paddsw %mm7, %mm2 /* V160 */
  547. /* moved from the next block */
  548. movq 8(%esi), %mm0
  549. psubsw %mm7, %mm4 /* V167 ; free mm7 */
  550. /* moved from the next block */
  551. movq 8*3(%esi), %mm7
  552. psraw $4, %mm4
  553. movq %mm2, scratch1 /* out1 */
  554. /* moved from the next block */
  555. movq %mm0, %mm1
  556. movq %mm4, 8*15(%esi) /* out15 */
  557. /* moved from the next block */
  558. punpcklwd %mm7, %mm0
  559. /* transpose - M2 parts
  560.  * moved up to the prev block
  561.  * movq 8(%esi), %mm0
  562.  * movq 8*3(%esi), %mm7
  563.  * movq %mm0, %mm1
  564.  * punpcklwd %mm7, %mm0
  565.  */
  566. movq 8*5(%esi), %mm5
  567. punpckhwd %mm7, %mm1
  568. movq 8*7(%esi), %mm4
  569. movq %mm5, %mm3
  570. /* shuffle the data and write the lower parts of the trasposed in 4 dwords */
  571. movd %mm0, 8*8(%esi) /* LS part of tmt8 */
  572. punpcklwd %mm4, %mm5
  573. movd %mm1, 8*12(%esi) /* LS part of tmt12 */
  574. punpckhwd %mm4, %mm3
  575. movd %mm5, 8*8+4(%esi) /* MS part of tmt8 */
  576. punpckhdq %mm5, %mm0 /* tmt10 */
  577. movd %mm3, 8*12+4(%esi) /* MS part of tmt12 */
  578. punpckhdq %mm3, %mm1 /* tmt14 */
  579. /* transpose - M1 parts */
  580. movq (%esi), %mm7
  581. movq 8*2(%esi), %mm2
  582. movq %mm7, %mm6
  583. movq 8*4(%esi), %mm5
  584. punpcklwd %mm2, %mm7
  585. movq 8*6(%esi), %mm4
  586. punpckhwd %mm2, %mm6 /* free mm2 */
  587. movq %mm5, %mm3
  588. punpcklwd %mm4, %mm5
  589. punpckhwd %mm4, %mm3 /* free mm4 */
  590. movq %mm7, %mm2
  591. movq %mm6, %mm4
  592. punpckldq %mm5, %mm7 /* tmt0 */
  593. punpckhdq %mm5, %mm2 /* tmt2 ; free mm5 */
  594. /* shuffle the rest of the data, and write it with 2 mmword writes */
  595. punpckldq %mm3, %mm6 /* tmt4 */
  596. /* moved from next block */
  597. movq %mm2, %mm5 /* duplicate tmt2 */
  598. punpckhdq %mm3, %mm4 /* tmt6 ; free mm3 */
  599. /* moved from next block */
  600. movq %mm0, %mm3 /* duplicate tmt10 */
  601. /* column 0: odd part (after transpose)
  602.  *moved up to prev block
  603.  * movq %mm0, %mm3 duplicate tmt10
  604.  * movq %mm2, %mm5 duplicate tmt2
  605.  */
  606. psubsw %mm4, %mm0 /* V110 */
  607. paddsw %mm4, %mm3 /* V113 ; free mm4 */
  608. movq %mm0, %mm4 /* duplicate V110 */
  609. paddsw %mm1, %mm2 /* V111 */
  610. pmulhw x539f539f539f539f, %mm0 /* 21407-> V117 */
  611. psubsw %mm1, %mm5 /* V112 ; free mm1 */
  612. psubsw %mm5, %mm4 /* V116 */
  613. movq %mm2, %mm1 /* duplicate V111 */
  614. pmulhw x4546454645464546, %mm5 /* 17734-> V119 */
  615. psubsw %mm3, %mm2 /* V114 */
  616. pmulhw x61f861f861f861f8, %mm4 /* 25080-> V120 */
  617. paddsw %mm3, %mm1 /* V115 ; free mm3 */
  618. pmulhw x5a825a825a825a82, %mm2 /* 23170-> V118 */
  619. psllw $2, %mm0 /* t266 */
  620. movq %mm1, (%esi) /* save V115 */
  621. psllw $1, %mm5 /* t268 */
  622. psubsw %mm4, %mm5 /* V122 */
  623. psubsw %mm0, %mm4 /* V121 ; free mm0 */
  624. psllw $1, %mm5 /* t270 */
  625. psubsw %mm1, %mm5 /* V123 ; free mm1 */
  626. psllw $2, %mm2 /* t272 */
  627. psubsw %mm5, %mm2 /* V124 (keep V123) */
  628. psllw $1, %mm4 /* t274 */
  629. movq %mm5, 8*2(%esi) /* save V123 ; free mm5 */
  630. paddsw %mm2, %mm4 /* V125 (keep V124) */
  631. /* column 0: even part (after transpose) */
  632. movq 8*12(%esi), %mm0 /* tmt12 */
  633. movq %mm6, %mm3 /* duplicate tmt4 */
  634. psubsw %mm0, %mm6 /* V100 */
  635. paddsw %mm0, %mm3 /* V101 ; free mm0 */
  636. pmulhw x5a825a825a825a82, %mm6 /* 23170 ->V102 */
  637. movq %mm7, %mm5 /* duplicate tmt0 */
  638. movq 8*8(%esi), %mm1 /* tmt8 */
  639. paddsw %mm1, %mm7 /* V103 */
  640. psubsw %mm1, %mm5 /* V104 ; free mm1 */
  641. movq %mm7, %mm0 /* duplicate V103 */
  642. psllw $2, %mm6 /* t245 */
  643. paddsw %mm3, %mm7 /* V106 */
  644. movq %mm5, %mm1 /* duplicate V104 */
  645. psubsw %mm3, %mm6 /* V105 */
  646. psubsw %mm3, %mm0 /* V109; free mm3 */
  647. paddsw %mm6, %mm5 /* V107 */
  648. psubsw %mm6, %mm1 /* V108 ; free mm6 */
  649. /* column 0: output butterfly (after transform) */
  650. movq %mm1, %mm3 /* duplicate V108 */
  651. paddsw %mm2, %mm1 /* out4 */
  652. psraw $4, %mm1
  653. psubsw %mm2, %mm3 /* out10 ; free mm2 */
  654. psraw $4, %mm3
  655. movq %mm0, %mm6 /* duplicate V109 */
  656. movq %mm1, 8*4(%esi) /* out4 ; free mm1 */
  657. psubsw %mm4, %mm0 /* out6 */
  658. movq %mm3, 8*10(%esi) /* out10 ; free mm3 */
  659. psraw $4, %mm0
  660. paddsw %mm4, %mm6 /* out8 ; free mm4 */
  661. movq %mm7, %mm1 /* duplicate V106 */
  662. movq %mm0, 8*6(%esi) /* out6 ; free mm0 */
  663. psraw $4, %mm6
  664. movq (%esi), %mm4 /* V115 */
  665. movq %mm6, 8*8(%esi) /* out8 ; free mm6 */
  666. movq %mm5, %mm2 /* duplicate V107 */
  667. movq 8*2(%esi), %mm3 /* V123 */
  668. paddsw %mm4, %mm7 /* out0 */
  669. /* moved up from next block */
  670. movq scratch3, %mm0
  671. psraw $4, %mm7
  672. /* moved up from next block */
  673. movq scratch5, %mm6 
  674. psubsw %mm4, %mm1 /* out14 ; free mm4 */
  675. paddsw %mm3, %mm5 /* out2 */
  676. psraw $4, %mm1
  677. movq %mm7, (%esi) /* out0 ; free mm7 */
  678. psraw $4, %mm5
  679. movq %mm1, 8*14(%esi) /* out14 ; free mm1 */
  680. psubsw %mm3, %mm2 /* out12 ; free mm3 */
  681. movq %mm5, 8*2(%esi) /* out2 ; free mm5 */
  682. psraw $4, %mm2
  683. /* moved up to the prev block */
  684. movq scratch7, %mm4
  685. /* moved up to the prev block */
  686. psraw $4, %mm0
  687. movq %mm2, 8*12(%esi) /* out12 ; free mm2 */
  688. /* moved up to the prev block */
  689. psraw $4, %mm6
  690. /* move back the data to its correct place
  691. * moved up to the prev block
  692.  * movq scratch3, %mm0
  693.  * movq scratch5, %mm6
  694.  * movq scratch7, %mm4
  695.  * psraw $4, %mm0
  696.  * psraw $4, %mm6
  697. */
  698. movq scratch1, %mm1
  699. psraw $4, %mm4
  700. movq %mm0, 8*3(%esi) /* out3 */
  701. psraw $4, %mm1
  702. movq %mm6, 8*5(%esi) /* out5 */
  703. movq %mm4, 8*7(%esi) /* out7 */
  704. movq %mm1, 8(%esi) /* out1 */
  705. popl %edi
  706. popl %esi
  707. popl %edx
  708. popl %ecx
  709. popl %ebx
  710. movl %ebp,%esp
  711. popl %ebp
  712. ret
  713. .Lfe1:
  714. .size  IDCT_mmx,.Lfe1-IDCT_mmx