dct.c
上传用户:hjq518
上传日期:2021-12-09
资源大小:5084k
文件大小:21k
源码类别:

Audio

开发平台:

Visual C++

  1. /*****************************************************************************
  2.  * dct.c: h264 encoder library
  3.  *****************************************************************************
  4.  * Copyright (C) 2003-2008 x264 project
  5.  *
  6.  * Authors: Guillaume Poirier <gpoirier@mplayerhq.hu>
  7.  *          Eric Petit <eric.petit@lapsus.org>
  8.  *
  9.  * This program is free software; you can redistribute it and/or modify
  10.  * it under the terms of the GNU General Public License as published by
  11.  * the Free Software Foundation; either version 2 of the License, or
  12.  * (at your option) any later version.
  13.  *
  14.  * This program is distributed in the hope that it will be useful,
  15.  * but WITHOUT ANY WARRANTY; without even the implied warranty of
  16.  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
  17.  * GNU General Public License for more details.
  18.  *
  19.  * You should have received a copy of the GNU General Public License
  20.  * along with this program; if not, write to the Free Software
  21.  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02111, USA.
  22.  *****************************************************************************/
  23. #ifdef SYS_LINUX
  24. #include <altivec.h>
  25. #endif
  26. #include "common/common.h"
  27. #include "ppccommon.h"
  28. #define VEC_DCT(a0,a1,a2,a3,b0,b1,b2,b3) 
  29.     b1 = vec_add( a0, a3 );              
  30.     b3 = vec_add( a1, a2 );              
  31.     b0 = vec_add( b1, b3 );              
  32.     b2 = vec_sub( b1, b3 );              
  33.     a0 = vec_sub( a0, a3 );              
  34.     a1 = vec_sub( a1, a2 );              
  35.     b1 = vec_add( a0, a0 );              
  36.     b1 = vec_add( b1, a1 );              
  37.     b3 = vec_sub( a0, a1 );              
  38.     b3 = vec_sub( b3, a1 )
  39. void x264_sub4x4_dct_altivec( int16_t dct[4][4],
  40.         uint8_t *pix1, uint8_t *pix2 )
  41. {
  42.     PREP_DIFF_8BYTEALIGNED;
  43.     vec_s16_t dct0v, dct1v, dct2v, dct3v;
  44.     vec_s16_t tmp0v, tmp1v, tmp2v, tmp3v;
  45.     vec_u8_t permHighv;
  46.     VEC_DIFF_H_8BYTE_ALIGNED( pix1, FENC_STRIDE, pix2, FDEC_STRIDE, 4, dct0v );
  47.     VEC_DIFF_H_8BYTE_ALIGNED( pix1, FENC_STRIDE, pix2, FDEC_STRIDE, 4, dct1v );
  48.     VEC_DIFF_H_8BYTE_ALIGNED( pix1, FENC_STRIDE, pix2, FDEC_STRIDE, 4, dct2v );
  49.     VEC_DIFF_H_8BYTE_ALIGNED( pix1, FENC_STRIDE, pix2, FDEC_STRIDE, 4, dct3v );
  50.     VEC_DCT( dct0v, dct1v, dct2v, dct3v, tmp0v, tmp1v, tmp2v, tmp3v );
  51.     VEC_TRANSPOSE_4( tmp0v, tmp1v, tmp2v, tmp3v,
  52.                      dct0v, dct1v, dct2v, dct3v );
  53.     permHighv = (vec_u8_t) CV(0x00, 0x01, 0x02, 0x03, 0x04, 0x05, 0x06, 0x07, 0x10, 0x11, 0x12, 0x13, 0x14, 0x15, 0x16, 0x17);
  54.     VEC_DCT( dct0v, dct1v, dct2v, dct3v, tmp0v, tmp1v, tmp2v, tmp3v );
  55.     vec_st(vec_perm(tmp0v, tmp1v, permHighv), 0,  (int16_t*)dct);
  56.     vec_st(vec_perm(tmp2v, tmp3v, permHighv), 16, (int16_t*)dct);
  57. }
  58. void x264_sub8x8_dct_altivec( int16_t dct[4][4][4],
  59.         uint8_t *pix1, uint8_t *pix2 )
  60. {
  61.     PREP_DIFF_8BYTEALIGNED;
  62.     vec_s16_t dct0v, dct1v, dct2v, dct3v, dct4v, dct5v, dct6v, dct7v;
  63.     vec_s16_t tmp0v, tmp1v, tmp2v, tmp3v, tmp4v, tmp5v, tmp6v, tmp7v;
  64.     vec_u8_t permHighv, permLowv;
  65.     VEC_DIFF_H_8BYTE_ALIGNED( pix1, FENC_STRIDE, pix2, FDEC_STRIDE, 8, dct0v );
  66.     VEC_DIFF_H_8BYTE_ALIGNED( pix1, FENC_STRIDE, pix2, FDEC_STRIDE, 8, dct1v );
  67.     VEC_DIFF_H_8BYTE_ALIGNED( pix1, FENC_STRIDE, pix2, FDEC_STRIDE, 8, dct2v );
  68.     VEC_DIFF_H_8BYTE_ALIGNED( pix1, FENC_STRIDE, pix2, FDEC_STRIDE, 8, dct3v );
  69.     VEC_DIFF_H_8BYTE_ALIGNED( pix1, FENC_STRIDE, pix2, FDEC_STRIDE, 8, dct4v );
  70.     VEC_DIFF_H_8BYTE_ALIGNED( pix1, FENC_STRIDE, pix2, FDEC_STRIDE, 8, dct5v );
  71.     VEC_DIFF_H_8BYTE_ALIGNED( pix1, FENC_STRIDE, pix2, FDEC_STRIDE, 8, dct6v );
  72.     VEC_DIFF_H_8BYTE_ALIGNED( pix1, FENC_STRIDE, pix2, FDEC_STRIDE, 8, dct7v );
  73.     VEC_DCT( dct0v, dct1v, dct2v, dct3v, tmp0v, tmp1v, tmp2v, tmp3v );
  74.     VEC_DCT( dct4v, dct5v, dct6v, dct7v, tmp4v, tmp5v, tmp6v, tmp7v );
  75.     VEC_TRANSPOSE_8( tmp0v, tmp1v, tmp2v, tmp3v,
  76.                      tmp4v, tmp5v, tmp6v, tmp7v,
  77.                      dct0v, dct1v, dct2v, dct3v,
  78.                      dct4v, dct5v, dct6v, dct7v );
  79.     permHighv = (vec_u8_t) CV(0x00, 0x01, 0x02, 0x03, 0x04, 0x05, 0x06, 0x07, 0x10, 0x11, 0x12, 0x13, 0x14, 0x15, 0x16, 0x17);
  80.     permLowv  = (vec_u8_t) CV(0x08, 0x09, 0x0A, 0x0B, 0x0C, 0x0D, 0x0E, 0x0F, 0x18, 0x19, 0x1A, 0x1B, 0x1C, 0x1D, 0x1E, 0x1F);
  81.     VEC_DCT( dct0v, dct1v, dct2v, dct3v, tmp0v, tmp1v, tmp2v, tmp3v );
  82.     VEC_DCT( dct4v, dct5v, dct6v, dct7v, tmp4v, tmp5v, tmp6v, tmp7v );
  83.     vec_st(vec_perm(tmp0v, tmp1v, permHighv), 0,   (int16_t*)dct);
  84.     vec_st(vec_perm(tmp2v, tmp3v, permHighv), 16,  (int16_t*)dct);
  85.     vec_st(vec_perm(tmp4v, tmp5v, permHighv), 32,  (int16_t*)dct);
  86.     vec_st(vec_perm(tmp6v, tmp7v, permHighv), 48,  (int16_t*)dct);
  87.     vec_st(vec_perm(tmp0v, tmp1v, permLowv),  64,  (int16_t*)dct);
  88.     vec_st(vec_perm(tmp2v, tmp3v, permLowv),  80,  (int16_t*)dct);
  89.     vec_st(vec_perm(tmp4v, tmp5v, permLowv),  96,  (int16_t*)dct);
  90.     vec_st(vec_perm(tmp6v, tmp7v, permLowv),  112, (int16_t*)dct);
  91. }
  92. void x264_sub16x16_dct_altivec( int16_t dct[16][4][4],
  93.         uint8_t *pix1, uint8_t *pix2 ) 
  94. {
  95.     x264_sub8x8_dct_altivec( &dct[ 0], &pix1[0], &pix2[0] );
  96.     x264_sub8x8_dct_altivec( &dct[ 4], &pix1[8], &pix2[8] );
  97.     x264_sub8x8_dct_altivec( &dct[ 8], &pix1[8*FENC_STRIDE+0], &pix2[8*FDEC_STRIDE+0] );
  98.     x264_sub8x8_dct_altivec( &dct[12], &pix1[8*FENC_STRIDE+8], &pix2[8*FDEC_STRIDE+8] );
  99. }
  100. /***************************************************************************
  101.  * 8x8 transform:
  102.  ***************************************************************************/
  103. /* DCT8_1D unrolled by 8 in Altivec */
  104. #define DCT8_1D_ALTIVEC( dct0v, dct1v, dct2v, dct3v, dct4v, dct5v, dct6v, dct7v ) 
  105.     /* int s07 = SRC(0) + SRC(7);         */ 
  106.     vec_s16_t s07v = vec_add( dct0v, dct7v); 
  107.     /* int s16 = SRC(1) + SRC(6);         */ 
  108.     vec_s16_t s16v = vec_add( dct1v, dct6v); 
  109.     /* int s25 = SRC(2) + SRC(5);         */ 
  110.     vec_s16_t s25v = vec_add( dct2v, dct5v); 
  111.     /* int s34 = SRC(3) + SRC(4);         */ 
  112.     vec_s16_t s34v = vec_add( dct3v, dct4v); 
  113.     /* int a0 = s07 + s34;                */ 
  114.     vec_s16_t a0v = vec_add(s07v, s34v);     
  115.     /* int a1 = s16 + s25;                */ 
  116.     vec_s16_t a1v = vec_add(s16v, s25v);     
  117.     /* int a2 = s07 - s34;                */ 
  118.     vec_s16_t a2v = vec_sub(s07v, s34v);     
  119.     /* int a3 = s16 - s25;                */ 
  120.     vec_s16_t a3v = vec_sub(s16v, s25v);     
  121.     /* int d07 = SRC(0) - SRC(7);         */ 
  122.     vec_s16_t d07v = vec_sub( dct0v, dct7v); 
  123.     /* int d16 = SRC(1) - SRC(6);         */ 
  124.     vec_s16_t d16v = vec_sub( dct1v, dct6v); 
  125.     /* int d25 = SRC(2) - SRC(5);         */ 
  126.     vec_s16_t d25v = vec_sub( dct2v, dct5v); 
  127.     /* int d34 = SRC(3) - SRC(4);         */ 
  128.     vec_s16_t d34v = vec_sub( dct3v, dct4v); 
  129.     /* int a4 = d16 + d25 + (d07 + (d07>>1)); */ 
  130.     vec_s16_t a4v = vec_add( vec_add(d16v, d25v), vec_add(d07v, vec_sra(d07v, onev)) );
  131.     /* int a5 = d07 - d34 - (d25 + (d25>>1)); */ 
  132.     vec_s16_t a5v = vec_sub( vec_sub(d07v, d34v), vec_add(d25v, vec_sra(d25v, onev)) );
  133.     /* int a6 = d07 + d34 - (d16 + (d16>>1)); */ 
  134.     vec_s16_t a6v = vec_sub( vec_add(d07v, d34v), vec_add(d16v, vec_sra(d16v, onev)) );
  135.     /* int a7 = d16 - d25 + (d34 + (d34>>1)); */ 
  136.     vec_s16_t a7v = vec_add( vec_sub(d16v, d25v), vec_add(d34v, vec_sra(d34v, onev)) );
  137.     /* DST(0) =  a0 + a1;                    */ 
  138.     dct0v = vec_add( a0v, a1v );                
  139.     /* DST(1) =  a4 + (a7>>2);               */ 
  140.     dct1v = vec_add( a4v, vec_sra(a7v, twov) ); 
  141.     /* DST(2) =  a2 + (a3>>1);               */ 
  142.     dct2v = vec_add( a2v, vec_sra(a3v, onev) ); 
  143.     /* DST(3) =  a5 + (a6>>2);               */ 
  144.     dct3v = vec_add( a5v, vec_sra(a6v, twov) ); 
  145.     /* DST(4) =  a0 - a1;                    */ 
  146.     dct4v = vec_sub( a0v, a1v );                
  147.     /* DST(5) =  a6 - (a5>>2);               */ 
  148.     dct5v = vec_sub( a6v, vec_sra(a5v, twov) ); 
  149.     /* DST(6) = (a2>>1) - a3 ;               */ 
  150.     dct6v = vec_sub( vec_sra(a2v, onev), a3v ); 
  151.     /* DST(7) = (a4>>2) - a7 ;               */ 
  152.     dct7v = vec_sub( vec_sra(a4v, twov), a7v ); 
  153. }
  154. void x264_sub8x8_dct8_altivec( int16_t dct[8][8], uint8_t *pix1, uint8_t *pix2 )
  155. {
  156.     vec_u16_t onev = vec_splat_u16(1);
  157.     vec_u16_t twov = vec_add( onev, onev );
  158.     PREP_DIFF_8BYTEALIGNED;
  159.     vec_s16_t dct0v, dct1v, dct2v, dct3v,
  160.               dct4v, dct5v, dct6v, dct7v;
  161.     VEC_DIFF_H_8BYTE_ALIGNED( pix1, FENC_STRIDE, pix2, FDEC_STRIDE, 8, dct0v );
  162.     VEC_DIFF_H_8BYTE_ALIGNED( pix1, FENC_STRIDE, pix2, FDEC_STRIDE, 8, dct1v );
  163.     VEC_DIFF_H_8BYTE_ALIGNED( pix1, FENC_STRIDE, pix2, FDEC_STRIDE, 8, dct2v );
  164.     VEC_DIFF_H_8BYTE_ALIGNED( pix1, FENC_STRIDE, pix2, FDEC_STRIDE, 8, dct3v );
  165.     VEC_DIFF_H_8BYTE_ALIGNED( pix1, FENC_STRIDE, pix2, FDEC_STRIDE, 8, dct4v );
  166.     VEC_DIFF_H_8BYTE_ALIGNED( pix1, FENC_STRIDE, pix2, FDEC_STRIDE, 8, dct5v );
  167.     VEC_DIFF_H_8BYTE_ALIGNED( pix1, FENC_STRIDE, pix2, FDEC_STRIDE, 8, dct6v );
  168.     VEC_DIFF_H_8BYTE_ALIGNED( pix1, FENC_STRIDE, pix2, FDEC_STRIDE, 8, dct7v );
  169.     DCT8_1D_ALTIVEC( dct0v, dct1v, dct2v, dct3v,
  170.                      dct4v, dct5v, dct6v, dct7v );
  171.     vec_s16_t dct_tr0v, dct_tr1v, dct_tr2v, dct_tr3v,
  172.         dct_tr4v, dct_tr5v, dct_tr6v, dct_tr7v;
  173.     VEC_TRANSPOSE_8(dct0v, dct1v, dct2v, dct3v,
  174.                     dct4v, dct5v, dct6v, dct7v,
  175.                     dct_tr0v, dct_tr1v, dct_tr2v, dct_tr3v,
  176.                     dct_tr4v, dct_tr5v, dct_tr6v, dct_tr7v );
  177.     DCT8_1D_ALTIVEC( dct_tr0v, dct_tr1v, dct_tr2v, dct_tr3v,
  178.                      dct_tr4v, dct_tr5v, dct_tr6v, dct_tr7v );
  179.     vec_st( dct_tr0v,  0,  (signed short *)dct );
  180.     vec_st( dct_tr1v, 16,  (signed short *)dct );
  181.     vec_st( dct_tr2v, 32,  (signed short *)dct );
  182.     vec_st( dct_tr3v, 48,  (signed short *)dct );
  183.     
  184.     vec_st( dct_tr4v, 64,  (signed short *)dct );
  185.     vec_st( dct_tr5v, 80,  (signed short *)dct );
  186.     vec_st( dct_tr6v, 96,  (signed short *)dct );
  187.     vec_st( dct_tr7v, 112, (signed short *)dct );
  188. }
  189. void x264_sub16x16_dct8_altivec( int16_t dct[4][8][8], uint8_t *pix1, uint8_t *pix2 )
  190. {
  191.     x264_sub8x8_dct8_altivec( dct[0], &pix1[0],               &pix2[0] );
  192.     x264_sub8x8_dct8_altivec( dct[1], &pix1[8],               &pix2[8] );
  193.     x264_sub8x8_dct8_altivec( dct[2], &pix1[8*FENC_STRIDE+0], &pix2[8*FDEC_STRIDE+0] );
  194.     x264_sub8x8_dct8_altivec( dct[3], &pix1[8*FENC_STRIDE+8], &pix2[8*FDEC_STRIDE+8] );
  195. }
  196. /****************************************************************************
  197.  * IDCT transform:
  198.  ****************************************************************************/
  199. #define IDCT_1D_ALTIVEC(s0, s1, s2, s3,  d0, d1, d2, d3) 
  200. {                                                        
  201.     /*        a0  = SRC(0) + SRC(2); */                  
  202.     vec_s16_t a0v = vec_add(s0, s2);                     
  203.     /*        a1  = SRC(0) - SRC(2); */                  
  204.     vec_s16_t a1v = vec_sub(s0, s2);                     
  205.     /*        a2  =           (SRC(1)>>1) - SRC(3); */   
  206.     vec_s16_t a2v = vec_sub(vec_sra(s1, onev), s3);      
  207.     /*        a3  =           (SRC(3)>>1) + SRC(1); */   
  208.     vec_s16_t a3v = vec_add(vec_sra(s3, onev), s1);      
  209.     /* DST(0,    a0 + a3); */                            
  210.     d0 = vec_add(a0v, a3v);                              
  211.     /* DST(1,    a1 + a2); */                            
  212.     d1 = vec_add(a1v, a2v);                              
  213.     /* DST(2,    a1 - a2); */                            
  214.     d2 = vec_sub(a1v, a2v);                              
  215.     /* DST(3,    a0 - a3); */                            
  216.     d3 = vec_sub(a0v, a3v);                              
  217. }
  218. #define VEC_LOAD_U8_ADD_S16_STORE_U8(va)             
  219.     vdst_orig = vec_ld(0, dst);                      
  220.     vdst = vec_perm(vdst_orig, zero_u8v, vdst_mask); 
  221.     vdst_ss = (vec_s16_t)vec_mergeh(zero_u8v, vdst); 
  222.     va = vec_add(va, vdst_ss);                       
  223.     va_u8 = vec_s16_to_u8(va);                       
  224.     va_u32 = vec_splat((vec_u32_t)va_u8, 0);         
  225.     vec_ste(va_u32, element, (uint32_t*)dst);
  226. #define ALTIVEC_STORE4_SUM_CLIP(dest, idctv, perm_ldv)          
  227. {                                                               
  228.     /* unaligned load */                                        
  229.     vec_u8_t lv = vec_ld(0, dest);                              
  230.     vec_u8_t dstv = vec_perm(lv, zero_u8v, (vec_u8_t)perm_ldv); 
  231.     vec_s16_t idct_sh6 = vec_sra(idctv, sixv);                  
  232.     vec_u16_t dst16 = (vec_u16_t)vec_mergeh(zero_u8v, dstv);    
  233.     vec_s16_t idstsum = vec_adds(idct_sh6, (vec_s16_t)dst16);   
  234.     vec_u8_t idstsum8 = vec_s16_to_u8(idstsum);                 
  235.     /* unaligned store */                                       
  236.     vec_u32_t bodyv = vec_splat((vec_u32_t)idstsum8, 0);        
  237.     int element = ((unsigned long)dest & 0xf) >> 2;             
  238.     vec_ste(bodyv, element, (uint32_t *)dest);                  
  239. }
  240. void x264_add4x4_idct_altivec( uint8_t *dst, int16_t dct[4][4] )
  241. {
  242.     vec_u16_t onev = vec_splat_u16(1);
  243.     dct[0][0] += 32; // rounding for the >>6 at the end
  244.     vec_s16_t s0, s1, s2, s3;
  245.     s0 = vec_ld( 0x00, (int16_t*)dct );
  246.     s1 = vec_sld( s0, s0, 8 );
  247.     s2 = vec_ld( 0x10, (int16_t*)dct );
  248.     s3 = vec_sld( s2, s2, 8 );
  249.     vec_s16_t d0, d1, d2, d3;
  250.     IDCT_1D_ALTIVEC( s0, s1, s2, s3, d0, d1, d2, d3 );
  251.     vec_s16_t tr0, tr1, tr2, tr3;
  252.     VEC_TRANSPOSE_4( d0, d1, d2, d3, tr0, tr1, tr2, tr3 );
  253.     vec_s16_t idct0, idct1, idct2, idct3;
  254.     IDCT_1D_ALTIVEC( tr0, tr1, tr2, tr3, idct0, idct1, idct2, idct3 );
  255.     vec_u8_t perm_ldv = vec_lvsl( 0, dst );
  256.     vec_u16_t sixv = vec_splat_u16(6);
  257.     LOAD_ZERO;
  258.     ALTIVEC_STORE4_SUM_CLIP( &dst[0*FDEC_STRIDE], idct0, perm_ldv );
  259.     ALTIVEC_STORE4_SUM_CLIP( &dst[1*FDEC_STRIDE], idct1, perm_ldv );
  260.     ALTIVEC_STORE4_SUM_CLIP( &dst[2*FDEC_STRIDE], idct2, perm_ldv );
  261.     ALTIVEC_STORE4_SUM_CLIP( &dst[3*FDEC_STRIDE], idct3, perm_ldv );
  262. }
  263. void x264_add8x8_idct_altivec( uint8_t *p_dst, int16_t dct[4][4][4] )
  264. {
  265.     x264_add4x4_idct_altivec( &p_dst[0],               dct[0] );
  266.     x264_add4x4_idct_altivec( &p_dst[4],               dct[1] );
  267.     x264_add4x4_idct_altivec( &p_dst[4*FDEC_STRIDE+0], dct[2] );
  268.     x264_add4x4_idct_altivec( &p_dst[4*FDEC_STRIDE+4], dct[3] );
  269. }
  270. void x264_add16x16_idct_altivec( uint8_t *p_dst, int16_t dct[16][4][4] )
  271. {
  272.     x264_add8x8_idct_altivec( &p_dst[0],               &dct[0] );
  273.     x264_add8x8_idct_altivec( &p_dst[8],               &dct[4] );
  274.     x264_add8x8_idct_altivec( &p_dst[8*FDEC_STRIDE+0], &dct[8] );
  275.     x264_add8x8_idct_altivec( &p_dst[8*FDEC_STRIDE+8], &dct[12] );
  276. }
  277. #define IDCT8_1D_ALTIVEC(s0, s1, s2, s3, s4, s5, s6, s7,  d0, d1, d2, d3, d4, d5, d6, d7)
  278. {
  279.     /*        a0  = SRC(0) + SRC(4); */ 
  280.     vec_s16_t a0v = vec_add(s0, s4);    
  281.     /*        a2  = SRC(0) - SRC(4); */ 
  282.     vec_s16_t a2v = vec_sub(s0, s4);    
  283.     /*        a4  =           (SRC(2)>>1) - SRC(6); */ 
  284.     vec_s16_t a4v = vec_sub(vec_sra(s2, onev), s6);    
  285.     /*        a6  =           (SRC(6)>>1) + SRC(2); */ 
  286.     vec_s16_t a6v = vec_add(vec_sra(s6, onev), s2);    
  287.     /*        b0  =         a0 + a6; */ 
  288.     vec_s16_t b0v = vec_add(a0v, a6v);  
  289.     /*        b2  =         a2 + a4; */ 
  290.     vec_s16_t b2v = vec_add(a2v, a4v);  
  291.     /*        b4  =         a2 - a4; */ 
  292.     vec_s16_t b4v = vec_sub(a2v, a4v);  
  293.     /*        b6  =         a0 - a6; */ 
  294.     vec_s16_t b6v = vec_sub(a0v, a6v);  
  295.     /* a1 =  SRC(5) - SRC(3) - SRC(7) - (SRC(7)>>1); */ 
  296.     /*        a1 =             (SRC(5)-SRC(3)) -  (SRC(7)  +  (SRC(7)>>1)); */ 
  297.     vec_s16_t a1v = vec_sub( vec_sub(s5, s3), vec_add(s7, vec_sra(s7, onev)) );
  298.     /* a3 =  SRC(7) + SRC(1) - SRC(3) - (SRC(3)>>1); */ 
  299.     /*        a3 =             (SRC(7)+SRC(1)) -  (SRC(3)  +  (SRC(3)>>1)); */ 
  300.     vec_s16_t a3v = vec_sub( vec_add(s7, s1), vec_add(s3, vec_sra(s3, onev)) );
  301.     /* a5 =  SRC(7) - SRC(1) + SRC(5) + (SRC(5)>>1); */ 
  302.     /*        a5 =             (SRC(7)-SRC(1)) +   SRC(5) +   (SRC(5)>>1); */  
  303.     vec_s16_t a5v = vec_add( vec_sub(s7, s1), vec_add(s5, vec_sra(s5, onev)) );
  304.     /*        a7 =                SRC(5)+SRC(3) +  SRC(1) +   (SRC(1)>>1); */  
  305.     vec_s16_t a7v = vec_add( vec_add(s5, s3), vec_add(s1, vec_sra(s1, onev)) );
  306.     /*        b1 =                  (a7>>2)  +  a1; */  
  307.     vec_s16_t b1v = vec_add( vec_sra(a7v, twov), a1v);  
  308.     /*        b3 =          a3 +        (a5>>2); */     
  309.     vec_s16_t b3v = vec_add(a3v, vec_sra(a5v, twov));   
  310.     /*        b5 =                  (a3>>2)  -   a5; */ 
  311.     vec_s16_t b5v = vec_sub( vec_sra(a3v, twov), a5v);  
  312.     /*        b7 =           a7 -        (a1>>2); */    
  313.     vec_s16_t b7v = vec_sub( a7v, vec_sra(a1v, twov));  
  314.     /* DST(0,    b0 + b7); */ 
  315.     d0 = vec_add(b0v, b7v); 
  316.     /* DST(1,    b2 + b5); */ 
  317.     d1 = vec_add(b2v, b5v); 
  318.     /* DST(2,    b4 + b3); */ 
  319.     d2 = vec_add(b4v, b3v); 
  320.     /* DST(3,    b6 + b1); */ 
  321.     d3 = vec_add(b6v, b1v); 
  322.     /* DST(4,    b6 - b1); */ 
  323.     d4 = vec_sub(b6v, b1v); 
  324.     /* DST(5,    b4 - b3); */ 
  325.     d5 = vec_sub(b4v, b3v); 
  326.     /* DST(6,    b2 - b5); */ 
  327.     d6 = vec_sub(b2v, b5v); 
  328.     /* DST(7,    b0 - b7); */ 
  329.     d7 = vec_sub(b0v, b7v); 
  330. }
  331. #define ALTIVEC_STORE_SUM_CLIP(dest, idctv, perm_ldv, perm_stv, sel)
  332. {
  333.     /* unaligned load */                                       
  334.     vec_u8_t hv = vec_ld( 0, dest );                           
  335.     vec_u8_t lv = vec_ld( 7, dest );                           
  336.     vec_u8_t dstv   = vec_perm( hv, lv, (vec_u8_t)perm_ldv );  
  337.     vec_s16_t idct_sh6 = vec_sra(idctv, sixv);                 
  338.     vec_u16_t dst16 = (vec_u16_t)vec_mergeh(zero_u8v, dstv);   
  339.     vec_s16_t idstsum = vec_adds(idct_sh6, (vec_s16_t)dst16);  
  340.     vec_u8_t idstsum8 = vec_packsu(zero_s16v, idstsum);        
  341.     /* unaligned store */                                      
  342.     vec_u8_t bodyv  = vec_perm( idstsum8, idstsum8, perm_stv );
  343.     vec_u8_t edgelv = vec_perm( sel, zero_u8v, perm_stv );     
  344.     lv    = vec_sel( lv, bodyv, edgelv );                      
  345.     vec_st( lv, 7, dest );                                     
  346.     hv    = vec_ld( 0, dest );                                 
  347.     vec_u8_t edgehv = vec_perm( zero_u8v, sel, perm_stv );     
  348.     hv    = vec_sel( hv, bodyv, edgehv );                      
  349.     vec_st( hv, 0, dest );                                     
  350. }
  351. void x264_add8x8_idct8_altivec( uint8_t *dst, int16_t dct[8][8] )
  352. {
  353.     vec_u16_t onev = vec_splat_u16(1);
  354.     vec_u16_t twov = vec_splat_u16(2);
  355.     dct[0][0] += 32; // rounding for the >>6 at the end
  356.     vec_s16_t s0, s1, s2, s3, s4, s5, s6, s7;
  357.     s0 = vec_ld(0x00, (int16_t*)dct);
  358.     s1 = vec_ld(0x10, (int16_t*)dct);
  359.     s2 = vec_ld(0x20, (int16_t*)dct);
  360.     s3 = vec_ld(0x30, (int16_t*)dct);
  361.     s4 = vec_ld(0x40, (int16_t*)dct);
  362.     s5 = vec_ld(0x50, (int16_t*)dct);
  363.     s6 = vec_ld(0x60, (int16_t*)dct);
  364.     s7 = vec_ld(0x70, (int16_t*)dct);
  365.     vec_s16_t d0, d1, d2, d3, d4, d5, d6, d7;
  366.     IDCT8_1D_ALTIVEC(s0, s1, s2, s3, s4, s5, s6, s7,  d0, d1, d2, d3, d4, d5, d6, d7);
  367.     vec_s16_t tr0, tr1, tr2, tr3, tr4, tr5, tr6, tr7;
  368.     VEC_TRANSPOSE_8( d0,  d1,  d2,  d3,  d4,  d5,  d6, d7,
  369.                     tr0, tr1, tr2, tr3, tr4, tr5, tr6, tr7);
  370.     vec_s16_t idct0, idct1, idct2, idct3, idct4, idct5, idct6, idct7;
  371.     IDCT8_1D_ALTIVEC(tr0,     tr1,   tr2,   tr3,   tr4,   tr5,   tr6,   tr7,
  372.                      idct0, idct1, idct2, idct3, idct4, idct5, idct6, idct7);
  373.     vec_u8_t perm_ldv = vec_lvsl(0, dst);
  374.     vec_u8_t perm_stv = vec_lvsr(8, dst);
  375.     vec_u16_t sixv = vec_splat_u16(6);
  376.     const vec_u8_t sel = (vec_u8_t) CV(0,0,0,0,0,0,0,0,-1,-1,-1,-1,-1,-1,-1,-1);
  377.     LOAD_ZERO;
  378.     ALTIVEC_STORE_SUM_CLIP(&dst[0*FDEC_STRIDE], idct0, perm_ldv, perm_stv, sel);
  379.     ALTIVEC_STORE_SUM_CLIP(&dst[1*FDEC_STRIDE], idct1, perm_ldv, perm_stv, sel);
  380.     ALTIVEC_STORE_SUM_CLIP(&dst[2*FDEC_STRIDE], idct2, perm_ldv, perm_stv, sel);
  381.     ALTIVEC_STORE_SUM_CLIP(&dst[3*FDEC_STRIDE], idct3, perm_ldv, perm_stv, sel);
  382.     ALTIVEC_STORE_SUM_CLIP(&dst[4*FDEC_STRIDE], idct4, perm_ldv, perm_stv, sel);
  383.     ALTIVEC_STORE_SUM_CLIP(&dst[5*FDEC_STRIDE], idct5, perm_ldv, perm_stv, sel);
  384.     ALTIVEC_STORE_SUM_CLIP(&dst[6*FDEC_STRIDE], idct6, perm_ldv, perm_stv, sel);
  385.     ALTIVEC_STORE_SUM_CLIP(&dst[7*FDEC_STRIDE], idct7, perm_ldv, perm_stv, sel);
  386. }
  387. void x264_add16x16_idct8_altivec( uint8_t *dst, int16_t dct[4][8][8] )
  388. {
  389.     x264_add8x8_idct8_altivec( &dst[0],               dct[0] );
  390.     x264_add8x8_idct8_altivec( &dst[8],               dct[1] );
  391.     x264_add8x8_idct8_altivec( &dst[8*FDEC_STRIDE+0], dct[2] );
  392.     x264_add8x8_idct8_altivec( &dst[8*FDEC_STRIDE+8], dct[3] );
  393. }
  394. void x264_zigzag_scan_4x4_frame_altivec( int16_t level[16], int16_t dct[4][4] )
  395. {
  396.     vec_s16_t dct0v, dct1v;
  397.     vec_s16_t tmp0v, tmp1v;
  398.     dct0v = vec_ld(0x00, (int16_t*)dct);
  399.     dct1v = vec_ld(0x10, (int16_t*)dct);
  400.     const vec_u8_t sel0 = (vec_u8_t) CV(0,1,8,9,2,3,4,5,10,11,16,17,24,25,18,19);
  401.     const vec_u8_t sel1 = (vec_u8_t) CV(12,13,6,7,14,15,20,21,26,27,28,29,22,23,30,31);
  402.     tmp0v = vec_perm( dct0v, dct1v, sel0 );
  403.     tmp1v = vec_perm( dct0v, dct1v, sel1 );
  404.     vec_st( tmp0v, 0x00, level );
  405.     vec_st( tmp1v, 0x10, level );
  406. }
  407. void x264_zigzag_scan_4x4_field_altivec( int16_t level[16], int16_t dct[4][4] )
  408. {
  409.     vec_s16_t dct0v, dct1v;
  410.     vec_s16_t tmp0v, tmp1v;
  411.     dct0v = vec_ld(0x00, (int16_t*)dct);
  412.     dct1v = vec_ld(0x10, (int16_t*)dct);
  413.     const vec_u8_t sel0 = (vec_u8_t) CV(0,1,2,3,8,9,4,5,6,7,10,11,12,13,14,15);
  414.     tmp0v = vec_perm( dct0v, dct1v, sel0 );
  415.     tmp1v = dct1v;
  416.     vec_st( tmp0v, 0x00, level );
  417.     vec_st( tmp1v, 0x10, level );
  418. }