dsputil_altivec.c
上传用户:wstnjxml
上传日期:2014-04-03
资源大小:7248k
文件大小:64k
源码类别:

Windows CE

开发平台:

C/C++

  1. /*
  2.  * Copyright (c) 2002 Brian Foley
  3.  * Copyright (c) 2002 Dieter Shirley
  4.  * Copyright (c) 2003-2004 Romain Dolbeau <romain@dolbeau.org>
  5.  *
  6.  * This library is free software; you can redistribute it and/or
  7.  * modify it under the terms of the GNU Lesser General Public
  8.  * License as published by the Free Software Foundation; either
  9.  * version 2 of the License, or (at your option) any later version.
  10.  *
  11.  * This library is distributed in the hope that it will be useful,
  12.  * but WITHOUT ANY WARRANTY; without even the implied warranty of
  13.  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
  14.  * Lesser General Public License for more details.
  15.  *
  16.  * You should have received a copy of the GNU Lesser General Public
  17.  * License along with this library; if not, write to the Free Software
  18.  * Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
  19.  */
  20.  
  21. #include "../dsputil.h"
  22. #include "gcc_fixes.h"
  23. #include "dsputil_altivec.h"
  24. #ifdef CONFIG_DARWIN
  25. #include <sys/sysctl.h>
  26. #else /* CONFIG_DARWIN */
  27. #ifdef __AMIGAOS4__
  28. #include <exec/exec.h>
  29. #include <interfaces/exec.h>
  30. #include <proto/exec.h>
  31. #else /* __AMIGAOS4__ */
  32. #include <signal.h>
  33. #include <setjmp.h>
  34. static sigjmp_buf jmpbuf;
  35. static volatile sig_atomic_t canjump = 0;
  36. static void sigill_handler (int sig)
  37. {
  38.     if (!canjump) {
  39.         signal (sig, SIG_DFL);
  40.         raise (sig);
  41.     }
  42.     
  43.     canjump = 0;
  44.     siglongjmp (jmpbuf, 1);
  45. }
  46. #endif /* CONFIG_DARWIN */
  47. #endif /* __AMIGAOS4__ */
  48. int sad16_x2_altivec(void *v, uint8_t *pix1, uint8_t *pix2, int line_size, int h)
  49. {
  50.     int i;
  51.     int s __attribute__((aligned(16)));
  52.     const_vector unsigned char zero = (const_vector unsigned char)vec_splat_u8(0);
  53.     vector unsigned char *tv;
  54.     vector unsigned char pix1v, pix2v, pix2iv, avgv, t5;
  55.     vector unsigned int sad;
  56.     vector signed int sumdiffs;
  57.     s = 0;
  58.     sad = (vector unsigned int)vec_splat_u32(0);
  59.     for(i=0;i<h;i++) {
  60.         /*
  61.            Read unaligned pixels into our vectors. The vectors are as follows:
  62.            pix1v: pix1[0]-pix1[15]
  63.            pix2v: pix2[0]-pix2[15] pix2iv: pix2[1]-pix2[16]
  64.         */
  65.         tv = (vector unsigned char *) pix1;
  66.         pix1v = vec_perm(tv[0], tv[1], vec_lvsl(0, pix1));
  67.         
  68.         tv = (vector unsigned char *) &pix2[0];
  69.         pix2v = vec_perm(tv[0], tv[1], vec_lvsl(0, &pix2[0]));
  70.         tv = (vector unsigned char *) &pix2[1];
  71.         pix2iv = vec_perm(tv[0], tv[1], vec_lvsl(0, &pix2[1]));
  72.         /* Calculate the average vector */
  73.         avgv = vec_avg(pix2v, pix2iv);
  74.         /* Calculate a sum of abs differences vector */
  75.         t5 = vec_sub(vec_max(pix1v, avgv), vec_min(pix1v, avgv));
  76.         /* Add each 4 pixel group together and put 4 results into sad */
  77.         sad = vec_sum4s(t5, sad);
  78.         
  79.         pix1 += line_size;
  80.         pix2 += line_size;
  81.     }
  82.     /* Sum up the four partial sums, and put the result into s */
  83.     sumdiffs = vec_sums((vector signed int) sad, (vector signed int) zero);
  84.     sumdiffs = vec_splat(sumdiffs, 3);
  85.     vec_ste(sumdiffs, 0, &s);
  86.     return s;
  87. }
  88. int sad16_y2_altivec(void *v, uint8_t *pix1, uint8_t *pix2, int line_size, int h)
  89. {
  90.     int i;
  91.     int s __attribute__((aligned(16)));
  92.     const_vector unsigned char zero = (const_vector unsigned char)vec_splat_u8(0);
  93.     vector unsigned char *tv;
  94.     vector unsigned char pix1v, pix2v, pix3v, avgv, t5;
  95.     vector unsigned int sad;
  96.     vector signed int sumdiffs;
  97.     uint8_t *pix3 = pix2 + line_size;
  98.     s = 0;
  99.     sad = (vector unsigned int)vec_splat_u32(0);
  100.     /*
  101.        Due to the fact that pix3 = pix2 + line_size, the pix3 of one
  102.        iteration becomes pix2 in the next iteration. We can use this
  103.        fact to avoid a potentially expensive unaligned read, each
  104.        time around the loop.
  105.        Read unaligned pixels into our vectors. The vectors are as follows:
  106.        pix2v: pix2[0]-pix2[15]
  107.        Split the pixel vectors into shorts
  108.     */
  109.     tv = (vector unsigned char *) &pix2[0];
  110.     pix2v = vec_perm(tv[0], tv[1], vec_lvsl(0, &pix2[0]));
  111.     
  112.     for(i=0;i<h;i++) {
  113.         /*
  114.            Read unaligned pixels into our vectors. The vectors are as follows:
  115.            pix1v: pix1[0]-pix1[15]
  116.            pix3v: pix3[0]-pix3[15]
  117.         */
  118.         tv = (vector unsigned char *) pix1;
  119.         pix1v = vec_perm(tv[0], tv[1], vec_lvsl(0, pix1));
  120.         tv = (vector unsigned char *) &pix3[0];
  121.         pix3v = vec_perm(tv[0], tv[1], vec_lvsl(0, &pix3[0]));
  122.         /* Calculate the average vector */
  123.         avgv = vec_avg(pix2v, pix3v);
  124.         /* Calculate a sum of abs differences vector */
  125.         t5 = vec_sub(vec_max(pix1v, avgv), vec_min(pix1v, avgv));
  126.         /* Add each 4 pixel group together and put 4 results into sad */
  127.         sad = vec_sum4s(t5, sad);
  128.         
  129.         pix1 += line_size;
  130.         pix2v = pix3v;
  131.         pix3 += line_size;
  132.         
  133.     }
  134.     
  135.     /* Sum up the four partial sums, and put the result into s */
  136.     sumdiffs = vec_sums((vector signed int) sad, (vector signed int) zero);
  137.     sumdiffs = vec_splat(sumdiffs, 3);
  138.     vec_ste(sumdiffs, 0, &s);
  139.     return s;    
  140. }
  141. int sad16_xy2_altivec(void *v, uint8_t *pix1, uint8_t *pix2, int line_size, int h)
  142. {
  143.     int i;
  144.     int s __attribute__((aligned(16)));
  145.     uint8_t *pix3 = pix2 + line_size;
  146.     const_vector unsigned char zero = (const_vector unsigned char)vec_splat_u8(0);
  147.     const_vector unsigned short two = (const_vector unsigned short)vec_splat_u16(2);
  148.     vector unsigned char *tv, avgv, t5;
  149.     vector unsigned char pix1v, pix2v, pix3v, pix2iv, pix3iv;
  150.     vector unsigned short pix2lv, pix2hv, pix2ilv, pix2ihv;
  151.     vector unsigned short pix3lv, pix3hv, pix3ilv, pix3ihv;
  152.     vector unsigned short avghv, avglv;
  153.     vector unsigned short t1, t2, t3, t4;
  154.     vector unsigned int sad;
  155.     vector signed int sumdiffs;
  156.     sad = (vector unsigned int)vec_splat_u32(0);
  157.     
  158.     s = 0;
  159.     /*
  160.        Due to the fact that pix3 = pix2 + line_size, the pix3 of one
  161.        iteration becomes pix2 in the next iteration. We can use this
  162.        fact to avoid a potentially expensive unaligned read, as well
  163.        as some splitting, and vector addition each time around the loop.
  164.        Read unaligned pixels into our vectors. The vectors are as follows:
  165.        pix2v: pix2[0]-pix2[15] pix2iv: pix2[1]-pix2[16]
  166.        Split the pixel vectors into shorts
  167.     */
  168.     tv = (vector unsigned char *) &pix2[0];
  169.     pix2v = vec_perm(tv[0], tv[1], vec_lvsl(0, &pix2[0]));
  170.     tv = (vector unsigned char *) &pix2[1];
  171.     pix2iv = vec_perm(tv[0], tv[1], vec_lvsl(0, &pix2[1]));
  172.     pix2hv = (vector unsigned short) vec_mergeh(zero, pix2v);
  173.     pix2lv = (vector unsigned short) vec_mergel(zero, pix2v);
  174.     pix2ihv = (vector unsigned short) vec_mergeh(zero, pix2iv);
  175.     pix2ilv = (vector unsigned short) vec_mergel(zero, pix2iv);
  176.     t1 = vec_add(pix2hv, pix2ihv);
  177.     t2 = vec_add(pix2lv, pix2ilv);
  178.     
  179.     for(i=0;i<h;i++) {
  180.         /*
  181.            Read unaligned pixels into our vectors. The vectors are as follows:
  182.            pix1v: pix1[0]-pix1[15]
  183.            pix3v: pix3[0]-pix3[15] pix3iv: pix3[1]-pix3[16]
  184.         */
  185.         tv = (vector unsigned char *) pix1;
  186.         pix1v = vec_perm(tv[0], tv[1], vec_lvsl(0, pix1));
  187.         tv = (vector unsigned char *) &pix3[0];
  188.         pix3v = vec_perm(tv[0], tv[1], vec_lvsl(0, &pix3[0]));
  189.         tv = (vector unsigned char *) &pix3[1];
  190.         pix3iv = vec_perm(tv[0], tv[1], vec_lvsl(0, &pix3[1]));
  191.         /*
  192.           Note that Altivec does have vec_avg, but this works on vector pairs
  193.           and rounds up. We could do avg(avg(a,b),avg(c,d)), but the rounding
  194.           would mean that, for example, avg(3,0,0,1) = 2, when it should be 1.
  195.           Instead, we have to split the pixel vectors into vectors of shorts,
  196.           and do the averaging by hand.
  197.         */
  198.         /* Split the pixel vectors into shorts */
  199.         pix3hv = (vector unsigned short) vec_mergeh(zero, pix3v);
  200.         pix3lv = (vector unsigned short) vec_mergel(zero, pix3v);
  201.         pix3ihv = (vector unsigned short) vec_mergeh(zero, pix3iv);
  202.         pix3ilv = (vector unsigned short) vec_mergel(zero, pix3iv);
  203.         /* Do the averaging on them */
  204.         t3 = vec_add(pix3hv, pix3ihv);
  205.         t4 = vec_add(pix3lv, pix3ilv);
  206.         avghv = vec_sr(vec_add(vec_add(t1, t3), two), two);
  207.         avglv = vec_sr(vec_add(vec_add(t2, t4), two), two);
  208.         /* Pack the shorts back into a result */
  209.         avgv = vec_pack(avghv, avglv);
  210.         /* Calculate a sum of abs differences vector */
  211.         t5 = vec_sub(vec_max(pix1v, avgv), vec_min(pix1v, avgv));
  212.         /* Add each 4 pixel group together and put 4 results into sad */
  213.         sad = vec_sum4s(t5, sad);
  214.         pix1 += line_size;
  215.         pix3 += line_size;
  216.         /* Transfer the calculated values for pix3 into pix2 */
  217.         t1 = t3;
  218.         t2 = t4;
  219.     }
  220.     /* Sum up the four partial sums, and put the result into s */
  221.     sumdiffs = vec_sums((vector signed int) sad, (vector signed int) zero);
  222.     sumdiffs = vec_splat(sumdiffs, 3);
  223.     vec_ste(sumdiffs, 0, &s);
  224.     return s;
  225. }
  226. int sad16_altivec(void *v, uint8_t *pix1, uint8_t *pix2, int line_size, int h)
  227. {
  228.     int i;
  229.     int s __attribute__((aligned(16)));
  230.     const_vector unsigned int zero = (const_vector unsigned int)vec_splat_u32(0);
  231.     vector unsigned char perm1, perm2, *pix1v, *pix2v;
  232.     vector unsigned char t1, t2, t3,t4, t5;
  233.     vector unsigned int sad;
  234.     vector signed int sumdiffs;
  235.     
  236.     sad = (vector unsigned int)vec_splat_u32(0);
  237.     for(i=0;i<h;i++) {
  238. /* Read potentially unaligned pixels into t1 and t2 */
  239.         perm1 = vec_lvsl(0, pix1);
  240.         pix1v = (vector unsigned char *) pix1;
  241.         perm2 = vec_lvsl(0, pix2);
  242.         pix2v = (vector unsigned char *) pix2;
  243.         t1 = vec_perm(pix1v[0], pix1v[1], perm1);
  244.         t2 = vec_perm(pix2v[0], pix2v[1], perm2);
  245.        
  246. /* Calculate a sum of abs differences vector */ 
  247.         t3 = vec_max(t1, t2);
  248.         t4 = vec_min(t1, t2);
  249.         t5 = vec_sub(t3, t4);
  250. /* Add each 4 pixel group together and put 4 results into sad */
  251.         sad = vec_sum4s(t5, sad);
  252.         pix1 += line_size;
  253.         pix2 += line_size;
  254.     }
  255.     /* Sum up the four partial sums, and put the result into s */
  256.     sumdiffs = vec_sums((vector signed int) sad, (vector signed int) zero);
  257.     sumdiffs = vec_splat(sumdiffs, 3);
  258.     vec_ste(sumdiffs, 0, &s);
  259.     
  260.     return s;
  261. }
  262. int sad8_altivec(void *v, uint8_t *pix1, uint8_t *pix2, int line_size, int h)
  263. {
  264.     int i;
  265.     int s __attribute__((aligned(16)));
  266.     const_vector unsigned int zero = (const_vector unsigned int)vec_splat_u32(0);
  267.     vector unsigned char perm1, perm2, permclear, *pix1v, *pix2v;
  268.     vector unsigned char t1, t2, t3,t4, t5;
  269.     vector unsigned int sad;
  270.     vector signed int sumdiffs;
  271.     sad = (vector unsigned int)vec_splat_u32(0);
  272.     permclear = (vector unsigned char)AVV(255,255,255,255,255,255,255,255,0,0,0,0,0,0,0,0);
  273.     for(i=0;i<h;i++) {
  274. /* Read potentially unaligned pixels into t1 and t2
  275.    Since we're reading 16 pixels, and actually only want 8,
  276.    mask out the last 8 pixels. The 0s don't change the sum. */
  277.         perm1 = vec_lvsl(0, pix1);
  278.         pix1v = (vector unsigned char *) pix1;
  279.         perm2 = vec_lvsl(0, pix2);
  280.         pix2v = (vector unsigned char *) pix2;
  281.         t1 = vec_and(vec_perm(pix1v[0], pix1v[1], perm1), permclear);
  282.         t2 = vec_and(vec_perm(pix2v[0], pix2v[1], perm2), permclear);
  283. /* Calculate a sum of abs differences vector */ 
  284.         t3 = vec_max(t1, t2);
  285.         t4 = vec_min(t1, t2);
  286.         t5 = vec_sub(t3, t4);
  287. /* Add each 4 pixel group together and put 4 results into sad */
  288.         sad = vec_sum4s(t5, sad);
  289.         pix1 += line_size;
  290.         pix2 += line_size;
  291.     }
  292.     /* Sum up the four partial sums, and put the result into s */
  293.     sumdiffs = vec_sums((vector signed int) sad, (vector signed int) zero);
  294.     sumdiffs = vec_splat(sumdiffs, 3);
  295.     vec_ste(sumdiffs, 0, &s);
  296.     return s;
  297. }
  298. int pix_norm1_altivec(uint8_t *pix, int line_size)
  299. {
  300.     int i;
  301.     int s __attribute__((aligned(16)));
  302.     const_vector unsigned int zero = (const_vector unsigned int)vec_splat_u32(0);
  303.     vector unsigned char *tv;
  304.     vector unsigned char pixv;
  305.     vector unsigned int sv;
  306.     vector signed int sum;
  307.     
  308.     sv = (vector unsigned int)vec_splat_u32(0);
  309.     
  310.     s = 0;
  311.     for (i = 0; i < 16; i++) {
  312.         /* Read in the potentially unaligned pixels */
  313.         tv = (vector unsigned char *) pix;
  314.         pixv = vec_perm(tv[0], tv[1], vec_lvsl(0, pix));
  315.         /* Square the values, and add them to our sum */
  316.         sv = vec_msum(pixv, pixv, sv);
  317.         pix += line_size;
  318.     }
  319.     /* Sum up the four partial sums, and put the result into s */
  320.     sum = vec_sums((vector signed int) sv, (vector signed int) zero);
  321.     sum = vec_splat(sum, 3);
  322.     vec_ste(sum, 0, &s);
  323.     return s;
  324. }
  325. /**
  326.  * Sum of Squared Errors for a 8x8 block.
  327.  * AltiVec-enhanced.
  328.  * It's the sad8_altivec code above w/ squaring added.
  329.  */
  330. int sse8_altivec(void *v, uint8_t *pix1, uint8_t *pix2, int line_size, int h)
  331. {
  332.     int i;
  333.     int s __attribute__((aligned(16)));
  334.     const_vector unsigned int zero = (const_vector unsigned int)vec_splat_u32(0);
  335.     vector unsigned char perm1, perm2, permclear, *pix1v, *pix2v;
  336.     vector unsigned char t1, t2, t3,t4, t5;
  337.     vector unsigned int sum;
  338.     vector signed int sumsqr;
  339.     
  340.     sum = (vector unsigned int)vec_splat_u32(0);
  341.     permclear = (vector unsigned char)AVV(255,255,255,255,255,255,255,255,0,0,0,0,0,0,0,0);
  342.     
  343.     for(i=0;i<h;i++) {
  344. /* Read potentially unaligned pixels into t1 and t2
  345.    Since we're reading 16 pixels, and actually only want 8,
  346.    mask out the last 8 pixels. The 0s don't change the sum. */
  347.         perm1 = vec_lvsl(0, pix1);
  348.         pix1v = (vector unsigned char *) pix1;
  349.         perm2 = vec_lvsl(0, pix2);
  350.         pix2v = (vector unsigned char *) pix2;
  351.         t1 = vec_and(vec_perm(pix1v[0], pix1v[1], perm1), permclear);
  352.         t2 = vec_and(vec_perm(pix2v[0], pix2v[1], perm2), permclear);
  353.         /*
  354.           Since we want to use unsigned chars, we can take advantage
  355.           of the fact that abs(a-b)^2 = (a-b)^2.
  356.         */
  357.         
  358. /* Calculate abs differences vector */ 
  359.         t3 = vec_max(t1, t2);
  360.         t4 = vec_min(t1, t2);
  361.         t5 = vec_sub(t3, t4);
  362.         
  363.         /* Square the values and add them to our sum */
  364.         sum = vec_msum(t5, t5, sum);
  365.         
  366.         pix1 += line_size;
  367.         pix2 += line_size;
  368.     }
  369.     
  370.     /* Sum up the four partial sums, and put the result into s */
  371.     sumsqr = vec_sums((vector signed int) sum, (vector signed int) zero);
  372.     sumsqr = vec_splat(sumsqr, 3);
  373.     vec_ste(sumsqr, 0, &s);
  374.     
  375.     return s;
  376. }
  377. /**
  378.  * Sum of Squared Errors for a 16x16 block.
  379.  * AltiVec-enhanced.
  380.  * It's the sad16_altivec code above w/ squaring added.
  381.  */
  382. int sse16_altivec(void *v, uint8_t *pix1, uint8_t *pix2, int line_size, int h)
  383. {
  384.     int i;
  385.     int s __attribute__((aligned(16)));
  386.     const_vector unsigned int zero = (const_vector unsigned int)vec_splat_u32(0);
  387.     vector unsigned char perm1, perm2, *pix1v, *pix2v;
  388.     vector unsigned char t1, t2, t3,t4, t5;
  389.     vector unsigned int sum;
  390.     vector signed int sumsqr;
  391.     
  392.     sum = (vector unsigned int)vec_splat_u32(0);
  393.     
  394.     for(i=0;i<h;i++) {
  395. /* Read potentially unaligned pixels into t1 and t2 */
  396.         perm1 = vec_lvsl(0, pix1);
  397.         pix1v = (vector unsigned char *) pix1;
  398.         perm2 = vec_lvsl(0, pix2);
  399.         pix2v = (vector unsigned char *) pix2;
  400.         t1 = vec_perm(pix1v[0], pix1v[1], perm1);
  401.         t2 = vec_perm(pix2v[0], pix2v[1], perm2);
  402.         /*
  403.           Since we want to use unsigned chars, we can take advantage
  404.           of the fact that abs(a-b)^2 = (a-b)^2.
  405.         */
  406.         
  407. /* Calculate abs differences vector */ 
  408.         t3 = vec_max(t1, t2);
  409.         t4 = vec_min(t1, t2);
  410.         t5 = vec_sub(t3, t4);
  411.         
  412.         /* Square the values and add them to our sum */
  413.         sum = vec_msum(t5, t5, sum);
  414.         
  415.         pix1 += line_size;
  416.         pix2 += line_size;
  417.     }
  418.     
  419.     /* Sum up the four partial sums, and put the result into s */
  420.     sumsqr = vec_sums((vector signed int) sum, (vector signed int) zero);
  421.     sumsqr = vec_splat(sumsqr, 3);
  422.     vec_ste(sumsqr, 0, &s);
  423.     
  424.     return s;
  425. }
  426. int pix_sum_altivec(uint8_t * pix, int line_size)
  427. {
  428.     const_vector unsigned int zero = (const_vector unsigned int)vec_splat_u32(0);
  429.     vector unsigned char perm, *pixv;
  430.     vector unsigned char t1;
  431.     vector unsigned int sad;
  432.     vector signed int sumdiffs;
  433.     int i;
  434.     int s __attribute__((aligned(16)));
  435.     
  436.     sad = (vector unsigned int)vec_splat_u32(0);
  437.     
  438.     for (i = 0; i < 16; i++) {
  439. /* Read the potentially unaligned 16 pixels into t1 */
  440.         perm = vec_lvsl(0, pix);
  441.         pixv = (vector unsigned char *) pix;
  442.         t1 = vec_perm(pixv[0], pixv[1], perm);
  443. /* Add each 4 pixel group together and put 4 results into sad */
  444.         sad = vec_sum4s(t1, sad);
  445.         
  446.         pix += line_size;
  447.     }
  448.     
  449.     /* Sum up the four partial sums, and put the result into s */
  450.     sumdiffs = vec_sums((vector signed int) sad, (vector signed int) zero);
  451.     sumdiffs = vec_splat(sumdiffs, 3);
  452.     vec_ste(sumdiffs, 0, &s);
  453.     
  454.     return s;
  455. }
  456. void get_pixels_altivec(DCTELEM *restrict block, const uint8_t *pixels, int line_size)
  457. {
  458.     int i;
  459.     vector unsigned char perm, bytes, *pixv;
  460.     const_vector unsigned char zero = (const_vector unsigned char)vec_splat_u8(0);
  461.     vector signed short shorts;
  462.     for(i=0;i<8;i++)
  463.     {
  464.         // Read potentially unaligned pixels.
  465.         // We're reading 16 pixels, and actually only want 8,
  466.         // but we simply ignore the extras.
  467.         perm = vec_lvsl(0, pixels);
  468.         pixv = (vector unsigned char *) pixels;
  469.         bytes = vec_perm(pixv[0], pixv[1], perm);
  470.         // convert the bytes into shorts
  471.         shorts = (vector signed short)vec_mergeh(zero, bytes);
  472.         // save the data to the block, we assume the block is 16-byte aligned
  473.         vec_st(shorts, i*16, (vector signed short*)block);
  474.         pixels += line_size;
  475.     }
  476. }
  477. void diff_pixels_altivec(DCTELEM *restrict block, const uint8_t *s1,
  478.         const uint8_t *s2, int stride)
  479. {
  480.     int i;
  481.     vector unsigned char perm, bytes, *pixv;
  482.     const_vector unsigned char zero = (const_vector unsigned char)vec_splat_u8(0);
  483.     vector signed short shorts1, shorts2;
  484.     for(i=0;i<4;i++)
  485.     {
  486.         // Read potentially unaligned pixels
  487.         // We're reading 16 pixels, and actually only want 8,
  488.         // but we simply ignore the extras.
  489.         perm = vec_lvsl(0, s1);
  490.         pixv = (vector unsigned char *) s1;
  491.         bytes = vec_perm(pixv[0], pixv[1], perm);
  492.         // convert the bytes into shorts
  493.         shorts1 = (vector signed short)vec_mergeh(zero, bytes);
  494.         // Do the same for the second block of pixels
  495.         perm = vec_lvsl(0, s2);
  496.         pixv = (vector unsigned char *) s2;
  497.         bytes = vec_perm(pixv[0], pixv[1], perm);
  498.         // convert the bytes into shorts
  499.         shorts2 = (vector signed short)vec_mergeh(zero, bytes);
  500.         // Do the subtraction
  501.         shorts1 = vec_sub(shorts1, shorts2);
  502.         // save the data to the block, we assume the block is 16-byte aligned
  503.         vec_st(shorts1, 0, (vector signed short*)block);
  504.         s1 += stride;
  505.         s2 += stride;
  506.         block += 8;
  507.         // The code below is a copy of the code above... This is a manual
  508.         // unroll.
  509.         // Read potentially unaligned pixels
  510.         // We're reading 16 pixels, and actually only want 8,
  511.         // but we simply ignore the extras.
  512.         perm = vec_lvsl(0, s1);
  513.         pixv = (vector unsigned char *) s1;
  514.         bytes = vec_perm(pixv[0], pixv[1], perm);
  515.         // convert the bytes into shorts
  516.         shorts1 = (vector signed short)vec_mergeh(zero, bytes);
  517.         // Do the same for the second block of pixels
  518.         perm = vec_lvsl(0, s2);
  519.         pixv = (vector unsigned char *) s2;
  520.         bytes = vec_perm(pixv[0], pixv[1], perm);
  521.         // convert the bytes into shorts
  522.         shorts2 = (vector signed short)vec_mergeh(zero, bytes);
  523.         // Do the subtraction
  524.         shorts1 = vec_sub(shorts1, shorts2);
  525.         // save the data to the block, we assume the block is 16-byte aligned
  526.         vec_st(shorts1, 0, (vector signed short*)block);
  527.         s1 += stride;
  528.         s2 += stride;
  529.         block += 8;
  530.     }
  531. }
  532. void add_bytes_altivec(uint8_t *dst, uint8_t *src, int w) {
  533. #ifdef ALTIVEC_USE_REFERENCE_C_CODE
  534.     int i;
  535.     for(i=0; i+7<w; i++){
  536.         dst[i+0] += src[i+0];
  537.         dst[i+1] += src[i+1];
  538.         dst[i+2] += src[i+2];
  539.         dst[i+3] += src[i+3];
  540.         dst[i+4] += src[i+4];
  541.         dst[i+5] += src[i+5];
  542.         dst[i+6] += src[i+6];
  543.         dst[i+7] += src[i+7];
  544.     }
  545.     for(; i<w; i++)
  546.         dst[i+0] += src[i+0];
  547. #else /* ALTIVEC_USE_REFERENCE_C_CODE */
  548.     register int i;
  549.     register vector unsigned char vdst, vsrc;
  550.     
  551.     /* dst and src are 16 bytes-aligned (guaranteed) */
  552.     for(i = 0 ; (i + 15) < w ; i++)
  553.     {
  554.       vdst = vec_ld(i << 4, (unsigned char*)dst);
  555.       vsrc = vec_ld(i << 4, (unsigned char*)src);
  556.       vdst = vec_add(vsrc, vdst);
  557.       vec_st(vdst, i << 4, (unsigned char*)dst);
  558.     }
  559.     /* if w is not a multiple of 16 */
  560.     for (; (i < w) ; i++)
  561.     {
  562.       dst[i] = src[i];
  563.     }
  564. #endif /* ALTIVEC_USE_REFERENCE_C_CODE */
  565. }
  566. /* next one assumes that ((line_size % 16) == 0) */
  567. void put_pixels16_altivec(uint8_t *block, const uint8_t *pixels, int line_size, int h)
  568. {
  569. POWERPC_PERF_DECLARE(altivec_put_pixels16_num, 1);
  570. #ifdef ALTIVEC_USE_REFERENCE_C_CODE
  571.     int i;
  572. POWERPC_PERF_START_COUNT(altivec_put_pixels16_num, 1);
  573.     for(i=0; i<h; i++) {
  574.       *((uint32_t*)(block)) = LD32(pixels);
  575.       *((uint32_t*)(block+4)) = LD32(pixels+4);
  576.       *((uint32_t*)(block+8)) = LD32(pixels+8);
  577.       *((uint32_t*)(block+12)) = LD32(pixels+12);
  578.       pixels+=line_size;
  579.       block +=line_size;
  580.     }
  581. POWERPC_PERF_STOP_COUNT(altivec_put_pixels16_num, 1);
  582. #else /* ALTIVEC_USE_REFERENCE_C_CODE */
  583.     register vector unsigned char pixelsv1, pixelsv2;
  584.     register vector unsigned char pixelsv1B, pixelsv2B;
  585.     register vector unsigned char pixelsv1C, pixelsv2C;
  586.     register vector unsigned char pixelsv1D, pixelsv2D;
  587.     register vector unsigned char perm = vec_lvsl(0, pixels);
  588.     int i;
  589.     register int line_size_2 = line_size << 1;
  590.     register int line_size_3 = line_size + line_size_2;
  591.     register int line_size_4 = line_size << 2;
  592. POWERPC_PERF_START_COUNT(altivec_put_pixels16_num, 1);
  593. // hand-unrolling the loop by 4 gains about 15%
  594. // mininum execution time goes from 74 to 60 cycles
  595. // it's faster than -funroll-loops, but using
  596. // -funroll-loops w/ this is bad - 74 cycles again.
  597. // all this is on a 7450, tuning for the 7450
  598. #if 0
  599.     for(i=0; i<h; i++) {
  600.       pixelsv1 = vec_ld(0, (unsigned char*)pixels);
  601.       pixelsv2 = vec_ld(16, (unsigned char*)pixels);
  602.       vec_st(vec_perm(pixelsv1, pixelsv2, perm),
  603.              0, (unsigned char*)block);
  604.       pixels+=line_size;
  605.       block +=line_size;
  606.     }
  607. #else
  608.     for(i=0; i<h; i+=4) {
  609.       pixelsv1 = vec_ld(0, (unsigned char*)pixels);
  610.       pixelsv2 = vec_ld(16, (unsigned char*)pixels);
  611.       pixelsv1B = vec_ld(line_size, (unsigned char*)pixels);
  612.       pixelsv2B = vec_ld(16 + line_size, (unsigned char*)pixels);
  613.       pixelsv1C = vec_ld(line_size_2, (unsigned char*)pixels);
  614.       pixelsv2C = vec_ld(16 + line_size_2, (unsigned char*)pixels);
  615.       pixelsv1D = vec_ld(line_size_3, (unsigned char*)pixels);
  616.       pixelsv2D = vec_ld(16 + line_size_3, (unsigned char*)pixels);
  617.       vec_st(vec_perm(pixelsv1, pixelsv2, perm),
  618.              0, (unsigned char*)block);
  619.       vec_st(vec_perm(pixelsv1B, pixelsv2B, perm),
  620.              line_size, (unsigned char*)block);
  621.       vec_st(vec_perm(pixelsv1C, pixelsv2C, perm),
  622.              line_size_2, (unsigned char*)block);
  623.       vec_st(vec_perm(pixelsv1D, pixelsv2D, perm),
  624.              line_size_3, (unsigned char*)block);
  625.       pixels+=line_size_4;
  626.       block +=line_size_4;
  627.     }
  628. #endif
  629. POWERPC_PERF_STOP_COUNT(altivec_put_pixels16_num, 1);
  630. #endif /* ALTIVEC_USE_REFERENCE_C_CODE */
  631. }
  632. /* next one assumes that ((line_size % 16) == 0) */
  633. #define op_avg(a,b)  a = ( ((a)|(b)) - ((((a)^(b))&0xFEFEFEFEUL)>>1) )
  634. void avg_pixels16_altivec(uint8_t *block, const uint8_t *pixels, int line_size, int h)
  635. {
  636. POWERPC_PERF_DECLARE(altivec_avg_pixels16_num, 1);
  637. #ifdef ALTIVEC_USE_REFERENCE_C_CODE
  638.     int i;
  639. POWERPC_PERF_START_COUNT(altivec_avg_pixels16_num, 1);
  640.     for(i=0; i<h; i++) {
  641.       op_avg(*((uint32_t*)(block)),LD32(pixels));
  642.       op_avg(*((uint32_t*)(block+4)),LD32(pixels+4));
  643.       op_avg(*((uint32_t*)(block+8)),LD32(pixels+8));
  644.       op_avg(*((uint32_t*)(block+12)),LD32(pixels+12));
  645.       pixels+=line_size;
  646.       block +=line_size;
  647.     }
  648. POWERPC_PERF_STOP_COUNT(altivec_avg_pixels16_num, 1);
  649. #else /* ALTIVEC_USE_REFERENCE_C_CODE */
  650.     register vector unsigned char pixelsv1, pixelsv2, pixelsv, blockv;
  651.     register vector unsigned char perm = vec_lvsl(0, pixels);
  652.     int i;
  653. POWERPC_PERF_START_COUNT(altivec_avg_pixels16_num, 1);
  654.     for(i=0; i<h; i++) {
  655.       pixelsv1 = vec_ld(0, (unsigned char*)pixels);
  656.       pixelsv2 = vec_ld(16, (unsigned char*)pixels);
  657.       blockv = vec_ld(0, block);
  658.       pixelsv = vec_perm(pixelsv1, pixelsv2, perm);
  659.       blockv = vec_avg(blockv,pixelsv);
  660.       vec_st(blockv, 0, (unsigned char*)block);
  661.       pixels+=line_size;
  662.       block +=line_size;
  663.     }
  664. POWERPC_PERF_STOP_COUNT(altivec_avg_pixels16_num, 1);
  665. #endif /* ALTIVEC_USE_REFERENCE_C_CODE */
  666. }
  667. /* next one assumes that ((line_size % 8) == 0) */
  668. void avg_pixels8_altivec(uint8_t * block, const uint8_t * pixels, int line_size, int h)
  669. {
  670. POWERPC_PERF_DECLARE(altivec_avg_pixels8_num, 1);
  671. #ifdef ALTIVEC_USE_REFERENCE_C_CODE
  672.     int i;
  673. POWERPC_PERF_START_COUNT(altivec_avg_pixels8_num, 1);
  674.     for (i = 0; i < h; i++) {
  675.         *((uint32_t *) (block)) =
  676.             (((*((uint32_t *) (block))) |
  677.               ((((const struct unaligned_32 *) (pixels))->l))) -
  678.              ((((*((uint32_t *) (block))) ^
  679.                 ((((const struct unaligned_32 *) (pixels))->
  680.                   l))) & 0xFEFEFEFEUL) >> 1));
  681.         *((uint32_t *) (block + 4)) =
  682.             (((*((uint32_t *) (block + 4))) |
  683.               ((((const struct unaligned_32 *) (pixels + 4))->l))) -
  684.              ((((*((uint32_t *) (block + 4))) ^
  685.                 ((((const struct unaligned_32 *) (pixels +
  686.                                                   4))->
  687.                   l))) & 0xFEFEFEFEUL) >> 1));
  688.         pixels += line_size;
  689.         block += line_size;
  690.     }
  691. POWERPC_PERF_STOP_COUNT(altivec_avg_pixels8_num, 1);
  692. #else /* ALTIVEC_USE_REFERENCE_C_CODE */
  693.     register vector unsigned char pixelsv1, pixelsv2, pixelsv, blockv;
  694.     int i;
  695. POWERPC_PERF_START_COUNT(altivec_avg_pixels8_num, 1);
  696.  
  697.    for (i = 0; i < h; i++) {
  698.      /*
  699.        block is 8 bytes-aligned, so we're either in the
  700.        left block (16 bytes-aligned) or in the right block (not)
  701.      */
  702.      int rightside = ((unsigned long)block & 0x0000000F);
  703.      
  704.      blockv = vec_ld(0, block);
  705.      pixelsv1 = vec_ld(0, (unsigned char*)pixels);
  706.      pixelsv2 = vec_ld(16, (unsigned char*)pixels);
  707.      pixelsv = vec_perm(pixelsv1, pixelsv2, vec_lvsl(0, pixels));
  708.      
  709.      if (rightside)
  710.      {
  711.        pixelsv = vec_perm(blockv, pixelsv, vcprm(0,1,s0,s1));
  712.      }
  713.      else
  714.      {
  715.        pixelsv = vec_perm(blockv, pixelsv, vcprm(s0,s1,2,3));
  716.      }
  717.      
  718.      blockv = vec_avg(blockv, pixelsv);
  719.      vec_st(blockv, 0, block);
  720.      
  721.      pixels += line_size;
  722.      block += line_size;
  723.    }
  724.    
  725. POWERPC_PERF_STOP_COUNT(altivec_avg_pixels8_num, 1);
  726.  
  727. #endif /* ALTIVEC_USE_REFERENCE_C_CODE */
  728. }
  729. /* next one assumes that ((line_size % 8) == 0) */
  730. void put_pixels8_xy2_altivec(uint8_t *block, const uint8_t *pixels, int line_size, int h)
  731. {
  732. POWERPC_PERF_DECLARE(altivec_put_pixels8_xy2_num, 1);
  733. #ifdef ALTIVEC_USE_REFERENCE_C_CODE
  734.     int j;
  735. POWERPC_PERF_START_COUNT(altivec_put_pixels8_xy2_num, 1);
  736.     for (j = 0; j < 2; j++) {
  737.       int i;
  738.       const uint32_t a = (((const struct unaligned_32 *) (pixels))->l);
  739.       const uint32_t b =
  740.         (((const struct unaligned_32 *) (pixels + 1))->l);
  741.       uint32_t l0 =
  742.         (a & 0x03030303UL) + (b & 0x03030303UL) + 0x02020202UL;
  743.       uint32_t h0 =
  744.         ((a & 0xFCFCFCFCUL) >> 2) + ((b & 0xFCFCFCFCUL) >> 2);
  745.       uint32_t l1, h1;
  746.       pixels += line_size;
  747.       for (i = 0; i < h; i += 2) {
  748.         uint32_t a = (((const struct unaligned_32 *) (pixels))->l);
  749.         uint32_t b = (((const struct unaligned_32 *) (pixels + 1))->l);
  750.         l1 = (a & 0x03030303UL) + (b & 0x03030303UL);
  751.         h1 = ((a & 0xFCFCFCFCUL) >> 2) + ((b & 0xFCFCFCFCUL) >> 2);
  752.         *((uint32_t *) block) =
  753.           h0 + h1 + (((l0 + l1) >> 2) & 0x0F0F0F0FUL);
  754.         pixels += line_size;
  755.         block += line_size;
  756.         a = (((const struct unaligned_32 *) (pixels))->l);
  757.         b = (((const struct unaligned_32 *) (pixels + 1))->l);
  758.         l0 = (a & 0x03030303UL) + (b & 0x03030303UL) + 0x02020202UL;
  759.         h0 = ((a & 0xFCFCFCFCUL) >> 2) + ((b & 0xFCFCFCFCUL) >> 2);
  760.         *((uint32_t *) block) =
  761.           h0 + h1 + (((l0 + l1) >> 2) & 0x0F0F0F0FUL);
  762.         pixels += line_size;
  763.         block += line_size;
  764.       } pixels += 4 - line_size * (h + 1);
  765.       block += 4 - line_size * h;
  766.     }
  767. POWERPC_PERF_STOP_COUNT(altivec_put_pixels8_xy2_num, 1);
  768. #else /* ALTIVEC_USE_REFERENCE_C_CODE */
  769.    register int i;
  770.    register vector unsigned char
  771.      pixelsv1, pixelsv2,
  772.      pixelsavg;
  773.    register vector unsigned char
  774.      blockv, temp1, temp2;
  775.    register vector unsigned short
  776.      pixelssum1, pixelssum2, temp3;
  777.    register const_vector unsigned char vczero = (const_vector unsigned char)vec_splat_u8(0);
  778.    register const_vector unsigned short vctwo = (const_vector unsigned short)vec_splat_u16(2);
  779.    
  780.    temp1 = vec_ld(0, pixels);
  781.    temp2 = vec_ld(16, pixels);
  782.    pixelsv1 = vec_perm(temp1, temp2, vec_lvsl(0, pixels));
  783.    if ((((unsigned long)pixels) & 0x0000000F) ==  0x0000000F)
  784.    {
  785.      pixelsv2 = temp2;
  786.    }
  787.    else
  788.    {
  789.      pixelsv2 = vec_perm(temp1, temp2, vec_lvsl(1, pixels));
  790.    }
  791.    pixelsv1 = vec_mergeh(vczero, pixelsv1);
  792.    pixelsv2 = vec_mergeh(vczero, pixelsv2);
  793.    pixelssum1 = vec_add((vector unsigned short)pixelsv1,
  794.                         (vector unsigned short)pixelsv2);
  795.    pixelssum1 = vec_add(pixelssum1, vctwo);
  796.    
  797. POWERPC_PERF_START_COUNT(altivec_put_pixels8_xy2_num, 1); 
  798.    for (i = 0; i < h ; i++) {
  799.      int rightside = ((unsigned long)block & 0x0000000F);
  800.      blockv = vec_ld(0, block);
  801.      temp1 = vec_ld(line_size, pixels);
  802.      temp2 = vec_ld(line_size + 16, pixels);
  803.      pixelsv1 = vec_perm(temp1, temp2, vec_lvsl(line_size, pixels));
  804.      if (((((unsigned long)pixels) + line_size) & 0x0000000F) ==  0x0000000F)
  805.      {
  806.        pixelsv2 = temp2;
  807.      }
  808.      else
  809.      {
  810.        pixelsv2 = vec_perm(temp1, temp2, vec_lvsl(line_size + 1, pixels));
  811.      }
  812.      pixelsv1 = vec_mergeh(vczero, pixelsv1);
  813.      pixelsv2 = vec_mergeh(vczero, pixelsv2);
  814.      pixelssum2 = vec_add((vector unsigned short)pixelsv1,
  815.                           (vector unsigned short)pixelsv2);
  816.      temp3 = vec_add(pixelssum1, pixelssum2);
  817.      temp3 = vec_sra(temp3, vctwo);
  818.      pixelssum1 = vec_add(pixelssum2, vctwo);
  819.      pixelsavg = vec_packsu(temp3, (vector unsigned short) vczero);
  820.      
  821.      if (rightside)
  822.      {
  823.        blockv = vec_perm(blockv, pixelsavg, vcprm(0, 1, s0, s1));
  824.      }
  825.      else
  826.      {
  827.        blockv = vec_perm(blockv, pixelsavg, vcprm(s0, s1, 2, 3));
  828.      }
  829.      
  830.      vec_st(blockv, 0, block);
  831.      
  832.      block += line_size;
  833.      pixels += line_size;
  834.    }
  835.    
  836. POWERPC_PERF_STOP_COUNT(altivec_put_pixels8_xy2_num, 1);
  837. #endif /* ALTIVEC_USE_REFERENCE_C_CODE */
  838. }
  839. /* next one assumes that ((line_size % 8) == 0) */
  840. void put_no_rnd_pixels8_xy2_altivec(uint8_t *block, const uint8_t *pixels, int line_size, int h)
  841. {
  842. POWERPC_PERF_DECLARE(altivec_put_no_rnd_pixels8_xy2_num, 1);
  843. #ifdef ALTIVEC_USE_REFERENCE_C_CODE
  844.     int j;
  845. POWERPC_PERF_START_COUNT(altivec_put_no_rnd_pixels8_xy2_num, 1);
  846.     for (j = 0; j < 2; j++) {
  847.       int i;
  848.       const uint32_t a = (((const struct unaligned_32 *) (pixels))->l);
  849.       const uint32_t b =
  850.         (((const struct unaligned_32 *) (pixels + 1))->l);
  851.       uint32_t l0 =
  852.         (a & 0x03030303UL) + (b & 0x03030303UL) + 0x01010101UL;
  853.       uint32_t h0 =
  854.         ((a & 0xFCFCFCFCUL) >> 2) + ((b & 0xFCFCFCFCUL) >> 2);
  855.       uint32_t l1, h1;
  856.       pixels += line_size;
  857.       for (i = 0; i < h; i += 2) {
  858.         uint32_t a = (((const struct unaligned_32 *) (pixels))->l);
  859.         uint32_t b = (((const struct unaligned_32 *) (pixels + 1))->l);
  860.         l1 = (a & 0x03030303UL) + (b & 0x03030303UL);
  861.         h1 = ((a & 0xFCFCFCFCUL) >> 2) + ((b & 0xFCFCFCFCUL) >> 2);
  862.         *((uint32_t *) block) =
  863.           h0 + h1 + (((l0 + l1) >> 2) & 0x0F0F0F0FUL);
  864.         pixels += line_size;
  865.         block += line_size;
  866.         a = (((const struct unaligned_32 *) (pixels))->l);
  867.         b = (((const struct unaligned_32 *) (pixels + 1))->l);
  868.         l0 = (a & 0x03030303UL) + (b & 0x03030303UL) + 0x01010101UL;
  869.         h0 = ((a & 0xFCFCFCFCUL) >> 2) + ((b & 0xFCFCFCFCUL) >> 2);
  870.         *((uint32_t *) block) =
  871.           h0 + h1 + (((l0 + l1) >> 2) & 0x0F0F0F0FUL);
  872.         pixels += line_size;
  873.         block += line_size;
  874.       } pixels += 4 - line_size * (h + 1);
  875.       block += 4 - line_size * h;
  876.     }
  877.     
  878. POWERPC_PERF_STOP_COUNT(altivec_put_no_rnd_pixels8_xy2_num, 1);
  879. #else /* ALTIVEC_USE_REFERENCE_C_CODE */
  880.    register int i;
  881.    register vector unsigned char
  882.      pixelsv1, pixelsv2,
  883.      pixelsavg;
  884.    register vector unsigned char
  885.      blockv, temp1, temp2;
  886.    register vector unsigned short
  887.      pixelssum1, pixelssum2, temp3;
  888.    register const_vector unsigned char vczero = (const_vector unsigned char)vec_splat_u8(0);
  889.    register const_vector unsigned short vcone = (const_vector unsigned short)vec_splat_u16(1);
  890.    register const_vector unsigned short vctwo = (const_vector unsigned short)vec_splat_u16(2);
  891.    
  892.    temp1 = vec_ld(0, pixels);
  893.    temp2 = vec_ld(16, pixels);
  894.    pixelsv1 = vec_perm(temp1, temp2, vec_lvsl(0, pixels));
  895.    if ((((unsigned long)pixels) & 0x0000000F) ==  0x0000000F)
  896.    {
  897.      pixelsv2 = temp2;
  898.    }
  899.    else
  900.    {
  901.      pixelsv2 = vec_perm(temp1, temp2, vec_lvsl(1, pixels));
  902.    }
  903.    pixelsv1 = vec_mergeh(vczero, pixelsv1);
  904.    pixelsv2 = vec_mergeh(vczero, pixelsv2);
  905.    pixelssum1 = vec_add((vector unsigned short)pixelsv1,
  906.                         (vector unsigned short)pixelsv2);
  907.    pixelssum1 = vec_add(pixelssum1, vcone);
  908.    
  909. POWERPC_PERF_START_COUNT(altivec_put_no_rnd_pixels8_xy2_num, 1); 
  910.    for (i = 0; i < h ; i++) {
  911.      int rightside = ((unsigned long)block & 0x0000000F);
  912.      blockv = vec_ld(0, block);
  913.      temp1 = vec_ld(line_size, pixels);
  914.      temp2 = vec_ld(line_size + 16, pixels);
  915.      pixelsv1 = vec_perm(temp1, temp2, vec_lvsl(line_size, pixels));
  916.      if (((((unsigned long)pixels) + line_size) & 0x0000000F) ==  0x0000000F)
  917.      {
  918.        pixelsv2 = temp2;
  919.      }
  920.      else
  921.      {
  922.        pixelsv2 = vec_perm(temp1, temp2, vec_lvsl(line_size + 1, pixels));
  923.      }
  924.      pixelsv1 = vec_mergeh(vczero, pixelsv1);
  925.      pixelsv2 = vec_mergeh(vczero, pixelsv2);
  926.      pixelssum2 = vec_add((vector unsigned short)pixelsv1,
  927.                           (vector unsigned short)pixelsv2);
  928.      temp3 = vec_add(pixelssum1, pixelssum2);
  929.      temp3 = vec_sra(temp3, vctwo);
  930.      pixelssum1 = vec_add(pixelssum2, vcone);
  931.      pixelsavg = vec_packsu(temp3, (vector unsigned short) vczero);
  932.      
  933.      if (rightside)
  934.      {
  935.        blockv = vec_perm(blockv, pixelsavg, vcprm(0, 1, s0, s1));
  936.      }
  937.      else
  938.      {
  939.        blockv = vec_perm(blockv, pixelsavg, vcprm(s0, s1, 2, 3));
  940.      }
  941.      
  942.      vec_st(blockv, 0, block);
  943.      
  944.      block += line_size;
  945.      pixels += line_size;
  946.    }
  947.    
  948. POWERPC_PERF_STOP_COUNT(altivec_put_no_rnd_pixels8_xy2_num, 1);
  949. #endif /* ALTIVEC_USE_REFERENCE_C_CODE */
  950. }
  951. /* next one assumes that ((line_size % 16) == 0) */
  952. void put_pixels16_xy2_altivec(uint8_t * block, const uint8_t * pixels, int line_size, int h)
  953. {
  954. POWERPC_PERF_DECLARE(altivec_put_pixels16_xy2_num, 1);
  955. #ifdef ALTIVEC_USE_REFERENCE_C_CODE
  956.     int j;
  957. POWERPC_PERF_START_COUNT(altivec_put_pixels16_xy2_num, 1);
  958.       for (j = 0; j < 4; j++) {
  959.       int i;
  960.       const uint32_t a = (((const struct unaligned_32 *) (pixels))->l);
  961.       const uint32_t b =
  962.         (((const struct unaligned_32 *) (pixels + 1))->l);
  963.       uint32_t l0 =
  964.         (a & 0x03030303UL) + (b & 0x03030303UL) + 0x02020202UL;
  965.       uint32_t h0 =
  966.         ((a & 0xFCFCFCFCUL) >> 2) + ((b & 0xFCFCFCFCUL) >> 2);
  967.       uint32_t l1, h1;
  968.       pixels += line_size;
  969.       for (i = 0; i < h; i += 2) {
  970.         uint32_t a = (((const struct unaligned_32 *) (pixels))->l);
  971.         uint32_t b = (((const struct unaligned_32 *) (pixels + 1))->l);
  972.         l1 = (a & 0x03030303UL) + (b & 0x03030303UL);
  973.         h1 = ((a & 0xFCFCFCFCUL) >> 2) + ((b & 0xFCFCFCFCUL) >> 2);
  974.         *((uint32_t *) block) =
  975.           h0 + h1 + (((l0 + l1) >> 2) & 0x0F0F0F0FUL);
  976.         pixels += line_size;
  977.         block += line_size;
  978.         a = (((const struct unaligned_32 *) (pixels))->l);
  979.         b = (((const struct unaligned_32 *) (pixels + 1))->l);
  980.         l0 = (a & 0x03030303UL) + (b & 0x03030303UL) + 0x02020202UL;
  981.         h0 = ((a & 0xFCFCFCFCUL) >> 2) + ((b & 0xFCFCFCFCUL) >> 2);
  982.         *((uint32_t *) block) =
  983.           h0 + h1 + (((l0 + l1) >> 2) & 0x0F0F0F0FUL);
  984.         pixels += line_size;
  985.         block += line_size;
  986.       } pixels += 4 - line_size * (h + 1);
  987.       block += 4 - line_size * h;
  988.     }
  989. POWERPC_PERF_STOP_COUNT(altivec_put_pixels16_xy2_num, 1);
  990. #else /* ALTIVEC_USE_REFERENCE_C_CODE */
  991.    register int i;
  992.    register vector unsigned char
  993.      pixelsv1, pixelsv2, pixelsv3, pixelsv4;
  994.    register vector unsigned char
  995.      blockv, temp1, temp2;
  996.    register vector unsigned short
  997.      pixelssum1, pixelssum2, temp3,
  998.      pixelssum3, pixelssum4, temp4;
  999.    register const_vector unsigned char vczero = (const_vector unsigned char)vec_splat_u8(0);
  1000.    register const_vector unsigned short vctwo = (const_vector unsigned short)vec_splat_u16(2);
  1001. POWERPC_PERF_START_COUNT(altivec_put_pixels16_xy2_num, 1);
  1002.  
  1003.    temp1 = vec_ld(0, pixels);
  1004.    temp2 = vec_ld(16, pixels);
  1005.    pixelsv1 = vec_perm(temp1, temp2, vec_lvsl(0, pixels));
  1006.    if ((((unsigned long)pixels) & 0x0000000F) ==  0x0000000F)
  1007.    {
  1008.      pixelsv2 = temp2;
  1009.    }
  1010.    else
  1011.    {
  1012.      pixelsv2 = vec_perm(temp1, temp2, vec_lvsl(1, pixels));
  1013.    }
  1014.    pixelsv3 = vec_mergel(vczero, pixelsv1);
  1015.    pixelsv4 = vec_mergel(vczero, pixelsv2);
  1016.    pixelsv1 = vec_mergeh(vczero, pixelsv1);
  1017.    pixelsv2 = vec_mergeh(vczero, pixelsv2);
  1018.    pixelssum3 = vec_add((vector unsigned short)pixelsv3,
  1019.                         (vector unsigned short)pixelsv4);
  1020.    pixelssum3 = vec_add(pixelssum3, vctwo);
  1021.    pixelssum1 = vec_add((vector unsigned short)pixelsv1,
  1022.                         (vector unsigned short)pixelsv2);
  1023.    pixelssum1 = vec_add(pixelssum1, vctwo);
  1024.    
  1025.    for (i = 0; i < h ; i++) {
  1026.      blockv = vec_ld(0, block);
  1027.      temp1 = vec_ld(line_size, pixels);
  1028.      temp2 = vec_ld(line_size + 16, pixels);
  1029.      pixelsv1 = vec_perm(temp1, temp2, vec_lvsl(line_size, pixels));
  1030.      if (((((unsigned long)pixels) + line_size) & 0x0000000F) ==  0x0000000F)
  1031.      {
  1032.        pixelsv2 = temp2;
  1033.      }
  1034.      else
  1035.      {
  1036.        pixelsv2 = vec_perm(temp1, temp2, vec_lvsl(line_size + 1, pixels));
  1037.      }
  1038.      pixelsv3 = vec_mergel(vczero, pixelsv1);
  1039.      pixelsv4 = vec_mergel(vczero, pixelsv2);
  1040.      pixelsv1 = vec_mergeh(vczero, pixelsv1);
  1041.      pixelsv2 = vec_mergeh(vczero, pixelsv2);
  1042.      
  1043.      pixelssum4 = vec_add((vector unsigned short)pixelsv3,
  1044.                           (vector unsigned short)pixelsv4);
  1045.      pixelssum2 = vec_add((vector unsigned short)pixelsv1,
  1046.                           (vector unsigned short)pixelsv2);
  1047.      temp4 = vec_add(pixelssum3, pixelssum4);
  1048.      temp4 = vec_sra(temp4, vctwo);
  1049.      temp3 = vec_add(pixelssum1, pixelssum2);
  1050.      temp3 = vec_sra(temp3, vctwo);
  1051.      pixelssum3 = vec_add(pixelssum4, vctwo);
  1052.      pixelssum1 = vec_add(pixelssum2, vctwo);
  1053.      blockv = vec_packsu(temp3, temp4);
  1054.      
  1055.      vec_st(blockv, 0, block);
  1056.      
  1057.      block += line_size;
  1058.      pixels += line_size;
  1059.    }
  1060.    
  1061. POWERPC_PERF_STOP_COUNT(altivec_put_pixels16_xy2_num, 1);
  1062. #endif /* ALTIVEC_USE_REFERENCE_C_CODE */
  1063. }
  1064. /* next one assumes that ((line_size % 16) == 0) */
  1065. void put_no_rnd_pixels16_xy2_altivec(uint8_t * block, const uint8_t * pixels, int line_size, int h)
  1066. {
  1067. POWERPC_PERF_DECLARE(altivec_put_no_rnd_pixels16_xy2_num, 1);
  1068. #ifdef ALTIVEC_USE_REFERENCE_C_CODE
  1069.     int j;
  1070. POWERPC_PERF_START_COUNT(altivec_put_no_rnd_pixels16_xy2_num, 1);
  1071.       for (j = 0; j < 4; j++) {
  1072.       int i;
  1073.       const uint32_t a = (((const struct unaligned_32 *) (pixels))->l);
  1074.       const uint32_t b =
  1075.         (((const struct unaligned_32 *) (pixels + 1))->l);
  1076.       uint32_t l0 =
  1077.         (a & 0x03030303UL) + (b & 0x03030303UL) + 0x01010101UL;
  1078.       uint32_t h0 =
  1079.         ((a & 0xFCFCFCFCUL) >> 2) + ((b & 0xFCFCFCFCUL) >> 2);
  1080.       uint32_t l1, h1;
  1081.       pixels += line_size;
  1082.       for (i = 0; i < h; i += 2) {
  1083.         uint32_t a = (((const struct unaligned_32 *) (pixels))->l);
  1084.         uint32_t b = (((const struct unaligned_32 *) (pixels + 1))->l);
  1085.         l1 = (a & 0x03030303UL) + (b & 0x03030303UL);
  1086.         h1 = ((a & 0xFCFCFCFCUL) >> 2) + ((b & 0xFCFCFCFCUL) >> 2);
  1087.         *((uint32_t *) block) =
  1088.           h0 + h1 + (((l0 + l1) >> 2) & 0x0F0F0F0FUL);
  1089.         pixels += line_size;
  1090.         block += line_size;
  1091.         a = (((const struct unaligned_32 *) (pixels))->l);
  1092.         b = (((const struct unaligned_32 *) (pixels + 1))->l);
  1093.         l0 = (a & 0x03030303UL) + (b & 0x03030303UL) + 0x01010101UL;
  1094.         h0 = ((a & 0xFCFCFCFCUL) >> 2) + ((b & 0xFCFCFCFCUL) >> 2);
  1095.         *((uint32_t *) block) =
  1096.           h0 + h1 + (((l0 + l1) >> 2) & 0x0F0F0F0FUL);
  1097.         pixels += line_size;
  1098.         block += line_size;
  1099.       } pixels += 4 - line_size * (h + 1);
  1100.       block += 4 - line_size * h;
  1101.     }
  1102. POWERPC_PERF_STOP_COUNT(altivec_put_no_rnd_pixels16_xy2_num, 1);
  1103. #else /* ALTIVEC_USE_REFERENCE_C_CODE */
  1104.    register int i;
  1105.    register vector unsigned char
  1106.      pixelsv1, pixelsv2, pixelsv3, pixelsv4;
  1107.    register vector unsigned char
  1108.      blockv, temp1, temp2;
  1109.    register vector unsigned short
  1110.      pixelssum1, pixelssum2, temp3,
  1111.      pixelssum3, pixelssum4, temp4;
  1112.    register const_vector unsigned char vczero = (const_vector unsigned char)vec_splat_u8(0);
  1113.    register const_vector unsigned short vcone = (const_vector unsigned short)vec_splat_u16(1);
  1114.    register const_vector unsigned short vctwo = (const_vector unsigned short)vec_splat_u16(2);
  1115. POWERPC_PERF_START_COUNT(altivec_put_no_rnd_pixels16_xy2_num, 1);
  1116.  
  1117.    temp1 = vec_ld(0, pixels);
  1118.    temp2 = vec_ld(16, pixels);
  1119.    pixelsv1 = vec_perm(temp1, temp2, vec_lvsl(0, pixels));
  1120.    if ((((unsigned long)pixels) & 0x0000000F) ==  0x0000000F)
  1121.    {
  1122.      pixelsv2 = temp2;
  1123.    }
  1124.    else
  1125.    {
  1126.      pixelsv2 = vec_perm(temp1, temp2, vec_lvsl(1, pixels));
  1127.    }
  1128.    pixelsv3 = vec_mergel(vczero, pixelsv1);
  1129.    pixelsv4 = vec_mergel(vczero, pixelsv2);
  1130.    pixelsv1 = vec_mergeh(vczero, pixelsv1);
  1131.    pixelsv2 = vec_mergeh(vczero, pixelsv2);
  1132.    pixelssum3 = vec_add((vector unsigned short)pixelsv3,
  1133.                         (vector unsigned short)pixelsv4);
  1134.    pixelssum3 = vec_add(pixelssum3, vcone);
  1135.    pixelssum1 = vec_add((vector unsigned short)pixelsv1,
  1136.                         (vector unsigned short)pixelsv2);
  1137.    pixelssum1 = vec_add(pixelssum1, vcone);
  1138.    
  1139.    for (i = 0; i < h ; i++) {
  1140.      blockv = vec_ld(0, block);
  1141.      temp1 = vec_ld(line_size, pixels);
  1142.      temp2 = vec_ld(line_size + 16, pixels);
  1143.      pixelsv1 = vec_perm(temp1, temp2, vec_lvsl(line_size, pixels));
  1144.      if (((((unsigned long)pixels) + line_size) & 0x0000000F) ==  0x0000000F)
  1145.      {
  1146.        pixelsv2 = temp2;
  1147.      }
  1148.      else
  1149.      {
  1150.        pixelsv2 = vec_perm(temp1, temp2, vec_lvsl(line_size + 1, pixels));
  1151.      }
  1152.      pixelsv3 = vec_mergel(vczero, pixelsv1);
  1153.      pixelsv4 = vec_mergel(vczero, pixelsv2);
  1154.      pixelsv1 = vec_mergeh(vczero, pixelsv1);
  1155.      pixelsv2 = vec_mergeh(vczero, pixelsv2);
  1156.      
  1157.      pixelssum4 = vec_add((vector unsigned short)pixelsv3,
  1158.                           (vector unsigned short)pixelsv4);
  1159.      pixelssum2 = vec_add((vector unsigned short)pixelsv1,
  1160.                           (vector unsigned short)pixelsv2);
  1161.      temp4 = vec_add(pixelssum3, pixelssum4);
  1162.      temp4 = vec_sra(temp4, vctwo);
  1163.      temp3 = vec_add(pixelssum1, pixelssum2);
  1164.      temp3 = vec_sra(temp3, vctwo);
  1165.      pixelssum3 = vec_add(pixelssum4, vcone);
  1166.      pixelssum1 = vec_add(pixelssum2, vcone);
  1167.      blockv = vec_packsu(temp3, temp4);
  1168.      
  1169.      vec_st(blockv, 0, block);
  1170.      
  1171.      block += line_size;
  1172.      pixels += line_size;
  1173.    }
  1174.    
  1175. POWERPC_PERF_STOP_COUNT(altivec_put_no_rnd_pixels16_xy2_num, 1);
  1176. #endif /* ALTIVEC_USE_REFERENCE_C_CODE */
  1177. }
  1178. #ifdef CONFIG_DARWIN
  1179. int hadamard8_diff8x8_altivec(/*MpegEncContext*/ void *s, uint8_t *dst, uint8_t *src, int stride, int h){
  1180. POWERPC_PERF_DECLARE(altivec_hadamard8_diff8x8_num, 1);
  1181.   int sum;
  1182. POWERPC_PERF_START_COUNT(altivec_hadamard8_diff8x8_num, 1);
  1183.   register const_vector unsigned char vzero = (const_vector unsigned char)vec_splat_u8(0);
  1184.   register vector signed short temp0, temp1, temp2, temp3, temp4, temp5, temp6, temp7;
  1185.   {
  1186.     register const_vector signed short vprod1 = (const_vector signed short)AVV( 1,-1, 1,-1, 1,-1, 1,-1);
  1187.     register const_vector signed short vprod2 = (const_vector signed short)AVV( 1, 1,-1,-1, 1, 1,-1,-1);
  1188.     register const_vector signed short vprod3 = (const_vector signed short)AVV( 1, 1, 1, 1,-1,-1,-1,-1);
  1189.     register const_vector unsigned char perm1 = (const_vector unsigned char)
  1190.       AVV(0x02, 0x03, 0x00, 0x01,
  1191.        0x06, 0x07, 0x04, 0x05,
  1192.        0x0A, 0x0B, 0x08, 0x09,
  1193.        0x0E, 0x0F, 0x0C, 0x0D);
  1194.     register const_vector unsigned char perm2 = (const_vector unsigned char)
  1195.       AVV(0x04, 0x05, 0x06, 0x07,
  1196.        0x00, 0x01, 0x02, 0x03,
  1197.        0x0C, 0x0D, 0x0E, 0x0F,
  1198.        0x08, 0x09, 0x0A, 0x0B);
  1199.     register const_vector unsigned char perm3 = (const_vector unsigned char)
  1200.       AVV(0x08, 0x09, 0x0A, 0x0B,
  1201.        0x0C, 0x0D, 0x0E, 0x0F,
  1202.        0x00, 0x01, 0x02, 0x03,
  1203.        0x04, 0x05, 0x06, 0x07);
  1204. #define ONEITERBUTTERFLY(i, res)
  1205.     {
  1206.       register vector unsigned char src1, src2, srcO;        
  1207.       register vector unsigned char dst1, dst2, dstO;        
  1208.       src1 = vec_ld(stride * i, src);
  1209.       if ((((stride * i) + (unsigned long)src) & 0x0000000F) > 8)
  1210. src2 = vec_ld((stride * i) + 16, src);
  1211.       srcO = vec_perm(src1, src2, vec_lvsl(stride * i, src));
  1212.       dst1 = vec_ld(stride * i, dst);
  1213.       if ((((stride * i) + (unsigned long)dst) & 0x0000000F) > 8)
  1214. dst2 = vec_ld((stride * i) + 16, dst);
  1215.       dstO = vec_perm(dst1, dst2, vec_lvsl(stride * i, dst));
  1216.       /* promote the unsigned chars to signed shorts */
  1217.       /* we're in the 8x8 function, we only care for the first 8 */
  1218.       register vector signed short srcV =        
  1219. (vector signed short)vec_mergeh((vector signed char)vzero, (vector signed char)srcO); 
  1220.       register vector signed short dstV =        
  1221. (vector signed short)vec_mergeh((vector signed char)vzero, (vector signed char)dstO); 
  1222.       /* substractions inside the first butterfly */
  1223.       register vector signed short but0 = vec_sub(srcV, dstV);        
  1224.       register vector signed short op1 = vec_perm(but0, but0, perm1);  
  1225.       register vector signed short but1 = vec_mladd(but0, vprod1, op1);
  1226.       register vector signed short op2 = vec_perm(but1, but1, perm2);  
  1227.       register vector signed short but2 = vec_mladd(but1, vprod2, op2);
  1228.       register vector signed short op3 = vec_perm(but2, but2, perm3);  
  1229.       res = vec_mladd(but2, vprod3, op3);
  1230.     }
  1231.     ONEITERBUTTERFLY(0, temp0);
  1232.     ONEITERBUTTERFLY(1, temp1);
  1233.     ONEITERBUTTERFLY(2, temp2);
  1234.     ONEITERBUTTERFLY(3, temp3);
  1235.     ONEITERBUTTERFLY(4, temp4);
  1236.     ONEITERBUTTERFLY(5, temp5);
  1237.     ONEITERBUTTERFLY(6, temp6);
  1238.     ONEITERBUTTERFLY(7, temp7);
  1239.   }
  1240. #undef ONEITERBUTTERFLY
  1241.   {
  1242.     register vector signed int vsum;
  1243.     register vector signed short line0 = vec_add(temp0, temp1);
  1244.     register vector signed short line1 = vec_sub(temp0, temp1);
  1245.     register vector signed short line2 = vec_add(temp2, temp3);
  1246.     register vector signed short line3 = vec_sub(temp2, temp3);
  1247.     register vector signed short line4 = vec_add(temp4, temp5);
  1248.     register vector signed short line5 = vec_sub(temp4, temp5);
  1249.     register vector signed short line6 = vec_add(temp6, temp7);
  1250.     register vector signed short line7 = vec_sub(temp6, temp7);
  1251.     
  1252.     register vector signed short line0B = vec_add(line0, line2);
  1253.     register vector signed short line2B = vec_sub(line0, line2);
  1254.     register vector signed short line1B = vec_add(line1, line3);
  1255.     register vector signed short line3B = vec_sub(line1, line3);
  1256.     register vector signed short line4B = vec_add(line4, line6);
  1257.     register vector signed short line6B = vec_sub(line4, line6);
  1258.     register vector signed short line5B = vec_add(line5, line7);
  1259.     register vector signed short line7B = vec_sub(line5, line7);
  1260.     
  1261.     register vector signed short line0C = vec_add(line0B, line4B);
  1262.     register vector signed short line4C = vec_sub(line0B, line4B);
  1263.     register vector signed short line1C = vec_add(line1B, line5B);
  1264.     register vector signed short line5C = vec_sub(line1B, line5B);
  1265.     register vector signed short line2C = vec_add(line2B, line6B);
  1266.     register vector signed short line6C = vec_sub(line2B, line6B);
  1267.     register vector signed short line3C = vec_add(line3B, line7B);
  1268.     register vector signed short line7C = vec_sub(line3B, line7B);
  1269.     
  1270.     vsum = vec_sum4s(vec_abs(line0C), vec_splat_s32(0));
  1271.     vsum = vec_sum4s(vec_abs(line1C), vsum);
  1272.     vsum = vec_sum4s(vec_abs(line2C), vsum);
  1273.     vsum = vec_sum4s(vec_abs(line3C), vsum);
  1274.     vsum = vec_sum4s(vec_abs(line4C), vsum);
  1275.     vsum = vec_sum4s(vec_abs(line5C), vsum);
  1276.     vsum = vec_sum4s(vec_abs(line6C), vsum);
  1277.     vsum = vec_sum4s(vec_abs(line7C), vsum);
  1278.     vsum = vec_sums(vsum, (vector signed int)vzero);
  1279.     vsum = vec_splat(vsum, 3);
  1280.     vec_ste(vsum, 0, &sum);
  1281.   }
  1282. POWERPC_PERF_STOP_COUNT(altivec_hadamard8_diff8x8_num, 1);
  1283.   return sum;
  1284. }
  1285. /*
  1286.   16x8 works with 16 elements ; it allows to avoid replicating
  1287.   loads, and give the compiler more rooms for scheduling.
  1288.   It's only used from inside hadamard8_diff16_altivec.
  1289.   
  1290.   Unfortunately, it seems gcc-3.3 is a bit dumb, and
  1291.   the compiled code has a LOT of spill code, it seems
  1292.   gcc (unlike xlc) cannot keep everything in registers
  1293.   by itself. The following code include hand-made
  1294.   registers allocation. It's not clean, but on
  1295.   a 7450 the resulting code is much faster (best case
  1296.   fall from 700+ cycles to 550).
  1297.   
  1298.   xlc doesn't add spill code, but it doesn't know how to
  1299.   schedule for the 7450, and its code isn't much faster than
  1300.   gcc-3.3 on the 7450 (but uses 25% less instructions...)
  1301.   
  1302.   On the 970, the hand-made RA is still a win (arount 690
  1303.   vs. around 780), but xlc goes to around 660 on the
  1304.   regular C code...
  1305. */
  1306. static int hadamard8_diff16x8_altivec(/*MpegEncContext*/ void *s, uint8_t *dst, uint8_t *src, int stride, int h) {
  1307.   int sum;
  1308.   register vector signed short
  1309.     temp0 asm ("v0"),
  1310.     temp1 asm ("v1"),
  1311.     temp2 asm ("v2"),
  1312.     temp3 asm ("v3"),
  1313.     temp4 asm ("v4"),
  1314.     temp5 asm ("v5"),
  1315.     temp6 asm ("v6"),
  1316.     temp7 asm ("v7");
  1317.   register vector signed short
  1318.     temp0S asm ("v8"),
  1319.     temp1S asm ("v9"),
  1320.     temp2S asm ("v10"),
  1321.     temp3S asm ("v11"),
  1322.     temp4S asm ("v12"),
  1323.     temp5S asm ("v13"),
  1324.     temp6S asm ("v14"),
  1325.     temp7S asm ("v15");
  1326.   register const_vector unsigned char vzero asm ("v31")= (const_vector unsigned char)vec_splat_u8(0);
  1327.   {
  1328.     register const_vector signed short vprod1 asm ("v16")= (const_vector signed short)AVV( 1,-1, 1,-1, 1,-1, 1,-1);
  1329.     register const_vector signed short vprod2 asm ("v17")= (const_vector signed short)AVV( 1, 1,-1,-1, 1, 1,-1,-1);
  1330.     register const_vector signed short vprod3 asm ("v18")= (const_vector signed short)AVV( 1, 1, 1, 1,-1,-1,-1,-1);
  1331.     register const_vector unsigned char perm1 asm ("v19")= (const_vector unsigned char)
  1332.       AVV(0x02, 0x03, 0x00, 0x01,
  1333.        0x06, 0x07, 0x04, 0x05,
  1334.        0x0A, 0x0B, 0x08, 0x09,
  1335.        0x0E, 0x0F, 0x0C, 0x0D);
  1336.     register const_vector unsigned char perm2 asm ("v20")= (const_vector unsigned char)
  1337.       AVV(0x04, 0x05, 0x06, 0x07,
  1338.        0x00, 0x01, 0x02, 0x03,
  1339.        0x0C, 0x0D, 0x0E, 0x0F,
  1340.        0x08, 0x09, 0x0A, 0x0B);
  1341.     register const_vector unsigned char perm3 asm ("v21")= (const_vector unsigned char)
  1342.       AVV(0x08, 0x09, 0x0A, 0x0B,
  1343.        0x0C, 0x0D, 0x0E, 0x0F,
  1344.        0x00, 0x01, 0x02, 0x03,
  1345.        0x04, 0x05, 0x06, 0x07);
  1346. #define ONEITERBUTTERFLY(i, res1, res2)
  1347.     {
  1348.       register vector unsigned char src1 asm ("v22"), src2 asm ("v23"); 
  1349.       register vector unsigned char dst1 asm ("v24"), dst2 asm ("v25"); 
  1350.       src1 = vec_ld(stride * i, src);
  1351.       src2 = vec_ld((stride * i) + 16, src);
  1352.       register vector unsigned char srcO asm ("v22") = vec_perm(src1, src2, vec_lvsl(stride * i, src)); 
  1353.       dst1 = vec_ld(stride * i, dst);
  1354.       dst2 = vec_ld((stride * i) + 16, dst);
  1355.       register vector unsigned char dstO asm ("v23") = vec_perm(dst1, dst2, vec_lvsl(stride * i, dst)); 
  1356.       /* promote the unsigned chars to signed shorts */
  1357.       register vector signed short srcV asm ("v24") =                   
  1358. (vector signed short)vec_mergeh((vector signed char)vzero, (vector signed char)srcO); 
  1359.       register vector signed short dstV asm ("v25") =                   
  1360. (vector signed short)vec_mergeh((vector signed char)vzero, (vector signed char)dstO); 
  1361.       register vector signed short srcW asm ("v26") =                   
  1362. (vector signed short)vec_mergel((vector signed char)vzero, (vector signed char)srcO); 
  1363.       register vector signed short dstW asm ("v27") =                   
  1364. (vector signed short)vec_mergel((vector signed char)vzero, (vector signed char)dstO); 
  1365.       /* substractions inside the first butterfly */
  1366.       register vector signed short but0 asm ("v28") = vec_sub(srcV, dstV); 
  1367.       register vector signed short but0S asm ("v29") = vec_sub(srcW, dstW); 
  1368.       register vector signed short op1 asm ("v30") = vec_perm(but0, but0, perm1); 
  1369.       register vector signed short but1 asm ("v22") = vec_mladd(but0, vprod1, op1); 
  1370.       register vector signed short op1S asm ("v23") = vec_perm(but0S, but0S, perm1); 
  1371.       register vector signed short but1S asm ("v24") = vec_mladd(but0S, vprod1, op1S); 
  1372.       register vector signed short op2 asm ("v25") = vec_perm(but1, but1, perm2); 
  1373.       register vector signed short but2 asm ("v26") = vec_mladd(but1, vprod2, op2); 
  1374.       register vector signed short op2S asm ("v27") = vec_perm(but1S, but1S, perm2); 
  1375.       register vector signed short but2S asm ("v28") = vec_mladd(but1S, vprod2, op2S); 
  1376.       register vector signed short op3 asm ("v29") = vec_perm(but2, but2, perm3); 
  1377.       res1 = vec_mladd(but2, vprod3, op3);
  1378.       register vector signed short op3S asm ("v30") = vec_perm(but2S, but2S, perm3); 
  1379.       res2 = vec_mladd(but2S, vprod3, op3S);
  1380.     }
  1381.     ONEITERBUTTERFLY(0, temp0, temp0S);
  1382.     ONEITERBUTTERFLY(1, temp1, temp1S);
  1383.     ONEITERBUTTERFLY(2, temp2, temp2S);
  1384.     ONEITERBUTTERFLY(3, temp3, temp3S);
  1385.     ONEITERBUTTERFLY(4, temp4, temp4S);
  1386.     ONEITERBUTTERFLY(5, temp5, temp5S);
  1387.     ONEITERBUTTERFLY(6, temp6, temp6S);
  1388.     ONEITERBUTTERFLY(7, temp7, temp7S);
  1389.   }
  1390. #undef ONEITERBUTTERFLY
  1391.   {
  1392.     register vector signed int vsum;
  1393.     register vector signed short line0 = vec_add(temp0, temp1);
  1394.     register vector signed short line1 = vec_sub(temp0, temp1);
  1395.     register vector signed short line2 = vec_add(temp2, temp3);
  1396.     register vector signed short line3 = vec_sub(temp2, temp3);
  1397.     register vector signed short line4 = vec_add(temp4, temp5);
  1398.     register vector signed short line5 = vec_sub(temp4, temp5);
  1399.     register vector signed short line6 = vec_add(temp6, temp7);
  1400.     register vector signed short line7 = vec_sub(temp6, temp7);
  1401.       
  1402.     register vector signed short line0B = vec_add(line0, line2);
  1403.     register vector signed short line2B = vec_sub(line0, line2);
  1404.     register vector signed short line1B = vec_add(line1, line3);
  1405.     register vector signed short line3B = vec_sub(line1, line3);
  1406.     register vector signed short line4B = vec_add(line4, line6);
  1407.     register vector signed short line6B = vec_sub(line4, line6);
  1408.     register vector signed short line5B = vec_add(line5, line7);
  1409.     register vector signed short line7B = vec_sub(line5, line7);
  1410.       
  1411.     register vector signed short line0C = vec_add(line0B, line4B);
  1412.     register vector signed short line4C = vec_sub(line0B, line4B);
  1413.     register vector signed short line1C = vec_add(line1B, line5B);
  1414.     register vector signed short line5C = vec_sub(line1B, line5B);
  1415.     register vector signed short line2C = vec_add(line2B, line6B);
  1416.     register vector signed short line6C = vec_sub(line2B, line6B);
  1417.     register vector signed short line3C = vec_add(line3B, line7B);
  1418.     register vector signed short line7C = vec_sub(line3B, line7B);
  1419.       
  1420.     vsum = vec_sum4s(vec_abs(line0C), vec_splat_s32(0));
  1421.     vsum = vec_sum4s(vec_abs(line1C), vsum);
  1422.     vsum = vec_sum4s(vec_abs(line2C), vsum);
  1423.     vsum = vec_sum4s(vec_abs(line3C), vsum);
  1424.     vsum = vec_sum4s(vec_abs(line4C), vsum);
  1425.     vsum = vec_sum4s(vec_abs(line5C), vsum);
  1426.     vsum = vec_sum4s(vec_abs(line6C), vsum);
  1427.     vsum = vec_sum4s(vec_abs(line7C), vsum);
  1428.     register vector signed short line0S = vec_add(temp0S, temp1S);
  1429.     register vector signed short line1S = vec_sub(temp0S, temp1S);
  1430.     register vector signed short line2S = vec_add(temp2S, temp3S);
  1431.     register vector signed short line3S = vec_sub(temp2S, temp3S);
  1432.     register vector signed short line4S = vec_add(temp4S, temp5S);
  1433.     register vector signed short line5S = vec_sub(temp4S, temp5S);
  1434.     register vector signed short line6S = vec_add(temp6S, temp7S);
  1435.     register vector signed short line7S = vec_sub(temp6S, temp7S);
  1436.     register vector signed short line0BS = vec_add(line0S, line2S);
  1437.     register vector signed short line2BS = vec_sub(line0S, line2S);
  1438.     register vector signed short line1BS = vec_add(line1S, line3S);
  1439.     register vector signed short line3BS = vec_sub(line1S, line3S);
  1440.     register vector signed short line4BS = vec_add(line4S, line6S);
  1441.     register vector signed short line6BS = vec_sub(line4S, line6S);
  1442.     register vector signed short line5BS = vec_add(line5S, line7S);
  1443.     register vector signed short line7BS = vec_sub(line5S, line7S);
  1444.     register vector signed short line0CS = vec_add(line0BS, line4BS);
  1445.     register vector signed short line4CS = vec_sub(line0BS, line4BS);
  1446.     register vector signed short line1CS = vec_add(line1BS, line5BS);
  1447.     register vector signed short line5CS = vec_sub(line1BS, line5BS);
  1448.     register vector signed short line2CS = vec_add(line2BS, line6BS);
  1449.     register vector signed short line6CS = vec_sub(line2BS, line6BS);
  1450.     register vector signed short line3CS = vec_add(line3BS, line7BS);
  1451.     register vector signed short line7CS = vec_sub(line3BS, line7BS);
  1452.     vsum = vec_sum4s(vec_abs(line0CS), vsum);
  1453.     vsum = vec_sum4s(vec_abs(line1CS), vsum);
  1454.     vsum = vec_sum4s(vec_abs(line2CS), vsum);
  1455.     vsum = vec_sum4s(vec_abs(line3CS), vsum);
  1456.     vsum = vec_sum4s(vec_abs(line4CS), vsum);
  1457.     vsum = vec_sum4s(vec_abs(line5CS), vsum);
  1458.     vsum = vec_sum4s(vec_abs(line6CS), vsum);
  1459.     vsum = vec_sum4s(vec_abs(line7CS), vsum);
  1460.     vsum = vec_sums(vsum, (vector signed int)vzero);
  1461.     vsum = vec_splat(vsum, 3);
  1462.     vec_ste(vsum, 0, &sum);
  1463.   }
  1464.   return sum;
  1465. }
  1466. int hadamard8_diff16_altivec(/*MpegEncContext*/ void *s, uint8_t *dst, uint8_t *src, int stride, int h){
  1467. POWERPC_PERF_DECLARE(altivec_hadamard8_diff16_num, 1);
  1468.   int score;
  1469. POWERPC_PERF_START_COUNT(altivec_hadamard8_diff16_num, 1);
  1470.   score = hadamard8_diff16x8_altivec(s, dst, src, stride, 8);
  1471.   if (h==16) {
  1472.     dst += 8*stride;
  1473.     src += 8*stride;
  1474.     score += hadamard8_diff16x8_altivec(s, dst, src, stride, 8);
  1475.   }
  1476. POWERPC_PERF_STOP_COUNT(altivec_hadamard8_diff16_num, 1);
  1477.   return score;
  1478. }
  1479. #endif //CONFIG_DARWIN
  1480. int has_altivec(void)
  1481. {
  1482. #ifdef __AMIGAOS4__
  1483. ULONG result = 0;
  1484. extern struct ExecIFace *IExec;
  1485. IExec->GetCPUInfoTags(GCIT_VectorUnit, &result, TAG_DONE);
  1486. if (result == VECTORTYPE_ALTIVEC) return 1;
  1487. return 0;
  1488. #else /* __AMIGAOS4__ */
  1489. #ifdef CONFIG_DARWIN
  1490.     int sels[2] = {CTL_HW, HW_VECTORUNIT};
  1491.     int has_vu = 0;
  1492.     size_t len = sizeof(has_vu);
  1493.     int err;
  1494.     err = sysctl(sels, 2, &has_vu, &len, NULL, 0);
  1495.     if (err == 0) return (has_vu != 0);
  1496. #else /* CONFIG_DARWIN */
  1497. /* no Darwin, do it the brute-force way */
  1498. /* this is borrowed from the libmpeg2 library */
  1499.     {
  1500.       signal (SIGILL, sigill_handler);
  1501.       if (sigsetjmp (jmpbuf, 1)) {
  1502.         signal (SIGILL, SIG_DFL);
  1503.       } else {
  1504.         canjump = 1;
  1505.         
  1506.         asm volatile ("mtspr 256, %0nt"
  1507.                       "vand %%v0, %%v0, %%v0"
  1508.                       :
  1509.                       : "r" (-1));
  1510.         
  1511.         signal (SIGILL, SIG_DFL);
  1512.         return 1;
  1513.       }
  1514.     }
  1515. #endif /* CONFIG_DARWIN */
  1516.     return 0;
  1517. #endif /* __AMIGAOS4__ */
  1518. }
  1519. /* next one assumes that ((line_size % 8) == 0) */
  1520. void avg_pixels8_xy2_altivec(uint8_t *block, const uint8_t *pixels, int line_size, int h)
  1521. {
  1522. POWERPC_PERF_DECLARE(altivec_avg_pixels8_xy2_num, 1);
  1523. #ifdef ALTIVEC_USE_REFERENCE_C_CODE
  1524.     int j;
  1525. POWERPC_PERF_START_COUNT(altivec_avg_pixels8_xy2_num, 1);
  1526.  for (j = 0; j < 2; j++) {
  1527.    int             i;
  1528.    const uint32_t  a = (((const struct unaligned_32 *) (pixels))->l);
  1529.    const uint32_t  b = (((const struct unaligned_32 *) (pixels + 1))->l);
  1530.    uint32_t        l0 = (a & 0x03030303UL) + (b & 0x03030303UL) + 0x02020202UL;
  1531.    uint32_t        h0 = ((a & 0xFCFCFCFCUL) >> 2) + ((b & 0xFCFCFCFCUL) >> 2);
  1532.    uint32_t        l1, h1;
  1533.    pixels += line_size;
  1534.    for (i = 0; i < h; i += 2) {
  1535.      uint32_t        a = (((const struct unaligned_32 *) (pixels))->l);
  1536.      uint32_t        b = (((const struct unaligned_32 *) (pixels + 1))->l);
  1537.      l1 = (a & 0x03030303UL) + (b & 0x03030303UL);
  1538.      h1 = ((a & 0xFCFCFCFCUL) >> 2) + ((b & 0xFCFCFCFCUL) >> 2);
  1539.      *((uint32_t *) block) = rnd_avg32(*((uint32_t *) block), h0 + h1 + (((l0 + l1) >> 2) & 0x0F0F0F0FUL));
  1540.      pixels += line_size;
  1541.      block += line_size;
  1542.      a = (((const struct unaligned_32 *) (pixels))->l);
  1543.      b = (((const struct unaligned_32 *) (pixels + 1))->l);
  1544.      l0 = (a & 0x03030303UL) + (b & 0x03030303UL) + 0x02020202UL;
  1545.      h0 = ((a & 0xFCFCFCFCUL) >> 2) + ((b & 0xFCFCFCFCUL) >> 2);
  1546.      *((uint32_t *) block) = rnd_avg32(*((uint32_t *) block), h0 + h1 + (((l0 + l1) >> 2) & 0x0F0F0F0FUL));
  1547.      pixels += line_size;
  1548.      block += line_size;
  1549.    } pixels += 4 - line_size * (h + 1);
  1550.    block += 4 - line_size * h;
  1551.  }
  1552. POWERPC_PERF_STOP_COUNT(altivec_avg_pixels8_xy2_num, 1);
  1553. #else /* ALTIVEC_USE_REFERENCE_C_CODE */
  1554.    register int i;
  1555.    register vector unsigned char
  1556.      pixelsv1, pixelsv2,
  1557.      pixelsavg;
  1558.    register vector unsigned char
  1559.      blockv, temp1, temp2, blocktemp;
  1560.    register vector unsigned short
  1561.      pixelssum1, pixelssum2, temp3;
  1562.    register const_vector unsigned char vczero = (const_vector unsigned char)vec_splat_u8(0);
  1563.    register const_vector unsigned short vctwo = (const_vector unsigned short)vec_splat_u16(2);
  1564.    
  1565.    temp1 = vec_ld(0, pixels);
  1566.    temp2 = vec_ld(16, pixels);
  1567.    pixelsv1 = vec_perm(temp1, temp2, vec_lvsl(0, pixels));
  1568.    if ((((unsigned long)pixels) & 0x0000000F) ==  0x0000000F)
  1569.    {
  1570.      pixelsv2 = temp2;
  1571.    }
  1572.    else
  1573.    {
  1574.      pixelsv2 = vec_perm(temp1, temp2, vec_lvsl(1, pixels));
  1575.    }
  1576.    pixelsv1 = vec_mergeh(vczero, pixelsv1);
  1577.    pixelsv2 = vec_mergeh(vczero, pixelsv2);
  1578.    pixelssum1 = vec_add((vector unsigned short)pixelsv1,
  1579.                         (vector unsigned short)pixelsv2);
  1580.    pixelssum1 = vec_add(pixelssum1, vctwo);
  1581.    
  1582. POWERPC_PERF_START_COUNT(altivec_avg_pixels8_xy2_num, 1); 
  1583.    for (i = 0; i < h ; i++) {
  1584.      int rightside = ((unsigned long)block & 0x0000000F);
  1585.      blockv = vec_ld(0, block);
  1586.      temp1 = vec_ld(line_size, pixels);
  1587.      temp2 = vec_ld(line_size + 16, pixels);
  1588.      pixelsv1 = vec_perm(temp1, temp2, vec_lvsl(line_size, pixels));
  1589.      if (((((unsigned long)pixels) + line_size) & 0x0000000F) ==  0x0000000F)
  1590.      {
  1591.        pixelsv2 = temp2;
  1592.      }
  1593.      else
  1594.      {
  1595.        pixelsv2 = vec_perm(temp1, temp2, vec_lvsl(line_size + 1, pixels));
  1596.      }
  1597.      pixelsv1 = vec_mergeh(vczero, pixelsv1);
  1598.      pixelsv2 = vec_mergeh(vczero, pixelsv2);
  1599.      pixelssum2 = vec_add((vector unsigned short)pixelsv1,
  1600.                           (vector unsigned short)pixelsv2);
  1601.      temp3 = vec_add(pixelssum1, pixelssum2);
  1602.      temp3 = vec_sra(temp3, vctwo);
  1603.      pixelssum1 = vec_add(pixelssum2, vctwo);
  1604.      pixelsavg = vec_packsu(temp3, (vector unsigned short) vczero);
  1605.      
  1606.      if (rightside)
  1607.      {
  1608.        blocktemp = vec_perm(blockv, pixelsavg, vcprm(0, 1, s0, s1));
  1609.      }
  1610.      else
  1611.      {
  1612.        blocktemp = vec_perm(blockv, pixelsavg, vcprm(s0, s1, 2, 3));
  1613.      }
  1614.      
  1615.      blockv = vec_avg(blocktemp, blockv);
  1616.      vec_st(blockv, 0, block);
  1617.      
  1618.      block += line_size;
  1619.      pixels += line_size;
  1620.    }
  1621.    
  1622. POWERPC_PERF_STOP_COUNT(altivec_avg_pixels8_xy2_num, 1);
  1623. #endif /* ALTIVEC_USE_REFERENCE_C_CODE */
  1624. }