cavlc.c
上传用户:hjq518
上传日期:2021-12-09
资源大小:5084k
文件大小:26k
源码类别:

Audio

开发平台:

Visual C++

  1. /*****************************************************************************
  2.  * cavlc.c: h264 encoder library
  3.  *****************************************************************************
  4.  * Copyright (C) 2003-2008 x264 project
  5.  *
  6.  * Authors: Laurent Aimar <fenrir@via.ecp.fr>
  7.  *          Loren Merritt <lorenm@u.washington.edu>
  8.  *
  9.  * This program is free software; you can redistribute it and/or modify
  10.  * it under the terms of the GNU General Public License as published by
  11.  * the Free Software Foundation; either version 2 of the License, or
  12.  * (at your option) any later version.
  13.  *
  14.  * This program is distributed in the hope that it will be useful,
  15.  * but WITHOUT ANY WARRANTY; without even the implied warranty of
  16.  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
  17.  * GNU General Public License for more details.
  18.  *
  19.  * You should have received a copy of the GNU General Public License
  20.  * along with this program; if not, write to the Free Software
  21.  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02111, USA.
  22.  *****************************************************************************/
  23. #include "common/common.h"
  24. #include "macroblock.h"
  25. static const uint8_t intra4x4_cbp_to_golomb[48]=
  26. {
  27.   3, 29, 30, 17, 31, 18, 37,  8, 32, 38, 19,  9, 20, 10, 11,  2,
  28.  16, 33, 34, 21, 35, 22, 39,  4, 36, 40, 23,  5, 24,  6,  7,  1,
  29.  41, 42, 43, 25, 44, 26, 46, 12, 45, 47, 27, 13, 28, 14, 15,  0
  30. };
  31. static const uint8_t inter_cbp_to_golomb[48]=
  32. {
  33.   0,  2,  3,  7,  4,  8, 17, 13,  5, 18,  9, 14, 10, 15, 16, 11,
  34.   1, 32, 33, 36, 34, 37, 44, 40, 35, 45, 38, 41, 39, 42, 43, 19,
  35.   6, 24, 25, 20, 26, 21, 46, 28, 27, 47, 22, 29, 23, 30, 31, 12
  36. };
  37. static const uint8_t mb_type_b_to_golomb[3][9]=
  38. {
  39.     { 4,  8, 12, 10,  6, 14, 16, 18, 20 }, /* D_16x8 */
  40.     { 5,  9, 13, 11,  7, 15, 17, 19, 21 }, /* D_8x16 */
  41.     { 1, -1, -1, -1,  2, -1, -1, -1,  3 }  /* D_16x16 */
  42. };
  43. static const uint8_t sub_mb_type_p_to_golomb[4]=
  44. {
  45.     3, 1, 2, 0
  46. };
  47. static const uint8_t sub_mb_type_b_to_golomb[13]=
  48. {
  49.     10,  4,  5,  1, 11,  6,  7,  2, 12,  8,  9,  3,  0
  50. };
  51. #define BLOCK_INDEX_CHROMA_DC   (-1)
  52. #define BLOCK_INDEX_LUMA_DC     (-2)
  53. static inline void bs_write_vlc( bs_t *s, vlc_t v )
  54. {
  55.     bs_write( s, v.i_size, v.i_bits );
  56. }
  57. /****************************************************************************
  58.  * block_residual_write_cavlc:
  59.  ****************************************************************************/
  60. static void block_residual_write_cavlc( x264_t *h, bs_t *s, int i_idx, int16_t *l, int i_count )
  61. {
  62.     int level[16], run[16];
  63.     int i_total, i_trailing;
  64.     int i_total_zero;
  65.     int i_last;
  66.     unsigned int i_sign;
  67.     int i;
  68.     int i_suffix_length;
  69.     /* first find i_last */
  70.     for( i_last = i_count-1; i_last >= 3; i_last -= 4 )
  71.         if( *(uint64_t*)(l+i_last-3) )
  72.             break;
  73.     while( i_last >= 0 && l[i_last] == 0 )
  74.         i_last--;
  75.     i_sign = 0;
  76.     i_total = 0;
  77.     i_trailing = 0;
  78.     i_total_zero = i_last + 1;
  79.     if( i_last >= 0 )
  80.     {
  81.         int idx = 0;
  82.         /* level and run and total */
  83.         while( i_last >= 0 )
  84.         {
  85.             int r = 0;
  86.             level[idx] = l[i_last];
  87.             while( --i_last >= 0 && l[i_last] == 0 )
  88.                 r++;
  89.             run[idx++] = r;
  90.         }
  91.         i_total = idx;
  92.         i_total_zero -= idx;
  93.         i_trailing = X264_MIN(3, idx);
  94.         for( idx = 0; idx < i_trailing; idx++ )
  95.         {
  96.             if( (unsigned)(level[idx]+1) > 2 )
  97.             {
  98.                 i_trailing = idx;
  99.                 break;
  100.             }
  101.             i_sign <<= 1;
  102.             i_sign |= level[idx] < 0;
  103.         }
  104.     }
  105.     /* total/trailing */
  106.     if( i_idx == BLOCK_INDEX_CHROMA_DC )
  107.         bs_write_vlc( s, x264_coeff_token[4][i_total*4+i_trailing] );
  108.     else
  109.     {
  110.         /* x264_mb_predict_non_zero_code return 0 <-> (16+16+1)>>1 = 16 */
  111.         static const int ct_index[17] = {0,0,1,1,2,2,2,2,3,3,3,3,3,3,3,3,3 };
  112.         int nC = x264_mb_predict_non_zero_code( h, i_idx == BLOCK_INDEX_LUMA_DC ? 0 : i_idx );
  113.         bs_write_vlc( s, x264_coeff_token[ct_index[nC]][i_total*4+i_trailing] );
  114.     }
  115.     if( i_total <= 0 )
  116.         return;
  117.     i_suffix_length = i_total > 10 && i_trailing < 3 ? 1 : 0;
  118.     if( i_trailing > 0 )
  119.         bs_write( s, i_trailing, i_sign );
  120.     for( i = i_trailing; i < i_total; i++ )
  121.     {
  122.         int mask = level[i] >> 15;
  123.         int abs_level = (level[i]^mask)-mask;
  124.         int i_level_code = abs_level*2-mask-2;
  125.         if( i == i_trailing && i_trailing < 3 )
  126.             i_level_code -= 2; /* as level[i] can't be 1 for the first one if i_trailing < 3 */
  127.         if( ( i_level_code >> i_suffix_length ) < 14 )
  128.             bs_write( s, (i_level_code >> i_suffix_length) + 1 + i_suffix_length,
  129.                      (1<<i_suffix_length) + (i_level_code & ((1<<i_suffix_length)-1)) );
  130.         else if( i_suffix_length == 0 && i_level_code < 30 )
  131.             bs_write( s, 19, (1<<4) + (i_level_code - 14) );
  132.         else if( i_suffix_length > 0 && ( i_level_code >> i_suffix_length ) == 14 )
  133.             bs_write( s, 15 + i_suffix_length,
  134.                       (1<<i_suffix_length) + (i_level_code & ((1<<i_suffix_length)-1)) );
  135.         else
  136.         {
  137.             int i_level_prefix = 15;
  138.             i_level_code -= 15 << i_suffix_length;
  139.             if( i_suffix_length == 0 )
  140.                 i_level_code -= 15;
  141.             /* If the prefix size exceeds 15, High Profile is required. */
  142.             if( i_level_code >= 1<<12 )
  143.             {
  144.                 if( h->sps->i_profile_idc >= PROFILE_HIGH )
  145.                 {
  146.                     while( i_level_code > 1<<(i_level_prefix-3) )
  147.                     {
  148.                         i_level_code -= 1<<(i_level_prefix-3);
  149.                         i_level_prefix++;
  150.                     }
  151.                 }
  152.                 else
  153.                 {
  154. #ifdef RDO_SKIP_BS
  155.                     /* Weight highly against overflows. */
  156.                     s->i_bits_encoded += 1000000;
  157. #else
  158.                     x264_log(h, X264_LOG_WARNING, "OVERFLOW levelcode=%d is only allowed in High Profile", i_level_code );
  159.                     /* clip level, preserving sign */
  160.                     i_level_code = (1<<12) - 2 + (i_level_code & 1);
  161. #endif
  162.                 }
  163.             }
  164.             bs_write( s, i_level_prefix + 1, 1 );
  165.             bs_write( s, i_level_prefix - 3, i_level_code & ((1<<(i_level_prefix-3))-1) );
  166.         }
  167.         if( i_suffix_length == 0 )
  168.             i_suffix_length++;
  169.         if( abs_level > (3 << (i_suffix_length-1)) && i_suffix_length < 6 )
  170.             i_suffix_length++;
  171.     }
  172.     if( i_total < i_count )
  173.     {
  174.         if( i_idx == BLOCK_INDEX_CHROMA_DC )
  175.             bs_write_vlc( s, x264_total_zeros_dc[i_total-1][i_total_zero] );
  176.         else
  177.             bs_write_vlc( s, x264_total_zeros[i_total-1][i_total_zero] );
  178.     }
  179.     for( i = 0; i < i_total-1 && i_total_zero > 0; i++ )
  180.     {
  181.         int i_zl = X264_MIN( i_total_zero - 1, 6 );
  182.         bs_write_vlc( s, x264_run_before[i_zl][run[i]] );
  183.         i_total_zero -= run[i];
  184.     }
  185. }
  186. static void cavlc_qp_delta( x264_t *h, bs_t *s )
  187. {
  188.     int i_dqp = h->mb.i_qp - h->mb.i_last_qp;
  189.     /* Avoid writing a delta quant if we have an empty i16x16 block, e.g. in a completely flat background area */
  190.     if( h->mb.i_type == I_16x16 && !(h->mb.i_cbp_luma | h->mb.i_cbp_chroma)
  191.         && !array_non_zero(h->dct.luma16x16_dc) )
  192.     {
  193. #ifndef RDO_SKIP_BS
  194.         h->mb.i_qp = h->mb.i_last_qp;
  195. #endif
  196.         i_dqp = 0;
  197.     }
  198.     if( i_dqp )
  199.     {
  200.         if( i_dqp < -26 )
  201.             i_dqp += 52;
  202.         else if( i_dqp > 25 )
  203.             i_dqp -= 52;
  204.     }
  205.     bs_write_se( s, i_dqp );
  206. }
  207. static void cavlc_mb_mvd( x264_t *h, bs_t *s, int i_list, int idx, int width )
  208. {
  209.     DECLARE_ALIGNED_4( int16_t mvp[2] );
  210.     x264_mb_predict_mv( h, i_list, idx, width, mvp );
  211.     bs_write_se( s, h->mb.cache.mv[i_list][x264_scan8[idx]][0] - mvp[0] );
  212.     bs_write_se( s, h->mb.cache.mv[i_list][x264_scan8[idx]][1] - mvp[1] );
  213. }
  214. static void cavlc_mb8x8_mvd( x264_t *h, bs_t *s, int i_list, int i )
  215. {
  216.     if( !x264_mb_partition_listX_table[i_list][ h->mb.i_sub_partition[i] ] )
  217.         return;
  218.     switch( h->mb.i_sub_partition[i] )
  219.     {
  220.         case D_L0_8x8:
  221.         case D_L1_8x8:
  222.         case D_BI_8x8:
  223.             cavlc_mb_mvd( h, s, i_list, 4*i, 2 );
  224.             break;
  225.         case D_L0_8x4:
  226.         case D_L1_8x4:
  227.         case D_BI_8x4:
  228.             cavlc_mb_mvd( h, s, i_list, 4*i+0, 2 );
  229.             cavlc_mb_mvd( h, s, i_list, 4*i+2, 2 );
  230.             break;
  231.         case D_L0_4x8:
  232.         case D_L1_4x8:
  233.         case D_BI_4x8:
  234.             cavlc_mb_mvd( h, s, i_list, 4*i+0, 1 );
  235.             cavlc_mb_mvd( h, s, i_list, 4*i+1, 1 );
  236.             break;
  237.         case D_L0_4x4:
  238.         case D_L1_4x4:
  239.         case D_BI_4x4:
  240.             cavlc_mb_mvd( h, s, i_list, 4*i+0, 1 );
  241.             cavlc_mb_mvd( h, s, i_list, 4*i+1, 1 );
  242.             cavlc_mb_mvd( h, s, i_list, 4*i+2, 1 );
  243.             cavlc_mb_mvd( h, s, i_list, 4*i+3, 1 );
  244.             break;
  245.     }
  246. }
  247. static inline void x264_macroblock_luma_write_cavlc( x264_t *h, bs_t *s, int i8start, int i8end )
  248. {
  249.     int i8, i4, i;
  250.     if( h->mb.b_transform_8x8 )
  251.     {
  252.         /* shuffle 8x8 dct coeffs into 4x4 lists */
  253.         for( i8 = i8start; i8 <= i8end; i8++ )
  254.             if( h->mb.i_cbp_luma & (1 << i8) )
  255.                 for( i4 = 0; i4 < 4; i4++ )
  256.                     for( i = 0; i < 16; i++ )
  257.                         h->dct.luma4x4[i4+i8*4][i] = h->dct.luma8x8[i8][i4+i*4];
  258.     }
  259.     for( i8 = i8start; i8 <= i8end; i8++ )
  260.         if( h->mb.i_cbp_luma & (1 << i8) )
  261.             for( i4 = 0; i4 < 4; i4++ )
  262.             {
  263.                 h->mb.cache.non_zero_count[x264_scan8[i4+i8*4]] = array_non_zero_count( h->dct.luma4x4[i4+i8*4] );
  264.                 block_residual_write_cavlc( h, s, i4+i8*4, h->dct.luma4x4[i4+i8*4], 16 );
  265.             }
  266. }
  267. /*****************************************************************************
  268.  * x264_macroblock_write:
  269.  *****************************************************************************/
  270. void x264_macroblock_write_cavlc( x264_t *h, bs_t *s )
  271. {
  272.     const int i_mb_type = h->mb.i_type;
  273.     int i_mb_i_offset;
  274.     int i;
  275. #ifndef RDO_SKIP_BS
  276.     const int i_mb_pos_start = bs_pos( s );
  277.     int       i_mb_pos_tex;
  278. #endif
  279.     switch( h->sh.i_type )
  280.     {
  281.         case SLICE_TYPE_I:
  282.             i_mb_i_offset = 0;
  283.             break;
  284.         case SLICE_TYPE_P:
  285.             i_mb_i_offset = 5;
  286.             break;
  287.         case SLICE_TYPE_B:
  288.             i_mb_i_offset = 23;
  289.             break;
  290.         default:
  291.             x264_log(h, X264_LOG_ERROR, "internal error or slice unsupportedn" );
  292.             return;
  293.     }
  294.     if( h->sh.b_mbaff
  295.         && (!(h->mb.i_mb_y & 1) || IS_SKIP(h->mb.type[h->mb.i_mb_xy - h->mb.i_mb_stride])) )
  296.     {
  297.         bs_write1( s, h->mb.b_interlaced );
  298.     }
  299. #ifndef RDO_SKIP_BS
  300.     if( i_mb_type == I_PCM)
  301.     {
  302.         bs_write_ue( s, i_mb_i_offset + 25 );
  303.         i_mb_pos_tex = bs_pos( s );
  304.         h->stat.frame.i_mv_bits += i_mb_pos_tex - i_mb_pos_start;
  305.         bs_align_0( s );
  306.         memcpy( s->p, h->mb.pic.p_fenc[0], 256 );
  307.         s->p += 256;
  308.         for( i = 0; i < 8; i++ )
  309.             memcpy( s->p + i*8, h->mb.pic.p_fenc[1] + i*FENC_STRIDE, 8 );
  310.         s->p += 64;
  311.         for( i = 0; i < 8; i++ )
  312.             memcpy( s->p + i*8, h->mb.pic.p_fenc[2] + i*FENC_STRIDE, 8 );
  313.         s->p += 64;
  314.         /* if PCM is chosen, we need to store reconstructed frame data */
  315.         h->mc.copy[PIXEL_16x16]( h->mb.pic.p_fdec[0], FDEC_STRIDE, h->mb.pic.p_fenc[0], FENC_STRIDE, 16 );
  316.         h->mc.copy[PIXEL_8x8]  ( h->mb.pic.p_fdec[1], FDEC_STRIDE, h->mb.pic.p_fenc[1], FENC_STRIDE, 8 );
  317.         h->mc.copy[PIXEL_8x8]  ( h->mb.pic.p_fdec[2], FDEC_STRIDE, h->mb.pic.p_fenc[2], FENC_STRIDE, 8 );
  318.         h->stat.frame.i_tex_bits += bs_pos(s) - i_mb_pos_tex;
  319.         return;
  320.     }
  321. #endif
  322.     /* Write:
  323.       - type
  324.       - prediction
  325.       - mv */
  326.     if( i_mb_type == I_4x4 || i_mb_type == I_8x8 )
  327.     {
  328.         int di = i_mb_type == I_8x8 ? 4 : 1;
  329.         bs_write_ue( s, i_mb_i_offset + 0 );
  330.         if( h->pps->b_transform_8x8_mode )
  331.             bs_write1( s, h->mb.b_transform_8x8 );
  332.         /* Prediction: Luma */
  333.         for( i = 0; i < 16; i += di )
  334.         {
  335.             int i_pred = x264_mb_predict_intra4x4_mode( h, i );
  336.             int i_mode = x264_mb_pred_mode4x4_fix( h->mb.cache.intra4x4_pred_mode[x264_scan8[i]] );
  337.             if( i_pred == i_mode )
  338.                 bs_write1( s, 1 );  /* b_prev_intra4x4_pred_mode */
  339.             else
  340.                 bs_write( s, 4, i_mode - (i_mode > i_pred) );
  341.         }
  342.         bs_write_ue( s, x264_mb_pred_mode8x8c_fix[ h->mb.i_chroma_pred_mode ] );
  343.     }
  344.     else if( i_mb_type == I_16x16 )
  345.     {
  346.         bs_write_ue( s, i_mb_i_offset + 1 + x264_mb_pred_mode16x16_fix[h->mb.i_intra16x16_pred_mode] +
  347.                         h->mb.i_cbp_chroma * 4 + ( h->mb.i_cbp_luma == 0 ? 0 : 12 ) );
  348.         bs_write_ue( s, x264_mb_pred_mode8x8c_fix[ h->mb.i_chroma_pred_mode ] );
  349.     }
  350.     else if( i_mb_type == P_L0 )
  351.     {
  352.         DECLARE_ALIGNED_4( int16_t mvp[2] );
  353.         if( h->mb.i_partition == D_16x16 )
  354.         {
  355.             bs_write_ue( s, 0 );
  356.             if( h->mb.pic.i_fref[0] > 1 )
  357.                 bs_write_te( s, h->mb.pic.i_fref[0] - 1, h->mb.cache.ref[0][x264_scan8[0]] );
  358.             x264_mb_predict_mv( h, 0, 0, 4, mvp );
  359.             bs_write_se( s, h->mb.cache.mv[0][x264_scan8[0]][0] - mvp[0] );
  360.             bs_write_se( s, h->mb.cache.mv[0][x264_scan8[0]][1] - mvp[1] );
  361.         }
  362.         else if( h->mb.i_partition == D_16x8 )
  363.         {
  364.             bs_write_ue( s, 1 );
  365.             if( h->mb.pic.i_fref[0] > 1 )
  366.             {
  367.                 bs_write_te( s, h->mb.pic.i_fref[0] - 1, h->mb.cache.ref[0][x264_scan8[0]] );
  368.                 bs_write_te( s, h->mb.pic.i_fref[0] - 1, h->mb.cache.ref[0][x264_scan8[8]] );
  369.             }
  370.             x264_mb_predict_mv( h, 0, 0, 4, mvp );
  371.             bs_write_se( s, h->mb.cache.mv[0][x264_scan8[0]][0] - mvp[0] );
  372.             bs_write_se( s, h->mb.cache.mv[0][x264_scan8[0]][1] - mvp[1] );
  373.             x264_mb_predict_mv( h, 0, 8, 4, mvp );
  374.             bs_write_se( s, h->mb.cache.mv[0][x264_scan8[8]][0] - mvp[0] );
  375.             bs_write_se( s, h->mb.cache.mv[0][x264_scan8[8]][1] - mvp[1] );
  376.         }
  377.         else if( h->mb.i_partition == D_8x16 )
  378.         {
  379.             bs_write_ue( s, 2 );
  380.             if( h->mb.pic.i_fref[0] > 1 )
  381.             {
  382.                 bs_write_te( s, h->mb.pic.i_fref[0] - 1, h->mb.cache.ref[0][x264_scan8[0]] );
  383.                 bs_write_te( s, h->mb.pic.i_fref[0] - 1, h->mb.cache.ref[0][x264_scan8[4]] );
  384.             }
  385.             x264_mb_predict_mv( h, 0, 0, 2, mvp );
  386.             bs_write_se( s, h->mb.cache.mv[0][x264_scan8[0]][0] - mvp[0] );
  387.             bs_write_se( s, h->mb.cache.mv[0][x264_scan8[0]][1] - mvp[1] );
  388.             x264_mb_predict_mv( h, 0, 4, 2, mvp );
  389.             bs_write_se( s, h->mb.cache.mv[0][x264_scan8[4]][0] - mvp[0] );
  390.             bs_write_se( s, h->mb.cache.mv[0][x264_scan8[4]][1] - mvp[1] );
  391.         }
  392.     }
  393.     else if( i_mb_type == P_8x8 )
  394.     {
  395.         int b_sub_ref0;
  396.         if( (h->mb.cache.ref[0][x264_scan8[0]] | h->mb.cache.ref[0][x264_scan8[ 4]] |
  397.              h->mb.cache.ref[0][x264_scan8[8]] | h->mb.cache.ref[0][x264_scan8[12]]) == 0 )
  398.         {
  399.             bs_write_ue( s, 4 );
  400.             b_sub_ref0 = 0;
  401.         }
  402.         else
  403.         {
  404.             bs_write_ue( s, 3 );
  405.             b_sub_ref0 = 1;
  406.         }
  407.         /* sub mb type */
  408.         if( h->param.analyse.inter & X264_ANALYSE_PSUB8x8 )
  409.             for( i = 0; i < 4; i++ )
  410.                 bs_write_ue( s, sub_mb_type_p_to_golomb[ h->mb.i_sub_partition[i] ] );
  411.         else
  412.             bs_write( s, 4, 0xf );
  413.         /* ref0 */
  414.         if( h->mb.pic.i_fref[0] > 1 && b_sub_ref0 )
  415.         {
  416.             bs_write_te( s, h->mb.pic.i_fref[0] - 1, h->mb.cache.ref[0][x264_scan8[0]] );
  417.             bs_write_te( s, h->mb.pic.i_fref[0] - 1, h->mb.cache.ref[0][x264_scan8[4]] );
  418.             bs_write_te( s, h->mb.pic.i_fref[0] - 1, h->mb.cache.ref[0][x264_scan8[8]] );
  419.             bs_write_te( s, h->mb.pic.i_fref[0] - 1, h->mb.cache.ref[0][x264_scan8[12]] );
  420.         }
  421.         for( i = 0; i < 4; i++ )
  422.             cavlc_mb8x8_mvd( h, s, 0, i );
  423.     }
  424.     else if( i_mb_type == B_8x8 )
  425.     {
  426.         bs_write_ue( s, 22 );
  427.         /* sub mb type */
  428.         for( i = 0; i < 4; i++ )
  429.             bs_write_ue( s, sub_mb_type_b_to_golomb[ h->mb.i_sub_partition[i] ] );
  430.         /* ref */
  431.         for( i = 0; i < 4; i++ )
  432.             if( x264_mb_partition_listX_table[0][ h->mb.i_sub_partition[i] ] )
  433.                 bs_write_te( s, h->mb.pic.i_fref[0] - 1, h->mb.cache.ref[0][x264_scan8[i*4]] );
  434.         for( i = 0; i < 4; i++ )
  435.             if( x264_mb_partition_listX_table[1][ h->mb.i_sub_partition[i] ] )
  436.                 bs_write_te( s, h->mb.pic.i_fref[1] - 1, h->mb.cache.ref[1][x264_scan8[i*4]] );
  437.         /* mvd */
  438.         for( i = 0; i < 4; i++ )
  439.             cavlc_mb8x8_mvd( h, s, 0, i );
  440.         for( i = 0; i < 4; i++ )
  441.             cavlc_mb8x8_mvd( h, s, 1, i );
  442.     }
  443.     else if( i_mb_type != B_DIRECT )
  444.     {
  445.         /* All B mode */
  446.         /* Motion Vector */
  447.         int i_list;
  448.         DECLARE_ALIGNED_4( int16_t mvp[2] );
  449.         int b_list[2][2];
  450.         /* init ref list utilisations */
  451.         for( i = 0; i < 2; i++ )
  452.         {
  453.             b_list[0][i] = x264_mb_type_list0_table[i_mb_type][i];
  454.             b_list[1][i] = x264_mb_type_list1_table[i_mb_type][i];
  455.         }
  456.         bs_write_ue( s, mb_type_b_to_golomb[ h->mb.i_partition - D_16x8 ][ i_mb_type - B_L0_L0 ] );
  457.         for( i_list = 0; i_list < 2; i_list++ )
  458.         {
  459.             const int i_ref_max = (i_list == 0 ? h->mb.pic.i_fref[0] : h->mb.pic.i_fref[1]) - 1;
  460.             if( i_ref_max )
  461.                 switch( h->mb.i_partition )
  462.                 {
  463.                     case D_16x16:
  464.                         if( b_list[i_list][0] ) bs_write_te( s, i_ref_max, h->mb.cache.ref[i_list][x264_scan8[0]] );
  465.                         break;
  466.                     case D_16x8:
  467.                         if( b_list[i_list][0] ) bs_write_te( s, i_ref_max, h->mb.cache.ref[i_list][x264_scan8[0]] );
  468.                         if( b_list[i_list][1] ) bs_write_te( s, i_ref_max, h->mb.cache.ref[i_list][x264_scan8[8]] );
  469.                         break;
  470.                     case D_8x16:
  471.                         if( b_list[i_list][0] ) bs_write_te( s, i_ref_max, h->mb.cache.ref[i_list][x264_scan8[0]] );
  472.                         if( b_list[i_list][1] ) bs_write_te( s, i_ref_max, h->mb.cache.ref[i_list][x264_scan8[4]] );
  473.                         break;
  474.                 }
  475.         }
  476.         for( i_list = 0; i_list < 2; i_list++ )
  477.         {
  478.             switch( h->mb.i_partition )
  479.             {
  480.                 case D_16x16:
  481.                     if( b_list[i_list][0] )
  482.                     {
  483.                         x264_mb_predict_mv( h, i_list, 0, 4, mvp );
  484.                         bs_write_se( s, h->mb.cache.mv[i_list][x264_scan8[0]][0] - mvp[0] );
  485.                         bs_write_se( s, h->mb.cache.mv[i_list][x264_scan8[0]][1] - mvp[1] );
  486.                     }
  487.                     break;
  488.                 case D_16x8:
  489.                     if( b_list[i_list][0] )
  490.                     {
  491.                         x264_mb_predict_mv( h, i_list, 0, 4, mvp );
  492.                         bs_write_se( s, h->mb.cache.mv[i_list][x264_scan8[0]][0] - mvp[0] );
  493.                         bs_write_se( s, h->mb.cache.mv[i_list][x264_scan8[0]][1] - mvp[1] );
  494.                     }
  495.                     if( b_list[i_list][1] )
  496.                     {
  497.                         x264_mb_predict_mv( h, i_list, 8, 4, mvp );
  498.                         bs_write_se( s, h->mb.cache.mv[i_list][x264_scan8[8]][0] - mvp[0] );
  499.                         bs_write_se( s, h->mb.cache.mv[i_list][x264_scan8[8]][1] - mvp[1] );
  500.                     }
  501.                     break;
  502.                 case D_8x16:
  503.                     if( b_list[i_list][0] )
  504.                     {
  505.                         x264_mb_predict_mv( h, i_list, 0, 2, mvp );
  506.                         bs_write_se( s, h->mb.cache.mv[i_list][x264_scan8[0]][0] - mvp[0] );
  507.                         bs_write_se( s, h->mb.cache.mv[i_list][x264_scan8[0]][1] - mvp[1] );
  508.                     }
  509.                     if( b_list[i_list][1] )
  510.                     {
  511.                         x264_mb_predict_mv( h, i_list, 4, 2, mvp );
  512.                         bs_write_se( s, h->mb.cache.mv[i_list][x264_scan8[4]][0] - mvp[0] );
  513.                         bs_write_se( s, h->mb.cache.mv[i_list][x264_scan8[4]][1] - mvp[1] );
  514.                     }
  515.                     break;
  516.             }
  517.         }
  518.     }
  519.     else if( i_mb_type == B_DIRECT )
  520.         bs_write_ue( s, 0 );
  521.     else
  522.     {
  523.         x264_log(h, X264_LOG_ERROR, "invalid/unhandled mb_typen" );
  524.         return;
  525.     }
  526. #ifndef RDO_SKIP_BS
  527.     i_mb_pos_tex = bs_pos( s );
  528.     h->stat.frame.i_mv_bits += i_mb_pos_tex - i_mb_pos_start;
  529. #endif
  530.     /* Coded block patern */
  531.     if( i_mb_type == I_4x4 || i_mb_type == I_8x8 )
  532.         bs_write_ue( s, intra4x4_cbp_to_golomb[( h->mb.i_cbp_chroma << 4 )|h->mb.i_cbp_luma] );
  533.     else if( i_mb_type != I_16x16 )
  534.         bs_write_ue( s, inter_cbp_to_golomb[( h->mb.i_cbp_chroma << 4 )|h->mb.i_cbp_luma] );
  535.     /* transform size 8x8 flag */
  536.     if( x264_mb_transform_8x8_allowed( h ) && h->mb.i_cbp_luma )
  537.         bs_write1( s, h->mb.b_transform_8x8 );
  538.     /* write residual */
  539.     if( i_mb_type == I_16x16 )
  540.     {
  541.         cavlc_qp_delta( h, s );
  542.         /* DC Luma */
  543.         block_residual_write_cavlc( h, s, BLOCK_INDEX_LUMA_DC , h->dct.luma16x16_dc, 16 );
  544.         /* AC Luma */
  545.         if( h->mb.i_cbp_luma )
  546.             for( i = 0; i < 16; i++ )
  547.             {
  548.                 h->mb.cache.non_zero_count[x264_scan8[i]] = array_non_zero_count( h->dct.luma4x4[i] );
  549.                 block_residual_write_cavlc( h, s, i, h->dct.luma4x4[i]+1, 15 );
  550.             }
  551.     }
  552.     else if( h->mb.i_cbp_luma | h->mb.i_cbp_chroma )
  553.     {
  554.         cavlc_qp_delta( h, s );
  555.         x264_macroblock_luma_write_cavlc( h, s, 0, 3 );
  556.     }
  557.     if( h->mb.i_cbp_chroma )
  558.     {
  559.         /* Chroma DC residual present */
  560.         block_residual_write_cavlc( h, s, BLOCK_INDEX_CHROMA_DC, h->dct.chroma_dc[0], 4 );
  561.         block_residual_write_cavlc( h, s, BLOCK_INDEX_CHROMA_DC, h->dct.chroma_dc[1], 4 );
  562.         if( h->mb.i_cbp_chroma&0x02 ) /* Chroma AC residual present */
  563.             for( i = 16; i < 24; i++ )
  564.             {
  565.                 h->mb.cache.non_zero_count[x264_scan8[i]] = array_non_zero_count( h->dct.luma4x4[i] );
  566.                 block_residual_write_cavlc( h, s, i, h->dct.luma4x4[i]+1, 15 );
  567.             }
  568.     }
  569. #ifndef RDO_SKIP_BS
  570.     h->stat.frame.i_tex_bits += bs_pos(s) - i_mb_pos_tex;
  571. #endif
  572. }
  573. #ifdef RDO_SKIP_BS
  574. /*****************************************************************************
  575.  * RD only; doesn't generate a valid bitstream
  576.  * doesn't write cbp or chroma dc (I don't know how much this matters)
  577.  * works on all partition sizes except 16x16
  578.  * for sub8x8, call once per 8x8 block
  579.  *****************************************************************************/
  580. static int x264_partition_size_cavlc( x264_t *h, int i8, int i_pixel )
  581. {
  582.     bs_t s;
  583.     const int i_mb_type = h->mb.i_type;
  584.     int j;
  585.     s.i_bits_encoded = 0;
  586.     if( i_mb_type == P_8x8 )
  587.     {
  588.         bs_write_ue( &s, sub_mb_type_p_to_golomb[ h->mb.i_sub_partition[i8] ] );
  589.         if( h->mb.pic.i_fref[0] > 1 )
  590.             bs_write_te( &s, h->mb.pic.i_fref[0] - 1, h->mb.cache.ref[0][x264_scan8[4*i8]] );
  591.         cavlc_mb8x8_mvd( h, &s, 0, i8 );
  592.     }
  593.     else if( i_mb_type == P_L0 )
  594.     {
  595.         if( h->mb.pic.i_fref[0] > 1 )
  596.             bs_write_te( &s, h->mb.pic.i_fref[0] - 1, h->mb.cache.ref[0][x264_scan8[4*i8]] );
  597.         if( h->mb.i_partition == D_16x8 )
  598.             cavlc_mb_mvd( h, &s, 0, 4*i8, 4 );
  599.         else //8x16
  600.             cavlc_mb_mvd( h, &s, 0, 4*i8, 2 );
  601.     }
  602.     else if( i_mb_type == B_8x8 )
  603.     {
  604.         bs_write_ue( &s, sub_mb_type_b_to_golomb[ h->mb.i_sub_partition[i8] ] );
  605.         if( h->mb.pic.i_fref[0] > 1
  606.             && x264_mb_partition_listX_table[0][ h->mb.i_sub_partition[i8] ] )
  607.             bs_write_te( &s, h->mb.pic.i_fref[0] - 1, h->mb.cache.ref[0][x264_scan8[4*i8]] );
  608.         if( h->mb.pic.i_fref[1] > 1
  609.             && x264_mb_partition_listX_table[1][ h->mb.i_sub_partition[i8] ] )
  610.             bs_write_te( &s, h->mb.pic.i_fref[1] - 1, h->mb.cache.ref[1][x264_scan8[4*i8]] );
  611.         cavlc_mb8x8_mvd( h, &s, 0, i8 );
  612.         cavlc_mb8x8_mvd( h, &s, 1, i8 );
  613.     }
  614.     else
  615.     {
  616.         x264_log(h, X264_LOG_ERROR, "invalid/unhandled mb_typen" );
  617.         return 0;
  618.     }
  619.     for( j = (i_pixel < PIXEL_8x8); j >= 0; j-- )
  620.     {
  621.         x264_macroblock_luma_write_cavlc( h, &s, i8, i8 );
  622.         h->mb.cache.non_zero_count[x264_scan8[16+i8]] = array_non_zero_count( h->dct.luma4x4[16+i8] );
  623.         block_residual_write_cavlc( h, &s, 16+i8, h->dct.luma4x4[16+i8]+1, 15 );
  624.         h->mb.cache.non_zero_count[x264_scan8[20+i8]] = array_non_zero_count( h->dct.luma4x4[20+i8] );
  625.         block_residual_write_cavlc( h, &s, 20+i8, h->dct.luma4x4[20+i8]+1, 15 );
  626.         i8 += x264_pixel_size[i_pixel].h >> 3;
  627.     }
  628.     return s.i_bits_encoded;
  629. }
  630. static int cavlc_intra4x4_pred_size( x264_t *h, int i4, int i_mode )
  631. {
  632.     if( x264_mb_predict_intra4x4_mode( h, i4 ) == x264_mb_pred_mode4x4_fix( i_mode ) )
  633.         return 1;
  634.     else
  635.         return 4;
  636. }
  637. static int x264_partition_i8x8_size_cavlc( x264_t *h, int i8, int i_mode )
  638. {
  639.     int i4, i;
  640.     h->out.bs.i_bits_encoded = cavlc_intra4x4_pred_size( h, 4*i8, i_mode );
  641.     for( i4 = 0; i4 < 4; i4++ )
  642.     {
  643.         for( i = 0; i < 16; i++ )
  644.             h->dct.luma4x4[i4+i8*4][i] = h->dct.luma8x8[i8][i4+i*4];
  645.         h->mb.cache.non_zero_count[x264_scan8[i4+i8*4]] =
  646.             array_non_zero_count( h->dct.luma4x4[i4+i8*4] );
  647.         block_residual_write_cavlc( h, &h->out.bs, i4+i8*4, h->dct.luma4x4[i4+i8*4], 16 );
  648.     }
  649.     return h->out.bs.i_bits_encoded;
  650. }
  651. static int x264_partition_i4x4_size_cavlc( x264_t *h, int i4, int i_mode )
  652. {
  653.     h->out.bs.i_bits_encoded = cavlc_intra4x4_pred_size( h, i4, i_mode );
  654.     block_residual_write_cavlc( h, &h->out.bs, i4, h->dct.luma4x4[i4], 16 );
  655.     return h->out.bs.i_bits_encoded;
  656. }
  657. static int x264_i8x8_chroma_size_cavlc( x264_t *h )
  658. {
  659.     h->out.bs.i_bits_encoded = bs_size_ue( x264_mb_pred_mode8x8c_fix[ h->mb.i_chroma_pred_mode ] );
  660.     if( h->mb.i_cbp_chroma )
  661.     {
  662.         block_residual_write_cavlc( h, &h->out.bs, BLOCK_INDEX_CHROMA_DC, h->dct.chroma_dc[0], 4 );
  663.         block_residual_write_cavlc( h, &h->out.bs, BLOCK_INDEX_CHROMA_DC, h->dct.chroma_dc[1], 4 );
  664.         if( h->mb.i_cbp_chroma == 2 )
  665.         {
  666.             int i;
  667.             for( i = 16; i < 24; i++ )
  668.             {
  669.                 h->mb.cache.non_zero_count[x264_scan8[i]] = array_non_zero_count( h->dct.luma4x4[i] );
  670.                 block_residual_write_cavlc( h, &h->out.bs, i, h->dct.luma4x4[i]+1, 15 );
  671.             }
  672.         }
  673.     }
  674.     return h->out.bs.i_bits_encoded;
  675. }
  676. #endif