cavlc.c
上传用户:lctgjx
上传日期:2022-06-04
资源大小:8887k
文件大小:24k
源码类别:

流媒体/Mpeg4/MP4

开发平台:

Visual C++

  1. /*****************************************************************************
  2.  * cavlc.c: h264 encoder library
  3.  *****************************************************************************
  4.  * Copyright (C) 2003-2008 x264 project
  5.  *
  6.  * Authors: Laurent Aimar <fenrir@via.ecp.fr>
  7.  *          Loren Merritt <lorenm@u.washington.edu>
  8.  *          Jason Garrett-Glaser <darkshikari@gmail.com>
  9.  *
  10.  * This program is free software; you can redistribute it and/or modify
  11.  * it under the terms of the GNU General Public License as published by
  12.  * the Free Software Foundation; either version 2 of the License, or
  13.  * (at your option) any later version.
  14.  *
  15.  * This program is distributed in the hope that it will be useful,
  16.  * but WITHOUT ANY WARRANTY; without even the implied warranty of
  17.  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
  18.  * GNU General Public License for more details.
  19.  *
  20.  * You should have received a copy of the GNU General Public License
  21.  * along with this program; if not, write to the Free Software
  22.  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02111, USA.
  23.  *****************************************************************************/
  24. #include "common/common.h"
  25. #include "macroblock.h"
  26. #ifndef RDO_SKIP_BS
  27. #define RDO_SKIP_BS 0
  28. #endif
  29. static const uint8_t intra4x4_cbp_to_golomb[48]=
  30. {
  31.   3, 29, 30, 17, 31, 18, 37,  8, 32, 38, 19,  9, 20, 10, 11,  2,
  32.  16, 33, 34, 21, 35, 22, 39,  4, 36, 40, 23,  5, 24,  6,  7,  1,
  33.  41, 42, 43, 25, 44, 26, 46, 12, 45, 47, 27, 13, 28, 14, 15,  0
  34. };
  35. static const uint8_t inter_cbp_to_golomb[48]=
  36. {
  37.   0,  2,  3,  7,  4,  8, 17, 13,  5, 18,  9, 14, 10, 15, 16, 11,
  38.   1, 32, 33, 36, 34, 37, 44, 40, 35, 45, 38, 41, 39, 42, 43, 19,
  39.   6, 24, 25, 20, 26, 21, 46, 28, 27, 47, 22, 29, 23, 30, 31, 12
  40. };
  41. static const uint8_t mb_type_b_to_golomb[3][9]=
  42. {
  43.     { 4,  8, 12, 10,  6, 14, 16, 18, 20 }, /* D_16x8 */
  44.     { 5,  9, 13, 11,  7, 15, 17, 19, 21 }, /* D_8x16 */
  45.     { 1, -1, -1, -1,  2, -1, -1, -1,  3 }  /* D_16x16 */
  46. };
  47. static const uint8_t sub_mb_type_p_to_golomb[4]=
  48. {
  49.     3, 1, 2, 0
  50. };
  51. static const uint8_t sub_mb_type_b_to_golomb[13]=
  52. {
  53.     10,  4,  5,  1, 11,  6,  7,  2, 12,  8,  9,  3,  0
  54. };
  55. #define bs_write_vlc(s,v) bs_write( s, (v).i_size, (v).i_bits )
  56. /****************************************************************************
  57.  * block_residual_write_cavlc:
  58.  ****************************************************************************/
  59. static inline int block_residual_write_cavlc_escape( x264_t *h, bs_t *s, int i_suffix_length, int level )
  60. {
  61.     static const uint16_t next_suffix[7] = { 0, 3, 6, 12, 24, 48, 0xffff };
  62.     int i_level_prefix = 15;
  63.     int mask = level >> 15;
  64.     int abs_level = (level^mask)-mask;
  65.     int i_level_code = abs_level*2-mask-2;
  66.     if( ( i_level_code >> i_suffix_length ) < 15 )
  67.     {
  68.         bs_write( s, (i_level_code >> i_suffix_length) + 1 + i_suffix_length,
  69.                  (1<<i_suffix_length) + (i_level_code & ((1<<i_suffix_length)-1)) );
  70.     }
  71.     else
  72.     {
  73.         i_level_code -= 15 << i_suffix_length;
  74.         if( i_suffix_length == 0 )
  75.             i_level_code -= 15;
  76.         /* If the prefix size exceeds 15, High Profile is required. */
  77.         if( i_level_code >= 1<<12 )
  78.         {
  79.             if( h->sps->i_profile_idc >= PROFILE_HIGH )
  80.             {
  81.                 while( i_level_code > 1<<(i_level_prefix-3) )
  82.                 {
  83.                     i_level_code -= 1<<(i_level_prefix-3);
  84.                     i_level_prefix++;
  85.                 }
  86.             }
  87.             else
  88.             {
  89. #if RDO_SKIP_BS
  90.                 /* Weight highly against overflows. */
  91.                 s->i_bits_encoded += 1000000;
  92. #else
  93.                 x264_log(h, X264_LOG_WARNING, "OVERFLOW levelcode=%d is only allowed in High Profilen", i_level_code );
  94.                 /* clip level, preserving sign */
  95.                 i_level_code = (1<<12) - 2 + (i_level_code & 1);
  96. #endif
  97.             }
  98.         }
  99.         bs_write( s, i_level_prefix + 1, 1 );
  100.         bs_write( s, i_level_prefix - 3, i_level_code & ((1<<(i_level_prefix-3))-1) );
  101.     }
  102.     if( i_suffix_length == 0 )
  103.         i_suffix_length++;
  104.     if( abs_level > next_suffix[i_suffix_length] )
  105.         i_suffix_length++;
  106.     return i_suffix_length;
  107. }
  108. static int block_residual_write_cavlc( x264_t *h, bs_t *s, int i_ctxBlockCat, int16_t *l, int nC )
  109. {
  110.     static const uint8_t ctz_index[8] = {3,0,1,0,2,0,1,0};
  111.     static const int count_cat[5] = {16, 15, 16, 4, 15};
  112.     x264_run_level_t runlevel;
  113.     int i_trailing, i_total_zero, i_suffix_length, i;
  114.     int i_total = 0;
  115.     unsigned int i_sign;
  116.     /* level and run and total */
  117.     /* set these to 2 to allow branchless i_trailing calculation */
  118.     runlevel.level[1] = 2;
  119.     runlevel.level[2] = 2;
  120.     i_total = h->quantf.coeff_level_run[i_ctxBlockCat]( l, &runlevel );
  121.     i_total_zero = runlevel.last + 1 - i_total;
  122.     i_trailing = ((((runlevel.level[0]+1) | (1-runlevel.level[0])) >> 31) & 1) // abs(runlevel.level[0])>1
  123.                | ((((runlevel.level[1]+1) | (1-runlevel.level[1])) >> 31) & 2)
  124.                | ((((runlevel.level[2]+1) | (1-runlevel.level[2])) >> 31) & 4);
  125.     i_trailing = ctz_index[i_trailing];
  126.     i_sign = ((runlevel.level[2] >> 31) & 1)
  127.            | ((runlevel.level[1] >> 31) & 2)
  128.            | ((runlevel.level[0] >> 31) & 4);
  129.     i_sign >>= 3-i_trailing;
  130.     /* total/trailing */
  131.     bs_write_vlc( s, x264_coeff_token[nC][i_total*4+i_trailing-4] );
  132.     i_suffix_length = i_total > 10 && i_trailing < 3;
  133.     bs_write( s, i_trailing, i_sign );
  134.     if( i_trailing < i_total )
  135.     {
  136.         int16_t val = runlevel.level[i_trailing];
  137.         int16_t val_original = runlevel.level[i_trailing]+LEVEL_TABLE_SIZE/2;
  138.         if( i_trailing < 3 )
  139.             val -= (val>>15)|1; /* as runlevel.level[i] can't be 1 for the first one if i_trailing < 3 */
  140.         val += LEVEL_TABLE_SIZE/2;
  141.         if( (unsigned)val_original < LEVEL_TABLE_SIZE )
  142.         {
  143.             bs_write_vlc( s, x264_level_token[i_suffix_length][val] );
  144.             i_suffix_length = x264_level_token[i_suffix_length][val_original].i_next;
  145.         }
  146.         else
  147.             i_suffix_length = block_residual_write_cavlc_escape( h, s, i_suffix_length, val-LEVEL_TABLE_SIZE/2 );
  148.         for( i = i_trailing+1; i < i_total; i++ )
  149.         {
  150.             val = runlevel.level[i] + LEVEL_TABLE_SIZE/2;
  151.             if( (unsigned)val < LEVEL_TABLE_SIZE )
  152.             {
  153.                 bs_write_vlc( s, x264_level_token[i_suffix_length][val] );
  154.                 i_suffix_length = x264_level_token[i_suffix_length][val].i_next;
  155.             }
  156.             else
  157.                 i_suffix_length = block_residual_write_cavlc_escape( h, s, i_suffix_length, val-LEVEL_TABLE_SIZE/2 );
  158.         }
  159.     }
  160.     if( i_total < count_cat[i_ctxBlockCat] )
  161.     {
  162.         if( i_ctxBlockCat == DCT_CHROMA_DC )
  163.             bs_write_vlc( s, x264_total_zeros_dc[i_total-1][i_total_zero] );
  164.         else
  165.             bs_write_vlc( s, x264_total_zeros[i_total-1][i_total_zero] );
  166.     }
  167.     for( i = 0; i < i_total-1 && i_total_zero > 0; i++ )
  168.     {
  169.         int i_zl = X264_MIN( i_total_zero, 7 );
  170.         bs_write_vlc( s, x264_run_before[i_zl-1][runlevel.run[i]] );
  171.         i_total_zero -= runlevel.run[i];
  172.     }
  173.     return i_total;
  174. }
  175. static const uint8_t ct_index[17] = {0,0,1,1,2,2,2,2,3,3,3,3,3,3,3,3,3};
  176. #define block_residual_write_cavlc(h,s,cat,idx,l)
  177. {
  178.     int nC = cat == DCT_CHROMA_DC ? 4 : ct_index[x264_mb_predict_non_zero_code( h, cat == DCT_LUMA_DC ? 0 : idx )];
  179.     uint8_t *nnz = &h->mb.cache.non_zero_count[x264_scan8[idx]];
  180.     if( !*nnz )
  181.         bs_write_vlc( s, x264_coeff0_token[nC] );
  182.     else
  183.         *nnz = block_residual_write_cavlc(h,s,cat,l,nC);
  184. }
  185. static void cavlc_qp_delta( x264_t *h, bs_t *s )
  186. {
  187.     int i_dqp = h->mb.i_qp - h->mb.i_last_qp;
  188.     /* Avoid writing a delta quant if we have an empty i16x16 block, e.g. in a completely flat background area */
  189.     if( h->mb.i_type == I_16x16 && !(h->mb.i_cbp_luma | h->mb.i_cbp_chroma)
  190.         && !h->mb.cache.non_zero_count[x264_scan8[24]] )
  191.     {
  192. #if !RDO_SKIP_BS
  193.         h->mb.i_qp = h->mb.i_last_qp;
  194. #endif
  195.         i_dqp = 0;
  196.     }
  197.     if( i_dqp )
  198.     {
  199.         if( i_dqp < -26 )
  200.             i_dqp += 52;
  201.         else if( i_dqp > 25 )
  202.             i_dqp -= 52;
  203.     }
  204.     bs_write_se( s, i_dqp );
  205. }
  206. static void cavlc_mb_mvd( x264_t *h, bs_t *s, int i_list, int idx, int width )
  207. {
  208.     ALIGNED_4( int16_t mvp[2] );
  209.     x264_mb_predict_mv( h, i_list, idx, width, mvp );
  210.     bs_write_se( s, h->mb.cache.mv[i_list][x264_scan8[idx]][0] - mvp[0] );
  211.     bs_write_se( s, h->mb.cache.mv[i_list][x264_scan8[idx]][1] - mvp[1] );
  212. }
  213. static inline void cavlc_mb8x8_mvd( x264_t *h, bs_t *s, int i )
  214. {
  215.     switch( h->mb.i_sub_partition[i] )
  216.     {
  217.         case D_L0_8x8:
  218.             cavlc_mb_mvd( h, s, 0, 4*i, 2 );
  219.             break;
  220.         case D_L0_8x4:
  221.             cavlc_mb_mvd( h, s, 0, 4*i+0, 2 );
  222.             cavlc_mb_mvd( h, s, 0, 4*i+2, 2 );
  223.             break;
  224.         case D_L0_4x8:
  225.             cavlc_mb_mvd( h, s, 0, 4*i+0, 1 );
  226.             cavlc_mb_mvd( h, s, 0, 4*i+1, 1 );
  227.             break;
  228.         case D_L0_4x4:
  229.             cavlc_mb_mvd( h, s, 0, 4*i+0, 1 );
  230.             cavlc_mb_mvd( h, s, 0, 4*i+1, 1 );
  231.             cavlc_mb_mvd( h, s, 0, 4*i+2, 1 );
  232.             cavlc_mb_mvd( h, s, 0, 4*i+3, 1 );
  233.             break;
  234.     }
  235. }
  236. static inline void x264_macroblock_luma_write_cavlc( x264_t *h, bs_t *s, int i8start, int i8end )
  237. {
  238.     int i8, i4;
  239.     if( h->mb.b_transform_8x8 )
  240.     {
  241.         /* shuffle 8x8 dct coeffs into 4x4 lists */
  242.         for( i8 = i8start; i8 <= i8end; i8++ )
  243.             if( h->mb.i_cbp_luma & (1 << i8) )
  244.                 h->zigzagf.interleave_8x8_cavlc( h->dct.luma4x4[i8*4], h->dct.luma8x8[i8], &h->mb.cache.non_zero_count[x264_scan8[i8*4]] );
  245.     }
  246.     for( i8 = i8start; i8 <= i8end; i8++ )
  247.         if( h->mb.i_cbp_luma & (1 << i8) )
  248.             for( i4 = 0; i4 < 4; i4++ )
  249.                 block_residual_write_cavlc( h, s, DCT_LUMA_4x4, i4+i8*4, h->dct.luma4x4[i4+i8*4] );
  250. }
  251. /*****************************************************************************
  252.  * x264_macroblock_write:
  253.  *****************************************************************************/
  254. void x264_macroblock_write_cavlc( x264_t *h, bs_t *s )
  255. {
  256.     const int i_mb_type = h->mb.i_type;
  257.     static const int i_offsets[3] = {5,23,0};
  258.     int i_mb_i_offset = i_offsets[h->sh.i_type];
  259.     int i;
  260. #if !RDO_SKIP_BS
  261.     const int i_mb_pos_start = bs_pos( s );
  262.     int       i_mb_pos_tex;
  263. #endif
  264.     if( h->sh.b_mbaff
  265.         && (!(h->mb.i_mb_y & 1) || IS_SKIP(h->mb.type[h->mb.i_mb_xy - h->mb.i_mb_stride])) )
  266.     {
  267.         bs_write1( s, h->mb.b_interlaced );
  268.     }
  269. #if !RDO_SKIP_BS
  270.     if( i_mb_type == I_PCM )
  271.     {
  272.         uint8_t *p_start = s->p_start;
  273.         bs_write_ue( s, i_mb_i_offset + 25 );
  274.         i_mb_pos_tex = bs_pos( s );
  275.         h->stat.frame.i_mv_bits += i_mb_pos_tex - i_mb_pos_start;
  276.         bs_align_0( s );
  277.         memcpy( s->p, h->mb.pic.p_fenc[0], 256 );
  278.         s->p += 256;
  279.         for( i = 0; i < 8; i++ )
  280.             memcpy( s->p + i*8, h->mb.pic.p_fenc[1] + i*FENC_STRIDE, 8 );
  281.         s->p += 64;
  282.         for( i = 0; i < 8; i++ )
  283.             memcpy( s->p + i*8, h->mb.pic.p_fenc[2] + i*FENC_STRIDE, 8 );
  284.         s->p += 64;
  285.         bs_init( s, s->p, s->p_end - s->p );
  286.         s->p_start = p_start;
  287.         /* if PCM is chosen, we need to store reconstructed frame data */
  288.         h->mc.copy[PIXEL_16x16]( h->mb.pic.p_fdec[0], FDEC_STRIDE, h->mb.pic.p_fenc[0], FENC_STRIDE, 16 );
  289.         h->mc.copy[PIXEL_8x8]  ( h->mb.pic.p_fdec[1], FDEC_STRIDE, h->mb.pic.p_fenc[1], FENC_STRIDE, 8 );
  290.         h->mc.copy[PIXEL_8x8]  ( h->mb.pic.p_fdec[2], FDEC_STRIDE, h->mb.pic.p_fenc[2], FENC_STRIDE, 8 );
  291.         h->stat.frame.i_tex_bits += bs_pos(s) - i_mb_pos_tex;
  292.         return;
  293.     }
  294. #endif
  295.     /* Write:
  296.       - type
  297.       - prediction
  298.       - mv */
  299.     if( i_mb_type == I_4x4 || i_mb_type == I_8x8 )
  300.     {
  301.         int di = i_mb_type == I_8x8 ? 4 : 1;
  302.         bs_write_ue( s, i_mb_i_offset + 0 );
  303.         if( h->pps->b_transform_8x8_mode )
  304.             bs_write1( s, h->mb.b_transform_8x8 );
  305.         /* Prediction: Luma */
  306.         for( i = 0; i < 16; i += di )
  307.         {
  308.             int i_pred = x264_mb_predict_intra4x4_mode( h, i );
  309.             int i_mode = x264_mb_pred_mode4x4_fix( h->mb.cache.intra4x4_pred_mode[x264_scan8[i]] );
  310.             if( i_pred == i_mode )
  311.                 bs_write1( s, 1 );  /* b_prev_intra4x4_pred_mode */
  312.             else
  313.                 bs_write( s, 4, i_mode - (i_mode > i_pred) );
  314.         }
  315.         bs_write_ue( s, x264_mb_pred_mode8x8c_fix[ h->mb.i_chroma_pred_mode ] );
  316.     }
  317.     else if( i_mb_type == I_16x16 )
  318.     {
  319.         bs_write_ue( s, i_mb_i_offset + 1 + x264_mb_pred_mode16x16_fix[h->mb.i_intra16x16_pred_mode] +
  320.                         h->mb.i_cbp_chroma * 4 + ( h->mb.i_cbp_luma == 0 ? 0 : 12 ) );
  321.         bs_write_ue( s, x264_mb_pred_mode8x8c_fix[ h->mb.i_chroma_pred_mode ] );
  322.     }
  323.     else if( i_mb_type == P_L0 )
  324.     {
  325.         if( h->mb.i_partition == D_16x16 )
  326.         {
  327.             bs_write1( s, 1 );
  328.             if( h->mb.pic.i_fref[0] > 1 )
  329.                 bs_write_te( s, h->mb.pic.i_fref[0] - 1, h->mb.cache.ref[0][x264_scan8[0]] );
  330.             cavlc_mb_mvd( h, s, 0, 0, 4 );
  331.         }
  332.         else if( h->mb.i_partition == D_16x8 )
  333.         {
  334.             bs_write_ue( s, 1 );
  335.             if( h->mb.pic.i_fref[0] > 1 )
  336.             {
  337.                 bs_write_te( s, h->mb.pic.i_fref[0] - 1, h->mb.cache.ref[0][x264_scan8[0]] );
  338.                 bs_write_te( s, h->mb.pic.i_fref[0] - 1, h->mb.cache.ref[0][x264_scan8[8]] );
  339.             }
  340.             cavlc_mb_mvd( h, s, 0, 0, 4 );
  341.             cavlc_mb_mvd( h, s, 0, 8, 4 );
  342.         }
  343.         else if( h->mb.i_partition == D_8x16 )
  344.         {
  345.             bs_write_ue( s, 2 );
  346.             if( h->mb.pic.i_fref[0] > 1 )
  347.             {
  348.                 bs_write_te( s, h->mb.pic.i_fref[0] - 1, h->mb.cache.ref[0][x264_scan8[0]] );
  349.                 bs_write_te( s, h->mb.pic.i_fref[0] - 1, h->mb.cache.ref[0][x264_scan8[4]] );
  350.             }
  351.             cavlc_mb_mvd( h, s, 0, 0, 2 );
  352.             cavlc_mb_mvd( h, s, 0, 4, 2 );
  353.         }
  354.     }
  355.     else if( i_mb_type == P_8x8 )
  356.     {
  357.         int b_sub_ref;
  358.         if( (h->mb.cache.ref[0][x264_scan8[0]] | h->mb.cache.ref[0][x264_scan8[ 4]] |
  359.              h->mb.cache.ref[0][x264_scan8[8]] | h->mb.cache.ref[0][x264_scan8[12]]) == 0 )
  360.         {
  361.             bs_write_ue( s, 4 );
  362.             b_sub_ref = 0;
  363.         }
  364.         else
  365.         {
  366.             bs_write_ue( s, 3 );
  367.             b_sub_ref = 1;
  368.         }
  369.         /* sub mb type */
  370.         if( h->param.analyse.inter & X264_ANALYSE_PSUB8x8 )
  371.             for( i = 0; i < 4; i++ )
  372.                 bs_write_ue( s, sub_mb_type_p_to_golomb[ h->mb.i_sub_partition[i] ] );
  373.         else
  374.             bs_write( s, 4, 0xf );
  375.         /* ref0 */
  376.         if( b_sub_ref )
  377.         {
  378.             bs_write_te( s, h->mb.pic.i_fref[0] - 1, h->mb.cache.ref[0][x264_scan8[0]] );
  379.             bs_write_te( s, h->mb.pic.i_fref[0] - 1, h->mb.cache.ref[0][x264_scan8[4]] );
  380.             bs_write_te( s, h->mb.pic.i_fref[0] - 1, h->mb.cache.ref[0][x264_scan8[8]] );
  381.             bs_write_te( s, h->mb.pic.i_fref[0] - 1, h->mb.cache.ref[0][x264_scan8[12]] );
  382.         }
  383.         for( i = 0; i < 4; i++ )
  384.             cavlc_mb8x8_mvd( h, s, i );
  385.     }
  386.     else if( i_mb_type == B_8x8 )
  387.     {
  388.         bs_write_ue( s, 22 );
  389.         /* sub mb type */
  390.         for( i = 0; i < 4; i++ )
  391.             bs_write_ue( s, sub_mb_type_b_to_golomb[ h->mb.i_sub_partition[i] ] );
  392.         /* ref */
  393.         if( h->mb.pic.i_fref[0] > 1 )
  394.             for( i = 0; i < 4; i++ )
  395.                 if( x264_mb_partition_listX_table[0][ h->mb.i_sub_partition[i] ] )
  396.                     bs_write_te( s, h->mb.pic.i_fref[0] - 1, h->mb.cache.ref[0][x264_scan8[i*4]] );
  397.         if( h->mb.pic.i_fref[1] > 1 )
  398.             for( i = 0; i < 4; i++ )
  399.                 if( x264_mb_partition_listX_table[1][ h->mb.i_sub_partition[i] ] )
  400.                     bs_write_te( s, h->mb.pic.i_fref[1] - 1, h->mb.cache.ref[1][x264_scan8[i*4]] );
  401.         /* mvd */
  402.         for( i = 0; i < 4; i++ )
  403.             if( x264_mb_partition_listX_table[0][ h->mb.i_sub_partition[i] ] )
  404.                 cavlc_mb_mvd( h, s, 0, 4*i, 2 );
  405.         for( i = 0; i < 4; i++ )
  406.             if( x264_mb_partition_listX_table[1][ h->mb.i_sub_partition[i] ] )
  407.                 cavlc_mb_mvd( h, s, 1, 4*i, 2 );
  408.     }
  409.     else if( i_mb_type != B_DIRECT )
  410.     {
  411.         /* All B mode */
  412.         /* Motion Vector */
  413.         const uint8_t (*b_list)[2] = x264_mb_type_list_table[i_mb_type];
  414.         const int i_ref0_max = h->mb.pic.i_fref[0] - 1;
  415.         const int i_ref1_max = h->mb.pic.i_fref[1] - 1;
  416.         bs_write_ue( s, mb_type_b_to_golomb[ h->mb.i_partition - D_16x8 ][ i_mb_type - B_L0_L0 ] );
  417.         switch( h->mb.i_partition )
  418.         {
  419.             case D_16x16:
  420.                 if( i_ref0_max && b_list[0][0] ) bs_write_te( s, i_ref0_max, h->mb.cache.ref[0][x264_scan8[0]] );
  421.                 if( i_ref1_max && b_list[1][0] ) bs_write_te( s, i_ref1_max, h->mb.cache.ref[1][x264_scan8[0]] );
  422.                 if( b_list[0][0] ) cavlc_mb_mvd( h, s, 0, 0, 4 );
  423.                 if( b_list[1][0] ) cavlc_mb_mvd( h, s, 1, 0, 4 );
  424.                 break;
  425.             case D_16x8:
  426.                 if( i_ref0_max && b_list[0][0] ) bs_write_te( s, i_ref0_max, h->mb.cache.ref[0][x264_scan8[0]] );
  427.                 if( i_ref0_max && b_list[0][1] ) bs_write_te( s, i_ref0_max, h->mb.cache.ref[0][x264_scan8[8]] );
  428.                 if( i_ref1_max && b_list[1][0] ) bs_write_te( s, i_ref1_max, h->mb.cache.ref[1][x264_scan8[0]] );
  429.                 if( i_ref1_max && b_list[1][1] ) bs_write_te( s, i_ref1_max, h->mb.cache.ref[1][x264_scan8[8]] );
  430.                 if( b_list[0][0] ) cavlc_mb_mvd( h, s, 0, 0, 4 );
  431.                 if( b_list[0][1] ) cavlc_mb_mvd( h, s, 0, 8, 4 );
  432.                 if( b_list[1][0] ) cavlc_mb_mvd( h, s, 1, 0, 4 );
  433.                 if( b_list[1][1] ) cavlc_mb_mvd( h, s, 1, 8, 4 );
  434.                 break;
  435.             case D_8x16:
  436.                 if( i_ref0_max && b_list[0][0] ) bs_write_te( s, i_ref0_max, h->mb.cache.ref[0][x264_scan8[0]] );
  437.                 if( i_ref0_max && b_list[0][1] ) bs_write_te( s, i_ref0_max, h->mb.cache.ref[0][x264_scan8[4]] );
  438.                 if( i_ref1_max && b_list[1][0] ) bs_write_te( s, i_ref1_max, h->mb.cache.ref[1][x264_scan8[0]] );
  439.                 if( i_ref1_max && b_list[1][1] ) bs_write_te( s, i_ref1_max, h->mb.cache.ref[1][x264_scan8[4]] );
  440.                 if( b_list[0][0] ) cavlc_mb_mvd( h, s, 0, 0, 2 );
  441.                 if( b_list[0][1] ) cavlc_mb_mvd( h, s, 0, 4, 2 );
  442.                 if( b_list[1][0] ) cavlc_mb_mvd( h, s, 1, 0, 2 );
  443.                 if( b_list[1][1] ) cavlc_mb_mvd( h, s, 1, 4, 2 );
  444.                 break;
  445.         }
  446.     }
  447.     else //if( i_mb_type == B_DIRECT )
  448.         bs_write1( s, 1 );
  449. #if !RDO_SKIP_BS
  450.     i_mb_pos_tex = bs_pos( s );
  451.     h->stat.frame.i_mv_bits += i_mb_pos_tex - i_mb_pos_start;
  452. #endif
  453.     /* Coded block patern */
  454.     if( i_mb_type == I_4x4 || i_mb_type == I_8x8 )
  455.         bs_write_ue( s, intra4x4_cbp_to_golomb[( h->mb.i_cbp_chroma << 4 )|h->mb.i_cbp_luma] );
  456.     else if( i_mb_type != I_16x16 )
  457.         bs_write_ue( s, inter_cbp_to_golomb[( h->mb.i_cbp_chroma << 4 )|h->mb.i_cbp_luma] );
  458.     /* transform size 8x8 flag */
  459.     if( x264_mb_transform_8x8_allowed( h ) && h->mb.i_cbp_luma )
  460.         bs_write1( s, h->mb.b_transform_8x8 );
  461.     /* write residual */
  462.     if( i_mb_type == I_16x16 )
  463.     {
  464.         cavlc_qp_delta( h, s );
  465.         /* DC Luma */
  466.         block_residual_write_cavlc( h, s, DCT_LUMA_DC, 24 , h->dct.luma16x16_dc );
  467.         /* AC Luma */
  468.         if( h->mb.i_cbp_luma )
  469.             for( i = 0; i < 16; i++ )
  470.                 block_residual_write_cavlc( h, s, DCT_LUMA_AC, i, h->dct.luma4x4[i]+1 );
  471.     }
  472.     else if( h->mb.i_cbp_luma | h->mb.i_cbp_chroma )
  473.     {
  474.         cavlc_qp_delta( h, s );
  475.         x264_macroblock_luma_write_cavlc( h, s, 0, 3 );
  476.     }
  477.     if( h->mb.i_cbp_chroma )
  478.     {
  479.         /* Chroma DC residual present */
  480.         block_residual_write_cavlc( h, s, DCT_CHROMA_DC, 25, h->dct.chroma_dc[0] );
  481.         block_residual_write_cavlc( h, s, DCT_CHROMA_DC, 26, h->dct.chroma_dc[1] );
  482.         if( h->mb.i_cbp_chroma&0x02 ) /* Chroma AC residual present */
  483.             for( i = 16; i < 24; i++ )
  484.                 block_residual_write_cavlc( h, s, DCT_CHROMA_AC, i, h->dct.luma4x4[i]+1 );
  485.     }
  486. #if !RDO_SKIP_BS
  487.     h->stat.frame.i_tex_bits += bs_pos(s) - i_mb_pos_tex;
  488. #endif
  489. }
  490. #if RDO_SKIP_BS
  491. /*****************************************************************************
  492.  * RD only; doesn't generate a valid bitstream
  493.  * doesn't write cbp or chroma dc (I don't know how much this matters)
  494.  * doesn't write ref (never varies between calls, so no point in doing so)
  495.  * only writes subpartition for p8x8, needed for sub-8x8 mode decision RDO
  496.  * works on all partition sizes except 16x16
  497.  *****************************************************************************/
  498. static int x264_partition_size_cavlc( x264_t *h, int i8, int i_pixel )
  499. {
  500.     const int i_mb_type = h->mb.i_type;
  501.     int b_8x16 = h->mb.i_partition == D_8x16;
  502.     int j;
  503.     h->out.bs.i_bits_encoded = 0;
  504.     if( i_mb_type == P_8x8 )
  505.     {
  506.         cavlc_mb8x8_mvd( h, &h->out.bs, i8 );
  507.         bs_write_ue( &h->out.bs, sub_mb_type_p_to_golomb[ h->mb.i_sub_partition[i8] ] );
  508.     }
  509.     else if( i_mb_type == P_L0 )
  510.         cavlc_mb_mvd( h, &h->out.bs, 0, 4*i8, 4>>b_8x16 );
  511.     else if( i_mb_type > B_DIRECT && i_mb_type < B_8x8 )
  512.     {
  513.         if( x264_mb_type_list_table[ i_mb_type ][0][!!i8] ) cavlc_mb_mvd( h, &h->out.bs, 0, 4*i8, 4>>b_8x16 );
  514.         if( x264_mb_type_list_table[ i_mb_type ][1][!!i8] ) cavlc_mb_mvd( h, &h->out.bs, 1, 4*i8, 4>>b_8x16 );
  515.     }
  516.     else //if( i_mb_type == B_8x8 )
  517.     {
  518.         if( x264_mb_partition_listX_table[0][ h->mb.i_sub_partition[i8] ] )
  519.             cavlc_mb_mvd( h, &h->out.bs, 0, 4*i8, 2 );
  520.         if( x264_mb_partition_listX_table[1][ h->mb.i_sub_partition[i8] ] )
  521.             cavlc_mb_mvd( h, &h->out.bs, 1, 4*i8, 2 );
  522.     }
  523.     for( j = (i_pixel < PIXEL_8x8); j >= 0; j-- )
  524.     {
  525.         x264_macroblock_luma_write_cavlc( h, &h->out.bs, i8, i8 );
  526.         block_residual_write_cavlc( h, &h->out.bs, DCT_CHROMA_AC, 16+i8, h->dct.luma4x4[16+i8]+1 );
  527.         block_residual_write_cavlc( h, &h->out.bs, DCT_CHROMA_AC, 20+i8, h->dct.luma4x4[20+i8]+1 );
  528.         i8 += x264_pixel_size[i_pixel].h >> 3;
  529.     }
  530.     return h->out.bs.i_bits_encoded;
  531. }
  532. static int x264_subpartition_size_cavlc( x264_t *h, int i4, int i_pixel )
  533. {
  534.     int b_8x4 = i_pixel == PIXEL_8x4;
  535.     h->out.bs.i_bits_encoded = 0;
  536.     cavlc_mb_mvd( h, &h->out.bs, 0, i4, 1+b_8x4 );
  537.     block_residual_write_cavlc( h, &h->out.bs, DCT_LUMA_4x4, i4, h->dct.luma4x4[i4] );
  538.     if( i_pixel != PIXEL_4x4 )
  539.     {
  540.         i4 += 2-b_8x4;
  541.         block_residual_write_cavlc( h, &h->out.bs, DCT_LUMA_4x4, i4, h->dct.luma4x4[i4] );
  542.     }
  543.     return h->out.bs.i_bits_encoded;
  544. }
  545. static int cavlc_intra4x4_pred_size( x264_t *h, int i4, int i_mode )
  546. {
  547.     if( x264_mb_predict_intra4x4_mode( h, i4 ) == x264_mb_pred_mode4x4_fix( i_mode ) )
  548.         return 1;
  549.     else
  550.         return 4;
  551. }
  552. static int x264_partition_i8x8_size_cavlc( x264_t *h, int i8, int i_mode )
  553. {
  554.     h->out.bs.i_bits_encoded = cavlc_intra4x4_pred_size( h, 4*i8, i_mode );
  555.     bs_write_ue( &h->out.bs, intra4x4_cbp_to_golomb[( h->mb.i_cbp_chroma << 4 )|h->mb.i_cbp_luma] );
  556.     x264_macroblock_luma_write_cavlc( h, &h->out.bs, i8, i8 );
  557.     return h->out.bs.i_bits_encoded;
  558. }
  559. static int x264_partition_i4x4_size_cavlc( x264_t *h, int i4, int i_mode )
  560. {
  561.     h->out.bs.i_bits_encoded = cavlc_intra4x4_pred_size( h, i4, i_mode );
  562.     block_residual_write_cavlc( h, &h->out.bs, DCT_LUMA_4x4, i4, h->dct.luma4x4[i4] );
  563.     return h->out.bs.i_bits_encoded;
  564. }
  565. static int x264_i8x8_chroma_size_cavlc( x264_t *h )
  566. {
  567.     h->out.bs.i_bits_encoded = bs_size_ue( x264_mb_pred_mode8x8c_fix[ h->mb.i_chroma_pred_mode ] );
  568.     if( h->mb.i_cbp_chroma )
  569.     {
  570.         block_residual_write_cavlc( h, &h->out.bs, DCT_CHROMA_DC, 25, h->dct.chroma_dc[0] );
  571.         block_residual_write_cavlc( h, &h->out.bs, DCT_CHROMA_DC, 26, h->dct.chroma_dc[1] );
  572.         if( h->mb.i_cbp_chroma == 2 )
  573.         {
  574.             int i;
  575.             for( i = 16; i < 24; i++ )
  576.                 block_residual_write_cavlc( h, &h->out.bs, DCT_CHROMA_AC, i, h->dct.luma4x4[i]+1 );
  577.         }
  578.     }
  579.     return h->out.bs.i_bits_encoded;
  580. }
  581. #endif