h264.c
上传用户:lctgjx
上传日期:2022-06-04
资源大小:8887k
文件大小:321k
源码类别:

流媒体/Mpeg4/MP4

开发平台:

Visual C++

  1.             h->chroma_qp[1] = get_chroma_qp(h, 1, s->current_picture.qscale_table[mb_xy+s->mb_stride]);
  2.             filter_mb(h, mb_x, mb_y+1, dest_y, dest_cb, dest_cr, linesize, uvlinesize);
  3.         } else {
  4.             tprintf(h->s.avctx, "call filter_mbn");
  5.             backup_mb_border(h, dest_y, dest_cb, dest_cr, linesize, uvlinesize, simple);
  6.             fill_caches(h, mb_type, 1); //FIXME don't fill stuff which isn't used by filter_mb
  7.             filter_mb_fast(h, mb_x, mb_y, dest_y, dest_cb, dest_cr, linesize, uvlinesize);
  8.         }
  9.     }
  10. }
  11. /**
  12.  * Process a macroblock; this case avoids checks for expensive uncommon cases.
  13.  */
  14. static void hl_decode_mb_simple(H264Context *h){
  15.     hl_decode_mb_internal(h, 1);
  16. }
  17. /**
  18.  * Process a macroblock; this handles edge cases, such as interlacing.
  19.  */
  20. static void av_noinline hl_decode_mb_complex(H264Context *h){
  21.     hl_decode_mb_internal(h, 0);
  22. }
  23. static void hl_decode_mb(H264Context *h){
  24.     MpegEncContext * const s = &h->s;
  25.     const int mb_xy= h->mb_xy;
  26.     const int mb_type= s->current_picture.mb_type[mb_xy];
  27.     int is_complex = FRAME_MBAFF || MB_FIELD || IS_INTRA_PCM(mb_type) || s->codec_id != CODEC_ID_H264 || (ENABLE_GRAY && (s->flags&CODEC_FLAG_GRAY)) || s->encoding;
  28.     if(!s->decode)
  29.         return;
  30.     if (is_complex)
  31.         hl_decode_mb_complex(h);
  32.     else hl_decode_mb_simple(h);
  33. }
  34. static void pic_as_field(Picture *pic, const int parity){
  35.     int i;
  36.     for (i = 0; i < 4; ++i) {
  37.         if (parity == PICT_BOTTOM_FIELD)
  38.             pic->data[i] += pic->linesize[i];
  39.         pic->reference = parity;
  40.         pic->linesize[i] *= 2;
  41.     }
  42. }
  43. static int split_field_copy(Picture *dest, Picture *src,
  44.                             int parity, int id_add){
  45.     int match = !!(src->reference & parity);
  46.     if (match) {
  47.         *dest = *src;
  48.         pic_as_field(dest, parity);
  49.         dest->pic_id *= 2;
  50.         dest->pic_id += id_add;
  51.     }
  52.     return match;
  53. }
  54. /**
  55.  * Split one reference list into field parts, interleaving by parity
  56.  * as per H.264 spec section 8.2.4.2.5. Output fields have their data pointers
  57.  * set to look at the actual start of data for that field.
  58.  *
  59.  * @param dest output list
  60.  * @param dest_len maximum number of fields to put in dest
  61.  * @param src the source reference list containing fields and/or field pairs
  62.  *            (aka short_ref/long_ref, or
  63.  *             refFrameListXShortTerm/refFrameListLongTerm in spec-speak)
  64.  * @param src_len number of Picture's in source (pairs and unmatched fields)
  65.  * @param parity the parity of the picture being decoded/needing
  66.  *        these ref pics (PICT_{TOP,BOTTOM}_FIELD)
  67.  * @return number of fields placed in dest
  68.  */
  69. static int split_field_half_ref_list(Picture *dest, int dest_len,
  70.                                      Picture *src,  int src_len,  int parity){
  71.     int same_parity   = 1;
  72.     int same_i        = 0;
  73.     int opp_i         = 0;
  74.     int out_i;
  75.     int field_output;
  76.     for (out_i = 0; out_i < dest_len; out_i += field_output) {
  77.         if (same_parity && same_i < src_len) {
  78.             field_output = split_field_copy(dest + out_i, src + same_i,
  79.                                             parity, 1);
  80.             same_parity = !field_output;
  81.             same_i++;
  82.         } else if (opp_i < src_len) {
  83.             field_output = split_field_copy(dest + out_i, src + opp_i,
  84.                                             PICT_FRAME - parity, 0);
  85.             same_parity = field_output;
  86.             opp_i++;
  87.         } else {
  88.             break;
  89.         }
  90.     }
  91.     return out_i;
  92. }
  93. /**
  94.  * Split the reference frame list into a reference field list.
  95.  * This implements H.264 spec 8.2.4.2.5 for a combined input list.
  96.  * The input list contains both reference field pairs and
  97.  * unmatched reference fields; it is ordered as spec describes
  98.  * RefPicListX for frames in 8.2.4.2.1 and 8.2.4.2.3, except that
  99.  * unmatched field pairs are also present. Conceptually this is equivalent
  100.  * to concatenation of refFrameListXShortTerm with refFrameListLongTerm.
  101.  *
  102.  * @param dest output reference list where ordered fields are to be placed
  103.  * @param dest_len max number of fields to place at dest
  104.  * @param src source reference list, as described above
  105.  * @param src_len number of pictures (pairs and unmatched fields) in src
  106.  * @param parity parity of field being currently decoded
  107.  *        (one of PICT_{TOP,BOTTOM}_FIELD)
  108.  * @param long_i index into src array that holds first long reference picture,
  109.  *        or src_len if no long refs present.
  110.  */
  111. static int split_field_ref_list(Picture *dest, int dest_len,
  112.                                 Picture *src,  int src_len,
  113.                                 int parity,    int long_i){
  114.     int i = split_field_half_ref_list(dest, dest_len, src, long_i, parity);
  115.     dest += i;
  116.     dest_len -= i;
  117.     i += split_field_half_ref_list(dest, dest_len, src + long_i,
  118.                                    src_len - long_i, parity);
  119.     return i;
  120. }
  121. /**
  122.  * fills the default_ref_list.
  123.  */
  124. static int fill_default_ref_list(H264Context *h){
  125.     MpegEncContext * const s = &h->s;
  126.     int i;
  127.     int smallest_poc_greater_than_current = -1;
  128.     int structure_sel;
  129.     Picture sorted_short_ref[32];
  130.     Picture field_entry_list[2][32];
  131.     Picture *frame_list[2];
  132.     if (FIELD_PICTURE) {
  133.         structure_sel = PICT_FRAME;
  134.         frame_list[0] = field_entry_list[0];
  135.         frame_list[1] = field_entry_list[1];
  136.     } else {
  137.         structure_sel = 0;
  138.         frame_list[0] = h->default_ref_list[0];
  139.         frame_list[1] = h->default_ref_list[1];
  140.     }
  141.     if(h->slice_type==FF_B_TYPE){
  142.         int list;
  143.         int len[2];
  144.         int short_len[2];
  145.         int out_i;
  146.         int limit= INT_MIN;
  147.         /* sort frame according to poc in B slice */
  148.         for(out_i=0; out_i<h->short_ref_count; out_i++){
  149.             int best_i=INT_MIN;
  150.             int best_poc=INT_MAX;
  151.             for(i=0; i<h->short_ref_count; i++){
  152.                 const int poc= h->short_ref[i]->poc;
  153.                 if(poc > limit && poc < best_poc){
  154.                     best_poc= poc;
  155.                     best_i= i;
  156.                 }
  157.             }
  158.             assert(best_i != INT_MIN);
  159.             limit= best_poc;
  160.             sorted_short_ref[out_i]= *h->short_ref[best_i];
  161.             tprintf(h->s.avctx, "sorted poc: %d->%d poc:%d fn:%dn", best_i, out_i, sorted_short_ref[out_i].poc, sorted_short_ref[out_i].frame_num);
  162.             if (-1 == smallest_poc_greater_than_current) {
  163.                 if (h->short_ref[best_i]->poc >= s->current_picture_ptr->poc) {
  164.                     smallest_poc_greater_than_current = out_i;
  165.                 }
  166.             }
  167.         }
  168.         tprintf(h->s.avctx, "current poc: %d, smallest_poc_greater_than_current: %dn", s->current_picture_ptr->poc, smallest_poc_greater_than_current);
  169.         // find the largest poc
  170.         for(list=0; list<2; list++){
  171.             int index = 0;
  172.             int j= -99;
  173.             int step= list ? -1 : 1;
  174.             for(i=0; i<h->short_ref_count && index < h->ref_count[list]; i++, j+=step) {
  175.                 int sel;
  176.                 while(j<0 || j>= h->short_ref_count){
  177.                     if(j != -99 && step == (list ? -1 : 1))
  178.                         return -1;
  179.                     step = -step;
  180.                     j= smallest_poc_greater_than_current + (step>>1);
  181.                 }
  182.                 sel = sorted_short_ref[j].reference | structure_sel;
  183.                 if(sel != PICT_FRAME) continue;
  184.                 frame_list[list][index  ]= sorted_short_ref[j];
  185.                 frame_list[list][index++].pic_id= sorted_short_ref[j].frame_num;
  186.             }
  187.             short_len[list] = index;
  188.             for(i = 0; i < 16 && index < h->ref_count[ list ]; i++){
  189.                 int sel;
  190.                 if(h->long_ref[i] == NULL) continue;
  191.                 sel = h->long_ref[i]->reference | structure_sel;
  192.                 if(sel != PICT_FRAME) continue;
  193.                 frame_list[ list ][index  ]= *h->long_ref[i];
  194.                 frame_list[ list ][index++].pic_id= i;
  195.             }
  196.             len[list] = index;
  197.         }
  198.         for(list=0; list<2; list++){
  199.             if (FIELD_PICTURE)
  200.                 len[list] = split_field_ref_list(h->default_ref_list[list],
  201.                                                  h->ref_count[list],
  202.                                                  frame_list[list],
  203.                                                  len[list],
  204.                                                  s->picture_structure,
  205.                                                  short_len[list]);
  206.             // swap the two first elements of L1 when L0 and L1 are identical
  207.             if(list && len[0] > 1 && len[0] == len[1])
  208.                 for(i=0; h->default_ref_list[0][i].data[0] == h->default_ref_list[1][i].data[0]; i++)
  209.                     if(i == len[0]){
  210.                         FFSWAP(Picture, h->default_ref_list[1][0], h->default_ref_list[1][1]);
  211.                         break;
  212.                     }
  213.             if(len[list] < h->ref_count[ list ])
  214.                 memset(&h->default_ref_list[list][len[list]], 0, sizeof(Picture)*(h->ref_count[ list ] - len[list]));
  215.         }
  216.     }else{
  217.         int index=0;
  218.         int short_len;
  219.         for(i=0; i<h->short_ref_count; i++){
  220.             int sel;
  221.             sel = h->short_ref[i]->reference | structure_sel;
  222.             if(sel != PICT_FRAME) continue;
  223.             frame_list[0][index  ]= *h->short_ref[i];
  224.             frame_list[0][index++].pic_id= h->short_ref[i]->frame_num;
  225.         }
  226.         short_len = index;
  227.         for(i = 0; i < 16; i++){
  228.             int sel;
  229.             if(h->long_ref[i] == NULL) continue;
  230.             sel = h->long_ref[i]->reference | structure_sel;
  231.             if(sel != PICT_FRAME) continue;
  232.             frame_list[0][index  ]= *h->long_ref[i];
  233.             frame_list[0][index++].pic_id= i;
  234.         }
  235.         if (FIELD_PICTURE)
  236.             index = split_field_ref_list(h->default_ref_list[0],
  237.                                          h->ref_count[0], frame_list[0],
  238.                                          index, s->picture_structure,
  239.                                          short_len);
  240.         if(index < h->ref_count[0])
  241.             memset(&h->default_ref_list[0][index], 0, sizeof(Picture)*(h->ref_count[0] - index));
  242.     }
  243. #ifdef TRACE
  244.     for (i=0; i<h->ref_count[0]; i++) {
  245.         tprintf(h->s.avctx, "List0: %s fn:%d 0x%pn", (h->default_ref_list[0][i].long_ref ? "LT" : "ST"), h->default_ref_list[0][i].pic_id, h->default_ref_list[0][i].data[0]);
  246.     }
  247.     if(h->slice_type==FF_B_TYPE){
  248.         for (i=0; i<h->ref_count[1]; i++) {
  249.             tprintf(h->s.avctx, "List1: %s fn:%d 0x%pn", (h->default_ref_list[1][i].long_ref ? "LT" : "ST"), h->default_ref_list[1][i].pic_id, h->default_ref_list[1][i].data[0]);
  250.         }
  251.     }
  252. #endif
  253.     return 0;
  254. }
  255. static void print_short_term(H264Context *h);
  256. static void print_long_term(H264Context *h);
  257. /**
  258.  * Extract structure information about the picture described by pic_num in
  259.  * the current decoding context (frame or field). Note that pic_num is
  260.  * picture number without wrapping (so, 0<=pic_num<max_pic_num).
  261.  * @param pic_num picture number for which to extract structure information
  262.  * @param structure one of PICT_XXX describing structure of picture
  263.  *                      with pic_num
  264.  * @return frame number (short term) or long term index of picture
  265.  *         described by pic_num
  266.  */
  267. static int pic_num_extract(H264Context *h, int pic_num, int *structure){
  268.     MpegEncContext * const s = &h->s;
  269.     *structure = s->picture_structure;
  270.     if(FIELD_PICTURE){
  271.         if (!(pic_num & 1))
  272.             /* opposite field */
  273.             *structure ^= PICT_FRAME;
  274.         pic_num >>= 1;
  275.     }
  276.     return pic_num;
  277. }
  278. static int decode_ref_pic_list_reordering(H264Context *h){
  279.     MpegEncContext * const s = &h->s;
  280.     int list, index, pic_structure;
  281.     print_short_term(h);
  282.     print_long_term(h);
  283.     if(h->slice_type==FF_I_TYPE || h->slice_type==FF_SI_TYPE) return 0; //FIXME move before func
  284.     for(list=0; list<h->list_count; list++){
  285.         memcpy(h->ref_list[list], h->default_ref_list[list], sizeof(Picture)*h->ref_count[list]);
  286.         if(get_bits1(&s->gb)){
  287.             int pred= h->curr_pic_num;
  288.             for(index=0; ; index++){
  289.                 unsigned int reordering_of_pic_nums_idc= get_ue_golomb(&s->gb);
  290.                 unsigned int pic_id;
  291.                 int i;
  292.                 Picture *ref = NULL;
  293.                 if(reordering_of_pic_nums_idc==3)
  294.                     break;
  295.                 if(index >= h->ref_count[list]){
  296.                     av_log(h->s.avctx, AV_LOG_ERROR, "reference count overflown");
  297.                     return -1;
  298.                 }
  299.                 if(reordering_of_pic_nums_idc<3){
  300.                     if(reordering_of_pic_nums_idc<2){
  301.                         const unsigned int abs_diff_pic_num= get_ue_golomb(&s->gb) + 1;
  302.                         int frame_num;
  303.                         if(abs_diff_pic_num > h->max_pic_num){
  304.                             av_log(h->s.avctx, AV_LOG_ERROR, "abs_diff_pic_num overflown");
  305.                             return -1;
  306.                         }
  307.                         if(reordering_of_pic_nums_idc == 0) pred-= abs_diff_pic_num;
  308.                         else                                pred+= abs_diff_pic_num;
  309.                         pred &= h->max_pic_num - 1;
  310.                         frame_num = pic_num_extract(h, pred, &pic_structure);
  311.                         for(i= h->short_ref_count-1; i>=0; i--){
  312.                             ref = h->short_ref[i];
  313.                             assert(ref->reference);
  314.                             assert(!ref->long_ref);
  315.                             if(ref->data[0] != NULL &&
  316.                                    ref->frame_num == frame_num &&
  317.                                    (ref->reference & pic_structure) &&
  318.                                    ref->long_ref == 0) // ignore non existing pictures by testing data[0] pointer
  319.                                 break;
  320.                         }
  321.                         if(i>=0)
  322.                             ref->pic_id= pred;
  323.                     }else{
  324.                         int long_idx;
  325.                         pic_id= get_ue_golomb(&s->gb); //long_term_pic_idx
  326.                         long_idx= pic_num_extract(h, pic_id, &pic_structure);
  327.                         if(long_idx>31){
  328.                             av_log(h->s.avctx, AV_LOG_ERROR, "long_term_pic_idx overflown");
  329.                             return -1;
  330.                         }
  331.                         ref = h->long_ref[long_idx];
  332.                         assert(!(ref && !ref->reference));
  333.                         if(ref && (ref->reference & pic_structure)){
  334.                             ref->pic_id= pic_id;
  335.                             assert(ref->long_ref);
  336.                             i=0;
  337.                         }else{
  338.                             i=-1;
  339.                         }
  340.                     }
  341.                     if (i < 0) {
  342.                         av_log(h->s.avctx, AV_LOG_ERROR, "reference picture missing during reordern");
  343.                         memset(&h->ref_list[list][index], 0, sizeof(Picture)); //FIXME
  344.                     } else {
  345.                         for(i=index; i+1<h->ref_count[list]; i++){
  346.                             if(ref->long_ref == h->ref_list[list][i].long_ref && ref->pic_id == h->ref_list[list][i].pic_id)
  347.                                 break;
  348.                         }
  349.                         for(; i > index; i--){
  350.                             h->ref_list[list][i]= h->ref_list[list][i-1];
  351.                         }
  352.                         h->ref_list[list][index]= *ref;
  353.                         if (FIELD_PICTURE){
  354.                             pic_as_field(&h->ref_list[list][index], pic_structure);
  355.                         }
  356.                     }
  357.                 }else{
  358.                     av_log(h->s.avctx, AV_LOG_ERROR, "illegal reordering_of_pic_nums_idcn");
  359.                     return -1;
  360.                 }
  361.             }
  362.         }
  363.     }
  364.     for(list=0; list<h->list_count; list++){
  365.         for(index= 0; index < h->ref_count[list]; index++){
  366.             if(!h->ref_list[list][index].data[0])
  367.                 h->ref_list[list][index]= s->current_picture;
  368.         }
  369.     }
  370.     if(h->slice_type==FF_B_TYPE && !h->direct_spatial_mv_pred)
  371.         direct_dist_scale_factor(h);
  372.     direct_ref_list_init(h);
  373.     return 0;
  374. }
  375. static void fill_mbaff_ref_list(H264Context *h){
  376.     int list, i, j;
  377.     for(list=0; list<2; list++){ //FIXME try list_count
  378.         for(i=0; i<h->ref_count[list]; i++){
  379.             Picture *frame = &h->ref_list[list][i];
  380.             Picture *field = &h->ref_list[list][16+2*i];
  381.             field[0] = *frame;
  382.             for(j=0; j<3; j++)
  383.                 field[0].linesize[j] <<= 1;
  384.             field[0].reference = PICT_TOP_FIELD;
  385.             field[1] = field[0];
  386.             for(j=0; j<3; j++)
  387.                 field[1].data[j] += frame->linesize[j];
  388.             field[1].reference = PICT_BOTTOM_FIELD;
  389.             h->luma_weight[list][16+2*i] = h->luma_weight[list][16+2*i+1] = h->luma_weight[list][i];
  390.             h->luma_offset[list][16+2*i] = h->luma_offset[list][16+2*i+1] = h->luma_offset[list][i];
  391.             for(j=0; j<2; j++){
  392.                 h->chroma_weight[list][16+2*i][j] = h->chroma_weight[list][16+2*i+1][j] = h->chroma_weight[list][i][j];
  393.                 h->chroma_offset[list][16+2*i][j] = h->chroma_offset[list][16+2*i+1][j] = h->chroma_offset[list][i][j];
  394.             }
  395.         }
  396.     }
  397.     for(j=0; j<h->ref_count[1]; j++){
  398.         for(i=0; i<h->ref_count[0]; i++)
  399.             h->implicit_weight[j][16+2*i] = h->implicit_weight[j][16+2*i+1] = h->implicit_weight[j][i];
  400.         memcpy(h->implicit_weight[16+2*j],   h->implicit_weight[j], sizeof(*h->implicit_weight));
  401.         memcpy(h->implicit_weight[16+2*j+1], h->implicit_weight[j], sizeof(*h->implicit_weight));
  402.     }
  403. }
  404. static int pred_weight_table(H264Context *h){
  405.     MpegEncContext * const s = &h->s;
  406.     int list, i;
  407.     int luma_def, chroma_def;
  408.     h->use_weight= 0;
  409.     h->use_weight_chroma= 0;
  410.     h->luma_log2_weight_denom= get_ue_golomb(&s->gb);
  411.     h->chroma_log2_weight_denom= get_ue_golomb(&s->gb);
  412.     luma_def = 1<<h->luma_log2_weight_denom;
  413.     chroma_def = 1<<h->chroma_log2_weight_denom;
  414.     for(list=0; list<2; list++){
  415.         for(i=0; i<h->ref_count[list]; i++){
  416.             int luma_weight_flag, chroma_weight_flag;
  417.             luma_weight_flag= get_bits1(&s->gb);
  418.             if(luma_weight_flag){
  419.                 h->luma_weight[list][i]= get_se_golomb(&s->gb);
  420.                 h->luma_offset[list][i]= get_se_golomb(&s->gb);
  421.                 if(   h->luma_weight[list][i] != luma_def
  422.                    || h->luma_offset[list][i] != 0)
  423.                     h->use_weight= 1;
  424.             }else{
  425.                 h->luma_weight[list][i]= luma_def;
  426.                 h->luma_offset[list][i]= 0;
  427.             }
  428.             chroma_weight_flag= get_bits1(&s->gb);
  429.             if(chroma_weight_flag){
  430.                 int j;
  431.                 for(j=0; j<2; j++){
  432.                     h->chroma_weight[list][i][j]= get_se_golomb(&s->gb);
  433.                     h->chroma_offset[list][i][j]= get_se_golomb(&s->gb);
  434.                     if(   h->chroma_weight[list][i][j] != chroma_def
  435.                        || h->chroma_offset[list][i][j] != 0)
  436.                         h->use_weight_chroma= 1;
  437.                 }
  438.             }else{
  439.                 int j;
  440.                 for(j=0; j<2; j++){
  441.                     h->chroma_weight[list][i][j]= chroma_def;
  442.                     h->chroma_offset[list][i][j]= 0;
  443.                 }
  444.             }
  445.         }
  446.         if(h->slice_type != FF_B_TYPE) break;
  447.     }
  448.     h->use_weight= h->use_weight || h->use_weight_chroma;
  449.     return 0;
  450. }
  451. static void implicit_weight_table(H264Context *h){
  452.     MpegEncContext * const s = &h->s;
  453.     int ref0, ref1;
  454.     int cur_poc = s->current_picture_ptr->poc;
  455.     if(   h->ref_count[0] == 1 && h->ref_count[1] == 1
  456.        && h->ref_list[0][0].poc + h->ref_list[1][0].poc == 2*cur_poc){
  457.         h->use_weight= 0;
  458.         h->use_weight_chroma= 0;
  459.         return;
  460.     }
  461.     h->use_weight= 2;
  462.     h->use_weight_chroma= 2;
  463.     h->luma_log2_weight_denom= 5;
  464.     h->chroma_log2_weight_denom= 5;
  465.     for(ref0=0; ref0 < h->ref_count[0]; ref0++){
  466.         int poc0 = h->ref_list[0][ref0].poc;
  467.         for(ref1=0; ref1 < h->ref_count[1]; ref1++){
  468.             int poc1 = h->ref_list[1][ref1].poc;
  469.             int td = av_clip(poc1 - poc0, -128, 127);
  470.             if(td){
  471.                 int tb = av_clip(cur_poc - poc0, -128, 127);
  472.                 int tx = (16384 + (FFABS(td) >> 1)) / td;
  473.                 int dist_scale_factor = av_clip((tb*tx + 32) >> 6, -1024, 1023) >> 2;
  474.                 if(dist_scale_factor < -64 || dist_scale_factor > 128)
  475.                     h->implicit_weight[ref0][ref1] = 32;
  476.                 else
  477.                     h->implicit_weight[ref0][ref1] = 64 - dist_scale_factor;
  478.             }else
  479.                 h->implicit_weight[ref0][ref1] = 32;
  480.         }
  481.     }
  482. }
  483. /**
  484.  * Mark a picture as no longer needed for reference. The refmask
  485.  * argument allows unreferencing of individual fields or the whole frame.
  486.  * If the picture becomes entirely unreferenced, but is being held for
  487.  * display purposes, it is marked as such.
  488.  * @param refmask mask of fields to unreference; the mask is bitwise
  489.  *                anded with the reference marking of pic
  490.  * @return non-zero if pic becomes entirely unreferenced (except possibly
  491.  *         for display purposes) zero if one of the fields remains in
  492.  *         reference
  493.  */
  494. static inline int unreference_pic(H264Context *h, Picture *pic, int refmask){
  495.     int i;
  496.     if (pic->reference &= refmask) {
  497.         return 0;
  498.     } else {
  499.         if(pic == h->delayed_output_pic)
  500.             pic->reference=DELAYED_PIC_REF;
  501.         else{
  502.             for(i = 0; h->delayed_pic[i]; i++)
  503.                 if(pic == h->delayed_pic[i]){
  504.                     pic->reference=DELAYED_PIC_REF;
  505.                     break;
  506.                 }
  507.         }
  508.         return 1;
  509.     }
  510. }
  511. /**
  512.  * instantaneous decoder refresh.
  513.  */
  514. static void idr(H264Context *h){
  515.     int i;
  516.     for(i=0; i<16; i++){
  517.         if (h->long_ref[i] != NULL) {
  518.             unreference_pic(h, h->long_ref[i], 0);
  519.             h->long_ref[i]= NULL;
  520.         }
  521.     }
  522.     h->long_ref_count=0;
  523.     for(i=0; i<h->short_ref_count; i++){
  524.         unreference_pic(h, h->short_ref[i], 0);
  525.         h->short_ref[i]= NULL;
  526.     }
  527.     h->short_ref_count=0;
  528. }
  529. /* forget old pics after a seek */
  530. static void flush_dpb(AVCodecContext *avctx){
  531.     H264Context *h= avctx->priv_data;
  532.     int i;
  533.     for(i=0; i<16; i++) {
  534.         if(h->delayed_pic[i])
  535.             h->delayed_pic[i]->reference= 0;
  536.         h->delayed_pic[i]= NULL;
  537.     }
  538.     if(h->delayed_output_pic)
  539.         h->delayed_output_pic->reference= 0;
  540.     h->delayed_output_pic= NULL;
  541.     idr(h);
  542.     if(h->s.current_picture_ptr)
  543.         h->s.current_picture_ptr->reference= 0;
  544.     h->s.first_field= 0;
  545.     ff_mpeg_flush(avctx);
  546. }
  547. /**
  548.  * Find a Picture in the short term reference list by frame number.
  549.  * @param frame_num frame number to search for
  550.  * @param idx the index into h->short_ref where returned picture is found
  551.  *            undefined if no picture found.
  552.  * @return pointer to the found picture, or NULL if no pic with the provided
  553.  *                 frame number is found
  554.  */
  555. static Picture * find_short(H264Context *h, int frame_num, int *idx){
  556.     MpegEncContext * const s = &h->s;
  557.     int i;
  558.     for(i=0; i<h->short_ref_count; i++){
  559.         Picture *pic= h->short_ref[i];
  560.         if(s->avctx->debug&FF_DEBUG_MMCO)
  561.             av_log(h->s.avctx, AV_LOG_DEBUG, "%d %d %pn", i, pic->frame_num, pic);
  562.         if(pic->frame_num == frame_num) {
  563.             *idx = i;
  564.             return pic;
  565.         }
  566.     }
  567.     return NULL;
  568. }
  569. /**
  570.  * Remove a picture from the short term reference list by its index in
  571.  * that list.  This does no checking on the provided index; it is assumed
  572.  * to be valid. Other list entries are shifted down.
  573.  * @param i index into h->short_ref of picture to remove.
  574.  */
  575. static void remove_short_at_index(H264Context *h, int i){
  576.     assert(i > 0 && i < h->short_ref_count);
  577.     h->short_ref[i]= NULL;
  578.     if (--h->short_ref_count)
  579.         memmove(&h->short_ref[i], &h->short_ref[i+1], (h->short_ref_count - i)*sizeof(Picture*));
  580. }
  581. /**
  582.  *
  583.  * @return the removed picture or NULL if an error occurs
  584.  */
  585. static Picture * remove_short(H264Context *h, int frame_num){
  586.     MpegEncContext * const s = &h->s;
  587.     Picture *pic;
  588.     int i;
  589.     if(s->avctx->debug&FF_DEBUG_MMCO)
  590.         av_log(h->s.avctx, AV_LOG_DEBUG, "remove short %d count %dn", frame_num, h->short_ref_count);
  591.     pic = find_short(h, frame_num, &i);
  592.     if (pic)
  593.         remove_short_at_index(h, i);
  594.     return pic;
  595. }
  596. /**
  597.  * Remove a picture from the long term reference list by its index in
  598.  * that list.  This does no checking on the provided index; it is assumed
  599.  * to be valid. The removed entry is set to NULL. Other entries are unaffected.
  600.  * @param i index into h->long_ref of picture to remove.
  601.  */
  602. static void remove_long_at_index(H264Context *h, int i){
  603.     h->long_ref[i]= NULL;
  604.     h->long_ref_count--;
  605. }
  606. /**
  607.  *
  608.  * @return the removed picture or NULL if an error occurs
  609.  */
  610. static Picture * remove_long(H264Context *h, int i){
  611.     Picture *pic;
  612.     pic= h->long_ref[i];
  613.     if (pic)
  614.         remove_long_at_index(h, i);
  615.     return pic;
  616. }
  617. /**
  618.  * print short term list
  619.  */
  620. static void print_short_term(H264Context *h) {
  621.     uint32_t i;
  622.     if(h->s.avctx->debug&FF_DEBUG_MMCO) {
  623.         av_log(h->s.avctx, AV_LOG_DEBUG, "short term list:n");
  624.         for(i=0; i<h->short_ref_count; i++){
  625.             Picture *pic= h->short_ref[i];
  626.             av_log(h->s.avctx, AV_LOG_DEBUG, "%d fn:%d poc:%d %pn", i, pic->frame_num, pic->poc, pic->data[0]);
  627.         }
  628.     }
  629. }
  630. /**
  631.  * print long term list
  632.  */
  633. static void print_long_term(H264Context *h) {
  634.     uint32_t i;
  635.     if(h->s.avctx->debug&FF_DEBUG_MMCO) {
  636.         av_log(h->s.avctx, AV_LOG_DEBUG, "long term list:n");
  637.         for(i = 0; i < 16; i++){
  638.             Picture *pic= h->long_ref[i];
  639.             if (pic) {
  640.                 av_log(h->s.avctx, AV_LOG_DEBUG, "%d fn:%d poc:%d %pn", i, pic->frame_num, pic->poc, pic->data[0]);
  641.             }
  642.         }
  643.     }
  644. }
  645. /**
  646.  * Executes the reference picture marking (memory management control operations).
  647.  */
  648. static int execute_ref_pic_marking(H264Context *h, MMCO *mmco, int mmco_count){
  649.     MpegEncContext * const s = &h->s;
  650.     int i, j;
  651.     int current_ref_assigned=0;
  652.     Picture *pic;
  653.     if((s->avctx->debug&FF_DEBUG_MMCO) && mmco_count==0)
  654.         av_log(h->s.avctx, AV_LOG_DEBUG, "no mmco heren");
  655.     for(i=0; i<mmco_count; i++){
  656.         int structure, frame_num, unref_pic;
  657.         if(s->avctx->debug&FF_DEBUG_MMCO)
  658.             av_log(h->s.avctx, AV_LOG_DEBUG, "mmco:%d %d %dn", h->mmco[i].opcode, h->mmco[i].short_pic_num, h->mmco[i].long_arg);
  659.         switch(mmco[i].opcode){
  660.         case MMCO_SHORT2UNUSED:
  661.             if(s->avctx->debug&FF_DEBUG_MMCO)
  662.                 av_log(h->s.avctx, AV_LOG_DEBUG, "mmco: unref short %d count %dn", h->mmco[i].short_pic_num, h->short_ref_count);
  663.             frame_num = pic_num_extract(h, mmco[i].short_pic_num, &structure);
  664.             pic = find_short(h, frame_num, &j);
  665.             if (pic) {
  666.                 if (unreference_pic(h, pic, structure ^ PICT_FRAME))
  667.                     remove_short_at_index(h, j);
  668.             } else if(s->avctx->debug&FF_DEBUG_MMCO)
  669.                 av_log(h->s.avctx, AV_LOG_DEBUG, "mmco: unref short failuren");
  670.             break;
  671.         case MMCO_SHORT2LONG:
  672.             if (FIELD_PICTURE && mmco[i].long_arg < h->long_ref_count &&
  673.                     h->long_ref[mmco[i].long_arg]->frame_num ==
  674.                                               mmco[i].short_pic_num / 2) {
  675.                 /* do nothing, we've already moved this field pair. */
  676.             } else {
  677.                 int frame_num = mmco[i].short_pic_num >> FIELD_PICTURE;
  678.                 pic= remove_long(h, mmco[i].long_arg);
  679.                 if(pic) unreference_pic(h, pic, 0);
  680.                 h->long_ref[ mmco[i].long_arg ]= remove_short(h, frame_num);
  681.                 if (h->long_ref[ mmco[i].long_arg ]){
  682.                     h->long_ref[ mmco[i].long_arg ]->long_ref=1;
  683.                     h->long_ref_count++;
  684.                 }
  685.             }
  686.             break;
  687.         case MMCO_LONG2UNUSED:
  688.             j = pic_num_extract(h, mmco[i].long_arg, &structure);
  689.             pic = h->long_ref[j];
  690.             if (pic) {
  691.                 if (unreference_pic(h, pic, structure ^ PICT_FRAME))
  692.                     remove_long_at_index(h, j);
  693.             } else if(s->avctx->debug&FF_DEBUG_MMCO)
  694.                 av_log(h->s.avctx, AV_LOG_DEBUG, "mmco: unref long failuren");
  695.             break;
  696.         case MMCO_LONG:
  697.             unref_pic = 1;
  698.             if (FIELD_PICTURE && !s->first_field) {
  699.                 if (h->long_ref[mmco[i].long_arg] == s->current_picture_ptr) {
  700.                     /* Just mark second field as referenced */
  701.                     unref_pic = 0;
  702.                 } else if (s->current_picture_ptr->reference) {
  703.                     /* First field in pair is in short term list or
  704.                      * at a different long term index.
  705.                      * This is not allowed; see 7.4.3, notes 2 and 3.
  706.                      * Report the problem and keep the pair where it is,
  707.                      * and mark this field valid.
  708.                      */
  709.                     av_log(h->s.avctx, AV_LOG_ERROR,
  710.                         "illegal long term reference assignment for second "
  711.                         "field in complementary field pair (first field is "
  712.                         "short term or has non-matching long index)n");
  713.                     unref_pic = 0;
  714.                 }
  715.             }
  716.             if (unref_pic) {
  717.                 pic= remove_long(h, mmco[i].long_arg);
  718.                 if(pic) unreference_pic(h, pic, 0);
  719.                 h->long_ref[ mmco[i].long_arg ]= s->current_picture_ptr;
  720.                 h->long_ref[ mmco[i].long_arg ]->long_ref=1;
  721.                 h->long_ref_count++;
  722.             }
  723.             s->current_picture_ptr->reference |= s->picture_structure;
  724.             current_ref_assigned=1;
  725.             break;
  726.         case MMCO_SET_MAX_LONG:
  727.             assert(mmco[i].long_arg <= 16);
  728.             // just remove the long term which index is greater than new max
  729.             for(j = mmco[i].long_arg; j<16; j++){
  730.                 pic = remove_long(h, j);
  731.                 if (pic) unreference_pic(h, pic, 0);
  732.             }
  733.             break;
  734.         case MMCO_RESET:
  735.             while(h->short_ref_count){
  736.                 pic= remove_short(h, h->short_ref[0]->frame_num);
  737.                 if(pic) unreference_pic(h, pic, 0);
  738.             }
  739.             for(j = 0; j < 16; j++) {
  740.                 pic= remove_long(h, j);
  741.                 if(pic) unreference_pic(h, pic, 0);
  742.             }
  743.             break;
  744.         default: assert(0);
  745.         }
  746.     }
  747.     if (!current_ref_assigned && FIELD_PICTURE &&
  748.             !s->first_field && s->current_picture_ptr->reference) {
  749.         /* Second field of complementary field pair; the first field of
  750.          * which is already referenced. If short referenced, it
  751.          * should be first entry in short_ref. If not, it must exist
  752.          * in long_ref; trying to put it on the short list here is an
  753.          * error in the encoded bit stream (ref: 7.4.3, NOTE 2 and 3).
  754.          */
  755.         if (h->short_ref_count && h->short_ref[0] == s->current_picture_ptr) {
  756.             /* Just mark the second field valid */
  757.             s->current_picture_ptr->reference = PICT_FRAME;
  758.         } else if (s->current_picture_ptr->long_ref) {
  759.             av_log(h->s.avctx, AV_LOG_ERROR, "illegal short term reference "
  760.                                              "assignment for second field "
  761.                                              "in complementary field pair "
  762.                                              "(first field is long term)n");
  763.         } else {
  764.             /*
  765.              * First field in reference, but not in any sensible place on our
  766.              * reference lists. This shouldn't happen unless reference
  767.              * handling somewhere else is wrong.
  768.              */
  769.             assert(0);
  770.         }
  771.         current_ref_assigned = 1;
  772.     }
  773.     if(!current_ref_assigned){
  774.         pic= remove_short(h, s->current_picture_ptr->frame_num);
  775.         if(pic){
  776.             unreference_pic(h, pic, 0);
  777.             av_log(h->s.avctx, AV_LOG_ERROR, "illegal short term buffer state detectedn");
  778.         }
  779.         if(h->short_ref_count)
  780.             memmove(&h->short_ref[1], &h->short_ref[0], h->short_ref_count*sizeof(Picture*));
  781.         h->short_ref[0]= s->current_picture_ptr;
  782.         h->short_ref[0]->long_ref=0;
  783.         h->short_ref_count++;
  784.         s->current_picture_ptr->reference |= s->picture_structure;
  785.     }
  786.     if (h->long_ref_count + h->short_ref_count > h->sps.ref_frame_count){
  787.         /* We have too many reference frames, probably due to corrupted
  788.          * stream. Need to discard one frame. Prevents overrun of the
  789.          * short_ref and long_ref buffers.
  790.          */
  791.         av_log(h->s.avctx, AV_LOG_ERROR,
  792.                "number of reference frames exceeds max (probably "
  793.                "corrupt input), discarding onen");
  794.         if (h->long_ref_count) {
  795.             for (i = 0; i < 16; ++i)
  796.                 if (h->long_ref[i])
  797.                     break;
  798.             assert(i < 16);
  799.             pic = h->long_ref[i];
  800.             remove_long_at_index(h, i);
  801.         } else {
  802.             pic = h->short_ref[h->short_ref_count - 1];
  803.             remove_short_at_index(h, h->short_ref_count - 1);
  804.         }
  805.         unreference_pic(h, pic, 0);
  806.     }
  807.     print_short_term(h);
  808.     print_long_term(h);
  809.     return 0;
  810. }
  811. static int decode_ref_pic_marking(H264Context *h, GetBitContext *gb){
  812.     MpegEncContext * const s = &h->s;
  813.     int i;
  814.     if(h->nal_unit_type == NAL_IDR_SLICE){ //FIXME fields
  815.         s->broken_link= get_bits1(gb) -1;
  816.         h->mmco[0].long_arg= get_bits1(gb) - 1; // current_long_term_idx
  817.         if(h->mmco[0].long_arg == -1)
  818.             h->mmco_index= 0;
  819.         else{
  820.             h->mmco[0].opcode= MMCO_LONG;
  821.             h->mmco_index= 1;
  822.         }
  823.     }else{
  824.         if(get_bits1(gb)){ // adaptive_ref_pic_marking_mode_flag
  825.             for(i= 0; i<MAX_MMCO_COUNT; i++) {
  826.                 MMCOOpcode opcode= get_ue_golomb(gb);
  827.                 h->mmco[i].opcode= opcode;
  828.                 if(opcode==MMCO_SHORT2UNUSED || opcode==MMCO_SHORT2LONG){
  829.                     h->mmco[i].short_pic_num= (h->curr_pic_num - get_ue_golomb(gb) - 1) & (h->max_pic_num - 1);
  830. /*                    if(h->mmco[i].short_pic_num >= h->short_ref_count || h->short_ref[ h->mmco[i].short_pic_num ] == NULL){
  831.                         av_log(s->avctx, AV_LOG_ERROR, "illegal short ref in memory management control operation %dn", mmco);
  832.                         return -1;
  833.                     }*/
  834.                 }
  835.                 if(opcode==MMCO_SHORT2LONG || opcode==MMCO_LONG2UNUSED || opcode==MMCO_LONG || opcode==MMCO_SET_MAX_LONG){
  836.                     unsigned int long_arg= get_ue_golomb(gb);
  837.                     if(long_arg >= 32 || (long_arg >= 16 && !(opcode == MMCO_LONG2UNUSED && FIELD_PICTURE))){
  838.                         av_log(h->s.avctx, AV_LOG_ERROR, "illegal long ref in memory management control operation %dn", opcode);
  839.                         return -1;
  840.                     }
  841.                     h->mmco[i].long_arg= long_arg;
  842.                 }
  843.                 if(opcode > (unsigned)MMCO_LONG){
  844.                     av_log(h->s.avctx, AV_LOG_ERROR, "illegal memory management control operation %dn", opcode);
  845.                     return -1;
  846.                 }
  847.                 if(opcode == MMCO_END)
  848.                     break;
  849.             }
  850.             h->mmco_index= i;
  851.         }else{
  852.             assert(h->long_ref_count + h->short_ref_count <= h->sps.ref_frame_count);
  853.             if(h->short_ref_count && h->long_ref_count + h->short_ref_count == h->sps.ref_frame_count &&
  854.                     !(FIELD_PICTURE && !s->first_field && s->current_picture_ptr->reference)) {
  855.                 h->mmco[0].opcode= MMCO_SHORT2UNUSED;
  856.                 h->mmco[0].short_pic_num= h->short_ref[ h->short_ref_count - 1 ]->frame_num;
  857.                 h->mmco_index= 1;
  858.                 if (FIELD_PICTURE) {
  859.                     h->mmco[0].short_pic_num *= 2;
  860.                     h->mmco[1].opcode= MMCO_SHORT2UNUSED;
  861.                     h->mmco[1].short_pic_num= h->mmco[0].short_pic_num + 1;
  862.                     h->mmco_index= 2;
  863.                 }
  864.             }else
  865.                 h->mmco_index= 0;
  866.         }
  867.     }
  868.     return 0;
  869. }
  870. static int init_poc(H264Context *h){
  871.     MpegEncContext * const s = &h->s;
  872.     const int max_frame_num= 1<<h->sps.log2_max_frame_num;
  873.     int field_poc[2];
  874.     if(h->nal_unit_type == NAL_IDR_SLICE){
  875.         h->frame_num_offset= 0;
  876.     }else{
  877.         if(h->frame_num < h->prev_frame_num)
  878.             h->frame_num_offset= h->prev_frame_num_offset + max_frame_num;
  879.         else
  880.             h->frame_num_offset= h->prev_frame_num_offset;
  881.     }
  882.     if(h->sps.poc_type==0){
  883.         const int max_poc_lsb= 1<<h->sps.log2_max_poc_lsb;
  884.         if(h->nal_unit_type == NAL_IDR_SLICE){
  885.              h->prev_poc_msb=
  886.              h->prev_poc_lsb= 0;
  887.         }
  888.         if     (h->poc_lsb < h->prev_poc_lsb && h->prev_poc_lsb - h->poc_lsb >= max_poc_lsb/2)
  889.             h->poc_msb = h->prev_poc_msb + max_poc_lsb;
  890.         else if(h->poc_lsb > h->prev_poc_lsb && h->prev_poc_lsb - h->poc_lsb < -max_poc_lsb/2)
  891.             h->poc_msb = h->prev_poc_msb - max_poc_lsb;
  892.         else
  893.             h->poc_msb = h->prev_poc_msb;
  894. //printf("poc: %d %dn", h->poc_msb, h->poc_lsb);
  895.         field_poc[0] =
  896.         field_poc[1] = h->poc_msb + h->poc_lsb;
  897.         if(s->picture_structure == PICT_FRAME)
  898.             field_poc[1] += h->delta_poc_bottom;
  899.     }else if(h->sps.poc_type==1){
  900.         int abs_frame_num, expected_delta_per_poc_cycle, expectedpoc;
  901.         int i;
  902.         if(h->sps.poc_cycle_length != 0)
  903.             abs_frame_num = h->frame_num_offset + h->frame_num;
  904.         else
  905.             abs_frame_num = 0;
  906.         if(h->nal_ref_idc==0 && abs_frame_num > 0)
  907.             abs_frame_num--;
  908.         expected_delta_per_poc_cycle = 0;
  909.         for(i=0; i < h->sps.poc_cycle_length; i++)
  910.             expected_delta_per_poc_cycle += h->sps.offset_for_ref_frame[ i ]; //FIXME integrate during sps parse
  911.         if(abs_frame_num > 0){
  912.             int poc_cycle_cnt          = (abs_frame_num - 1) / h->sps.poc_cycle_length;
  913.             int frame_num_in_poc_cycle = (abs_frame_num - 1) % h->sps.poc_cycle_length;
  914.             expectedpoc = poc_cycle_cnt * expected_delta_per_poc_cycle;
  915.             for(i = 0; i <= frame_num_in_poc_cycle; i++)
  916.                 expectedpoc = expectedpoc + h->sps.offset_for_ref_frame[ i ];
  917.         } else
  918.             expectedpoc = 0;
  919.         if(h->nal_ref_idc == 0)
  920.             expectedpoc = expectedpoc + h->sps.offset_for_non_ref_pic;
  921.         field_poc[0] = expectedpoc + h->delta_poc[0];
  922.         field_poc[1] = field_poc[0] + h->sps.offset_for_top_to_bottom_field;
  923.         if(s->picture_structure == PICT_FRAME)
  924.             field_poc[1] += h->delta_poc[1];
  925.     }else{
  926.         int poc;
  927.         if(h->nal_unit_type == NAL_IDR_SLICE){
  928.             poc= 0;
  929.         }else{
  930.             if(h->nal_ref_idc) poc= 2*(h->frame_num_offset + h->frame_num);
  931.             else               poc= 2*(h->frame_num_offset + h->frame_num) - 1;
  932.         }
  933.         field_poc[0]= poc;
  934.         field_poc[1]= poc;
  935.     }
  936.     if(s->picture_structure != PICT_BOTTOM_FIELD) {
  937.         s->current_picture_ptr->field_poc[0]= field_poc[0];
  938.         s->current_picture_ptr->poc = field_poc[0];
  939.     }
  940.     if(s->picture_structure != PICT_TOP_FIELD) {
  941.         s->current_picture_ptr->field_poc[1]= field_poc[1];
  942.         s->current_picture_ptr->poc = field_poc[1];
  943.     }
  944.     if(!FIELD_PICTURE || !s->first_field) {
  945.         Picture *cur = s->current_picture_ptr;
  946.         cur->poc= FFMIN(cur->field_poc[0], cur->field_poc[1]);
  947.     }
  948.     return 0;
  949. }
  950. /**
  951.  * initialize scan tables
  952.  */
  953. static void init_scan_tables(H264Context *h){
  954.     MpegEncContext * const s = &h->s;
  955.     int i;
  956.     if(s->dsp.h264_idct_add == ff_h264_idct_add_c){ //FIXME little ugly
  957.         memcpy(h->zigzag_scan, zigzag_scan, 16*sizeof(uint8_t));
  958.         memcpy(h-> field_scan,  field_scan, 16*sizeof(uint8_t));
  959.     }else{
  960.         for(i=0; i<16; i++){
  961. #define T(x) (x>>2) | ((x<<2) & 0xF)
  962.             h->zigzag_scan[i] = T(zigzag_scan[i]);
  963.             h-> field_scan[i] = T( field_scan[i]);
  964. #undef T
  965.         }
  966.     }
  967.     if(s->dsp.h264_idct8_add == ff_h264_idct8_add_c){
  968.         memcpy(h->zigzag_scan8x8,       zigzag_scan8x8,       64*sizeof(uint8_t));
  969.         memcpy(h->zigzag_scan8x8_cavlc, zigzag_scan8x8_cavlc, 64*sizeof(uint8_t));
  970.         memcpy(h->field_scan8x8,        field_scan8x8,        64*sizeof(uint8_t));
  971.         memcpy(h->field_scan8x8_cavlc,  field_scan8x8_cavlc,  64*sizeof(uint8_t));
  972.     }else{
  973.         for(i=0; i<64; i++){
  974. #define T(x) (x>>3) | ((x&7)<<3)
  975.             h->zigzag_scan8x8[i]       = T(zigzag_scan8x8[i]);
  976.             h->zigzag_scan8x8_cavlc[i] = T(zigzag_scan8x8_cavlc[i]);
  977.             h->field_scan8x8[i]        = T(field_scan8x8[i]);
  978.             h->field_scan8x8_cavlc[i]  = T(field_scan8x8_cavlc[i]);
  979. #undef T
  980.         }
  981.     }
  982.     if(h->sps.transform_bypass){ //FIXME same ugly
  983.         h->zigzag_scan_q0          = zigzag_scan;
  984.         h->zigzag_scan8x8_q0       = zigzag_scan8x8;
  985.         h->zigzag_scan8x8_cavlc_q0 = zigzag_scan8x8_cavlc;
  986.         h->field_scan_q0           = field_scan;
  987.         h->field_scan8x8_q0        = field_scan8x8;
  988.         h->field_scan8x8_cavlc_q0  = field_scan8x8_cavlc;
  989.     }else{
  990.         h->zigzag_scan_q0          = h->zigzag_scan;
  991.         h->zigzag_scan8x8_q0       = h->zigzag_scan8x8;
  992.         h->zigzag_scan8x8_cavlc_q0 = h->zigzag_scan8x8_cavlc;
  993.         h->field_scan_q0           = h->field_scan;
  994.         h->field_scan8x8_q0        = h->field_scan8x8;
  995.         h->field_scan8x8_cavlc_q0  = h->field_scan8x8_cavlc;
  996.     }
  997. }
  998. /**
  999.  * Replicates H264 "master" context to thread contexts.
  1000.  */
  1001. static void clone_slice(H264Context *dst, H264Context *src)
  1002. {
  1003.     memcpy(dst->block_offset,     src->block_offset, sizeof(dst->block_offset));
  1004.     dst->s.current_picture_ptr  = src->s.current_picture_ptr;
  1005.     dst->s.current_picture      = src->s.current_picture;
  1006.     dst->s.linesize             = src->s.linesize;
  1007.     dst->s.uvlinesize           = src->s.uvlinesize;
  1008.     dst->s.first_field          = src->s.first_field;
  1009.     dst->prev_poc_msb           = src->prev_poc_msb;
  1010.     dst->prev_poc_lsb           = src->prev_poc_lsb;
  1011.     dst->prev_frame_num_offset  = src->prev_frame_num_offset;
  1012.     dst->prev_frame_num         = src->prev_frame_num;
  1013.     dst->short_ref_count        = src->short_ref_count;
  1014.     memcpy(dst->short_ref,        src->short_ref,        sizeof(dst->short_ref));
  1015.     memcpy(dst->long_ref,         src->long_ref,         sizeof(dst->long_ref));
  1016.     memcpy(dst->default_ref_list, src->default_ref_list, sizeof(dst->default_ref_list));
  1017.     memcpy(dst->ref_list,         src->ref_list,         sizeof(dst->ref_list));
  1018.     memcpy(dst->dequant4_coeff,   src->dequant4_coeff,   sizeof(src->dequant4_coeff));
  1019.     memcpy(dst->dequant8_coeff,   src->dequant8_coeff,   sizeof(src->dequant8_coeff));
  1020. }
  1021. /**
  1022.  * decodes a slice header.
  1023.  * This will also call MPV_common_init() and frame_start() as needed.
  1024.  *
  1025.  * @param h h264context
  1026.  * @param h0 h264 master context (differs from 'h' when doing sliced based parallel decoding)
  1027.  *
  1028.  * @return 0 if okay, <0 if an error occurred, 1 if decoding must not be multithreaded
  1029.  */
  1030. static int decode_slice_header(H264Context *h, H264Context *h0){
  1031.     MpegEncContext * const s = &h->s;
  1032.     MpegEncContext * const s0 = &h0->s;
  1033.     unsigned int first_mb_in_slice;
  1034.     unsigned int pps_id;
  1035.     int num_ref_idx_active_override_flag;
  1036.     static const uint8_t slice_type_map[5]= {FF_P_TYPE, FF_B_TYPE, FF_I_TYPE, FF_SP_TYPE, FF_SI_TYPE};
  1037.     unsigned int slice_type, tmp, i;
  1038.     int default_ref_list_done = 0;
  1039.     int last_pic_structure;
  1040.     s->dropable= h->nal_ref_idc == 0;
  1041.     if((s->avctx->flags2 & CODEC_FLAG2_FAST) && !h->nal_ref_idc){
  1042.         s->me.qpel_put= s->dsp.put_2tap_qpel_pixels_tab;
  1043.         s->me.qpel_avg= s->dsp.avg_2tap_qpel_pixels_tab;
  1044.     }else{
  1045.         s->me.qpel_put= s->dsp.put_h264_qpel_pixels_tab;
  1046.         s->me.qpel_avg= s->dsp.avg_h264_qpel_pixels_tab;
  1047.     }
  1048.     first_mb_in_slice= get_ue_golomb(&s->gb);
  1049.     if((s->flags2 & CODEC_FLAG2_CHUNKS) && first_mb_in_slice == 0){
  1050.         h0->current_slice = 0;
  1051.         if (!s0->first_field)
  1052.             s->current_picture_ptr= NULL;
  1053.     }
  1054.     slice_type= get_ue_golomb(&s->gb);
  1055.     if(slice_type > 9){
  1056.         av_log(h->s.avctx, AV_LOG_ERROR, "slice type too large (%d) at %d %dn", h->slice_type, s->mb_x, s->mb_y);
  1057.         return -1;
  1058.     }
  1059.     if(slice_type > 4){
  1060.         slice_type -= 5;
  1061.         h->slice_type_fixed=1;
  1062.     }else
  1063.         h->slice_type_fixed=0;
  1064.     slice_type= slice_type_map[ slice_type ];
  1065.     if (slice_type == FF_I_TYPE
  1066.         || (h0->current_slice != 0 && slice_type == h0->last_slice_type) ) {
  1067.         default_ref_list_done = 1;
  1068.     }
  1069.     h->slice_type= slice_type;
  1070.     s->pict_type= h->slice_type; // to make a few old func happy, it's wrong though
  1071.     if (s->pict_type == FF_B_TYPE && s0->last_picture_ptr == NULL) {
  1072.         av_log(h->s.avctx, AV_LOG_ERROR,
  1073.                "B picture before any references, skippingn");
  1074.         return -1;
  1075.     }
  1076.     pps_id= get_ue_golomb(&s->gb);
  1077.     if(pps_id>=MAX_PPS_COUNT){
  1078.         av_log(h->s.avctx, AV_LOG_ERROR, "pps_id out of rangen");
  1079.         return -1;
  1080.     }
  1081.     if(!h0->pps_buffers[pps_id]) {
  1082.         av_log(h->s.avctx, AV_LOG_ERROR, "non existing PPS referencedn");
  1083.         return -1;
  1084.     }
  1085.     h->pps= *h0->pps_buffers[pps_id];
  1086.     if(!h0->sps_buffers[h->pps.sps_id]) {
  1087.         av_log(h->s.avctx, AV_LOG_ERROR, "non existing SPS referencedn");
  1088.         return -1;
  1089.     }
  1090.     h->sps = *h0->sps_buffers[h->pps.sps_id];
  1091.     if(h == h0 && h->dequant_coeff_pps != pps_id){
  1092.         h->dequant_coeff_pps = pps_id;
  1093.         init_dequant_tables(h);
  1094.     }
  1095.     s->mb_width= h->sps.mb_width;
  1096.     s->mb_height= h->sps.mb_height * (2 - h->sps.frame_mbs_only_flag);
  1097.     h->b_stride=  s->mb_width*4;
  1098.     h->b8_stride= s->mb_width*2;
  1099.     s->width = 16*s->mb_width - 2*FFMIN(h->sps.crop_right, 7);
  1100.     if(h->sps.frame_mbs_only_flag)
  1101.         s->height= 16*s->mb_height - 2*FFMIN(h->sps.crop_bottom, 7);
  1102.     else
  1103.         s->height= 16*s->mb_height - 4*FFMIN(h->sps.crop_bottom, 3);
  1104.     if (s->context_initialized
  1105.         && (   s->width != s->avctx->width || s->height != s->avctx->height)) {
  1106.         if(h != h0)
  1107.             return -1;   // width / height changed during parallelized decoding
  1108.         free_tables(h);
  1109.         MPV_common_end(s);
  1110.     }
  1111.     if (!s->context_initialized) {
  1112.         if(h != h0)
  1113.             return -1;  // we cant (re-)initialize context during parallel decoding
  1114.         if (MPV_common_init(s) < 0)
  1115.             return -1;
  1116.         s->first_field = 0;
  1117.         init_scan_tables(h);
  1118.         alloc_tables(h);
  1119.         for(i = 1; i < s->avctx->thread_count; i++) {
  1120.             H264Context *c;
  1121.             c = h->thread_context[i] = av_malloc(sizeof(H264Context));
  1122.             memcpy(c, h->s.thread_context[i], sizeof(MpegEncContext));
  1123.             memset(&c->s + 1, 0, sizeof(H264Context) - sizeof(MpegEncContext));
  1124.             c->sps = h->sps;
  1125.             c->pps = h->pps;
  1126.             init_scan_tables(c);
  1127.             clone_tables(c, h);
  1128.         }
  1129.         for(i = 0; i < s->avctx->thread_count; i++)
  1130.             if(context_init(h->thread_context[i]) < 0)
  1131.                 return -1;
  1132.         s->avctx->width = s->width;
  1133.         s->avctx->height = s->height;
  1134.         s->avctx->sample_aspect_ratio= h->sps.sar;
  1135.         if(!s->avctx->sample_aspect_ratio.den)
  1136.             s->avctx->sample_aspect_ratio.den = 1;
  1137.         if(h->sps.timing_info_present_flag){
  1138.         //    s->avctx->time_base= (AVRational){h->sps.num_units_in_tick * 2, h->sps.time_scale};
  1139.             if(h->x264_build > 0 && h->x264_build < 44)
  1140.                 s->avctx->time_base.den *= 2;
  1141.             av_reduce(&s->avctx->time_base.num, &s->avctx->time_base.den,
  1142.                       s->avctx->time_base.num, s->avctx->time_base.den, 1<<30);
  1143.         }
  1144.     }
  1145.     h->frame_num= get_bits(&s->gb, h->sps.log2_max_frame_num);
  1146.     h->mb_mbaff = 0;
  1147.     h->mb_aff_frame = 0;
  1148.     last_pic_structure = s0->picture_structure;
  1149.     if(h->sps.frame_mbs_only_flag){
  1150.         s->picture_structure= PICT_FRAME;
  1151.     }else{
  1152.         if(get_bits1(&s->gb)) { //field_pic_flag
  1153.             s->picture_structure= PICT_TOP_FIELD + get_bits1(&s->gb); //bottom_field_flag
  1154.         } else {
  1155.             s->picture_structure= PICT_FRAME;
  1156.             h->mb_aff_frame = h->sps.mb_aff;
  1157.         }
  1158.     }
  1159.     if(h0->current_slice == 0){
  1160.         /* See if we have a decoded first field looking for a pair... */
  1161.         if (s0->first_field) {
  1162.             assert(s0->current_picture_ptr);
  1163.             assert(s0->current_picture_ptr->data[0]);
  1164.             assert(s0->current_picture_ptr->reference != DELAYED_PIC_REF);
  1165.             /* figure out if we have a complementary field pair */
  1166.             if (!FIELD_PICTURE || s->picture_structure == last_pic_structure) {
  1167.                 /*
  1168.                  * Previous field is unmatched. Don't display it, but let it
  1169.                  * remain for reference if marked as such.
  1170.                  */
  1171.                 s0->current_picture_ptr = NULL;
  1172.                 s0->first_field = FIELD_PICTURE;
  1173.             } else {
  1174.                 if (h->nal_ref_idc &&
  1175.                         s0->current_picture_ptr->reference &&
  1176.                         s0->current_picture_ptr->frame_num != h->frame_num) {
  1177.                     /*
  1178.                      * This and previous field were reference, but had
  1179.                      * different frame_nums. Consider this field first in
  1180.                      * pair. Throw away previous field except for reference
  1181.                      * purposes.
  1182.                      */
  1183.                     s0->first_field = 1;
  1184.                     s0->current_picture_ptr = NULL;
  1185.                 } else {
  1186.                     /* Second field in complementary pair */
  1187.                     s0->first_field = 0;
  1188.                 }
  1189.             }
  1190.         } else {
  1191.             /* Frame or first field in a potentially complementary pair */
  1192.             assert(!s0->current_picture_ptr);
  1193.             s0->first_field = FIELD_PICTURE;
  1194.         }
  1195.         if((!FIELD_PICTURE || s0->first_field) && frame_start(h) < 0) {
  1196.             s0->first_field = 0;
  1197.             return -1;
  1198.         }
  1199.     }
  1200.     if(h != h0)
  1201.         clone_slice(h, h0);
  1202.     s->current_picture_ptr->frame_num= h->frame_num; //FIXME frame_num cleanup
  1203.     assert(s->mb_num == s->mb_width * s->mb_height);
  1204.     if(first_mb_in_slice << FIELD_OR_MBAFF_PICTURE >= s->mb_num ||
  1205.        first_mb_in_slice                    >= s->mb_num){
  1206.         av_log(h->s.avctx, AV_LOG_ERROR, "first_mb_in_slice overflown");
  1207.         return -1;
  1208.     }
  1209.     s->resync_mb_x = s->mb_x = first_mb_in_slice % s->mb_width;
  1210.     s->resync_mb_y = s->mb_y = (first_mb_in_slice / s->mb_width) << FIELD_OR_MBAFF_PICTURE;
  1211.     if (s->picture_structure == PICT_BOTTOM_FIELD)
  1212.         s->resync_mb_y = s->mb_y = s->mb_y + 1;
  1213.     assert(s->mb_y < s->mb_height);
  1214.     if(s->picture_structure==PICT_FRAME){
  1215.         h->curr_pic_num=   h->frame_num;
  1216.         h->max_pic_num= 1<< h->sps.log2_max_frame_num;
  1217.     }else{
  1218.         h->curr_pic_num= 2*h->frame_num + 1;
  1219.         h->max_pic_num= 1<<(h->sps.log2_max_frame_num + 1);
  1220.     }
  1221.     if(h->nal_unit_type == NAL_IDR_SLICE){
  1222.         get_ue_golomb(&s->gb); /* idr_pic_id */
  1223.     }
  1224.     if(h->sps.poc_type==0){
  1225.         h->poc_lsb= get_bits(&s->gb, h->sps.log2_max_poc_lsb);
  1226.         if(h->pps.pic_order_present==1 && s->picture_structure==PICT_FRAME){
  1227.             h->delta_poc_bottom= get_se_golomb(&s->gb);
  1228.         }
  1229.     }
  1230.     if(h->sps.poc_type==1 && !h->sps.delta_pic_order_always_zero_flag){
  1231.         h->delta_poc[0]= get_se_golomb(&s->gb);
  1232.         if(h->pps.pic_order_present==1 && s->picture_structure==PICT_FRAME)
  1233.             h->delta_poc[1]= get_se_golomb(&s->gb);
  1234.     }
  1235.     init_poc(h);
  1236.     if(h->pps.redundant_pic_cnt_present){
  1237.         h->redundant_pic_count= get_ue_golomb(&s->gb);
  1238.     }
  1239.     //set defaults, might be overriden a few line later
  1240.     h->ref_count[0]= h->pps.ref_count[0];
  1241.     h->ref_count[1]= h->pps.ref_count[1];
  1242.     if(h->slice_type == FF_P_TYPE || h->slice_type == FF_SP_TYPE || h->slice_type == FF_B_TYPE){
  1243.         if(h->slice_type == FF_B_TYPE){
  1244.             h->direct_spatial_mv_pred= get_bits1(&s->gb);
  1245.             if(FIELD_PICTURE && h->direct_spatial_mv_pred)
  1246.                 av_log(h->s.avctx, AV_LOG_ERROR, "PAFF + spatial direct mode is not implementedn");
  1247.         }
  1248.         num_ref_idx_active_override_flag= get_bits1(&s->gb);
  1249.         if(num_ref_idx_active_override_flag){
  1250.             h->ref_count[0]= get_ue_golomb(&s->gb) + 1;
  1251.             if(h->slice_type==FF_B_TYPE)
  1252.                 h->ref_count[1]= get_ue_golomb(&s->gb) + 1;
  1253.             if(h->ref_count[0]-1 > 32-1 || h->ref_count[1]-1 > 32-1){
  1254.                 av_log(h->s.avctx, AV_LOG_ERROR, "reference overflown");
  1255.                 h->ref_count[0]= h->ref_count[1]= 1;
  1256.                 return -1;
  1257.             }
  1258.         }
  1259.         if(h->slice_type == FF_B_TYPE)
  1260.             h->list_count= 2;
  1261.         else
  1262.             h->list_count= 1;
  1263.     }else
  1264.         h->list_count= 0;
  1265.     if(!default_ref_list_done){
  1266.         fill_default_ref_list(h);
  1267.     }
  1268.     if(decode_ref_pic_list_reordering(h) < 0)
  1269.         return -1;
  1270.     if(   (h->pps.weighted_pred          && (h->slice_type == FF_P_TYPE || h->slice_type == FF_SP_TYPE ))
  1271.        || (h->pps.weighted_bipred_idc==1 && h->slice_type==FF_B_TYPE ) )
  1272.         pred_weight_table(h);
  1273.     else if(h->pps.weighted_bipred_idc==2 && h->slice_type==FF_B_TYPE)
  1274.         implicit_weight_table(h);
  1275.     else
  1276.         h->use_weight = 0;
  1277.     if(h->nal_ref_idc)
  1278.         decode_ref_pic_marking(h0, &s->gb);
  1279.     if(FRAME_MBAFF)
  1280.         fill_mbaff_ref_list(h);
  1281.     if( h->slice_type != FF_I_TYPE && h->slice_type != FF_SI_TYPE && h->pps.cabac ){
  1282.         tmp = get_ue_golomb(&s->gb);
  1283.         if(tmp > 2){
  1284.             av_log(s->avctx, AV_LOG_ERROR, "cabac_init_idc overflown");
  1285.             return -1;
  1286.         }
  1287.         h->cabac_init_idc= tmp;
  1288.     }
  1289.     h->last_qscale_diff = 0;
  1290.     tmp = h->pps.init_qp + get_se_golomb(&s->gb);
  1291.     if(tmp>51){
  1292.         av_log(s->avctx, AV_LOG_ERROR, "QP %u out of rangen", tmp);
  1293.         return -1;
  1294.     }
  1295.     s->qscale= tmp;
  1296.     h->chroma_qp[0] = get_chroma_qp(h, 0, s->qscale);
  1297.     h->chroma_qp[1] = get_chroma_qp(h, 1, s->qscale);
  1298.     //FIXME qscale / qp ... stuff
  1299.     if(h->slice_type == FF_SP_TYPE){
  1300.         get_bits1(&s->gb); /* sp_for_switch_flag */
  1301.     }
  1302.     if(h->slice_type==FF_SP_TYPE || h->slice_type == FF_SI_TYPE){
  1303.         get_se_golomb(&s->gb); /* slice_qs_delta */
  1304.     }
  1305.     h->deblocking_filter = 1;
  1306.     h->slice_alpha_c0_offset = 0;
  1307.     h->slice_beta_offset = 0;
  1308.     if( h->pps.deblocking_filter_parameters_present ) {
  1309.         tmp= get_ue_golomb(&s->gb);
  1310.         if(tmp > 2){
  1311.             av_log(s->avctx, AV_LOG_ERROR, "deblocking_filter_idc %u out of rangen", tmp);
  1312.             return -1;
  1313.         }
  1314.         h->deblocking_filter= tmp;
  1315.         if(h->deblocking_filter < 2)
  1316.             h->deblocking_filter^= 1; // 1<->0
  1317.         if( h->deblocking_filter ) {
  1318.             h->slice_alpha_c0_offset = get_se_golomb(&s->gb) << 1;
  1319.             h->slice_beta_offset = get_se_golomb(&s->gb) << 1;
  1320.         }
  1321.     }
  1322.     if(   s->avctx->skip_loop_filter >= AVDISCARD_ALL
  1323.        ||(s->avctx->skip_loop_filter >= AVDISCARD_NONKEY && h->slice_type != FF_I_TYPE)
  1324.        ||(s->avctx->skip_loop_filter >= AVDISCARD_BIDIR  && h->slice_type == FF_B_TYPE)
  1325.        ||(s->avctx->skip_loop_filter >= AVDISCARD_NONREF && h->nal_ref_idc == 0))
  1326.         h->deblocking_filter= 0;
  1327.     if(h->deblocking_filter == 1 && h0->max_contexts > 1) {
  1328.         if(s->avctx->flags2 & CODEC_FLAG2_FAST) {
  1329.             /* Cheat slightly for speed:
  1330.                Do not bother to deblock across slices. */
  1331.             h->deblocking_filter = 2;
  1332.         } else {
  1333.             h0->max_contexts = 1;
  1334.             if(!h0->single_decode_warning) {
  1335.                 av_log(s->avctx, AV_LOG_INFO, "Cannot parallelize deblocking type 1, decoding such frames in sequential ordern");
  1336.                 h0->single_decode_warning = 1;
  1337.             }
  1338.             if(h != h0)
  1339.                 return 1; // deblocking switched inside frame
  1340.         }
  1341.     }
  1342. #if 0 //FMO
  1343.     if( h->pps.num_slice_groups > 1  && h->pps.mb_slice_group_map_type >= 3 && h->pps.mb_slice_group_map_type <= 5)
  1344.         slice_group_change_cycle= get_bits(&s->gb, ?);
  1345. #endif
  1346.     h0->last_slice_type = slice_type;
  1347.     h->slice_num = ++h0->current_slice;
  1348.     h->emu_edge_width= (s->flags&CODEC_FLAG_EMU_EDGE) ? 0 : 16;
  1349.     h->emu_edge_height= (FRAME_MBAFF || FIELD_PICTURE) ? 0 : h->emu_edge_width;
  1350.     if(s->avctx->debug&FF_DEBUG_PICT_INFO){
  1351.         av_log(h->s.avctx, AV_LOG_DEBUG, "slice:%d %s mb:%d %c pps:%u frame:%d poc:%d/%d ref:%d/%d qp:%d loop:%d:%d:%d weight:%d%s %sn",
  1352.                h->slice_num,
  1353.                (s->picture_structure==PICT_FRAME ? "F" : s->picture_structure==PICT_TOP_FIELD ? "T" : "B"),
  1354.                first_mb_in_slice,
  1355.                av_get_pict_type_char(h->slice_type),
  1356.                pps_id, h->frame_num,
  1357.                s->current_picture_ptr->field_poc[0], s->current_picture_ptr->field_poc[1],
  1358.                h->ref_count[0], h->ref_count[1],
  1359.                s->qscale,
  1360.                h->deblocking_filter, h->slice_alpha_c0_offset/2, h->slice_beta_offset/2,
  1361.                h->use_weight,
  1362.                h->use_weight==1 && h->use_weight_chroma ? "c" : "",
  1363.                h->slice_type == FF_B_TYPE ? (h->direct_spatial_mv_pred ? "SPAT" : "TEMP") : ""
  1364.                );
  1365.     }
  1366.     return 0;
  1367. }
  1368. /**
  1369.  *
  1370.  */
  1371. static inline int get_level_prefix(GetBitContext *gb){
  1372.     unsigned int buf;
  1373.     int log;
  1374.     OPEN_READER(re, gb);
  1375.     UPDATE_CACHE(re, gb);
  1376.     buf=GET_CACHE(re, gb);
  1377.     log= 32 - av_log2(buf);
  1378. #ifdef TRACE
  1379.     print_bin(buf>>(32-log), log);
  1380.     av_log(NULL, AV_LOG_DEBUG, "%5d %2d %3d lpr @%5d in %s get_level_prefixn", buf>>(32-log), log, log-1, get_bits_count(gb), __FILE__);
  1381. #endif
  1382.     LAST_SKIP_BITS(re, gb, log);
  1383.     CLOSE_READER(re, gb);
  1384.     return log-1;
  1385. }
  1386. static inline int get_dct8x8_allowed(H264Context *h){
  1387.     int i;
  1388.     for(i=0; i<4; i++){
  1389.         if(!IS_SUB_8X8(h->sub_mb_type[i])
  1390.            || (!h->sps.direct_8x8_inference_flag && IS_DIRECT(h->sub_mb_type[i])))
  1391.             return 0;
  1392.     }
  1393.     return 1;
  1394. }
  1395. /**
  1396.  * decodes a residual block.
  1397.  * @param n block index
  1398.  * @param scantable scantable
  1399.  * @param max_coeff number of coefficients in the block
  1400.  * @return <0 if an error occurred
  1401.  */
  1402. static int decode_residual(H264Context *h, GetBitContext *gb, DCTELEM *block, int n, const uint8_t *scantable, const uint32_t *qmul, int max_coeff){
  1403.     MpegEncContext * const s = &h->s;
  1404.     static const int coeff_token_table_index[17]= {0, 0, 1, 1, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 3};
  1405.     int level[16];
  1406.     int zeros_left, coeff_num, coeff_token, total_coeff, i, j, trailing_ones, run_before;
  1407.     //FIXME put trailing_onex into the context
  1408.     if(n == CHROMA_DC_BLOCK_INDEX){
  1409.         coeff_token= get_vlc2(gb, chroma_dc_coeff_token_vlc.table, CHROMA_DC_COEFF_TOKEN_VLC_BITS, 1);
  1410.         total_coeff= coeff_token>>2;
  1411.     }else{
  1412.         if(n == LUMA_DC_BLOCK_INDEX){
  1413.             total_coeff= pred_non_zero_count(h, 0);
  1414.             coeff_token= get_vlc2(gb, coeff_token_vlc[ coeff_token_table_index[total_coeff] ].table, COEFF_TOKEN_VLC_BITS, 2);
  1415.             total_coeff= coeff_token>>2;
  1416.         }else{
  1417.             total_coeff= pred_non_zero_count(h, n);
  1418.             coeff_token= get_vlc2(gb, coeff_token_vlc[ coeff_token_table_index[total_coeff] ].table, COEFF_TOKEN_VLC_BITS, 2);
  1419.             total_coeff= coeff_token>>2;
  1420.             h->non_zero_count_cache[ scan8[n] ]= total_coeff;
  1421.         }
  1422.     }
  1423.     //FIXME set last_non_zero?
  1424.     if(total_coeff==0)
  1425.         return 0;
  1426.     if(total_coeff > (unsigned)max_coeff) {
  1427.         av_log(h->s.avctx, AV_LOG_ERROR, "corrupted macroblock %d %d (total_coeff=%d)n", s->mb_x, s->mb_y, total_coeff);
  1428.         return -1;
  1429.     }
  1430.     trailing_ones= coeff_token&3;
  1431.     tprintf(h->s.avctx, "trailing:%d, total:%dn", trailing_ones, total_coeff);
  1432. // av_log(h->s.avctx, AV_LOG_DEBUG, "trailing:%d, total:%dn", trailing_ones, total_coeff);
  1433.     assert(total_coeff<=16);
  1434.     for(i=0; i<trailing_ones; i++){
  1435.         level[i]= 1 - 2*get_bits1(gb);
  1436.     }
  1437.     if(i<total_coeff) {
  1438.         int level_code, mask;
  1439.         int suffix_length = total_coeff > 10 && trailing_ones < 3;
  1440.         int prefix= get_level_prefix(gb);
  1441.         //first coefficient has suffix_length equal to 0 or 1
  1442.         if(prefix<14){ //FIXME try to build a large unified VLC table for all this
  1443.             if(suffix_length)
  1444.                 level_code= (prefix<<suffix_length) + get_bits(gb, suffix_length); //part
  1445.             else
  1446.                 level_code= (prefix<<suffix_length); //part
  1447.         }else if(prefix==14){
  1448.             if(suffix_length)
  1449.                 level_code= (prefix<<suffix_length) + get_bits(gb, suffix_length); //part
  1450.             else
  1451.                 level_code= prefix + get_bits(gb, 4); //part
  1452.         }else if(prefix==15){
  1453.             level_code= (prefix<<suffix_length) + get_bits(gb, 12); //part
  1454.             if(suffix_length==0) level_code+=15; //FIXME doesn't make (much)sense
  1455.         }else{
  1456.             av_log(h->s.avctx, AV_LOG_ERROR, "prefix too large at %d %dn", s->mb_x, s->mb_y);
  1457.             return -1;
  1458.         }
  1459.         if(trailing_ones < 3) level_code += 2;
  1460.         suffix_length = 1;
  1461.         if(level_code > 5)
  1462.             suffix_length++;
  1463.         mask= -(level_code&1);
  1464.         level[i]= (((2+level_code)>>1) ^ mask) - mask;
  1465.         i++;
  1466.         //remaining coefficients have suffix_length > 0
  1467.         for(;i<total_coeff;i++) {
  1468.             static const int suffix_limit[7] = {0,5,11,23,47,95,INT_MAX };
  1469.             prefix = get_level_prefix(gb);
  1470.             if(prefix<15){
  1471.                 level_code = (prefix<<suffix_length) + get_bits(gb, suffix_length);
  1472.             }else if(prefix==15){
  1473.                 level_code =  (prefix<<suffix_length) + get_bits(gb, 12);
  1474.             }else{
  1475.                 av_log(h->s.avctx, AV_LOG_ERROR, "prefix too large at %d %dn", s->mb_x, s->mb_y);
  1476.                 return -1;
  1477.             }
  1478.             mask= -(level_code&1);
  1479.             level[i]= (((2+level_code)>>1) ^ mask) - mask;
  1480.             if(level_code > suffix_limit[suffix_length])
  1481.                 suffix_length++;
  1482.         }
  1483.     }
  1484.     if(total_coeff == max_coeff)
  1485.         zeros_left=0;
  1486.     else{
  1487.         if(n == CHROMA_DC_BLOCK_INDEX)
  1488.             zeros_left= get_vlc2(gb, chroma_dc_total_zeros_vlc[ total_coeff-1 ].table, CHROMA_DC_TOTAL_ZEROS_VLC_BITS, 1);
  1489.         else
  1490.             zeros_left= get_vlc2(gb, total_zeros_vlc[ total_coeff-1 ].table, TOTAL_ZEROS_VLC_BITS, 1);
  1491.     }
  1492.     coeff_num = zeros_left + total_coeff - 1;
  1493.     j = scantable[coeff_num];
  1494.     if(n > 24){
  1495.         block[j] = level[0];
  1496.         for(i=1;i<total_coeff;i++) {
  1497.             if(zeros_left <= 0)
  1498.                 run_before = 0;
  1499.             else if(zeros_left < 7){
  1500.                 run_before= get_vlc2(gb, run_vlc[zeros_left-1].table, RUN_VLC_BITS, 1);
  1501.             }else{
  1502.                 run_before= get_vlc2(gb, run7_vlc.table, RUN7_VLC_BITS, 2);
  1503.             }
  1504.             zeros_left -= run_before;
  1505.             coeff_num -= 1 + run_before;
  1506.             j= scantable[ coeff_num ];
  1507.             block[j]= level[i];
  1508.         }
  1509.     }else{
  1510.         block[j] = (level[0] * qmul[j] + 32)>>6;
  1511.         for(i=1;i<total_coeff;i++) {
  1512.             if(zeros_left <= 0)
  1513.                 run_before = 0;
  1514.             else if(zeros_left < 7){
  1515.                 run_before= get_vlc2(gb, run_vlc[zeros_left-1].table, RUN_VLC_BITS, 1);
  1516.             }else{
  1517.                 run_before= get_vlc2(gb, run7_vlc.table, RUN7_VLC_BITS, 2);
  1518.             }
  1519.             zeros_left -= run_before;
  1520.             coeff_num -= 1 + run_before;
  1521.             j= scantable[ coeff_num ];
  1522.             block[j]= (level[i] * qmul[j] + 32)>>6;
  1523.         }
  1524.     }
  1525.     if(zeros_left<0){
  1526.         av_log(h->s.avctx, AV_LOG_ERROR, "negative number of zero coeffs at %d %dn", s->mb_x, s->mb_y);
  1527.         return -1;
  1528.     }
  1529.     return 0;
  1530. }
  1531. static void predict_field_decoding_flag(H264Context *h){
  1532.     MpegEncContext * const s = &h->s;
  1533.     const int mb_xy= h->mb_xy;
  1534.     int mb_type = (h->slice_table[mb_xy-1] == h->slice_num)
  1535.                 ? s->current_picture.mb_type[mb_xy-1]
  1536.                 : (h->slice_table[mb_xy-s->mb_stride] == h->slice_num)
  1537.                 ? s->current_picture.mb_type[mb_xy-s->mb_stride]
  1538.                 : 0;
  1539.     h->mb_mbaff = h->mb_field_decoding_flag = IS_INTERLACED(mb_type) ? 1 : 0;
  1540. }
  1541. /**
  1542.  * decodes a P_SKIP or B_SKIP macroblock
  1543.  */
  1544. static void decode_mb_skip(H264Context *h){
  1545.     MpegEncContext * const s = &h->s;
  1546.     const int mb_xy= h->mb_xy;
  1547.     int mb_type=0;
  1548.     memset(h->non_zero_count[mb_xy], 0, 16);
  1549.     memset(h->non_zero_count_cache + 8, 0, 8*5); //FIXME ugly, remove pfui
  1550.     if(MB_FIELD)
  1551.         mb_type|= MB_TYPE_INTERLACED;
  1552.     if( h->slice_type == FF_B_TYPE )
  1553.     {
  1554.         // just for fill_caches. pred_direct_motion will set the real mb_type
  1555.         mb_type|= MB_TYPE_16x16|MB_TYPE_P0L0|MB_TYPE_P0L1|MB_TYPE_DIRECT2|MB_TYPE_SKIP;
  1556.         fill_caches(h, mb_type, 0); //FIXME check what is needed and what not ...
  1557.         pred_direct_motion(h, &mb_type);
  1558.         mb_type|= MB_TYPE_SKIP;
  1559.     }
  1560.     else
  1561.     {
  1562.         int mx, my;
  1563.         mb_type|= MB_TYPE_16x16|MB_TYPE_P0L0|MB_TYPE_P1L0|MB_TYPE_SKIP;
  1564.         fill_caches(h, mb_type, 0); //FIXME check what is needed and what not ...
  1565.         pred_pskip_motion(h, &mx, &my);
  1566.         fill_rectangle(&h->ref_cache[0][scan8[0]], 4, 4, 8, 0, 1);
  1567.         fill_rectangle(  h->mv_cache[0][scan8[0]], 4, 4, 8, pack16to32(mx,my), 4);
  1568.     }
  1569.     write_back_motion(h, mb_type);
  1570.     s->current_picture.mb_type[mb_xy]= mb_type;
  1571.     s->current_picture.qscale_table[mb_xy]= s->qscale;
  1572.     h->slice_table[ mb_xy ]= h->slice_num;
  1573.     h->prev_mb_skipped= 1;
  1574. }
  1575. static void clear_blocks_c(DCTELEM *blocks)
  1576. {
  1577.     memset(blocks, 0, sizeof(DCTELEM)*6*64);
  1578. }
  1579. /**
  1580.  * decodes a macroblock
  1581.  * @returns 0 if ok, AC_ERROR / DC_ERROR / MV_ERROR if an error is noticed
  1582.  */
  1583. static int decode_mb_cavlc(H264Context *h){
  1584.     MpegEncContext * const s = &h->s;
  1585.     int mb_xy;
  1586.     int partition_count;
  1587.     unsigned int mb_type, cbp;
  1588.     int dct8x8_allowed= h->pps.transform_8x8_mode;
  1589.     mb_xy = h->mb_xy = s->mb_x + s->mb_y*s->mb_stride;
  1590.     s->dsp.clear_blocks(h->mb); //FIXME avoid if already clear (move after skip handlong?
  1591. // clear_blocks_c(h->mb);
  1592.     tprintf(s->avctx, "pic:%d mb:%d/%dn", h->frame_num, s->mb_x, s->mb_y);
  1593.     cbp = 0; /* avoid warning. FIXME: find a solution without slowing
  1594.                 down the code */
  1595.     if(h->slice_type != FF_I_TYPE && h->slice_type != FF_SI_TYPE){
  1596.         if(s->mb_skip_run==-1)
  1597.             s->mb_skip_run= get_ue_golomb(&s->gb);
  1598.         if (s->mb_skip_run--) {
  1599.             if(FRAME_MBAFF && (s->mb_y&1) == 0){
  1600.                 if(s->mb_skip_run==0)
  1601.                     h->mb_mbaff = h->mb_field_decoding_flag = get_bits1(&s->gb);
  1602.                 else
  1603.                     predict_field_decoding_flag(h);
  1604.             }
  1605.             decode_mb_skip(h);
  1606.             return 0;
  1607.         }
  1608.     }
  1609.     if(FRAME_MBAFF){
  1610.         if( (s->mb_y&1) == 0 )
  1611.             h->mb_mbaff = h->mb_field_decoding_flag = get_bits1(&s->gb);
  1612.     }else
  1613.         h->mb_field_decoding_flag= (s->picture_structure!=PICT_FRAME);
  1614.     h->prev_mb_skipped= 0;
  1615.     mb_type= get_ue_golomb(&s->gb);
  1616.     if(h->slice_type == FF_B_TYPE){
  1617.         if(mb_type < 23){
  1618.             partition_count= b_mb_type_info[mb_type].partition_count;
  1619.             mb_type=         b_mb_type_info[mb_type].type;
  1620.         }else{
  1621.             mb_type -= 23;
  1622.             goto decode_intra_mb;
  1623.         }
  1624.     }else if(h->slice_type == FF_P_TYPE /*|| h->slice_type == FF_SP_TYPE */){
  1625.         if(mb_type < 5){
  1626.             partition_count= p_mb_type_info[mb_type].partition_count;
  1627.             mb_type=         p_mb_type_info[mb_type].type;
  1628.         }else{
  1629.             mb_type -= 5;
  1630.             goto decode_intra_mb;
  1631.         }
  1632.     }else{
  1633.        assert(h->slice_type == FF_I_TYPE);
  1634. decode_intra_mb:
  1635.         if(mb_type > 25){
  1636.             av_log(h->s.avctx, AV_LOG_ERROR, "mb_type %d in %c slice too large at %d %dn", mb_type, av_get_pict_type_char(h->slice_type), s->mb_x, s->mb_y);
  1637.             return -1;
  1638.         }
  1639.         partition_count=0;
  1640.         cbp= i_mb_type_info[mb_type].cbp;
  1641.         h->intra16x16_pred_mode= i_mb_type_info[mb_type].pred_mode;
  1642.         mb_type= i_mb_type_info[mb_type].type;
  1643.     }
  1644.     if(MB_FIELD)
  1645.         mb_type |= MB_TYPE_INTERLACED;
  1646.     h->slice_table[ mb_xy ]= h->slice_num;
  1647.     if(IS_INTRA_PCM(mb_type)){
  1648.         unsigned int x, y;
  1649.         // We assume these blocks are very rare so we do not optimize it.
  1650.         align_get_bits(&s->gb);
  1651.         // The pixels are stored in the same order as levels in h->mb array.
  1652.         for(y=0; y<16; y++){
  1653.             const int index= 4*(y&3) + 32*((y>>2)&1) + 128*(y>>3);
  1654.             for(x=0; x<16; x++){
  1655.                 tprintf(s->avctx, "LUMA ICPM LEVEL (%3d)n", show_bits(&s->gb, 8));
  1656.                 h->mb[index + (x&3) + 16*((x>>2)&1) + 64*(x>>3)]= get_bits(&s->gb, 8);
  1657.             }
  1658.         }
  1659.         for(y=0; y<8; y++){
  1660.             const int index= 256 + 4*(y&3) + 32*(y>>2);
  1661.             for(x=0; x<8; x++){
  1662.                 tprintf(s->avctx, "CHROMA U ICPM LEVEL (%3d)n", show_bits(&s->gb, 8));
  1663.                 h->mb[index + (x&3) + 16*(x>>2)]= get_bits(&s->gb, 8);
  1664.             }
  1665.         }
  1666.         for(y=0; y<8; y++){
  1667.             const int index= 256 + 64 + 4*(y&3) + 32*(y>>2);
  1668.             for(x=0; x<8; x++){
  1669.                 tprintf(s->avctx, "CHROMA V ICPM LEVEL (%3d)n", show_bits(&s->gb, 8));
  1670.                 h->mb[index + (x&3) + 16*(x>>2)]= get_bits(&s->gb, 8);
  1671.             }
  1672.         }
  1673.         // In deblocking, the quantizer is 0
  1674.         s->current_picture.qscale_table[mb_xy]= 0;
  1675.         h->chroma_qp[0] = get_chroma_qp(h, 0, 0);
  1676.         h->chroma_qp[1] = get_chroma_qp(h, 1, 0);
  1677.         // All coeffs are present
  1678.         memset(h->non_zero_count[mb_xy], 16, 16);
  1679.         s->current_picture.mb_type[mb_xy]= mb_type;
  1680.         return 0;
  1681.     }
  1682.     if(MB_MBAFF){
  1683.         h->ref_count[0] <<= 1;
  1684.         h->ref_count[1] <<= 1;
  1685.     }
  1686.     fill_caches(h, mb_type, 0);
  1687.     //mb_pred
  1688.     if(IS_INTRA(mb_type)){
  1689.             int pred_mode;
  1690. //            init_top_left_availability(h);
  1691.             if(IS_INTRA4x4(mb_type)){
  1692.                 int i;
  1693.                 int di = 1;
  1694.                 if(dct8x8_allowed && get_bits1(&s->gb)){
  1695.                     mb_type |= MB_TYPE_8x8DCT;
  1696.                     di = 4;
  1697.                 }
  1698. //                fill_intra4x4_pred_table(h);
  1699.                 for(i=0; i<16; i+=di){
  1700.                     int mode= pred_intra_mode(h, i);
  1701.                     if(!get_bits1(&s->gb)){
  1702.                         const int rem_mode= get_bits(&s->gb, 3);
  1703.                         mode = rem_mode + (rem_mode >= mode);
  1704. // av_log(h->s.avctx, AV_LOG_ERROR, "intra =%dn",rem_mode);
  1705.                     }
  1706. // else
  1707. // av_log(h->s.avctx, AV_LOG_ERROR, "intra =-1n");
  1708.                     if(di==4)
  1709.                         fill_rectangle( &h->intra4x4_pred_mode_cache[ scan8[i] ], 2, 2, 8, mode, 1 );
  1710.                     else
  1711.                         h->intra4x4_pred_mode_cache[ scan8[i] ] = mode;
  1712.                 }
  1713.                 write_back_intra_pred_mode(h);
  1714.                 if( check_intra4x4_pred_mode(h) < 0)
  1715.                     return -1;
  1716.             }else{
  1717.                 h->intra16x16_pred_mode= check_intra_pred_mode(h, h->intra16x16_pred_mode);
  1718.                 if(h->intra16x16_pred_mode < 0)
  1719.                     return -1;
  1720.             }
  1721.             pred_mode= check_intra_pred_mode(h, get_ue_golomb(&s->gb));
  1722.             if(pred_mode < 0)
  1723.                 return -1;
  1724.             h->chroma_pred_mode= pred_mode;
  1725.     }else if(partition_count==4){
  1726.         int i, j, sub_partition_count[4], list, ref[2][4];
  1727.         if(h->slice_type == FF_B_TYPE){
  1728.             for(i=0; i<4; i++){
  1729.                 h->sub_mb_type[i]= get_ue_golomb(&s->gb);
  1730.                 if(h->sub_mb_type[i] >=13){
  1731.                     av_log(h->s.avctx, AV_LOG_ERROR, "B sub_mb_type %u out of range at %d %dn", h->sub_mb_type[i], s->mb_x, s->mb_y);
  1732.                     return -1;
  1733.                 }
  1734.                 sub_partition_count[i]= b_sub_mb_type_info[ h->sub_mb_type[i] ].partition_count;
  1735.                 h->sub_mb_type[i]=      b_sub_mb_type_info[ h->sub_mb_type[i] ].type;
  1736.             }
  1737.             if(   IS_DIRECT(h->sub_mb_type[0]) || IS_DIRECT(h->sub_mb_type[1])
  1738.                || IS_DIRECT(h->sub_mb_type[2]) || IS_DIRECT(h->sub_mb_type[3])) {
  1739.                 pred_direct_motion(h, &mb_type);
  1740.                 h->ref_cache[0][scan8[4]] =
  1741.                 h->ref_cache[1][scan8[4]] =
  1742.                 h->ref_cache[0][scan8[12]] =
  1743.                 h->ref_cache[1][scan8[12]] = PART_NOT_AVAILABLE;
  1744.             }
  1745.         }else{
  1746.             assert(h->slice_type == FF_P_TYPE || h->slice_type == FF_SP_TYPE); //FIXME SP correct ?
  1747.             for(i=0; i<4; i++){
  1748.                 h->sub_mb_type[i]= get_ue_golomb(&s->gb);
  1749.                 if(h->sub_mb_type[i] >=4){
  1750.                     av_log(h->s.avctx, AV_LOG_ERROR, "P sub_mb_type %u out of range at %d %dn", h->sub_mb_type[i], s->mb_x, s->mb_y);
  1751.                     return -1;
  1752.                 }
  1753.                 sub_partition_count[i]= p_sub_mb_type_info[ h->sub_mb_type[i] ].partition_count;
  1754.                 h->sub_mb_type[i]=      p_sub_mb_type_info[ h->sub_mb_type[i] ].type;
  1755.             }
  1756.         }
  1757.         for(list=0; list<h->list_count; list++){
  1758.             int ref_count= IS_REF0(mb_type) ? 1 : h->ref_count[list];
  1759.             for(i=0; i<4; i++){
  1760.                 if(IS_DIRECT(h->sub_mb_type[i])) continue;
  1761.                 if(IS_DIR(h->sub_mb_type[i], 0, list)){
  1762.                     unsigned int tmp = get_te0_golomb(&s->gb, ref_count); //FIXME init to 0 before and skip?
  1763.                     if(tmp>=ref_count){
  1764.                         av_log(h->s.avctx, AV_LOG_ERROR, "ref %u overflown", tmp);
  1765.                         return -1;
  1766.                     }
  1767.                     ref[list][i]= tmp;
  1768.                 }else{
  1769.                  //FIXME
  1770.                     ref[list][i] = -1;
  1771.                 }
  1772.             }
  1773.         }
  1774.         if(dct8x8_allowed)
  1775.             dct8x8_allowed = get_dct8x8_allowed(h);
  1776.         for(list=0; list<h->list_count; list++){
  1777.             for(i=0; i<4; i++){
  1778.                 if(IS_DIRECT(h->sub_mb_type[i])) {
  1779.                     h->ref_cache[list][ scan8[4*i] ] = h->ref_cache[list][ scan8[4*i]+1 ];
  1780.                     continue;
  1781.                 }
  1782.                 h->ref_cache[list][ scan8[4*i]   ]=h->ref_cache[list][ scan8[4*i]+1 ]=
  1783.                 h->ref_cache[list][ scan8[4*i]+8 ]=h->ref_cache[list][ scan8[4*i]+9 ]= ref[list][i];
  1784.                 if(IS_DIR(h->sub_mb_type[i], 0, list)){
  1785.                     const int sub_mb_type= h->sub_mb_type[i];
  1786.                     const int block_width= (sub_mb_type & (MB_TYPE_16x16|MB_TYPE_16x8)) ? 2 : 1;
  1787.                     for(j=0; j<sub_partition_count[i]; j++){
  1788.                         int mx, my;
  1789.                         const int index= 4*i + block_width*j;
  1790.                         int16_t (* mv_cache)[2]= &h->mv_cache[list][ scan8[index] ];
  1791.                         pred_motion(h, index, block_width, list, h->ref_cache[list][ scan8[index] ], &mx, &my);
  1792.                         mx += get_se_golomb(&s->gb);
  1793.                         my += get_se_golomb(&s->gb);
  1794.                         tprintf(s->avctx, "final mv:%d %dn", mx, my);
  1795.                         if(IS_SUB_8X8(sub_mb_type)){
  1796.                             mv_cache[ 1 ][0]=
  1797.                             mv_cache[ 8 ][0]= mv_cache[ 9 ][0]= mx;
  1798.                             mv_cache[ 1 ][1]=
  1799.                             mv_cache[ 8 ][1]= mv_cache[ 9 ][1]= my;
  1800.                         }else if(IS_SUB_8X4(sub_mb_type)){
  1801.                             mv_cache[ 1 ][0]= mx;
  1802.                             mv_cache[ 1 ][1]= my;
  1803.                         }else if(IS_SUB_4X8(sub_mb_type)){
  1804.                             mv_cache[ 8 ][0]= mx;
  1805.                             mv_cache[ 8 ][1]= my;
  1806.                         }
  1807.                         mv_cache[ 0 ][0]= mx;
  1808.                         mv_cache[ 0 ][1]= my;
  1809.                     }
  1810.                 }else{
  1811.                     uint32_t *p= (uint32_t *)&h->mv_cache[list][ scan8[4*i] ][0];
  1812.                     p[0] = p[1]=
  1813.                     p[8] = p[9]= 0;
  1814.                 }
  1815.             }
  1816.         }
  1817.     }else if(IS_DIRECT(mb_type)){
  1818.         pred_direct_motion(h, &mb_type);
  1819.         dct8x8_allowed &= h->sps.direct_8x8_inference_flag;
  1820.     }else{
  1821.         int list, mx, my, i;
  1822.          //FIXME we should set ref_idx_l? to 0 if we use that later ...
  1823.         if(IS_16X16(mb_type)){
  1824.             for(list=0; list<h->list_count; list++){
  1825.                     unsigned int val;
  1826.                     if(IS_DIR(mb_type, 0, list)){
  1827.                         val= get_te0_golomb(&s->gb, h->ref_count[list]);
  1828.                         if(val >= h->ref_count[list]){
  1829.                             av_log(h->s.avctx, AV_LOG_ERROR, "ref %u overflown", val);
  1830.                             return -1;
  1831.                         }
  1832.                     }else
  1833.                         val= LIST_NOT_USED&0xFF;
  1834.                     fill_rectangle(&h->ref_cache[list][ scan8[0] ], 4, 4, 8, val, 1);
  1835.             }
  1836.             for(list=0; list<h->list_count; list++){
  1837.                 unsigned int val;
  1838.                 if(IS_DIR(mb_type, 0, list)){
  1839.                     pred_motion(h, 0, 4, list, h->ref_cache[list][ scan8[0] ], &mx, &my);
  1840.                     mx += get_se_golomb(&s->gb);
  1841.                     my += get_se_golomb(&s->gb);
  1842.                     tprintf(s->avctx, "final mv:%d %dn", mx, my);
  1843.                     val= pack16to32(mx,my);
  1844.                 }else
  1845.                     val=0;
  1846.                 fill_rectangle(h->mv_cache[list][ scan8[0] ], 4, 4, 8, val, 4);
  1847.             }
  1848.         }
  1849.         else if(IS_16X8(mb_type)){
  1850.             for(list=0; list<h->list_count; list++){
  1851.                     for(i=0; i<2; i++){
  1852.                         unsigned int val;
  1853.                         if(IS_DIR(mb_type, i, list)){
  1854.                             val= get_te0_golomb(&s->gb, h->ref_count[list]);
  1855.                             if(val >= h->ref_count[list]){
  1856.                                 av_log(h->s.avctx, AV_LOG_ERROR, "ref %u overflown", val);
  1857.                                 return -1;
  1858.                             }
  1859.                         }else
  1860.                             val= LIST_NOT_USED&0xFF;
  1861.                         fill_rectangle(&h->ref_cache[list][ scan8[0] + 16*i ], 4, 2, 8, val, 1);
  1862.                     }
  1863.             }
  1864.             for(list=0; list<h->list_count; list++){
  1865.                 for(i=0; i<2; i++){
  1866.                     unsigned int val;
  1867.                     if(IS_DIR(mb_type, i, list)){
  1868.                         pred_16x8_motion(h, 8*i, list, h->ref_cache[list][scan8[0] + 16*i], &mx, &my);
  1869.                         mx += get_se_golomb(&s->gb);
  1870.                         my += get_se_golomb(&s->gb);
  1871.                         tprintf(s->avctx, "final mv:%d %dn", mx, my);
  1872.                         val= pack16to32(mx,my);
  1873.                     }else
  1874.                         val=0;
  1875.                     fill_rectangle(h->mv_cache[list][ scan8[0] + 16*i ], 4, 2, 8, val, 4);
  1876.                 }
  1877.             }
  1878.         }else{
  1879.             assert(IS_8X16(mb_type));
  1880.             for(list=0; list<h->list_count; list++){
  1881.                     for(i=0; i<2; i++){
  1882.                         unsigned int val;
  1883.                         if(IS_DIR(mb_type, i, list)){ //FIXME optimize
  1884.                             val= get_te0_golomb(&s->gb, h->ref_count[list]);
  1885.                             if(val >= h->ref_count[list]){
  1886.                                 av_log(h->s.avctx, AV_LOG_ERROR, "ref %u overflown", val);
  1887.                                 return -1;
  1888.                             }
  1889.                         }else
  1890.                             val= LIST_NOT_USED&0xFF;
  1891.                         fill_rectangle(&h->ref_cache[list][ scan8[0] + 2*i ], 2, 4, 8, val, 1);
  1892.                     }
  1893.             }
  1894.             for(list=0; list<h->list_count; list++){
  1895.                 for(i=0; i<2; i++){
  1896.                     unsigned int val;
  1897.                     if(IS_DIR(mb_type, i, list)){
  1898.                         pred_8x16_motion(h, i*4, list, h->ref_cache[list][ scan8[0] + 2*i ], &mx, &my);
  1899.                         mx += get_se_golomb(&s->gb);
  1900.                         my += get_se_golomb(&s->gb);
  1901.                         tprintf(s->avctx, "final mv:%d %dn", mx, my);
  1902.                         val= pack16to32(mx,my);
  1903.                     }else
  1904.                         val=0;
  1905.                     fill_rectangle(h->mv_cache[list][ scan8[0] + 2*i ], 2, 4, 8, val, 4);
  1906.                 }
  1907.             }
  1908.         }
  1909.     }
  1910.     if(IS_INTER(mb_type))
  1911.         write_back_motion(h, mb_type);
  1912.     if(!IS_INTRA16x16(mb_type)){
  1913.         cbp= get_ue_golomb(&s->gb);
  1914.         if(cbp > 47){
  1915.             av_log(h->s.avctx, AV_LOG_ERROR, "cbp too large (%u) at %d %dn", cbp, s->mb_x, s->mb_y);
  1916.             return -1;
  1917.         }
  1918.         if(IS_INTRA4x4(mb_type))
  1919.             cbp= golomb_to_intra4x4_cbp[cbp];
  1920.         else
  1921.             cbp= golomb_to_inter_cbp[cbp];
  1922.     }
  1923.     h->cbp = cbp;
  1924.     if(dct8x8_allowed && (cbp&15) && !IS_INTRA(mb_type)){
  1925.         if(get_bits1(&s->gb))
  1926.             mb_type |= MB_TYPE_8x8DCT;
  1927.     }
  1928.     s->current_picture.mb_type[mb_xy]= mb_type;
  1929.     if(cbp || IS_INTRA16x16(mb_type)){
  1930.         int i8x8, i4x4, chroma_idx;
  1931.         int dquant;
  1932.         GetBitContext *gb= IS_INTRA(mb_type) ? h->intra_gb_ptr : h->inter_gb_ptr;
  1933.         const uint8_t *scan, *scan8x8, *dc_scan;
  1934. //        fill_non_zero_count_cache(h);
  1935.         if(IS_INTERLACED(mb_type)){
  1936.             scan8x8= s->qscale ? h->field_scan8x8_cavlc : h->field_scan8x8_cavlc_q0;
  1937.             scan= s->qscale ? h->field_scan : h->field_scan_q0;
  1938.             dc_scan= luma_dc_field_scan;
  1939.         }else{
  1940.             scan8x8= s->qscale ? h->zigzag_scan8x8_cavlc : h->zigzag_scan8x8_cavlc_q0;
  1941.             scan= s->qscale ? h->zigzag_scan : h->zigzag_scan_q0;
  1942.             dc_scan= luma_dc_zigzag_scan;
  1943.         }
  1944.         dquant= get_se_golomb(&s->gb);
  1945.         if( dquant > 25 || dquant < -26 ){
  1946.             av_log(h->s.avctx, AV_LOG_ERROR, "dquant out of range (%d) at %d %dn", dquant, s->mb_x, s->mb_y);
  1947.             return -1;
  1948.         }
  1949.         s->qscale += dquant;
  1950.         if(((unsigned)s->qscale) > 51){
  1951.             if(s->qscale<0) s->qscale+= 52;
  1952.             else            s->qscale-= 52;
  1953.         }
  1954.         h->chroma_qp[0]= get_chroma_qp(h, 0, s->qscale);
  1955.         h->chroma_qp[1]= get_chroma_qp(h, 1, s->qscale);
  1956.         if(IS_INTRA16x16(mb_type)){
  1957.             if( decode_residual(h, h->intra_gb_ptr, h->mb, LUMA_DC_BLOCK_INDEX, dc_scan, h->dequant4_coeff[0][s->qscale], 16) < 0){
  1958.                 return -1; //FIXME continue if partitioned and other return -1 too
  1959.             }
  1960.             assert((cbp&15) == 0 || (cbp&15) == 15);
  1961.             if(cbp&15){
  1962.                 for(i8x8=0; i8x8<4; i8x8++){
  1963.                     for(i4x4=0; i4x4<4; i4x4++){
  1964.                         const int index= i4x4 + 4*i8x8;
  1965.                         if( decode_residual(h, h->intra_gb_ptr, h->mb + 16*index, index, scan + 1, h->dequant4_coeff[0][s->qscale], 15) < 0 ){
  1966.                             return -1;
  1967.                         }
  1968.                     }
  1969.                 }
  1970.             }else{
  1971.                 fill_rectangle(&h->non_zero_count_cache[scan8[0]], 4, 4, 8, 0, 1);
  1972.             }
  1973.         }else{
  1974.             for(i8x8=0; i8x8<4; i8x8++){
  1975.                 if(cbp & (1<<i8x8)){
  1976.                     if(IS_8x8DCT(mb_type)){
  1977.                         DCTELEM *buf = &h->mb[64*i8x8];
  1978.                         uint8_t *nnz;
  1979.                         for(i4x4=0; i4x4<4; i4x4++){
  1980.                             if( decode_residual(h, gb, buf, i4x4+4*i8x8, scan8x8+16*i4x4,
  1981.                                                 h->dequant8_coeff[IS_INTRA( mb_type ) ? 0:1][s->qscale], 16) <0 )
  1982.                                 return -1;
  1983.                         }
  1984.                         nnz= &h->non_zero_count_cache[ scan8[4*i8x8] ];
  1985.                         nnz[0] += nnz[1] + nnz[8] + nnz[9];
  1986.                     }else{
  1987.                         for(i4x4=0; i4x4<4; i4x4++){
  1988.                             const int index= i4x4 + 4*i8x8;
  1989.                             if( decode_residual(h, gb, h->mb + 16*index, index, scan, h->dequant4_coeff[IS_INTRA( mb_type ) ? 0:3][s->qscale], 16) <0 ){
  1990.                                 return -1;
  1991.                             }
  1992.                         }
  1993.                     }
  1994.                 }else{
  1995.                     uint8_t * const nnz= &h->non_zero_count_cache[ scan8[4*i8x8] ];
  1996.                     nnz[0] = nnz[1] = nnz[8] = nnz[9] = 0;
  1997.                 }
  1998.             }
  1999.         }
  2000.         if(cbp&0x30){
  2001.             for(chroma_idx=0; chroma_idx<2; chroma_idx++)
  2002.                 if( decode_residual(h, gb, h->mb + 256 + 16*4*chroma_idx, CHROMA_DC_BLOCK_INDEX, chroma_dc_scan, NULL, 4) < 0){
  2003.                     return -1;
  2004.                 }
  2005.         }
  2006.         if(cbp&0x20){
  2007.             for(chroma_idx=0; chroma_idx<2; chroma_idx++){
  2008.                 const uint32_t *qmul = h->dequant4_coeff[chroma_idx+1+(IS_INTRA( mb_type ) ? 0:3)][h->chroma_qp[chroma_idx]];
  2009.                 for(i4x4=0; i4x4<4; i4x4++){
  2010.                     const int index= 16 + 4*chroma_idx + i4x4;
  2011.                     if( decode_residual(h, gb, h->mb + 16*index, index, scan + 1, qmul, 15) < 0){
  2012.                         return -1;
  2013.                     }
  2014.                 }
  2015.             }
  2016.         }else{
  2017.             uint8_t * const nnz= &h->non_zero_count_cache[0];
  2018.             nnz[ scan8[16]+0 ] = nnz[ scan8[16]+1 ] =nnz[ scan8[16]+8 ] =nnz[ scan8[16]+9 ] =
  2019.             nnz[ scan8[20]+0 ] = nnz[ scan8[20]+1 ] =nnz[ scan8[20]+8 ] =nnz[ scan8[20]+9 ] = 0;
  2020.         }
  2021.     }else{
  2022.         uint8_t * const nnz= &h->non_zero_count_cache[0];
  2023.         fill_rectangle(&nnz[scan8[0]], 4, 4, 8, 0, 1);
  2024.         nnz[ scan8[16]+0 ] = nnz[ scan8[16]+1 ] =nnz[ scan8[16]+8 ] =nnz[ scan8[16]+9 ] =
  2025.         nnz[ scan8[20]+0 ] = nnz[ scan8[20]+1 ] =nnz[ scan8[20]+8 ] =nnz[ scan8[20]+9 ] = 0;
  2026.     }
  2027.     s->current_picture.qscale_table[mb_xy]= s->qscale;
  2028.     write_back_non_zero_count(h);
  2029.     if(MB_MBAFF){
  2030.         h->ref_count[0] >>= 1;
  2031.         h->ref_count[1] >>= 1;
  2032.     }
  2033.     return 0;
  2034. }
  2035. static int decode_cabac_field_decoding_flag(H264Context *h) {
  2036.     MpegEncContext * const s = &h->s;
  2037.     const int mb_x = s->mb_x;
  2038.     const int mb_y = s->mb_y & ~1;
  2039.     const int mba_xy = mb_x - 1 +  mb_y   *s->mb_stride;
  2040.     const int mbb_xy = mb_x     + (mb_y-2)*s->mb_stride;
  2041.     unsigned int ctx = 0;
  2042.     if( h->slice_table[mba_xy] == h->slice_num && IS_INTERLACED( s->current_picture.mb_type[mba_xy] ) ) {
  2043.         ctx += 1;
  2044.     }
  2045.     if( h->slice_table[mbb_xy] == h->slice_num && IS_INTERLACED( s->current_picture.mb_type[mbb_xy] ) ) {
  2046.         ctx += 1;
  2047.     }
  2048.     return get_cabac_noinline( &h->cabac, &h->cabac_state[70 + ctx] );
  2049. }
  2050. static int decode_cabac_intra_mb_type(H264Context *h, int ctx_base, int intra_slice) {
  2051.     uint8_t *state= &h->cabac_state[ctx_base];
  2052.     int mb_type;
  2053.     if(intra_slice){
  2054.         MpegEncContext * const s = &h->s;
  2055.         const int mba_xy = h->left_mb_xy[0];
  2056.         const int mbb_xy = h->top_mb_xy;
  2057.         int ctx=0;
  2058.         if( h->slice_table[mba_xy] == h->slice_num && !IS_INTRA4x4( s->current_picture.mb_type[mba_xy] ) )
  2059.             ctx++;
  2060.         if( h->slice_table[mbb_xy] == h->slice_num && !IS_INTRA4x4( s->current_picture.mb_type[mbb_xy] ) )
  2061.             ctx++;
  2062.         if( get_cabac_noinline( &h->cabac, &state[ctx] ) == 0 )
  2063.             return 0;   /* I4x4 */
  2064.         state += 2;
  2065.     }else{
  2066.         if( get_cabac_noinline( &h->cabac, &state[0] ) == 0 )
  2067.             return 0;   /* I4x4 */
  2068.     }
  2069.     if( get_cabac_terminate( &h->cabac ) )
  2070.         return 25;  /* PCM */
  2071.     mb_type = 1; /* I16x16 */
  2072.     mb_type += 12 * get_cabac_noinline( &h->cabac, &state[1] ); /* cbp_luma != 0 */
  2073.     if( get_cabac_noinline( &h->cabac, &state[2] ) ) /* cbp_chroma */
  2074.         mb_type += 4 + 4 * get_cabac_noinline( &h->cabac, &state[2+intra_slice] );
  2075.     mb_type += 2 * get_cabac_noinline( &h->cabac, &state[3+intra_slice] );
  2076.     mb_type += 1 * get_cabac_noinline( &h->cabac, &state[3+2*intra_slice] );
  2077.     return mb_type;
  2078. }
  2079. static int decode_cabac_mb_type( H264Context *h ) {
  2080.     MpegEncContext * const s = &h->s;
  2081.     if( h->slice_type == FF_I_TYPE ) {
  2082.         return decode_cabac_intra_mb_type(h, 3, 1);
  2083.     } else if( h->slice_type == FF_P_TYPE ) {
  2084.         if( get_cabac_noinline( &h->cabac, &h->cabac_state[14] ) == 0 ) {
  2085.             /* P-type */
  2086.             if( get_cabac_noinline( &h->cabac, &h->cabac_state[15] ) == 0 ) {
  2087.                 /* P_L0_D16x16, P_8x8 */
  2088.                 return 3 * get_cabac_noinline( &h->cabac, &h->cabac_state[16] );
  2089.             } else {
  2090.                 /* P_L0_D8x16, P_L0_D16x8 */
  2091.                 return 2 - get_cabac_noinline( &h->cabac, &h->cabac_state[17] );
  2092.             }
  2093.         } else {
  2094.             return decode_cabac_intra_mb_type(h, 17, 0) + 5;
  2095.         }
  2096.     } else if( h->slice_type == FF_B_TYPE ) {
  2097.         const int mba_xy = h->left_mb_xy[0];
  2098.         const int mbb_xy = h->top_mb_xy;
  2099.         int ctx = 0;
  2100.         int bits;
  2101.         if( h->slice_table[mba_xy] == h->slice_num && !IS_DIRECT( s->current_picture.mb_type[mba_xy] ) )
  2102.             ctx++;
  2103.         if( h->slice_table[mbb_xy] == h->slice_num && !IS_DIRECT( s->current_picture.mb_type[mbb_xy] ) )
  2104.             ctx++;
  2105.         if( !get_cabac_noinline( &h->cabac, &h->cabac_state[27+ctx] ) )
  2106.             return 0; /* B_Direct_16x16 */
  2107.         if( !get_cabac_noinline( &h->cabac, &h->cabac_state[27+3] ) ) {
  2108.             return 1 + get_cabac_noinline( &h->cabac, &h->cabac_state[27+5] ); /* B_L[01]_16x16 */
  2109.         }
  2110.         bits = get_cabac_noinline( &h->cabac, &h->cabac_state[27+4] ) << 3;
  2111.         bits|= get_cabac_noinline( &h->cabac, &h->cabac_state[27+5] ) << 2;
  2112.         bits|= get_cabac_noinline( &h->cabac, &h->cabac_state[27+5] ) << 1;
  2113.         bits|= get_cabac_noinline( &h->cabac, &h->cabac_state[27+5] );
  2114.         if( bits < 8 )
  2115.             return bits + 3; /* B_Bi_16x16 through B_L1_L0_16x8 */
  2116.         else if( bits == 13 ) {
  2117.             return decode_cabac_intra_mb_type(h, 32, 0) + 23;
  2118.         } else if( bits == 14 )
  2119.             return 11; /* B_L1_L0_8x16 */
  2120.         else if( bits == 15 )
  2121.             return 22; /* B_8x8 */
  2122.         bits= ( bits<<1 ) | get_cabac_noinline( &h->cabac, &h->cabac_state[27+5] );
  2123.         return bits - 4; /* B_L0_Bi_* through B_Bi_Bi_* */
  2124.     } else {
  2125.         /* TODO SI/SP frames? */
  2126.         return -1;
  2127.     }
  2128. }
  2129. static int decode_cabac_mb_skip( H264Context *h, int mb_x, int mb_y ) {
  2130.     MpegEncContext * const s = &h->s;
  2131.     int mba_xy, mbb_xy;
  2132.     int ctx = 0;
  2133.     if(FRAME_MBAFF){ //FIXME merge with the stuff in fill_caches?
  2134.         int mb_xy = mb_x + (mb_y&~1)*s->mb_stride;
  2135.         mba_xy = mb_xy - 1;
  2136.         if( (mb_y&1)
  2137.             && h->slice_table[mba_xy] == h->slice_num
  2138.             && MB_FIELD == !!IS_INTERLACED( s->current_picture.mb_type[mba_xy] ) )
  2139.             mba_xy += s->mb_stride;
  2140.         if( MB_FIELD ){
  2141.             mbb_xy = mb_xy - s->mb_stride;
  2142.             if( !(mb_y&1)
  2143.                 && h->slice_table[mbb_xy] == h->slice_num
  2144.                 && IS_INTERLACED( s->current_picture.mb_type[mbb_xy] ) )
  2145.                 mbb_xy -= s->mb_stride;
  2146.         }else
  2147.             mbb_xy = mb_x + (mb_y-1)*s->mb_stride;
  2148.     }else{
  2149.         int mb_xy = h->mb_xy;
  2150.         mba_xy = mb_xy - 1;
  2151.         mbb_xy = mb_xy - (s->mb_stride << FIELD_PICTURE);
  2152.     }
  2153.     if( h->slice_table[mba_xy] == h->slice_num && !IS_SKIP( s->current_picture.mb_type[mba_xy] ))
  2154.         ctx++;
  2155.     if( h->slice_table[mbb_xy] == h->slice_num && !IS_SKIP( s->current_picture.mb_type[mbb_xy] ))
  2156.         ctx++;
  2157.     if( h->slice_type == FF_B_TYPE )
  2158.         ctx += 13;
  2159.     return get_cabac_noinline( &h->cabac, &h->cabac_state[11+ctx] );
  2160. }
  2161. static int decode_cabac_mb_intra4x4_pred_mode( H264Context *h, int pred_mode ) {
  2162.     int mode = 0;
  2163.     if( get_cabac( &h->cabac, &h->cabac_state[68] ) )
  2164.         return pred_mode;
  2165.     mode += 1 * get_cabac( &h->cabac, &h->cabac_state[69] );
  2166.     mode += 2 * get_cabac( &h->cabac, &h->cabac_state[69] );
  2167.     mode += 4 * get_cabac( &h->cabac, &h->cabac_state[69] );
  2168.     if( mode >= pred_mode )
  2169.         return mode + 1;
  2170.     else
  2171.         return mode;
  2172. }
  2173. static int decode_cabac_mb_chroma_pre_mode( H264Context *h) {
  2174.     const int mba_xy = h->left_mb_xy[0];
  2175.     const int mbb_xy = h->top_mb_xy;
  2176.     int ctx = 0;
  2177.     /* No need to test for IS_INTRA4x4 and IS_INTRA16x16, as we set chroma_pred_mode_table to 0 */
  2178.     if( h->slice_table[mba_xy] == h->slice_num && h->chroma_pred_mode_table[mba_xy] != 0 )
  2179.         ctx++;
  2180.     if( h->slice_table[mbb_xy] == h->slice_num && h->chroma_pred_mode_table[mbb_xy] != 0 )
  2181.         ctx++;
  2182.     if( get_cabac_noinline( &h->cabac, &h->cabac_state[64+ctx] ) == 0 )
  2183.         return 0;
  2184.     if( get_cabac_noinline( &h->cabac, &h->cabac_state[64+3] ) == 0 )
  2185.         return 1;
  2186.     if( get_cabac_noinline( &h->cabac, &h->cabac_state[64+3] ) == 0 )
  2187.         return 2;
  2188.     else
  2189.         return 3;
  2190. }
  2191. static int decode_cabac_mb_cbp_luma( H264Context *h) {
  2192.     int cbp_b, cbp_a, ctx, cbp = 0;
  2193.     cbp_a = h->slice_table[h->left_mb_xy[0]] == h->slice_num ? h->left_cbp : -1;
  2194.     cbp_b = h->slice_table[h->top_mb_xy]     == h->slice_num ? h->top_cbp  : -1;
  2195.     ctx = !(cbp_a & 0x02) + 2 * !(cbp_b & 0x04);
  2196.     cbp |= get_cabac_noinline(&h->cabac, &h->cabac_state[73 + ctx]);
  2197.     ctx = !(cbp   & 0x01) + 2 * !(cbp_b & 0x08);
  2198.     cbp |= get_cabac_noinline(&h->cabac, &h->cabac_state[73 + ctx]) << 1;
  2199.     ctx = !(cbp_a & 0x08) + 2 * !(cbp   & 0x01);
  2200.     cbp |= get_cabac_noinline(&h->cabac, &h->cabac_state[73 + ctx]) << 2;
  2201.     ctx = !(cbp   & 0x04) + 2 * !(cbp   & 0x02);
  2202.     cbp |= get_cabac_noinline(&h->cabac, &h->cabac_state[73 + ctx]) << 3;
  2203.     return cbp;
  2204. }
  2205. static int decode_cabac_mb_cbp_chroma( H264Context *h) {
  2206.     int ctx;
  2207.     int cbp_a, cbp_b;
  2208.     cbp_a = (h->left_cbp>>4)&0x03;
  2209.     cbp_b = (h-> top_cbp>>4)&0x03;
  2210.     ctx = 0;
  2211.     if( cbp_a > 0 ) ctx++;
  2212.     if( cbp_b > 0 ) ctx += 2;
  2213.     if( get_cabac_noinline( &h->cabac, &h->cabac_state[77 + ctx] ) == 0 )
  2214.         return 0;
  2215.     ctx = 4;
  2216.     if( cbp_a == 2 ) ctx++;
  2217.     if( cbp_b == 2 ) ctx += 2;
  2218.     return 1 + get_cabac_noinline( &h->cabac, &h->cabac_state[77 + ctx] );
  2219. }
  2220. static int decode_cabac_mb_dqp( H264Context *h) {
  2221.     int   ctx = 0;
  2222.     int   val = 0;
  2223.     if( h->last_qscale_diff != 0 )
  2224.         ctx++;
  2225.     while( get_cabac_noinline( &h->cabac, &h->cabac_state[60 + ctx] ) ) {
  2226.         if( ctx < 2 )
  2227.             ctx = 2;
  2228.         else
  2229.             ctx = 3;
  2230.         val++;
  2231.         if(val > 102) //prevent infinite loop
  2232.             return INT_MIN;
  2233.     }
  2234.     if( val&0x01 )
  2235.         return (val + 1)/2;
  2236.     else
  2237.         return -(val + 1)/2;
  2238. }
  2239. static int decode_cabac_p_mb_sub_type( H264Context *h ) {
  2240.     if( get_cabac( &h->cabac, &h->cabac_state[21] ) )
  2241.         return 0;   /* 8x8 */
  2242.     if( !get_cabac( &h->cabac, &h->cabac_state[22] ) )
  2243.         return 1;   /* 8x4 */
  2244.     if( get_cabac( &h->cabac, &h->cabac_state[23] ) )
  2245.         return 2;   /* 4x8 */
  2246.     return 3;       /* 4x4 */
  2247. }
  2248. static int decode_cabac_b_mb_sub_type( H264Context *h ) {
  2249.     int type;
  2250.     if( !get_cabac( &h->cabac, &h->cabac_state[36] ) )
  2251.         return 0;   /* B_Direct_8x8 */
  2252.     if( !get_cabac( &h->cabac, &h->cabac_state[37] ) )
  2253.         return 1 + get_cabac( &h->cabac, &h->cabac_state[39] ); /* B_L0_8x8, B_L1_8x8 */
  2254.     type = 3;
  2255.     if( get_cabac( &h->cabac, &h->cabac_state[38] ) ) {
  2256.         if( get_cabac( &h->cabac, &h->cabac_state[39] ) )
  2257.             return 11 + get_cabac( &h->cabac, &h->cabac_state[39] ); /* B_L1_4x4, B_Bi_4x4 */
  2258.         type += 4;
  2259.     }
  2260.     type += 2*get_cabac( &h->cabac, &h->cabac_state[39] );
  2261.     type +=   get_cabac( &h->cabac, &h->cabac_state[39] );
  2262.     return type;
  2263. }
  2264. static inline int decode_cabac_mb_transform_size( H264Context *h ) {
  2265.     return get_cabac_noinline( &h->cabac, &h->cabac_state[399 + h->neighbor_transform_size] );
  2266. }
  2267. static int decode_cabac_mb_ref( H264Context *h, int list, int n ) {
  2268.     int refa = h->ref_cache[list][scan8[n] - 1];
  2269.     int refb = h->ref_cache[list][scan8[n] - 8];
  2270.     int ref  = 0;
  2271.     int ctx  = 0;
  2272.     if( h->slice_type == FF_B_TYPE) {
  2273.         if( refa > 0 && !h->direct_cache[scan8[n] - 1] )
  2274.             ctx++;
  2275.         if( refb > 0 && !h->direct_cache[scan8[n] - 8] )
  2276.             ctx += 2;
  2277.     } else {
  2278.         if( refa > 0 )
  2279.             ctx++;
  2280.         if( refb > 0 )
  2281.             ctx += 2;
  2282.     }
  2283.     while( get_cabac( &h->cabac, &h->cabac_state[54+ctx] ) ) {
  2284.         ref++;
  2285.         if( ctx < 4 )
  2286.             ctx = 4;
  2287.         else
  2288.             ctx = 5;
  2289.         if(ref >= 32 /*h->ref_list[list]*/){
  2290.             av_log(h->s.avctx, AV_LOG_ERROR, "overflow in decode_cabac_mb_refn");
  2291.             return 0; //FIXME we should return -1 and check the return everywhere
  2292.         }
  2293.     }
  2294.     return ref;
  2295. }
  2296. static int decode_cabac_mb_mvd( H264Context *h, int list, int n, int l ) {
  2297.     int amvd = abs( h->mvd_cache[list][scan8[n] - 1][l] ) +
  2298.                abs( h->mvd_cache[list][scan8[n] - 8][l] );
  2299.     int ctxbase = (l == 0) ? 40 : 47;
  2300.     int ctx, mvd;
  2301.     if( amvd < 3 )
  2302.         ctx = 0;
  2303.     else if( amvd > 32 )
  2304.         ctx = 2;
  2305.     else
  2306.         ctx = 1;
  2307.     if(!get_cabac(&h->cabac, &h->cabac_state[ctxbase+ctx]))
  2308.         return 0;
  2309.     mvd= 1;
  2310.     ctx= 3;
  2311.     while( mvd < 9 && get_cabac( &h->cabac, &h->cabac_state[ctxbase+ctx] ) ) {
  2312.         mvd++;
  2313.         if( ctx < 6 )
  2314.             ctx++;
  2315.     }
  2316.     if( mvd >= 9 ) {
  2317.         int k = 3;
  2318.         while( get_cabac_bypass( &h->cabac ) ) {
  2319.             mvd += 1 << k;
  2320.             k++;
  2321.             if(k>24){
  2322.                 av_log(h->s.avctx, AV_LOG_ERROR, "overflow in decode_cabac_mb_mvdn");
  2323.                 return INT_MIN;
  2324.             }
  2325.         }
  2326.         while( k-- ) {
  2327.             if( get_cabac_bypass( &h->cabac ) )
  2328.                 mvd += 1 << k;
  2329.         }
  2330.     }
  2331.     return get_cabac_bypass_sign( &h->cabac, -mvd );
  2332. }
  2333. static inline int get_cabac_cbf_ctx( H264Context *h, int cat, int idx ) {
  2334.     int nza, nzb;
  2335.     int ctx = 0;
  2336.     if( cat == 0 ) {
  2337.         nza = h->left_cbp&0x100;
  2338.         nzb = h-> top_cbp&0x100;
  2339.     } else if( cat == 1 || cat == 2 ) {
  2340.         nza = h->non_zero_count_cache[scan8[idx] - 1];
  2341.         nzb = h->non_zero_count_cache[scan8[idx] - 8];
  2342.     } else if( cat == 3 ) {
  2343.         nza = (h->left_cbp>>(6+idx))&0x01;
  2344.         nzb = (h-> top_cbp>>(6+idx))&0x01;
  2345.     } else {
  2346.         assert(cat == 4);
  2347.         nza = h->non_zero_count_cache[scan8[16+idx] - 1];
  2348.         nzb = h->non_zero_count_cache[scan8[16+idx] - 8];
  2349.     }
  2350.     if( nza > 0 )
  2351.         ctx++;
  2352.     if( nzb > 0 )
  2353.         ctx += 2;
  2354.     return ctx + 4 * cat;
  2355. }
  2356. DECLARE_ASM_CONST(1, uint8_t, last_coeff_flag_offset_8x8[63]) = {
  2357.     0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,
  2358.     2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2,
  2359.     3, 3, 3, 3, 3, 3, 3, 3, 4, 4, 4, 4, 4, 4, 4, 4,
  2360.     5, 5, 5, 5, 6, 6, 6, 6, 7, 7, 7, 7, 8, 8, 8
  2361. };
  2362. static void decode_cabac_residual( H264Context *h, DCTELEM *block, int cat, int n, const uint8_t *scantable, const uint32_t *qmul, int max_coeff) {
  2363.     static const int significant_coeff_flag_offset[2][6] = {
  2364.       { 105+0, 105+15, 105+29, 105+44, 105+47, 402 },
  2365.       { 277+0, 277+15, 277+29, 277+44, 277+47, 436 }
  2366.     };
  2367.     static const int last_coeff_flag_offset[2][6] = {
  2368.       { 166+0, 166+15, 166+29, 166+44, 166+47, 417 },
  2369.       { 338+0, 338+15, 338+29, 338+44, 338+47, 451 }
  2370.     };
  2371.     static const int coeff_abs_level_m1_offset[6] = {
  2372.         227+0, 227+10, 227+20, 227+30, 227+39, 426
  2373.     };
  2374.     static const uint8_t significant_coeff_flag_offset_8x8[2][63] = {
  2375.       { 0, 1, 2, 3, 4, 5, 5, 4, 4, 3, 3, 4, 4, 4, 5, 5,
  2376.         4, 4, 4, 4, 3, 3, 6, 7, 7, 7, 8, 9,10, 9, 8, 7,
  2377.         7, 6,11,12,13,11, 6, 7, 8, 9,14,10, 9, 8, 6,11,
  2378.        12,13,11, 6, 9,14,10, 9,11,12,13,11,14,10,12 },
  2379.       { 0, 1, 1, 2, 2, 3, 3, 4, 5, 6, 7, 7, 7, 8, 4, 5,
  2380.         6, 9,10,10, 8,11,12,11, 9, 9,10,10, 8,11,12,11,
  2381.         9, 9,10,10, 8,11,12,11, 9, 9,10,10, 8,13,13, 9,
  2382.         9,10,10, 8,13,13, 9, 9,10,10,14,14,14,14,14 }
  2383.     };
  2384.     /* node ctx: 0..3: abslevel1 (with abslevelgt1 == 0).
  2385.      * 4..7: abslevelgt1 + 3 (and abslevel1 doesn't matter).
  2386.      * map node ctx => cabac ctx for level=1 */
  2387.     static const uint8_t coeff_abs_level1_ctx[8] = { 1, 2, 3, 4, 0, 0, 0, 0 };