truemotion1.c
上传用户:wstnjxml
上传日期:2014-04-03
资源大小:7248k
文件大小:28k
源码类别:

Windows CE

开发平台:

C/C++

  1. /*
  2.  * Duck TrueMotion 1.0 Decoder
  3.  * Copyright (C) 2003 Alex Beregszaszi & Mike Melanson
  4.  *
  5.  * This library is free software; you can redistribute it and/or
  6.  * modify it under the terms of the GNU Lesser General Public
  7.  * License as published by the Free Software Foundation; either
  8.  * version 2 of the License, or (at your option) any later version.
  9.  *
  10.  * This library is distributed in the hope that it will be useful,
  11.  * but WITHOUT ANY WARRANTY; without even the implied warranty of
  12.  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
  13.  * Lesser General Public License for more details.
  14.  *
  15.  * You should have received a copy of the GNU Lesser General Public
  16.  * License along with this library; if not, write to the Free Software
  17.  * Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
  18.  */
  19. /**
  20.  * @file truemotion1.c
  21.  * Duck TrueMotion v1 Video Decoder by 
  22.  * Alex Beregszaszi (alex@fsn.hu) and
  23.  * Mike Melanson (melanson@pcisys.net)
  24.  *
  25.  * The TrueMotion v1 decoder presently only decodes 16-bit TM1 data and
  26.  * outputs RGB555 (or RGB565) data. 24-bit TM1 data is not supported yet.
  27.  */
  28. #include <stdio.h>
  29. #include <stdlib.h>
  30. #include <string.h>
  31. #include <unistd.h>
  32. #include "common.h"
  33. #include "avcodec.h"
  34. #include "dsputil.h"
  35. #include "truemotion1data.h"
  36. typedef struct TrueMotion1Context {
  37.     AVCodecContext *avctx;
  38.     AVFrame frame;
  39.     AVFrame prev_frame;
  40.     uint8_t *buf;
  41.     int size;
  42.     uint8_t *mb_change_bits;
  43.     int mb_change_bits_row_size;
  44.     uint8_t *index_stream;
  45.     int index_stream_size;
  46.     int flags;
  47.     int x, y, w, h;
  48.     
  49.     uint32_t y_predictor_table[1024];
  50.     uint32_t c_predictor_table[1024];
  51.     uint32_t fat_y_predictor_table[1024];
  52.     uint32_t fat_c_predictor_table[1024];
  53.     
  54.     int compression;
  55.     int block_type;
  56.     int block_width;
  57.     int block_height;
  58.     int16_t ydt[8];
  59.     int16_t cdt[8];
  60.     int16_t fat_ydt[8];
  61.     int16_t fat_cdt[8];
  62.     
  63.     int last_deltaset, last_vectable;
  64.     unsigned int *vert_pred;
  65. } TrueMotion1Context;
  66. #define FLAG_SPRITE         32
  67. #define FLAG_KEYFRAME       16
  68. #define FLAG_INTERFRAME      8
  69. #define FLAG_INTERPOLATED    4
  70. struct frame_header {
  71.     uint8_t header_size;
  72.     uint8_t compression;
  73.     uint8_t deltaset;
  74.     uint8_t vectable;
  75.     uint16_t ysize;
  76.     uint16_t xsize;
  77.     uint16_t checksum;
  78.     uint8_t version;
  79.     uint8_t header_type;
  80.     uint8_t flags;
  81.     uint8_t control;
  82.     uint16_t xoffset;
  83.     uint16_t yoffset;
  84.     uint16_t width;
  85.     uint16_t height;
  86. };
  87. #define ALGO_NOP        0
  88. #define ALGO_RGB16V     1
  89. #define ALGO_RGB16H     2
  90. #define ALGO_RGB24H     3
  91. /* these are the various block sizes that can occupy a 4x4 block */
  92. #define BLOCK_2x2  0
  93. #define BLOCK_2x4  1
  94. #define BLOCK_4x2  2
  95. #define BLOCK_4x4  3
  96. typedef struct comp_types {
  97.     int algorithm;
  98.     int block_width; // vres
  99.     int block_height; // hres
  100.     int block_type;
  101. } comp_types;
  102. /* { valid for metatype }, algorithm, num of deltas, vert res, horiz res */
  103. static comp_types compression_types[17] = {
  104.     { ALGO_NOP,    0, 0, 0 },
  105.     { ALGO_RGB16V, 4, 4, BLOCK_4x4 },
  106.     { ALGO_RGB16H, 4, 4, BLOCK_4x4 },
  107.     { ALGO_RGB16V, 4, 2, BLOCK_4x2 },
  108.     { ALGO_RGB16H, 4, 2, BLOCK_4x2 },
  109.     { ALGO_RGB16V, 2, 4, BLOCK_2x4 },
  110.     { ALGO_RGB16H, 2, 4, BLOCK_2x4 },
  111.     { ALGO_RGB16V, 2, 2, BLOCK_2x2 },
  112.     { ALGO_RGB16H, 2, 2, BLOCK_2x2 },
  113.     { ALGO_NOP,    4, 4, BLOCK_4x4 },
  114.     { ALGO_RGB24H, 4, 4, BLOCK_4x4 },
  115.     { ALGO_NOP,    4, 2, BLOCK_4x2 },
  116.     { ALGO_RGB24H, 4, 2, BLOCK_4x2 },
  117.     { ALGO_NOP,    2, 4, BLOCK_2x4 },
  118.     { ALGO_RGB24H, 2, 4, BLOCK_2x4 },
  119.     { ALGO_NOP,    2, 2, BLOCK_2x2 },
  120.     { ALGO_RGB24H, 2, 2, BLOCK_2x2 }
  121. };
  122. static void select_delta_tables(TrueMotion1Context *s, int delta_table_index)
  123. {
  124.     int i;
  125.     if (delta_table_index > 3)
  126.         return;
  127.     memcpy(s->ydt, ydts[delta_table_index], 8 * sizeof(int16_t));
  128.     memcpy(s->cdt, cdts[delta_table_index], 8 * sizeof(int16_t));
  129.     memcpy(s->fat_ydt, fat_ydts[delta_table_index], 8 * sizeof(int16_t));
  130.     memcpy(s->fat_cdt, fat_cdts[delta_table_index], 8 * sizeof(int16_t));
  131.     /* Y skinny deltas need to be halved for some reason; maybe the
  132.      * skinny Y deltas should be modified */
  133.     for (i = 0; i < 8; i++)
  134.     {
  135.         /* drop the lsb before dividing by 2-- net effect: round down
  136.          * when dividing a negative number (e.g., -3/2 = -2, not -1) */
  137.         s->ydt[i] &= 0xFFFE;
  138.         s->ydt[i] /= 2;
  139.     }
  140. }
  141. #ifdef WORDS_BIGENDIAN
  142. static int make_ydt15_entry(int p2, int p1, int16_t *ydt)
  143. #else
  144. static int make_ydt15_entry(int p1, int p2, int16_t *ydt)
  145. #endif
  146. {
  147.     int lo, hi;
  148.     
  149.     lo = ydt[p1];
  150.     lo += (lo << 5) + (lo << 10);
  151.     hi = ydt[p2];
  152.     hi += (hi << 5) + (hi << 10);
  153.     return ((lo + (hi << 16)) << 1);
  154. }
  155. #ifdef WORDS_BIGENDIAN
  156. static int make_cdt15_entry(int p2, int p1, int16_t *cdt)
  157. #else
  158. static int make_cdt15_entry(int p1, int p2, int16_t *cdt)
  159. #endif
  160. {
  161.     int r, b, lo;
  162.     
  163.     b = cdt[p2];
  164.     r = cdt[p1] << 10;
  165.     lo = b + r;
  166.     return ((lo + (lo << 16)) << 1);
  167. }
  168. #ifdef WORDS_BIGENDIAN
  169. static int make_ydt16_entry(int p2, int p1, int16_t *ydt)
  170. #else
  171. static int make_ydt16_entry(int p1, int p2, int16_t *ydt)
  172. #endif
  173. {
  174.     int lo, hi;
  175.     
  176.     lo = ydt[p1];
  177.     lo += (lo << 6) + (lo << 11);
  178.     hi = ydt[p2];
  179.     hi += (hi << 6) + (hi << 11);
  180.     return ((lo + (hi << 16)) << 1);
  181. }
  182. #ifdef WORDS_BIGENDIAN
  183. static int make_cdt16_entry(int p2, int p1, int16_t *cdt)
  184. #else
  185. static int make_cdt16_entry(int p1, int p2, int16_t *cdt)
  186. #endif
  187. {
  188.     int r, b, lo;
  189.     
  190.     b = cdt[p2];
  191.     r = cdt[p1] << 11;
  192.     lo = b + r;
  193.     return ((lo + (lo << 16)) << 1);
  194. }
  195. #ifdef WORDS_BIGENDIAN
  196. static int make_ydt24_entry(int p2, int p1, int16_t *ydt)
  197. #else
  198. static int make_ydt24_entry(int p1, int p2, int16_t *ydt)
  199. #endif
  200. {
  201.     int lo, hi;
  202.     
  203.     lo = ydt[p1];
  204.     hi = ydt[p2];
  205.     return ((lo + (hi << 8)) << 1);
  206. }
  207. #ifdef WORDS_BIGENDIAN
  208. static int make_cdt24_entry(int p2, int p1, int16_t *cdt)
  209. #else
  210. static int make_cdt24_entry(int p1, int p2, int16_t *cdt)
  211. #endif
  212. {
  213.     int r, b;
  214.     
  215.     b = cdt[p2];
  216.     r = cdt[p1]<<16;
  217.     return ((b+r) << 1);
  218. }
  219. static void gen_vector_table15(TrueMotion1Context *s, const uint8_t *sel_vector_table)
  220. {
  221.     int len, i, j;
  222.     unsigned char delta_pair;
  223.     
  224.     for (i = 0; i < 1024; i += 4)
  225.     {
  226.         len = *sel_vector_table++ / 2;
  227.         for (j = 0; j < len; j++)
  228.         {
  229.             delta_pair = *sel_vector_table++;
  230.             s->y_predictor_table[i+j] = 0xfffffffe & 
  231.                 make_ydt15_entry(delta_pair >> 4, delta_pair & 0xf, s->ydt);
  232.             s->c_predictor_table[i+j] = 0xfffffffe & 
  233.                 make_cdt15_entry(delta_pair >> 4, delta_pair & 0xf, s->cdt);
  234.         }
  235.         s->y_predictor_table[i+(j-1)] |= 1;
  236.         s->c_predictor_table[i+(j-1)] |= 1;
  237.     }
  238. }
  239. static void gen_vector_table16(TrueMotion1Context *s, const uint8_t *sel_vector_table)
  240. {
  241.     int len, i, j;
  242.     unsigned char delta_pair;
  243.     
  244.     for (i = 0; i < 1024; i += 4)
  245.     {
  246.         len = *sel_vector_table++ / 2;
  247.         for (j = 0; j < len; j++)
  248.         {
  249.             delta_pair = *sel_vector_table++;
  250.             s->y_predictor_table[i+j] = 0xfffffffe & 
  251.                 make_ydt16_entry(delta_pair >> 4, delta_pair & 0xf, s->ydt);
  252.             s->c_predictor_table[i+j] = 0xfffffffe & 
  253.                 make_cdt16_entry(delta_pair >> 4, delta_pair & 0xf, s->cdt);
  254.         }
  255.         s->y_predictor_table[i+(j-1)] |= 1;
  256.         s->c_predictor_table[i+(j-1)] |= 1;
  257.     }
  258. }
  259. static void gen_vector_table24(TrueMotion1Context *s, const uint8_t *sel_vector_table)
  260. {
  261.     int len, i, j;
  262.     unsigned char delta_pair;
  263.     
  264.     for (i = 0; i < 1024; i += 4)
  265.     {
  266.         len = *sel_vector_table++ / 2;
  267.         for (j = 0; j < len; j++)
  268.         {
  269.             delta_pair = *sel_vector_table++;
  270.             s->y_predictor_table[i+j] = 0xfffffffe & 
  271.                 make_ydt24_entry(delta_pair >> 4, delta_pair & 0xf, s->ydt);
  272.             s->c_predictor_table[i+j] = 0xfffffffe & 
  273.                 make_cdt24_entry(delta_pair >> 4, delta_pair & 0xf, s->cdt);
  274.             s->fat_y_predictor_table[i+j] = 0xfffffffe & 
  275.                 make_ydt24_entry(delta_pair >> 4, delta_pair & 0xf, s->fat_ydt);
  276.             s->fat_c_predictor_table[i+j] = 0xfffffffe & 
  277.                 make_cdt24_entry(delta_pair >> 4, delta_pair & 0xf, s->fat_cdt);
  278.         }
  279.         s->y_predictor_table[i+(j-1)] |= 1;
  280.         s->c_predictor_table[i+(j-1)] |= 1;
  281.         s->fat_y_predictor_table[i+(j-1)] |= 1;
  282.         s->fat_c_predictor_table[i+(j-1)] |= 1;
  283.     }
  284. }
  285. /* Returns the number of bytes consumed from the bytestream. Returns -1 if
  286.  * there was an error while decoding the header */ 
  287. static int truemotion1_decode_header(TrueMotion1Context *s)
  288. {
  289.     int i;
  290.     struct frame_header header;
  291.     uint8_t header_buffer[128];  /* logical maximum size of the header */
  292.     const uint8_t *sel_vector_table;
  293.     /* There is 1 change bit per 4 pixels, so each change byte represents
  294.      * 32 pixels; divide width by 4 to obtain the number of change bits and
  295.      * then round up to the nearest byte. */
  296.     s->mb_change_bits_row_size = ((s->avctx->width >> 2) + 7) >> 3;
  297.     header.header_size = ((s->buf[0] >> 5) | (s->buf[0] << 3)) & 0x7f;
  298.     if (s->buf[0] < 0x10)
  299.     {
  300. av_log(s->avctx, AV_LOG_ERROR, "invalid header size (%d)n", s->buf[0]);
  301.         return -1;
  302.     }
  303.     /* unscramble the header bytes with a XOR operation */
  304.     memset(header_buffer, 0, 128);
  305.     for (i = 1; i < header.header_size; i++)
  306. header_buffer[i - 1] = s->buf[i] ^ s->buf[i + 1];
  307.     header.compression = header_buffer[0];
  308.     header.deltaset = header_buffer[1];
  309.     header.vectable = header_buffer[2];
  310.     header.ysize = LE_16(&header_buffer[3]);
  311.     header.xsize = LE_16(&header_buffer[5]);
  312.     header.checksum = LE_16(&header_buffer[7]);
  313.     header.version = header_buffer[9];
  314.     header.header_type = header_buffer[10];
  315.     header.flags = header_buffer[11];
  316.     header.control = header_buffer[12];
  317.     /* Version 2 */
  318.     if (header.version >= 2)
  319.     {
  320.         if (header.header_type > 3)
  321.         {
  322.             av_log(s->avctx, AV_LOG_ERROR, "invalid header type (%d)n", header.header_type);
  323.             return -1;
  324.         } else if ((header.header_type == 2) || (header.header_type == 3)) {
  325.             s->flags = header.flags;
  326.             if (!(s->flags & FLAG_INTERFRAME))
  327.                 s->flags |= FLAG_KEYFRAME;
  328.         } else
  329.             s->flags = FLAG_KEYFRAME;
  330.     } else /* Version 1 */
  331.         s->flags = FLAG_KEYFRAME;
  332.     
  333.     if (s->flags & FLAG_SPRITE) {
  334. av_log(s->avctx, AV_LOG_INFO, "SPRITE frame found, please report the sample to the developersn");
  335.         s->w = header.width;
  336.         s->h = header.height;
  337.         s->x = header.xoffset;
  338.         s->y = header.yoffset;
  339.     } else {
  340.         s->w = header.xsize;
  341.         s->h = header.ysize;
  342.         if (header.header_type < 2) {
  343.             if ((s->w < 213) && (s->h >= 176))
  344.     {
  345.                 s->flags |= FLAG_INTERPOLATED;
  346.         av_log(s->avctx, AV_LOG_INFO, "INTERPOLATION selected, please report the sample to the developersn");
  347.     }
  348.         }
  349.     }
  350.     if (header.compression > 17) {
  351.         av_log(s->avctx, AV_LOG_ERROR, "invalid compression type (%d)n", header.compression);
  352.         return -1;
  353.     }
  354.     
  355.     if ((header.deltaset != s->last_deltaset) || 
  356.         (header.vectable != s->last_vectable))
  357.         select_delta_tables(s, header.deltaset);
  358.     if ((header.compression & 1) && header.header_type)
  359.         sel_vector_table = pc_tbl2;
  360.     else {
  361.         if (header.vectable < 4)
  362.             sel_vector_table = tables[header.vectable - 1];
  363.         else {
  364.             av_log(s->avctx, AV_LOG_ERROR, "invalid vector table id (%d)n", header.vectable);
  365.             return -1;
  366.         }
  367.     }
  368.     
  369.     // FIXME: where to place this ?!?!
  370.     if (compression_types[header.compression].algorithm == ALGO_RGB24H)
  371.         s->avctx->pix_fmt = PIX_FMT_BGR24;
  372.     else
  373. s->avctx->pix_fmt = PIX_FMT_RGB555; // RGB565 is supported aswell
  374.     if ((header.deltaset != s->last_deltaset) || (header.vectable != s->last_vectable))
  375.     {
  376.         if (compression_types[header.compression].algorithm == ALGO_RGB24H)
  377.             gen_vector_table24(s, sel_vector_table);
  378.         else
  379. if (s->avctx->pix_fmt == PIX_FMT_RGB555)
  380.             gen_vector_table15(s, sel_vector_table);
  381. else
  382.             gen_vector_table16(s, sel_vector_table);
  383.     }
  384.     /* set up pointers to the other key data chunks */
  385.     s->mb_change_bits = s->buf + header.header_size;
  386.     if (s->flags & FLAG_KEYFRAME) {
  387.         /* no change bits specified for a keyframe; only index bytes */
  388.         s->index_stream = s->mb_change_bits;
  389.     } else {
  390.         /* one change bit per 4x4 block */
  391.         s->index_stream = s->mb_change_bits + 
  392.             (s->mb_change_bits_row_size * (s->avctx->height >> 2));
  393.     }
  394.     s->index_stream_size = s->size - (s->index_stream - s->buf);
  395.     s->last_deltaset = header.deltaset;
  396.     s->last_vectable = header.vectable;
  397.     s->compression = header.compression;
  398.     s->block_width = compression_types[header.compression].block_width;
  399.     s->block_height = compression_types[header.compression].block_height;
  400.     s->block_type = compression_types[header.compression].block_type;
  401.     if (s->avctx->debug & FF_DEBUG_PICT_INFO)
  402. av_log(s->avctx, AV_LOG_INFO, "tables: %d / %d c:%d %dx%d t:%d %s%s%s%sn",
  403.     s->last_deltaset, s->last_vectable, s->compression, s->block_width,
  404.     s->block_height, s->block_type,
  405.     s->flags & FLAG_KEYFRAME ? " KEY" : "",
  406.     s->flags & FLAG_INTERFRAME ? " INTER" : "",
  407.     s->flags & FLAG_SPRITE ? " SPRITE" : "",
  408.     s->flags & FLAG_INTERPOLATED ? " INTERPOL" : "");
  409.     return header.header_size;    
  410. }
  411. static int truemotion1_decode_init(AVCodecContext *avctx)
  412. {
  413.     TrueMotion1Context *s = (TrueMotion1Context *)avctx->priv_data;
  414.     s->avctx = avctx;
  415.     // FIXME: it may change ?
  416. //    if (avctx->bits_per_sample == 24)
  417. // avctx->pix_fmt = PIX_FMT_RGB24;
  418. //    else
  419. // avctx->pix_fmt = PIX_FMT_RGB555;
  420.     avctx->has_b_frames = 0;
  421.     s->frame.data[0] = s->prev_frame.data[0] = NULL;
  422.     /* there is a vertical predictor for each pixel in a line; each vertical
  423.      * predictor is 0 to start with */
  424.     s->vert_pred = 
  425.         (unsigned int *)av_malloc(s->avctx->width * sizeof(unsigned short));
  426.     return 0;
  427. }
  428. /*
  429. Block decoding order:
  430. dxi: Y-Y
  431. dxic: Y-C-Y
  432. dxic2: Y-C-Y-C
  433. hres,vres,i,i%vres (0 < i < 4)
  434. 2x2 0: 0 dxic2
  435. 2x2 1: 1 dxi
  436. 2x2 2: 0 dxic2
  437. 2x2 3: 1 dxi
  438. 2x4 0: 0 dxic2
  439. 2x4 1: 1 dxi
  440. 2x4 2: 2 dxi
  441. 2x4 3: 3 dxi
  442. 4x2 0: 0 dxic
  443. 4x2 1: 1 dxi
  444. 4x2 2: 0 dxic
  445. 4x2 3: 1 dxi
  446. 4x4 0: 0 dxic
  447. 4x4 1: 1 dxi
  448. 4x4 2: 2 dxi
  449. 4x4 3: 3 dxi
  450. */
  451. #define GET_NEXT_INDEX() 
  452. {
  453.     if (index_stream_index >= s->index_stream_size) { 
  454.         av_log(s->avctx, AV_LOG_INFO, " help! truemotion1 decoder went out of boundsn"); 
  455.         return; 
  456.     } 
  457.     index = s->index_stream[index_stream_index++] * 4; 
  458. }
  459. #define APPLY_C_PREDICTOR() 
  460.     predictor_pair = s->c_predictor_table[index]; 
  461.     horiz_pred += (predictor_pair >> 1); 
  462.     if (predictor_pair & 1) { 
  463.         GET_NEXT_INDEX() 
  464.         if (!index) { 
  465.             GET_NEXT_INDEX() 
  466.             predictor_pair = s->c_predictor_table[index]; 
  467.             horiz_pred += ((predictor_pair >> 1) * 5); 
  468.             if (predictor_pair & 1) 
  469.                 GET_NEXT_INDEX() 
  470.             else 
  471.                 index++; 
  472.         } 
  473.     } else 
  474.         index++;
  475. #define APPLY_C_PREDICTOR_24() 
  476.     predictor_pair = s->c_predictor_table[index]; 
  477.     c_horiz_pred += (predictor_pair >> 1); 
  478.     if (predictor_pair & 1) { 
  479.         GET_NEXT_INDEX() 
  480.         if (!index) { 
  481.             GET_NEXT_INDEX() 
  482.             predictor_pair = s->fat_c_predictor_table[index]; 
  483.             c_horiz_pred += (predictor_pair >> 1); 
  484.             if (predictor_pair & 1) 
  485.                 GET_NEXT_INDEX() 
  486.             else 
  487.                 index++; 
  488.         } 
  489.     } else 
  490.         index++; 
  491. //    c_last+coff = clast+c_horiz_pred;
  492. #define APPLY_Y_PREDICTOR() 
  493.     predictor_pair = s->y_predictor_table[index]; 
  494.     horiz_pred += (predictor_pair >> 1); 
  495.     if (predictor_pair & 1) { 
  496.         GET_NEXT_INDEX() 
  497.         if (!index) { 
  498.             GET_NEXT_INDEX() 
  499.             predictor_pair = s->y_predictor_table[index]; 
  500.             horiz_pred += ((predictor_pair >> 1) * 5); 
  501.             if (predictor_pair & 1) 
  502.                 GET_NEXT_INDEX() 
  503.             else 
  504.                 index++; 
  505.         } 
  506.     } else 
  507.         index++;
  508. #define APPLY_Y_PREDICTOR_24() 
  509.     predictor_pair = s->y_predictor_table[index]; 
  510.     horiz_pred += (predictor_pair >> 1); 
  511.     if (predictor_pair & 1) { 
  512.         GET_NEXT_INDEX() 
  513.         if (!index) { 
  514.             GET_NEXT_INDEX() 
  515.             predictor_pair = s->fat_y_predictor_table[index]; 
  516.             horiz_pred += (predictor_pair >> 1); 
  517.             if (predictor_pair & 1) 
  518.                 GET_NEXT_INDEX() 
  519.             else 
  520.                 index++; 
  521.         } 
  522.     } else 
  523.         index++;
  524. #define OUTPUT_PIXEL_PAIR() 
  525.     *current_pixel_pair = *vert_pred + horiz_pred; 
  526.     *vert_pred++ = *current_pixel_pair++; 
  527.     prev_pixel_pair++;
  528. static void truemotion1_decode_16bit(TrueMotion1Context *s)
  529. {
  530.     int y;
  531.     int pixels_left;  /* remaining pixels on this line */
  532.     unsigned int predictor_pair;
  533.     unsigned int horiz_pred;
  534.     unsigned int *vert_pred;
  535.     unsigned int *current_pixel_pair;
  536.     unsigned int *prev_pixel_pair;
  537.     unsigned char *current_line = s->frame.data[0];
  538.     unsigned char *prev_line = s->prev_frame.data[0];
  539.     int keyframe = s->flags & FLAG_KEYFRAME;
  540.     /* these variables are for managing the stream of macroblock change bits */
  541.     unsigned char *mb_change_bits = s->mb_change_bits;
  542.     unsigned char mb_change_byte;
  543.     unsigned char mb_change_byte_mask;
  544.     int mb_change_index;
  545.     /* these variables are for managing the main index stream */
  546.     int index_stream_index = 0;  /* yes, the index into the index stream */
  547.     int index;
  548.     /* clean out the line buffer */
  549.     memset(s->vert_pred, 0, s->avctx->width * sizeof(unsigned short));
  550.     GET_NEXT_INDEX();
  551.     for (y = 0; y < s->avctx->height; y++) {
  552.         /* re-init variables for the next line iteration */
  553.         horiz_pred = 0;
  554.         current_pixel_pair = (unsigned int *)current_line;
  555.         prev_pixel_pair = (unsigned int *)prev_line;
  556.         vert_pred = s->vert_pred;
  557.         mb_change_index = 0;
  558.         mb_change_byte = mb_change_bits[mb_change_index++];
  559.         mb_change_byte_mask = 0x01;
  560.         pixels_left = s->avctx->width;
  561.         while (pixels_left > 0) {
  562.             if (keyframe || ((mb_change_byte & mb_change_byte_mask) == 0)) {
  563.                 switch (y & 3) {
  564.                 case 0:
  565.                     /* if macroblock width is 2, apply C-Y-C-Y; else 
  566.                      * apply C-Y-Y */
  567.                     if (s->block_width == 2) {
  568.                         APPLY_C_PREDICTOR();
  569.                         APPLY_Y_PREDICTOR();
  570.                         OUTPUT_PIXEL_PAIR();
  571.                         APPLY_C_PREDICTOR();
  572.                         APPLY_Y_PREDICTOR();
  573.                         OUTPUT_PIXEL_PAIR();
  574.                     } else {
  575.                         APPLY_C_PREDICTOR();
  576.                         APPLY_Y_PREDICTOR();
  577.                         OUTPUT_PIXEL_PAIR();
  578.                         APPLY_Y_PREDICTOR();
  579.                         OUTPUT_PIXEL_PAIR();
  580.                     }
  581.                     break;
  582.                 case 1:
  583.                 case 3:
  584.                     /* always apply 2 Y predictors on these iterations */
  585.                     APPLY_Y_PREDICTOR();
  586.                     OUTPUT_PIXEL_PAIR();
  587.                     APPLY_Y_PREDICTOR();
  588.                     OUTPUT_PIXEL_PAIR();
  589.                     break;
  590.                 case 2:
  591.                     /* this iteration might be C-Y-C-Y, Y-Y, or C-Y-Y 
  592.                      * depending on the macroblock type */
  593.                     if (s->block_type == BLOCK_2x2) {
  594.                         APPLY_C_PREDICTOR();
  595.                         APPLY_Y_PREDICTOR();
  596.                         OUTPUT_PIXEL_PAIR();
  597.                         APPLY_C_PREDICTOR();
  598.                         APPLY_Y_PREDICTOR();
  599.                         OUTPUT_PIXEL_PAIR();
  600.                     } else if (s->block_type == BLOCK_4x2) {
  601.                         APPLY_C_PREDICTOR();
  602.                         APPLY_Y_PREDICTOR();
  603.                         OUTPUT_PIXEL_PAIR();
  604.                         APPLY_Y_PREDICTOR();
  605.                         OUTPUT_PIXEL_PAIR();
  606.                     } else {
  607.                         APPLY_Y_PREDICTOR();
  608.                         OUTPUT_PIXEL_PAIR();
  609.                         APPLY_Y_PREDICTOR();
  610.                         OUTPUT_PIXEL_PAIR();
  611.                     }
  612.                     break;
  613.                 }
  614.             } else {
  615.                 /* skip (copy) four pixels, but reassign the horizontal 
  616.                  * predictor */
  617.                 *current_pixel_pair = *prev_pixel_pair++;
  618.                 *vert_pred++ = *current_pixel_pair++;
  619.                 *current_pixel_pair = *prev_pixel_pair++;
  620.                 horiz_pred = *current_pixel_pair - *vert_pred;
  621.                 *vert_pred++ = *current_pixel_pair++;
  622.                 
  623.             }
  624.             if (!keyframe) {
  625.                 mb_change_byte_mask <<= 1;
  626.                 /* next byte */
  627.                 if (!mb_change_byte_mask) {
  628.                     mb_change_byte = mb_change_bits[mb_change_index++];
  629.                     mb_change_byte_mask = 0x01;
  630.                 }
  631.             }
  632.             pixels_left -= 4;
  633.         }
  634.         /* next change row */
  635.         if (((y + 1) & 3) == 0)
  636.             mb_change_bits += s->mb_change_bits_row_size;
  637.         current_line += s->frame.linesize[0];
  638.         prev_line += s->prev_frame.linesize[0];
  639.     }
  640. }
  641. static void truemotion1_decode_24bit(TrueMotion1Context *s)
  642. {
  643.     int y;
  644.     int pixels_left;  /* remaining pixels on this line */
  645.     unsigned int predictor_pair;
  646.     unsigned int horiz_pred;
  647.     unsigned int c_horiz_pred;
  648.     unsigned int *vert_pred;
  649.     unsigned int *current_pixel_pair;
  650.     unsigned int *prev_pixel_pair;
  651.     unsigned char *current_line = s->frame.data[0];
  652.     unsigned char *prev_line = s->prev_frame.data[0];
  653.     int keyframe = s->flags & FLAG_KEYFRAME;
  654.     /* these variables are for managing the stream of macroblock change bits */
  655.     unsigned char *mb_change_bits = s->mb_change_bits;
  656.     unsigned char mb_change_byte;
  657.     unsigned char mb_change_byte_mask;
  658.     int mb_change_index;
  659.     /* these variables are for managing the main index stream */
  660.     int index_stream_index = 0;  /* yes, the index into the index stream */
  661.     int index;
  662.     /* clean out the line buffer */
  663.     memset(s->vert_pred, 0, s->avctx->width * sizeof(unsigned short));
  664.     GET_NEXT_INDEX();
  665.     for (y = 0; y < s->avctx->height; y++) {
  666.         /* re-init variables for the next line iteration */
  667.         horiz_pred = c_horiz_pred = 0;
  668.         current_pixel_pair = (unsigned int *)current_line;
  669.         prev_pixel_pair = (unsigned int *)prev_line;
  670.         vert_pred = s->vert_pred;
  671.         mb_change_index = 0;
  672.         mb_change_byte = mb_change_bits[mb_change_index++];
  673.         mb_change_byte_mask = 0x01;
  674.         pixels_left = s->avctx->width;
  675.         while (pixels_left > 0) {
  676.             if (keyframe || ((mb_change_byte & mb_change_byte_mask) == 0)) {
  677.                 switch (y & 3) {
  678.                 case 0:
  679.                     /* if macroblock width is 2, apply C-Y-C-Y; else 
  680.                      * apply C-Y-Y */
  681.                     if (s->block_width == 2) {
  682.                         APPLY_C_PREDICTOR_24();
  683.                         APPLY_Y_PREDICTOR_24();
  684.                         OUTPUT_PIXEL_PAIR();
  685. //                        OUTPUT_PIXEL_PAIR_24_C();
  686.                         APPLY_C_PREDICTOR_24();
  687.                         APPLY_Y_PREDICTOR_24();
  688.                         OUTPUT_PIXEL_PAIR();
  689. //                        OUTPUT_PIXEL_PAIR_24_C();
  690.                     } else {
  691.                         APPLY_C_PREDICTOR_24();
  692.                         APPLY_Y_PREDICTOR_24();
  693.                         OUTPUT_PIXEL_PAIR();
  694. //                        OUTPUT_PIXEL_PAIR_24_C();
  695.                         APPLY_Y_PREDICTOR_24();
  696.                         OUTPUT_PIXEL_PAIR();
  697. //                        OUTPUT_PIXEL_PAIR_24_C();
  698.                     }
  699.                     break;
  700.                 case 1:
  701.                 case 3:
  702.                     /* always apply 2 Y predictors on these iterations */
  703.                     APPLY_Y_PREDICTOR_24();
  704.                     OUTPUT_PIXEL_PAIR();
  705.                     APPLY_Y_PREDICTOR_24();
  706.                     OUTPUT_PIXEL_PAIR();
  707.                     break;
  708.                 case 2:
  709.                     /* this iteration might be C-Y-C-Y, Y-Y, or C-Y-Y 
  710.                      * depending on the macroblock type */
  711.                     if (s->block_type == BLOCK_2x2) {
  712.                         APPLY_C_PREDICTOR_24();
  713.                         APPLY_Y_PREDICTOR_24();
  714.                         OUTPUT_PIXEL_PAIR();
  715. //                        OUTPUT_PIXEL_PAIR_24_C();
  716.                         APPLY_C_PREDICTOR_24();
  717.                         APPLY_Y_PREDICTOR_24();
  718.                         OUTPUT_PIXEL_PAIR();
  719. //                        OUTPUT_PIXEL_PAIR_24_C();
  720.                     } else if (s->block_type == BLOCK_4x2) {
  721.                         APPLY_C_PREDICTOR_24();
  722.                         APPLY_Y_PREDICTOR_24();
  723.                         OUTPUT_PIXEL_PAIR();
  724. //                        OUTPUT_PIXEL_PAIR_24_C();
  725.                         APPLY_Y_PREDICTOR_24();
  726.                         OUTPUT_PIXEL_PAIR();
  727. //                        OUTPUT_PIXEL_PAIR_24_C();
  728.                     } else {
  729.                         APPLY_Y_PREDICTOR_24();
  730.                         OUTPUT_PIXEL_PAIR();
  731.                         APPLY_Y_PREDICTOR_24();
  732.                         OUTPUT_PIXEL_PAIR();
  733.                     }
  734.                     break;
  735.                 }
  736.             } else {
  737.                 /* skip (copy) four pixels, but reassign the horizontal 
  738.                  * predictor */
  739.                 *current_pixel_pair = *prev_pixel_pair++;
  740.                 *vert_pred++ = *current_pixel_pair++;
  741.                 *current_pixel_pair = *prev_pixel_pair++;
  742.                 horiz_pred = *current_pixel_pair - *vert_pred;
  743. // c_horiz_pred = *current_pixel_pair - *vert_pred;
  744.                 *vert_pred++ = *current_pixel_pair++;
  745.                 
  746.             }
  747.             if (!keyframe) {
  748.                 mb_change_byte_mask <<= 1;
  749.                 /* next byte */
  750.                 if (!mb_change_byte_mask) {
  751.                     mb_change_byte = mb_change_bits[mb_change_index++];
  752.                     mb_change_byte_mask = 0x01;
  753.                 }
  754.             }
  755.             pixels_left -= 4;
  756.         }
  757.         /* next change row */
  758.         if (((y + 1) & 3) == 0)
  759.             mb_change_bits += s->mb_change_bits_row_size;
  760.         current_line += s->frame.linesize[0];
  761.         prev_line += s->prev_frame.linesize[0];
  762.     }
  763. }
  764. static int truemotion1_decode_frame(AVCodecContext *avctx,
  765.                                     void *data, int *data_size,
  766.                                     uint8_t *buf, int buf_size)
  767. {
  768.     TrueMotion1Context *s = (TrueMotion1Context *)avctx->priv_data;
  769.     s->buf = buf;
  770.     s->size = buf_size;
  771.     if (truemotion1_decode_header(s) == -1)
  772.         return -1;
  773.     s->frame.reference = 1;
  774.     if (avctx->get_buffer(avctx, &s->frame) < 0) {
  775.         av_log(s->avctx, AV_LOG_ERROR, "get_buffer() failedn");
  776.         return -1;
  777.     }
  778.     /* check for a do-nothing frame and copy the previous frame */
  779.     if (compression_types[s->compression].algorithm == ALGO_NOP)
  780.     {
  781.         memcpy(s->frame.data[0], s->prev_frame.data[0],
  782.             s->frame.linesize[0] * s->avctx->height);
  783.     } else if (compression_types[s->compression].algorithm == ALGO_RGB24H) {
  784.         truemotion1_decode_24bit(s);
  785.     } else {
  786.         truemotion1_decode_16bit(s);
  787.     }
  788.     if (s->prev_frame.data[0])
  789.         avctx->release_buffer(avctx, &s->prev_frame);
  790.     /* shuffle frames */
  791.     s->prev_frame = s->frame;
  792.     *data_size = sizeof(AVFrame);
  793.     *(AVFrame*)data = s->frame;
  794.     /* report that the buffer was completely consumed */
  795.     return buf_size;
  796. }
  797. static int truemotion1_decode_end(AVCodecContext *avctx)
  798. {
  799.     TrueMotion1Context *s = (TrueMotion1Context *)avctx->priv_data;
  800.     /* release the last frame */
  801.     if (s->prev_frame.data[0])
  802.         avctx->release_buffer(avctx, &s->prev_frame);
  803.     av_free(s->vert_pred);
  804.     return 0;
  805. }
  806. AVCodec truemotion1_decoder = {
  807.     "truemotion1",
  808.     CODEC_TYPE_VIDEO,
  809.     CODEC_ID_TRUEMOTION1,
  810.     sizeof(TrueMotion1Context),
  811.     truemotion1_decode_init,
  812.     NULL,
  813.     truemotion1_decode_end,
  814.     truemotion1_decode_frame,
  815.     CODEC_CAP_DR1,
  816. };