Merge commit '23a211cbba0b7c9ee694040031b2e5da1be54a00'
authorMichael Niedermayer <michaelni@gmx.at>
Mon, 28 Oct 2013 11:34:35 +0000 (12:34 +0100)
committerMichael Niedermayer <michaelni@gmx.at>
Mon, 28 Oct 2013 11:34:35 +0000 (12:34 +0100)
* commit '23a211cbba0b7c9ee694040031b2e5da1be54a00':
  lavc: change all decoders to behave consistently with AV_EF_CRCCHECK.

Conflicts:
libavcodec/avcodec.h
libavcodec/tta.c

Merged-by: Michael Niedermayer <michaelni@gmx.at>
1  2 
libavcodec/ac3dec.c
libavcodec/alsdec.c
libavcodec/avcodec.h
libavcodec/takdec.c
libavcodec/tta.c
libavcodec/wavpack.c

diff --combined libavcodec/ac3dec.c
@@@ -7,20 -7,20 +7,20 @@@
   * Copyright (c) 2007-2008 Bartlomiej Wolowiec <bartek.wolowiec@gmail.com>
   * Copyright (c) 2007 Justin Ruggles <justin.ruggles@gmail.com>
   *
 - * This file is part of Libav.
 + * This file is part of FFmpeg.
   *
 - * Libav is free software; you can redistribute it and/or
 + * FFmpeg is free software; you can redistribute it and/or
   * modify it under the terms of the GNU Lesser General Public
   * License as published by the Free Software Foundation; either
   * version 2.1 of the License, or (at your option) any later version.
   *
 - * Libav is distributed in the hope that it will be useful,
 + * FFmpeg is distributed in the hope that it will be useful,
   * but WITHOUT ANY WARRANTY; without even the implied warranty of
   * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
   * Lesser General Public License for more details.
   *
   * You should have received a copy of the GNU Lesser General Public
 - * License along with Libav; if not, write to the Free Software
 + * License along with FFmpeg; if not, write to the Free Software
   * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
   */
  
@@@ -441,7 -441,7 +441,7 @@@ static void ac3_decode_transform_coeffs
          case 0:
              /* random noise with approximate range of -0.707 to 0.707 */
              if (dither)
 -                mantissa = (av_lfg_get(&s->dith_state) / 362) - 5932275;
 +                mantissa = (((av_lfg_get(&s->dith_state)>>8)*181)>>8) - 5931008;
              else
                  mantissa = 0;
              break;
@@@ -1325,11 -1325,13 +1325,13 @@@ static int ac3_decode_frame(AVCodecCont
          if (s->frame_size > buf_size) {
              av_log(avctx, AV_LOG_ERROR, "incomplete frame\n");
              err = AAC_AC3_PARSE_ERROR_FRAME_SIZE;
 -        } else if (avctx->err_recognition & AV_EF_CRCCHECK) {
 +        } else if (avctx->err_recognition & (AV_EF_CRCCHECK|AV_EF_CAREFUL)) {
              /* check for crc mismatch */
              if (av_crc(av_crc_get_table(AV_CRC_16_ANSI), 0, &buf[2],
                         s->frame_size - 2)) {
                  av_log(avctx, AV_LOG_ERROR, "frame CRC mismatch\n");
+                 if (avctx->err_recognition & AV_EF_EXPLODE)
+                     return AVERROR_INVALIDDATA;
                  err = AAC_AC3_PARSE_ERROR_CRC;
              }
          }
          avctx->channels       = s->out_channels;
          avctx->channel_layout = s->channel_layout;
  
 +        s->loro_center_mix_level   = gain_levels[s->  center_mix_level];
 +        s->loro_surround_mix_level = gain_levels[s->surround_mix_level];
 +        s->ltrt_center_mix_level   = LEVEL_MINUS_3DB;
 +        s->ltrt_surround_mix_level = LEVEL_MINUS_3DB;
          /* set downmixing coefficients if needed */
          if (s->channels != s->out_channels && !((s->output_mode & AC3_OUTPUT_LFEON) &&
                  s->fbw_channels == s->out_channels)) {
  
      /* get output buffer */
      frame->nb_samples = s->num_blocks * AC3_BLOCK_SIZE;
 -    if ((ret = ff_get_buffer(avctx, frame, 0)) < 0) {
 -        av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 +    if ((ret = ff_get_buffer(avctx, frame, 0)) < 0)
          return ret;
 -    }
  
      /* decode the audio blocks */
      channel_map = ff_ac3_dec_channel_map[s->output_mode & ~AC3_OUTPUT_LFEON][s->lfe_on];
 +    for (ch = 0; ch < AC3_MAX_CHANNELS; ch++) {
 +        output[ch] = s->output[ch];
 +        s->outptr[ch] = s->output[ch];
 +    }
      for (ch = 0; ch < s->channels; ch++) {
          if (ch < s->out_channels)
              s->outptr[channel_map[ch]] = (float *)frame->data[ch];
 -        else
 -            s->outptr[ch] = s->output[ch];
 -        output[ch] = s->output[ch];
      }
      for (blk = 0; blk < s->num_blocks; blk++) {
          if (!err && decode_audio_block(s, blk)) {
          }
          if (err)
              for (ch = 0; ch < s->out_channels; ch++)
 -                memcpy(s->outptr[channel_map[ch]], output[ch], sizeof(**output) * AC3_BLOCK_SIZE);
 +                memcpy(((float*)frame->data[ch]) + AC3_BLOCK_SIZE*blk, output[ch], sizeof(**output) * AC3_BLOCK_SIZE);
          for (ch = 0; ch < s->out_channels; ch++)
              output[ch] = s->outptr[channel_map[ch]];
 -        for (ch = 0; ch < s->channels; ch++)
 -            s->outptr[ch] += AC3_BLOCK_SIZE;
 +        for (ch = 0; ch < s->out_channels; ch++) {
 +            if (!ch || channel_map[ch])
 +                s->outptr[channel_map[ch]] += AC3_BLOCK_SIZE;
 +        }
      }
  
 +    av_frame_set_decode_error_flags(frame, err ? FF_DECODE_ERROR_INVALID_BITSTREAM : 0);
 +
      /* keep last block for error concealment in next frame */
      for (ch = 0; ch < s->out_channels; ch++)
          memcpy(s->output[ch], output[ch], sizeof(**output) * AC3_BLOCK_SIZE);
@@@ -1434,13 -1429,6 +1436,13 @@@ static av_cold int ac3_decode_end(AVCod
  #define PAR (AV_OPT_FLAG_DECODING_PARAM | AV_OPT_FLAG_AUDIO_PARAM)
  static const AVOption options[] = {
      { "drc_scale", "percentage of dynamic range compression to apply", OFFSET(drc_scale), AV_OPT_TYPE_FLOAT, {.dbl = 1.0}, 0.0, 1.0, PAR },
 +
 +{"dmix_mode", "Preferred Stereo Downmix Mode", OFFSET(preferred_stereo_downmix), AV_OPT_TYPE_INT, {.i64 = -1 }, -1, 2, 0, "dmix_mode"},
 +{"ltrt_cmixlev",   "Lt/Rt Center Mix Level",   OFFSET(ltrt_center_mix_level),    AV_OPT_TYPE_FLOAT, {.dbl = -1.0 }, -1.0, 2.0, 0},
 +{"ltrt_surmixlev", "Lt/Rt Surround Mix Level", OFFSET(ltrt_surround_mix_level),  AV_OPT_TYPE_FLOAT, {.dbl = -1.0 }, -1.0, 2.0, 0},
 +{"loro_cmixlev",   "Lo/Ro Center Mix Level",   OFFSET(loro_center_mix_level),    AV_OPT_TYPE_FLOAT, {.dbl = -1.0 }, -1.0, 2.0, 0},
 +{"loro_surmixlev", "Lo/Ro Surround Mix Level", OFFSET(loro_surround_mix_level),  AV_OPT_TYPE_FLOAT, {.dbl = -1.0 }, -1.0, 2.0, 0},
 +
      { NULL},
  };
  
diff --combined libavcodec/alsdec.c
@@@ -1,28 -1,28 +1,28 @@@
  /*
   * MPEG-4 ALS decoder
 - * Copyright (c) 2009 Thilo Borgmann <thilo.borgmann _at_ googlemail.com>
 + * Copyright (c) 2009 Thilo Borgmann <thilo.borgmann _at_ mail.de>
   *
 - * This file is part of Libav.
 + * This file is part of FFmpeg.
   *
 - * Libav is free software; you can redistribute it and/or
 + * FFmpeg is free software; you can redistribute it and/or
   * modify it under the terms of the GNU Lesser General Public
   * License as published by the Free Software Foundation; either
   * version 2.1 of the License, or (at your option) any later version.
   *
 - * Libav is distributed in the hope that it will be useful,
 + * FFmpeg is distributed in the hope that it will be useful,
   * but WITHOUT ANY WARRANTY; without even the implied warranty of
   * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
   * Lesser General Public License for more details.
   *
   * You should have received a copy of the GNU Lesser General Public
 - * License along with Libav; if not, write to the Free Software
 + * License along with FFmpeg; if not, write to the Free Software
   * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
   */
  
  /**
   * @file
   * MPEG-4 ALS decoder
 - * @author Thilo Borgmann <thilo.borgmann _at_ googlemail.com>
 + * @author Thilo Borgmann <thilo.borgmann _at_ mail.de>
   */
  
  #include "avcodec.h"
@@@ -197,7 -197,6 +197,7 @@@ typedef struct 
      unsigned int cur_frame_length;  ///< length of the current frame to decode
      unsigned int frame_id;          ///< the frame ID / number of the current frame
      unsigned int js_switch;         ///< if true, joint-stereo decoding is enforced
 +    unsigned int cs_switch;         ///< if true, channel rearrangement is done
      unsigned int num_blocks;        ///< number of blocks used in the current frame
      unsigned int s_max;             ///< maximum Rice parameter allowed in entropy coding
      uint8_t *bgmc_lut;              ///< pointer at lookup tables used for BGMC
@@@ -284,10 -283,8 +284,10 @@@ static av_cold int read_specific_config
      ALSSpecificConfig *sconf = &ctx->sconf;
      AVCodecContext *avctx    = ctx->avctx;
      uint32_t als_id, header_size, trailer_size;
 +    int ret;
  
 -    init_get_bits(&gb, avctx->extradata, avctx->extradata_size * 8);
 +    if ((ret = init_get_bits8(&gb, avctx->extradata, avctx->extradata_size)) < 0)
 +        return ret;
  
      config_offset = avpriv_mpeg4audio_get_config(&m4ac, avctx->extradata,
                                                   avctx->extradata_size * 8, 1);
      skip_bits_long(&gb, 32); // sample rate already known
      sconf->samples              = get_bits_long(&gb, 32);
      avctx->channels             = m4ac.channels;
 -    skip_bits(&gb, 16);      // number of channels already knwon
 +    skip_bits(&gb, 16);      // number of channels already known
      skip_bits(&gb, 3);       // skip file_type
      sconf->resolution           = get_bits(&gb, 3);
      sconf->floating             = get_bits1(&gb);
          if (!(sconf->chan_pos = av_malloc(avctx->channels * sizeof(*sconf->chan_pos))))
              return AVERROR(ENOMEM);
  
 -        for (i = 0; i < avctx->channels; i++)
 -            sconf->chan_pos[i] = get_bits(&gb, chan_pos_bits);
 +        ctx->cs_switch = 1;
 +
 +        for (i = 0; i < avctx->channels; i++) {
 +            int idx;
 +
 +            idx = get_bits(&gb, chan_pos_bits);
 +            if (idx >= avctx->channels) {
 +                av_log(avctx, AV_LOG_WARNING, "Invalid channel reordering.\n");
 +                ctx->cs_switch = 0;
 +                break;
 +            }
 +            sconf->chan_pos[idx] = i;
 +        }
  
          align_get_bits(&gb);
 -        // TODO: use this to actually do channel sorting
 -    } else {
 -        sconf->chan_sort = 0;
      }
  
  
          if (get_bits_left(&gb) < 32)
              return AVERROR_INVALIDDATA;
  
 -        if (avctx->err_recognition & AV_EF_CRCCHECK) {
 +        if (avctx->err_recognition & (AV_EF_CRCCHECK|AV_EF_CAREFUL)) {
              ctx->crc_table = av_crc_get_table(AV_CRC_32_IEEE_LE);
              ctx->crc       = 0xFFFFFFFF;
              ctx->crc_org   = ~get_bits_long(&gb, 32);
@@@ -437,6 -426,7 +437,6 @@@ static int check_specific_config(ALSDec
  
      MISSING_ERR(sconf->floating,  "Floating point decoding",     AVERROR_PATCHWELCOME);
      MISSING_ERR(sconf->rlslms,    "Adaptive RLS-LMS prediction", AVERROR_PATCHWELCOME);
 -    MISSING_ERR(sconf->chan_sort, "Channel sorting",             0);
  
      return error;
  }
@@@ -559,15 -549,12 +559,15 @@@ static void get_block_sizes(ALSDecConte
  
  /** Read the block data for a constant block
   */
 -static void read_const_block_data(ALSDecContext *ctx, ALSBlockData *bd)
 +static int read_const_block_data(ALSDecContext *ctx, ALSBlockData *bd)
  {
      ALSSpecificConfig *sconf = &ctx->sconf;
      AVCodecContext *avctx    = ctx->avctx;
      GetBitContext *gb        = &ctx->gb;
  
 +    if (bd->block_length <= 0)
 +        return AVERROR_INVALIDDATA;
 +
      *bd->raw_samples = 0;
      *bd->const_block = get_bits1(gb);    // 1 = constant value, 0 = zero block (silence)
      bd->js_blocks    = get_bits1(gb);
  
      // ensure constant block decoding by reusing this field
      *bd->const_block = 1;
 +
 +    return 0;
  }
  
  
@@@ -682,7 -667,7 +682,7 @@@ static int read_var_block_data(ALSDecCo
              *bd->opt_order       = get_bits(gb, opt_order_length);
              if (*bd->opt_order > sconf->max_order) {
                  *bd->opt_order = sconf->max_order;
 -                av_log(avctx, AV_LOG_ERROR, "Predictor order too large!\n");
 +                av_log(avctx, AV_LOG_ERROR, "Predictor order too large.\n");
                  return AVERROR_INVALIDDATA;
              }
          } else {
                      int offset     = parcor_rice_table[sconf->coef_table][k][0];
                      quant_cof[k] = decode_rice(gb, rice_param) + offset;
                      if (quant_cof[k] < -64 || quant_cof[k] > 63) {
 -                        av_log(avctx, AV_LOG_ERROR, "quant_cof %d is out of range\n", quant_cof[k]);
 +                        av_log(avctx, AV_LOG_ERROR, "quant_cof %d is out of range.\n", quant_cof[k]);
                          return AVERROR_INVALIDDATA;
                      }
                  }
@@@ -975,7 -960,7 +975,7 @@@ static int decode_var_block_data(ALSDec
   */
  static int read_block(ALSDecContext *ctx, ALSBlockData *bd)
  {
 -    int ret = 0;
 +    int ret;
      GetBitContext *gb        = &ctx->gb;
  
      *bd->shift_lsbs = 0;
      if (get_bits1(gb)) {
          ret = read_var_block_data(ctx, bd);
      } else {
 -        read_const_block_data(ctx, bd);
 +        ret = read_const_block_data(ctx, bd);
      }
  
      return ret;
@@@ -1037,8 -1022,8 +1037,8 @@@ static void zero_remaining(unsigned in
  {
      unsigned int count = 0;
  
 -    for (; b < b_max; b++)
 -        count += div_blocks[b];
 +    while (b < b_max)
 +        count += div_blocks[b++];
  
      if (count)
          memset(buf, 0, sizeof(*buf) * count);
@@@ -1143,7 -1128,7 +1143,7 @@@ static int decode_blocks(ALSDecContext 
          // reconstruct joint-stereo blocks
          if (bd[0].js_blocks) {
              if (bd[1].js_blocks)
 -                av_log(ctx->avctx, AV_LOG_WARNING, "Invalid channel pair!\n");
 +                av_log(ctx->avctx, AV_LOG_WARNING, "Invalid channel pair.\n");
  
              for (s = 0; s < div_blocks[b]; s++)
                  bd[0].raw_samples[s] = bd[1].raw_samples[s] - bd[0].raw_samples[s];
@@@ -1191,7 -1176,7 +1191,7 @@@ static int read_channel_data(ALSDecCont
          current->master_channel = get_bits_long(gb, av_ceil_log2(channels));
  
          if (current->master_channel >= channels) {
 -            av_log(ctx->avctx, AV_LOG_ERROR, "Invalid master channel!\n");
 +            av_log(ctx->avctx, AV_LOG_ERROR, "Invalid master channel.\n");
              return AVERROR_INVALIDDATA;
          }
  
      }
  
      if (entries == channels) {
 -        av_log(ctx->avctx, AV_LOG_ERROR, "Damaged channel data!\n");
 +        av_log(ctx->avctx, AV_LOG_ERROR, "Damaged channel data.\n");
          return AVERROR_INVALIDDATA;
      }
  
@@@ -1248,7 -1233,7 +1248,7 @@@ static int revert_channel_correlation(A
      }
  
      if (dep == channels) {
 -        av_log(ctx->avctx, AV_LOG_WARNING, "Invalid channel correlation!\n");
 +        av_log(ctx->avctx, AV_LOG_WARNING, "Invalid channel correlation.\n");
          return AVERROR_INVALIDDATA;
      }
  
@@@ -1378,7 -1363,7 +1378,7 @@@ static int read_frame_data(ALSDecContex
  
          for (c = 0; c < avctx->channels; c++)
              if (ctx->chan_data[c] < ctx->chan_data_buffer) {
 -                av_log(ctx->avctx, AV_LOG_ERROR, "Invalid channel data!\n");
 +                av_log(ctx->avctx, AV_LOG_ERROR, "Invalid channel data.\n");
                  return AVERROR_INVALIDDATA;
              }
  
                  bd.lpc_cof     = ctx->lpc_cof[c];
                  bd.quant_cof   = ctx->quant_cof[c];
                  bd.raw_samples = ctx->raw_samples[c] + offset;
 +
                  if ((ret = decode_block(ctx, &bd)) < 0)
                      return ret;
              }
@@@ -1488,23 -1472,19 +1488,23 @@@ static int decode_frame(AVCodecContext 
  
      /* get output buffer */
      frame->nb_samples = ctx->cur_frame_length;
 -    if ((ret = ff_get_buffer(avctx, frame, 0)) < 0) {
 -        av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 +    if ((ret = ff_get_buffer(avctx, frame, 0)) < 0)
          return ret;
 -    }
  
      // transform decoded frame into output format
 -    #define INTERLEAVE_OUTPUT(bps)                                 \
 -    {                                                              \
 -        int##bps##_t *dest = (int##bps##_t*)frame->data[0];        \
 -        shift = bps - ctx->avctx->bits_per_raw_sample;             \
 -        for (sample = 0; sample < ctx->cur_frame_length; sample++) \
 -            for (c = 0; c < avctx->channels; c++)                  \
 -                *dest++ = ctx->raw_samples[c][sample] << shift;    \
 +    #define INTERLEAVE_OUTPUT(bps)                                                   \
 +    {                                                                                \
 +        int##bps##_t *dest = (int##bps##_t*)frame->data[0];                          \
 +        shift = bps - ctx->avctx->bits_per_raw_sample;                               \
 +        if (!ctx->cs_switch) {                                                       \
 +            for (sample = 0; sample < ctx->cur_frame_length; sample++)               \
 +                for (c = 0; c < avctx->channels; c++)                                \
 +                    *dest++ = ctx->raw_samples[c][sample] << shift;                  \
 +        } else {                                                                     \
 +            for (sample = 0; sample < ctx->cur_frame_length; sample++)               \
 +                for (c = 0; c < avctx->channels; c++)                                \
 +                    *dest++ = ctx->raw_samples[sconf->chan_pos[c]][sample] << shift; \
 +        }                                                                            \
      }
  
      if (ctx->avctx->bits_per_raw_sample <= 16) {
      }
  
      // update CRC
 -    if (sconf->crc_enabled && (avctx->err_recognition & AV_EF_CRCCHECK)) {
 +    if (sconf->crc_enabled && (avctx->err_recognition & (AV_EF_CRCCHECK|AV_EF_CAREFUL))) {
          int swap = HAVE_BIGENDIAN != sconf->msb_first;
  
          if (ctx->avctx->bits_per_raw_sample == 24) {
          if (ctx->cur_frame_length != sconf->frame_length &&
              ctx->crc_org != ctx->crc) {
              av_log(avctx, AV_LOG_ERROR, "CRC error.\n");
+             if (avctx->err_recognition & AV_EF_EXPLODE)
+                 return AVERROR_INVALIDDATA;
          }
      }
  
@@@ -1752,7 -1734,7 +1754,7 @@@ static av_cold int decode_init(AVCodecC
  
      // allocate crc buffer
      if (HAVE_BIGENDIAN != sconf->msb_first && sconf->crc_enabled &&
 -        (avctx->err_recognition & AV_EF_CRCCHECK)) {
 +        (avctx->err_recognition & (AV_EF_CRCCHECK|AV_EF_CAREFUL))) {
          ctx->crc_buffer = av_malloc(sizeof(*ctx->crc_buffer) *
                                      ctx->cur_frame_length *
                                      avctx->channels *
diff --combined libavcodec/avcodec.h
@@@ -1,20 -1,20 +1,20 @@@
  /*
   * copyright (c) 2001 Fabrice Bellard
   *
 - * This file is part of Libav.
 + * This file is part of FFmpeg.
   *
 - * Libav is free software; you can redistribute it and/or
 + * FFmpeg is free software; you can redistribute it and/or
   * modify it under the terms of the GNU Lesser General Public
   * License as published by the Free Software Foundation; either
   * version 2.1 of the License, or (at your option) any later version.
   *
 - * Libav is distributed in the hope that it will be useful,
 + * FFmpeg is distributed in the hope that it will be useful,
   * but WITHOUT ANY WARRANTY; without even the implied warranty of
   * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
   * Lesser General Public License for more details.
   *
   * You should have received a copy of the GNU Lesser General Public
 - * License along with Libav; if not, write to the Free Software
 + * License along with FFmpeg; if not, write to the Free Software
   * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
   */
  
@@@ -33,7 -33,6 +33,7 @@@
  #include "libavutil/avutil.h"
  #include "libavutil/buffer.h"
  #include "libavutil/cpu.h"
 +#include "libavutil/channel_layout.h"
  #include "libavutil/dict.h"
  #include "libavutil/frame.h"
  #include "libavutil/log.h"
@@@ -93,8 -92,7 +93,8 @@@
   *
   * If you add a codec ID to this list, add it so that
   * 1. no value of a existing codec ID changes (that would break ABI),
 - * 2. it is as close as possible to similar codecs.
 + * 2. Give it a value which when taken as ASCII is recognized uniquely by a human as this specific codec.
 + *    This ensures that 2 forks can independently add AVCodecIDs without producing conflicts.
   *
   * After adding new codec IDs, do not forget to add an entry to the codec
   * descriptor list and bump libavcodec minor version.
@@@ -273,37 -271,9 +273,37 @@@ enum AVCodecID 
      AV_CODEC_ID_MSS2,
      AV_CODEC_ID_VP9,
      AV_CODEC_ID_AIC,
 -    AV_CODEC_ID_ESCAPE130,
 -    AV_CODEC_ID_G2M,
 -    AV_CODEC_ID_WEBP,
 +    AV_CODEC_ID_ESCAPE130_DEPRECATED,
 +    AV_CODEC_ID_G2M_DEPRECATED,
 +    AV_CODEC_ID_WEBP_DEPRECATED,
 +
 +    AV_CODEC_ID_BRENDER_PIX= MKBETAG('B','P','I','X'),
 +    AV_CODEC_ID_Y41P       = MKBETAG('Y','4','1','P'),
 +    AV_CODEC_ID_ESCAPE130  = MKBETAG('E','1','3','0'),
 +    AV_CODEC_ID_EXR        = MKBETAG('0','E','X','R'),
 +    AV_CODEC_ID_AVRP       = MKBETAG('A','V','R','P'),
 +
 +    AV_CODEC_ID_012V       = MKBETAG('0','1','2','V'),
 +    AV_CODEC_ID_G2M        = MKBETAG( 0 ,'G','2','M'),
 +    AV_CODEC_ID_AVUI       = MKBETAG('A','V','U','I'),
 +    AV_CODEC_ID_AYUV       = MKBETAG('A','Y','U','V'),
 +    AV_CODEC_ID_TARGA_Y216 = MKBETAG('T','2','1','6'),
 +    AV_CODEC_ID_V308       = MKBETAG('V','3','0','8'),
 +    AV_CODEC_ID_V408       = MKBETAG('V','4','0','8'),
 +    AV_CODEC_ID_YUV4       = MKBETAG('Y','U','V','4'),
 +    AV_CODEC_ID_SANM       = MKBETAG('S','A','N','M'),
 +    AV_CODEC_ID_PAF_VIDEO  = MKBETAG('P','A','F','V'),
 +    AV_CODEC_ID_AVRN       = MKBETAG('A','V','R','n'),
 +    AV_CODEC_ID_CPIA       = MKBETAG('C','P','I','A'),
 +    AV_CODEC_ID_XFACE      = MKBETAG('X','F','A','C'),
 +    AV_CODEC_ID_SGIRLE     = MKBETAG('S','G','I','R'),
 +    AV_CODEC_ID_MVC1       = MKBETAG('M','V','C','1'),
 +    AV_CODEC_ID_MVC2       = MKBETAG('M','V','C','2'),
 +    AV_CODEC_ID_SNOW       = MKBETAG('S','N','O','W'),
 +    AV_CODEC_ID_WEBP       = MKBETAG('W','E','B','P'),
 +    AV_CODEC_ID_SMVJPEG    = MKBETAG('S','M','V','J'),
 +    AV_CODEC_ID_HEVC       = MKBETAG('H','2','6','5'),
 +#define AV_CODEC_ID_H265 AV_CODEC_ID_HEVC
  
      /* various PCM "codecs" */
      AV_CODEC_ID_FIRST_AUDIO = 0x10000,     ///< A dummy id pointing at the start of audio codecs
      AV_CODEC_ID_PCM_LXF,
      AV_CODEC_ID_S302M,
      AV_CODEC_ID_PCM_S8_PLANAR,
 -    AV_CODEC_ID_PCM_S24LE_PLANAR,
 -    AV_CODEC_ID_PCM_S32LE_PLANAR,
 +    AV_CODEC_ID_PCM_S24LE_PLANAR_DEPRECATED,
 +    AV_CODEC_ID_PCM_S32LE_PLANAR_DEPRECATED,
 +    AV_CODEC_ID_PCM_S24LE_PLANAR = MKBETAG(24,'P','S','P'),
 +    AV_CODEC_ID_PCM_S32LE_PLANAR = MKBETAG(32,'P','S','P'),
 +    AV_CODEC_ID_PCM_S16BE_PLANAR = MKBETAG('P','S','P',16),
  
      /* various ADPCM codecs */
      AV_CODEC_ID_ADPCM_IMA_QT = 0x11000,
      AV_CODEC_ID_ADPCM_IMA_ISS,
      AV_CODEC_ID_ADPCM_G722,
      AV_CODEC_ID_ADPCM_IMA_APC,
 +    AV_CODEC_ID_VIMA       = MKBETAG('V','I','M','A'),
 +    AV_CODEC_ID_ADPCM_AFC  = MKBETAG('A','F','C',' '),
 +    AV_CODEC_ID_ADPCM_IMA_OKI = MKBETAG('O','K','I',' '),
 +    AV_CODEC_ID_ADPCM_DTK  = MKBETAG('D','T','K',' '),
 +    AV_CODEC_ID_ADPCM_IMA_RAD = MKBETAG('R','A','D',' '),
 +    AV_CODEC_ID_ADPCM_G726LE = MKBETAG('6','2','7','G'),
  
      /* AMR */
      AV_CODEC_ID_AMR_NB = 0x12000,
      AV_CODEC_ID_RALF,
      AV_CODEC_ID_IAC,
      AV_CODEC_ID_ILBC,
 -    AV_CODEC_ID_OPUS,
 +    AV_CODEC_ID_OPUS_DEPRECATED,
      AV_CODEC_ID_COMFORT_NOISE,
 -    AV_CODEC_ID_TAK,
 +    AV_CODEC_ID_TAK_DEPRECATED,
      AV_CODEC_ID_METASOUND,
 +    AV_CODEC_ID_FFWAVESYNTH = MKBETAG('F','F','W','S'),
 +    AV_CODEC_ID_SONIC       = MKBETAG('S','O','N','C'),
 +    AV_CODEC_ID_SONIC_LS    = MKBETAG('S','O','N','L'),
 +    AV_CODEC_ID_PAF_AUDIO   = MKBETAG('P','A','F','A'),
 +    AV_CODEC_ID_OPUS        = MKBETAG('O','P','U','S'),
 +    AV_CODEC_ID_TAK         = MKBETAG('t','B','a','K'),
 +    AV_CODEC_ID_EVRC        = MKBETAG('s','e','v','c'),
 +    AV_CODEC_ID_SMV         = MKBETAG('s','s','m','v'),
  
      /* subtitle codecs */
      AV_CODEC_ID_FIRST_SUBTITLE = 0x17000,          ///< A dummy ID pointing at the start of subtitle codecs.
      AV_CODEC_ID_HDMV_PGS_SUBTITLE,
      AV_CODEC_ID_DVB_TELETEXT,
      AV_CODEC_ID_SRT,
 +    AV_CODEC_ID_MICRODVD   = MKBETAG('m','D','V','D'),
 +    AV_CODEC_ID_EIA_608    = MKBETAG('c','6','0','8'),
 +    AV_CODEC_ID_JACOSUB    = MKBETAG('J','S','U','B'),
 +    AV_CODEC_ID_SAMI       = MKBETAG('S','A','M','I'),
 +    AV_CODEC_ID_REALTEXT   = MKBETAG('R','T','X','T'),
 +    AV_CODEC_ID_SUBVIEWER1 = MKBETAG('S','b','V','1'),
 +    AV_CODEC_ID_SUBVIEWER  = MKBETAG('S','u','b','V'),
 +    AV_CODEC_ID_SUBRIP     = MKBETAG('S','R','i','p'),
 +    AV_CODEC_ID_WEBVTT     = MKBETAG('W','V','T','T'),
 +    AV_CODEC_ID_MPL2       = MKBETAG('M','P','L','2'),
 +    AV_CODEC_ID_VPLAYER    = MKBETAG('V','P','l','r'),
 +    AV_CODEC_ID_PJS        = MKBETAG('P','h','J','S'),
 +    AV_CODEC_ID_ASS        = MKBETAG('A','S','S',' '),  ///< ASS as defined in Matroska
  
      /* other specific kind of codecs (generally used for attachments) */
      AV_CODEC_ID_FIRST_UNKNOWN = 0x18000,           ///< A dummy ID pointing at the start of various fake codecs.
      AV_CODEC_ID_TTF = 0x18000,
 +    AV_CODEC_ID_BINTEXT    = MKBETAG('B','T','X','T'),
 +    AV_CODEC_ID_XBIN       = MKBETAG('X','B','I','N'),
 +    AV_CODEC_ID_IDF        = MKBETAG( 0 ,'I','D','F'),
 +    AV_CODEC_ID_OTF        = MKBETAG( 0 ,'O','T','F'),
 +    AV_CODEC_ID_SMPTE_KLV  = MKBETAG('K','L','V','A'),
 +    AV_CODEC_ID_DVD_NAV    = MKBETAG('D','N','A','V'),
 +
  
      AV_CODEC_ID_PROBE = 0x19000, ///< codec_id is not known (like AV_CODEC_ID_NONE) but lavf should attempt to identify it
  
      AV_CODEC_ID_MPEG4SYSTEMS = 0x20001, /**< _FAKE_ codec to indicate a MPEG-4 Systems
                                  * stream (only used by libavformat) */
      AV_CODEC_ID_FFMETADATA = 0x21000,   ///< Dummy codec for streams containing only metadata information.
 +
 +#if FF_API_CODEC_ID
 +#include "old_codec_ids.h"
 +#endif
  };
  
  /**
@@@ -558,16 -487,6 +558,16 @@@ typedef struct AVCodecDescriptor 
   * Codec supports lossless compression. Audio and video codecs only.
   */
  #define AV_CODEC_PROP_LOSSLESS      (1 << 2)
 +/**
 + * Subtitle codec is bitmap based
 + * Decoded AVSubtitle data can be read from the AVSubtitleRect->pict field.
 + */
 +#define AV_CODEC_PROP_BITMAP_SUB    (1 << 16)
 +/**
 + * Subtitle codec is text based.
 + * Decoded AVSubtitle data can be read from the AVSubtitleRect->ass field.
 + */
 +#define AV_CODEC_PROP_TEXT_SUB      (1 << 17)
  
  /**
   * @ingroup lavc_decoding
   * Note: If the first 23 bits of the additional bytes are not 0, then damaged
   * MPEG bitstreams could cause overread and segfault.
   */
 -#define FF_INPUT_BUFFER_PADDING_SIZE 8
 +#define FF_INPUT_BUFFER_PADDING_SIZE 16
  
  /**
   * @ingroup lavc_encoding
@@@ -601,7 -520,6 +601,7 @@@ enum Motion_Est_ID 
      ME_HEX,         ///< hexagon based search
      ME_UMH,         ///< uneven multi-hexagon search
      ME_TESA,        ///< transformed exhaustive search algorithm
 +    ME_ITER=50,     ///< iterative search
  };
  
  /**
@@@ -638,6 -556,25 +638,6 @@@ enum AVColorTransferCharacteristic
      AVCOL_TRC_NB             , ///< Not part of ABI
  };
  
 -enum AVColorSpace{
 -    AVCOL_SPC_RGB         = 0,
 -    AVCOL_SPC_BT709       = 1, ///< also ITU-R BT1361 / IEC 61966-2-4 xvYCC709 / SMPTE RP177 Annex B
 -    AVCOL_SPC_UNSPECIFIED = 2,
 -    AVCOL_SPC_FCC         = 4,
 -    AVCOL_SPC_BT470BG     = 5, ///< also ITU-R BT601-6 625 / ITU-R BT1358 625 / ITU-R BT1700 625 PAL & SECAM / IEC 61966-2-4 xvYCC601
 -    AVCOL_SPC_SMPTE170M   = 6, ///< also ITU-R BT601-6 525 / ITU-R BT1358 525 / ITU-R BT1700 NTSC / functionally identical to above
 -    AVCOL_SPC_SMPTE240M   = 7,
 -    AVCOL_SPC_YCOCG       = 8, ///< Used by Dirac / VC-2 and H.264 FRext, see ITU-T SG16
 -    AVCOL_SPC_NB             , ///< Not part of ABI
 -};
 -
 -enum AVColorRange{
 -    AVCOL_RANGE_UNSPECIFIED = 0,
 -    AVCOL_RANGE_MPEG        = 1, ///< the normal 219*2^(n-8) "MPEG" YUV ranges
 -    AVCOL_RANGE_JPEG        = 2, ///< the normal     2^n-1   "JPEG" YUV ranges
 -    AVCOL_RANGE_NB             , ///< Not part of ABI
 -};
 -
  /**
   *  X   X      3 4 X      X are luma samples,
   *             1 2        1-6 are possible chroma positions
@@@ -720,11 -657,9 +720,11 @@@ typedef struct RcOverride
  #define CODEC_FLAG2_FAST          0x00000001 ///< Allow non spec compliant speedup tricks.
  #define CODEC_FLAG2_NO_OUTPUT     0x00000004 ///< Skip bitstream encoding.
  #define CODEC_FLAG2_LOCAL_HEADER  0x00000008 ///< Place global headers at every keyframe instead of in extradata.
 +#define CODEC_FLAG2_DROP_FRAME_TIMECODE 0x00002000 ///< timecode is in drop frame format. DEPRECATED!!!!
  #define CODEC_FLAG2_IGNORE_CROP   0x00010000 ///< Discard cropping information from SPS.
  
  #define CODEC_FLAG2_CHUNKS        0x00008000 ///< Input bitstream might be truncated at a packet boundaries instead of only at frame boundaries.
 +#define CODEC_FLAG2_SHOW_ALL      0x00400000 ///< Show all frames before the first keyframe
  
  /* Unsupported options :
   *              Syntax Arithmetic coding (SAC)
   * Codec should fill in channel configuration and samplerate instead of container
   */
  #define CODEC_CAP_CHANNEL_CONF     0x0400
 +
  /**
   * Codec is able to deal with negative linesizes
   */
  #define CODEC_CAP_NEG_LINESIZES    0x0800
 +
  /**
   * Codec supports frame-level multithreading.
   */
   * Audio encoder supports receiving a different number of samples in each call.
   */
  #define CODEC_CAP_VARIABLE_FRAME_SIZE 0x10000
 +/**
 + * Codec is intra only.
 + */
 +#define CODEC_CAP_INTRA_ONLY       0x40000000
 +/**
 + * Codec is lossless.
 + */
 +#define CODEC_CAP_LOSSLESS         0x80000000
  
  //The following defines may change, don't expect compatibility if you use them.
  #define MB_TYPE_INTRA4x4   0x0001
@@@ -956,63 -881,6 +956,63 @@@ enum AVPacketSideDataType 
       * @endcode
       */
      AV_PKT_DATA_H263_MB_INFO,
 +
 +    /**
 +     * Recommmends skipping the specified number of samples
 +     * @code
 +     * u32le number of samples to skip from start of this packet
 +     * u32le number of samples to skip from end of this packet
 +     * u8    reason for start skip
 +     * u8    reason for end   skip (0=padding silence, 1=convergence)
 +     * @endcode
 +     */
 +    AV_PKT_DATA_SKIP_SAMPLES=70,
 +
 +    /**
 +     * An AV_PKT_DATA_JP_DUALMONO side data packet indicates that
 +     * the packet may contain "dual mono" audio specific to Japanese DTV
 +     * and if it is true, recommends only the selected channel to be used.
 +     * @code
 +     * u8    selected channels (0=mail/left, 1=sub/right, 2=both)
 +     * @endcode
 +     */
 +    AV_PKT_DATA_JP_DUALMONO,
 +
 +    /**
 +     * A list of zero terminated key/value strings. There is no end marker for
 +     * the list, so it is required to rely on the side data size to stop.
 +     */
 +    AV_PKT_DATA_STRINGS_METADATA,
 +
 +    /**
 +     * Subtitle event position
 +     * @code
 +     * u32le x1
 +     * u32le y1
 +     * u32le x2
 +     * u32le y2
 +     * @endcode
 +     */
 +    AV_PKT_DATA_SUBTITLE_POSITION,
 +
 +    /**
 +     * Data found in BlockAdditional element of matroska container. There is
 +     * no end marker for the data, so it is required to rely on the side data
 +     * size to recognize the end. 8 byte id (as found in BlockAddId) followed
 +     * by data.
 +     */
 +    AV_PKT_DATA_MATROSKA_BLOCKADDITIONAL,
 +
 +    /**
 +     * The optional first identifier line of a WebVTT cue.
 +     */
 +    AV_PKT_DATA_WEBVTT_IDENTIFIER,
 +
 +    /**
 +     * The optional settings (rendering instructions) that immediately
 +     * follow the timestamp specifier of a WebVTT cue.
 +     */
 +    AV_PKT_DATA_WEBVTT_SETTINGS,
  };
  
  /**
   * For video, it should typically contain one compressed frame. For audio it may
   * contain several compressed frames.
   *
 - * AVPacket is one of the few structs in Libav, whose size is a part of public
 + * AVPacket is one of the few structs in FFmpeg, whose size is a part of public
   * ABI. Thus it may be allocated on stack and no new fields can be added to it
   * without libavcodec and libavformat major bump.
   *
@@@ -1139,8 -1007,6 +1139,8 @@@ enum AVFieldOrder 
   * New fields can be added to the end with minor version bumps.
   * Removal, reordering and changes to existing fields require a major
   * version bump.
 + * Please use AVOptions (av_opt* / av_set/get*()) to access these fields from user
 + * applications.
   * sizeof(AVCodecContext) must not be used outside libav*.
   */
  typedef struct AVCodecContext {
       * rv10: additional flags
       * mpeg4: global headers (they can be in the bitstream or here)
       * The allocated memory should be FF_INPUT_BUFFER_PADDING_SIZE bytes larger
 -     * than extradata_size to avoid prolems if it is read with the bitstream reader.
 +     * than extradata_size to avoid problems if it is read with the bitstream reader.
       * The bytewise contents of extradata must not depend on the architecture or CPU endianness.
       * - encoding: Set/allocated/freed by libavcodec.
       * - decoding: Set/allocated/freed by user.
      /**
       * Codec delay.
       *
 +     * Encoding: Number of frames delay there will be from the encoder input to
 +     *           the decoder output. (we assume the decoder matches the spec)
 +     * Decoding: Number of frames delay in addition to what a standard decoder
 +     *           as specified in the spec would produce.
 +     *
       * Video:
       *   Number of frames the decoded output will be delayed relative to the
       *   encoded input.
  
      /**
       * Bitstream width / height, may be different from width/height e.g. when
 -     * the decoded frame is cropped before being output.
 +     * the decoded frame is cropped before being output or lowres is enabled.
       * - encoding: unused
       * - decoding: May be set by the user before opening the decoder if known
       *             e.g. from the container. During decoding, the decoder may
      /**
       * Pixel format, see AV_PIX_FMT_xxx.
       * May be set by the demuxer if known from headers.
 -     * May be overriden by the decoder if it knows better.
 +     * May be overridden by the decoder if it knows better.
       * - encoding: Set by user.
       * - decoding: Set by user if known, overridden by libavcodec if known
       */
      /**
       * Motion estimation algorithm used for video coding.
       * 1 (zero), 2 (full), 3 (log), 4 (phods), 5 (epzs), 6 (x1), 7 (hex),
 -     * 8 (umh), 10 (tesa) [7, 8, 10 are x264 specific]
 +     * 8 (umh), 9 (iter), 10 (tesa) [7, 8, 10 are x264 specific, 9 is snow specific]
       * - encoding: MUST be set by user.
       * - decoding: unused
       */
  #define FF_CMP_VSAD   8
  #define FF_CMP_VSSE   9
  #define FF_CMP_NSSE   10
 +#define FF_CMP_W53    11
 +#define FF_CMP_W97    12
  #define FF_CMP_DCTMAX 13
  #define FF_CMP_DCT264 14
  #define FF_CMP_CHROMA 256
  
      /** Field order
       * - encoding: set by libavcodec
 -     * - decoding: Set by libavcodec
 +     * - decoding: Set by user.
       */
      enum AVFieldOrder field_order;
  
      /**
       * Audio channel layout.
       * - encoding: set by user.
 -     * - decoding: set by libavcodec.
 +     * - decoding: set by user, may be overwritten by libavcodec.
       */
      uint64_t channel_layout;
  
      enum AVAudioServiceType audio_service_type;
  
      /**
 -     * Used to request a sample format from the decoder.
 -     * - encoding: unused.
 +     * desired sample format
 +     * - encoding: Not used.
       * - decoding: Set by user.
 +     * Decoder will decode to this format if it can.
       */
      enum AVSampleFormat request_sample_fmt;
  
      int max_prediction_order;
  
      /**
 -     * GOP timecode frame start number, in non drop frame format
 -     * - encoding: Set by user.
 -     * - decoding: unused
 +     * GOP timecode frame start number
 +     * - encoding: Set by user, in non drop frame format
 +     * - decoding: Set by libavcodec (timecode in the 25 bits format, -1 if unset)
       */
      int64_t timecode_frame_start;
  
       * - decoding: Set by user.
       */
      int err_recognition;
- #define AV_EF_CRCCHECK  (1<<0)          ///< verify embedded CRCs
+ /**
+  * Verify checksums embedded in the bitstream (could be of either encoded or
+  * decoded data, depending on the codec) and print an error message on mismatch.
+  * If AV_EF_EXPLODE is also set, a mismatching checksum will result in the
+  * decoder returning an error.
+  */
+ #define AV_EF_CRCCHECK  (1<<0)
 -#define AV_EF_BITSTREAM (1<<1)
 -#define AV_EF_BUFFER    (1<<2)
 -#define AV_EF_EXPLODE   (1<<3)
 +#define AV_EF_BITSTREAM (1<<1)          ///< detect bitstream specification deviations
 +#define AV_EF_BUFFER    (1<<2)          ///< detect improper bitstream length
 +#define AV_EF_EXPLODE   (1<<3)          ///< abort decoding on minor error detection
 +
 +#define AV_EF_CAREFUL    (1<<16)        ///< consider things that violate the spec, are fast to calculate and have not been seen in the wild as errors
 +#define AV_EF_COMPLIANT  (1<<17)        ///< consider all spec non compliancies as errors
 +#define AV_EF_AGGRESSIVE (1<<18)        ///< consider things that a sane encoder should not do as an error
 +
  
      /**
       * opaque 64bit number (generally a PTS) that will be reordered and
       * Hardware accelerator context.
       * For some hardware accelerators, a global context needs to be
       * provided by the user. In that case, this holds display-dependent
 -     * data Libav cannot instantiate itself. Please refer to the
 -     * Libav HW accelerator documentation to know how to fill this
 +     * data FFmpeg cannot instantiate itself. Please refer to the
 +     * FFmpeg HW accelerator documentation to know how to fill this
       * is. e.g. for VA API, this is a struct vaapi_context.
       * - encoding: unused
       * - decoding: Set by user
       * low resolution decoding, 1-> 1/2 size, 2->1/4 size
       * - encoding: unused
       * - decoding: Set by user.
 -     *
 -     * @deprecated use decoder private options instead
 +     * Code outside libavcodec should access this field using:
 +     * av_codec_{get,set}_lowres(avctx)
       */
 -    attribute_deprecated int lowres;
 +     int lowres;
  #endif
  
      /**
  #define FF_LEVEL_UNKNOWN -99
  
      /**
 -     *
 +     * Skip loop filtering for selected frames.
       * - encoding: unused
       * - decoding: Set by user.
       */
      enum AVDiscard skip_loop_filter;
  
      /**
 -     *
 +     * Skip IDCT/dequantization for selected frames.
       * - encoding: unused
       * - decoding: Set by user.
       */
      enum AVDiscard skip_idct;
  
      /**
 -     *
 +     * Skip decoding for selected frames.
       * - encoding: unused
       * - decoding: Set by user.
       */
       * - decoding: unused.
       */
      uint64_t vbv_delay;
 +
 +    /**
 +     * Timebase in which pkt_dts/pts and AVPacket.dts/pts are.
 +     * Code outside libavcodec should access this field using:
 +     * av_codec_{get,set}_pkt_timebase(avctx)
 +     * - encoding unused.
 +     * - decoding set by user.
 +     */
 +    AVRational pkt_timebase;
 +
 +    /**
 +     * AVCodecDescriptor
 +     * Code outside libavcodec should access this field using:
 +     * av_codec_{get,set}_codec_descriptor(avctx)
 +     * - encoding: unused.
 +     * - decoding: set by libavcodec.
 +     */
 +    const AVCodecDescriptor *codec_descriptor;
 +
 +#if !FF_API_LOWRES
 +    /**
 +     * low resolution decoding, 1-> 1/2 size, 2->1/4 size
 +     * - encoding: unused
 +     * - decoding: Set by user.
 +     * Code outside libavcodec should access this field using:
 +     * av_codec_{get,set}_lowres(avctx)
 +     */
 +     int lowres;
 +#endif
 +
 +    /**
 +     * Current statistics for PTS correction.
 +     * - decoding: maintained and used by libavcodec, not intended to be used by user apps
 +     * - encoding: unused
 +     */
 +    int64_t pts_correction_num_faulty_pts; /// Number of incorrect PTS values so far
 +    int64_t pts_correction_num_faulty_dts; /// Number of incorrect DTS values so far
 +    int64_t pts_correction_last_pts;       /// PTS of the last frame
 +    int64_t pts_correction_last_dts;       /// DTS of the last frame
 +
 +    /**
 +     * Character encoding of the input subtitles file.
 +     * - decoding: set by user
 +     * - encoding: unused
 +     */
 +    char *sub_charenc;
 +
 +    /**
 +     * Subtitles character encoding mode. Formats or codecs might be adjusting
 +     * this setting (if they are doing the conversion themselves for instance).
 +     * - decoding: set by libavcodec
 +     * - encoding: unused
 +     */
 +    int sub_charenc_mode;
 +#define FF_SUB_CHARENC_MODE_DO_NOTHING  -1  ///< do nothing (demuxer outputs a stream supposed to be already in UTF-8, or the codec is bitmap for instance)
 +#define FF_SUB_CHARENC_MODE_AUTOMATIC    0  ///< libavcodec will select the mode itself
 +#define FF_SUB_CHARENC_MODE_PRE_DECODER  1  ///< the AVPacket data needs to be recoded to UTF-8 before being fed to the decoder, requires iconv
 +
 +    /**
 +     * Skip processing alpha if supported by codec.
 +     * Note that if the format uses pre-multiplied alpha (common with VP6,
 +     * and recommended due to better video quality/compression)
 +     * the image will look as if alpha-blended onto a black background.
 +     * However for formats that do not use pre-multiplied alpha
 +     * there might be serious artefacts (though e.g. libswscale currently
 +     * assumes pre-multiplied alpha anyway).
 +     * Code outside libavcodec should access this field using AVOptions
 +     *
 +     * - decoding: set by user
 +     * - encoding: unused
 +     */
 +    int skip_alpha;
 +
 +    /**
 +     * Number of samples to skip after a discontinuity
 +     * - decoding: unused
 +     * - encoding: set by libavcodec
 +     */
 +    int seek_preroll;
  } AVCodecContext;
  
 +AVRational av_codec_get_pkt_timebase         (const AVCodecContext *avctx);
 +void       av_codec_set_pkt_timebase         (AVCodecContext *avctx, AVRational val);
 +
 +const AVCodecDescriptor *av_codec_get_codec_descriptor(const AVCodecContext *avctx);
 +void                     av_codec_set_codec_descriptor(AVCodecContext *avctx, const AVCodecDescriptor *desc);
 +
 +int  av_codec_get_lowres(const AVCodecContext *avctx);
 +void av_codec_set_lowres(AVCodecContext *avctx, int val);
 +
 +int  av_codec_get_seek_preroll(const AVCodecContext *avctx);
 +void av_codec_set_seek_preroll(AVCodecContext *avctx, int val);
 +
  /**
   * AVProfile.
   */
@@@ -2945,7 -2714,7 +2952,7 @@@ typedef struct AVCodec 
      const enum AVSampleFormat *sample_fmts; ///< array of supported sample formats, or NULL if unknown, array is terminated by -1
      const uint64_t *channel_layouts;         ///< array of support channel layouts, or NULL if unknown. array is terminated by 0
  #if FF_API_LOWRES
 -    attribute_deprecated uint8_t max_lowres; ///< maximum value for lowres supported by the decoder
 +    uint8_t max_lowres;                     ///< maximum value for lowres supported by the decoder, no direct access, use av_codec_get_max_lowres()
  #endif
      const AVClass *priv_class;              ///< AVClass for the private context
      const AVProfile *profiles;              ///< array of recognized profiles, or NULL if unknown, array is terminated by {FF_PROFILE_UNKNOWN}
      void (*flush)(AVCodecContext *);
  } AVCodec;
  
 +int av_codec_get_max_lowres(const AVCodec *codec);
 +
  /**
   * AVHWAccel.
   */
@@@ -3113,13 -2880,11 +3120,13 @@@ typedef struct AVHWAccel 
   */
  
  /**
 - * four components are given, that's all.
 - * the last component is alpha
 + * Picture data structure.
 + *
 + * Up to four components can be stored into it, the last component is
 + * alpha.
   */
  typedef struct AVPicture {
 -    uint8_t *data[AV_NUM_DATA_POINTERS];
 +    uint8_t *data[AV_NUM_DATA_POINTERS];    ///< pointers to the image data planes
      int linesize[AV_NUM_DATA_POINTERS];     ///< number of bytes per line
  } AVPicture;
  
   * @}
   */
  
 -#define AVPALETTE_SIZE 1024
 -#define AVPALETTE_COUNT 256
 -
  enum AVSubtitleType {
      SUBTITLE_NONE,
  
@@@ -3165,11 -2933,10 +3172,11 @@@ typedef struct AVSubtitleRect 
  
      /**
       * 0 terminated ASS/SSA compatible event line.
 -     * The pressentation of this is unaffected by the other values in this
 +     * The presentation of this is unaffected by the other values in this
       * struct.
       */
      char *ass;
 +
      int flags;
  } AVSubtitleRect;
  
@@@ -3226,40 -2993,6 +3233,40 @@@ void avcodec_register(AVCodec *codec)
   */
  void avcodec_register_all(void);
  
 +
 +#if FF_API_ALLOC_CONTEXT
 +/**
 + * Allocate an AVCodecContext and set its fields to default values.  The
 + * resulting struct can be deallocated by simply calling av_free().
 + *
 + * @return An AVCodecContext filled with default values or NULL on failure.
 + * @see avcodec_get_context_defaults
 + *
 + * @deprecated use avcodec_alloc_context3()
 + */
 +attribute_deprecated
 +AVCodecContext *avcodec_alloc_context(void);
 +
 +/** THIS FUNCTION IS NOT YET PART OF THE PUBLIC API!
 + *  we WILL change its arguments and name a few times! */
 +attribute_deprecated
 +AVCodecContext *avcodec_alloc_context2(enum AVMediaType);
 +
 +/**
 + * Set the fields of the given AVCodecContext to default values.
 + *
 + * @param s The AVCodecContext of which the fields should be set to default values.
 + * @deprecated use avcodec_get_context_defaults3
 + */
 +attribute_deprecated
 +void avcodec_get_context_defaults(AVCodecContext *s);
 +
 +/** THIS FUNCTION IS NOT YET PART OF THE PUBLIC API!
 + *  we WILL change its arguments and name a few times! */
 +attribute_deprecated
 +void avcodec_get_context_defaults2(AVCodecContext *s, enum AVMediaType);
 +#endif
 +
  /**
   * Allocate an AVCodecContext and set its fields to default values.  The
   * resulting struct can be deallocated by calling avcodec_close() on it followed
@@@ -3297,29 -3030,13 +3304,29 @@@ int avcodec_get_context_defaults3(AVCod
  const AVClass *avcodec_get_class(void);
  
  /**
 + * Get the AVClass for AVFrame. It can be used in combination with
 + * AV_OPT_SEARCH_FAKE_OBJ for examining options.
 + *
 + * @see av_opt_find().
 + */
 +const AVClass *avcodec_get_frame_class(void);
 +
 +/**
 + * Get the AVClass for AVSubtitleRect. It can be used in combination with
 + * AV_OPT_SEARCH_FAKE_OBJ for examining options.
 + *
 + * @see av_opt_find().
 + */
 +const AVClass *avcodec_get_subtitle_rect_class(void);
 +
 +/**
   * Copy the settings of the source AVCodecContext into the destination
   * AVCodecContext. The resulting destination codec context will be
   * unopened, i.e. you are required to call avcodec_open2() before you
   * can use this AVCodecContext to decode/encode video/audio data.
   *
   * @param dest target codec context, should be initialized with
 - *             avcodec_alloc_context3(), but otherwise uninitialized
 + *             avcodec_alloc_context3(NULL), but otherwise uninitialized
   * @param src source codec context
   * @return AVERROR() on error (e.g. memory allocation error), 0 on success
   */
@@@ -3353,40 -3070,6 +3360,40 @@@ void avcodec_get_frame_defaults(AVFram
   */
  void avcodec_free_frame(AVFrame **frame);
  
 +#if FF_API_AVCODEC_OPEN
 +/**
 + * Initialize the AVCodecContext to use the given AVCodec. Prior to using this
 + * function the context has to be allocated.
 + *
 + * The functions avcodec_find_decoder_by_name(), avcodec_find_encoder_by_name(),
 + * avcodec_find_decoder() and avcodec_find_encoder() provide an easy way for
 + * retrieving a codec.
 + *
 + * @warning This function is not thread safe!
 + *
 + * @code
 + * avcodec_register_all();
 + * codec = avcodec_find_decoder(AV_CODEC_ID_H264);
 + * if (!codec)
 + *     exit(1);
 + *
 + * context = avcodec_alloc_context3(codec);
 + *
 + * if (avcodec_open(context, codec) < 0)
 + *     exit(1);
 + * @endcode
 + *
 + * @param avctx The context which will be set up to use the given codec.
 + * @param codec The codec to use within the context.
 + * @return zero on success, a negative value on error
 + * @see avcodec_alloc_context3, avcodec_find_decoder, avcodec_find_encoder, avcodec_close
 + *
 + * @deprecated use avcodec_open2
 + */
 +attribute_deprecated
 +int avcodec_open(AVCodecContext *avctx, AVCodec *codec);
 +#endif
 +
  /**
   * Initialize the AVCodecContext to use the given AVCodec. Prior to using this
   * function the context has to be allocated with avcodec_alloc_context3().
@@@ -3519,20 -3202,6 +3526,20 @@@ int av_packet_from_data(AVPacket *pkt, 
  int av_dup_packet(AVPacket *pkt);
  
  /**
 + * Copy packet, including contents
 + *
 + * @return 0 on success, negative AVERROR on fail
 + */
 +int av_copy_packet(AVPacket *dst, AVPacket *src);
 +
 +/**
 + * Copy packet side data
 + *
 + * @return 0 on success, negative AVERROR on fail
 + */
 +int av_copy_packet_side_data(AVPacket *dst, AVPacket *src);
 +
 +/**
   * Free a packet.
   *
   * @param pkt packet to free
@@@ -3572,11 -3241,6 +3579,11 @@@ int av_packet_shrink_side_data(AVPacke
  uint8_t* av_packet_get_side_data(AVPacket *pkt, enum AVPacketSideDataType type,
                                   int *size);
  
 +int av_packet_merge_side_data(AVPacket *pkt);
 +
 +int av_packet_split_side_data(AVPacket *pkt);
 +
 +
  /**
   * Convenience function to free all the side data stored.
   * All the other fields stay untouched.
@@@ -3708,88 -3372,6 +3715,88 @@@ void avcodec_align_dimensions2(AVCodecC
                                 int linesize_align[AV_NUM_DATA_POINTERS]);
  
  /**
 + * Converts AVChromaLocation to swscale x/y chroma position.
 + *
 + * The positions represent the chroma (0,0) position in a coordinates system
 + * with luma (0,0) representing the origin and luma(1,1) representing 256,256
 + *
 + * @param xpos  horizontal chroma sample position
 + * @param ypos  vertical   chroma sample position
 + */
 +int avcodec_enum_to_chroma_pos(int *xpos, int *ypos, enum AVChromaLocation pos);
 +
 +/**
 + * Converts swscale x/y chroma position to AVChromaLocation.
 + *
 + * The positions represent the chroma (0,0) position in a coordinates system
 + * with luma (0,0) representing the origin and luma(1,1) representing 256,256
 + *
 + * @param xpos  horizontal chroma sample position
 + * @param ypos  vertical   chroma sample position
 + */
 +enum AVChromaLocation avcodec_chroma_pos_to_enum(int xpos, int ypos);
 +
 +#if FF_API_OLD_DECODE_AUDIO
 +/**
 + * Wrapper function which calls avcodec_decode_audio4.
 + *
 + * @deprecated Use avcodec_decode_audio4 instead.
 + *
 + * Decode the audio frame of size avpkt->size from avpkt->data into samples.
 + * Some decoders may support multiple frames in a single AVPacket, such
 + * decoders would then just decode the first frame. In this case,
 + * avcodec_decode_audio3 has to be called again with an AVPacket that contains
 + * the remaining data in order to decode the second frame etc.
 + * If no frame
 + * could be outputted, frame_size_ptr is zero. Otherwise, it is the
 + * decompressed frame size in bytes.
 + *
 + * @warning You must set frame_size_ptr to the allocated size of the
 + * output buffer before calling avcodec_decode_audio3().
 + *
 + * @warning The input buffer must be FF_INPUT_BUFFER_PADDING_SIZE larger than
 + * the actual read bytes because some optimized bitstream readers read 32 or 64
 + * bits at once and could read over the end.
 + *
 + * @warning The end of the input buffer avpkt->data should be set to 0 to ensure that
 + * no overreading happens for damaged MPEG streams.
 + *
 + * @warning You must not provide a custom get_buffer() when using
 + * avcodec_decode_audio3().  Doing so will override it with
 + * avcodec_default_get_buffer.  Use avcodec_decode_audio4() instead,
 + * which does allow the application to provide a custom get_buffer().
 + *
 + * @note You might have to align the input buffer avpkt->data and output buffer
 + * samples. The alignment requirements depend on the CPU: On some CPUs it isn't
 + * necessary at all, on others it won't work at all if not aligned and on others
 + * it will work but it will have an impact on performance.
 + *
 + * In practice, avpkt->data should have 4 byte alignment at minimum and
 + * samples should be 16 byte aligned unless the CPU doesn't need it
 + * (AltiVec and SSE do).
 + *
 + * @note Codecs which have the CODEC_CAP_DELAY capability set have a delay
 + * between input and output, these need to be fed with avpkt->data=NULL,
 + * avpkt->size=0 at the end to return the remaining frames.
 + *
 + * @param avctx the codec context
 + * @param[out] samples the output buffer, sample type in avctx->sample_fmt
 + *                     If the sample format is planar, each channel plane will
 + *                     be the same size, with no padding between channels.
 + * @param[in,out] frame_size_ptr the output buffer size in bytes
 + * @param[in] avpkt The input AVPacket containing the input buffer.
 + *            You can create such packet with av_init_packet() and by then setting
 + *            data and size, some decoders might in addition need other fields.
 + *            All decoders are designed to use the least fields possible though.
 + * @return On error a negative value is returned, otherwise the number of bytes
 + * used or zero if no frame data was decompressed (used) from the input AVPacket.
 + */
 +attribute_deprecated int avcodec_decode_audio3(AVCodecContext *avctx, int16_t *samples,
 +                         int *frame_size_ptr,
 +                         AVPacket *avpkt);
 +#endif
 +
 +/**
   * Decode the audio frame of size avpkt->size from avpkt->data into frame.
   *
   * Some decoders may support multiple frames in a single AVPacket. Such
   *         AVPacket is returned.
   */
  int avcodec_decode_audio4(AVCodecContext *avctx, AVFrame *frame,
 -                          int *got_frame_ptr, AVPacket *avpkt);
 +                          int *got_frame_ptr, const AVPacket *avpkt);
  
  /**
   * Decode the video frame of size avpkt->size from avpkt->data into picture.
   *             next call to this function or until closing or flushing the
   *             decoder. The caller may not write to it.
   *
 - * @param[in] avpkt The input AVpacket containing the input buffer.
 + * @param[in] avpkt The input AVPacket containing the input buffer.
   *            You can create such packet with av_init_packet() and by then setting
   *            data and size, some decoders might in addition need other fields like
   *            flags&AV_PKT_FLAG_KEY. All decoders are designed to use the least
   */
  int avcodec_decode_video2(AVCodecContext *avctx, AVFrame *picture,
                           int *got_picture_ptr,
 -                         AVPacket *avpkt);
 +                         const AVPacket *avpkt);
  
  /**
   * Decode a subtitle message.
   * and reusing a get_buffer written for video codecs would probably perform badly
   * due to a potentially very different allocation pattern.
   *
 + * Some decoders (those marked with CODEC_CAP_DELAY) have a delay between input
 + * and output. This means that for some packets they will not immediately
 + * produce decoded output and need to be flushed at the end of decoding to get
 + * all the decoded data. Flushing is done by calling this function with packets
 + * with avpkt->data set to NULL and avpkt->size set to 0 until it stops
 + * returning subtitles. It is safe to flush even those decoders that are not
 + * marked with CODEC_CAP_DELAY, then no subtitles will be returned.
 + *
   * @param avctx the codec context
   * @param[out] sub The AVSubtitle in which the decoded subtitle will be stored, must be
                     freed with avsubtitle_free if *got_sub_ptr is set.
@@@ -3962,7 -3536,6 +3969,7 @@@ typedef struct AVCodecParserContext 
  #define PARSER_FLAG_ONCE                      0x0002
  /// Set if the parser has a valid file offset
  #define PARSER_FLAG_FETCHED_OFFSET            0x0004
 +#define PARSER_FLAG_USE_CODEC_TS              0x1000
  
      int64_t offset;      ///< byte offset from starting packet start
      int64_t cur_frame_end[AV_PARSER_PTS_NB];
@@@ -4135,7 -3708,7 +4142,7 @@@ int av_parser_parse2(AVCodecParserConte
  
  /**
   * @return 0 if the output buffer is a subset of the input, 1 if it is allocated and must be freed
 - * @deprecated use AVBitstreamFilter
 + * @deprecated use AVBitStreamFilter
   */
  int av_parser_change(AVCodecParserContext *s,
                       AVCodecContext *avctx,
@@@ -4169,36 -3742,6 +4176,36 @@@ AVCodec *avcodec_find_encoder(enum AVCo
   */
  AVCodec *avcodec_find_encoder_by_name(const char *name);
  
 +#if FF_API_OLD_ENCODE_AUDIO
 +/**
 + * Encode an audio frame from samples into buf.
 + *
 + * @deprecated Use avcodec_encode_audio2 instead.
 + *
 + * @note The output buffer should be at least FF_MIN_BUFFER_SIZE bytes large.
 + * However, for codecs with avctx->frame_size equal to 0 (e.g. PCM) the user
 + * will know how much space is needed because it depends on the value passed
 + * in buf_size as described below. In that case a lower value can be used.
 + *
 + * @param avctx the codec context
 + * @param[out] buf the output buffer
 + * @param[in] buf_size the output buffer size
 + * @param[in] samples the input buffer containing the samples
 + * The number of samples read from this buffer is frame_size*channels,
 + * both of which are defined in avctx.
 + * For codecs which have avctx->frame_size equal to 0 (e.g. PCM) the number of
 + * samples read from samples is equal to:
 + * buf_size * 8 / (avctx->channels * av_get_bits_per_sample(avctx->codec_id))
 + * This also implies that av_get_bits_per_sample() must not return 0 for these
 + * codecs.
 + * @return On error a negative value is returned, on success zero or the number
 + * of bytes used to encode the data read from the input buffer.
 + */
 +int attribute_deprecated avcodec_encode_audio(AVCodecContext *avctx,
 +                                              uint8_t *buf, int buf_size,
 +                                              const short *samples);
 +#endif
 +
  /**
   * Encode a frame of audio.
   *
   *                  The user can supply an output buffer by setting
   *                  avpkt->data and avpkt->size prior to calling the
   *                  function, but if the size of the user-provided data is not
 - *                  large enough, encoding will fail. All other AVPacket fields
 - *                  will be reset by the encoder using av_init_packet(). If
 - *                  avpkt->data is NULL, the encoder will allocate it.
 - *                  The encoder will set avpkt->size to the size of the
 - *                  output packet.
 + *                  large enough, encoding will fail. If avpkt->data and
 + *                  avpkt->size are set, avpkt->destruct must also be set. All
 + *                  other AVPacket fields will be reset by the encoder using
 + *                  av_init_packet(). If avpkt->data is NULL, the encoder will
 + *                  allocate it. The encoder will set avpkt->size to the size
 + *                  of the output packet.
   *
   *                  If this function fails or produces no output, avpkt will be
   *                  freed using av_free_packet() (i.e. avpkt->destruct will be
  int avcodec_encode_audio2(AVCodecContext *avctx, AVPacket *avpkt,
                            const AVFrame *frame, int *got_packet_ptr);
  
 +#if FF_API_OLD_ENCODE_VIDEO
 +/**
 + * @deprecated use avcodec_encode_video2() instead.
 + *
 + * Encode a video frame from pict into buf.
 + * The input picture should be
 + * stored using a specific format, namely avctx.pix_fmt.
 + *
 + * @param avctx the codec context
 + * @param[out] buf the output buffer for the bitstream of encoded frame
 + * @param[in] buf_size the size of the output buffer in bytes
 + * @param[in] pict the input picture to encode
 + * @return On error a negative value is returned, on success zero or the number
 + * of bytes used from the output buffer.
 + */
 +attribute_deprecated
 +int avcodec_encode_video(AVCodecContext *avctx, uint8_t *buf, int buf_size,
 +                         const AVFrame *pict);
 +#endif
 +
  /**
   * Encode a frame of video.
   *
@@@ -4306,121 -3828,21 +4313,121 @@@ int avcodec_encode_subtitle(AVCodecCont
   * @}
   */
  
 +#if FF_API_AVCODEC_RESAMPLE
 +/**
 + * @defgroup lavc_resample Audio resampling
 + * @ingroup libavc
 + * @deprecated use libswresample instead
 + *
 + * @{
 + */
 +struct ReSampleContext;
 +struct AVResampleContext;
 +
 +typedef struct ReSampleContext ReSampleContext;
 +
 +/**
 + *  Initialize audio resampling context.
 + *
 + * @param output_channels  number of output channels
 + * @param input_channels   number of input channels
 + * @param output_rate      output sample rate
 + * @param input_rate       input sample rate
 + * @param sample_fmt_out   requested output sample format
 + * @param sample_fmt_in    input sample format
 + * @param filter_length    length of each FIR filter in the filterbank relative to the cutoff frequency
 + * @param log2_phase_count log2 of the number of entries in the polyphase filterbank
 + * @param linear           if 1 then the used FIR filter will be linearly interpolated
 +                           between the 2 closest, if 0 the closest will be used
 + * @param cutoff           cutoff frequency, 1.0 corresponds to half the output sampling rate
 + * @return allocated ReSampleContext, NULL if error occurred
 + */
 +attribute_deprecated
 +ReSampleContext *av_audio_resample_init(int output_channels, int input_channels,
 +                                        int output_rate, int input_rate,
 +                                        enum AVSampleFormat sample_fmt_out,
 +                                        enum AVSampleFormat sample_fmt_in,
 +                                        int filter_length, int log2_phase_count,
 +                                        int linear, double cutoff);
 +
 +attribute_deprecated
 +int audio_resample(ReSampleContext *s, short *output, short *input, int nb_samples);
 +
 +/**
 + * Free resample context.
 + *
 + * @param s a non-NULL pointer to a resample context previously
 + *          created with av_audio_resample_init()
 + */
 +attribute_deprecated
 +void audio_resample_close(ReSampleContext *s);
 +
 +
 +/**
 + * Initialize an audio resampler.
 + * Note, if either rate is not an integer then simply scale both rates up so they are.
 + * @param filter_length length of each FIR filter in the filterbank relative to the cutoff freq
 + * @param log2_phase_count log2 of the number of entries in the polyphase filterbank
 + * @param linear If 1 then the used FIR filter will be linearly interpolated
 +                 between the 2 closest, if 0 the closest will be used
 + * @param cutoff cutoff frequency, 1.0 corresponds to half the output sampling rate
 + */
 +attribute_deprecated
 +struct AVResampleContext *av_resample_init(int out_rate, int in_rate, int filter_length, int log2_phase_count, int linear, double cutoff);
 +
 +/**
 + * Resample an array of samples using a previously configured context.
 + * @param src an array of unconsumed samples
 + * @param consumed the number of samples of src which have been consumed are returned here
 + * @param src_size the number of unconsumed samples available
 + * @param dst_size the amount of space in samples available in dst
 + * @param update_ctx If this is 0 then the context will not be modified, that way several channels can be resampled with the same context.
 + * @return the number of samples written in dst or -1 if an error occurred
 + */
 +attribute_deprecated
 +int av_resample(struct AVResampleContext *c, short *dst, short *src, int *consumed, int src_size, int dst_size, int update_ctx);
 +
 +
 +/**
 + * Compensate samplerate/timestamp drift. The compensation is done by changing
 + * the resampler parameters, so no audible clicks or similar distortions occur
 + * @param compensation_distance distance in output samples over which the compensation should be performed
 + * @param sample_delta number of output samples which should be output less
 + *
 + * example: av_resample_compensate(c, 10, 500)
 + * here instead of 510 samples only 500 samples would be output
 + *
 + * note, due to rounding the actual compensation might be slightly different,
 + * especially if the compensation_distance is large and the in_rate used during init is small
 + */
 +attribute_deprecated
 +void av_resample_compensate(struct AVResampleContext *c, int sample_delta, int compensation_distance);
 +attribute_deprecated
 +void av_resample_close(struct AVResampleContext *c);
 +
 +/**
 + * @}
 + */
 +#endif
 +
  /**
   * @addtogroup lavc_picture
   * @{
   */
  
  /**
 - * Allocate memory for a picture.  Call avpicture_free() to free it.
 + * Allocate memory for the pixels of a picture and setup the AVPicture
 + * fields for it.
 + *
 + * Call avpicture_free() to free it.
   *
 - * @see avpicture_fill()
 + * @param picture            the picture structure to be filled in
 + * @param pix_fmt            the pixel format of the picture
 + * @param width              the width of the picture
 + * @param height             the height of the picture
 + * @return zero if successful, a negative error code otherwise
   *
 - * @param picture the picture to be filled in
 - * @param pix_fmt the format of the picture
 - * @param width the width of the picture
 - * @param height the height of the picture
 - * @return zero if successful, a negative value if not
 + * @see av_image_alloc(), avpicture_fill()
   */
  int avpicture_alloc(AVPicture *picture, enum AVPixelFormat pix_fmt, int width, int height);
  
  void avpicture_free(AVPicture *picture);
  
  /**
 - * Fill in the AVPicture fields.
 - * The fields of the given AVPicture are filled in by using the 'ptr' address
 - * which points to the image data buffer. Depending on the specified picture
 - * format, one or multiple image data pointers and line sizes will be set.
 - * If a planar format is specified, several pointers will be set pointing to
 - * the different picture planes and the line sizes of the different planes
 - * will be stored in the lines_sizes array.
 - * Call with ptr == NULL to get the required size for the ptr buffer.
 + * Setup the picture fields based on the specified image parameters
 + * and the provided image data buffer.
 + *
 + * The picture fields are filled in by using the image data buffer
 + * pointed to by ptr.
   *
 - * To allocate the buffer and fill in the AVPicture fields in one call,
 + * If ptr is NULL, the function will fill only the picture linesize
 + * array and return the required size for the image buffer.
 + *
 + * To allocate an image buffer and fill the picture data in one call,
   * use avpicture_alloc().
   *
 - * @param picture AVPicture whose fields are to be filled in
 - * @param ptr Buffer which will contain or contains the actual image data
 - * @param pix_fmt The format in which the picture data is stored.
 - * @param width the width of the image in pixels
 - * @param height the height of the image in pixels
 - * @return size of the image data in bytes
 + * @param picture       the picture to be filled in
 + * @param ptr           buffer where the image data is stored, or NULL
 + * @param pix_fmt       the pixel format of the image
 + * @param width         the width of the image in pixels
 + * @param height        the height of the image in pixels
 + * @return the size in bytes required for src, a negative error code
 + * in case of failure
 + *
 + * @see av_image_fill_arrays()
   */
 -int avpicture_fill(AVPicture *picture, uint8_t *ptr,
 +int avpicture_fill(AVPicture *picture, const uint8_t *ptr,
                     enum AVPixelFormat pix_fmt, int width, int height);
  
  /**
   * Copy pixel data from an AVPicture into a buffer.
 - * The data is stored compactly, without any gaps for alignment or padding
 - * which may be applied by avpicture_fill().
   *
 - * @see avpicture_get_size()
 + * avpicture_get_size() can be used to compute the required size for
 + * the buffer to fill.
 + *
 + * @param src        source picture with filled data
 + * @param pix_fmt    picture pixel format
 + * @param width      picture width
 + * @param height     picture height
 + * @param dest       destination buffer
 + * @param dest_size  destination buffer size in bytes
 + * @return the number of bytes written to dest, or a negative value
 + * (error code) on error, for example if the destination buffer is not
 + * big enough
   *
 - * @param[in] src AVPicture containing image data
 - * @param[in] pix_fmt The format in which the picture data is stored.
 - * @param[in] width the width of the image in pixels.
 - * @param[in] height the height of the image in pixels.
 - * @param[out] dest A buffer into which picture data will be copied.
 - * @param[in] dest_size The size of 'dest'.
 - * @return The number of bytes written to dest, or a negative value (error code) on error.
 + * @see av_image_copy_to_buffer()
   */
 -int avpicture_layout(const AVPicturesrc, enum AVPixelFormat pix_fmt,
 +int avpicture_layout(const AVPicture *src, enum AVPixelFormat pix_fmt,
                       int width, int height,
                       unsigned char *dest, int dest_size);
  
  /**
   * Calculate the size in bytes that a picture of the given width and height
   * would occupy if stored in the given picture format.
 - * Note that this returns the size of a compact representation as generated
 - * by avpicture_layout(), which can be smaller than the size required for e.g.
 - * avpicture_fill().
   *
 - * @param pix_fmt the given picture format
 - * @param width the width of the image
 - * @param height the height of the image
 - * @return Image data size in bytes or -1 on error (e.g. too large dimensions).
 + * @param pix_fmt    picture pixel format
 + * @param width      picture width
 + * @param height     picture height
 + * @return the computed picture buffer size or a negative error code
 + * in case of error
 + *
 + * @see av_image_get_buffer_size().
   */
  int avpicture_get_size(enum AVPixelFormat pix_fmt, int width, int height);
  
@@@ -4506,7 -3922,7 +4513,7 @@@ int avpicture_deinterlace(AVPicture *ds
                            enum AVPixelFormat pix_fmt, int width, int height);
  #endif
  /**
 - * Copy image src to dst. Wraps av_picture_data_copy() above.
 + * Copy image src to dst. Wraps av_image_copy().
   */
  void av_picture_copy(AVPicture *dst, const AVPicture *src,
                       enum AVPixelFormat pix_fmt, int width, int height);
@@@ -4544,21 -3960,10 +4551,21 @@@ int av_picture_pad(AVPicture *dst, cons
   */
  
  /**
 - * @deprecated Use av_pix_fmt_get_chroma_sub_sample
 + * Utility function to access log2_chroma_w log2_chroma_h from
 + * the pixel format AVPixFmtDescriptor.
 + *
 + * This function asserts that pix_fmt is valid. See av_pix_fmt_get_chroma_sub_sample
 + * for one that returns a failure code and continues in case of invalid
 + * pix_fmts.
 + *
 + * @param[in]  pix_fmt the pixel format
 + * @param[out] h_shift store log2_chroma_w
 + * @param[out] v_shift store log2_chroma_h
 + *
 + * @see av_pix_fmt_get_chroma_sub_sample
   */
  
 -void attribute_deprecated avcodec_get_chroma_sub_sample(enum AVPixelFormat pix_fmt, int *h_shift, int *v_shift);
 +void avcodec_get_chroma_sub_sample(enum AVPixelFormat pix_fmt, int *h_shift, int *v_shift);
  
  /**
   * Return a value representing the fourCC code associated to the
@@@ -4589,8 -3994,7 +4596,8 @@@ unsigned int avcodec_pix_fmt_to_codec_t
   * @param[in] dst_pix_fmt destination pixel format
   * @param[in] src_pix_fmt source pixel format
   * @param[in] has_alpha Whether the source pixel format alpha channel is used.
 - * @return Combination of flags informing you what kind of losses will occur.
 + * @return Combination of flags informing you what kind of losses will occur
 + * (maximum loss for an invalid dst_pix_fmt).
   */
  int avcodec_get_pix_fmt_loss(enum AVPixelFormat dst_pix_fmt, enum AVPixelFormat src_pix_fmt,
                               int has_alpha);
   * format.  When converting from one pixel format to another, information loss
   * may occur.  For example, when converting from RGB24 to GRAY, the color
   * information will be lost. Similarly, other losses occur when converting from
 - * some formats to other formats. avcodec_find_best_pix_fmt2() searches which of
 + * some formats to other formats. avcodec_find_best_pix_fmt_of_2() searches which of
   * the given pixel formats should be used to suffer the least amount of loss.
   * The pixel formats from which it chooses one, are determined by the
   * pix_fmt_list parameter.
   * @param[out] loss_ptr Combination of flags informing you what kind of losses will occur.
   * @return The best pixel format to convert to or -1 if none was found.
   */
 -enum AVPixelFormat avcodec_find_best_pix_fmt2(enum AVPixelFormat *pix_fmt_list,
 +enum AVPixelFormat avcodec_find_best_pix_fmt_of_list(const enum AVPixelFormat *pix_fmt_list,
 +                                            enum AVPixelFormat src_pix_fmt,
 +                                            int has_alpha, int *loss_ptr);
 +
 +/**
 + * Find the best pixel format to convert to given a certain source pixel
 + * format and a selection of two destination pixel formats. When converting from
 + * one pixel format to another, information loss may occur.  For example, when converting
 + * from RGB24 to GRAY, the color information will be lost. Similarly, other losses occur when
 + * converting from some formats to other formats. avcodec_find_best_pix_fmt_of_2() selects which of
 + * the given pixel formats should be used to suffer the least amount of loss.
 + *
 + * If one of the destination formats is AV_PIX_FMT_NONE the other pixel format (if valid) will be
 + * returned.
 + *
 + * @code
 + * src_pix_fmt = AV_PIX_FMT_YUV420P;
 + * dst_pix_fmt1= AV_PIX_FMT_RGB24;
 + * dst_pix_fmt2= AV_PIX_FMT_GRAY8;
 + * dst_pix_fmt3= AV_PIX_FMT_RGB8;
 + * loss= FF_LOSS_CHROMA; // don't care about chroma loss, so chroma loss will be ignored.
 + * dst_pix_fmt = avcodec_find_best_pix_fmt_of_2(dst_pix_fmt1, dst_pix_fmt2, src_pix_fmt, alpha, &loss);
 + * dst_pix_fmt = avcodec_find_best_pix_fmt_of_2(dst_pix_fmt, dst_pix_fmt3, src_pix_fmt, alpha, &loss);
 + * @endcode
 + *
 + * @param[in] dst_pix_fmt1 One of the two destination pixel formats to choose from
 + * @param[in] dst_pix_fmt2 The other of the two destination pixel formats to choose from
 + * @param[in] src_pix_fmt Source pixel format
 + * @param[in] has_alpha Whether the source pixel format alpha channel is used.
 + * @param[in, out] loss_ptr Combination of loss flags. In: selects which of the losses to ignore, i.e.
 + *                               NULL or value of zero means we care about all losses. Out: the loss
 + *                               that occurs when converting from src to selected dst pixel format.
 + * @return The best pixel format to convert to or -1 if none was found.
 + */
 +enum AVPixelFormat avcodec_find_best_pix_fmt_of_2(enum AVPixelFormat dst_pix_fmt1, enum AVPixelFormat dst_pix_fmt2,
 +                                            enum AVPixelFormat src_pix_fmt, int has_alpha, int *loss_ptr);
 +
 +attribute_deprecated
 +#if AV_HAVE_INCOMPATIBLE_LIBAV_ABI
 +enum AVPixelFormat avcodec_find_best_pix_fmt2(const enum AVPixelFormat *pix_fmt_list,
                                                enum AVPixelFormat src_pix_fmt,
                                                int has_alpha, int *loss_ptr);
 +#else
 +enum AVPixelFormat avcodec_find_best_pix_fmt2(enum AVPixelFormat dst_pix_fmt1, enum AVPixelFormat dst_pix_fmt2,
 +                                            enum AVPixelFormat src_pix_fmt, int has_alpha, int *loss_ptr);
 +#endif
 +
  
  enum AVPixelFormat avcodec_default_get_format(struct AVCodecContext *s, const enum AVPixelFormat * fmt);
  
@@@ -4693,12 -4053,7 +4700,12 @@@ int avcodec_default_execute2(AVCodecCon
  //FIXME func typedef
  
  /**
 - * Fill audio frame data and linesize.
 + * Fill AVFrame audio data and linesize pointers.
 + *
 + * The buffer buf must be a preallocated buffer with a size big enough
 + * to contain the specified samples amount. The filled AVFrame data
 + * pointers will point to this buffer.
 + *
   * AVFrame extended_data channel pointers are allocated if necessary for
   * planar audio.
   *
   * @param buf         buffer to use for frame data
   * @param buf_size    size of buffer
   * @param align       plane size sample alignment (0 = default)
 - * @return            0 on success, negative error code on failure
 + * @return            >=0 on success, negative error code on failure
 + * @todo return the size in bytes required to store the samples in
 + * case of success, at the next libavutil bump
   */
  int avcodec_fill_audio_frame(AVFrame *frame, int nb_channels,
                               enum AVSampleFormat sample_fmt, const uint8_t *buf,
@@@ -4739,14 -4092,6 +4746,14 @@@ void avcodec_flush_buffers(AVCodecConte
  int av_get_bits_per_sample(enum AVCodecID codec_id);
  
  /**
 + * Return the PCM codec associated with a sample format.
 + * @param be  endianness, 0 for little, 1 for big,
 + *            -1 (or anything else) for native
 + * @return  AV_CODEC_ID_PCM_* or AV_CODEC_ID_NONE
 + */
 +enum AVCodecID av_get_pcm_codec(enum AVSampleFormat fmt, int be);
 +
 +/**
   * Return codec bits per sample.
   * Only return non-zero if the bits per sample is exactly correct, not an
   * approximation.
@@@ -4786,78 -4131,14 +4793,78 @@@ typedef struct AVBitStreamFilter 
      struct AVBitStreamFilter *next;
  } AVBitStreamFilter;
  
 +/**
 + * Register a bitstream filter.
 + *
 + * The filter will be accessible to the application code through
 + * av_bitstream_filter_next() or can be directly initialized with
 + * av_bitstream_filter_init().
 + *
 + * @see avcodec_register_all()
 + */
  void av_register_bitstream_filter(AVBitStreamFilter *bsf);
 +
 +/**
 + * Create and initialize a bitstream filter context given a bitstream
 + * filter name.
 + *
 + * The returned context must be freed with av_bitstream_filter_close().
 + *
 + * @param name    the name of the bitstream filter
 + * @return a bitstream filter context if a matching filter was found
 + * and successfully initialized, NULL otherwise
 + */
  AVBitStreamFilterContext *av_bitstream_filter_init(const char *name);
 +
 +/**
 + * Filter bitstream.
 + *
 + * This function filters the buffer buf with size buf_size, and places the
 + * filtered buffer in the buffer pointed to by poutbuf.
 + *
 + * The output buffer must be freed by the caller.
 + *
 + * @param bsfc            bitstream filter context created by av_bitstream_filter_init()
 + * @param avctx           AVCodecContext accessed by the filter, may be NULL.
 + *                        If specified, this must point to the encoder context of the
 + *                        output stream the packet is sent to.
 + * @param args            arguments which specify the filter configuration, may be NULL
 + * @param poutbuf         pointer which is updated to point to the filtered buffer
 + * @param poutbuf_size    pointer which is updated to the filtered buffer size in bytes
 + * @param buf             buffer containing the data to filter
 + * @param buf_size        size in bytes of buf
 + * @param keyframe        set to non-zero if the buffer to filter corresponds to a key-frame packet data
 + * @return >= 0 in case of success, or a negative error code in case of failure
 + *
 + * If the return value is positive, an output buffer is allocated and
 + * is availble in *poutbuf, and is distinct from the input buffer.
 + *
 + * If the return value is 0, the output buffer is not allocated and
 + * should be considered identical to the input buffer, or in case
 + * *poutbuf was set it points to the input buffer (not necessarily to
 + * its starting address).
 + */
  int av_bitstream_filter_filter(AVBitStreamFilterContext *bsfc,
                                 AVCodecContext *avctx, const char *args,
                                 uint8_t **poutbuf, int *poutbuf_size,
                                 const uint8_t *buf, int buf_size, int keyframe);
 +
 +/**
 + * Release bitstream filter context.
 + *
 + * @param bsf the bitstream filter context created with
 + * av_bitstream_filter_init(), can be NULL
 + */
  void av_bitstream_filter_close(AVBitStreamFilterContext *bsf);
  
 +/**
 + * If f is NULL, return the first registered bitstream filter,
 + * if f is non-NULL, return the next registered bitstream filter
 + * after f, or NULL if f is the last one.
 + *
 + * This function can be used to iterate over all registered bitstream
 + * filters.
 + */
  AVBitStreamFilter *av_bitstream_filter_next(AVBitStreamFilter *f);
  
  /* memory */
@@@ -4884,21 -4165,15 +4891,21 @@@ void *av_fast_realloc(void *ptr, unsign
  void av_fast_malloc(void *ptr, unsigned int *size, size_t min_size);
  
  /**
 - * Allocate a buffer with padding, reusing the given one if large enough.
 - *
   * Same behaviour av_fast_malloc but the buffer has additional
 - * FF_INPUT_PADDING_SIZE at the end which will always memset to 0.
 + * FF_INPUT_BUFFER_PADDING_SIZE at the end which will always be 0.
   *
 + * In addition the whole buffer will initially and after resizes
 + * be 0-initialized so that no uninitialized data will ever appear.
   */
  void av_fast_padded_malloc(void *ptr, unsigned int *size, size_t min_size);
  
  /**
 + * Same behaviour av_fast_padded_malloc except that buffer will always
 + * be 0-initialized after call.
 + */
 +void av_fast_padded_mallocz(void *ptr, unsigned int *size, size_t min_size);
 +
 +/**
   * Encode extradata length to a buffer. Used by xiph codecs.
   *
   * @param s buffer to write to; must be at least (v/255+1) bytes long
@@@ -4910,7 -4185,7 +4917,7 @@@ unsigned int av_xiphlacing(unsigned cha
  #if FF_API_MISSING_SAMPLE
  /**
   * Log a generic warning message about a missing feature. This function is
 - * intended to be used internally by Libav (libavcodec, libavformat, etc.)
 + * intended to be used internally by FFmpeg (libavcodec, libavformat, etc.)
   * only, and would normally not be used by applications.
   * @param[in] avc a pointer to an arbitrary struct of which the first field is
   * a pointer to an AVClass struct
@@@ -4926,7 -4201,7 +4933,7 @@@ void av_log_missing_feature(void *avc, 
  
  /**
   * Log a generic warning message asking for a sample. This function is
 - * intended to be used internally by Libav (libavcodec, libavformat, etc.)
 + * intended to be used internally by FFmpeg (libavcodec, libavformat, etc.)
   * only, and would normally not be used by applications.
   * @param[in] avc a pointer to an arbitrary struct of which the first field is
   * a pointer to an AVClass struct
@@@ -4966,7 -4241,7 +4973,7 @@@ enum AVLockOp 
   * lockmgr should store/get a pointer to a user allocated mutex. It's
   * NULL upon AV_LOCK_CREATE and != NULL for all other ops.
   *
 - * @param cb User defined callback. Note: Libav may invoke calls to this
 + * @param cb User defined callback. Note: FFmpeg may invoke calls to this
   *           callback during the call to av_lockmgr_register().
   *           Thus, the application must be prepared to handle that.
   *           If cb is set to NULL the lockmgr will be unregistered.
@@@ -4981,12 -4256,6 +4988,12 @@@ int av_lockmgr_register(int (*cb)(void 
  enum AVMediaType avcodec_get_type(enum AVCodecID codec_id);
  
  /**
 + * Get the name of a codec.
 + * @return  a static string identifying the codec; never NULL
 + */
 +const char *avcodec_get_name(enum AVCodecID id);
 +
 +/**
   * @return a positive value if s is open (i.e. avcodec_open2() was called on it
   * with no corresponding avcodec_close()), 0 otherwise.
   */
diff --combined libavcodec/takdec.c
@@@ -2,20 -2,20 +2,20 @@@
   * TAK decoder
   * Copyright (c) 2012 Paul B Mahol
   *
 - * This file is part of Libav.
 + * This file is part of FFmpeg.
   *
 - * Libav is free software; you can redistribute it and/or
 + * FFmpeg is free software; you can redistribute it and/or
   * modify it under the terms of the GNU Lesser General Public
   * License as published by the Free Software Foundation; either
   * version 2.1 of the License, or (at your option) any later version.
   *
 - * Libav is distributed in the hope that it will be useful,
 + * FFmpeg is distributed in the hope that it will be useful,
   * but WITHOUT ANY WARRANTY; without even the implied warranty of
   * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
   * Lesser General Public License for more details.
   *
   * You should have received a copy of the GNU Lesser General Public
 - * License along with Libav; if not, write to the Free Software
 + * License along with FFmpeg; if not, write to the Free Software
   * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
   */
  
  #include "libavutil/internal.h"
  #include "libavutil/samplefmt.h"
  #include "tak.h"
 +#include "thread.h"
  #include "avcodec.h"
  #include "dsputil.h"
  #include "internal.h"
  #include "unary.h"
  
 -#define MAX_SUBFRAMES     8                         // max number of subframes per channel
 +#define MAX_SUBFRAMES     8                         ///< max number of subframes per channel
  #define MAX_PREDICTORS  256
  
  typedef struct MCDParam {
 -    int8_t present;                                 // decorrelation parameter availability for this channel
 -    int8_t index;                                   // index into array of decorrelation types
 +    int8_t present;                                 ///< decorrelation parameter availability for this channel
 +    int8_t index;                                   ///< index into array of decorrelation types
      int8_t chan1;
      int8_t chan2;
  } MCDParam;
  
  typedef struct TAKDecContext {
 -    AVCodecContext *avctx;                          // parent AVCodecContext
 +    AVCodecContext *avctx;                          ///< parent AVCodecContext
      DSPContext      dsp;
      TAKStreamInfo   ti;
 -    GetBitContext   gb;                             // bitstream reader initialized to start at the current frame
 +    GetBitContext   gb;                             ///< bitstream reader initialized to start at the current frame
  
      int             uval;
 -    int             nb_samples;                     // number of samples in the current frame
 +    int             nb_samples;                     ///< number of samples in the current frame
      uint8_t        *decode_buffer;
      unsigned int    decode_buffer_size;
 -    int32_t        *decoded[TAK_MAX_CHANNELS];      // decoded samples for each channel
 +    int32_t        *decoded[TAK_MAX_CHANNELS];      ///< decoded samples for each channel
  
      int8_t          lpc_mode[TAK_MAX_CHANNELS];
 -    int8_t          sample_shift[TAK_MAX_CHANNELS]; // shift applied to every sample in the channel
 +    int8_t          sample_shift[TAK_MAX_CHANNELS]; ///< shift applied to every sample in the channel
 +    int16_t         predictors[MAX_PREDICTORS];
 +    int             nb_subframes;                   ///< number of subframes in the current frame
 +    int16_t         subframe_len[MAX_SUBFRAMES];    ///< subframe length in samples
      int             subframe_scale;
  
 -    int8_t          dmode;                          // channel decorrelation type in the current frame
 +    int8_t          dmode;                          ///< channel decorrelation type in the current frame
  
 -    MCDParam        mcdparams[TAK_MAX_CHANNELS];    // multichannel decorrelation parameters
 +    MCDParam        mcdparams[TAK_MAX_CHANNELS];    ///< multichannel decorrelation parameters
  
 -    int16_t        *residues;
 -    unsigned int    residues_buf_size;
 +    int8_t          coding_mode[128];
 +    DECLARE_ALIGNED(16, int16_t, filter)[MAX_PREDICTORS];
 +    DECLARE_ALIGNED(16, int16_t, residues)[544];
  } TAKDecContext;
  
  static const int8_t mc_dmodes[] = { 1, 3, 4, 6, };
@@@ -137,9 -132,14 +137,9 @@@ static const struct CParam 
      { 0x1A, 0x1800000, 0x1800000, 0x6800000, 0xC000000 },
  };
  
 -static av_cold void tak_init_static_data(AVCodec *codec)
 -{
 -    ff_tak_init_crc();
 -}
 -
  static int set_bps_params(AVCodecContext *avctx)
  {
 -    switch (avctx->bits_per_coded_sample) {
 +    switch (avctx->bits_per_raw_sample) {
      case 8:
          avctx->sample_fmt = AV_SAMPLE_FMT_U8P;
          break;
          avctx->sample_fmt = AV_SAMPLE_FMT_S32P;
          break;
      default:
 -        av_log(avctx, AV_LOG_ERROR, "unsupported bits per sample: %d\n",
 -               avctx->bits_per_coded_sample);
 +        av_log(avctx, AV_LOG_ERROR, "invalid/unsupported bits per sample: %d\n",
 +               avctx->bits_per_raw_sample);
          return AVERROR_INVALIDDATA;
      }
 -    avctx->bits_per_raw_sample = avctx->bits_per_coded_sample;
  
      return 0;
  }
@@@ -174,7 -175,6 +174,7 @@@ static av_cold int tak_decode_init(AVCo
      ff_dsputil_init(&s->dsp, avctx);
  
      s->avctx = avctx;
 +    avctx->bits_per_raw_sample = avctx->bits_per_coded_sample;
  
      set_sample_rate_params(avctx);
  
@@@ -236,10 -236,10 +236,10 @@@ static void decode_lpc(int32_t *coeffs
      }
  }
  
 -static int decode_segment(GetBitContext *gb, int mode, int32_t *decoded,
 -                          int len)
 +static int decode_segment(TAKDecContext *s, int8_t mode, int32_t *decoded, int len)
  {
      struct CParam code;
 +    GetBitContext *gb = &s->gb;
      int i;
  
      if (!mode) {
@@@ -290,6 -290,7 +290,6 @@@ static int decode_residues(TAKDecContex
  
      if (get_bits1(gb)) {
          int wlength, rval;
 -        int coding_mode[128];
  
          wlength = length / s->uval;
  
          if (wlength <= 1 || wlength > 128)
              return AVERROR_INVALIDDATA;
  
 -        coding_mode[0] = mode = get_bits(gb, 6);
 +        s->coding_mode[0] = mode = get_bits(gb, 6);
  
          for (i = 1; i < wlength; i++) {
              int c = get_unary(gb, 1, 6);
                  mode--;
                  break;
              }
 -            coding_mode[i] = mode;
 +            s->coding_mode[i] = mode;
          }
  
          i = 0;
          while (i < wlength) {
              int len = 0;
  
 -            mode = coding_mode[i];
 +            mode = s->coding_mode[i];
              do {
                  if (i >= wlength - 1)
                      len += rval;
  
                  if (i == wlength)
                      break;
 -            } while (coding_mode[i] == mode);
 +            } while (s->coding_mode[i] == mode);
  
 -            if ((ret = decode_segment(gb, mode, decoded, len)) < 0)
 +            if ((ret = decode_segment(s, mode, decoded, len)) < 0)
                  return ret;
              decoded += len;
          }
      } else {
          mode = get_bits(gb, 6);
 -        if ((ret = decode_segment(gb, mode, decoded, length)) < 0)
 +        if ((ret = decode_segment(s, mode, decoded, length)) < 0)
              return ret;
      }
  
@@@ -367,13 -368,62 +367,13 @@@ static int get_bits_esc4(GetBitContext 
          return 0;
  }
  
 -static void decode_filter_coeffs(TAKDecContext *s, int filter_order, int size,
 -                                 int filter_quant, int16_t *filter)
 -{
 -    GetBitContext *gb = &s->gb;
 -    int i, j, a, b;
 -    int filter_tmp[MAX_PREDICTORS];
 -    int16_t predictors[MAX_PREDICTORS];
 -
 -    predictors[0] = get_sbits(gb, 10);
 -    predictors[1] = get_sbits(gb, 10);
 -    predictors[2] = get_sbits(gb, size) << (10 - size);
 -    predictors[3] = get_sbits(gb, size) << (10 - size);
 -    if (filter_order > 4) {
 -        int av_uninit(code_size);
 -        int code_size_base = size - get_bits1(gb);
 -
 -        for (i = 4; i < filter_order; i++) {
 -            if (!(i & 3))
 -                code_size = code_size_base - get_bits(gb, 2);
 -            predictors[i] = get_sbits(gb, code_size) << (10 - size);
 -        }
 -    }
 -
 -    filter_tmp[0] = predictors[0] << 6;
 -    for (i = 1; i < filter_order; i++) {
 -        int *p1 = &filter_tmp[0];
 -        int *p2 = &filter_tmp[i - 1];
 -
 -        for (j = 0; j < (i + 1) / 2; j++) {
 -            int tmp = *p1 + (predictors[i] * *p2 + 256 >> 9);
 -            *p2     = *p2 + (predictors[i] * *p1 + 256 >> 9);
 -            *p1     = tmp;
 -            p1++;
 -            p2--;
 -        }
 -
 -        filter_tmp[i] = predictors[i] << 6;
 -    }
 -
 -    a = 1 << (32 - (15 - filter_quant));
 -    b = 1 << ((15 - filter_quant) - 1);
 -    for (i = 0, j = filter_order - 1; i < filter_order / 2; i++, j--) {
 -        filter[j] = a - ((filter_tmp[i] + b) >> (15 - filter_quant));
 -        filter[i] = a - ((filter_tmp[j] + b) >> (15 - filter_quant));
 -    }
 -}
 -
  static int decode_subframe(TAKDecContext *s, int32_t *decoded,
                             int subframe_size, int prev_subframe_size)
  {
 -    LOCAL_ALIGNED_16(int16_t, filter, [MAX_PREDICTORS]);
      GetBitContext *gb = &s->gb;
 -    int i, ret;
 +    int tmp, x, y, i, j, ret = 0;
      int dshift, size, filter_quant, filter_order;
 -
 -    memset(filter, 0, MAX_PREDICTORS * sizeof(*filter));
 +    int tfilter[MAX_PREDICTORS];
  
      if (!get_bits1(gb))
          return decode_residues(s, decoded, subframe_size);
              return AVERROR_INVALIDDATA;
      }
  
 -    decode_filter_coeffs(s, filter_order, size, filter_quant, filter);
 +    s->predictors[0] = get_sbits(gb, 10);
 +    s->predictors[1] = get_sbits(gb, 10);
 +    s->predictors[2] = get_sbits(gb, size) << (10 - size);
 +    s->predictors[3] = get_sbits(gb, size) << (10 - size);
 +    if (filter_order > 4) {
 +        tmp = size - get_bits1(gb);
 +
 +        for (i = 4; i < filter_order; i++) {
 +            if (!(i & 3))
 +                x = tmp - get_bits(gb, 2);
 +            s->predictors[i] = get_sbits(gb, x) << (10 - size);
 +        }
 +    }
 +
 +    tfilter[0] = s->predictors[0] << 6;
 +    for (i = 1; i < filter_order; i++) {
 +        int32_t *p1 = &tfilter[0];
 +        int32_t *p2 = &tfilter[i - 1];
 +
 +        for (j = 0; j < (i + 1) / 2; j++) {
 +            x     = *p1 + (s->predictors[i] * *p2 + 256 >> 9);
 +            *p2  += s->predictors[i] * *p1 + 256 >> 9;
 +            *p1++ = x;
 +            p2--;
 +        }
 +
 +        tfilter[i] = s->predictors[i] << 6;
 +    }
 +
 +    x = 1 << (32 - (15 - filter_quant));
 +    y = 1 << ((15 - filter_quant) - 1);
 +    for (i = 0, j = filter_order - 1; i < filter_order / 2; i++, j--) {
 +        tmp = y + tfilter[j];
 +        s->filter[j] = x - ((tfilter[i] + y) >> (15 - filter_quant));
 +        s->filter[i] = x - ((tfilter[j] + y) >> (15 - filter_quant));
 +    }
  
      if ((ret = decode_residues(s, &decoded[filter_order],
                                 subframe_size - filter_order)) < 0)
          return ret;
  
 -    av_fast_malloc(&s->residues, &s->residues_buf_size,
 -                   FFALIGN(subframe_size + 16, 16) * sizeof(*s->residues));
 -    if (!s->residues)
 -        return AVERROR(ENOMEM);
 -    memset(s->residues, 0, s->residues_buf_size);
 -
      for (i = 0; i < filter_order; i++)
          s->residues[i] = *decoded++ >> dshift;
  
 -    for (i = 0; i < subframe_size - filter_order; i++) {
 -        int v = 1 << (filter_quant - 1);
 -
 -        v += s->dsp.scalarproduct_int16(&s->residues[i], filter,
 -                                        FFALIGN(filter_order, 16));
 +    y    = FF_ARRAY_ELEMS(s->residues) - filter_order;
 +    x    = subframe_size - filter_order;
 +    while (x > 0) {
 +        tmp = FFMIN(y, x);
 +
 +        for (i = 0; i < tmp; i++) {
 +            int v = 1 << (filter_quant - 1);
 +
 +            if (filter_order & -16)
 +                v += s->dsp.scalarproduct_int16(&s->residues[i], s->filter,
 +                                                filter_order & -16);
 +            for (j = filter_order & -16; j < filter_order; j += 4) {
 +                v += s->residues[i + j + 3] * s->filter[j + 3] +
 +                     s->residues[i + j + 2] * s->filter[j + 2] +
 +                     s->residues[i + j + 1] * s->filter[j + 1] +
 +                     s->residues[i + j    ] * s->filter[j    ];
 +            }
 +            v = (av_clip(v >> filter_quant, -8192, 8191) << dshift) - *decoded;
 +            *decoded++ = v;
 +            s->residues[filter_order + i] = v >> dshift;
 +        }
  
 -        v = (av_clip(v >> filter_quant, -8192, 8191) << dshift) - *decoded;
 -        *decoded++ = v;
 -        s->residues[filter_order + i] = v >> dshift;
 +        x -= tmp;
 +        if (x > 0)
 +            memcpy(s->residues, &s->residues[y], 2 * filter_order);
      }
  
      emms_c();
@@@ -498,42 -503,50 +498,42 @@@ static int decode_channel(TAKDecContex
      GetBitContext *gb     = &s->gb;
      int32_t *decoded      = s->decoded[chan];
      int left              = s->nb_samples - 1;
 -    int i, prev, ret, nb_subframes;
 -    int subframe_len[MAX_SUBFRAMES];
 +    int i = 0, ret, prev = 0;
  
      s->sample_shift[chan] = get_bits_esc4(gb);
 -    if (s->sample_shift[chan] >= avctx->bits_per_coded_sample)
 +    if (s->sample_shift[chan] >= avctx->bits_per_raw_sample)
          return AVERROR_INVALIDDATA;
  
 -    /* NOTE: TAK 2.2.0 appears to set the sample value to 0 if
 -     *       bits_per_coded_sample - sample_shift is 1, but this produces
 -     *       non-bit-exact output. Reading the 1 bit using get_sbits() instead
 -     *       of skipping it produces bit-exact output. This has been reported
 -     *       to the TAK author. */
 -    *decoded++        = get_sbits(gb,
 -                                  avctx->bits_per_coded_sample -
 -                                  s->sample_shift[chan]);
 +    *decoded++ = get_sbits(gb, avctx->bits_per_raw_sample - s->sample_shift[chan]);
      s->lpc_mode[chan] = get_bits(gb, 2);
 -    nb_subframes      = get_bits(gb, 3) + 1;
 +    s->nb_subframes   = get_bits(gb, 3) + 1;
  
 -    i = 0;
 -    if (nb_subframes > 1) {
 -        if (get_bits_left(gb) < (nb_subframes - 1) * 6)
 +    if (s->nb_subframes > 1) {
 +        if (get_bits_left(gb) < (s->nb_subframes - 1) * 6)
              return AVERROR_INVALIDDATA;
  
 -        prev = 0;
 -        for (; i < nb_subframes - 1; i++) {
 -            int subframe_end = get_bits(gb, 6) * s->subframe_scale;
 -            if (subframe_end <= prev)
 +        for (; i < s->nb_subframes - 1; i++) {
 +            int v = get_bits(gb, 6);
 +
 +            s->subframe_len[i] = (v - prev) * s->subframe_scale;
 +            if (s->subframe_len[i] <= 0)
                  return AVERROR_INVALIDDATA;
 -            subframe_len[i] = subframe_end - prev;
 -            left           -= subframe_len[i];
 -            prev            = subframe_end;
 +
 +            left -= s->subframe_len[i];
 +            prev  = v;
          }
  
          if (left <= 0)
              return AVERROR_INVALIDDATA;
      }
 -    subframe_len[i] = left;
 +    s->subframe_len[i] = left;
  
      prev = 0;
 -    for (i = 0; i < nb_subframes; i++) {
 -        if ((ret = decode_subframe(s, decoded, subframe_len[i], prev)) < 0)
 +    for (i = 0; i < s->nb_subframes; i++) {
 +        if ((ret = decode_subframe(s, decoded, s->subframe_len[i], prev)) < 0)
              return ret;
 -        decoded += subframe_len[i];
 -        prev     = subframe_len[i];
 +        decoded += s->subframe_len[i];
 +        prev     = s->subframe_len[i];
      }
  
      return 0;
@@@ -586,8 -599,11 +586,8 @@@ static int decorrelate(TAKDecContext *s
      case 6:
          FFSWAP(int32_t*, p1, p2);
      case 7: {
 -        LOCAL_ALIGNED_16(int16_t, filter, [MAX_PREDICTORS]);
          int length2, order_half, filter_order, dval1, dval2;
 -        int av_uninit(code_size);
 -
 -        memset(filter, 0, MAX_PREDICTORS * sizeof(*filter));
 +        int tmp, x, code_size;
  
          if (length < 256)
              return AVERROR_INVALIDDATA;
          for (i = 0; i < filter_order; i++) {
              if (!(i & 3))
                  code_size = 14 - get_bits(gb, 3);
 -            filter[i] = get_sbits(gb, code_size);
 +            s->filter[i] = get_sbits(gb, code_size);
          }
  
          order_half = filter_order / 2;
              }
          }
  
 -        av_fast_malloc(&s->residues, &s->residues_buf_size,
 -                       FFALIGN(length + 16, 16) * sizeof(*s->residues));
 -        if (!s->residues)
 -            return AVERROR(ENOMEM);
 -        memset(s->residues, 0, s->residues_buf_size);
  
 -        for (i = 0; i < length; i++)
 -            s->residues[i] = p2[i] >> dshift;
 +        for (i = 0; i < filter_order; i++)
 +            s->residues[i] = *p2++ >> dshift;
  
          p1 += order_half;
 +        x = FF_ARRAY_ELEMS(s->residues) - filter_order;
 +        for (; length2 > 0; length2 -= tmp) {
 +            tmp = FFMIN(length2, x);
 +
 +            for (i = 0; i < tmp; i++)
 +                s->residues[filter_order + i] = *p2++ >> dshift;
 +
 +            for (i = 0; i < tmp; i++) {
 +                int v = 1 << 9;
 +
 +                if (filter_order == 16) {
 +                    v += s->dsp.scalarproduct_int16(&s->residues[i], s->filter,
 +                                                    filter_order);
 +                } else {
 +                    v += s->residues[i + 7] * s->filter[7] +
 +                         s->residues[i + 6] * s->filter[6] +
 +                         s->residues[i + 5] * s->filter[5] +
 +                         s->residues[i + 4] * s->filter[4] +
 +                         s->residues[i + 3] * s->filter[3] +
 +                         s->residues[i + 2] * s->filter[2] +
 +                         s->residues[i + 1] * s->filter[1] +
 +                         s->residues[i    ] * s->filter[0];
 +                }
  
 -        for (i = 0; i < length2; i++) {
 -            int v = 1 << 9;
 -
 -            v += s->dsp.scalarproduct_int16(&s->residues[i], filter,
 -                                            FFALIGN(filter_order, 16));
 +                v = (av_clip(v >> 10, -8192, 8191) << dshift) - *p1;
 +                *p1++ = v;
 +            }
  
 -            p1[i] = (av_clip(v >> 10, -8192, 8191) << dshift) - p1[i];
 +            memcpy(s->residues, &s->residues[tmp], 2 * filter_order);
          }
  
          emms_c();
@@@ -673,24 -673,28 +673,25 @@@ static int tak_decode_frame(AVCodecCont
  {
      TAKDecContext *s  = avctx->priv_data;
      AVFrame *frame    = data;
 +    ThreadFrame tframe = { .f = data };
      GetBitContext *gb = &s->gb;
      int chan, i, ret, hsize;
  
      if (pkt->size < TAK_MIN_FRAME_HEADER_BYTES)
          return AVERROR_INVALIDDATA;
  
 -    init_get_bits(gb, pkt->data, pkt->size * 8);
 +    if ((ret = init_get_bits8(gb, pkt->data, pkt->size)) < 0)
 +        return ret;
  
      if ((ret = ff_tak_decode_frame_header(avctx, gb, &s->ti, 0)) < 0)
          return ret;
  
 -    if (s->ti.flags & TAK_FRAME_FLAG_HAS_METADATA) {
 -        avpriv_request_sample(avctx, "Frame metadata");
 -        return AVERROR_PATCHWELCOME;
 -    }
 -
 -    hsize = get_bits_count(gb) / 8;
 -    if (avctx->err_recognition & AV_EF_CRCCHECK) {
 +    if (avctx->err_recognition & (AV_EF_CRCCHECK|AV_EF_COMPLIANT)) {
 +        hsize = get_bits_count(gb) / 8;
          if (ff_tak_check_crc(pkt->data, hsize)) {
              av_log(avctx, AV_LOG_ERROR, "CRC error\n");
-             return AVERROR_INVALIDDATA;
+             if (avctx->err_recognition & AV_EF_EXPLODE)
+                 return AVERROR_INVALIDDATA;
          }
      }
  
          return AVERROR_INVALIDDATA;
      }
  
 -    if (s->ti.bps != avctx->bits_per_coded_sample) {
 -        avctx->bits_per_coded_sample = s->ti.bps;
 +    if (s->ti.bps != avctx->bits_per_raw_sample) {
 +        avctx->bits_per_raw_sample = s->ti.bps;
          if ((ret = set_bps_params(avctx)) < 0)
              return ret;
      }
                                               : s->ti.frame_samples;
  
      frame->nb_samples = s->nb_samples;
 -    if ((ret = ff_get_buffer(avctx, frame, 0)) < 0)
 +    if ((ret = ff_thread_get_buffer(avctx, &tframe, 0)) < 0)
          return ret;
 +    ff_thread_finish_setup(avctx);
  
 -    if (avctx->bits_per_coded_sample <= 16) {
 +    if (avctx->bits_per_raw_sample <= 16) {
          int buf_size = av_samples_get_buffer_size(NULL, avctx->channels,
                                                    s->nb_samples,
                                                    AV_SAMPLE_FMT_S32P, 0);
          for (chan = 0; chan < avctx->channels; chan++) {
              int32_t *decoded = s->decoded[chan];
              for (i = 0; i < s->nb_samples; i++)
 -                decoded[i] = get_sbits(gb, avctx->bits_per_coded_sample);
 +                decoded[i] = get_sbits(gb, avctx->bits_per_raw_sample);
          }
      } else {
          if (s->ti.codec == TAK_CODEC_MONO_STEREO) {
                      return ret;
  
              if (avctx->channels == 2) {
 -                if (get_bits1(gb)) {
 -                    // some kind of subframe length, but it seems to be unused
 -                    skip_bits(gb, 6);
 +                s->nb_subframes = get_bits(gb, 1) + 1;
 +                if (s->nb_subframes > 1) {
 +                    s->subframe_len[1] = get_bits(gb, 6);
                  }
  
                  s->dmode = get_bits(gb, 3);
      else if (get_bits_left(gb) > 0)
          av_log(avctx, AV_LOG_DEBUG, "underread\n");
  
 -    if (avctx->err_recognition & AV_EF_CRCCHECK) {
 +    if (avctx->err_recognition & (AV_EF_CRCCHECK | AV_EF_COMPLIANT)) {
          if (ff_tak_check_crc(pkt->data + hsize,
                               get_bits_count(gb) / 8 - hsize)) {
              av_log(avctx, AV_LOG_ERROR, "CRC error\n");
-             return AVERROR_INVALIDDATA;
+             if (avctx->err_recognition & AV_EF_EXPLODE)
+                 return AVERROR_INVALIDDATA;
          }
      }
  
      return pkt->size;
  }
  
 +static int init_thread_copy(AVCodecContext *avctx)
 +{
 +    TAKDecContext *s = avctx->priv_data;
 +    s->avctx = avctx;
 +    return 0;
 +}
 +
 +static int update_thread_context(AVCodecContext *dst,
 +                                 const AVCodecContext *src)
 +{
 +    TAKDecContext *tsrc = src->priv_data;
 +    TAKDecContext *tdst = dst->priv_data;
 +
 +    if (dst == src)
 +        return 0;
 +    memcpy(&tdst->ti, &tsrc->ti, sizeof(TAKStreamInfo));
 +    return 0;
 +}
 +
  static av_cold int tak_decode_close(AVCodecContext *avctx)
  {
      TAKDecContext *s = avctx->priv_data;
  
      av_freep(&s->decode_buffer);
 -    av_freep(&s->residues);
  
      return 0;
  }
@@@ -936,11 -922,10 +938,11 @@@ AVCodec ff_tak_decoder = 
      .id               = AV_CODEC_ID_TAK,
      .priv_data_size   = sizeof(TAKDecContext),
      .init             = tak_decode_init,
 -    .init_static_data = tak_init_static_data,
      .close            = tak_decode_close,
      .decode           = tak_decode_frame,
 -    .capabilities     = CODEC_CAP_DR1,
 +    .init_thread_copy = ONLY_IF_THREADS_ENABLED(init_thread_copy),
 +    .update_thread_context = ONLY_IF_THREADS_ENABLED(update_thread_context),
 +    .capabilities     = CODEC_CAP_DR1 | CODEC_CAP_FRAME_THREADS,
      .sample_fmts      = (const enum AVSampleFormat[]) { AV_SAMPLE_FMT_U8P,
                                                          AV_SAMPLE_FMT_S16P,
                                                          AV_SAMPLE_FMT_S32P,
diff --combined libavcodec/tta.c
@@@ -2,20 -2,20 +2,20 @@@
   * TTA (The Lossless True Audio) decoder
   * Copyright (c) 2006 Alex Beregszaszi
   *
 - * This file is part of Libav.
 + * This file is part of FFmpeg.
   *
 - * Libav is free software; you can redistribute it and/or
 + * FFmpeg is free software; you can redistribute it and/or
   * modify it under the terms of the GNU Lesser General Public
   * License as published by the Free Software Foundation; either
   * version 2.1 of the License, or (at your option) any later version.
   *
 - * Libav is distributed in the hope that it will be useful,
 + * FFmpeg is distributed in the hope that it will be useful,
   * but WITHOUT ANY WARRANTY; without even the implied warranty of
   * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
   * Lesser General Public License for more details.
   *
   * You should have received a copy of the GNU Lesser General Public
 - * License along with Libav; if not, write to the Free Software
 + * License along with FFmpeg; if not, write to the Free Software
   * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
   */
  
  
  #define BITSTREAM_READER_LE
  #include <limits.h>
 +#include "ttadata.h"
  #include "avcodec.h"
  #include "get_bits.h"
 +#include "thread.h"
 +#include "unary.h"
  #include "internal.h"
  #include "libavutil/crc.h"
 +#include "libavutil/intreadwrite.h"
 +#include "libavutil/opt.h"
  
  #define FORMAT_SIMPLE    1
  #define FORMAT_ENCRYPTED 2
  
 -#define MAX_ORDER 16
 -typedef struct TTAFilter {
 -    int32_t shift, round, error;
 -    int32_t qm[MAX_ORDER];
 -    int32_t dx[MAX_ORDER];
 -    int32_t dl[MAX_ORDER];
 -} TTAFilter;
 -
 -typedef struct TTARice {
 -    uint32_t k0, k1, sum0, sum1;
 -} TTARice;
 -
 -typedef struct TTAChannel {
 -    int32_t predictor;
 -    TTAFilter filter;
 -    TTARice rice;
 -} TTAChannel;
 -
  typedef struct TTAContext {
 +    AVClass *class;
      AVCodecContext *avctx;
 -    GetBitContext gb;
      const AVCRC *crc_table;
  
      int format, channels, bps;
  
      int32_t *decode_buffer;
  
 +    uint8_t crc_pass[8];
 +    uint8_t *pass;
      TTAChannel *ch_ctx;
  } TTAContext;
  
 -static const uint32_t shift_1[] = {
 -    0x00000001, 0x00000002, 0x00000004, 0x00000008,
 -    0x00000010, 0x00000020, 0x00000040, 0x00000080,
 -    0x00000100, 0x00000200, 0x00000400, 0x00000800,
 -    0x00001000, 0x00002000, 0x00004000, 0x00008000,
 -    0x00010000, 0x00020000, 0x00040000, 0x00080000,
 -    0x00100000, 0x00200000, 0x00400000, 0x00800000,
 -    0x01000000, 0x02000000, 0x04000000, 0x08000000,
 -    0x10000000, 0x20000000, 0x40000000, 0x80000000,
 -    0x80000000, 0x80000000, 0x80000000, 0x80000000,
 -    0x80000000, 0x80000000, 0x80000000, 0x80000000
 -};
 -
 -static const uint32_t * const shift_16 = shift_1 + 4;
 -
 -static const int32_t ttafilter_configs[4] = {
 -    10,
 -    9,
 -    10,
 -    12
 -};
 -
 -static void ttafilter_init(TTAFilter *c, int32_t shift) {
 -    memset(c, 0, sizeof(TTAFilter));
 -    c->shift = shift;
 -   c->round = shift_1[shift-1];
 -//    c->round = 1 << (shift - 1);
 -}
 -
 -// FIXME: copy paste from original
 -static inline void memshl(register int32_t *a, register int32_t *b) {
 -    *a++ = *b++;
 -    *a++ = *b++;
 -    *a++ = *b++;
 -    *a++ = *b++;
 -    *a++ = *b++;
 -    *a++ = *b++;
 -    *a++ = *b++;
 -    *a = *b;
 -}
 -
  static inline void ttafilter_process(TTAFilter *c, int32_t *in)
  {
      register int32_t *dl = c->dl, *qm = c->qm, *dx = c->dx, sum = c->round;
  
 -    if (!c->error) {
 -        sum += *dl++ * *qm, qm++;
 -        sum += *dl++ * *qm, qm++;
 -        sum += *dl++ * *qm, qm++;
 -        sum += *dl++ * *qm, qm++;
 -        sum += *dl++ * *qm, qm++;
 -        sum += *dl++ * *qm, qm++;
 -        sum += *dl++ * *qm, qm++;
 -        sum += *dl++ * *qm, qm++;
 -        dx += 8;
 -    } else if(c->error < 0) {
 -        sum += *dl++ * (*qm -= *dx++), qm++;
 -        sum += *dl++ * (*qm -= *dx++), qm++;
 -        sum += *dl++ * (*qm -= *dx++), qm++;
 -        sum += *dl++ * (*qm -= *dx++), qm++;
 -        sum += *dl++ * (*qm -= *dx++), qm++;
 -        sum += *dl++ * (*qm -= *dx++), qm++;
 -        sum += *dl++ * (*qm -= *dx++), qm++;
 -        sum += *dl++ * (*qm -= *dx++), qm++;
 -    } else {
 -        sum += *dl++ * (*qm += *dx++), qm++;
 -        sum += *dl++ * (*qm += *dx++), qm++;
 -        sum += *dl++ * (*qm += *dx++), qm++;
 -        sum += *dl++ * (*qm += *dx++), qm++;
 -        sum += *dl++ * (*qm += *dx++), qm++;
 -        sum += *dl++ * (*qm += *dx++), qm++;
 -        sum += *dl++ * (*qm += *dx++), qm++;
 -        sum += *dl++ * (*qm += *dx++), qm++;
 +    if (c->error < 0) {
 +        qm[0] -= dx[0]; qm[1] -= dx[1]; qm[2] -= dx[2]; qm[3] -= dx[3];
 +        qm[4] -= dx[4]; qm[5] -= dx[5]; qm[6] -= dx[6]; qm[7] -= dx[7];
 +    } else if (c->error > 0) {
 +        qm[0] += dx[0]; qm[1] += dx[1]; qm[2] += dx[2]; qm[3] += dx[3];
 +        qm[4] += dx[4]; qm[5] += dx[5]; qm[6] += dx[6]; qm[7] += dx[7];
      }
  
 -    *(dx-0) = ((*(dl-1) >> 30) | 1) << 2;
 -    *(dx-1) = ((*(dl-2) >> 30) | 1) << 1;
 -    *(dx-2) = ((*(dl-3) >> 30) | 1) << 1;
 -    *(dx-3) = ((*(dl-4) >> 30) | 1);
 +    sum += dl[0] * qm[0] + dl[1] * qm[1] + dl[2] * qm[2] + dl[3] * qm[3] +
 +           dl[4] * qm[4] + dl[5] * qm[5] + dl[6] * qm[6] + dl[7] * qm[7];
 +
 +    dx[0] = dx[1]; dx[1] = dx[2]; dx[2] = dx[3]; dx[3] = dx[4];
 +    dl[0] = dl[1]; dl[1] = dl[2]; dl[2] = dl[3]; dl[3] = dl[4];
 +
 +    dx[4] = ((dl[4] >> 30) | 1);
 +    dx[5] = ((dl[5] >> 30) | 2) & ~1;
 +    dx[6] = ((dl[6] >> 30) | 2) & ~1;
 +    dx[7] = ((dl[7] >> 30) | 4) & ~3;
  
      c->error = *in;
      *in += (sum >> c->shift);
 -    *dl = *in;
 -
 -    *(dl-1) = *dl - *(dl-1);
 -    *(dl-2) = *(dl-1) - *(dl-2);
 -    *(dl-3) = *(dl-2) - *(dl-3);
  
 -    memshl(c->dl, c->dl + 1);
 -    memshl(c->dx, c->dx + 1);
 +    dl[4] = -dl[5]; dl[5] = -dl[6];
 +    dl[6] = *in - dl[7]; dl[7] = *in;
 +    dl[5] += dl[6]; dl[4] += dl[5];
  }
  
 -static void rice_init(TTARice *c, uint32_t k0, uint32_t k1)
 -{
 -    c->k0 = k0;
 -    c->k1 = k1;
 -    c->sum0 = shift_16[k0];
 -    c->sum1 = shift_16[k1];
 -}
 -
 -static int tta_get_unary(GetBitContext *gb)
 -{
 -    int ret = 0;
 -
 -    // count ones
 -    while (get_bits_left(gb) > 0 && get_bits1(gb))
 -        ret++;
 -    return ret;
 -}
 +static const int64_t tta_channel_layouts[7] = {
 +    AV_CH_LAYOUT_STEREO,
 +    AV_CH_LAYOUT_STEREO|AV_CH_LOW_FREQUENCY,
 +    AV_CH_LAYOUT_QUAD,
 +    0,
 +    AV_CH_LAYOUT_5POINT1_BACK,
 +    AV_CH_LAYOUT_5POINT1_BACK|AV_CH_BACK_CENTER,
 +    AV_CH_LAYOUT_7POINT1_WIDE
 +};
  
  static int tta_check_crc(TTAContext *s, const uint8_t *buf, int buf_size)
  {
      return 0;
  }
  
 +static uint64_t tta_check_crc64(uint8_t *pass)
 +{
 +    uint64_t crc = UINT64_MAX, poly = 0x42F0E1EBA9EA3693U;
 +    uint8_t *end = pass + strlen(pass);
 +    int i;
 +
 +    while (pass < end) {
 +        crc ^= (uint64_t)*pass++ << 56;
 +        for (i = 0; i < 8; i++)
 +            crc = (crc << 1) ^ (poly & (((int64_t) crc) >> 63));
 +    }
 +
 +    return crc ^ UINT64_MAX;
 +}
 +
 +static int allocate_buffers(AVCodecContext *avctx)
 +{
 +    TTAContext *s = avctx->priv_data;
 +
 +    if (s->bps < 3) {
 +        s->decode_buffer = av_mallocz(sizeof(int32_t)*s->frame_length*s->channels);
 +        if (!s->decode_buffer)
 +            return AVERROR(ENOMEM);
 +    } else
 +        s->decode_buffer = NULL;
 +    s->ch_ctx = av_malloc(avctx->channels * sizeof(*s->ch_ctx));
 +    if (!s->ch_ctx) {
 +        av_freep(&s->decode_buffer);
 +        return AVERROR(ENOMEM);
 +    }
 +
 +    return 0;
 +}
 +
  static av_cold int tta_decode_init(AVCodecContext * avctx)
  {
      TTAContext *s = avctx->priv_data;
 +    GetBitContext gb;
      int total_frames;
  
      s->avctx = avctx;
  
 -    // 30bytes includes a seektable with one frame
 -    if (avctx->extradata_size < 30)
 -        return -1;
 -
 -    init_get_bits(&s->gb, avctx->extradata, avctx->extradata_size * 8);
 -    if (show_bits_long(&s->gb, 32) == AV_RL32("TTA1"))
 -    {
 -        if (avctx->err_recognition & AV_EF_CRCCHECK) {
 -            s->crc_table = av_crc_get_table(AV_CRC_32_IEEE_LE);
 -            tta_check_crc(s, avctx->extradata, 18);
 -        }
 +    // 30bytes includes TTA1 header
 +    if (avctx->extradata_size < 22)
 +        return AVERROR_INVALIDDATA;
  
 +    s->crc_table = av_crc_get_table(AV_CRC_32_IEEE_LE);
 +    init_get_bits8(&gb, avctx->extradata, avctx->extradata_size);
 +    if (show_bits_long(&gb, 32) == AV_RL32("TTA1")) {
          /* signature */
 -        skip_bits_long(&s->gb, 32);
 +        skip_bits_long(&gb, 32);
  
 -        s->format = get_bits(&s->gb, 16);
 +        s->format = get_bits(&gb, 16);
          if (s->format > 2) {
 -            av_log(s->avctx, AV_LOG_ERROR, "Invalid format\n");
 -            return -1;
 +            av_log(avctx, AV_LOG_ERROR, "Invalid format\n");
 +            return AVERROR_INVALIDDATA;
          }
          if (s->format == FORMAT_ENCRYPTED) {
 -            avpriv_report_missing_feature(s->avctx, "Encrypted TTA");
 -            return AVERROR_PATCHWELCOME;
 +            if (!s->pass) {
 +                av_log(avctx, AV_LOG_ERROR, "Missing password for encrypted stream. Please use the -password option\n");
 +                return AVERROR(EINVAL);
 +            }
 +            AV_WL64(s->crc_pass, tta_check_crc64(s->pass));
          }
 -        avctx->channels = s->channels = get_bits(&s->gb, 16);
 -        avctx->bits_per_coded_sample = get_bits(&s->gb, 16);
 -        s->bps = (avctx->bits_per_coded_sample + 7) / 8;
 -        avctx->sample_rate = get_bits_long(&s->gb, 32);
 -        s->data_length = get_bits_long(&s->gb, 32);
 -        skip_bits_long(&s->gb, 32); // CRC32 of header
 +        avctx->channels = s->channels = get_bits(&gb, 16);
 +        if (s->channels > 1 && s->channels < 9)
 +            avctx->channel_layout = tta_channel_layouts[s->channels-2];
 +        avctx->bits_per_raw_sample = get_bits(&gb, 16);
 +        s->bps = (avctx->bits_per_raw_sample + 7) / 8;
 +        avctx->sample_rate = get_bits_long(&gb, 32);
 +        s->data_length = get_bits_long(&gb, 32);
 +        skip_bits_long(&gb, 32); // CRC32 of header
  
          if (s->channels == 0) {
 -            av_log(s->avctx, AV_LOG_ERROR, "Invalid number of channels\n");
 +            av_log(avctx, AV_LOG_ERROR, "Invalid number of channels\n");
              return AVERROR_INVALIDDATA;
          } else if (avctx->sample_rate == 0) {
 -            av_log(s->avctx, AV_LOG_ERROR, "Invalid samplerate\n");
 +            av_log(avctx, AV_LOG_ERROR, "Invalid samplerate\n");
              return AVERROR_INVALIDDATA;
          }
  
          switch(s->bps) {
 +        case 1: avctx->sample_fmt = AV_SAMPLE_FMT_U8; break;
          case 2:
              avctx->sample_fmt = AV_SAMPLE_FMT_S16;
 -            avctx->bits_per_raw_sample = 16;
              break;
          case 3:
              avctx->sample_fmt = AV_SAMPLE_FMT_S32;
 -            avctx->bits_per_raw_sample = 24;
              break;
 +        //case 4: avctx->sample_fmt = AV_SAMPLE_FMT_S32; break;
          default:
              av_log(avctx, AV_LOG_ERROR, "Invalid/unsupported sample format.\n");
              return AVERROR_INVALIDDATA;
          total_frames = s->data_length / s->frame_length +
                         (s->last_frame_length ? 1 : 0);
  
 -        av_log(s->avctx, AV_LOG_DEBUG, "format: %d chans: %d bps: %d rate: %d block: %d\n",
 +        av_log(avctx, AV_LOG_DEBUG, "format: %d chans: %d bps: %d rate: %d block: %d\n",
              s->format, avctx->channels, avctx->bits_per_coded_sample, avctx->sample_rate,
              avctx->block_align);
 -        av_log(s->avctx, AV_LOG_DEBUG, "data_length: %d frame_length: %d last: %d total: %d\n",
 +        av_log(avctx, AV_LOG_DEBUG, "data_length: %d frame_length: %d last: %d total: %d\n",
              s->data_length, s->frame_length, s->last_frame_length, total_frames);
  
 -        // FIXME: seek table
 -        if (avctx->extradata_size <= 26 || total_frames > INT_MAX / 4 ||
 -            avctx->extradata_size - 26 < total_frames * 4)
 -            av_log(avctx, AV_LOG_WARNING, "Seek table missing or too small\n");
 -        else if (avctx->err_recognition & AV_EF_CRCCHECK) {
 -            int ret = tta_check_crc(s, avctx->extradata + 22, total_frames * 4);
 -            if (ret < 0 && avctx->err_recognition & AV_EF_EXPLODE)
 -                return AVERROR_INVALIDDATA;
 -        }
 -        skip_bits_long(&s->gb, 32 * total_frames);
 -        skip_bits_long(&s->gb, 32); // CRC32 of seektable
 -
          if(s->frame_length >= UINT_MAX / (s->channels * sizeof(int32_t))){
              av_log(avctx, AV_LOG_ERROR, "frame_length too large\n");
 -            return -1;
 -        }
 -
 -        if (s->bps == 2) {
 -            s->decode_buffer = av_mallocz(sizeof(int32_t)*s->frame_length*s->channels);
 -            if (!s->decode_buffer)
 -                return AVERROR(ENOMEM);
 -        }
 -        s->ch_ctx = av_malloc(avctx->channels * sizeof(*s->ch_ctx));
 -        if (!s->ch_ctx) {
 -            av_freep(&s->decode_buffer);
 -            return AVERROR(ENOMEM);
 +            return AVERROR_INVALIDDATA;
          }
      } else {
          av_log(avctx, AV_LOG_ERROR, "Wrong extradata present\n");
 -        return -1;
 +        return AVERROR_INVALIDDATA;
      }
  
 -    return 0;
 +    return allocate_buffers(avctx);
  }
  
  static int tta_decode_frame(AVCodecContext *avctx, void *data,
                              int *got_frame_ptr, AVPacket *avpkt)
  {
      AVFrame *frame     = data;
 +    ThreadFrame tframe = { .f = data };
      const uint8_t *buf = avpkt->data;
      int buf_size = avpkt->size;
      TTAContext *s = avctx->priv_data;
 +    GetBitContext gb;
      int i, ret;
      int cur_chan = 0, framelen = s->frame_length;
      int32_t *p;
  
      if (avctx->err_recognition & AV_EF_CRCCHECK) {
-         if (buf_size < 4 || tta_check_crc(s, buf, buf_size - 4))
+         if (buf_size < 4 ||
+             (tta_check_crc(s, buf, buf_size - 4) && avctx->err_recognition & AV_EF_EXPLODE))
              return AVERROR_INVALIDDATA;
      }
  
 -    init_get_bits(&s->gb, buf, buf_size*8);
 +    if ((ret = init_get_bits8(&gb, avpkt->data, avpkt->size)) < 0)
 +        return ret;
  
      /* get output buffer */
      frame->nb_samples = framelen;
 -    if ((ret = ff_get_buffer(avctx, frame, 0)) < 0) {
 -        av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 +    if ((ret = ff_thread_get_buffer(avctx, &tframe, 0)) < 0)
          return ret;
 -    }
  
      // decode directly to output buffer for 24-bit sample format
      if (s->bps == 3)
  
      // init per channel states
      for (i = 0; i < s->channels; i++) {
 +        TTAFilter *filter = &s->ch_ctx[i].filter;
          s->ch_ctx[i].predictor = 0;
 -        ttafilter_init(&s->ch_ctx[i].filter, ttafilter_configs[s->bps-1]);
 -        rice_init(&s->ch_ctx[i].rice, 10, 10);
 +        ff_tta_filter_init(filter, ff_tta_filter_configs[s->bps-1]);
 +        if (s->format == FORMAT_ENCRYPTED) {
 +            int i;
 +            for (i = 0; i < 8; i++)
 +                filter->qm[i] = sign_extend(s->crc_pass[i], 8);
 +        }
 +        ff_tta_rice_init(&s->ch_ctx[i].rice, 10, 10);
      }
  
      i = 0;
          uint32_t unary, depth, k;
          int32_t value;
  
 -        unary = tta_get_unary(&s->gb);
 +        unary = get_unary(&gb, 0, get_bits_left(&gb));
  
          if (unary == 0) {
              depth = 0;
              unary--;
          }
  
 -        if (get_bits_left(&s->gb) < k) {
 +        if (get_bits_left(&gb) < k) {
              ret = AVERROR_INVALIDDATA;
              goto error;
          }
                  ret = AVERROR_INVALIDDATA;
                  goto error;
              }
 -            value = (unary << k) + get_bits(&s->gb, k);
 +            value = (unary << k) + get_bits(&gb, k);
          } else
              value = unary;
  
          switch (depth) {
          case 1:
              rice->sum1 += value - (rice->sum1 >> 4);
 -            if (rice->k1 > 0 && rice->sum1 < shift_16[rice->k1])
 +            if (rice->k1 > 0 && rice->sum1 < ff_tta_shift_16[rice->k1])
                  rice->k1--;
 -            else if(rice->sum1 > shift_16[rice->k1 + 1])
 +            else if(rice->sum1 > ff_tta_shift_16[rice->k1 + 1])
                  rice->k1++;
 -            value += shift_1[rice->k0];
 +            value += ff_tta_shift_1[rice->k0];
          default:
              rice->sum0 += value - (rice->sum0 >> 4);
 -            if (rice->k0 > 0 && rice->sum0 < shift_16[rice->k0])
 +            if (rice->k0 > 0 && rice->sum0 < ff_tta_shift_16[rice->k0])
                  rice->k0--;
 -            else if(rice->sum0 > shift_16[rice->k0 + 1])
 +            else if(rice->sum0 > ff_tta_shift_16[rice->k0 + 1])
                  rice->k0++;
          }
  
              cur_chan = 0;
              i++;
              // check for last frame
 -            if (i == s->last_frame_length && get_bits_left(&s->gb) / 8 == 4) {
 +            if (i == s->last_frame_length && get_bits_left(&gb) / 8 == 4) {
                  frame->nb_samples = framelen = s->last_frame_length;
                  break;
              }
          }
      }
  
 -    align_get_bits(&s->gb);
 -    if (get_bits_left(&s->gb) < 32) {
 +    align_get_bits(&gb);
 +    if (get_bits_left(&gb) < 32) {
          ret = AVERROR_INVALIDDATA;
          goto error;
      }
 -    skip_bits_long(&s->gb, 32); // frame crc
 +    skip_bits_long(&gb, 32); // frame crc
  
      // convert to output buffer
 -    if (s->bps == 2) {
 +    switch (s->bps) {
 +    case 1: {
 +        uint8_t *samples = (uint8_t *)frame->data[0];
 +        for (p = s->decode_buffer; p < s->decode_buffer + (framelen * s->channels); p++)
 +            *samples++ = *p + 0x80;
 +        break;
 +        }
 +    case 2: {
          int16_t *samples = (int16_t *)frame->data[0];
          for (p = s->decode_buffer; p < s->decode_buffer + (framelen * s->channels); p++)
              *samples++ = *p;
 -    } else {
 +        break;
 +        }
 +    case 3: {
          // shift samples for 24-bit sample format
          int32_t *samples = (int32_t *)frame->data[0];
          for (i = 0; i < framelen * s->channels; i++)
              *samples++ <<= 8;
          // reset decode buffer
          s->decode_buffer = NULL;
 +        break;
 +        }
      }
  
      *got_frame_ptr = 1;
@@@ -408,38 -459,15 +409,38 @@@ error
      return ret;
  }
  
 +static int init_thread_copy(AVCodecContext *avctx)
 +{
 +    TTAContext *s = avctx->priv_data;
 +    s->avctx = avctx;
 +    return allocate_buffers(avctx);
 +}
 +
  static av_cold int tta_decode_close(AVCodecContext *avctx) {
      TTAContext *s = avctx->priv_data;
  
 -    av_free(s->decode_buffer);
 +    if (s->bps < 3)
 +        av_free(s->decode_buffer);
 +    s->decode_buffer = NULL;
      av_freep(&s->ch_ctx);
  
      return 0;
  }
  
 +#define OFFSET(x) offsetof(TTAContext, x)
 +#define DEC (AV_OPT_FLAG_DECODING_PARAM | AV_OPT_FLAG_AUDIO_PARAM)
 +static const AVOption options[] = {
 +    { "password", "Set decoding password", OFFSET(pass), AV_OPT_TYPE_STRING, { .str = NULL }, 0, 0, DEC },
 +    { NULL },
 +};
 +
 +static const AVClass tta_decoder_class = {
 +    .class_name = "TTA Decoder",
 +    .item_name  = av_default_item_name,
 +    .option     = options,
 +    .version    = LIBAVUTIL_VERSION_INT,
 +};
 +
  AVCodec ff_tta_decoder = {
      .name           = "tta",
      .long_name      = NULL_IF_CONFIG_SMALL("TTA (True Audio)"),
      .init           = tta_decode_init,
      .close          = tta_decode_close,
      .decode         = tta_decode_frame,
 -    .capabilities   = CODEC_CAP_DR1,
 +    .init_thread_copy = ONLY_IF_THREADS_ENABLED(init_thread_copy),
 +    .capabilities   = CODEC_CAP_DR1 | CODEC_CAP_FRAME_THREADS,
 +    .priv_class     = &tta_decoder_class,
  };
diff --combined libavcodec/wavpack.c
@@@ -2,20 -2,20 +2,20 @@@
   * WavPack lossless audio decoder
   * Copyright (c) 2006,2011 Konstantin Shishkov
   *
 - * This file is part of Libav.
 + * This file is part of FFmpeg.
   *
 - * Libav is free software; you can redistribute it and/or
 + * FFmpeg is free software; you can redistribute it and/or
   * modify it under the terms of the GNU Lesser General Public
   * License as published by the Free Software Foundation; either
   * version 2.1 of the License, or (at your option) any later version.
   *
 - * Libav is distributed in the hope that it will be useful,
 + * FFmpeg is distributed in the hope that it will be useful,
   * but WITHOUT ANY WARRANTY; without even the implied warranty of
   * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
   * Lesser General Public License for more details.
   *
   * You should have received a copy of the GNU Lesser General Public
 - * License along with Libav; if not, write to the Free Software
 + * License along with FFmpeg; if not, write to the Free Software
   * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
   */
  
  #include "avcodec.h"
  #include "get_bits.h"
  #include "internal.h"
 +#include "thread.h"
  #include "unary.h"
  #include "bytestream.h"
 +#include "wavpack.h"
  
  /**
   * @file
   * WavPack lossless audio decoder
   */
  
 -#define WV_HEADER_SIZE    32
 -
 -#define WV_MONO           0x00000004
 -#define WV_JOINT_STEREO   0x00000010
 -#define WV_FALSE_STEREO   0x40000000
 -
 -#define WV_HYBRID_MODE    0x00000008
 -#define WV_HYBRID_SHAPE   0x00000008
 -#define WV_HYBRID_BITRATE 0x00000200
 -#define WV_HYBRID_BALANCE 0x00000400
 -#define WV_INITIAL_BLOCK  0x00000800
 -#define WV_FINAL_BLOCK    0x00001000
 -
 -#define WV_SINGLE_BLOCK (WV_INITIAL_BLOCK | WV_FINAL_BLOCK)
 -
 -#define WV_FLT_SHIFT_ONES 0x01
 -#define WV_FLT_SHIFT_SAME 0x02
 -#define WV_FLT_SHIFT_SENT 0x04
 -#define WV_FLT_ZERO_SENT  0x08
 -#define WV_FLT_ZERO_SIGN  0x10
 -
 -enum WP_ID_Flags {
 -    WP_IDF_MASK   = 0x3F,
 -    WP_IDF_IGNORE = 0x20,
 -    WP_IDF_ODD    = 0x40,
 -    WP_IDF_LONG   = 0x80
 -};
 -
 -enum WP_ID {
 -    WP_ID_DUMMY = 0,
 -    WP_ID_ENCINFO,
 -    WP_ID_DECTERMS,
 -    WP_ID_DECWEIGHTS,
 -    WP_ID_DECSAMPLES,
 -    WP_ID_ENTROPY,
 -    WP_ID_HYBRID,
 -    WP_ID_SHAPING,
 -    WP_ID_FLOATINFO,
 -    WP_ID_INT32INFO,
 -    WP_ID_DATA,
 -    WP_ID_CORR,
 -    WP_ID_EXTRABITS,
 -    WP_ID_CHANINFO,
 -    WP_ID_SAMPLE_RATE = 0x27,
 -};
 -
  typedef struct SavedContext {
      int offset;
      int size;
      uint32_t crc;
  } SavedContext;
  
 -#define MAX_TERMS 16
 -
 -typedef struct Decorr {
 -    int delta;
 -    int value;
 -    int weightA;
 -    int weightB;
 -    int samplesA[8];
 -    int samplesB[8];
 -} Decorr;
 -
 -typedef struct WvChannel {
 -    int median[3];
 -    int slow_level, error_limit;
 -    int bitrate_acc, bitrate_delta;
 -} WvChannel;
 -
  typedef struct WavpackFrameContext {
      AVCodecContext *avctx;
      int frame_flags;
@@@ -83,8 -144,102 +83,8 @@@ typedef struct WavpackContext 
      int ch_offset;
  } WavpackContext;
  
 -static const int wv_rates[16] = {
 -     6000,  8000,  9600, 11025, 12000, 16000,  22050, 24000,
 -    32000, 44100, 48000, 64000, 88200, 96000, 192000,     0
 -};
 -
 -// exponent table copied from WavPack source
 -static const uint8_t wp_exp2_table[256] = {
 -    0x00, 0x01, 0x01, 0x02, 0x03, 0x03, 0x04, 0x05, 0x06, 0x06, 0x07, 0x08, 0x08, 0x09, 0x0a, 0x0b,
 -    0x0b, 0x0c, 0x0d, 0x0e, 0x0e, 0x0f, 0x10, 0x10, 0x11, 0x12, 0x13, 0x13, 0x14, 0x15, 0x16, 0x16,
 -    0x17, 0x18, 0x19, 0x19, 0x1a, 0x1b, 0x1c, 0x1d, 0x1d, 0x1e, 0x1f, 0x20, 0x20, 0x21, 0x22, 0x23,
 -    0x24, 0x24, 0x25, 0x26, 0x27, 0x28, 0x28, 0x29, 0x2a, 0x2b, 0x2c, 0x2c, 0x2d, 0x2e, 0x2f, 0x30,
 -    0x30, 0x31, 0x32, 0x33, 0x34, 0x35, 0x35, 0x36, 0x37, 0x38, 0x39, 0x3a, 0x3a, 0x3b, 0x3c, 0x3d,
 -    0x3e, 0x3f, 0x40, 0x41, 0x41, 0x42, 0x43, 0x44, 0x45, 0x46, 0x47, 0x48, 0x48, 0x49, 0x4a, 0x4b,
 -    0x4c, 0x4d, 0x4e, 0x4f, 0x50, 0x51, 0x51, 0x52, 0x53, 0x54, 0x55, 0x56, 0x57, 0x58, 0x59, 0x5a,
 -    0x5b, 0x5c, 0x5d, 0x5e, 0x5e, 0x5f, 0x60, 0x61, 0x62, 0x63, 0x64, 0x65, 0x66, 0x67, 0x68, 0x69,
 -    0x6a, 0x6b, 0x6c, 0x6d, 0x6e, 0x6f, 0x70, 0x71, 0x72, 0x73, 0x74, 0x75, 0x76, 0x77, 0x78, 0x79,
 -    0x7a, 0x7b, 0x7c, 0x7d, 0x7e, 0x7f, 0x80, 0x81, 0x82, 0x83, 0x84, 0x85, 0x87, 0x88, 0x89, 0x8a,
 -    0x8b, 0x8c, 0x8d, 0x8e, 0x8f, 0x90, 0x91, 0x92, 0x93, 0x95, 0x96, 0x97, 0x98, 0x99, 0x9a, 0x9b,
 -    0x9c, 0x9d, 0x9f, 0xa0, 0xa1, 0xa2, 0xa3, 0xa4, 0xa5, 0xa6, 0xa8, 0xa9, 0xaa, 0xab, 0xac, 0xad,
 -    0xaf, 0xb0, 0xb1, 0xb2, 0xb3, 0xb4, 0xb6, 0xb7, 0xb8, 0xb9, 0xba, 0xbc, 0xbd, 0xbe, 0xbf, 0xc0,
 -    0xc2, 0xc3, 0xc4, 0xc5, 0xc6, 0xc8, 0xc9, 0xca, 0xcb, 0xcd, 0xce, 0xcf, 0xd0, 0xd2, 0xd3, 0xd4,
 -    0xd6, 0xd7, 0xd8, 0xd9, 0xdb, 0xdc, 0xdd, 0xde, 0xe0, 0xe1, 0xe2, 0xe4, 0xe5, 0xe6, 0xe8, 0xe9,
 -    0xea, 0xec, 0xed, 0xee, 0xf0, 0xf1, 0xf2, 0xf4, 0xf5, 0xf6, 0xf8, 0xf9, 0xfa, 0xfc, 0xfd, 0xff
 -};
 -
 -static const uint8_t wp_log2_table [] = {
 -    0x00, 0x01, 0x03, 0x04, 0x06, 0x07, 0x09, 0x0a, 0x0b, 0x0d, 0x0e, 0x10, 0x11, 0x12, 0x14, 0x15,
 -    0x16, 0x18, 0x19, 0x1a, 0x1c, 0x1d, 0x1e, 0x20, 0x21, 0x22, 0x24, 0x25, 0x26, 0x28, 0x29, 0x2a,
 -    0x2c, 0x2d, 0x2e, 0x2f, 0x31, 0x32, 0x33, 0x34, 0x36, 0x37, 0x38, 0x39, 0x3b, 0x3c, 0x3d, 0x3e,
 -    0x3f, 0x41, 0x42, 0x43, 0x44, 0x45, 0x47, 0x48, 0x49, 0x4a, 0x4b, 0x4d, 0x4e, 0x4f, 0x50, 0x51,
 -    0x52, 0x54, 0x55, 0x56, 0x57, 0x58, 0x59, 0x5a, 0x5c, 0x5d, 0x5e, 0x5f, 0x60, 0x61, 0x62, 0x63,
 -    0x64, 0x66, 0x67, 0x68, 0x69, 0x6a, 0x6b, 0x6c, 0x6d, 0x6e, 0x6f, 0x70, 0x71, 0x72, 0x74, 0x75,
 -    0x76, 0x77, 0x78, 0x79, 0x7a, 0x7b, 0x7c, 0x7d, 0x7e, 0x7f, 0x80, 0x81, 0x82, 0x83, 0x84, 0x85,
 -    0x86, 0x87, 0x88, 0x89, 0x8a, 0x8b, 0x8c, 0x8d, 0x8e, 0x8f, 0x90, 0x91, 0x92, 0x93, 0x94, 0x95,
 -    0x96, 0x97, 0x98, 0x99, 0x9a, 0x9b, 0x9b, 0x9c, 0x9d, 0x9e, 0x9f, 0xa0, 0xa1, 0xa2, 0xa3, 0xa4,
 -    0xa5, 0xa6, 0xa7, 0xa8, 0xa9, 0xa9, 0xaa, 0xab, 0xac, 0xad, 0xae, 0xaf, 0xb0, 0xb1, 0xb2, 0xb2,
 -    0xb3, 0xb4, 0xb5, 0xb6, 0xb7, 0xb8, 0xb9, 0xb9, 0xba, 0xbb, 0xbc, 0xbd, 0xbe, 0xbf, 0xc0, 0xc0,
 -    0xc1, 0xc2, 0xc3, 0xc4, 0xc5, 0xc6, 0xc6, 0xc7, 0xc8, 0xc9, 0xca, 0xcb, 0xcb, 0xcc, 0xcd, 0xce,
 -    0xcf, 0xd0, 0xd0, 0xd1, 0xd2, 0xd3, 0xd4, 0xd4, 0xd5, 0xd6, 0xd7, 0xd8, 0xd8, 0xd9, 0xda, 0xdb,
 -    0xdc, 0xdc, 0xdd, 0xde, 0xdf, 0xe0, 0xe0, 0xe1, 0xe2, 0xe3, 0xe4, 0xe4, 0xe5, 0xe6, 0xe7, 0xe7,
 -    0xe8, 0xe9, 0xea, 0xea, 0xeb, 0xec, 0xed, 0xee, 0xee, 0xef, 0xf0, 0xf1, 0xf1, 0xf2, 0xf3, 0xf4,
 -    0xf4, 0xf5, 0xf6, 0xf7, 0xf7, 0xf8, 0xf9, 0xf9, 0xfa, 0xfb, 0xfc, 0xfc, 0xfd, 0xfe, 0xff, 0xff
 -};
 -
 -static av_always_inline int wp_exp2(int16_t val)
 -{
 -    int res, neg = 0;
 -
 -    if (val < 0) {
 -        val = -val;
 -        neg = 1;
 -    }
 -
 -    res   = wp_exp2_table[val & 0xFF] | 0x100;
 -    val >>= 8;
 -    res   = (val > 9) ? (res << (val - 9)) : (res >> (9 - val));
 -    return neg ? -res : res;
 -}
 -
 -static av_always_inline int wp_log2(int32_t val)
 -{
 -    int bits;
 -
 -    if (!val)
 -        return 0;
 -    if (val == 1)
 -        return 256;
 -    val += val >> 9;
 -    bits = av_log2(val) + 1;
 -    if (bits < 9)
 -        return (bits << 8) + wp_log2_table[(val << (9 - bits)) & 0xFF];
 -    else
 -        return (bits << 8) + wp_log2_table[(val >> (bits - 9)) & 0xFF];
 -}
 -
  #define LEVEL_DECAY(a)  ((a + 0x80) >> 8)
  
 -// macros for manipulating median values
 -#define GET_MED(n) ((c->median[n] >> 4) + 1)
 -#define DEC_MED(n) c->median[n] -= ((c->median[n] + (128 >> n) - 2) / (128 >> n)) * 2
 -#define INC_MED(n) c->median[n] += ((c->median[n] + (128 >> n)    ) / (128 >> n)) * 5
 -
 -// macros for applying weight
 -#define UPDATE_WEIGHT_CLIP(weight, delta, samples, in) \
 -    if (samples && in) { \
 -        if ((samples ^ in) < 0) { \
 -            weight -= delta; \
 -            if (weight < -1024) \
 -                weight = -1024; \
 -        } else { \
 -            weight += delta; \
 -            if (weight > 1024) \
 -                weight = 1024; \
 -        } \
 -    }
 -
  static av_always_inline int get_tail(GetBitContext *gb, int k)
  {
      int p, e, res;
@@@ -226,10 -381,6 +226,10 @@@ static int wv_get_value(WavpackFrameCon
          INC_MED(2);
      }
      if (!c->error_limit) {
 +        if (add >= 0x2000000U) {
 +            av_log(ctx->avctx, AV_LOG_ERROR, "k %d is too large\n", add);
 +            goto error;
 +        }
          ret = base + get_tail(gb, add);
          if (get_bits_left(gb) <= 0)
              goto error;
@@@ -548,9 -699,11 +548,11 @@@ static inline int wv_unpack_mono(Wavpac
      } while (!last && count < s->samples);
  
      wv_reset_saved_context(s);
-     if ((s->avctx->err_recognition & AV_EF_CRCCHECK) &&
-         wv_check_crc(s, crc, crc_extra_bits))
-         return AVERROR_INVALIDDATA;
+     if (s->avctx->err_recognition & AV_EF_CRCCHECK) {
+         int ret = wv_check_crc(s, crc, crc_extra_bits);
+         if (ret < 0 && s->avctx->err_recognition & AV_EF_EXPLODE)
+             return ret;
+     }
  
      return 0;
  }
@@@ -570,13 -723,6 +572,13 @@@ static av_cold int wv_alloc_frame_conte
      return 0;
  }
  
 +static int init_thread_copy(AVCodecContext *avctx)
 +{
 +    WavpackContext *s = avctx->priv_data;
 +    s->avctx = avctx;
 +    return 0;
 +}
 +
  static av_cold int wavpack_decode_init(AVCodecContext *avctx)
  {
      WavpackContext *s = avctx->priv_data;
@@@ -604,7 -750,6 +606,7 @@@ static int wavpack_decode_block(AVCodec
                                  AVFrame *frame, const uint8_t *buf, int buf_size)
  {
      WavpackContext *wc = avctx->priv_data;
 +    ThreadFrame tframe = { .f = frame };
      WavpackFrameContext *s;
      GetByteContext gb;
      void *samples_l, *samples_r;
          case WP_ID_ENTROPY:
              if (size != 6 * (s->stereo_in + 1)) {
                  av_log(avctx, AV_LOG_ERROR,
 -                       "Entropy vars size should be %i, got %i",
 +                       "Entropy vars size should be %i, got %i.\n",
                         6 * (s->stereo_in + 1), size);
                  bytestream2_skip(&gb, ssize);
                  continue;
                  chmask = bytestream2_get_le24(&gb);
                  break;
              case 3:
 -                chmask = bytestream2_get_le32(&gb);;
 +                chmask = bytestream2_get_le32(&gb);
                  break;
              case 5:
                  bytestream2_skip(&gb, 1);
          }
  
          /* get output buffer */
 -        frame->nb_samples = s->samples;
 -        if ((ret = ff_get_buffer(avctx, frame, 0)) < 0) {
 -            av_log(avctx, AV_LOG_ERROR, "get_buffer() failed\n");
 +        frame->nb_samples = s->samples + 1;
 +        if ((ret = ff_thread_get_buffer(avctx, &tframe, 0)) < 0)
              return ret;
 -        }
 +        frame->nb_samples = s->samples;
      }
  
      if (wc->ch_offset + s->stereo >= avctx->channels) {
@@@ -1030,7 -1176,7 +1032,7 @@@ static int wavpack_decode_frame(AVCodec
      /* determine number of samples */
      s->samples  = AV_RL32(buf + 20);
      frame_flags = AV_RL32(buf + 24);
 -    if (s->samples <= 0) {
 +    if (s->samples <= 0 || s->samples > WV_MAX_SAMPLES) {
          av_log(avctx, AV_LOG_ERROR, "Invalid number of samples: %d\n",
                 s->samples);
          return AVERROR_INVALIDDATA;
@@@ -1088,6 -1234,5 +1090,6 @@@ AVCodec ff_wavpack_decoder = 
      .close          = wavpack_decode_end,
      .decode         = wavpack_decode_frame,
      .flush          = wavpack_decode_flush,
 -    .capabilities   = CODEC_CAP_DR1,
 +    .init_thread_copy = ONLY_IF_THREADS_ENABLED(init_thread_copy),
 +    .capabilities   = CODEC_CAP_DR1 | CODEC_CAP_FRAME_THREADS,
  };