Merge commit '8e18328b18e69b38a5feae5d10ad01b403a205b6'
authorJames Almer <jamrial@gmail.com>
Sat, 21 Oct 2017 18:37:34 +0000 (15:37 -0300)
committerJames Almer <jamrial@gmail.com>
Sat, 21 Oct 2017 18:37:34 +0000 (15:37 -0300)
* commit '8e18328b18e69b38a5feae5d10ad01b403a205b6':
  lavfi: Drop deprecated filter registration

Merged-by: James Almer <jamrial@gmail.com>
1  2 
libavfilter/avfilter.c
libavfilter/avfilter.h
libavfilter/version.h

diff --combined libavfilter/avfilter.c
@@@ -2,30 -2,28 +2,30 @@@
   * filter layer
   * Copyright (c) 2007 Bobby Bingham
   *
 - * This file is part of Libav.
 + * This file is part of FFmpeg.
   *
 - * Libav is free software; you can redistribute it and/or
 + * FFmpeg is free software; you can redistribute it and/or
   * modify it under the terms of the GNU Lesser General Public
   * License as published by the Free Software Foundation; either
   * version 2.1 of the License, or (at your option) any later version.
   *
 - * Libav is distributed in the hope that it will be useful,
 + * FFmpeg is distributed in the hope that it will be useful,
   * but WITHOUT ANY WARRANTY; without even the implied warranty of
   * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
   * Lesser General Public License for more details.
   *
   * You should have received a copy of the GNU Lesser General Public
 - * License along with Libav; if not, write to the Free Software
 + * License along with FFmpeg; if not, write to the Free Software
   * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
   */
  
 +#include "libavutil/atomic.h"
  #include "libavutil/avassert.h"
  #include "libavutil/avstring.h"
  #include "libavutil/buffer.h"
  #include "libavutil/channel_layout.h"
  #include "libavutil/common.h"
 +#include "libavutil/eval.h"
  #include "libavutil/hwcontext.h"
  #include "libavutil/imgutils.h"
  #include "libavutil/internal.h"
  #include "libavutil/rational.h"
  #include "libavutil/samplefmt.h"
  
 +#define FF_INTERNAL_FIELDS 1
 +#include "framequeue.h"
 +
  #include "audio.h"
  #include "avfilter.h"
 +#include "filters.h"
  #include "formats.h"
  #include "internal.h"
 -#include "video.h"
 +
 +#include "libavutil/ffversion.h"
 +const char av_filter_ffversion[] = "FFmpeg version " FFMPEG_VERSION;
 +
 +void ff_tlog_ref(void *ctx, AVFrame *ref, int end)
 +{
 +    av_unused char buf[16];
 +    ff_tlog(ctx,
 +            "ref[%p buf:%p data:%p linesize[%d, %d, %d, %d] pts:%"PRId64" pos:%"PRId64,
 +            ref, ref->buf, ref->data[0],
 +            ref->linesize[0], ref->linesize[1], ref->linesize[2], ref->linesize[3],
 +            ref->pts, ref->pkt_pos);
 +
 +    if (ref->width) {
 +        ff_tlog(ctx, " a:%d/%d s:%dx%d i:%c iskey:%d type:%c",
 +                ref->sample_aspect_ratio.num, ref->sample_aspect_ratio.den,
 +                ref->width, ref->height,
 +                !ref->interlaced_frame     ? 'P' :         /* Progressive  */
 +                ref->top_field_first ? 'T' : 'B',    /* Top / Bottom */
 +                ref->key_frame,
 +                av_get_picture_type_char(ref->pict_type));
 +    }
 +    if (ref->nb_samples) {
 +        ff_tlog(ctx, " cl:%"PRId64"d n:%d r:%d",
 +                ref->channel_layout,
 +                ref->nb_samples,
 +                ref->sample_rate);
 +    }
 +
 +    ff_tlog(ctx, "]%s", end ? "\n" : "");
 +}
  
  unsigned avfilter_version(void)
  {
 +    av_assert0(LIBAVFILTER_VERSION_MICRO >= 100);
      return LIBAVFILTER_VERSION_INT;
  }
  
  const char *avfilter_configuration(void)
  {
 -    return LIBAV_CONFIGURATION;
 +    return FFMPEG_CONFIGURATION;
  }
  
  const char *avfilter_license(void)
  {
  #define LICENSE_PREFIX "libavfilter license: "
 -    return LICENSE_PREFIX LIBAV_LICENSE + sizeof(LICENSE_PREFIX) - 1;
 +    return LICENSE_PREFIX FFMPEG_LICENSE + sizeof(LICENSE_PREFIX) - 1;
 +}
 +
 +void ff_command_queue_pop(AVFilterContext *filter)
 +{
 +    AVFilterCommand *c= filter->command_queue;
 +    av_freep(&c->arg);
 +    av_freep(&c->command);
 +    filter->command_queue= c->next;
 +    av_free(c);
  }
  
 -void ff_insert_pad(unsigned idx, unsigned *count, size_t padidx_off,
 +int ff_insert_pad(unsigned idx, unsigned *count, size_t padidx_off,
                     AVFilterPad **pads, AVFilterLink ***links,
                     AVFilterPad *newpad)
  {
 +    AVFilterLink **newlinks;
 +    AVFilterPad *newpads;
      unsigned i;
  
      idx = FFMIN(idx, *count);
  
 -    *pads  = av_realloc(*pads,  sizeof(AVFilterPad)   * (*count + 1));
 -    *links = av_realloc(*links, sizeof(AVFilterLink*) * (*count + 1));
 +    newpads  = av_realloc_array(*pads,  *count + 1, sizeof(AVFilterPad));
 +    newlinks = av_realloc_array(*links, *count + 1, sizeof(AVFilterLink*));
 +    if (newpads)
 +        *pads  = newpads;
 +    if (newlinks)
 +        *links = newlinks;
 +    if (!newpads || !newlinks)
 +        return AVERROR(ENOMEM);
 +
      memmove(*pads  + idx + 1, *pads  + idx, sizeof(AVFilterPad)   * (*count - idx));
      memmove(*links + idx + 1, *links + idx, sizeof(AVFilterLink*) * (*count - idx));
      memcpy(*pads + idx, newpad, sizeof(AVFilterPad));
  
      (*count)++;
      for (i = idx + 1; i < *count; i++)
 -        if (*links[i])
 -            (*(unsigned *)((uint8_t *) *links[i] + padidx_off))++;
 +        if ((*links)[i])
 +            (*(unsigned *)((uint8_t *) (*links)[i] + padidx_off))++;
 +
 +    return 0;
  }
  
  int avfilter_link(AVFilterContext *src, unsigned srcpad,
  {
      AVFilterLink *link;
  
 +    av_assert0(src->graph);
 +    av_assert0(dst->graph);
 +    av_assert0(src->graph == dst->graph);
 +
      if (src->nb_outputs <= srcpad || dst->nb_inputs <= dstpad ||
          src->outputs[srcpad]      || dst->inputs[dstpad])
          return AVERROR(EINVAL);
  
      if (src->output_pads[srcpad].type != dst->input_pads[dstpad].type) {
          av_log(src, AV_LOG_ERROR,
 -               "Media type mismatch between the '%s' filter output pad %d and the '%s' filter input pad %d\n",
 -               src->name, srcpad, dst->name, dstpad);
 +               "Media type mismatch between the '%s' filter output pad %d (%s) and the '%s' filter input pad %d (%s)\n",
 +               src->name, srcpad, (char *)av_x_if_null(av_get_media_type_string(src->output_pads[srcpad].type), "?"),
 +               dst->name, dstpad, (char *)av_x_if_null(av_get_media_type_string(dst-> input_pads[dstpad].type), "?"));
          return AVERROR(EINVAL);
      }
  
      link->srcpad  = &src->output_pads[srcpad];
      link->dstpad  = &dst->input_pads[dstpad];
      link->type    = src->output_pads[srcpad].type;
 -    assert(AV_PIX_FMT_NONE == -1 && AV_SAMPLE_FMT_NONE == -1);
 +    av_assert0(AV_PIX_FMT_NONE == -1 && AV_SAMPLE_FMT_NONE == -1);
      link->format  = -1;
 +    ff_framequeue_init(&link->fifo, &src->graph->internal->frame_queues);
  
      return 0;
  }
  
 +void avfilter_link_free(AVFilterLink **link)
 +{
 +    if (!*link)
 +        return;
 +
 +    av_frame_free(&(*link)->partial_buf);
 +    ff_framequeue_free(&(*link)->fifo);
 +    ff_frame_pool_uninit((FFFramePool**)&(*link)->frame_pool);
 +
 +    av_freep(link);
 +}
 +
 +int avfilter_link_get_channels(AVFilterLink *link)
 +{
 +    return link->channels;
 +}
 +
 +void ff_filter_set_ready(AVFilterContext *filter, unsigned priority)
 +{
 +    filter->ready = FFMAX(filter->ready, priority);
 +}
 +
 +/**
 + * Clear frame_blocked_in on all outputs.
 + * This is necessary whenever something changes on input.
 + */
 +static void filter_unblock(AVFilterContext *filter)
 +{
 +    unsigned i;
 +
 +    for (i = 0; i < filter->nb_outputs; i++)
 +        filter->outputs[i]->frame_blocked_in = 0;
 +}
 +
 +
 +void ff_avfilter_link_set_in_status(AVFilterLink *link, int status, int64_t pts)
 +{
 +    if (link->status_in == status)
 +        return;
 +    av_assert0(!link->status_in);
 +    link->status_in = status;
 +    link->status_in_pts = pts;
 +    link->frame_wanted_out = 0;
 +    link->frame_blocked_in = 0;
 +    filter_unblock(link->dst);
 +    ff_filter_set_ready(link->dst, 200);
 +}
 +
 +void ff_avfilter_link_set_out_status(AVFilterLink *link, int status, int64_t pts)
 +{
 +    av_assert0(!link->frame_wanted_out);
 +    av_assert0(!link->status_out);
 +    link->status_out = status;
 +    if (pts != AV_NOPTS_VALUE)
 +        ff_update_link_current_pts(link, pts);
 +    filter_unblock(link->dst);
 +    ff_filter_set_ready(link->src, 200);
 +}
 +
 +void avfilter_link_set_closed(AVFilterLink *link, int closed)
 +{
 +    ff_avfilter_link_set_out_status(link, closed ? AVERROR_EOF : 0, AV_NOPTS_VALUE);
 +}
 +
  int avfilter_insert_filter(AVFilterLink *link, AVFilterContext *filt,
                             unsigned filt_srcpad_idx, unsigned filt_dstpad_idx)
  {
@@@ -280,7 -153,6 +280,7 @@@ int avfilter_config_links(AVFilterConte
  
      for (i = 0; i < filter->nb_inputs; i ++) {
          AVFilterLink *link = filter->inputs[i];
 +        AVFilterLink *inlink;
  
          if (!link) continue;
          if (!link->src || !link->dst) {
              return AVERROR(EINVAL);
          }
  
 +        inlink = link->src->nb_inputs ? link->src->inputs[0] : NULL;
 +        link->current_pts =
 +        link->current_pts_us = AV_NOPTS_VALUE;
 +
          switch (link->init_state) {
          case AVLINK_INIT:
              continue;
                  return ret;
              }
  
 -            if (link->time_base.num == 0 && link->time_base.den == 0)
 -                link->time_base = link->src->nb_inputs ?
 -                    link->src->inputs[0]->time_base : AV_TIME_BASE_Q;
 +            switch (link->type) {
 +            case AVMEDIA_TYPE_VIDEO:
 +                if (!link->time_base.num && !link->time_base.den)
 +                    link->time_base = inlink ? inlink->time_base : AV_TIME_BASE_Q;
  
 -            if (link->type == AVMEDIA_TYPE_VIDEO) {
                  if (!link->sample_aspect_ratio.num && !link->sample_aspect_ratio.den)
 -                    link->sample_aspect_ratio = link->src->nb_inputs ?
 -                        link->src->inputs[0]->sample_aspect_ratio : (AVRational){1,1};
 +                    link->sample_aspect_ratio = inlink ?
 +                        inlink->sample_aspect_ratio : (AVRational){1,1};
  
 -                if (link->src->nb_inputs) {
 +                if (inlink) {
                      if (!link->frame_rate.num && !link->frame_rate.den)
 -                        link->frame_rate = link->src->inputs[0]->frame_rate;
 +                        link->frame_rate = inlink->frame_rate;
                      if (!link->w)
 -                        link->w = link->src->inputs[0]->w;
 +                        link->w = inlink->w;
                      if (!link->h)
 -                        link->h = link->src->inputs[0]->h;
 +                        link->h = inlink->h;
                  } else if (!link->w || !link->h) {
                      av_log(link->src, AV_LOG_ERROR,
                             "Video source filters must set their output link's "
                             "width and height\n");
                      return AVERROR(EINVAL);
                  }
 +                break;
 +
 +            case AVMEDIA_TYPE_AUDIO:
 +                if (inlink) {
 +                    if (!link->time_base.num && !link->time_base.den)
 +                        link->time_base = inlink->time_base;
 +                }
 +
 +                if (!link->time_base.num && !link->time_base.den)
 +                    link->time_base = (AVRational) {1, link->sample_rate};
              }
  
              if (link->src->nb_inputs && link->src->inputs[0]->hw_frames_ctx &&
      return 0;
  }
  
 -void ff_dlog_link(void *ctx, AVFilterLink *link, int end)
 +void ff_tlog_link(void *ctx, AVFilterLink *link, int end)
  {
      if (link->type == AVMEDIA_TYPE_VIDEO) {
 -        av_log(ctx, AV_LOG_TRACE,
 -                "link[%p s:%dx%d fmt:%-16s %-16s->%-16s]%s",
 +        ff_tlog(ctx,
 +                "link[%p s:%dx%d fmt:%s %s->%s]%s",
                  link, link->w, link->h,
                  av_get_pix_fmt_name(link->format),
                  link->src ? link->src->filter->name : "",
          char buf[128];
          av_get_channel_layout_string(buf, sizeof(buf), -1, link->channel_layout);
  
 -        av_log(ctx, AV_LOG_TRACE,
 -                "link[%p r:%d cl:%s fmt:%-16s %-16s->%-16s]%s",
 -                link, link->sample_rate, buf,
 +        ff_tlog(ctx,
 +                "link[%p r:%d cl:%s fmt:%s %s->%s]%s",
 +                link, (int)link->sample_rate, buf,
                  av_get_sample_fmt_name(link->format),
                  link->src ? link->src->filter->name : "",
                  link->dst ? link->dst->filter->name : "",
  
  int ff_request_frame(AVFilterLink *link)
  {
 -    FF_DPRINTF_START(NULL, request_frame); ff_dlog_link(NULL, link, 1);
 +    FF_TPRINTF_START(NULL, request_frame); ff_tlog_link(NULL, link, 1);
 +
 +    av_assert1(!link->dst->filter->activate);
 +    if (link->status_out)
 +        return link->status_out;
 +    if (link->status_in) {
 +        if (ff_framequeue_queued_frames(&link->fifo)) {
 +            av_assert1(!link->frame_wanted_out);
 +            av_assert1(link->dst->ready >= 300);
 +            return 0;
 +        } else {
 +            /* Acknowledge status change. Filters using ff_request_frame() will
 +               handle the change automatically. Filters can also check the
 +               status directly but none do yet. */
 +            ff_avfilter_link_set_out_status(link, link->status_in, link->status_in_pts);
 +            return link->status_out;
 +        }
 +    }
 +    link->frame_wanted_out = 1;
 +    ff_filter_set_ready(link->src, 100);
 +    return 0;
 +}
  
 +static int64_t guess_status_pts(AVFilterContext *ctx, int status, AVRational link_time_base)
 +{
 +    unsigned i;
 +    int64_t r = INT64_MAX;
 +
 +    for (i = 0; i < ctx->nb_inputs; i++)
 +        if (ctx->inputs[i]->status_out == status)
 +            r = FFMIN(r, av_rescale_q(ctx->inputs[i]->current_pts, ctx->inputs[i]->time_base, link_time_base));
 +    if (r < INT64_MAX)
 +        return r;
 +    av_log(ctx, AV_LOG_WARNING, "EOF timestamp not reliable\n");
 +    for (i = 0; i < ctx->nb_inputs; i++)
 +        r = FFMIN(r, av_rescale_q(ctx->inputs[i]->status_in_pts, ctx->inputs[i]->time_base, link_time_base));
 +    if (r < INT64_MAX)
 +        return r;
 +    return AV_NOPTS_VALUE;
 +}
 +
 +static int ff_request_frame_to_filter(AVFilterLink *link)
 +{
 +    int ret = -1;
 +
 +    FF_TPRINTF_START(NULL, request_frame_to_filter); ff_tlog_link(NULL, link, 1);
 +    /* Assume the filter is blocked, let the method clear it if not */
 +    link->frame_blocked_in = 1;
      if (link->srcpad->request_frame)
 -        return link->srcpad->request_frame(link);
 +        ret = link->srcpad->request_frame(link);
      else if (link->src->inputs[0])
 -        return ff_request_frame(link->src->inputs[0]);
 -    else
 -        return AVERROR(EINVAL);
 +        ret = ff_request_frame(link->src->inputs[0]);
 +    if (ret < 0) {
 +        if (ret != AVERROR(EAGAIN) && ret != link->status_in)
 +            ff_avfilter_link_set_in_status(link, ret, guess_status_pts(link->src, ret, link->time_base));
 +        if (ret == AVERROR_EOF)
 +            ret = 0;
 +    }
 +    return ret;
  }
  
  int ff_poll_frame(AVFilterLink *link)
      return min;
  }
  
 +static const char *const var_names[] = {
 +    "t",
 +    "n",
 +    "pos",
 +    "w",
 +    "h",
 +    NULL
 +};
 +
 +enum {
 +    VAR_T,
 +    VAR_N,
 +    VAR_POS,
 +    VAR_W,
 +    VAR_H,
 +    VAR_VARS_NB
 +};
 +
 +static int set_enable_expr(AVFilterContext *ctx, const char *expr)
 +{
 +    int ret;
 +    char *expr_dup;
 +    AVExpr *old = ctx->enable;
 +
 +    if (!(ctx->filter->flags & AVFILTER_FLAG_SUPPORT_TIMELINE)) {
 +        av_log(ctx, AV_LOG_ERROR, "Timeline ('enable' option) not supported "
 +               "with filter '%s'\n", ctx->filter->name);
 +        return AVERROR_PATCHWELCOME;
 +    }
 +
 +    expr_dup = av_strdup(expr);
 +    if (!expr_dup)
 +        return AVERROR(ENOMEM);
 +
 +    if (!ctx->var_values) {
 +        ctx->var_values = av_calloc(VAR_VARS_NB, sizeof(*ctx->var_values));
 +        if (!ctx->var_values) {
 +            av_free(expr_dup);
 +            return AVERROR(ENOMEM);
 +        }
 +    }
 +
 +    ret = av_expr_parse((AVExpr**)&ctx->enable, expr_dup, var_names,
 +                        NULL, NULL, NULL, NULL, 0, ctx->priv);
 +    if (ret < 0) {
 +        av_log(ctx->priv, AV_LOG_ERROR,
 +               "Error when evaluating the expression '%s' for enable\n",
 +               expr_dup);
 +        av_free(expr_dup);
 +        return ret;
 +    }
 +
 +    av_expr_free(old);
 +    av_free(ctx->enable_str);
 +    ctx->enable_str = expr_dup;
 +    return 0;
 +}
 +
 +void ff_update_link_current_pts(AVFilterLink *link, int64_t pts)
 +{
 +    if (pts == AV_NOPTS_VALUE)
 +        return;
 +    link->current_pts = pts;
 +    link->current_pts_us = av_rescale_q(pts, link->time_base, AV_TIME_BASE_Q);
 +    /* TODO use duration */
 +    if (link->graph && link->age_index >= 0)
 +        ff_avfilter_graph_update_heap(link->graph, link);
 +}
 +
 +int avfilter_process_command(AVFilterContext *filter, const char *cmd, const char *arg, char *res, int res_len, int flags)
 +{
 +    if(!strcmp(cmd, "ping")){
 +        char local_res[256] = {0};
 +
 +        if (!res) {
 +            res = local_res;
 +            res_len = sizeof(local_res);
 +        }
 +        av_strlcatf(res, res_len, "pong from:%s %s\n", filter->filter->name, filter->name);
 +        if (res == local_res)
 +            av_log(filter, AV_LOG_INFO, "%s", res);
 +        return 0;
 +    }else if(!strcmp(cmd, "enable")) {
 +        return set_enable_expr(filter, arg);
 +    }else if(filter->filter->process_command) {
 +        return filter->filter->process_command(filter, cmd, arg, res, res_len, flags);
 +    }
 +    return AVERROR(ENOSYS);
 +}
 +
  static AVFilter *first_filter;
 +static AVFilter **last_filter = &first_filter;
  
  #if !FF_API_NOCONST_GET_NAME
  const
@@@ -588,24 -304,18 +588,24 @@@ AVFilter *avfilter_get_by_name(const ch
  
      while ((f = avfilter_next(f)))
          if (!strcmp(f->name, name))
 -            return f;
 +            return (AVFilter *)f;
  
      return NULL;
  }
  
  int avfilter_register(AVFilter *filter)
  {
 -    AVFilter **f = &first_filter;
 -    while (*f)
 -        f = &(*f)->next;
 -    *f = filter;
 +    AVFilter **f = last_filter;
 +
 +    /* the filter must select generic or internal exclusively */
 +    av_assert0((filter->flags & AVFILTER_FLAG_SUPPORT_TIMELINE) != AVFILTER_FLAG_SUPPORT_TIMELINE);
 +
      filter->next = NULL;
 +
 +    while(*f || avpriv_atomic_ptr_cas((void * volatile *)f, NULL, filter))
 +        f = &(*f)->next;
 +    last_filter = &filter->next;
 +
      return 0;
  }
  
@@@ -614,17 -324,6 +614,6 @@@ const AVFilter *avfilter_next(const AVF
      return prev ? prev->next : first_filter;
  }
  
- #if FF_API_OLD_FILTER_REGISTER
- AVFilter **av_filter_next(AVFilter **filter)
- {
-     return filter ? &(*filter)->next : &first_filter;
- }
- void avfilter_uninit(void)
- {
- }
- #endif
  int avfilter_pad_count(const AVFilterPad *pads)
  {
      int count;
      return count;
  }
  
 -static const char *filter_name(void *p)
 +static const char *default_filter_name(void *filter_ctx)
  {
 -    AVFilterContext *filter = p;
 -    return filter->filter->name;
 +    AVFilterContext *ctx = filter_ctx;
 +    return ctx->name ? ctx->name : ctx->filter->name;
  }
  
  static void *filter_child_next(void *obj, void *prev)
@@@ -655,16 -354,10 +644,16 @@@ static const AVClass *filter_child_clas
  {
      const AVFilter *f = NULL;
  
 +    /* find the filter that corresponds to prev */
      while (prev && (f = avfilter_next(f)))
          if (f->priv_class == prev)
              break;
  
 +    /* could not find filter corresponding to prev */
 +    if (prev && !f)
 +        return NULL;
 +
 +    /* find next filter with specific options */
      while ((f = avfilter_next(f)))
          if (f->priv_class)
              return f->priv_class;
  }
  
  #define OFFSET(x) offsetof(AVFilterContext, x)
 -#define FLAGS AV_OPT_FLAG_VIDEO_PARAM
 +#define FLAGS AV_OPT_FLAG_FILTERING_PARAM
  static const AVOption avfilter_options[] = {
      { "thread_type", "Allowed thread types", OFFSET(thread_type), AV_OPT_TYPE_FLAGS,
          { .i64 = AVFILTER_THREAD_SLICE }, 0, INT_MAX, FLAGS, "thread_type" },
          { "slice", NULL, 0, AV_OPT_TYPE_CONST, { .i64 = AVFILTER_THREAD_SLICE }, .unit = "thread_type" },
 +    { "enable", "set enable expression", OFFSET(enable_str), AV_OPT_TYPE_STRING, {.str=NULL}, .flags = FLAGS },
 +    { "threads", "Allowed number of threads", OFFSET(nb_threads), AV_OPT_TYPE_INT,
 +        { .i64 = 0 }, 0, INT_MAX, FLAGS },
      { NULL },
  };
  
  static const AVClass avfilter_class = {
      .class_name = "AVFilter",
 -    .item_name  = filter_name,
 +    .item_name  = default_filter_name,
      .version    = LIBAVUTIL_VERSION_INT,
 +    .category   = AV_CLASS_CATEGORY_FILTER,
      .child_next = filter_child_next,
      .child_class_next = filter_child_class_next,
      .option           = avfilter_options,
@@@ -710,7 -399,6 +699,7 @@@ static int default_execute(AVFilterCont
  AVFilterContext *ff_filter_alloc(const AVFilter *filter, const char *inst_name)
  {
      AVFilterContext *ret;
 +    int preinited = 0;
  
      if (!filter)
          return NULL;
          if (!ret->priv)
              goto err;
      }
 +    if (filter->preinit) {
 +        if (filter->preinit(ret) < 0)
 +            goto err;
 +        preinited = 1;
 +    }
  
      av_opt_set_defaults(ret);
      if (filter->priv_class) {
  
      ret->nb_inputs = avfilter_pad_count(filter->inputs);
      if (ret->nb_inputs ) {
 -        ret->input_pads   = av_malloc(sizeof(AVFilterPad) * ret->nb_inputs);
 +        ret->input_pads   = av_malloc_array(ret->nb_inputs, sizeof(AVFilterPad));
          if (!ret->input_pads)
              goto err;
          memcpy(ret->input_pads, filter->inputs, sizeof(AVFilterPad) * ret->nb_inputs);
 -        ret->inputs       = av_mallocz(sizeof(AVFilterLink*) * ret->nb_inputs);
 +        ret->inputs       = av_mallocz_array(ret->nb_inputs, sizeof(AVFilterLink*));
          if (!ret->inputs)
              goto err;
      }
  
      ret->nb_outputs = avfilter_pad_count(filter->outputs);
      if (ret->nb_outputs) {
 -        ret->output_pads  = av_malloc(sizeof(AVFilterPad) * ret->nb_outputs);
 +        ret->output_pads  = av_malloc_array(ret->nb_outputs, sizeof(AVFilterPad));
          if (!ret->output_pads)
              goto err;
          memcpy(ret->output_pads, filter->outputs, sizeof(AVFilterPad) * ret->nb_outputs);
 -        ret->outputs      = av_mallocz(sizeof(AVFilterLink*) * ret->nb_outputs);
 +        ret->outputs      = av_mallocz_array(ret->nb_outputs, sizeof(AVFilterLink*));
          if (!ret->outputs)
              goto err;
      }
      return ret;
  
  err:
 +    if (preinited)
 +        filter->uninit(ret);
      av_freep(&ret->inputs);
      av_freep(&ret->input_pads);
      ret->nb_inputs = 0;
@@@ -801,16 -482,13 +790,16 @@@ static void free_link(AVFilterLink *lin
      ff_formats_unref(&link->out_samplerates);
      ff_channel_layouts_unref(&link->in_channel_layouts);
      ff_channel_layouts_unref(&link->out_channel_layouts);
 -    av_freep(&link);
 +    avfilter_link_free(&link);
  }
  
  void avfilter_free(AVFilterContext *filter)
  {
      int i;
  
 +    if (!filter)
 +        return;
 +
      if (filter->graph)
          ff_filter_graph_remove_filter(filter->graph, filter);
  
      av_freep(&filter->inputs);
      av_freep(&filter->outputs);
      av_freep(&filter->priv);
 +    while(filter->command_queue){
 +        ff_command_queue_pop(filter);
 +    }
 +    av_opt_free(filter);
 +    av_expr_free(filter->enable);
 +    filter->enable = NULL;
 +    av_freep(&filter->var_values);
      av_freep(&filter->internal);
      av_free(filter);
  }
  
 -/* process a list of value1:value2:..., each value corresponding
 - * to subsequent AVOption, in the order they are declared */
 -static int process_unnamed_options(AVFilterContext *ctx, AVDictionary **options,
 -                                   const char *args)
 +int ff_filter_get_nb_threads(AVFilterContext *ctx)
 +{
 +     if (ctx->nb_threads > 0)
 +         return FFMIN(ctx->nb_threads, ctx->graph->nb_threads);
 +     return ctx->graph->nb_threads;
 +}
 +
 +static int process_options(AVFilterContext *ctx, AVDictionary **options,
 +                           const char *args)
  {
      const AVOption *o = NULL;
 -    const char *p = args;
 -    char *val;
 +    int ret, count = 0;
 +    char *av_uninit(parsed_key), *av_uninit(value);
 +    const char *key;
 +    int offset= -1;
 +
 +    if (!args)
 +        return 0;
 +
 +    while (*args) {
 +        const char *shorthand = NULL;
  
 -    while (*p) {
          o = av_opt_next(ctx->priv, o);
 -        if (!o) {
 -            av_log(ctx, AV_LOG_ERROR, "More options provided than "
 -                   "this filter supports.\n");
 -            return AVERROR(EINVAL);
 +        if (o) {
 +            if (o->type == AV_OPT_TYPE_CONST || o->offset == offset)
 +                continue;
 +            offset = o->offset;
 +            shorthand = o->name;
          }
 -        if (o->type == AV_OPT_TYPE_CONST)
 -            continue;
  
 -        val = av_get_token(&p, ":");
 -        if (!val)
 -            return AVERROR(ENOMEM);
 +        ret = av_opt_get_key_value(&args, "=", ":",
 +                                   shorthand ? AV_OPT_FLAG_IMPLICIT_KEY : 0,
 +                                   &parsed_key, &value);
 +        if (ret < 0) {
 +            if (ret == AVERROR(EINVAL))
 +                av_log(ctx, AV_LOG_ERROR, "No option name near '%s'\n", args);
 +            else
 +                av_log(ctx, AV_LOG_ERROR, "Unable to parse '%s': %s\n", args,
 +                       av_err2str(ret));
 +            return ret;
 +        }
 +        if (*args)
 +            args++;
 +        if (parsed_key) {
 +            key = parsed_key;
 +            while ((o = av_opt_next(ctx->priv, o))); /* discard all remaining shorthand */
 +        } else {
 +            key = shorthand;
 +        }
  
 -        av_dict_set(options, o->name, val, 0);
 +        av_log(ctx, AV_LOG_DEBUG, "Setting '%s' to value '%s'\n", key, value);
  
 -        av_freep(&val);
 -        if (*p)
 -            p++;
 +        if (av_opt_find(ctx, key, NULL, 0, 0)) {
 +            ret = av_opt_set(ctx, key, value, 0);
 +            if (ret < 0) {
 +                av_free(value);
 +                av_free(parsed_key);
 +                return ret;
 +            }
 +        } else {
 +        av_dict_set(options, key, value, 0);
 +        if ((ret = av_opt_set(ctx->priv, key, value, AV_OPT_SEARCH_CHILDREN)) < 0) {
 +            if (!av_opt_find(ctx->priv, key, NULL, 0, AV_OPT_SEARCH_CHILDREN | AV_OPT_SEARCH_FAKE_OBJ)) {
 +            if (ret == AVERROR_OPTION_NOT_FOUND)
 +                av_log(ctx, AV_LOG_ERROR, "Option '%s' not found\n", key);
 +            av_free(value);
 +            av_free(parsed_key);
 +            return ret;
 +            }
 +        }
 +        }
 +
 +        av_free(value);
 +        av_free(parsed_key);
 +        count++;
      }
  
 -    return 0;
 +    if (ctx->enable_str) {
 +        ret = set_enable_expr(ctx, ctx->enable_str);
 +        if (ret < 0)
 +            return ret;
 +    }
 +    return count;
  }
  
  int avfilter_init_dict(AVFilterContext *ctx, AVDictionary **options)
      }
  
      if (ctx->filter->priv_class) {
 -        ret = av_opt_set_dict(ctx->priv, options);
 +        ret = av_opt_set_dict2(ctx->priv, options, AV_OPT_SEARCH_CHILDREN);
          if (ret < 0) {
              av_log(ctx, AV_LOG_ERROR, "Error applying options to the filter.\n");
              return ret;
          }
      }
  
 -    if (ctx->filter->init)
 +    if (ctx->filter->init_opaque)
 +        ret = ctx->filter->init_opaque(ctx, NULL);
 +    else if (ctx->filter->init)
          ret = ctx->filter->init(ctx);
      else if (ctx->filter->init_dict)
          ret = ctx->filter->init_dict(ctx, options);
@@@ -981,82 -598,13 +970,82 @@@ int avfilter_init_str(AVFilterContext *
              return AVERROR(EINVAL);
          }
  
 -        if (strchr(args, '=')) {
 -            /* assume a list of key1=value1:key2=value2:... */
 -            ret = av_dict_parse_string(&options, args, "=", ":", 0);
 +#if FF_API_OLD_FILTER_OPTS_ERROR
 +            if (   !strcmp(filter->filter->name, "format")     ||
 +                   !strcmp(filter->filter->name, "noformat")   ||
 +                   !strcmp(filter->filter->name, "frei0r")     ||
 +                   !strcmp(filter->filter->name, "frei0r_src") ||
 +                   !strcmp(filter->filter->name, "ocv")        ||
 +                   !strcmp(filter->filter->name, "pan")        ||
 +                   !strcmp(filter->filter->name, "pp")         ||
 +                   !strcmp(filter->filter->name, "aevalsrc")) {
 +            /* a hack for compatibility with the old syntax
 +             * replace colons with |s */
 +            char *copy = av_strdup(args);
 +            char *p    = copy;
 +            int nb_leading = 0; // number of leading colons to skip
 +            int deprecated = 0;
 +
 +            if (!copy) {
 +                ret = AVERROR(ENOMEM);
 +                goto fail;
 +            }
 +
 +            if (!strcmp(filter->filter->name, "frei0r") ||
 +                !strcmp(filter->filter->name, "ocv"))
 +                nb_leading = 1;
 +            else if (!strcmp(filter->filter->name, "frei0r_src"))
 +                nb_leading = 3;
 +
 +            while (nb_leading--) {
 +                p = strchr(p, ':');
 +                if (!p) {
 +                    p = copy + strlen(copy);
 +                    break;
 +                }
 +                p++;
 +            }
 +
 +            deprecated = strchr(p, ':') != NULL;
 +
 +            if (!strcmp(filter->filter->name, "aevalsrc")) {
 +                deprecated = 0;
 +                while ((p = strchr(p, ':')) && p[1] != ':') {
 +                    const char *epos = strchr(p + 1, '=');
 +                    const char *spos = strchr(p + 1, ':');
 +                    const int next_token_is_opt = epos && (!spos || epos < spos);
 +                    if (next_token_is_opt) {
 +                        p++;
 +                        break;
 +                    }
 +                    /* next token does not contain a '=', assume a channel expression */
 +                    deprecated = 1;
 +                    *p++ = '|';
 +                }
 +                if (p && *p == ':') { // double sep '::' found
 +                    deprecated = 1;
 +                    memmove(p, p + 1, strlen(p));
 +                }
 +            } else
 +            while ((p = strchr(p, ':')))
 +                *p++ = '|';
 +
 +            if (deprecated) {
 +                av_log(filter, AV_LOG_ERROR, "This syntax is deprecated. Use "
 +                       "'|' to separate the list items ('%s' instead of '%s')\n",
 +                       copy, args);
 +                ret = AVERROR(EINVAL);
 +            } else {
 +                ret = process_options(filter, &options, copy);
 +            }
 +            av_freep(&copy);
 +
              if (ret < 0)
                  goto fail;
 -        } else {
 -            ret = process_unnamed_options(filter, &options, args);
 +        } else
 +#endif
 +        {
 +            ret = process_options(filter, &options, args);
              if (ret < 0)
                  goto fail;
          }
@@@ -1093,577 -641,71 +1082,577 @@@ static int default_filter_frame(AVFilte
      return ff_filter_frame(link->dst->outputs[0], frame);
  }
  
 -int ff_filter_frame(AVFilterLink *link, AVFrame *frame)
 +static int ff_filter_frame_framed(AVFilterLink *link, AVFrame *frame)
  {
      int (*filter_frame)(AVFilterLink *, AVFrame *);
 +    AVFilterContext *dstctx = link->dst;
      AVFilterPad *dst = link->dstpad;
 -    AVFrame *out = NULL;
      int ret;
  
 -    FF_DPRINTF_START(NULL, filter_frame);
 -    ff_dlog_link(NULL, link, 1);
 -
      if (!(filter_frame = dst->filter_frame))
          filter_frame = default_filter_frame;
  
 -    /* copy the frame if needed */
 -    if (dst->needs_writable && !av_frame_is_writable(frame)) {
 -        av_log(link->dst, AV_LOG_DEBUG, "Copying data in avfilter.\n");
 -
 -        switch (link->type) {
 -        case AVMEDIA_TYPE_VIDEO:
 -            out = ff_get_video_buffer(link, link->w, link->h);
 -            break;
 -        case AVMEDIA_TYPE_AUDIO:
 -            out = ff_get_audio_buffer(link, frame->nb_samples);
 -            break;
 -        default:
 -            ret = AVERROR(EINVAL);
 +    if (dst->needs_writable) {
 +        ret = ff_inlink_make_frame_writable(link, &frame);
 +        if (ret < 0)
              goto fail;
 +    }
 +
 +    ff_inlink_process_commands(link, frame);
 +    dstctx->is_disabled = !ff_inlink_evaluate_timeline_at_frame(link, frame);
 +
 +    if (dstctx->is_disabled &&
 +        (dstctx->filter->flags & AVFILTER_FLAG_SUPPORT_TIMELINE_GENERIC))
 +        filter_frame = default_filter_frame;
 +    ret = filter_frame(link, frame);
 +    link->frame_count_out++;
 +    return ret;
 +
 +fail:
 +    av_frame_free(&frame);
 +    return ret;
 +}
 +
 +int ff_filter_frame(AVFilterLink *link, AVFrame *frame)
 +{
 +    int ret;
 +    FF_TPRINTF_START(NULL, filter_frame); ff_tlog_link(NULL, link, 1); ff_tlog(NULL, " "); ff_tlog_ref(NULL, frame, 1);
 +
 +    /* Consistency checks */
 +    if (link->type == AVMEDIA_TYPE_VIDEO) {
 +        if (strcmp(link->dst->filter->name, "buffersink") &&
 +            strcmp(link->dst->filter->name, "format") &&
 +            strcmp(link->dst->filter->name, "idet") &&
 +            strcmp(link->dst->filter->name, "null") &&
 +            strcmp(link->dst->filter->name, "scale")) {
 +            av_assert1(frame->format                 == link->format);
 +            av_assert1(frame->width               == link->w);
 +            av_assert1(frame->height               == link->h);
          }
 -        if (!out) {
 -            ret = AVERROR(ENOMEM);
 -            goto fail;
 +    } else {
 +        if (frame->format != link->format) {
 +            av_log(link->dst, AV_LOG_ERROR, "Format change is not supported\n");
 +            goto error;
 +        }
 +        if (frame->channels != link->channels) {
 +            av_log(link->dst, AV_LOG_ERROR, "Channel count change is not supported\n");
 +            goto error;
 +        }
 +        if (frame->channel_layout != link->channel_layout) {
 +            av_log(link->dst, AV_LOG_ERROR, "Channel layout change is not supported\n");
 +            goto error;
 +        }
 +        if (frame->sample_rate != link->sample_rate) {
 +            av_log(link->dst, AV_LOG_ERROR, "Sample rate change is not supported\n");
 +            goto error;
          }
 +    }
  
 -        ret = av_frame_copy_props(out, frame);
 -        if (ret < 0)
 -            goto fail;
 +    link->frame_blocked_in = link->frame_wanted_out = 0;
 +    link->frame_count_in++;
 +    filter_unblock(link->dst);
 +    ret = ff_framequeue_add(&link->fifo, frame);
 +    if (ret < 0) {
 +        av_frame_free(&frame);
 +        return ret;
 +    }
 +    ff_filter_set_ready(link->dst, 300);
 +    return 0;
  
 -        switch (link->type) {
 -        case AVMEDIA_TYPE_VIDEO:
 -            av_image_copy(out->data, out->linesize, frame->data, frame->linesize,
 -                          frame->format, frame->width, frame->height);
 -            break;
 -        case AVMEDIA_TYPE_AUDIO:
 -            av_samples_copy(out->extended_data, frame->extended_data,
 -                            0, 0, frame->nb_samples,
 -                            av_get_channel_layout_nb_channels(frame->channel_layout),
 -                            frame->format);
 +error:
 +    av_frame_free(&frame);
 +    return AVERROR_PATCHWELCOME;
 +}
 +
 +static int samples_ready(AVFilterLink *link, unsigned min)
 +{
 +    return ff_framequeue_queued_frames(&link->fifo) &&
 +           (ff_framequeue_queued_samples(&link->fifo) >= min ||
 +            link->status_in);
 +}
 +
 +static int take_samples(AVFilterLink *link, unsigned min, unsigned max,
 +                        AVFrame **rframe)
 +{
 +    AVFrame *frame0, *frame, *buf;
 +    unsigned nb_samples, nb_frames, i, p;
 +    int ret;
 +
 +    /* Note: this function relies on no format changes and must only be
 +       called with enough samples. */
 +    av_assert1(samples_ready(link, link->min_samples));
 +    frame0 = frame = ff_framequeue_peek(&link->fifo, 0);
 +    if (!link->fifo.samples_skipped && frame->nb_samples >= min && frame->nb_samples <= max) {
 +        *rframe = ff_framequeue_take(&link->fifo);
 +        return 0;
 +    }
 +    nb_frames = 0;
 +    nb_samples = 0;
 +    while (1) {
 +        if (nb_samples + frame->nb_samples > max) {
 +            if (nb_samples < min)
 +                nb_samples = max;
              break;
 -        default:
 -            ret = AVERROR(EINVAL);
 -            goto fail;
          }
 +        nb_samples += frame->nb_samples;
 +        nb_frames++;
 +        if (nb_frames == ff_framequeue_queued_frames(&link->fifo))
 +            break;
 +        frame = ff_framequeue_peek(&link->fifo, nb_frames);
 +    }
  
 +    buf = ff_get_audio_buffer(link, nb_samples);
 +    if (!buf)
 +        return AVERROR(ENOMEM);
 +    ret = av_frame_copy_props(buf, frame0);
 +    if (ret < 0) {
 +        av_frame_free(&buf);
 +        return ret;
 +    }
 +    buf->pts = frame0->pts;
 +
 +    p = 0;
 +    for (i = 0; i < nb_frames; i++) {
 +        frame = ff_framequeue_take(&link->fifo);
 +        av_samples_copy(buf->extended_data, frame->extended_data, p, 0,
 +                        frame->nb_samples, link->channels, link->format);
 +        p += frame->nb_samples;
          av_frame_free(&frame);
 -    } else
 -        out = frame;
 +    }
 +    if (p < nb_samples) {
 +        unsigned n = nb_samples - p;
 +        frame = ff_framequeue_peek(&link->fifo, 0);
 +        av_samples_copy(buf->extended_data, frame->extended_data, p, 0, n,
 +                        link->channels, link->format);
 +        ff_framequeue_skip_samples(&link->fifo, n, link->time_base);
 +    }
  
 -    return filter_frame(link, out);
 +    *rframe = buf;
 +    return 0;
 +}
  
 -fail:
 -    av_frame_free(&out);
 -    av_frame_free(&frame);
 +static int ff_filter_frame_to_filter(AVFilterLink *link)
 +{
 +    AVFrame *frame = NULL;
 +    AVFilterContext *dst = link->dst;
 +    int ret;
 +
 +    av_assert1(ff_framequeue_queued_frames(&link->fifo));
 +    ret = link->min_samples ?
 +          ff_inlink_consume_samples(link, link->min_samples, link->max_samples, &frame) :
 +          ff_inlink_consume_frame(link, &frame);
 +    av_assert1(ret);
 +    if (ret < 0) {
 +        av_assert1(!frame);
 +        return ret;
 +    }
 +    /* The filter will soon have received a new frame, that may allow it to
 +       produce one or more: unblock its outputs. */
 +    filter_unblock(dst);
 +    /* AVFilterPad.filter_frame() expect frame_count_out to have the value
 +       before the frame; ff_filter_frame_framed() will re-increment it. */
 +    link->frame_count_out--;
 +    ret = ff_filter_frame_framed(link, frame);
 +    if (ret < 0 && ret != link->status_out) {
 +        ff_avfilter_link_set_out_status(link, ret, AV_NOPTS_VALUE);
 +    } else {
 +        /* Run once again, to see if several frames were available, or if
 +           the input status has also changed, or any other reason. */
 +        ff_filter_set_ready(dst, 300);
 +    }
 +    return ret;
 +}
 +
 +static int forward_status_change(AVFilterContext *filter, AVFilterLink *in)
 +{
 +    unsigned out = 0, progress = 0;
 +    int ret;
 +
 +    av_assert0(!in->status_out);
 +    if (!filter->nb_outputs) {
 +        /* not necessary with the current API and sinks */
 +        return 0;
 +    }
 +    while (!in->status_out) {
 +        if (!filter->outputs[out]->status_in) {
 +            progress++;
 +            ret = ff_request_frame_to_filter(filter->outputs[out]);
 +            if (ret < 0)
 +                return ret;
 +        }
 +        if (++out == filter->nb_outputs) {
 +            if (!progress) {
 +                /* Every output already closed: input no longer interesting
 +                   (example: overlay in shortest mode, other input closed). */
 +                ff_avfilter_link_set_out_status(in, in->status_in, in->status_in_pts);
 +                return 0;
 +            }
 +            progress = 0;
 +            out = 0;
 +        }
 +    }
 +    ff_filter_set_ready(filter, 200);
 +    return 0;
 +}
 +
 +static int ff_filter_activate_default(AVFilterContext *filter)
 +{
 +    unsigned i;
 +
 +    for (i = 0; i < filter->nb_inputs; i++) {
 +        if (samples_ready(filter->inputs[i], filter->inputs[i]->min_samples)) {
 +            return ff_filter_frame_to_filter(filter->inputs[i]);
 +        }
 +    }
 +    for (i = 0; i < filter->nb_inputs; i++) {
 +        if (filter->inputs[i]->status_in && !filter->inputs[i]->status_out) {
 +            av_assert1(!ff_framequeue_queued_frames(&filter->inputs[i]->fifo));
 +            return forward_status_change(filter, filter->inputs[i]);
 +        }
 +    }
 +    for (i = 0; i < filter->nb_outputs; i++) {
 +        if (filter->outputs[i]->frame_wanted_out &&
 +            !filter->outputs[i]->frame_blocked_in) {
 +            return ff_request_frame_to_filter(filter->outputs[i]);
 +        }
 +    }
 +    return FFERROR_NOT_READY;
 +}
 +
 +/*
 +   Filter scheduling and activation
 +
 +   When a filter is activated, it must:
 +   - if possible, output a frame;
 +   - else, if relevant, forward the input status change;
 +   - else, check outputs for wanted frames and forward the requests.
 +
 +   The following AVFilterLink fields are used for activation:
 +
 +   - frame_wanted_out:
 +
 +     This field indicates if a frame is needed on this input of the
 +     destination filter. A positive value indicates that a frame is needed
 +     to process queued frames or internal data or to satisfy the
 +     application; a zero value indicates that a frame is not especially
 +     needed but could be processed anyway; a negative value indicates that a
 +     frame would just be queued.
 +
 +     It is set by filters using ff_request_frame() or ff_request_no_frame(),
 +     when requested by the application through a specific API or when it is
 +     set on one of the outputs.
 +
 +     It is cleared when a frame is sent from the source using
 +     ff_filter_frame().
 +
 +     It is also cleared when a status change is sent from the source using
 +     ff_avfilter_link_set_in_status().
 +
 +   - frame_blocked_in:
 +
 +     This field means that the source filter can not generate a frame as is.
 +     Its goal is to avoid repeatedly calling the request_frame() method on
 +     the same link.
 +
 +     It is set by the framework on all outputs of a filter before activating it.
 +
 +     It is automatically cleared by ff_filter_frame().
 +
 +     It is also automatically cleared by ff_avfilter_link_set_in_status().
 +
 +     It is also cleared on all outputs (using filter_unblock()) when
 +     something happens on an input: processing a frame or changing the
 +     status.
 +
 +   - fifo:
 +
 +     Contains the frames queued on a filter input. If it contains frames and
 +     frame_wanted_out is not set, then the filter can be activated. If that
 +     result in the filter not able to use these frames, the filter must set
 +     frame_wanted_out to ask for more frames.
 +
 +   - status_in and status_in_pts:
 +
 +     Status (EOF or error code) of the link and timestamp of the status
 +     change (in link time base, same as frames) as seen from the input of
 +     the link. The status change is considered happening after the frames
 +     queued in fifo.
 +
 +     It is set by the source filter using ff_avfilter_link_set_in_status().
 +
 +   - status_out:
 +
 +     Status of the link as seen from the output of the link. The status
 +     change is considered having already happened.
 +
 +     It is set by the destination filter using
 +     ff_avfilter_link_set_out_status().
 +
 +   Filters are activated according to the ready field, set using the
 +   ff_filter_set_ready(). Eventually, a priority queue will be used.
 +   ff_filter_set_ready() is called whenever anything could cause progress to
 +   be possible. Marking a filter ready when it is not is not a problem,
 +   except for the small overhead it causes.
 +
 +   Conditions that cause a filter to be marked ready are:
 +
 +   - frames added on an input link;
 +
 +   - changes in the input or output status of an input link;
 +
 +   - requests for a frame on an output link;
 +
 +   - after any actual processing using the legacy methods (filter_frame(),
 +     and request_frame() to acknowledge status changes), to run once more
 +     and check if enough input was present for several frames.
 +
 +   Exemples of scenarios to consider:
 +
 +   - buffersrc: activate if frame_wanted_out to notify the application;
 +     activate when the application adds a frame to push it immediately.
 +
 +   - testsrc: activate only if frame_wanted_out to produce and push a frame.
 +
 +   - concat (not at stitch points): can process a frame on any output.
 +     Activate if frame_wanted_out on output to forward on the corresponding
 +     input. Activate when a frame is present on input to process it
 +     immediately.
 +
 +   - framesync: needs at least one frame on each input; extra frames on the
 +     wrong input will accumulate. When a frame is first added on one input,
 +     set frame_wanted_out<0 on it to avoid getting more (would trigger
 +     testsrc) and frame_wanted_out>0 on the other to allow processing it.
 +
 +   Activation of old filters:
 +
 +   In order to activate a filter implementing the legacy filter_frame() and
 +   request_frame() methods, perform the first possible of the following
 +   actions:
 +
 +   - If an input has frames in fifo and frame_wanted_out == 0, dequeue a
 +     frame and call filter_frame().
 +
 +     Ratinale: filter frames as soon as possible instead of leaving them
 +     queued; frame_wanted_out < 0 is not possible since the old API does not
 +     set it nor provides any similar feedback; frame_wanted_out > 0 happens
 +     when min_samples > 0 and there are not enough samples queued.
 +
 +   - If an input has status_in set but not status_out, try to call
 +     request_frame() on one of the outputs in the hope that it will trigger
 +     request_frame() on the input with status_in and acknowledge it. This is
 +     awkward and fragile, filters with several inputs or outputs should be
 +     updated to direct activation as soon as possible.
 +
 +   - If an output has frame_wanted_out > 0 and not frame_blocked_in, call
 +     request_frame().
 +
 +     Rationale: checking frame_blocked_in is necessary to avoid requesting
 +     repeatedly on a blocked input if another is not blocked (example:
 +     [buffersrc1][testsrc1][buffersrc2][testsrc2]concat=v=2).
 +
 +     TODO: respect needs_fifo and remove auto-inserted fifos.
 +
 + */
 +
 +int ff_filter_activate(AVFilterContext *filter)
 +{
 +    int ret;
 +
 +    /* Generic timeline support is not yet implemented but should be easy */
 +    av_assert1(!(filter->filter->flags & AVFILTER_FLAG_SUPPORT_TIMELINE_GENERIC &&
 +                 filter->filter->activate));
 +    filter->ready = 0;
 +    ret = filter->filter->activate ? filter->filter->activate(filter) :
 +          ff_filter_activate_default(filter);
 +    if (ret == FFERROR_NOT_READY)
 +        ret = 0;
      return ret;
  }
  
 +int ff_inlink_acknowledge_status(AVFilterLink *link, int *rstatus, int64_t *rpts)
 +{
 +    *rpts = link->current_pts;
 +    if (ff_framequeue_queued_frames(&link->fifo))
 +        return *rstatus = 0;
 +    if (link->status_out)
 +        return *rstatus = link->status_out;
 +    if (!link->status_in)
 +        return *rstatus = 0;
 +    *rstatus = link->status_out = link->status_in;
 +    ff_update_link_current_pts(link, link->status_in_pts);
 +    *rpts = link->current_pts;
 +    return 1;
 +}
 +
 +int ff_inlink_check_available_frame(AVFilterLink *link)
 +{
 +    return ff_framequeue_queued_frames(&link->fifo) > 0;
 +}
 +
 +int ff_inlink_check_available_samples(AVFilterLink *link, unsigned min)
 +{
 +    uint64_t samples = ff_framequeue_queued_samples(&link->fifo);
 +    av_assert1(min);
 +    return samples >= min || (link->status_in && samples);
 +}
 +
 +static void consume_update(AVFilterLink *link, const AVFrame *frame)
 +{
 +    ff_update_link_current_pts(link, frame->pts);
 +    ff_inlink_process_commands(link, frame);
 +    link->dst->is_disabled = !ff_inlink_evaluate_timeline_at_frame(link, frame);
 +    link->frame_count_out++;
 +}
 +
 +int ff_inlink_consume_frame(AVFilterLink *link, AVFrame **rframe)
 +{
 +    AVFrame *frame;
 +
 +    *rframe = NULL;
 +    if (!ff_inlink_check_available_frame(link))
 +        return 0;
 +
 +    if (link->fifo.samples_skipped) {
 +        frame = ff_framequeue_peek(&link->fifo, 0);
 +        return ff_inlink_consume_samples(link, frame->nb_samples, frame->nb_samples, rframe);
 +    }
 +
 +    frame = ff_framequeue_take(&link->fifo);
 +    consume_update(link, frame);
 +    *rframe = frame;
 +    return 1;
 +}
 +
 +int ff_inlink_consume_samples(AVFilterLink *link, unsigned min, unsigned max,
 +                            AVFrame **rframe)
 +{
 +    AVFrame *frame;
 +    int ret;
 +
 +    av_assert1(min);
 +    *rframe = NULL;
 +    if (!ff_inlink_check_available_samples(link, min))
 +        return 0;
 +    if (link->status_in)
 +        min = FFMIN(min, ff_framequeue_queued_samples(&link->fifo));
 +    ret = take_samples(link, min, link->max_samples, &frame);
 +    if (ret < 0)
 +        return ret;
 +    consume_update(link, frame);
 +    *rframe = frame;
 +    return 1;
 +}
 +
 +int ff_inlink_make_frame_writable(AVFilterLink *link, AVFrame **rframe)
 +{
 +    AVFrame *frame = *rframe;
 +    AVFrame *out;
 +    int ret;
 +
 +    if (av_frame_is_writable(frame))
 +        return 0;
 +    av_log(link->dst, AV_LOG_DEBUG, "Copying data in avfilter.\n");
 +
 +    switch (link->type) {
 +    case AVMEDIA_TYPE_VIDEO:
 +        out = ff_get_video_buffer(link, link->w, link->h);
 +        break;
 +    case AVMEDIA_TYPE_AUDIO:
 +        out = ff_get_audio_buffer(link, frame->nb_samples);
 +        break;
 +    default:
 +        return AVERROR(EINVAL);
 +    }
 +    if (!out)
 +        return AVERROR(ENOMEM);
 +
 +    ret = av_frame_copy_props(out, frame);
 +    if (ret < 0) {
 +        av_frame_free(&out);
 +        return ret;
 +    }
 +
 +    switch (link->type) {
 +    case AVMEDIA_TYPE_VIDEO:
 +        av_image_copy(out->data, out->linesize, (const uint8_t **)frame->data, frame->linesize,
 +                      frame->format, frame->width, frame->height);
 +        break;
 +    case AVMEDIA_TYPE_AUDIO:
 +        av_samples_copy(out->extended_data, frame->extended_data,
 +                        0, 0, frame->nb_samples,
 +                        frame->channels,
 +                        frame->format);
 +        break;
 +    default:
 +        av_assert0(!"reached");
 +    }
 +
 +    av_frame_free(&frame);
 +    *rframe = out;
 +    return 0;
 +}
 +
 +int ff_inlink_process_commands(AVFilterLink *link, const AVFrame *frame)
 +{
 +    AVFilterCommand *cmd = link->dst->command_queue;
 +
 +    while(cmd && cmd->time <= frame->pts * av_q2d(link->time_base)){
 +        av_log(link->dst, AV_LOG_DEBUG,
 +               "Processing command time:%f command:%s arg:%s\n",
 +               cmd->time, cmd->command, cmd->arg);
 +        avfilter_process_command(link->dst, cmd->command, cmd->arg, 0, 0, cmd->flags);
 +        ff_command_queue_pop(link->dst);
 +        cmd= link->dst->command_queue;
 +    }
 +    return 0;
 +}
 +
 +int ff_inlink_evaluate_timeline_at_frame(AVFilterLink *link, const AVFrame *frame)
 +{
 +    AVFilterContext *dstctx = link->dst;
 +    int64_t pts = frame->pts;
 +    int64_t pos = frame->pkt_pos;
 +
 +    if (!dstctx->enable_str)
 +        return 1;
 +
 +    dstctx->var_values[VAR_N] = link->frame_count_out;
 +    dstctx->var_values[VAR_T] = pts == AV_NOPTS_VALUE ? NAN : pts * av_q2d(link->time_base);
 +    dstctx->var_values[VAR_W] = link->w;
 +    dstctx->var_values[VAR_H] = link->h;
 +    dstctx->var_values[VAR_POS] = pos == -1 ? NAN : pos;
 +
 +    return fabs(av_expr_eval(dstctx->enable, dstctx->var_values, NULL)) >= 0.5;
 +}
 +
 +void ff_inlink_request_frame(AVFilterLink *link)
 +{
 +    av_assert1(!link->status_in);
 +    av_assert1(!link->status_out);
 +    link->frame_wanted_out = 1;
 +    ff_filter_set_ready(link->src, 100);
 +}
 +
 +void ff_inlink_set_status(AVFilterLink *link, int status)
 +{
 +    if (link->status_out)
 +        return;
 +    link->frame_wanted_out = 0;
 +    link->frame_blocked_in = 0;
 +    ff_avfilter_link_set_out_status(link, status, AV_NOPTS_VALUE);
 +    while (ff_framequeue_queued_frames(&link->fifo)) {
 +           AVFrame *frame = ff_framequeue_take(&link->fifo);
 +           av_frame_free(&frame);
 +    }
 +    if (!link->status_in)
 +        link->status_in = status;
 +}
 +
 +int ff_outlink_get_status(AVFilterLink *link)
 +{
 +    return link->status_in;
 +}
 +
  const AVClass *avfilter_get_class(void)
  {
      return &avfilter_class;
diff --combined libavfilter/avfilter.h
@@@ -2,20 -2,20 +2,20 @@@
   * filter layer
   * Copyright (c) 2007 Bobby Bingham
   *
 - * This file is part of Libav.
 + * This file is part of FFmpeg.
   *
 - * Libav is free software; you can redistribute it and/or
 + * FFmpeg is free software; you can redistribute it and/or
   * modify it under the terms of the GNU Lesser General Public
   * License as published by the Free Software Foundation; either
   * version 2.1 of the License, or (at your option) any later version.
   *
 - * Libav is distributed in the hope that it will be useful,
 + * FFmpeg is distributed in the hope that it will be useful,
   * but WITHOUT ANY WARRANTY; without even the implied warranty of
   * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
   * Lesser General Public License for more details.
   *
   * You should have received a copy of the GNU Lesser General Public
 - * License along with Libav; if not, write to the Free Software
 + * License along with FFmpeg; if not, write to the Free Software
   * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
   */
  
   */
  
  /**
 - * @defgroup lavfi Libavfilter - graph-based frame editing library
 + * @defgroup lavfi libavfilter
 + * Graph-based frame editing library.
 + *
   * @{
   */
  
 +#include <stddef.h>
 +
  #include "libavutil/attributes.h"
  #include "libavutil/avutil.h"
  #include "libavutil/buffer.h"
 +#include "libavutil/dict.h"
  #include "libavutil/frame.h"
  #include "libavutil/log.h"
  #include "libavutil/samplefmt.h"
  #include "libavutil/pixfmt.h"
  #include "libavutil/rational.h"
  
 -#include <stddef.h>
 -
  #include "libavfilter/version.h"
  
  /**
@@@ -64,6 -61,7 +64,6 @@@ const char *avfilter_configuration(void
   */
  const char *avfilter_license(void);
  
 -
  typedef struct AVFilterContext AVFilterContext;
  typedef struct AVFilterLink    AVFilterLink;
  typedef struct AVFilterPad     AVFilterPad;
@@@ -114,28 -112,6 +114,28 @@@ enum AVMediaType avfilter_pad_get_type(
   * and processing them concurrently.
   */
  #define AVFILTER_FLAG_SLICE_THREADS         (1 << 2)
 +/**
 + * Some filters support a generic "enable" expression option that can be used
 + * to enable or disable a filter in the timeline. Filters supporting this
 + * option have this flag set. When the enable expression is false, the default
 + * no-op filter_frame() function is called in place of the filter_frame()
 + * callback defined on each input pad, thus the frame is passed unchanged to
 + * the next filters.
 + */
 +#define AVFILTER_FLAG_SUPPORT_TIMELINE_GENERIC  (1 << 16)
 +/**
 + * Same as AVFILTER_FLAG_SUPPORT_TIMELINE_GENERIC, except that the filter will
 + * have its filter_frame() callback(s) called as usual even when the enable
 + * expression is false. The filter will disable filtering within the
 + * filter_frame() callback(s) itself, for example executing code depending on
 + * the AVFilterContext->is_disabled value.
 + */
 +#define AVFILTER_FLAG_SUPPORT_TIMELINE_INTERNAL (1 << 17)
 +/**
 + * Handy mask to test whether the filter supports or no the timeline feature
 + * (internally or generically).
 + */
 +#define AVFILTER_FLAG_SUPPORT_TIMELINE (AVFILTER_FLAG_SUPPORT_TIMELINE_GENERIC | AVFILTER_FLAG_SUPPORT_TIMELINE_INTERNAL)
  
  /**
   * Filter definition. This defines the pads a filter contains, and all the
@@@ -195,21 -171,6 +195,21 @@@ typedef struct AVFilter 
       */
  
      /**
 +     * Filter pre-initialization function
 +     *
 +     * This callback will be called immediately after the filter context is
 +     * allocated, to allow allocating and initing sub-objects.
 +     *
 +     * If this callback is not NULL, the uninit callback will be called on
 +     * allocation failure.
 +     *
 +     * @return 0 on success,
 +     *         AVERROR code on failure (but the code will be
 +     *           dropped and treated as ENOMEM by the calling code)
 +     */
 +    int (*preinit)(AVFilterContext *ctx);
 +
 +    /**
       * Filter initialization function.
       *
       * This callback will be called only once during the filter lifetime, after
       * code.
       */
      struct AVFilter *next;
 +
 +    /**
 +     * Make the filter instance process a command.
 +     *
 +     * @param cmd    the command to process, for handling simplicity all commands must be alphanumeric only
 +     * @param arg    the argument for the command
 +     * @param res    a buffer with size res_size where the filter(s) can return a response. This must not change when the command is not supported.
 +     * @param flags  if AVFILTER_CMD_FLAG_FAST is set and the command would be
 +     *               time consuming then a filter should treat it like an unsupported command
 +     *
 +     * @returns >=0 on success otherwise an error code.
 +     *          AVERROR(ENOSYS) on unsupported commands
 +     */
 +    int (*process_command)(AVFilterContext *, const char *cmd, const char *arg, char *res, int res_len, int flags);
 +
 +    /**
 +     * Filter initialization function, alternative to the init()
 +     * callback. Args contains the user-supplied parameters, opaque is
 +     * used for providing binary data.
 +     */
 +    int (*init_opaque)(AVFilterContext *ctx, void *opaque);
 +
 +    /**
 +     * Filter activation function.
 +     *
 +     * Called when any processing is needed from the filter, instead of any
 +     * filter_frame and request_frame on pads.
 +     *
 +     * The function must examine inlinks and outlinks and perform a single
 +     * step of processing. If there is nothing to do, the function must do
 +     * nothing and not return an error. If more steps are or may be
 +     * possible, it must use ff_filter_set_ready() to schedule another
 +     * activation.
 +     */
 +    int (*activate)(AVFilterContext *ctx);
  } AVFilter;
  
  /**
@@@ -336,7 -262,7 +336,7 @@@ typedef struct AVFilterInternal AVFilte
  
  /** An instance of a filter */
  struct AVFilterContext {
 -    const AVClass *av_class;              ///< needed for av_log()
 +    const AVClass *av_class;        ///< needed for av_log() and filters common options
  
      const AVFilter *filter;         ///< the AVFilter of which this is an instance
  
       * allowed threading types. I.e. a threading type needs to be set in both
       * to be allowed.
       *
 -     * After the filter is initialzed, libavfilter sets this field to the
 +     * After the filter is initialized, libavfilter sets this field to the
       * threading type that is actually used (0 for no multithreading).
       */
      int thread_type;
       */
      AVFilterInternal *internal;
  
 +    struct AVFilterCommand *command_queue;
 +
 +    char *enable_str;               ///< enable expression string
 +    void *enable;                   ///< parsed expression (AVExpr*)
 +    double *var_values;             ///< variable values for the enable expression
 +    int is_disabled;                ///< the enabled state from the last expression evaluation
 +
      /**
       * For filters which will create hardware frames, sets the device the
       * filter should create them in.  All other filters will ignore this field:
       * hardware context information.
       */
      AVBufferRef *hw_device_ctx;
 +
 +    /**
 +     * Max number of threads allowed in this filter instance.
 +     * If <= 0, its value is ignored.
 +     * Overrides global number of threads set per filter graph.
 +     */
 +    int nb_threads;
 +
 +    /**
 +     * Ready status of the filter.
 +     * A non-0 value means that the filter needs activating;
 +     * a higher value suggests a more urgent activation.
 +     */
 +    unsigned ready;
  };
  
  /**
   * the pads involved. In addition, this link also contains the parameters
   * which have been negotiated and agreed upon between the filter, such as
   * image dimensions, format, etc.
 + *
 + * Applications must not normally access the link structure directly.
 + * Use the buffersrc and buffersink API instead.
 + * In the future, access to the header may be reserved for filters
 + * implementation.
   */
  struct AVFilterLink {
      AVFilterContext *src;       ///< source filter
      int w;                      ///< agreed upon image width
      int h;                      ///< agreed upon image height
      AVRational sample_aspect_ratio; ///< agreed upon sample aspect ratio
 -    /* These two parameters apply only to audio */
 +    /* These parameters apply only to audio */
      uint64_t channel_layout;    ///< channel layout of current buffer (see libavutil/channel_layout.h)
      int sample_rate;            ///< samples per second
  
       *****************************************************************
       */
      /**
 -     * Lists of formats supported by the input and output filters respectively.
 -     * These lists are used for negotiating the format to actually be used,
 -     * which will be loaded into the format member, above, when chosen.
 +     * Lists of formats and channel layouts supported by the input and output
 +     * filters respectively. These lists are used for negotiating the format
 +     * to actually be used, which will be loaded into the format and
 +     * channel_layout members, above, when chosen.
 +     *
       */
      AVFilterFormats *in_formats;
      AVFilterFormats *out_formats;
      } init_state;
  
      /**
 +     * Graph the filter belongs to.
 +     */
 +    struct AVFilterGraph *graph;
 +
 +    /**
 +     * Current timestamp of the link, as defined by the most recent
 +     * frame(s), in link time_base units.
 +     */
 +    int64_t current_pts;
 +
 +    /**
 +     * Current timestamp of the link, as defined by the most recent
 +     * frame(s), in AV_TIME_BASE units.
 +     */
 +    int64_t current_pts_us;
 +
 +    /**
 +     * Index in the age array.
 +     */
 +    int age_index;
 +
 +    /**
       * Frame rate of the stream on the link, or 1/0 if unknown or variable;
       * if left to 0/0, will be automatically copied from the first input
       * of the source filter if it exists.
       *
 -     * Sources should set it to the real constant frame rate.
 +     * Sources should set it to the best estimation of the real frame rate.
       * If the source frame rate is unknown or variable, set this to 1/0.
       * Filters should update it if necessary depending on their function.
       * Sinks can use it to set a default output frame rate.
 +     * It is similar to the r_frame_rate field in AVStream.
       */
      AVRational frame_rate;
  
      /**
 +     * Buffer partially filled with samples to achieve a fixed/minimum size.
 +     */
 +    AVFrame *partial_buf;
 +
 +    /**
 +     * Size of the partial buffer to allocate.
 +     * Must be between min_samples and max_samples.
 +     */
 +    int partial_buf_size;
 +
 +    /**
 +     * Minimum number of samples to filter at once. If filter_frame() is
 +     * called with fewer samples, it will accumulate them in partial_buf.
 +     * This field and the related ones must not be changed after filtering
 +     * has started.
 +     * If 0, all related fields are ignored.
 +     */
 +    int min_samples;
 +
 +    /**
 +     * Maximum number of samples to filter at once. If filter_frame() is
 +     * called with more samples, it will split them.
 +     */
 +    int max_samples;
 +
 +    /**
 +     * Number of channels.
 +     */
 +    int channels;
 +
 +    /**
 +     * Link processing flags.
 +     */
 +    unsigned flags;
 +
 +    /**
 +     * Number of past frames sent through the link.
 +     */
 +    int64_t frame_count_in, frame_count_out;
 +
 +    /**
 +     * A pointer to a FFFramePool struct.
 +     */
 +    void *frame_pool;
 +
 +    /**
 +     * True if a frame is currently wanted on the output of this filter.
 +     * Set when ff_request_frame() is called by the output,
 +     * cleared when a frame is filtered.
 +     */
 +    int frame_wanted_out;
 +
 +    /**
       * For hwaccel pixel formats, this should be a reference to the
       * AVHWFramesContext describing the frames.
       */
      AVBufferRef *hw_frames_ctx;
 +
 +#ifndef FF_INTERNAL_FIELDS
 +
 +    /**
 +     * Internal structure members.
 +     * The fields below this limit are internal for libavfilter's use
 +     * and must in no way be accessed by applications.
 +     */
 +    char reserved[0xF000];
 +
 +#else /* FF_INTERNAL_FIELDS */
 +
 +    /**
 +     * Queue of frames waiting to be filtered.
 +     */
 +    FFFrameQueue fifo;
 +
 +    /**
 +     * If set, the source filter can not generate a frame as is.
 +     * The goal is to avoid repeatedly calling the request_frame() method on
 +     * the same link.
 +     */
 +    int frame_blocked_in;
 +
 +    /**
 +     * Link input status.
 +     * If not zero, all attempts of filter_frame will fail with the
 +     * corresponding code.
 +     */
 +    int status_in;
 +
 +    /**
 +     * Timestamp of the input status change.
 +     */
 +    int64_t status_in_pts;
 +
 +    /**
 +     * Link output status.
 +     * If not zero, all attempts of request_frame will fail with the
 +     * corresponding code.
 +     */
 +    int status_out;
 +
 +#endif /* FF_INTERNAL_FIELDS */
 +
  };
  
  /**
@@@ -643,24 -420,6 +643,24 @@@ int avfilter_link(AVFilterContext *src
                    AVFilterContext *dst, unsigned dstpad);
  
  /**
 + * Free the link in *link, and set its pointer to NULL.
 + */
 +void avfilter_link_free(AVFilterLink **link);
 +
 +/**
 + * Get the number of channels of a link.
 + */
 +int avfilter_link_get_channels(AVFilterLink *link);
 +
 +/**
 + * Set the closed field of a link.
 + * @deprecated applications are not supposed to mess with links, they should
 + * close the sinks.
 + */
 +attribute_deprecated
 +void avfilter_link_set_closed(AVFilterLink *link, int closed);
 +
 +/**
   * Negotiate the media format, dimensions, etc of all inputs to a filter.
   *
   * @param filter the filter to negotiate the properties for its inputs
   */
  int avfilter_config_links(AVFilterContext *filter);
  
 +#define AVFILTER_CMD_FLAG_ONE   1 ///< Stop once a filter understood the command (for target=all for example), fast filters are favored automatically
 +#define AVFILTER_CMD_FLAG_FAST  2 ///< Only execute command when its fast (like a video out that supports contrast adjustment in hw)
 +
 +/**
 + * Make the filter instance process a command.
 + * It is recommended to use avfilter_graph_send_command().
 + */
 +int avfilter_process_command(AVFilterContext *filter, const char *cmd, const char *arg, char *res, int res_len, int flags);
 +
  /** Initialize the filter system. Register all builtin filters. */
  void avfilter_register_all(void);
  
- #if FF_API_OLD_FILTER_REGISTER
- /** Uninitialize the filter system. Unregister all filters. */
- attribute_deprecated
- void avfilter_uninit(void);
- #endif
  /**
   * Register a filter. This is only needed if you plan to use
   * avfilter_get_by_name later to lookup the AVFilter structure by name. A
@@@ -717,18 -461,6 +711,6 @@@ AVFilter *avfilter_get_by_name(const ch
   */
  const AVFilter *avfilter_next(const AVFilter *prev);
  
- #if FF_API_OLD_FILTER_REGISTER
- /**
-  * If filter is NULL, returns a pointer to the first registered filter pointer,
-  * if filter is non-NULL, returns the next pointer after filter.
-  * If the returned pointer points to NULL, the last registered filter
-  * was already reached.
-  * @deprecated use avfilter_next()
-  */
- attribute_deprecated
- AVFilter **av_filter_next(AVFilter **filter);
- #endif
  /**
   * Initialize a filter with the supplied parameters.
   *
@@@ -827,9 -559,7 +809,9 @@@ typedef struct AVFilterGraph 
      unsigned nb_filters;
  
      char *scale_sws_opts; ///< sws options to use for the auto-inserted scale filters
 -    char *resample_lavr_opts;   ///< libavresample options to use for the auto-inserted resample filters
 +#if FF_API_LAVR_OPTS
 +    attribute_deprecated char *resample_lavr_opts;   ///< libavresample options to use for the auto-inserted resample filters
 +#endif
  
      /**
       * Type of multithreading allowed for filters in this graph. A combination
       * platform and build options.
       */
      avfilter_execute_func *execute;
 +
 +    char *aresample_swr_opts; ///< swr options to use for the auto-inserted aresample filters, Access ONLY through AVOptions
 +
 +    /**
 +     * Private fields
 +     *
 +     * The following fields are for internal use only.
 +     * Their type, offset, number and semantic can change without notice.
 +     */
 +
 +    AVFilterLink **sink_links;
 +    int sink_links_count;
 +
 +    unsigned disable_auto_convert;
  } AVFilterGraph;
  
  /**
@@@ -912,21 -628,19 +894,21 @@@ AVFilterGraph *avfilter_graph_alloc(voi
   *
   * @return the context of the newly created filter instance (note that it is
   *         also retrievable directly through AVFilterGraph.filters or with
 - *         avfilter_graph_get_filter()) on success or NULL or failure.
 + *         avfilter_graph_get_filter()) on success or NULL on failure.
   */
  AVFilterContext *avfilter_graph_alloc_filter(AVFilterGraph *graph,
                                               const AVFilter *filter,
                                               const char *name);
  
  /**
 - * Get a filter instance with name name from graph.
 + * Get a filter instance identified by instance name from graph.
   *
 + * @param graph filter graph to search through.
 + * @param name filter instance name (should be unique in the graph).
   * @return the pointer to the found filter instance or NULL if it
   * cannot be found.
   */
 -AVFilterContext *avfilter_graph_get_filter(AVFilterGraph *graph, char *name);
 +AVFilterContext *avfilter_graph_get_filter(AVFilterGraph *graph, const char *name);
  
  /**
   * Create and add a filter instance into an existing graph.
@@@ -946,26 -660,11 +928,26 @@@ int avfilter_graph_create_filter(AVFilt
                                   AVFilterGraph *graph_ctx);
  
  /**
 + * Enable or disable automatic format conversion inside the graph.
 + *
 + * Note that format conversion can still happen inside explicitly inserted
 + * scale and aresample filters.
 + *
 + * @param flags  any of the AVFILTER_AUTO_CONVERT_* constants
 + */
 +void avfilter_graph_set_auto_convert(AVFilterGraph *graph, unsigned flags);
 +
 +enum {
 +    AVFILTER_AUTO_CONVERT_ALL  =  0, /**< all automatic conversions enabled */
 +    AVFILTER_AUTO_CONVERT_NONE = -1, /**< all automatic conversions disabled */
 +};
 +
 +/**
   * Check validity and configure all the links and formats in the graph.
   *
   * @param graphctx the filter graph
   * @param log_ctx context used for logging
 - * @return 0 in case of success, a negative AVERROR code otherwise
 + * @return >= 0 in case of success, a negative AVERROR code otherwise
   */
  int avfilter_graph_config(AVFilterGraph *graphctx, void *log_ctx);
  
@@@ -1014,15 -713,6 +996,15 @@@ void avfilter_inout_free(AVFilterInOut 
  /**
   * Add a graph described by a string to a graph.
   *
 + * @note The caller must provide the lists of inputs and outputs,
 + * which therefore must be known before calling the function.
 + *
 + * @note The inputs parameter describes inputs of the already existing
 + * part of the graph; i.e. from the point of view of the newly created
 + * part, they are outputs. Similarly the outputs parameter describes
 + * outputs of the already existing filters, which are provided as
 + * inputs to the parsed filters.
 + *
   * @param graph   the filter graph where to link the parsed graph context
   * @param filters string to be parsed
   * @param inputs  linked list to the inputs of the graph
@@@ -1036,27 -726,6 +1018,27 @@@ int avfilter_graph_parse(AVFilterGraph 
  /**
   * Add a graph described by a string to a graph.
   *
 + * In the graph filters description, if the input label of the first
 + * filter is not specified, "in" is assumed; if the output label of
 + * the last filter is not specified, "out" is assumed.
 + *
 + * @param graph   the filter graph where to link the parsed graph context
 + * @param filters string to be parsed
 + * @param inputs  pointer to a linked list to the inputs of the graph, may be NULL.
 + *                If non-NULL, *inputs is updated to contain the list of open inputs
 + *                after the parsing, should be freed with avfilter_inout_free().
 + * @param outputs pointer to a linked list to the outputs of the graph, may be NULL.
 + *                If non-NULL, *outputs is updated to contain the list of open outputs
 + *                after the parsing, should be freed with avfilter_inout_free().
 + * @return non negative on success, a negative AVERROR code on error
 + */
 +int avfilter_graph_parse_ptr(AVFilterGraph *graph, const char *filters,
 +                             AVFilterInOut **inputs, AVFilterInOut **outputs,
 +                             void *log_ctx);
 +
 +/**
 + * Add a graph described by a string to a graph.
 + *
   * @param[in]  graph   the filter graph where to link the parsed graph context
   * @param[in]  filters string to be parsed
   * @param[out] inputs  a linked list of all free (unlinked) inputs of the
   *                     caller using avfilter_inout_free().
   * @return zero on success, a negative AVERROR code on error
   *
 - * @note the difference between avfilter_graph_parse2() and
 - * avfilter_graph_parse() is that in avfilter_graph_parse(), the caller provides
 - * the lists of inputs and outputs, which therefore must be known before calling
 - * the function. On the other hand, avfilter_graph_parse2() \em returns the
 - * inputs and outputs that are left unlinked after parsing the graph and the
 - * caller then deals with them. Another difference is that in
 - * avfilter_graph_parse(), the inputs parameter describes inputs of the
 - * <em>already existing</em> part of the graph; i.e. from the point of view of
 - * the newly created part, they are outputs. Similarly the outputs parameter
 - * describes outputs of the already existing filters, which are provided as
 - * inputs to the parsed filters.
 - * avfilter_graph_parse2() takes the opposite approach -- it makes no reference
 - * whatsoever to already existing parts of the graph and the inputs parameter
 - * will on return contain inputs of the newly parsed part of the graph.
 - * Analogously the outputs parameter will contain outputs of the newly created
 + * @note This function returns the inputs and outputs that are left
 + * unlinked after parsing the graph and the caller then deals with
 + * them.
 + * @note This function makes no reference whatsoever to already
 + * existing parts of the graph and the inputs parameter will on return
 + * contain inputs of the newly parsed part of the graph.  Analogously
 + * the outputs parameter will contain outputs of the newly created
   * filters.
   */
  int avfilter_graph_parse2(AVFilterGraph *graph, const char *filters,
                            AVFilterInOut **outputs);
  
  /**
 + * Send a command to one or more filter instances.
 + *
 + * @param graph  the filter graph
 + * @param target the filter(s) to which the command should be sent
 + *               "all" sends to all filters
 + *               otherwise it can be a filter or filter instance name
 + *               which will send the command to all matching filters.
 + * @param cmd    the command to send, for handling simplicity all commands must be alphanumeric only
 + * @param arg    the argument for the command
 + * @param res    a buffer with size res_size where the filter(s) can return a response.
 + *
 + * @returns >=0 on success otherwise an error code.
 + *              AVERROR(ENOSYS) on unsupported commands
 + */
 +int avfilter_graph_send_command(AVFilterGraph *graph, const char *target, const char *cmd, const char *arg, char *res, int res_len, int flags);
 +
 +/**
 + * Queue a command for one or more filter instances.
 + *
 + * @param graph  the filter graph
 + * @param target the filter(s) to which the command should be sent
 + *               "all" sends to all filters
 + *               otherwise it can be a filter or filter instance name
 + *               which will send the command to all matching filters.
 + * @param cmd    the command to sent, for handling simplicity all commands must be alphanumeric only
 + * @param arg    the argument for the command
 + * @param ts     time at which the command should be sent to the filter
 + *
 + * @note As this executes commands after this function returns, no return code
 + *       from the filter is provided, also AVFILTER_CMD_FLAG_ONE is not supported.
 + */
 +int avfilter_graph_queue_command(AVFilterGraph *graph, const char *target, const char *cmd, const char *arg, int flags, double ts);
 +
 +
 +/**
 + * Dump a graph into a human-readable string representation.
 + *
 + * @param graph    the graph to dump
 + * @param options  formatting options; currently ignored
 + * @return  a string, or NULL in case of memory allocation failure;
 + *          the string must be freed using av_free
 + */
 +char *avfilter_graph_dump(AVFilterGraph *graph, const char *options);
 +
 +/**
 + * Request a frame on the oldest sink link.
 + *
 + * If the request returns AVERROR_EOF, try the next.
 + *
 + * Note that this function is not meant to be the sole scheduling mechanism
 + * of a filtergraph, only a convenience function to help drain a filtergraph
 + * in a balanced way under normal circumstances.
 + *
 + * Also note that AVERROR_EOF does not mean that frames did not arrive on
 + * some of the sinks during the process.
 + * When there are multiple sink links, in case the requested link
 + * returns an EOF, this may cause a filter to flush pending frames
 + * which are sent to another sink link, although unrequested.
 + *
 + * @return  the return value of ff_request_frame(),
 + *          or AVERROR_EOF if all links returned AVERROR_EOF
 + */
 +int avfilter_graph_request_oldest(AVFilterGraph *graph);
 +
 +/**
   * @}
   */
  
diff --combined libavfilter/version.h
@@@ -1,20 -1,20 +1,20 @@@
  /*
   * Version macros.
   *
 - * This file is part of Libav.
 + * This file is part of FFmpeg.
   *
 - * Libav is free software; you can redistribute it and/or
 + * FFmpeg is free software; you can redistribute it and/or
   * modify it under the terms of the GNU Lesser General Public
   * License as published by the Free Software Foundation; either
   * version 2.1 of the License, or (at your option) any later version.
   *
 - * Libav is distributed in the hope that it will be useful,
 + * FFmpeg is distributed in the hope that it will be useful,
   * but WITHOUT ANY WARRANTY; without even the implied warranty of
   * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
   * Lesser General Public License for more details.
   *
   * You should have received a copy of the GNU Lesser General Public
 - * License along with Libav; if not, write to the Free Software
 + * License along with FFmpeg; if not, write to the Free Software
   * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
   */
  
@@@ -29,9 -29,9 +29,9 @@@
  
  #include "libavutil/version.h"
  
 -#define LIBAVFILTER_VERSION_MAJOR  7
 -#define LIBAVFILTER_VERSION_MINOR  0
 -#define LIBAVFILTER_VERSION_MICRO  0
 +#define LIBAVFILTER_VERSION_MAJOR   7
 +#define LIBAVFILTER_VERSION_MINOR   0
 +#define LIBAVFILTER_VERSION_MICRO 100
  
  #define LIBAVFILTER_VERSION_INT AV_VERSION_INT(LIBAVFILTER_VERSION_MAJOR, \
                                                 LIBAVFILTER_VERSION_MINOR, \
   * the public API and may change, break or disappear at any time.
   */
  
- #ifndef FF_API_OLD_FILTER_REGISTER
- #define FF_API_OLD_FILTER_REGISTER          (LIBAVFILTER_VERSION_MAJOR < 7)
- #endif
 +#ifndef FF_API_OLD_FILTER_OPTS_ERROR
 +#define FF_API_OLD_FILTER_OPTS_ERROR        (LIBAVFILTER_VERSION_MAJOR < 8)
 +#endif
  #ifndef FF_API_NOCONST_GET_NAME
  #define FF_API_NOCONST_GET_NAME             (LIBAVFILTER_VERSION_MAJOR < 7)
  #endif
 +#ifndef FF_API_LAVR_OPTS
 +#define FF_API_LAVR_OPTS                    (LIBAVFILTER_VERSION_MAJOR < 8)
 +#endif
  
  #endif /* AVFILTER_VERSION_H */