Merge commit '99434f4df81b6801b2b535d5b9143305595784f6'
authorClément Bœsch <cboesch@gopro.com>
Thu, 30 Mar 2017 08:23:25 +0000 (10:23 +0200)
committerClément Bœsch <cboesch@gopro.com>
Thu, 30 Mar 2017 08:23:25 +0000 (10:23 +0200)
* commit '99434f4df81b6801b2b535d5b9143305595784f6':
  float_dsp: Have implementation match function pointer prototype

Merged-by: Clément Bœsch <cboesch@gopro.com>
1  2 
libavutil/x86/float_dsp_init.c

@@@ -1,18 -1,18 +1,18 @@@
  /*
 - * This file is part of Libav.
 + * This file is part of FFmpeg.
   *
 - * Libav is free software; you can redistribute it and/or
 + * FFmpeg is free software; you can redistribute it and/or
   * modify it under the terms of the GNU Lesser General Public
   * License as published by the Free Software Foundation; either
   * version 2.1 of the License, or (at your option) any later version.
   *
 - * Libav is distributed in the hope that it will be useful,
 + * FFmpeg is distributed in the hope that it will be useful,
   * but WITHOUT ANY WARRANTY; without even the implied warranty of
   * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
   * Lesser General Public License for more details.
   *
   * You should have received a copy of the GNU Lesser General Public
 - * License along with Libav; if not, write to the Free Software
 + * License along with FFmpeg; if not, write to the Free Software
   * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
   */
  
@@@ -33,8 -33,6 +33,8 @@@ void ff_vector_fmac_scalar_sse(float *d
                                 int len);
  void ff_vector_fmac_scalar_avx(float *dst, const float *src, float mul,
                                 int len);
 +void ff_vector_fmac_scalar_fma3(float *dst, const float *src, float mul,
 +                                int len);
  
  void ff_vector_fmul_scalar_sse(float *dst, const float *src, float mul,
                                 int len);
@@@ -44,17 -42,10 +44,17 @@@ void ff_vector_dmul_scalar_sse2(double 
  void ff_vector_dmul_scalar_avx(double *dst, const double *src,
                                 double mul, int len);
  
 +void ff_vector_fmul_window_3dnowext(float *dst, const float *src0,
 +                                    const float *src1, const float *win, int len);
 +void ff_vector_fmul_window_sse(float *dst, const float *src0,
 +                               const float *src1, const float *win, int len);
 +
  void ff_vector_fmul_add_sse(float *dst, const float *src0, const float *src1,
                              const float *src2, int len);
  void ff_vector_fmul_add_avx(float *dst, const float *src0, const float *src1,
                              const float *src2, int len);
 +void ff_vector_fmul_add_fma3(float *dst, const float *src0, const float *src1,
 +                             const float *src2, int len);
  
  void ff_vector_fmul_reverse_sse(float *dst, const float *src0,
                                  const float *src1, int len);
@@@ -63,20 -54,90 +63,20 @@@ void ff_vector_fmul_reverse_avx(float *
  
  float ff_scalarproduct_float_sse(const float *v1, const float *v2, int order);
  
- void ff_butterflies_float_sse(float *src0, float *src1, int len);
 -void ff_butterflies_float_sse(float *restrict src0, float *restrict src1, int len);
 -
 -#if HAVE_6REGS && HAVE_INLINE_ASM
 -static void vector_fmul_window_3dnowext(float *dst, const float *src0,
 -                                        const float *src1, const float *win,
 -                                        int len)
 -{
 -    x86_reg i = -len * 4;
 -    x86_reg j =  len * 4 - 8;
 -    __asm__ volatile (
 -        "1:                             \n"
 -        "pswapd (%5, %1), %%mm1         \n"
 -        "movq   (%5, %0), %%mm0         \n"
 -        "pswapd (%4, %1), %%mm5         \n"
 -        "movq   (%3, %0), %%mm4         \n"
 -        "movq      %%mm0, %%mm2         \n"
 -        "movq      %%mm1, %%mm3         \n"
 -        "pfmul     %%mm4, %%mm2         \n" // src0[len + i] * win[len + i]
 -        "pfmul     %%mm5, %%mm3         \n" // src1[j]       * win[len + j]
 -        "pfmul     %%mm4, %%mm1         \n" // src0[len + i] * win[len + j]
 -        "pfmul     %%mm5, %%mm0         \n" // src1[j]       * win[len + i]
 -        "pfadd     %%mm3, %%mm2         \n"
 -        "pfsub     %%mm0, %%mm1         \n"
 -        "pswapd    %%mm2, %%mm2         \n"
 -        "movq      %%mm1, (%2, %0)      \n"
 -        "movq      %%mm2, (%2, %1)      \n"
 -        "sub          $8, %1            \n"
 -        "add          $8, %0            \n"
 -        "jl           1b                \n"
 -        "femms                          \n"
 -        : "+r"(i), "+r"(j)
 -        : "r"(dst + len), "r"(src0 + len), "r"(src1), "r"(win + len)
 -    );
 -}
 -
 -static void vector_fmul_window_sse(float *dst, const float *src0,
 -                                   const float *src1, const float *win, int len)
 -{
 -    x86_reg i = -len * 4;
 -    x86_reg j =  len * 4 - 16;
 -    __asm__ volatile (
 -        "1:                             \n"
 -        "movaps      (%5, %1), %%xmm1   \n"
 -        "movaps      (%5, %0), %%xmm0   \n"
 -        "movaps      (%4, %1), %%xmm5   \n"
 -        "movaps      (%3, %0), %%xmm4   \n"
 -        "shufps $0x1b, %%xmm1, %%xmm1   \n"
 -        "shufps $0x1b, %%xmm5, %%xmm5   \n"
 -        "movaps        %%xmm0, %%xmm2   \n"
 -        "movaps        %%xmm1, %%xmm3   \n"
 -        "mulps         %%xmm4, %%xmm2   \n" // src0[len + i] * win[len + i]
 -        "mulps         %%xmm5, %%xmm3   \n" // src1[j]       * win[len + j]
 -        "mulps         %%xmm4, %%xmm1   \n" // src0[len + i] * win[len + j]
 -        "mulps         %%xmm5, %%xmm0   \n" // src1[j]       * win[len + i]
 -        "addps         %%xmm3, %%xmm2   \n"
 -        "subps         %%xmm0, %%xmm1   \n"
 -        "shufps $0x1b, %%xmm2, %%xmm2   \n"
 -        "movaps        %%xmm1, (%2, %0) \n"
 -        "movaps        %%xmm2, (%2, %1) \n"
 -        "sub              $16, %1       \n"
 -        "add              $16, %0       \n"
 -        "jl                1b           \n"
 -        : "+r"(i), "+r"(j)
 -        : "r"(dst + len), "r"(src0 + len), "r"(src1), "r"(win + len)
 -    );
 -}
 -#endif /* HAVE_6REGS && HAVE_INLINE_ASM */
++void ff_butterflies_float_sse(float *av_restrict src0, float *av_restrict src1, int len);
  
  av_cold void ff_float_dsp_init_x86(AVFloatDSPContext *fdsp)
  {
      int cpu_flags = av_get_cpu_flags();
  
 -#if HAVE_6REGS && HAVE_INLINE_ASM
 -    if (INLINE_AMD3DNOWEXT(cpu_flags)) {
 -        fdsp->vector_fmul_window  = vector_fmul_window_3dnowext;
 +    if (EXTERNAL_AMD3DNOWEXT(cpu_flags)) {
 +        fdsp->vector_fmul_window = ff_vector_fmul_window_3dnowext;
      }
 -    if (INLINE_SSE(cpu_flags)) {
 -        fdsp->vector_fmul_window = vector_fmul_window_sse;
 -    }
 -#endif
      if (EXTERNAL_SSE(cpu_flags)) {
          fdsp->vector_fmul = ff_vector_fmul_sse;
          fdsp->vector_fmac_scalar = ff_vector_fmac_scalar_sse;
          fdsp->vector_fmul_scalar = ff_vector_fmul_scalar_sse;
 +        fdsp->vector_fmul_window = ff_vector_fmul_window_sse;
          fdsp->vector_fmul_add    = ff_vector_fmul_add_sse;
          fdsp->vector_fmul_reverse = ff_vector_fmul_reverse_sse;
          fdsp->scalarproduct_float = ff_scalarproduct_float_sse;
          fdsp->vector_fmul_add    = ff_vector_fmul_add_avx;
          fdsp->vector_fmul_reverse = ff_vector_fmul_reverse_avx;
      }
 +    if (EXTERNAL_FMA3_FAST(cpu_flags)) {
 +        fdsp->vector_fmac_scalar = ff_vector_fmac_scalar_fma3;
 +        fdsp->vector_fmul_add    = ff_vector_fmul_add_fma3;
 +    }
  }