Merge commit '55aa03b9f8f11ebb7535424cc0e5635558590f49'
authorMichael Niedermayer <michaelni@gmx.at>
Wed, 23 Jan 2013 12:54:34 +0000 (13:54 +0100)
committerMichael Niedermayer <michaelni@gmx.at>
Wed, 23 Jan 2013 12:54:34 +0000 (13:54 +0100)
* commit '55aa03b9f8f11ebb7535424cc0e5635558590f49':
  floatdsp: move vector_fmul_add from dsputil to avfloatdsp.

Conflicts:
libavcodec/dsputil.c
libavcodec/x86/dsputil.asm

Merged-by: Michael Niedermayer <michaelni@gmx.at>
16 files changed:
1  2 
libavcodec/aacsbr.c
libavcodec/arm/dsputil_init_neon.c
libavcodec/arm/dsputil_neon.S
libavcodec/dsputil.c
libavcodec/dsputil.h
libavcodec/ppc/float_altivec.c
libavcodec/wmadec.c
libavcodec/x86/dsputil.asm
libavcodec/x86/dsputil_mmx.c
libavutil/float_dsp.c
libavutil/float_dsp.h
libavutil/ppc/float_dsp_altivec.c
libavutil/ppc/float_dsp_altivec.h
libavutil/ppc/float_dsp_init.c
libavutil/x86/float_dsp.asm
libavutil/x86/float_dsp_init.c

Simple merge
Simple merge
Simple merge
@@@ -2490,13 -2360,7 +2490,7 @@@ static void vector_fmul_reverse_c(floa
          dst[i] = src0[i] * src1[-i];
  }
  
- static void vector_fmul_add_c(float *dst, const float *src0, const float *src1, const float *src2, int len){
-     int i;
-     for(i=0; i<len; i++)
-         dst[i] = src0[i] * src1[i] + src2[i];
- }
 -static void butterflies_float_c(float *restrict v1, float *restrict v2,
 +static void butterflies_float_c(float *av_restrict v1, float *av_restrict v2,
                                  int len)
  {
      int i;
Simple merge
Simple merge
Simple merge
@@@ -601,41 -601,9 +601,11 @@@ ALIGN 1
  
  INIT_XMM sse
  VECTOR_FMUL_REVERSE
 +%if HAVE_AVX_EXTERNAL
  INIT_YMM avx
  VECTOR_FMUL_REVERSE
 +%endif
  
- ;-----------------------------------------------------------------------------
- ; vector_fmul_add(float *dst, const float *src0, const float *src1,
- ;                 const float *src2, int len)
- ;-----------------------------------------------------------------------------
- %macro VECTOR_FMUL_ADD 0
- cglobal vector_fmul_add, 5,5,2, dst, src0, src1, src2, len
-     lea       lenq, [lend*4 - 2*mmsize]
- ALIGN 16
- .loop:
-     mova    m0,   [src0q + lenq]
-     mova    m1,   [src0q + lenq + mmsize]
-     mulps   m0, m0, [src1q + lenq]
-     mulps   m1, m1, [src1q + lenq + mmsize]
-     addps   m0, m0, [src2q + lenq]
-     addps   m1, m1, [src2q + lenq + mmsize]
-     mova    [dstq + lenq], m0
-     mova    [dstq + lenq + mmsize], m1
-     sub     lenq,   2*mmsize
-     jge     .loop
-     REP_RET
- %endmacro
- INIT_XMM sse
- VECTOR_FMUL_ADD
- %if HAVE_AVX_EXTERNAL
- INIT_YMM avx
- VECTOR_FMUL_ADD
- %endif
  ; %1 = aligned/unaligned
  %macro BSWAP_LOOPS  1
      mov      r3, r2
@@@ -2263,13 -2136,8 +2258,12 @@@ static void dsputil_init_sse(DSPContex
  
  #if HAVE_YASM
      c->vector_fmul_reverse = ff_vector_fmul_reverse_sse;
-     c->vector_fmul_add     = ff_vector_fmul_add_sse;
  
      c->scalarproduct_float          = ff_scalarproduct_float_sse;
 +
 +#if HAVE_INLINE_ASM && CONFIG_VIDEODSP
 +    c->gmc = gmc_sse;
 +#endif
  #endif /* HAVE_YASM */
  }
  
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
@@@ -168,3 -162,31 +168,33 @@@ VECTOR_DMUL_SCALA
  INIT_YMM avx
  VECTOR_DMUL_SCALAR
  %endif
+ ;-----------------------------------------------------------------------------
+ ; vector_fmul_add(float *dst, const float *src0, const float *src1,
+ ;                 const float *src2, int len)
+ ;-----------------------------------------------------------------------------
+ %macro VECTOR_FMUL_ADD 0
+ cglobal vector_fmul_add, 5,5,2, dst, src0, src1, src2, len
+     lea       lenq, [lend*4 - 2*mmsize]
+ ALIGN 16
+ .loop:
+     mova    m0,   [src0q + lenq]
+     mova    m1,   [src0q + lenq + mmsize]
+     mulps   m0, m0, [src1q + lenq]
+     mulps   m1, m1, [src1q + lenq + mmsize]
+     addps   m0, m0, [src2q + lenq]
+     addps   m1, m1, [src2q + lenq + mmsize]
+     mova    [dstq + lenq], m0
+     mova    [dstq + lenq + mmsize], m1
+     sub     lenq,   2*mmsize
+     jge     .loop
+     REP_RET
+ %endmacro
+ INIT_XMM sse
+ VECTOR_FMUL_ADD
++%if HAVE_AVX_EXTERNAL
+ INIT_YMM avx
+ VECTOR_FMUL_ADD
++%endif
Simple merge