Merge commit 'd74a8cb7e42f703be5796eeb485f06af710ae8ca'
authorMichael Niedermayer <michaelni@gmx.at>
Sat, 28 Feb 2015 22:56:45 +0000 (23:56 +0100)
committerMichael Niedermayer <michaelni@gmx.at>
Sat, 28 Feb 2015 22:58:29 +0000 (23:58 +0100)
* commit 'd74a8cb7e42f703be5796eeb485f06af710ae8ca':
  fmtconvert: drop unused functions

Conflicts:
libavcodec/arm/fmtconvert_vfp_armv6.S
libavcodec/x86/fmtconvert.asm
libavcodec/x86/fmtconvert_init.c

Merged-by: Michael Niedermayer <michaelni@gmx.at>
1  2 
libavcodec/arm/Makefile
libavcodec/arm/fmtconvert_init_arm.c
libavcodec/arm/fmtconvert_neon.S
libavcodec/fmtconvert.c
libavcodec/fmtconvert.h
libavcodec/mips/fmtconvert_mips.c
libavcodec/ppc/fmtconvert_altivec.c
libavcodec/x86/fmtconvert.asm
libavcodec/x86/fmtconvert_init.c

diff --combined libavcodec/arm/Makefile
@@@ -19,7 -19,6 +19,7 @@@ OBJS-$(CONFIG_IDCTDSP)                 
                                            arm/idctdsp_arm.o             \
                                            arm/jrevdct_arm.o             \
                                            arm/simple_idct_arm.o
 +OBJS-$(CONFIG_LLAUDDSP)                += arm/lossless_audiodsp_init_arm.o
  OBJS-$(CONFIG_ME_CMP)                  += arm/me_cmp_init_arm.o
  OBJS-$(CONFIG_MPEGAUDIODSP)            += arm/mpegaudiodsp_init_arm.o
  OBJS-$(CONFIG_MPEGVIDEO)               += arm/mpegvideo_arm.o
@@@ -32,12 -31,12 +32,12 @@@ OBJS-$(CONFIG_VP3DSP)                  
  # decoders/encoders
  OBJS-$(CONFIG_AAC_DECODER)             += arm/aacpsdsp_init_arm.o       \
                                            arm/sbrdsp_init_arm.o
 -OBJS-$(CONFIG_APE_DECODER)             += arm/apedsp_init_arm.o
 +OBJS-$(CONFIG_ADPCM_G722_DECODER)      += arm/g722dsp_init_arm.o
 +OBJS-$(CONFIG_ADPCM_G722_ENCODER)      += arm/g722dsp_init_arm.o
  OBJS-$(CONFIG_DCA_DECODER)             += arm/dcadsp_init_arm.o
  OBJS-$(CONFIG_FLAC_DECODER)            += arm/flacdsp_init_arm.o        \
                                            arm/flacdsp_arm.o
 -OBJS-$(CONFIG_ADPCM_G722_DECODER)      += arm/g722dsp_init_arm.o
 -OBJS-$(CONFIG_ADPCM_G722_ENCODER)      += arm/g722dsp_init_arm.o
 +OBJS-$(CONFIG_FLAC_ENCODER)            += arm/flacdsp_init_arm.o
  OBJS-$(CONFIG_MLP_DECODER)             += arm/mlpdsp_init_arm.o
  OBJS-$(CONFIG_VC1_DECODER)             += arm/vc1dsp_init_arm.o
  OBJS-$(CONFIG_VORBIS_DECODER)          += arm/vorbisdsp_init_arm.o
@@@ -92,7 -91,6 +92,6 @@@ VFP-OBJS                               
  # subsystems
  VFP-OBJS-$(CONFIG_FFT)                 += arm/fft_vfp.o
  VFP-OBJS-$(CONFIG_MDCT)                += arm/mdct_vfp.o
- VFP-OBJS-$(HAVE_ARMV6)                 += arm/fmtconvert_vfp_armv6.o
  
  # decoders/encoders
  VFP-OBJS-$(CONFIG_DCA_DECODER)         += arm/dcadsp_vfp.o              \
@@@ -131,15 -129,11 +130,15 @@@ NEON-OBJS-$(CONFIG_VP3DSP)             
  # decoders/encoders
  NEON-OBJS-$(CONFIG_AAC_DECODER)        += arm/aacpsdsp_neon.o           \
                                            arm/sbrdsp_neon.o
 -NEON-OBJS-$(CONFIG_APE_DECODER)        += arm/apedsp_neon.o
 -NEON-OBJS-$(CONFIG_DCA_DECODER)        += arm/dcadsp_neon.o             \
 -                                          arm/synth_filter_neon.o
  NEON-OBJS-$(CONFIG_ADPCM_G722_DECODER) += arm/g722dsp_neon.o
  NEON-OBJS-$(CONFIG_ADPCM_G722_ENCODER) += arm/g722dsp_neon.o
 +NEON-OBJS-$(CONFIG_LLAUDDSP)           += arm/lossless_audiodsp_neon.o
 +NEON-OBJS-$(CONFIG_DCA_DECODER)        += arm/dcadsp_neon.o             \
 +                                          arm/synth_filter_neon.o
 +NEON-OBJS-$(CONFIG_HEVC_DECODER)       += arm/hevcdsp_init_neon.o       \
 +                                          arm/hevcdsp_deblock_neon.o    \
 +                                          arm/hevcdsp_idct_neon.o       \
 +                                          arm/hevcdsp_qpel_neon.o
  NEON-OBJS-$(CONFIG_RV30_DECODER)       += arm/rv34dsp_neon.o
  NEON-OBJS-$(CONFIG_RV40_DECODER)       += arm/rv34dsp_neon.o            \
                                            arm/rv40dsp_neon.o
@@@ -1,20 -1,20 +1,20 @@@
  /*
   * ARM optimized Format Conversion Utils
   *
 - * This file is part of Libav.
 + * This file is part of FFmpeg.
   *
 - * Libav is free software; you can redistribute it and/or
 + * FFmpeg is free software; you can redistribute it and/or
   * modify it under the terms of the GNU Lesser General Public
   * License as published by the Free Software Foundation; either
   * version 2.1 of the License, or (at your option) any later version.
   *
 - * Libav is distributed in the hope that it will be useful,
 + * FFmpeg is distributed in the hope that it will be useful,
   * but WITHOUT ANY WARRANTY; without even the implied warranty of
   * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
   * Lesser General Public License for more details.
   *
   * You should have received a copy of the GNU Lesser General Public
 - * License along with Libav; if not, write to the Free Software
 + * License along with FFmpeg; if not, write to the Free Software
   * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
   */
  
@@@ -34,11 -34,6 +34,6 @@@ void ff_int32_to_float_fmul_array8_vfp(
                                         const int32_t *src, const float *mul,
                                         int len);
  
- void ff_float_to_int16_neon(int16_t *dst, const float *src, long len);
- void ff_float_to_int16_interleave_neon(int16_t *, const float **, long, int);
- void ff_float_to_int16_vfp(int16_t *dst, const float *src, long len);
  av_cold void ff_fmt_convert_init_arm(FmtConvertContext *c, AVCodecContext *avctx)
  {
      int cpu_flags = av_get_cpu_flags();
              c->int32_to_float_fmul_scalar = ff_int32_to_float_fmul_scalar_vfp;
              c->int32_to_float_fmul_array8 = ff_int32_to_float_fmul_array8_vfp;
          }
-         if (have_armv6(cpu_flags)) {
-             c->float_to_int16 = ff_float_to_int16_vfp;
-         }
      }
  
      if (have_neon(cpu_flags)) {
          c->int32_to_float_fmul_scalar = ff_int32_to_float_fmul_scalar_neon;
-         if (!(avctx->flags & CODEC_FLAG_BITEXACT)) {
-             c->float_to_int16            = ff_float_to_int16_neon;
-             c->float_to_int16_interleave = ff_float_to_int16_interleave_neon;
-         }
      }
  }
   * ARM NEON optimised Format Conversion Utils
   * Copyright (c) 2008 Mans Rullgard <mans@mansr.com>
   *
 - * This file is part of Libav.
 + * This file is part of FFmpeg.
   *
 - * Libav is free software; you can redistribute it and/or
 + * FFmpeg is free software; you can redistribute it and/or
   * modify it under the terms of the GNU Lesser General Public
   * License as published by the Free Software Foundation; either
   * version 2.1 of the License, or (at your option) any later version.
   *
 - * Libav is distributed in the hope that it will be useful,
 + * FFmpeg is distributed in the hope that it will be useful,
   * but WITHOUT ANY WARRANTY; without even the implied warranty of
   * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
   * Lesser General Public License for more details.
   *
   * You should have received a copy of the GNU Lesser General Public
 - * License along with Libav; if not, write to the Free Software
 + * License along with FFmpeg; if not, write to the Free Software
   * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
   */
  
  #include "config.h"
  #include "libavutil/arm/asm.S"
  
- function ff_float_to_int16_neon, export=1
-         subs            r2,  r2,  #8
-         vld1.64         {d0-d1},  [r1,:128]!
-         vcvt.s32.f32    q8,  q0,  #16
-         vld1.64         {d2-d3},  [r1,:128]!
-         vcvt.s32.f32    q9,  q1,  #16
-         beq             3f
-         bics            ip,  r2,  #15
-         beq             2f
- 1:      subs            ip,  ip,  #16
-         vshrn.s32       d4,  q8,  #16
-         vld1.64         {d0-d1},  [r1,:128]!
-         vcvt.s32.f32    q0,  q0,  #16
-         vshrn.s32       d5,  q9,  #16
-         vld1.64         {d2-d3},  [r1,:128]!
-         vcvt.s32.f32    q1,  q1,  #16
-         vshrn.s32       d6,  q0,  #16
-         vst1.64         {d4-d5},  [r0,:128]!
-         vshrn.s32       d7,  q1,  #16
-         vld1.64         {d16-d17},[r1,:128]!
-         vcvt.s32.f32    q8,  q8,  #16
-         vld1.64         {d18-d19},[r1,:128]!
-         vcvt.s32.f32    q9,  q9,  #16
-         vst1.64         {d6-d7},  [r0,:128]!
-         bne             1b
-         ands            r2,  r2,  #15
-         beq             3f
- 2:      vld1.64         {d0-d1},  [r1,:128]!
-         vshrn.s32       d4,  q8,  #16
-         vcvt.s32.f32    q0,  q0,  #16
-         vld1.64         {d2-d3},  [r1,:128]!
-         vshrn.s32       d5,  q9,  #16
-         vcvt.s32.f32    q1,  q1,  #16
-         vshrn.s32       d6,  q0,  #16
-         vst1.64         {d4-d5},  [r0,:128]!
-         vshrn.s32       d7,  q1,  #16
-         vst1.64         {d6-d7},  [r0,:128]!
-         bx              lr
- 3:      vshrn.s32       d4,  q8,  #16
-         vshrn.s32       d5,  q9,  #16
-         vst1.64         {d4-d5},  [r0,:128]!
-         bx              lr
- endfunc
- function ff_float_to_int16_interleave_neon, export=1
-         cmp             r3, #2
-         itt             lt
-         ldrlt           r1, [r1]
-         blt             X(ff_float_to_int16_neon)
-         bne             4f
-         ldr             r3, [r1]
-         ldr             r1, [r1, #4]
-         subs            r2,  r2,  #8
-         vld1.64         {d0-d1},  [r3,:128]!
-         vcvt.s32.f32    q8,  q0,  #16
-         vld1.64         {d2-d3},  [r3,:128]!
-         vcvt.s32.f32    q9,  q1,  #16
-         vld1.64         {d20-d21},[r1,:128]!
-         vcvt.s32.f32    q10, q10, #16
-         vld1.64         {d22-d23},[r1,:128]!
-         vcvt.s32.f32    q11, q11, #16
-         beq             3f
-         bics            ip,  r2,  #15
-         beq             2f
- 1:      subs            ip,  ip,  #16
-         vld1.64         {d0-d1},  [r3,:128]!
-         vcvt.s32.f32    q0,  q0,  #16
-         vsri.32         q10, q8,  #16
-         vld1.64         {d2-d3},  [r3,:128]!
-         vcvt.s32.f32    q1,  q1,  #16
-         vld1.64         {d24-d25},[r1,:128]!
-         vcvt.s32.f32    q12, q12, #16
-         vld1.64         {d26-d27},[r1,:128]!
-         vsri.32         q11, q9,  #16
-         vst1.64         {d20-d21},[r0,:128]!
-         vcvt.s32.f32    q13, q13, #16
-         vst1.64         {d22-d23},[r0,:128]!
-         vsri.32         q12, q0,  #16
-         vld1.64         {d16-d17},[r3,:128]!
-         vsri.32         q13, q1,  #16
-         vst1.64         {d24-d25},[r0,:128]!
-         vcvt.s32.f32    q8,  q8,  #16
-         vld1.64         {d18-d19},[r3,:128]!
-         vcvt.s32.f32    q9,  q9,  #16
-         vld1.64         {d20-d21},[r1,:128]!
-         vcvt.s32.f32    q10, q10, #16
-         vld1.64         {d22-d23},[r1,:128]!
-         vcvt.s32.f32    q11, q11, #16
-         vst1.64         {d26-d27},[r0,:128]!
-         bne             1b
-         ands            r2,  r2,  #15
-         beq             3f
- 2:      vsri.32         q10, q8,  #16
-         vld1.64         {d0-d1},  [r3,:128]!
-         vcvt.s32.f32    q0,  q0,  #16
-         vld1.64         {d2-d3},  [r3,:128]!
-         vcvt.s32.f32    q1,  q1,  #16
-         vld1.64         {d24-d25},[r1,:128]!
-         vcvt.s32.f32    q12, q12, #16
-         vsri.32         q11, q9,  #16
-         vld1.64         {d26-d27},[r1,:128]!
-         vcvt.s32.f32    q13, q13, #16
-         vst1.64         {d20-d21},[r0,:128]!
-         vsri.32         q12, q0,  #16
-         vst1.64         {d22-d23},[r0,:128]!
-         vsri.32         q13, q1,  #16
-         vst1.64         {d24-d27},[r0,:128]!
-         bx              lr
- 3:      vsri.32         q10, q8,  #16
-         vsri.32         q11, q9,  #16
-         vst1.64         {d20-d23},[r0,:128]!
-         bx              lr
- 4:      push            {r4-r8,lr}
-         cmp             r3,  #4
-         lsl             ip,  r3,  #1
-         blt             4f
-         @ 4 channels
- 5:      ldmia           r1!, {r4-r7}
-         mov             lr,  r2
-         mov             r8,  r0
-         vld1.64         {d16-d17},[r4,:128]!
-         vcvt.s32.f32    q8,  q8,  #16
-         vld1.64         {d18-d19},[r5,:128]!
-         vcvt.s32.f32    q9,  q9,  #16
-         vld1.64         {d20-d21},[r6,:128]!
-         vcvt.s32.f32    q10, q10, #16
-         vld1.64         {d22-d23},[r7,:128]!
-         vcvt.s32.f32    q11, q11, #16
- 6:      subs            lr,  lr,  #8
-         vld1.64         {d0-d1},  [r4,:128]!
-         vcvt.s32.f32    q0,  q0,  #16
-         vsri.32         q9,  q8,  #16
-         vld1.64         {d2-d3},  [r5,:128]!
-         vcvt.s32.f32    q1,  q1,  #16
-         vsri.32         q11, q10, #16
-         vld1.64         {d4-d5},  [r6,:128]!
-         vcvt.s32.f32    q2,  q2,  #16
-         vzip.32         d18, d22
-         vld1.64         {d6-d7},  [r7,:128]!
-         vcvt.s32.f32    q3,  q3,  #16
-         vzip.32         d19, d23
-         vst1.64         {d18},    [r8], ip
-         vsri.32         q1,  q0,  #16
-         vst1.64         {d22},    [r8], ip
-         vsri.32         q3,  q2,  #16
-         vst1.64         {d19},    [r8], ip
-         vzip.32         d2,  d6
-         vst1.64         {d23},    [r8], ip
-         vzip.32         d3,  d7
-         beq             7f
-         vld1.64         {d16-d17},[r4,:128]!
-         vcvt.s32.f32    q8,  q8,  #16
-         vst1.64         {d2},     [r8], ip
-         vld1.64         {d18-d19},[r5,:128]!
-         vcvt.s32.f32    q9,  q9,  #16
-         vst1.64         {d6},     [r8], ip
-         vld1.64         {d20-d21},[r6,:128]!
-         vcvt.s32.f32    q10, q10, #16
-         vst1.64         {d3},     [r8], ip
-         vld1.64         {d22-d23},[r7,:128]!
-         vcvt.s32.f32    q11, q11, #16
-         vst1.64         {d7},     [r8], ip
-         b               6b
- 7:      vst1.64         {d2},     [r8], ip
-         vst1.64         {d6},     [r8], ip
-         vst1.64         {d3},     [r8], ip
-         vst1.64         {d7},     [r8], ip
-         subs            r3,  r3,  #4
-         it              eq
-         popeq           {r4-r8,pc}
-         cmp             r3,  #4
-         add             r0,  r0,  #8
-         bge             5b
-         @ 2 channels
- 4:      cmp             r3,  #2
-         blt             4f
-         ldmia           r1!, {r4-r5}
-         mov             lr,  r2
-         mov             r8,  r0
-         tst             lr,  #8
-         vld1.64         {d16-d17},[r4,:128]!
-         vcvt.s32.f32    q8,  q8,  #16
-         vld1.64         {d18-d19},[r5,:128]!
-         vcvt.s32.f32    q9,  q9,  #16
-         vld1.64         {d20-d21},[r4,:128]!
-         vcvt.s32.f32    q10, q10, #16
-         vld1.64         {d22-d23},[r5,:128]!
-         vcvt.s32.f32    q11, q11, #16
-         beq             6f
-         subs            lr,  lr,  #8
-         beq             7f
-         vsri.32         d18, d16, #16
-         vsri.32         d19, d17, #16
-         vld1.64         {d16-d17},[r4,:128]!
-         vcvt.s32.f32    q8,  q8,  #16
-         vst1.32         {d18[0]}, [r8], ip
-         vsri.32         d22, d20, #16
-         vst1.32         {d18[1]}, [r8], ip
-         vsri.32         d23, d21, #16
-         vst1.32         {d19[0]}, [r8], ip
-         vst1.32         {d19[1]}, [r8], ip
-         vld1.64         {d18-d19},[r5,:128]!
-         vcvt.s32.f32    q9,  q9,  #16
-         vst1.32         {d22[0]}, [r8], ip
-         vst1.32         {d22[1]}, [r8], ip
-         vld1.64         {d20-d21},[r4,:128]!
-         vcvt.s32.f32    q10, q10, #16
-         vst1.32         {d23[0]}, [r8], ip
-         vst1.32         {d23[1]}, [r8], ip
-         vld1.64         {d22-d23},[r5,:128]!
-         vcvt.s32.f32    q11, q11, #16
- 6:      subs            lr,  lr,  #16
-         vld1.64         {d0-d1},  [r4,:128]!
-         vcvt.s32.f32    q0,  q0,  #16
-         vsri.32         d18, d16, #16
-         vld1.64         {d2-d3},  [r5,:128]!
-         vcvt.s32.f32    q1,  q1,  #16
-         vsri.32         d19, d17, #16
-         vld1.64         {d4-d5},  [r4,:128]!
-         vcvt.s32.f32    q2,  q2,  #16
-         vld1.64         {d6-d7},  [r5,:128]!
-         vcvt.s32.f32    q3,  q3,  #16
-         vst1.32         {d18[0]}, [r8], ip
-         vsri.32         d22, d20, #16
-         vst1.32         {d18[1]}, [r8], ip
-         vsri.32         d23, d21, #16
-         vst1.32         {d19[0]}, [r8], ip
-         vsri.32         d2,  d0,  #16
-         vst1.32         {d19[1]}, [r8], ip
-         vsri.32         d3,  d1,  #16
-         vst1.32         {d22[0]}, [r8], ip
-         vsri.32         d6,  d4,  #16
-         vst1.32         {d22[1]}, [r8], ip
-         vsri.32         d7,  d5,  #16
-         vst1.32         {d23[0]}, [r8], ip
-         vst1.32         {d23[1]}, [r8], ip
-         beq             6f
-         vld1.64         {d16-d17},[r4,:128]!
-         vcvt.s32.f32    q8,  q8,  #16
-         vst1.32         {d2[0]},  [r8], ip
-         vst1.32         {d2[1]},  [r8], ip
-         vld1.64         {d18-d19},[r5,:128]!
-         vcvt.s32.f32    q9,  q9,  #16
-         vst1.32         {d3[0]},  [r8], ip
-         vst1.32         {d3[1]},  [r8], ip
-         vld1.64         {d20-d21},[r4,:128]!
-         vcvt.s32.f32    q10, q10, #16
-         vst1.32         {d6[0]},  [r8], ip
-         vst1.32         {d6[1]},  [r8], ip
-         vld1.64         {d22-d23},[r5,:128]!
-         vcvt.s32.f32    q11, q11, #16
-         vst1.32         {d7[0]},  [r8], ip
-         vst1.32         {d7[1]},  [r8], ip
-         bgt             6b
- 6:      vst1.32         {d2[0]},  [r8], ip
-         vst1.32         {d2[1]},  [r8], ip
-         vst1.32         {d3[0]},  [r8], ip
-         vst1.32         {d3[1]},  [r8], ip
-         vst1.32         {d6[0]},  [r8], ip
-         vst1.32         {d6[1]},  [r8], ip
-         vst1.32         {d7[0]},  [r8], ip
-         vst1.32         {d7[1]},  [r8], ip
-         b               8f
- 7:      vsri.32         d18, d16, #16
-         vsri.32         d19, d17, #16
-         vst1.32         {d18[0]}, [r8], ip
-         vsri.32         d22, d20, #16
-         vst1.32         {d18[1]}, [r8], ip
-         vsri.32         d23, d21, #16
-         vst1.32         {d19[0]}, [r8], ip
-         vst1.32         {d19[1]}, [r8], ip
-         vst1.32         {d22[0]}, [r8], ip
-         vst1.32         {d22[1]}, [r8], ip
-         vst1.32         {d23[0]}, [r8], ip
-         vst1.32         {d23[1]}, [r8], ip
- 8:      subs            r3,  r3,  #2
-         add             r0,  r0,  #4
-         it              eq
-         popeq           {r4-r8,pc}
-         @ 1 channel
- 4:      ldr             r4,  [r1],#4
-         tst             r2,  #8
-         mov             lr,  r2
-         mov             r5,  r0
-         vld1.64         {d0-d1},  [r4,:128]!
-         vcvt.s32.f32    q0,  q0,  #16
-         vld1.64         {d2-d3},  [r4,:128]!
-         vcvt.s32.f32    q1,  q1,  #16
-         bne             8f
- 6:      subs            lr,  lr,  #16
-         vld1.64         {d4-d5},  [r4,:128]!
-         vcvt.s32.f32    q2,  q2,  #16
-         vld1.64         {d6-d7},  [r4,:128]!
-         vcvt.s32.f32    q3,  q3,  #16
-         vst1.16         {d0[1]},  [r5,:16], ip
-         vst1.16         {d0[3]},  [r5,:16], ip
-         vst1.16         {d1[1]},  [r5,:16], ip
-         vst1.16         {d1[3]},  [r5,:16], ip
-         vst1.16         {d2[1]},  [r5,:16], ip
-         vst1.16         {d2[3]},  [r5,:16], ip
-         vst1.16         {d3[1]},  [r5,:16], ip
-         vst1.16         {d3[3]},  [r5,:16], ip
-         beq             7f
-         vld1.64         {d0-d1},  [r4,:128]!
-         vcvt.s32.f32    q0,  q0,  #16
-         vld1.64         {d2-d3},  [r4,:128]!
-         vcvt.s32.f32    q1,  q1,  #16
- 7:      vst1.16         {d4[1]},  [r5,:16], ip
-         vst1.16         {d4[3]},  [r5,:16], ip
-         vst1.16         {d5[1]},  [r5,:16], ip
-         vst1.16         {d5[3]},  [r5,:16], ip
-         vst1.16         {d6[1]},  [r5,:16], ip
-         vst1.16         {d6[3]},  [r5,:16], ip
-         vst1.16         {d7[1]},  [r5,:16], ip
-         vst1.16         {d7[3]},  [r5,:16], ip
-         bgt             6b
-         pop             {r4-r8,pc}
- 8:      subs            lr,  lr,  #8
-         vst1.16         {d0[1]},  [r5,:16], ip
-         vst1.16         {d0[3]},  [r5,:16], ip
-         vst1.16         {d1[1]},  [r5,:16], ip
-         vst1.16         {d1[3]},  [r5,:16], ip
-         vst1.16         {d2[1]},  [r5,:16], ip
-         vst1.16         {d2[3]},  [r5,:16], ip
-         vst1.16         {d3[1]},  [r5,:16], ip
-         vst1.16         {d3[3]},  [r5,:16], ip
-         it              eq
-         popeq           {r4-r8,pc}
-         vld1.64         {d0-d1},  [r4,:128]!
-         vcvt.s32.f32    q0,  q0,  #16
-         vld1.64         {d2-d3},  [r4,:128]!
-         vcvt.s32.f32    q1,  q1,  #16
-         b               6b
- endfunc
  function ff_int32_to_float_fmul_scalar_neon, export=1
  VFP     vdup.32         q0,  d0[0]
  VFP     len     .req    r2
diff --combined libavcodec/fmtconvert.c
@@@ -3,20 -3,20 +3,20 @@@
   * Copyright (c) 2000, 2001 Fabrice Bellard
   * Copyright (c) 2002-2004 Michael Niedermayer <michaelni@gmx.at>
   *
 - * This file is part of Libav.
 + * This file is part of FFmpeg.
   *
 - * Libav is free software; you can redistribute it and/or
 + * FFmpeg is free software; you can redistribute it and/or
   * modify it under the terms of the GNU Lesser General Public
   * License as published by the Free Software Foundation; either
   * version 2.1 of the License, or (at your option) any later version.
   *
 - * Libav is distributed in the hope that it will be useful,
 + * FFmpeg is distributed in the hope that it will be useful,
   * but WITHOUT ANY WARRANTY; without even the implied warranty of
   * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
   * Lesser General Public License for more details.
   *
   * You should have received a copy of the GNU Lesser General Public
 - * License along with Libav; if not, write to the Free Software
 + * License along with FFmpeg; if not, write to the Free Software
   * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
   */
  
@@@ -41,93 -41,12 +41,44 @@@ static void int32_to_float_fmul_array8_
          c->int32_to_float_fmul_scalar(&dst[i], &src[i], *mul++, 8);
  }
  
- static av_always_inline int float_to_int16_one(const float *src){
-     return av_clip_int16(lrintf(*src));
- }
- static void float_to_int16_c(int16_t *dst, const float *src, long len)
- {
-     int i;
-     for(i=0; i<len; i++)
-         dst[i] = float_to_int16_one(src+i);
- }
- static void float_to_int16_interleave_c(int16_t *dst, const float **src,
-                                         long len, int channels)
- {
-     int i,j,c;
-     if(channels==2){
-         for(i=0; i<len; i++){
-             dst[2*i]   = float_to_int16_one(src[0]+i);
-             dst[2*i+1] = float_to_int16_one(src[1]+i);
-         }
-     }else{
-         for(c=0; c<channels; c++)
-             for(i=0, j=c; i<len; i++, j+=channels)
-                 dst[j] = float_to_int16_one(src[c]+i);
-     }
- }
- void ff_float_interleave_c(float *dst, const float **src, unsigned int len,
-                            int channels)
- {
-     int j, c;
-     unsigned int i;
-     if (channels == 2) {
-         for (i = 0; i < len; i++) {
-             dst[2*i]   = src[0][i];
-             dst[2*i+1] = src[1][i];
-         }
-     } else if (channels == 1 && len < INT_MAX / sizeof(float)) {
-         memcpy(dst, src[0], len * sizeof(float));
-     } else {
-         for (c = 0; c < channels; c++)
-             for (i = 0, j = c; i < len; i++, j += channels)
-                 dst[j] = src[c][i];
-     }
- }
  av_cold void ff_fmt_convert_init(FmtConvertContext *c, AVCodecContext *avctx)
  {
      c->int32_to_float_fmul_scalar = int32_to_float_fmul_scalar_c;
      c->int32_to_float_fmul_array8 = int32_to_float_fmul_array8_c;
-     c->float_to_int16             = float_to_int16_c;
-     c->float_to_int16_interleave  = float_to_int16_interleave_c;
-     c->float_interleave           = ff_float_interleave_c;
  
      if (ARCH_ARM) ff_fmt_convert_init_arm(c, avctx);
      if (ARCH_PPC) ff_fmt_convert_init_ppc(c, avctx);
      if (ARCH_X86) ff_fmt_convert_init_x86(c, avctx);
 +    if (HAVE_MIPSFPU) ff_fmt_convert_init_mips(c);
 +}
 +
 +/* ffdshow custom code */
 +void float_interleave(float *dst, const float **src, long len, int channels)
 +{
 +    int i,j,c;
 +    if(channels==2){
 +        for(i=0; i<len; i++){
 +            dst[2*i]   = src[0][i] / 32768.0f;
 +            dst[2*i+1] = src[1][i] / 32768.0f;
 +        }
 +    }else{
 +        for(c=0; c<channels; c++)
 +            for(i=0, j=c; i<len; i++, j+=channels)
 +                dst[j] = src[c][i] / 32768.0f;
 +    }
 +}
 +
 +void float_interleave_noscale(float *dst, const float **src, long len, int channels)
 +{
 +    int i,j,c;
 +    if(channels==2){
 +        for(i=0; i<len; i++){
 +            dst[2*i]   = src[0][i];
 +            dst[2*i+1] = src[1][i];
 +        }
 +    }else{
 +        for(c=0; c<channels; c++)
 +            for(i=0, j=c; i<len; i++, j+=channels)
 +                dst[j] = src[c][i];
 +    }
  }
diff --combined libavcodec/fmtconvert.h
@@@ -3,20 -3,20 +3,20 @@@
   * Copyright (c) 2000, 2001 Fabrice Bellard
   * Copyright (c) 2002-2004 Michael Niedermayer <michaelni@gmx.at>
   *
 - * This file is part of Libav.
 + * This file is part of FFmpeg.
   *
 - * Libav is free software; you can redistribute it and/or
 + * FFmpeg is free software; you can redistribute it and/or
   * modify it under the terms of the GNU Lesser General Public
   * License as published by the Free Software Foundation; either
   * version 2.1 of the License, or (at your option) any later version.
   *
 - * Libav is distributed in the hope that it will be useful,
 + * FFmpeg is distributed in the hope that it will be useful,
   * but WITHOUT ANY WARRANTY; without even the implied warranty of
   * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
   * Lesser General Public License for more details.
   *
   * You should have received a copy of the GNU Lesser General Public
 - * License along with Libav; if not, write to the Free Software
 + * License along with FFmpeg; if not, write to the Free Software
   * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
   */
  
@@@ -54,65 -54,12 +54,17 @@@ typedef struct FmtConvertContext 
                                         float *dst, const int32_t *src,
                                         const float *mul, int len);
  
-     /**
-      * Convert an array of float to an array of int16_t.
-      *
-      * Convert floats from in the range [-32768.0,32767.0] to ints
-      * without rescaling
-      *
-      * @param dst destination array of int16_t.
-      *            constraints: 16-byte aligned
-      * @param src source array of float.
-      *            constraints: 16-byte aligned
-      * @param len number of elements to convert.
-      *            constraints: multiple of 8
-      */
-     void (*float_to_int16)(int16_t *dst, const float *src, long len);
-     /**
-      * Convert multiple arrays of float to an interleaved array of int16_t.
-      *
-      * Convert floats from in the range [-32768.0,32767.0] to ints
-      * without rescaling
-      *
-      * @param dst destination array of interleaved int16_t.
-      *            constraints: 16-byte aligned
-      * @param src source array of float arrays, one for each channel.
-      *            constraints: 16-byte aligned
-      * @param len number of elements to convert.
-      *            constraints: multiple of 8
-      * @param channels number of channels
-      */
-     void (*float_to_int16_interleave)(int16_t *dst, const float **src,
-                                       long len, int channels);
-     /**
-      * Convert multiple arrays of float to an array of interleaved float.
-      *
-      * @param dst destination array of interleaved float.
-      *            constraints: 16-byte aligned
-      * @param src source array of float arrays, one for each channel.
-      *            constraints: 16-byte aligned
-      * @param len number of elements to convert.
-      *            constraints: multiple of 8
-      * @param channels number of channels
-      */
-     void (*float_interleave)(float *dst, const float **src, unsigned int len,
-                              int channels);
  } FmtConvertContext;
  
- void ff_float_interleave_c(float *dst, const float **src, unsigned int len,
-                            int channels);
  void ff_fmt_convert_init(FmtConvertContext *c, AVCodecContext *avctx);
  
  void ff_fmt_convert_init_arm(FmtConvertContext *c, AVCodecContext *avctx);
  void ff_fmt_convert_init_ppc(FmtConvertContext *c, AVCodecContext *avctx);
  void ff_fmt_convert_init_x86(FmtConvertContext *c, AVCodecContext *avctx);
 +void ff_fmt_convert_init_mips(FmtConvertContext *c);
 +
 +/* ffdshow custom code */
 +void float_interleave(float *dst, const float **src, long len, int channels);
 +void float_interleave_noscale(float *dst, const float **src, long len, int channels);
  
  #endif /* AVCODEC_FMTCONVERT_H */
index 8a0265f,0000000..a785c9e
mode 100644,000000..100644
--- /dev/null
@@@ -1,342 -1,0 +1,141 @@@
- #if HAVE_MIPSDSPR1
- static void float_to_int16_mips(int16_t *dst, const float *src, long len)
- {
-     const float *src_end = src + len;
-     int ret0, ret1, ret2, ret3, ret4, ret5, ret6, ret7;
-     float src0, src1, src2, src3, src4, src5, src6, src7;
-     /*
-      * loop is 8 times unrolled in assembler in order to achieve better performance
-      */
-     __asm__ volatile(
-         "beq        %[len],  $zero,   fti16_end%=   \n\t"
-         "fti16_lp%=:                                \n\t"
-         "lwc1       %[src0], 0(%[src])              \n\t"
-         "lwc1       %[src1], 4(%[src])              \n\t"
-         "lwc1       %[src2], 8(%[src])              \n\t"
-         "lwc1       %[src3], 12(%[src])             \n\t"
-         "cvt.w.s    %[src0], %[src0]                \n\t"
-         "cvt.w.s    %[src1], %[src1]                \n\t"
-         "cvt.w.s    %[src2], %[src2]                \n\t"
-         "cvt.w.s    %[src3], %[src3]                \n\t"
-         "mfc1       %[ret0], %[src0]                \n\t"
-         "mfc1       %[ret1], %[src1]                \n\t"
-         "mfc1       %[ret2], %[src2]                \n\t"
-         "mfc1       %[ret3], %[src3]                \n\t"
-         "lwc1       %[src4], 16(%[src])             \n\t"
-         "lwc1       %[src5], 20(%[src])             \n\t"
-         "lwc1       %[src6], 24(%[src])             \n\t"
-         "lwc1       %[src7], 28(%[src])             \n\t"
-         "cvt.w.s    %[src4], %[src4]                \n\t"
-         "cvt.w.s    %[src5], %[src5]                \n\t"
-         "cvt.w.s    %[src6], %[src6]                \n\t"
-         "cvt.w.s    %[src7], %[src7]                \n\t"
-         "addiu      %[src],  32                     \n\t"
-         "shll_s.w   %[ret0], %[ret0], 16            \n\t"
-         "shll_s.w   %[ret1], %[ret1], 16            \n\t"
-         "shll_s.w   %[ret2], %[ret2], 16            \n\t"
-         "shll_s.w   %[ret3], %[ret3], 16            \n\t"
-         "srl        %[ret0], %[ret0], 16            \n\t"
-         "srl        %[ret1], %[ret1], 16            \n\t"
-         "srl        %[ret2], %[ret2], 16            \n\t"
-         "srl        %[ret3], %[ret3], 16            \n\t"
-         "sh         %[ret0], 0(%[dst])              \n\t"
-         "sh         %[ret1], 2(%[dst])              \n\t"
-         "sh         %[ret2], 4(%[dst])              \n\t"
-         "sh         %[ret3], 6(%[dst])              \n\t"
-         "mfc1       %[ret4], %[src4]                \n\t"
-         "mfc1       %[ret5], %[src5]                \n\t"
-         "mfc1       %[ret6], %[src6]                \n\t"
-         "mfc1       %[ret7], %[src7]                \n\t"
-         "shll_s.w   %[ret4], %[ret4], 16            \n\t"
-         "shll_s.w   %[ret5], %[ret5], 16            \n\t"
-         "shll_s.w   %[ret6], %[ret6], 16            \n\t"
-         "shll_s.w   %[ret7], %[ret7], 16            \n\t"
-         "srl        %[ret4], %[ret4], 16            \n\t"
-         "srl        %[ret5], %[ret5], 16            \n\t"
-         "srl        %[ret6], %[ret6], 16            \n\t"
-         "srl        %[ret7], %[ret7], 16            \n\t"
-         "sh         %[ret4], 8(%[dst])              \n\t"
-         "sh         %[ret5], 10(%[dst])             \n\t"
-         "sh         %[ret6], 12(%[dst])             \n\t"
-         "sh         %[ret7], 14(%[dst])             \n\t"
-         "addiu      %[dst],  16                     \n\t"
-         "bne        %[src],  %[src_end], fti16_lp%= \n\t"
-         "fti16_end%=:                               \n\t"
-         : [ret0]"=&r"(ret0), [ret1]"=&r"(ret1), [ret2]"=&r"(ret2), [ret3]"=&r"(ret3),
-           [ret4]"=&r"(ret4), [ret5]"=&r"(ret5), [ret6]"=&r"(ret6), [ret7]"=&r"(ret7),
-           [src0]"=&f"(src0), [src1]"=&f"(src1), [src2]"=&f"(src2), [src3]"=&f"(src3),
-           [src4]"=&f"(src4), [src5]"=&f"(src5), [src6]"=&f"(src6), [src7]"=&f"(src7),
-           [src]"+r"(src), [dst]"+r"(dst)
-         : [src_end]"r"(src_end), [len]"r"(len)
-         : "memory"
-     );
- }
- static void float_to_int16_interleave_mips(int16_t *dst, const float **src, long len,
-         int channels)
- {
-     int   c, ch2 = channels <<1;
-     int ret0, ret1, ret2, ret3, ret4, ret5, ret6, ret7;
-     float src0, src1, src2, src3, src4, src5, src6, src7;
-     int16_t *dst_ptr0, *dst_ptr1, *dst_ptr2, *dst_ptr3;
-     int16_t *dst_ptr4, *dst_ptr5, *dst_ptr6, *dst_ptr7;
-     const float *src_ptr, *src_ptr2, *src_end;
-     if (channels == 2) {
-         src_ptr = &src[0][0];
-         src_ptr2 = &src[1][0];
-         src_end = src_ptr + len;
-         __asm__ volatile (
-             "fti16i2_lp%=:                                   \n\t"
-             "lwc1       %[src0],    0(%[src_ptr])            \n\t"
-             "lwc1       %[src1],    0(%[src_ptr2])           \n\t"
-             "addiu      %[src_ptr], 4                        \n\t"
-             "cvt.w.s    $f9,        %[src0]                  \n\t"
-             "cvt.w.s    $f10,       %[src1]                  \n\t"
-             "mfc1       %[ret0],    $f9                      \n\t"
-             "mfc1       %[ret1],    $f10                     \n\t"
-             "shll_s.w   %[ret0],    %[ret0], 16              \n\t"
-             "shll_s.w   %[ret1],    %[ret1], 16              \n\t"
-             "addiu      %[src_ptr2], 4                       \n\t"
-             "srl        %[ret0],    %[ret0], 16              \n\t"
-             "srl        %[ret1],    %[ret1], 16              \n\t"
-             "sh         %[ret0],    0(%[dst])                \n\t"
-             "sh         %[ret1],    2(%[dst])                \n\t"
-             "addiu      %[dst],     4                        \n\t"
-             "bne        %[src_ptr], %[src_end], fti16i2_lp%= \n\t"
-             : [ret0]"=&r"(ret0), [ret1]"=&r"(ret1),
-               [src0]"=&f"(src0), [src1]"=&f"(src1),
-               [src_ptr]"+r"(src_ptr), [src_ptr2]"+r"(src_ptr2),
-               [dst]"+r"(dst)
-             : [src_end]"r"(src_end)
-             : "memory"
-         );
-     } else {
-         for (c = 0; c < channels; c++) {
-             src_ptr  = &src[c][0];
-             dst_ptr0 = &dst[c];
-             src_end = src_ptr + len;
-             /*
-              * loop is 8 times unrolled in assembler in order to achieve better performance
-              */
-             __asm__ volatile(
-                 "fti16i_lp%=:                                     \n\t"
-                 "lwc1       %[src0], 0(%[src_ptr])                \n\t"
-                 "lwc1       %[src1], 4(%[src_ptr])                \n\t"
-                 "lwc1       %[src2], 8(%[src_ptr])                \n\t"
-                 "lwc1       %[src3], 12(%[src_ptr])               \n\t"
-                 "cvt.w.s    %[src0], %[src0]                      \n\t"
-                 "cvt.w.s    %[src1], %[src1]                      \n\t"
-                 "cvt.w.s    %[src2], %[src2]                      \n\t"
-                 "cvt.w.s    %[src3], %[src3]                      \n\t"
-                 "mfc1       %[ret0], %[src0]                      \n\t"
-                 "mfc1       %[ret1], %[src1]                      \n\t"
-                 "mfc1       %[ret2], %[src2]                      \n\t"
-                 "mfc1       %[ret3], %[src3]                      \n\t"
-                 "lwc1       %[src4], 16(%[src_ptr])               \n\t"
-                 "lwc1       %[src5], 20(%[src_ptr])               \n\t"
-                 "lwc1       %[src6], 24(%[src_ptr])               \n\t"
-                 "lwc1       %[src7], 28(%[src_ptr])               \n\t"
-                 "addu       %[dst_ptr1], %[dst_ptr0], %[ch2]      \n\t"
-                 "addu       %[dst_ptr2], %[dst_ptr1], %[ch2]      \n\t"
-                 "addu       %[dst_ptr3], %[dst_ptr2], %[ch2]      \n\t"
-                 "addu       %[dst_ptr4], %[dst_ptr3], %[ch2]      \n\t"
-                 "addu       %[dst_ptr5], %[dst_ptr4], %[ch2]      \n\t"
-                 "addu       %[dst_ptr6], %[dst_ptr5], %[ch2]      \n\t"
-                 "addu       %[dst_ptr7], %[dst_ptr6], %[ch2]      \n\t"
-                 "addiu      %[src_ptr],  32                       \n\t"
-                 "cvt.w.s    %[src4], %[src4]                      \n\t"
-                 "cvt.w.s    %[src5], %[src5]                      \n\t"
-                 "cvt.w.s    %[src6], %[src6]                      \n\t"
-                 "cvt.w.s    %[src7], %[src7]                      \n\t"
-                 "shll_s.w   %[ret0], %[ret0], 16                  \n\t"
-                 "shll_s.w   %[ret1], %[ret1], 16                  \n\t"
-                 "shll_s.w   %[ret2], %[ret2], 16                  \n\t"
-                 "shll_s.w   %[ret3], %[ret3], 16                  \n\t"
-                 "srl        %[ret0], %[ret0], 16                  \n\t"
-                 "srl        %[ret1], %[ret1], 16                  \n\t"
-                 "srl        %[ret2], %[ret2], 16                  \n\t"
-                 "srl        %[ret3], %[ret3], 16                  \n\t"
-                 "sh         %[ret0], 0(%[dst_ptr0])               \n\t"
-                 "sh         %[ret1], 0(%[dst_ptr1])               \n\t"
-                 "sh         %[ret2], 0(%[dst_ptr2])               \n\t"
-                 "sh         %[ret3], 0(%[dst_ptr3])               \n\t"
-                 "mfc1       %[ret4], %[src4]                      \n\t"
-                 "mfc1       %[ret5], %[src5]                      \n\t"
-                 "mfc1       %[ret6], %[src6]                      \n\t"
-                 "mfc1       %[ret7], %[src7]                      \n\t"
-                 "shll_s.w   %[ret4], %[ret4], 16                  \n\t"
-                 "shll_s.w   %[ret5], %[ret5], 16                  \n\t"
-                 "shll_s.w   %[ret6], %[ret6], 16                  \n\t"
-                 "shll_s.w   %[ret7], %[ret7], 16                  \n\t"
-                 "srl        %[ret4], %[ret4], 16                  \n\t"
-                 "srl        %[ret5], %[ret5], 16                  \n\t"
-                 "srl        %[ret6], %[ret6], 16                  \n\t"
-                 "srl        %[ret7], %[ret7], 16                  \n\t"
-                 "sh         %[ret4], 0(%[dst_ptr4])               \n\t"
-                 "sh         %[ret5], 0(%[dst_ptr5])               \n\t"
-                 "sh         %[ret6], 0(%[dst_ptr6])               \n\t"
-                 "sh         %[ret7], 0(%[dst_ptr7])               \n\t"
-                 "addu       %[dst_ptr0], %[dst_ptr7], %[ch2]      \n\t"
-                 "bne        %[src_ptr],  %[src_end],  fti16i_lp%= \n\t"
-                 : [ret0]"=&r"(ret0), [ret1]"=&r"(ret1), [ret2]"=&r"(ret2), [ret3]"=&r"(ret3),
-                   [ret4]"=&r"(ret4), [ret5]"=&r"(ret5), [ret6]"=&r"(ret6), [ret7]"=&r"(ret7),
-                   [src0]"=&f"(src0), [src1]"=&f"(src1), [src2]"=&f"(src2), [src3]"=&f"(src3),
-                   [src4]"=&f"(src4), [src5]"=&f"(src5), [src6]"=&f"(src6), [src7]"=&f"(src7),
-                   [dst_ptr1]"=&r"(dst_ptr1), [dst_ptr2]"=&r"(dst_ptr2), [dst_ptr3]"=&r"(dst_ptr3),
-                   [dst_ptr4]"=&r"(dst_ptr4), [dst_ptr5]"=&r"(dst_ptr5), [dst_ptr6]"=&r"(dst_ptr6),
-                   [dst_ptr7]"=&r"(dst_ptr7), [dst_ptr0]"+r"(dst_ptr0), [src_ptr]"+r"(src_ptr)
-                 : [ch2]"r"(ch2), [src_end]"r"(src_end)
-                 : "memory"
-             );
-         }
-     }
- }
- #endif /* HAVE_MIPSDSPR1 */
 +/*
 + * Format Conversion Utils for MIPS
 + *
 + * Copyright (c) 2012
 + *      MIPS Technologies, Inc., California.
 + *
 + * Redistribution and use in source and binary forms, with or without
 + * modification, are permitted provided that the following conditions
 + * are met:
 + * 1. Redistributions of source code must retain the above copyright
 + *    notice, this list of conditions and the following disclaimer.
 + * 2. Redistributions in binary form must reproduce the above copyright
 + *    notice, this list of conditions and the following disclaimer in the
 + *    documentation and/or other materials provided with the distribution.
 + * 3. Neither the name of the MIPS Technologies, Inc., nor the names of is
 + *    contributors may be used to endorse or promote products derived from
 + *    this software without specific prior written permission.
 + *
 + * THIS SOFTWARE IS PROVIDED BY THE MIPS TECHNOLOGIES, INC. ``AS IS'' AND
 + * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
 + * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
 + * ARE DISCLAIMED.  IN NO EVENT SHALL THE MIPS TECHNOLOGIES, INC. BE LIABLE
 + * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
 + * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
 + * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
 + * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
 + * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
 + * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
 + * SUCH DAMAGE.
 + *
 + * Author:  Zoran Lukic (zoranl@mips.com)
 + * Author:  Nedeljko Babic (nbabic@mips.com)
 + *
 + * This file is part of FFmpeg.
 + *
 + * FFmpeg is free software; you can redistribute it and/or
 + * modify it under the terms of the GNU Lesser General Public
 + * License as published by the Free Software Foundation; either
 + * version 2.1 of the License, or (at your option) any later version.
 + *
 + * FFmpeg is distributed in the hope that it will be useful,
 + * but WITHOUT ANY WARRANTY; without even the implied warranty of
 + * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
 + * Lesser General Public License for more details.
 + *
 + * You should have received a copy of the GNU Lesser General Public
 + * License along with FFmpeg; if not, write to the Free Software
 + * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 + */
 +#include "config.h"
 +#include "libavcodec/avcodec.h"
 +#include "libavcodec/fmtconvert.h"
 +
 +#if HAVE_INLINE_ASM
- #if HAVE_MIPSDSPR1
-     c->float_to_int16_interleave = float_to_int16_interleave_mips;
-     c->float_to_int16 = float_to_int16_mips;
- #endif
 +
 +static void int32_to_float_fmul_scalar_mips(float *dst, const int *src,
 +        float mul, int len)
 +{
 +    /*
 +     * variables used in inline assembler
 +     */
 +    float temp1, temp3, temp5, temp7, temp9, temp11, temp13, temp15;
 +
 +    int rpom1, rpom2, rpom11, rpom21, rpom12, rpom22, rpom13, rpom23;
 +    const int *src_end = src + len;
 +    /*
 +     * loop is 8 times unrolled in assembler in order to achieve better performance
 +     */
 +    __asm__ volatile (
 +        "i32tf_lp%=:                                    \n\t"
 +        "lw       %[rpom11],     0(%[src])              \n\t"
 +        "lw       %[rpom21],     4(%[src])              \n\t"
 +        "lw       %[rpom1],      8(%[src])              \n\t"
 +        "lw       %[rpom2],      12(%[src])             \n\t"
 +        "mtc1     %[rpom11],     %[temp1]               \n\t"
 +        "mtc1     %[rpom21],     %[temp3]               \n\t"
 +        "mtc1     %[rpom1],      %[temp5]               \n\t"
 +        "mtc1     %[rpom2],      %[temp7]               \n\t"
 +
 +        "lw       %[rpom13],     16(%[src])             \n\t"
 +        "lw       %[rpom23],     20(%[src])             \n\t"
 +        "lw       %[rpom12],     24(%[src])             \n\t"
 +        "lw       %[rpom22],     28(%[src])             \n\t"
 +        "mtc1     %[rpom13],     %[temp9]               \n\t"
 +        "mtc1     %[rpom23],     %[temp11]              \n\t"
 +        "mtc1     %[rpom12],     %[temp13]              \n\t"
 +        "mtc1     %[rpom22],     %[temp15]              \n\t"
 +
 +        "addiu    %[src],        32                     \n\t"
 +        "cvt.s.w  %[temp1],      %[temp1]               \n\t"
 +        "cvt.s.w  %[temp3],      %[temp3]               \n\t"
 +        "cvt.s.w  %[temp5],      %[temp5]               \n\t"
 +        "cvt.s.w  %[temp7],      %[temp7]               \n\t"
 +
 +        "cvt.s.w  %[temp9],      %[temp9]               \n\t"
 +        "cvt.s.w  %[temp11],     %[temp11]              \n\t"
 +        "cvt.s.w  %[temp13],     %[temp13]              \n\t"
 +        "cvt.s.w  %[temp15],     %[temp15]              \n\t"
 +
 +        "mul.s   %[temp1],       %[temp1],    %[mul]    \n\t"
 +        "mul.s   %[temp3],       %[temp3],    %[mul]    \n\t"
 +        "mul.s   %[temp5],       %[temp5],    %[mul]    \n\t"
 +        "mul.s   %[temp7],       %[temp7],    %[mul]    \n\t"
 +
 +        "mul.s   %[temp9],       %[temp9],    %[mul]    \n\t"
 +        "mul.s   %[temp11],      %[temp11],   %[mul]    \n\t"
 +        "mul.s   %[temp13],      %[temp13],   %[mul]    \n\t"
 +        "mul.s   %[temp15],      %[temp15],   %[mul]    \n\t"
 +
 +        "swc1    %[temp1],       0(%[dst])              \n\t" /*dst[i] = src[i] * mul;    */
 +        "swc1    %[temp3],       4(%[dst])              \n\t" /*dst[i+1] = src[i+1] * mul;*/
 +        "swc1    %[temp5],       8(%[dst])              \n\t" /*dst[i+2] = src[i+2] * mul;*/
 +        "swc1    %[temp7],       12(%[dst])             \n\t" /*dst[i+3] = src[i+3] * mul;*/
 +
 +        "swc1    %[temp9],       16(%[dst])             \n\t" /*dst[i+4] = src[i+4] * mul;*/
 +        "swc1    %[temp11],      20(%[dst])             \n\t" /*dst[i+5] = src[i+5] * mul;*/
 +        "swc1    %[temp13],      24(%[dst])             \n\t" /*dst[i+6] = src[i+6] * mul;*/
 +        "swc1    %[temp15],      28(%[dst])             \n\t" /*dst[i+7] = src[i+7] * mul;*/
 +        "addiu   %[dst],        32                      \n\t"
 +        "bne     %[src],        %[src_end], i32tf_lp%=  \n\t"
 +        : [temp1]"=&f"(temp1),   [temp11]"=&f"(temp11),
 +          [temp13]"=&f"(temp13), [temp15]"=&f"(temp15),
 +          [temp3]"=&f"(temp3),   [temp5]"=&f"(temp5),
 +          [temp7]"=&f"(temp7),   [temp9]"=&f"(temp9),
 +          [rpom1]"=&r"(rpom1),   [rpom2]"=&r"(rpom2),
 +          [rpom11]"=&r"(rpom11), [rpom21]"=&r"(rpom21),
 +          [rpom12]"=&r"(rpom12), [rpom22]"=&r"(rpom22),
 +          [rpom13]"=&r"(rpom13), [rpom23]"=&r"(rpom23),
 +          [dst]"+r"(dst),       [src]"+r"(src)
 +        : [mul]"f"(mul),        [src_end]"r"(src_end)
 +        : "memory"
 +    );
 +}
 +#endif /* HAVE_INLINE_ASM */
 +
 +av_cold void ff_fmt_convert_init_mips(FmtConvertContext *c)
 +{
 +#if HAVE_INLINE_ASM
 +    c->int32_to_float_fmul_scalar = int32_to_float_fmul_scalar_mips;
 +#endif
 +}
@@@ -1,20 -1,20 +1,20 @@@
  /*
   * Copyright (c) 2006 Luca Barbato <lu_zero@gentoo.org>
   *
 - * This file is part of Libav.
 + * This file is part of FFmpeg.
   *
 - * Libav is free software; you can redistribute it and/or
 + * FFmpeg is free software; you can redistribute it and/or
   * modify it under the terms of the GNU Lesser General Public
   * License as published by the Free Software Foundation; either
   * version 2.1 of the License, or (at your option) any later version.
   *
 - * Libav is distributed in the hope that it will be useful,
 + * FFmpeg is distributed in the hope that it will be useful,
   * but WITHOUT ANY WARRANTY; without even the implied warranty of
   * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
   * Lesser General Public License for more details.
   *
   * You should have received a copy of the GNU Lesser General Public
 - * License along with Libav; if not, write to the Free Software
 + * License along with FFmpeg; if not, write to the Free Software
   * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
   */
  
@@@ -52,113 -52,6 +52,6 @@@ static void int32_to_float_fmul_scalar_
      }
  }
  
- static vector signed short float_to_int16_one_altivec(const float *src)
- {
-     vector float s0 = vec_ld(0, src);
-     vector float s1 = vec_ld(16, src);
-     vector signed int t0 = vec_cts(s0, 0);
-     vector signed int t1 = vec_cts(s1, 0);
-     return vec_packs(t0,t1);
- }
- static void float_to_int16_altivec(int16_t *dst, const float *src, long len)
- {
-     int i;
-     vector signed short d0, d1, d;
-     vector unsigned char align;
-     if (((long)dst) & 15) { //FIXME
-         for (i = 0; i < len - 7; i += 8) {
-             d0 = vec_ld(0, dst+i);
-             d  = float_to_int16_one_altivec(src + i);
-             d1 = vec_ld(15, dst+i);
-             d1 = vec_perm(d1, d0, vec_lvsl(0, dst + i));
-             align = vec_lvsr(0, dst + i);
-             d0 = vec_perm(d1, d, align);
-             d1 = vec_perm(d, d1, align);
-             vec_st(d0,  0, dst + i);
-             vec_st(d1, 15, dst + i);
-         }
-     } else {
-         for (i = 0; i < len - 7; i += 8) {
-             d = float_to_int16_one_altivec(src + i);
-             vec_st(d, 0, dst + i);
-         }
-     }
- }
- #define VSTE_INC(dst, v, elem, inc) do {                \
-         vector signed short s = vec_splat(v, elem);     \
-         vec_ste(s, 0, dst);                             \
-         dst += inc;                                     \
-     } while (0)
- static void float_to_int16_stride_altivec(int16_t *dst, const float *src,
-                                           long len, int stride)
- {
-     int i;
-     vector signed short d;
-     for (i = 0; i < len - 7; i += 8) {
-         d = float_to_int16_one_altivec(src + i);
-         VSTE_INC(dst, d, 0, stride);
-         VSTE_INC(dst, d, 1, stride);
-         VSTE_INC(dst, d, 2, stride);
-         VSTE_INC(dst, d, 3, stride);
-         VSTE_INC(dst, d, 4, stride);
-         VSTE_INC(dst, d, 5, stride);
-         VSTE_INC(dst, d, 6, stride);
-         VSTE_INC(dst, d, 7, stride);
-     }
- }
- static void float_to_int16_interleave_altivec(int16_t *dst, const float **src,
-                                               long len, int channels)
- {
-     int i;
-     vector signed short d0, d1, d2, c0, c1, t0, t1;
-     vector unsigned char align;
-     if (channels == 1)
-         float_to_int16_altivec(dst, src[0], len);
-     else {
-         if (channels == 2) {
-             if (((long)dst) & 15) {
-                 for (i = 0; i < len - 7; i += 8) {
-                     d0 = vec_ld(0,  dst + i);
-                     t0 = float_to_int16_one_altivec(src[0] + i);
-                     d1 = vec_ld(31, dst + i);
-                     t1 = float_to_int16_one_altivec(src[1] + i);
-                     c0 = vec_mergeh(t0, t1);
-                     c1 = vec_mergel(t0, t1);
-                     d2 = vec_perm(d1, d0, vec_lvsl(0, dst + i));
-                     align = vec_lvsr(0, dst + i);
-                     d0 = vec_perm(d2, c0, align);
-                     d1 = vec_perm(c0, c1, align);
-                     vec_st(d0,  0, dst + i);
-                     d0 = vec_perm(c1, d2, align);
-                     vec_st(d1, 15, dst + i);
-                     vec_st(d0, 31, dst + i);
-                     dst += 8;
-                 }
-             } else {
-                 for (i = 0; i < len - 7; i += 8) {
-                     t0 = float_to_int16_one_altivec(src[0] + i);
-                     t1 = float_to_int16_one_altivec(src[1] + i);
-                     d0 = vec_mergeh(t0, t1);
-                     d1 = vec_mergel(t0, t1);
-                     vec_st(d0,  0, dst + i);
-                     vec_st(d1, 16, dst + i);
-                     dst += 8;
-                 }
-             }
-         } else {
-             for (i = 0; i < channels; i++)
-                 float_to_int16_stride_altivec(dst + i, src[i], len, channels);
-         }
-     }
- }
  #endif /* HAVE_ALTIVEC */
  
  av_cold void ff_fmt_convert_init_ppc(FmtConvertContext *c,
          return;
  
      c->int32_to_float_fmul_scalar = int32_to_float_fmul_scalar_altivec;
-     if (!(avctx->flags & CODEC_FLAG_BITEXACT)) {
-         c->float_to_int16 = float_to_int16_altivec;
-         c->float_to_int16_interleave = float_to_int16_interleave_altivec;
-     }
  #endif /* HAVE_ALTIVEC */
  }
@@@ -2,20 -2,20 +2,20 @@@
  ;* x86 optimized Format Conversion Utils
  ;* Copyright (c) 2008 Loren Merritt
  ;*
 -;* This file is part of Libav.
 +;* This file is part of FFmpeg.
  ;*
 -;* Libav is free software; you can redistribute it and/or
 +;* FFmpeg is free software; you can redistribute it and/or
  ;* modify it under the terms of the GNU Lesser General Public
  ;* License as published by the Free Software Foundation; either
  ;* version 2.1 of the License, or (at your option) any later version.
  ;*
 -;* Libav is distributed in the hope that it will be useful,
 +;* FFmpeg is distributed in the hope that it will be useful,
  ;* but WITHOUT ANY WARRANTY; without even the implied warranty of
  ;* MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
  ;* Lesser General Public License for more details.
  ;*
  ;* You should have received a copy of the GNU Lesser General Public
 -;* License along with Libav; if not, write to the Free Software
 +;* License along with FFmpeg; if not, write to the Free Software
  ;* Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
  ;******************************************************************************
  
  
  SECTION_TEXT
  
- %macro CVTPS2PI 2
- %if cpuflag(sse)
-     cvtps2pi %1, %2
- %elif cpuflag(3dnow)
-     pf2id %1, %2
- %endif
- %endmacro
  ;------------------------------------------------------------------------------
  ; void ff_int32_to_float_fmul_scalar(float *dst, const int32_t *src, float mul,
  ;                                    int len);
@@@ -76,395 -68,3 +68,43 @@@ INIT_XMM ss
  INT32_TO_FLOAT_FMUL_SCALAR 5
  INIT_XMM sse2
  INT32_TO_FLOAT_FMUL_SCALAR 3
- ;------------------------------------------------------------------------------
- ; void ff_float_to_int16(int16_t *dst, const float *src, long len);
- ;------------------------------------------------------------------------------
- %macro FLOAT_TO_INT16 1
- cglobal float_to_int16, 3, 3, %1, dst, src, len
-     add       lenq, lenq
-     lea       srcq, [srcq+2*lenq]
-     add       dstq, lenq
-     neg       lenq
- .loop:
- %if cpuflag(sse2)
-     cvtps2dq    m0, [srcq+2*lenq   ]
-     cvtps2dq    m1, [srcq+2*lenq+16]
-     packssdw    m0, m1
-     mova  [dstq+lenq], m0
- %else
-     CVTPS2PI    m0, [srcq+2*lenq   ]
-     CVTPS2PI    m1, [srcq+2*lenq+ 8]
-     CVTPS2PI    m2, [srcq+2*lenq+16]
-     CVTPS2PI    m3, [srcq+2*lenq+24]
-     packssdw    m0, m1
-     packssdw    m2, m3
-     mova  [dstq+lenq  ], m0
-     mova  [dstq+lenq+8], m2
- %endif
-     add       lenq, 16
-     js .loop
- %if mmsize == 8
-     emms
- %endif
-     REP_RET
- %endmacro
- INIT_XMM sse2
- FLOAT_TO_INT16 2
- INIT_MMX sse
- FLOAT_TO_INT16 0
- INIT_MMX 3dnow
- FLOAT_TO_INT16 0
- ;------------------------------------------------------------------------------
- ; void ff_float_to_int16_step(int16_t *dst, const float *src, long len, long step);
- ;------------------------------------------------------------------------------
- %macro FLOAT_TO_INT16_STEP 1
- cglobal float_to_int16_step, 4, 7, %1, dst, src, len, step, step3, v1, v2
-     add       lenq, lenq
-     lea       srcq, [srcq+2*lenq]
-     lea     step3q, [stepq*3]
-     neg       lenq
- .loop:
- %if cpuflag(sse2)
-     cvtps2dq    m0, [srcq+2*lenq   ]
-     cvtps2dq    m1, [srcq+2*lenq+16]
-     packssdw    m0, m1
-     movd       v1d, m0
-     psrldq      m0, 4
-     movd       v2d, m0
-     psrldq      m0, 4
-     mov     [dstq], v1w
-     mov  [dstq+stepq*4], v2w
-     shr        v1d, 16
-     shr        v2d, 16
-     mov  [dstq+stepq*2], v1w
-     mov  [dstq+step3q*2], v2w
-     lea       dstq, [dstq+stepq*8]
-     movd       v1d, m0
-     psrldq      m0, 4
-     movd       v2d, m0
-     mov     [dstq], v1w
-     mov  [dstq+stepq*4], v2w
-     shr        v1d, 16
-     shr        v2d, 16
-     mov  [dstq+stepq*2], v1w
-     mov  [dstq+step3q*2], v2w
-     lea       dstq, [dstq+stepq*8]
- %else
-     CVTPS2PI    m0, [srcq+2*lenq   ]
-     CVTPS2PI    m1, [srcq+2*lenq+ 8]
-     CVTPS2PI    m2, [srcq+2*lenq+16]
-     CVTPS2PI    m3, [srcq+2*lenq+24]
-     packssdw    m0, m1
-     packssdw    m2, m3
-     movd       v1d, m0
-     psrlq       m0, 32
-     movd       v2d, m0
-     mov     [dstq], v1w
-     mov  [dstq+stepq*4], v2w
-     shr        v1d, 16
-     shr        v2d, 16
-     mov  [dstq+stepq*2], v1w
-     mov  [dstq+step3q*2], v2w
-     lea       dstq, [dstq+stepq*8]
-     movd       v1d, m2
-     psrlq       m2, 32
-     movd       v2d, m2
-     mov     [dstq], v1w
-     mov  [dstq+stepq*4], v2w
-     shr        v1d, 16
-     shr        v2d, 16
-     mov  [dstq+stepq*2], v1w
-     mov  [dstq+step3q*2], v2w
-     lea       dstq, [dstq+stepq*8]
- %endif
-     add       lenq, 16
-     js .loop
- %if mmsize == 8
-     emms
- %endif
-     REP_RET
- %endmacro
- INIT_XMM sse2
- FLOAT_TO_INT16_STEP 2
- INIT_MMX sse
- FLOAT_TO_INT16_STEP 0
- INIT_MMX 3dnow
- FLOAT_TO_INT16_STEP 0
- ;-------------------------------------------------------------------------------
- ; void ff_float_to_int16_interleave2(int16_t *dst, const float **src, long len);
- ;-------------------------------------------------------------------------------
- %macro FLOAT_TO_INT16_INTERLEAVE2 0
- cglobal float_to_int16_interleave2, 3, 4, 2, dst, src0, src1, len
-     lea      lenq, [4*r2q]
-     mov     src1q, [src0q+gprsize]
-     mov     src0q, [src0q]
-     add      dstq, lenq
-     add     src0q, lenq
-     add     src1q, lenq
-     neg      lenq
- .loop:
- %if cpuflag(sse2)
-     cvtps2dq   m0, [src0q+lenq]
-     cvtps2dq   m1, [src1q+lenq]
-     packssdw   m0, m1
-     movhlps    m1, m0
-     punpcklwd  m0, m1
-     mova  [dstq+lenq], m0
- %else
-     CVTPS2PI   m0, [src0q+lenq  ]
-     CVTPS2PI   m1, [src0q+lenq+8]
-     CVTPS2PI   m2, [src1q+lenq  ]
-     CVTPS2PI   m3, [src1q+lenq+8]
-     packssdw   m0, m1
-     packssdw   m2, m3
-     mova       m1, m0
-     punpcklwd  m0, m2
-     punpckhwd  m1, m2
-     mova  [dstq+lenq  ], m0
-     mova  [dstq+lenq+8], m1
- %endif
-     add      lenq, 16
-     js .loop
- %if mmsize == 8
-     emms
- %endif
-     REP_RET
- %endmacro
- INIT_MMX 3dnow
- FLOAT_TO_INT16_INTERLEAVE2
- INIT_MMX sse
- FLOAT_TO_INT16_INTERLEAVE2
- INIT_XMM sse2
- FLOAT_TO_INT16_INTERLEAVE2
- ;-----------------------------------------------------------------------------
- ; void ff_float_to_int16_interleave6(int16_t *dst, const float **src, int len)
- ;-----------------------------------------------------------------------------
- %macro FLOAT_TO_INT16_INTERLEAVE6 0
- cglobal float_to_int16_interleave6, 2, 8, 0, dst, src, src1, src2, src3, src4, src5, len
- %if ARCH_X86_64
-     mov     lend, r2d
- %else
-     %define lend dword r2m
- %endif
-     mov src1q, [srcq+1*gprsize]
-     mov src2q, [srcq+2*gprsize]
-     mov src3q, [srcq+3*gprsize]
-     mov src4q, [srcq+4*gprsize]
-     mov src5q, [srcq+5*gprsize]
-     mov srcq,  [srcq]
-     sub src1q, srcq
-     sub src2q, srcq
-     sub src3q, srcq
-     sub src4q, srcq
-     sub src5q, srcq
- .loop:
-     CVTPS2PI   mm0, [srcq]
-     CVTPS2PI   mm1, [srcq+src1q]
-     CVTPS2PI   mm2, [srcq+src2q]
-     CVTPS2PI   mm3, [srcq+src3q]
-     CVTPS2PI   mm4, [srcq+src4q]
-     CVTPS2PI   mm5, [srcq+src5q]
-     packssdw   mm0, mm3
-     packssdw   mm1, mm4
-     packssdw   mm2, mm5
-     PSWAPD     mm3, mm0
-     punpcklwd  mm0, mm1
-     punpckhwd  mm1, mm2
-     punpcklwd  mm2, mm3
-     PSWAPD     mm3, mm0
-     punpckldq  mm0, mm2
-     punpckhdq  mm2, mm1
-     punpckldq  mm1, mm3
-     movq [dstq   ], mm0
-     movq [dstq+16], mm2
-     movq [dstq+ 8], mm1
-     add srcq, 8
-     add dstq, 24
-     sub lend, 2
-     jg .loop
-     emms
-     RET
- %endmacro ; FLOAT_TO_INT16_INTERLEAVE6
- INIT_MMX sse
- FLOAT_TO_INT16_INTERLEAVE6
- INIT_MMX 3dnow
- FLOAT_TO_INT16_INTERLEAVE6
- INIT_MMX 3dnowext
- FLOAT_TO_INT16_INTERLEAVE6
- ;-----------------------------------------------------------------------------
- ; void ff_float_interleave6(float *dst, const float **src, unsigned int len);
- ;-----------------------------------------------------------------------------
- %macro FLOAT_INTERLEAVE6 1
- cglobal float_interleave6, 2, 8, %1, dst, src, src1, src2, src3, src4, src5, len
- %if ARCH_X86_64
-     mov     lend, r2d
- %else
-     %define lend dword r2m
- %endif
-     mov    src1q, [srcq+1*gprsize]
-     mov    src2q, [srcq+2*gprsize]
-     mov    src3q, [srcq+3*gprsize]
-     mov    src4q, [srcq+4*gprsize]
-     mov    src5q, [srcq+5*gprsize]
-     mov     srcq, [srcq]
-     sub    src1q, srcq
-     sub    src2q, srcq
-     sub    src3q, srcq
-     sub    src4q, srcq
-     sub    src5q, srcq
- .loop:
- %if cpuflag(sse)
-     movaps    m0, [srcq]
-     movaps    m1, [srcq+src1q]
-     movaps    m2, [srcq+src2q]
-     movaps    m3, [srcq+src3q]
-     movaps    m4, [srcq+src4q]
-     movaps    m5, [srcq+src5q]
-     SBUTTERFLYPS 0, 1, 6
-     SBUTTERFLYPS 2, 3, 6
-     SBUTTERFLYPS 4, 5, 6
-     movaps    m6, m4
-     shufps    m4, m0, 0xe4
-     movlhps   m0, m2
-     movhlps   m6, m2
-     movaps [dstq   ], m0
-     movaps [dstq+16], m4
-     movaps [dstq+32], m6
-     movaps    m6, m5
-     shufps    m5, m1, 0xe4
-     movlhps   m1, m3
-     movhlps   m6, m3
-     movaps [dstq+48], m1
-     movaps [dstq+64], m5
-     movaps [dstq+80], m6
- %else ; mmx
-     movq       m0, [srcq]
-     movq       m1, [srcq+src1q]
-     movq       m2, [srcq+src2q]
-     movq       m3, [srcq+src3q]
-     movq       m4, [srcq+src4q]
-     movq       m5, [srcq+src5q]
-     SBUTTERFLY dq, 0, 1, 6
-     SBUTTERFLY dq, 2, 3, 6
-     SBUTTERFLY dq, 4, 5, 6
-     movq [dstq   ], m0
-     movq [dstq+ 8], m2
-     movq [dstq+16], m4
-     movq [dstq+24], m1
-     movq [dstq+32], m3
-     movq [dstq+40], m5
- %endif
-     add      srcq, mmsize
-     add      dstq, mmsize*6
-     sub      lend, mmsize/4
-     jg .loop
- %if mmsize == 8
-     emms
- %endif
-     REP_RET
- %endmacro
- INIT_MMX mmx
- FLOAT_INTERLEAVE6 0
- INIT_XMM sse
- FLOAT_INTERLEAVE6 7
- ;-----------------------------------------------------------------------------
- ; void ff_float_interleave2(float *dst, const float **src, unsigned int len);
- ;-----------------------------------------------------------------------------
- %macro FLOAT_INTERLEAVE2 1
- cglobal float_interleave2, 3, 4, %1, dst, src, len, src1
-     mov     src1q, [srcq+gprsize]
-     mov      srcq, [srcq        ]
-     sub     src1q, srcq
- .loop:
-     mova       m0, [srcq             ]
-     mova       m1, [srcq+src1q       ]
-     mova       m3, [srcq      +mmsize]
-     mova       m4, [srcq+src1q+mmsize]
-     mova       m2, m0
-     PUNPCKLDQ  m0, m1
-     PUNPCKHDQ  m2, m1
-     mova       m1, m3
-     PUNPCKLDQ  m3, m4
-     PUNPCKHDQ  m1, m4
-     mova  [dstq         ], m0
-     mova  [dstq+1*mmsize], m2
-     mova  [dstq+2*mmsize], m3
-     mova  [dstq+3*mmsize], m1
-     add      srcq, mmsize*2
-     add      dstq, mmsize*4
-     sub      lend, mmsize/2
-     jg .loop
- %if mmsize == 8
-     emms
- %endif
-     REP_RET
- %endmacro
- INIT_MMX mmx
- %define PUNPCKLDQ punpckldq
- %define PUNPCKHDQ punpckhdq
- FLOAT_INTERLEAVE2 0
- INIT_XMM sse
- %define PUNPCKLDQ unpcklps
- %define PUNPCKHDQ unpckhps
- FLOAT_INTERLEAVE2 5
 +
 +;------------------------------------------------------------------------------
 +; void ff_int32_to_float_fmul_array8(FmtConvertContext *c, float *dst, const int32_t *src,
 +;                                    const float *mul, int len);
 +;------------------------------------------------------------------------------
 +%macro INT32_TO_FLOAT_FMUL_ARRAY8 0
 +cglobal int32_to_float_fmul_array8, 5, 5, 5, c, dst, src, mul, len
 +    shl     lend, 2
 +    add     srcq, lenq
 +    add     dstq, lenq
 +    neg     lenq
 +.loop:
 +    movss     m0, [mulq]
 +    SPLATD    m0
 +%if cpuflag(sse2)
 +    cvtdq2ps  m1, [srcq+lenq   ]
 +    cvtdq2ps  m2, [srcq+lenq+16]
 +%else
 +    cvtpi2ps  m1, [srcq+lenq   ]
 +    cvtpi2ps  m3, [srcq+lenq+ 8]
 +    cvtpi2ps  m2, [srcq+lenq+16]
 +    cvtpi2ps  m4, [srcq+lenq+24]
 +    movlhps   m1, m3
 +    movlhps   m2, m4
 +%endif
 +    mulps     m1, m0
 +    mulps     m2, m0
 +    mova  [dstq+lenq   ], m1
 +    mova  [dstq+lenq+16], m2
 +    add     mulq, 4
 +    add     lenq, 32
 +    jl .loop
 +    REP_RET
 +%endmacro
 +
 +INIT_XMM sse
 +INT32_TO_FLOAT_FMUL_ARRAY8
 +INIT_XMM sse2
 +INT32_TO_FLOAT_FMUL_ARRAY8
 +
@@@ -5,20 -5,20 +5,20 @@@
   *
   * MMX optimization by Nick Kurshev <nickols_k@mail.ru>
   *
 - * This file is part of Libav.
 + * This file is part of FFmpeg.
   *
 - * Libav is free software; you can redistribute it and/or
 + * FFmpeg is free software; you can redistribute it and/or
   * modify it under the terms of the GNU Lesser General Public
   * License as published by the Free Software Foundation; either
   * version 2.1 of the License, or (at your option) any later version.
   *
 - * Libav is distributed in the hope that it will be useful,
 + * FFmpeg is distributed in the hope that it will be useful,
   * but WITHOUT ANY WARRANTY; without even the implied warranty of
   * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
   * Lesser General Public License for more details.
   *
   * You should have received a copy of the GNU Lesser General Public
 - * License along with Libav; if not, write to the Free Software
 + * License along with FFmpeg; if not, write to the Free Software
   * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
   */
  
  
  void ff_int32_to_float_fmul_scalar_sse (float *dst, const int32_t *src, float mul, int len);
  void ff_int32_to_float_fmul_scalar_sse2(float *dst, const int32_t *src, float mul, int len);
 +void ff_int32_to_float_fmul_array8_sse (FmtConvertContext *c, float *dst, const int32_t *src,
 +                                        const float *mul, int len);
 +void ff_int32_to_float_fmul_array8_sse2(FmtConvertContext *c, float *dst, const int32_t *src,
 +                                        const float *mul, int len);
  
- void ff_float_to_int16_3dnow(int16_t *dst, const float *src, long len);
- void ff_float_to_int16_sse  (int16_t *dst, const float *src, long len);
- void ff_float_to_int16_sse2 (int16_t *dst, const float *src, long len);
- void ff_float_to_int16_step_3dnow(int16_t *dst, const float *src, long len, long step);
- void ff_float_to_int16_step_sse  (int16_t *dst, const float *src, long len, long step);
- void ff_float_to_int16_step_sse2 (int16_t *dst, const float *src, long len, long step);
- void ff_float_to_int16_interleave2_3dnow(int16_t *dst, const float **src, long len);
- void ff_float_to_int16_interleave2_sse  (int16_t *dst, const float **src, long len);
- void ff_float_to_int16_interleave2_sse2 (int16_t *dst, const float **src, long len);
- void ff_float_to_int16_interleave6_sse(int16_t *dst, const float **src, int len);
- void ff_float_to_int16_interleave6_3dnow(int16_t *dst, const float **src, int len);
- void ff_float_to_int16_interleave6_3dnowext(int16_t *dst, const float **src, int len);
- #define ff_float_to_int16_interleave6_sse2 ff_float_to_int16_interleave6_sse
- #define FLOAT_TO_INT16_INTERLEAVE(cpu) \
- /* gcc pessimizes register allocation if this is in the same function as float_to_int16_interleave_sse2*/\
- static av_noinline void float_to_int16_interleave_misc_##cpu(int16_t *dst, const float **src, long len, int channels){\
-     int c;\
-     for(c=0; c<channels; c++){\
-         ff_float_to_int16_step_##cpu(dst+c, src[c], len, channels);\
-     }\
- }\
- \
- static void float_to_int16_interleave_##cpu(int16_t *dst, const float **src, long len, int channels){\
-     if(channels==1)\
-         ff_float_to_int16_##cpu(dst, src[0], len);\
-     else if(channels==2){\
-         ff_float_to_int16_interleave2_##cpu(dst, src, len);\
-     }else if(channels==6){\
-         ff_float_to_int16_interleave6_##cpu(dst, src, len);\
-     }else\
-         float_to_int16_interleave_misc_##cpu(dst, src, len, channels);\
- }
- FLOAT_TO_INT16_INTERLEAVE(3dnow)
- FLOAT_TO_INT16_INTERLEAVE(sse)
- FLOAT_TO_INT16_INTERLEAVE(sse2)
- static void float_to_int16_interleave_3dnowext(int16_t *dst, const float **src,
-                                                long len, int channels)
- {
-     if(channels==6)
-         ff_float_to_int16_interleave6_3dnowext(dst, src, len);
-     else
-         float_to_int16_interleave_3dnow(dst, src, len, channels);
- }
- void ff_float_interleave2_mmx(float *dst, const float **src, unsigned int len);
- void ff_float_interleave2_sse(float *dst, const float **src, unsigned int len);
- void ff_float_interleave6_mmx(float *dst, const float **src, unsigned int len);
- void ff_float_interleave6_sse(float *dst, const float **src, unsigned int len);
- static void float_interleave_mmx(float *dst, const float **src,
-                                  unsigned int len, int channels)
- {
-     if (channels == 2) {
-         ff_float_interleave2_mmx(dst, src, len);
-     } else if (channels == 6)
-         ff_float_interleave6_mmx(dst, src, len);
-     else
-         ff_float_interleave_c(dst, src, len, channels);
- }
- static void float_interleave_sse(float *dst, const float **src,
-                                  unsigned int len, int channels)
- {
-     if (channels == 2) {
-         ff_float_interleave2_sse(dst, src, len);
-     } else if (channels == 6)
-         ff_float_interleave6_sse(dst, src, len);
-     else
-         ff_float_interleave_c(dst, src, len, channels);
- }
  #endif /* HAVE_YASM */
  
  av_cold void ff_fmt_convert_init_x86(FmtConvertContext *c, AVCodecContext *avctx)
  #if HAVE_YASM
      int cpu_flags = av_get_cpu_flags();
  
-     if (EXTERNAL_MMX(cpu_flags)) {
-         c->float_interleave = float_interleave_mmx;
-     }
-     if (EXTERNAL_AMD3DNOW(cpu_flags)) {
-         if (!(avctx->flags & CODEC_FLAG_BITEXACT)) {
-             c->float_to_int16            = ff_float_to_int16_3dnow;
-             c->float_to_int16_interleave = float_to_int16_interleave_3dnow;
-         }
-     }
-     if (EXTERNAL_AMD3DNOWEXT(cpu_flags)) {
-         if (!(avctx->flags & CODEC_FLAG_BITEXACT)) {
-             c->float_to_int16_interleave = float_to_int16_interleave_3dnowext;
-         }
-     }
      if (EXTERNAL_SSE(cpu_flags)) {
          c->int32_to_float_fmul_scalar = ff_int32_to_float_fmul_scalar_sse;
-         c->float_to_int16             = ff_float_to_int16_sse;
-         c->float_to_int16_interleave  = float_to_int16_interleave_sse;
-         c->float_interleave           = float_interleave_sse;
 +        c->int32_to_float_fmul_array8 = ff_int32_to_float_fmul_array8_sse;
      }
      if (EXTERNAL_SSE2(cpu_flags)) {
          c->int32_to_float_fmul_scalar = ff_int32_to_float_fmul_scalar_sse2;
-         c->float_to_int16             = ff_float_to_int16_sse2;
-         c->float_to_int16_interleave  = float_to_int16_interleave_sse2;
 +        c->int32_to_float_fmul_array8 = ff_int32_to_float_fmul_array8_sse2;
      }
  #endif /* HAVE_YASM */
  }