~siretart/libav/trusty-security

« back to all changes in this revision

Viewing changes to libavcodec/x86/fmtconvert_mmx.c

  • Committer: Package Import Robot
  • Author(s): Reinhard Tartler
  • Date: 2013-10-22 23:24:08 UTC
  • mfrom: (1.3.36 sid)
  • Revision ID: package-import@ubuntu.com-20131022232408-b8tvvn4pyzri9mi3
Tags: 6:9.10-1ubuntu1
* Build all -extra flavors from this source package, as libav got demoted
  from main to universe, cf LP: #1243235
* Simplify debian/rules to follow exactly the code that debian executes
* New upstream (LP: #1180288) fixes lots of security issues (LP: #1242802)
* Merge from unstable, remaining changes:
  - build-depend on libtiff5-dev rather than libtiff4-dev,
    avoids FTBFS caused by imlib
  - follow the regular debian codepaths

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
/*
2
 
 * Format Conversion Utils
3
 
 * Copyright (c) 2000, 2001 Fabrice Bellard
4
 
 * Copyright (c) 2002-2004 Michael Niedermayer <michaelni@gmx.at>
5
 
 *
6
 
 * This file is part of Libav.
7
 
 *
8
 
 * Libav is free software; you can redistribute it and/or
9
 
 * modify it under the terms of the GNU Lesser General Public
10
 
 * License as published by the Free Software Foundation; either
11
 
 * version 2.1 of the License, or (at your option) any later version.
12
 
 *
13
 
 * Libav is distributed in the hope that it will be useful,
14
 
 * but WITHOUT ANY WARRANTY; without even the implied warranty of
15
 
 * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
16
 
 * Lesser General Public License for more details.
17
 
 *
18
 
 * You should have received a copy of the GNU Lesser General Public
19
 
 * License along with Libav; if not, write to the Free Software
20
 
 * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
21
 
 *
22
 
 * MMX optimization by Nick Kurshev <nickols_k@mail.ru>
23
 
 */
24
 
 
25
 
#include "libavutil/cpu.h"
26
 
#include "libavutil/x86_cpu.h"
27
 
#include "libavcodec/fmtconvert.h"
28
 
 
29
 
#if HAVE_YASM
30
 
 
31
 
void ff_int32_to_float_fmul_scalar_sse (float *dst, const int *src, float mul, int len);
32
 
void ff_int32_to_float_fmul_scalar_sse2(float *dst, const int *src, float mul, int len);
33
 
 
34
 
void ff_float_to_int16_3dnow(int16_t *dst, const float *src, long len);
35
 
void ff_float_to_int16_sse  (int16_t *dst, const float *src, long len);
36
 
void ff_float_to_int16_sse2 (int16_t *dst, const float *src, long len);
37
 
 
38
 
void ff_float_to_int16_interleave2_3dnow(int16_t *dst, const float **src, long len);
39
 
void ff_float_to_int16_interleave2_sse  (int16_t *dst, const float **src, long len);
40
 
void ff_float_to_int16_interleave2_sse2 (int16_t *dst, const float **src, long len);
41
 
 
42
 
void ff_float_to_int16_interleave6_sse(int16_t *dst, const float **src, int len);
43
 
void ff_float_to_int16_interleave6_3dnow(int16_t *dst, const float **src, int len);
44
 
void ff_float_to_int16_interleave6_3dn2(int16_t *dst, const float **src, int len);
45
 
 
46
 
#define ff_float_to_int16_interleave6_sse2 ff_float_to_int16_interleave6_sse
47
 
 
48
 
#define FLOAT_TO_INT16_INTERLEAVE(cpu) \
49
 
/* gcc pessimizes register allocation if this is in the same function as float_to_int16_interleave_sse2*/\
50
 
static av_noinline void float_to_int16_interleave_misc_##cpu(int16_t *dst, const float **src, long len, int channels){\
51
 
    DECLARE_ALIGNED(16, int16_t, tmp)[len];\
52
 
    int i,j,c;\
53
 
    for(c=0; c<channels; c++){\
54
 
        ff_float_to_int16_##cpu(tmp, src[c], len);\
55
 
        for(i=0, j=c; i<len; i++, j+=channels)\
56
 
            dst[j] = tmp[i];\
57
 
    }\
58
 
}\
59
 
\
60
 
static void float_to_int16_interleave_##cpu(int16_t *dst, const float **src, long len, int channels){\
61
 
    if(channels==1)\
62
 
        ff_float_to_int16_##cpu(dst, src[0], len);\
63
 
    else if(channels==2){\
64
 
        ff_float_to_int16_interleave2_##cpu(dst, src, len);\
65
 
    }else if(channels==6){\
66
 
        ff_float_to_int16_interleave6_##cpu(dst, src, len);\
67
 
    }else\
68
 
        float_to_int16_interleave_misc_##cpu(dst, src, len, channels);\
69
 
}
70
 
 
71
 
FLOAT_TO_INT16_INTERLEAVE(3dnow)
72
 
FLOAT_TO_INT16_INTERLEAVE(sse)
73
 
FLOAT_TO_INT16_INTERLEAVE(sse2)
74
 
 
75
 
static void float_to_int16_interleave_3dn2(int16_t *dst, const float **src, long len, int channels){
76
 
    if(channels==6)
77
 
        ff_float_to_int16_interleave6_3dn2(dst, src, len);
78
 
    else
79
 
        float_to_int16_interleave_3dnow(dst, src, len, channels);
80
 
}
81
 
 
82
 
void ff_float_interleave2_mmx(float *dst, const float **src, unsigned int len);
83
 
void ff_float_interleave2_sse(float *dst, const float **src, unsigned int len);
84
 
 
85
 
void ff_float_interleave6_mmx(float *dst, const float **src, unsigned int len);
86
 
void ff_float_interleave6_sse(float *dst, const float **src, unsigned int len);
87
 
 
88
 
static void float_interleave_mmx(float *dst, const float **src,
89
 
                                 unsigned int len, int channels)
90
 
{
91
 
    if (channels == 2) {
92
 
        ff_float_interleave2_mmx(dst, src, len);
93
 
    } else if (channels == 6)
94
 
        ff_float_interleave6_mmx(dst, src, len);
95
 
    else
96
 
        ff_float_interleave_c(dst, src, len, channels);
97
 
}
98
 
 
99
 
static void float_interleave_sse(float *dst, const float **src,
100
 
                                 unsigned int len, int channels)
101
 
{
102
 
    if (channels == 2) {
103
 
        ff_float_interleave2_sse(dst, src, len);
104
 
    } else if (channels == 6)
105
 
        ff_float_interleave6_sse(dst, src, len);
106
 
    else
107
 
        ff_float_interleave_c(dst, src, len, channels);
108
 
}
109
 
#endif
110
 
 
111
 
void ff_fmt_convert_init_x86(FmtConvertContext *c, AVCodecContext *avctx)
112
 
{
113
 
    int mm_flags = av_get_cpu_flags();
114
 
 
115
 
#if HAVE_YASM
116
 
    if (mm_flags & AV_CPU_FLAG_MMX) {
117
 
        c->float_interleave = float_interleave_mmx;
118
 
 
119
 
        if (HAVE_AMD3DNOW && mm_flags & AV_CPU_FLAG_3DNOW) {
120
 
            if(!(avctx->flags & CODEC_FLAG_BITEXACT)){
121
 
                c->float_to_int16 = ff_float_to_int16_3dnow;
122
 
                c->float_to_int16_interleave = float_to_int16_interleave_3dnow;
123
 
            }
124
 
        }
125
 
        if (HAVE_AMD3DNOWEXT && mm_flags & AV_CPU_FLAG_3DNOWEXT) {
126
 
            if(!(avctx->flags & CODEC_FLAG_BITEXACT)){
127
 
                c->float_to_int16_interleave = float_to_int16_interleave_3dn2;
128
 
            }
129
 
        }
130
 
        if (HAVE_SSE && mm_flags & AV_CPU_FLAG_SSE) {
131
 
            c->int32_to_float_fmul_scalar = ff_int32_to_float_fmul_scalar_sse;
132
 
            c->float_to_int16 = ff_float_to_int16_sse;
133
 
            c->float_to_int16_interleave = float_to_int16_interleave_sse;
134
 
            c->float_interleave = float_interleave_sse;
135
 
        }
136
 
        if (HAVE_SSE && mm_flags & AV_CPU_FLAG_SSE2) {
137
 
            c->int32_to_float_fmul_scalar = ff_int32_to_float_fmul_scalar_sse2;
138
 
            c->float_to_int16 = ff_float_to_int16_sse2;
139
 
            c->float_to_int16_interleave = float_to_int16_interleave_sse2;
140
 
        }
141
 
    }
142
 
#endif
143
 
}