~ubuntu-branches/ubuntu/hardy/avidemux/hardy

« back to all changes in this revision

Viewing changes to avidemux/ADM_libraries/ADM_libmpeg2enc/predcomp_mmx.cc

  • Committer: Bazaar Package Importer
  • Author(s): Matvey Kozhev
  • Date: 2007-12-18 13:53:04 UTC
  • mfrom: (1.1.7 upstream)
  • Revision ID: james.westby@ubuntu.com-20071218135304-cdqec2lg2bglyz15
Tags: 1:2.4~preview3-0.0ubuntu1
* Upload to Ubuntu. (LP: #163287, LP: #126572)
* debian/changelog: re-added Ubuntu releases.
* debian/control:
  - Require debhelper >= 5.0.51 (for dh_icons) and imagemagick.
  - Build-depend on libsdl1.2-dev instead of libsdl-dev.
  - Build against newer libx264-dev. (LP: #138854)
  - Removed libamrnb-dev, not in Ubuntu yet.
* debian/rules:
  - Install all icon sizes, using convert (upstream installs none).
  - Added missing calls to dh_installmenu, dh_installman, dh_icons and
    dh_desktop.
* debian/menu, debian/avidemux-qt.menu:
  - Corrected package and executable names.
* debian/avidemux-common.install: Install icons.
* debian/avidemux.common.manpages: Install man/avidemux.1.
* debian/links, debian/avidemux-cli.links, debian/avidemux-gtk.links:
  - Link manpages to avidemux.1.gz.
* debian/install, debian/avidemux-qt.install, debian/avidemux-gtk.desktop,
  debian/avidemux-qt.desktop: Install desktop files.

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
/*
 
2
 *   predcomp_00_mmx.s:
 
3
 * 
 
4
 *                Extended MMX prediction composition
 
5
 *   routines handling the four different interpolation cases...
 
6
 *  
 
7
 *   Copyright (C) 2000 Andrew Stevens <as@comlab.ox.ac.uk>
 
8
 * 
 
9
 * 
 
10
 *   This program is free software; you can reaxstribute it and/or
 
11
 *   modify it under the terms of the GNU General Public License
 
12
 *   as published by the Free Software Foundation; either version 2
 
13
 *   of the License, or (at your option) any later version.
 
14
 * 
 
15
 *   This program is distributed in the hope that it will be useful,
 
16
 *   but WITHOUT ANY WARRANTY; without even the implied warranty of
 
17
 *   MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
 
18
 *   GNU General Public License for more details.
 
19
 * 
 
20
 *   You should have received a copy of the GNU General Public License
 
21
 *   along with this program; if not, write to the Free Software
 
22
 *   Foundation, Inc., 59 Temple Place - Suite 330, Boston, MA
 
23
 *   02111-1307, USA.
 
24
 */
 
25
 
 
26
#include <config.h>
 
27
#include "mjpeg_types.h"
 
28
#if defined( ARCH_X86)  || defined(ARCH_X86_64)
 
29
#include "mmx.h"
 
30
 
 
31
 
 
32
/* 
 
33
 * void predcomp_<ix><iy>_mmx(char *src,char *dst,int lx, int w, int h, int addflag);
 
34
 * 
 
35
 * ix - Interpolation in x iy - Interpolation in y
 
36
 *              
 
37
 */
 
38
 
 
39
 
 
40
/* The no interpolation case... */
 
41
 
 
42
void predcomp_00_mmx(char *src,char *dst,int lx, int w, int h, int addflag)
 
43
{
 
44
 
 
45
/*
 
46
 *  mm1 = one's mask for src
 
47
 *  mm0 = zero mask for src...
 
48
 */
 
49
 
 
50
        movd_g2r(0x00010001, mm1);
 
51
        punpckldq_r2r(mm1, mm1);
 
52
 
 
53
        pxor_r2r(mm0, mm0);
 
54
 
 
55
        
 
56
        do {
 
57
                movq_m2r(src[0], mm4); /* first 8 bytes of row */
 
58
                if (addflag)
 
59
                {
 
60
                        movq_r2r(mm4, mm5);
 
61
                        punpcklbw_r2r(mm0, mm4);        
 
62
                        punpckhbw_r2r(mm0, mm5);
 
63
                
 
64
                        movq_m2r(dst[0], mm2);
 
65
                        movq_r2r(mm2, mm3);
 
66
                        punpcklbw_r2r(mm0, mm2);        
 
67
                        punpckhbw_r2r(mm0, mm3);
 
68
                        paddw_r2r(mm2, mm4);
 
69
                        paddw_r2r(mm3, mm5);
 
70
                        paddw_r2r(mm1, mm4);
 
71
                        paddw_r2r(mm1, mm5);
 
72
                        psrlw_i2r(1, mm4);
 
73
                        psrlw_i2r(1, mm5);
 
74
                        packuswb_r2r(mm5, mm4);
 
75
                }
 
76
                
 
77
                movq_r2m(mm4, dst[0]);
 
78
                
 
79
                if (w != 8)
 
80
                {
 
81
                        movq_m2r(src[8], mm4); /* first 8 bytes of row */
 
82
                        if (addflag)
 
83
                        {
 
84
                                movq_r2r(mm4, mm5);
 
85
                                punpcklbw_r2r(mm0, mm4);        
 
86
                                punpckhbw_r2r(mm0, mm5);
 
87
                                
 
88
                                movq_m2r(dst[8], mm2);
 
89
                                movq_r2r(mm2, mm3);
 
90
                                punpcklbw_r2r(mm0, mm2);        
 
91
                                punpckhbw_r2r(mm0, mm3);
 
92
                                paddw_r2r(mm2, mm4);
 
93
                                paddw_r2r(mm3, mm5);
 
94
                                paddw_r2r(mm1, mm4);
 
95
                                paddw_r2r(mm1, mm5);
 
96
                                psrlw_i2r(1, mm4);
 
97
                                psrlw_i2r(1, mm5);
 
98
                                packuswb_r2r(mm5, mm4);
 
99
                        }
 
100
                        movq_r2m(mm4, dst[8]);          
 
101
                }
 
102
                
 
103
                dst += lx; /* update pointer to next row */
 
104
                src += lx;
 
105
                
 
106
                h--;    
 
107
        } while (h > 0);
 
108
        
 
109
        emms();
 
110
 
111
 
 
112
 
 
113
/* The x-axis interpolation case... */
 
114
 
 
115
void predcomp_10_mmx(char *src,char *dst,int lx, int w, int h, int addflag)
 
116
{
 
117
        movd_g2r(0x00010001, mm1);
 
118
        punpckldq_r2r(mm1, mm1);
 
119
 
 
120
        pxor_r2r(mm0, mm0);
 
121
 
 
122
        do {
 
123
                movq_m2r(src[0], mm4); /* first 8 bytes of row */
 
124
                movq_r2r(mm4, mm5);
 
125
                punpcklbw_r2r(mm0, mm4);
 
126
                punpckhbw_r2r(mm0, mm5);
 
127
                movq_m2r(src[1], mm2);
 
128
                movq_r2r(mm2, mm3);
 
129
                punpcklbw_r2r(mm0, mm2);
 
130
                punpckhbw_r2r(mm0, mm3);
 
131
                
 
132
                paddw_r2r(mm2, mm4); /* Average mm4/mm5 and mm2/mm3 */
 
133
                paddw_r2r(mm3, mm5);
 
134
                paddw_r2r(mm1, mm4);
 
135
                paddw_r2r(mm1, mm5);
 
136
                psrlw_i2r(1, mm4);
 
137
                psrlw_i2r(1, mm5);
 
138
                
 
139
                if (addflag)
 
140
                {
 
141
                        movq_m2r(dst[0], mm2);
 
142
                        movq_r2r(mm2, mm3);
 
143
                        punpcklbw_r2r(mm0, mm2);
 
144
                        punpckhbw_r2r(mm0, mm3);
 
145
                        paddw_r2r(mm2, mm4);     /* Average mm4/mm5 and mm2/mm3 */
 
146
                        paddw_r2r(mm3, mm5);
 
147
                        paddw_r2r(mm1, mm4);
 
148
                        paddw_r2r(mm1, mm5);
 
149
                        psrlw_i2r(1, mm4);
 
150
                        psrlw_i2r(1, mm5);
 
151
                }
 
152
                
 
153
                packuswb_r2r(mm5, mm4);
 
154
                movq_r2m(mm4, dst[0]);
 
155
                
 
156
                if (w != 8)
 
157
                {
 
158
                        movq_m2r(src[8], mm4); /* first 8 bytes of row */
 
159
                        movq_r2r(mm4, mm5);
 
160
                        punpcklbw_r2r(mm0, mm4);
 
161
                        punpckhbw_r2r(mm0, mm5);
 
162
                        movq_m2r(src[9], mm2);
 
163
                        movq_r2r(mm2, mm3);
 
164
                        punpcklbw_r2r(mm0, mm2);
 
165
                        punpckhbw_r2r(mm0, mm3);
 
166
                
 
167
                        paddw_r2r(mm2, mm4); /* Average mm4/mm5 and mm2/mm3 */
 
168
                        paddw_r2r(mm3, mm5);
 
169
                        paddw_r2r(mm1, mm4);
 
170
                        paddw_r2r(mm1, mm5);
 
171
                        psrlw_i2r(1, mm4);
 
172
                        psrlw_i2r(1, mm5);
 
173
                
 
174
                        if (addflag)
 
175
                        {
 
176
                                movq_m2r(dst[8], mm2);
 
177
                                movq_r2r(mm2, mm3);
 
178
                                punpcklbw_r2r(mm0, mm2);
 
179
                                punpckhbw_r2r(mm0, mm3);
 
180
                                paddw_r2r(mm2, mm4);     /* Average mm4/mm5 and mm2/mm3 */
 
181
                                paddw_r2r(mm3, mm5);
 
182
                                paddw_r2r(mm1, mm4);
 
183
                                paddw_r2r(mm1, mm5);
 
184
                                psrlw_i2r(1, mm4);
 
185
                                psrlw_i2r(1, mm5);
 
186
                        }
 
187
                
 
188
                        packuswb_r2r(mm5, mm4);
 
189
                        movq_r2m(mm4, dst[8]);
 
190
                }
 
191
                
 
192
                src += lx;
 
193
                dst += lx;
 
194
        
 
195
                h--;
 
196
        } while (h > 0);
 
197
 
 
198
        emms();
 
199
}
 
200
 
 
201
 
 
202
/* The y-axis interpolation case... */
 
203
 
 
204
void predcomp_01_mmx(char *src,char *dst,int lx, int w, int h, int addflag)
 
205
{
 
206
        movd_g2r(0x00010001, mm1);
 
207
        punpckldq_r2r(mm1, mm1);
 
208
 
 
209
        pxor_r2r(mm0, mm0);
 
210
 
 
211
        do {
 
212
                movq_m2r(src[0], mm4);  /* first 8 bytes of row */
 
213
                movq_r2r(mm4, mm5);
 
214
                src += lx;              /* Next row */
 
215
                punpcklbw_r2r(mm0, mm4);
 
216
                punpckhbw_r2r(mm0, mm5);
 
217
        
 
218
                movq_m2r(src[0], mm2);  
 
219
                movq_r2r(mm2, mm3);
 
220
                punpcklbw_r2r(mm0, mm2);
 
221
                punpckhbw_r2r(mm0, mm3);
 
222
 
 
223
                paddw_r2r(mm2, mm4); /* Average mm4/mm5 and mm2/mm3 */
 
224
                paddw_r2r(mm3, mm5);
 
225
                paddw_r2r(mm1, mm4);
 
226
                paddw_r2r(mm1, mm5);
 
227
                psrlw_i2r(1, mm4);
 
228
                psrlw_i2r(1, mm5);
 
229
                        
 
230
                if (addflag)
 
231
                {
 
232
                        movq_m2r(dst[0], mm2);
 
233
                        movq_r2r(mm2, mm3);
 
234
                        punpcklbw_r2r(mm0, mm2);
 
235
                        punpckhbw_r2r(mm0, mm3);
 
236
                        paddw_r2r(mm2, mm4);     /* Average mm4/mm5 and mm2/mm3 */
 
237
                        paddw_r2r(mm3, mm5);
 
238
                        paddw_r2r(mm1, mm4);
 
239
                        paddw_r2r(mm1, mm5);
 
240
                        psrlw_i2r(1, mm4);
 
241
                        psrlw_i2r(1, mm5);
 
242
                }
 
243
                                
 
244
                packuswb_r2r(mm5, mm4);
 
245
                movq_r2m(mm4, dst[0]);
 
246
 
 
247
                if (w != 8)
 
248
                {
 
249
                        src -= lx; /* Back to first row... */
 
250
                        movq_m2r(src[8], mm4);  /* first 8 bytes of row */
 
251
                        movq_r2r(mm4, mm5);
 
252
                        src += lx;              /* Next row */
 
253
                        punpcklbw_r2r(mm0, mm4);
 
254
                        punpckhbw_r2r(mm0, mm5);
 
255
        
 
256
                        movq_m2r(src[8], mm2);  
 
257
                        movq_r2r(mm2, mm3);
 
258
                        punpcklbw_r2r(mm0, mm2);
 
259
                        punpckhbw_r2r(mm0, mm3);
 
260
 
 
261
                        paddw_r2r(mm2, mm4); /* Average mm4/mm5 and mm2/mm3 */
 
262
                        paddw_r2r(mm3, mm5);
 
263
                        paddw_r2r(mm1, mm4);
 
264
                        paddw_r2r(mm1, mm5);
 
265
                        psrlw_i2r(1, mm4);
 
266
                        psrlw_i2r(1, mm5);
 
267
                        
 
268
                        if (addflag)
 
269
                        {
 
270
                                movq_m2r(dst[8], mm2);
 
271
                                movq_r2r(mm2, mm3);
 
272
                                punpcklbw_r2r(mm0, mm2);
 
273
                                punpckhbw_r2r(mm0, mm3);
 
274
                                paddw_r2r(mm2, mm4);     /* Average mm4/mm5 and mm2/mm3 */
 
275
                                paddw_r2r(mm3, mm5);
 
276
                                paddw_r2r(mm1, mm4);
 
277
                                paddw_r2r(mm1, mm5);
 
278
                                psrlw_i2r(1, mm4);
 
279
                                psrlw_i2r(1, mm5);
 
280
                        }
 
281
                                
 
282
                        packuswb_r2r(mm5, mm4);
 
283
                        movq_r2m(mm4, dst[8]);
 
284
                }       
 
285
        
 
286
                dst += lx;
 
287
        
 
288
                h--;
 
289
        } while (h > 0);
 
290
 
 
291
        emms();
 
292
}
 
293
 
 
294
 
 
295
/* The x-axis and y-axis interpolation case... */
 
296
 
 
297
void predcomp_11_mmx(char *src,char *dst,int lx, int w, int h, int addflag)
 
298
{
 
299
 
 
300
/*
 
301
 *  mm0 = [0,0,0,0]W
 
302
 *  mm1 = [1,1,1,1]W            
 
303
 *  mm2 = [2,2,2,2]W
 
304
 */
 
305
        movd_g2r(0x00020002, mm2);
 
306
        punpckldq_r2r(mm2, mm2);
 
307
        movd_g2r(0x00010001, mm1);
 
308
        punpckldq_r2r(mm1, mm1);
 
309
        pxor_r2r(mm0, mm0);
 
310
 
 
311
        do {
 
312
                movq_m2r(src[0], mm4);  /* mm4 and mm6 accumulate partial sums for interp. */
 
313
                movq_r2r(mm4, mm6);
 
314
                punpcklbw_r2r(mm0, mm4);
 
315
                punpckhbw_r2r(mm0, mm6);
 
316
 
 
317
                movq_m2r(src[1], mm5);
 
318
                movq_r2r(mm5, mm7);
 
319
                punpcklbw_r2r(mm0, mm5);
 
320
                paddw_r2r(mm5, mm4);
 
321
                punpckhbw_r2r(mm0, mm7);
 
322
                paddw_r2r(mm7, mm6);
 
323
                
 
324
                src += lx;              /* update pointer to next row */
 
325
                
 
326
                movq_m2r(src[0], mm5);  /* first 8 bytes 1st row:        avg src in x */
 
327
                movq_r2r(mm5, mm7);
 
328
                punpcklbw_r2r(mm0, mm5); /*  Accumulate partial interpolation */
 
329
                paddw_r2r(mm5, mm4);
 
330
                punpckhbw_r2r(mm0, mm7);
 
331
                paddw_r2r(mm7, mm6);
 
332
 
 
333
                movq_m2r(src[1], mm5);
 
334
                movq_r2r(mm5, mm7);
 
335
                punpcklbw_r2r(mm0, mm5);
 
336
                paddw_r2r(mm5, mm4);
 
337
                punpckhbw_r2r(mm0, mm7);
 
338
                paddw_r2r(mm7, mm6);
 
339
                
 
340
                /* Now round */
 
341
                paddw_r2r(mm2, mm4);
 
342
                paddw_r2r(mm2, mm6);
 
343
                psrlw_i2r(2, mm4);
 
344
                psrlw_i2r(2, mm6);
 
345
 
 
346
                if (addflag)
 
347
                {
 
348
                        movq_m2r(dst[0], mm5);
 
349
                        movq_r2r(mm5, mm7);
 
350
                        punpcklbw_r2r(mm0, mm5);
 
351
                        punpckhbw_r2r(mm0, mm7);
 
352
                        paddw_r2r(mm5, mm4);     /* Average mm4/mm6 and mm5/mm7 */
 
353
                        paddw_r2r(mm7, mm6);
 
354
                        paddw_r2r(mm1, mm4);
 
355
                        paddw_r2r(mm1, mm6);
 
356
                        psrlw_i2r(1, mm4);
 
357
                        psrlw_i2r(1, mm6);
 
358
                }
 
359
 
 
360
                packuswb_r2r(mm6, mm4);
 
361
                movq_r2m(mm4, dst[0]);
 
362
 
 
363
                if (w != 8)
 
364
                {
 
365
                        src -= lx; /* Back to first row... */
 
366
                
 
367
                        movq_m2r(src[8], mm4);  /* mm4 and mm6 accumulate partial sums for interp. */
 
368
                        movq_r2r(mm4, mm6);
 
369
                        punpcklbw_r2r(mm0, mm4);
 
370
                        punpckhbw_r2r(mm0, mm6);
 
371
 
 
372
                        movq_m2r(src[9], mm5);
 
373
                        movq_r2r(mm5, mm7);
 
374
                        punpcklbw_r2r(mm0, mm5);
 
375
                        paddw_r2r(mm5, mm4);
 
376
                        punpckhbw_r2r(mm0, mm7);
 
377
                        paddw_r2r(mm7, mm6);
 
378
                
 
379
                        src += lx;      /* update pointer to next row */
 
380
                
 
381
                        movq_m2r(src[8], mm5);  /* first 8 bytes 1st row:        avg src in x */
 
382
                        movq_r2r(mm5, mm7);
 
383
                        punpcklbw_r2r(mm0, mm5); /*  Accumulate partial interpolation */
 
384
                        paddw_r2r(mm5, mm4);
 
385
                        punpckhbw_r2r(mm0, mm7);
 
386
                        paddw_r2r(mm7, mm6);
 
387
 
 
388
                        movq_m2r(src[9], mm5);
 
389
                        movq_r2r(mm5, mm7);
 
390
                        punpcklbw_r2r(mm0, mm5);
 
391
                        paddw_r2r(mm5, mm4);
 
392
                        punpckhbw_r2r(mm0, mm7);
 
393
                        paddw_r2r(mm7, mm6);
 
394
                
 
395
                        /* Now round */
 
396
                        paddw_r2r(mm2, mm4);
 
397
                        paddw_r2r(mm2, mm6);
 
398
                        psrlw_i2r(2, mm4);
 
399
                        psrlw_i2r(2, mm6);
 
400
 
 
401
                        if (addflag)
 
402
                        {
 
403
                                movq_m2r(dst[8], mm5);
 
404
                                movq_r2r(mm5, mm7);
 
405
                                punpcklbw_r2r(mm0, mm5);
 
406
                                punpckhbw_r2r(mm0, mm7);
 
407
                                paddw_r2r(mm5, mm4);     /* Average mm4/mm6 and mm5/mm7 */
 
408
                                paddw_r2r(mm7, mm6);
 
409
                                paddw_r2r(mm1, mm4);
 
410
                                paddw_r2r(mm1, mm6);
 
411
                                psrlw_i2r(1, mm4);
 
412
                                psrlw_i2r(1, mm6);
 
413
                        }
 
414
 
 
415
                        packuswb_r2r(mm6, mm4);
 
416
                        movq_r2m(mm4, dst[8]);
 
417
                }
 
418
        
 
419
                dst += lx;
 
420
        
 
421
                h--;
 
422
        } while (h > 0);
 
423
        
 
424
        emms();
 
425
}
 
426
#endif
 
427