~louis/ubuntu/trusty/clamav/lp799623_fix_logrotate

« back to all changes in this revision

Viewing changes to libclamav/c++/llvm/test/CodeGen/ARM/vadd.ll

  • Committer: Bazaar Package Importer
  • Author(s): Scott Kitterman
  • Date: 2010-03-12 11:30:04 UTC
  • mfrom: (0.41.1 upstream)
  • Revision ID: james.westby@ubuntu.com-20100312113004-b0fop4bkycszdd0z
Tags: 0.96~rc1+dfsg-0ubuntu1
* New upstream RC - FFE (LP: #537636):
  - Add OfficialDatabaseOnly option to clamav-base.postinst.in
  - Add LocalSocketGroup option to clamav-base.postinst.in
  - Add LocalSocketMode option to clamav-base.postinst.in
  - Add CrossFilesystems option to clamav-base.postinst.in
  - Add ClamukoScannerCount option to clamav-base.postinst.in
  - Add BytecodeSecurity opiton to clamav-base.postinst.in
  - Add DetectionStatsHostID option to clamav-freshclam.postinst.in
  - Add Bytecode option to clamav-freshclam.postinst.in
  - Add MilterSocketGroup option to clamav-milter.postinst.in
  - Add MilterSocketMode option to clamav-milter.postinst.in
  - Add ReportHostname option to clamav-milter.postinst.in
  - Bump libclamav SO version to 6.1.0 in libclamav6.install
  - Drop clamdmon from clamav.examples (no longer shipped by upstream)
  - Drop libclamav.a from libclamav-dev.install (not built by upstream)
  - Update SO version for lintian override for libclamav6
  - Add new Bytecode Testing Tool, usr/bin/clambc, to clamav.install
  - Add build-depends on python and python-setuptools for new test suite
  - Update debian/copyright for the embedded copy of llvm (using the system
    llvm is not currently feasible)

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
; RUN: llc < %s -march=arm -mattr=+neon | FileCheck %s
 
2
 
 
3
define <8 x i8> @vaddi8(<8 x i8>* %A, <8 x i8>* %B) nounwind {
 
4
;CHECK: vaddi8:
 
5
;CHECK: vadd.i8
 
6
        %tmp1 = load <8 x i8>* %A
 
7
        %tmp2 = load <8 x i8>* %B
 
8
        %tmp3 = add <8 x i8> %tmp1, %tmp2
 
9
        ret <8 x i8> %tmp3
 
10
}
 
11
 
 
12
define <4 x i16> @vaddi16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
 
13
;CHECK: vaddi16:
 
14
;CHECK: vadd.i16
 
15
        %tmp1 = load <4 x i16>* %A
 
16
        %tmp2 = load <4 x i16>* %B
 
17
        %tmp3 = add <4 x i16> %tmp1, %tmp2
 
18
        ret <4 x i16> %tmp3
 
19
}
 
20
 
 
21
define <2 x i32> @vaddi32(<2 x i32>* %A, <2 x i32>* %B) nounwind {
 
22
;CHECK: vaddi32:
 
23
;CHECK: vadd.i32
 
24
        %tmp1 = load <2 x i32>* %A
 
25
        %tmp2 = load <2 x i32>* %B
 
26
        %tmp3 = add <2 x i32> %tmp1, %tmp2
 
27
        ret <2 x i32> %tmp3
 
28
}
 
29
 
 
30
define <1 x i64> @vaddi64(<1 x i64>* %A, <1 x i64>* %B) nounwind {
 
31
;CHECK: vaddi64:
 
32
;CHECK: vadd.i64
 
33
        %tmp1 = load <1 x i64>* %A
 
34
        %tmp2 = load <1 x i64>* %B
 
35
        %tmp3 = add <1 x i64> %tmp1, %tmp2
 
36
        ret <1 x i64> %tmp3
 
37
}
 
38
 
 
39
define <2 x float> @vaddf32(<2 x float>* %A, <2 x float>* %B) nounwind {
 
40
;CHECK: vaddf32:
 
41
;CHECK: vadd.f32
 
42
        %tmp1 = load <2 x float>* %A
 
43
        %tmp2 = load <2 x float>* %B
 
44
        %tmp3 = add <2 x float> %tmp1, %tmp2
 
45
        ret <2 x float> %tmp3
 
46
}
 
47
 
 
48
define <16 x i8> @vaddQi8(<16 x i8>* %A, <16 x i8>* %B) nounwind {
 
49
;CHECK: vaddQi8:
 
50
;CHECK: vadd.i8
 
51
        %tmp1 = load <16 x i8>* %A
 
52
        %tmp2 = load <16 x i8>* %B
 
53
        %tmp3 = add <16 x i8> %tmp1, %tmp2
 
54
        ret <16 x i8> %tmp3
 
55
}
 
56
 
 
57
define <8 x i16> @vaddQi16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
 
58
;CHECK: vaddQi16:
 
59
;CHECK: vadd.i16
 
60
        %tmp1 = load <8 x i16>* %A
 
61
        %tmp2 = load <8 x i16>* %B
 
62
        %tmp3 = add <8 x i16> %tmp1, %tmp2
 
63
        ret <8 x i16> %tmp3
 
64
}
 
65
 
 
66
define <4 x i32> @vaddQi32(<4 x i32>* %A, <4 x i32>* %B) nounwind {
 
67
;CHECK: vaddQi32:
 
68
;CHECK: vadd.i32
 
69
        %tmp1 = load <4 x i32>* %A
 
70
        %tmp2 = load <4 x i32>* %B
 
71
        %tmp3 = add <4 x i32> %tmp1, %tmp2
 
72
        ret <4 x i32> %tmp3
 
73
}
 
74
 
 
75
define <2 x i64> @vaddQi64(<2 x i64>* %A, <2 x i64>* %B) nounwind {
 
76
;CHECK: vaddQi64:
 
77
;CHECK: vadd.i64
 
78
        %tmp1 = load <2 x i64>* %A
 
79
        %tmp2 = load <2 x i64>* %B
 
80
        %tmp3 = add <2 x i64> %tmp1, %tmp2
 
81
        ret <2 x i64> %tmp3
 
82
}
 
83
 
 
84
define <4 x float> @vaddQf32(<4 x float>* %A, <4 x float>* %B) nounwind {
 
85
;CHECK: vaddQf32:
 
86
;CHECK: vadd.f32
 
87
        %tmp1 = load <4 x float>* %A
 
88
        %tmp2 = load <4 x float>* %B
 
89
        %tmp3 = add <4 x float> %tmp1, %tmp2
 
90
        ret <4 x float> %tmp3
 
91
}
 
92
 
 
93
define <8 x i8> @vaddhni16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
 
94
;CHECK: vaddhni16:
 
95
;CHECK: vaddhn.i16
 
96
        %tmp1 = load <8 x i16>* %A
 
97
        %tmp2 = load <8 x i16>* %B
 
98
        %tmp3 = call <8 x i8> @llvm.arm.neon.vaddhn.v8i8(<8 x i16> %tmp1, <8 x i16> %tmp2)
 
99
        ret <8 x i8> %tmp3
 
100
}
 
101
 
 
102
define <4 x i16> @vaddhni32(<4 x i32>* %A, <4 x i32>* %B) nounwind {
 
103
;CHECK: vaddhni32:
 
104
;CHECK: vaddhn.i32
 
105
        %tmp1 = load <4 x i32>* %A
 
106
        %tmp2 = load <4 x i32>* %B
 
107
        %tmp3 = call <4 x i16> @llvm.arm.neon.vaddhn.v4i16(<4 x i32> %tmp1, <4 x i32> %tmp2)
 
108
        ret <4 x i16> %tmp3
 
109
}
 
110
 
 
111
define <2 x i32> @vaddhni64(<2 x i64>* %A, <2 x i64>* %B) nounwind {
 
112
;CHECK: vaddhni64:
 
113
;CHECK: vaddhn.i64
 
114
        %tmp1 = load <2 x i64>* %A
 
115
        %tmp2 = load <2 x i64>* %B
 
116
        %tmp3 = call <2 x i32> @llvm.arm.neon.vaddhn.v2i32(<2 x i64> %tmp1, <2 x i64> %tmp2)
 
117
        ret <2 x i32> %tmp3
 
118
}
 
119
 
 
120
declare <8 x i8>  @llvm.arm.neon.vaddhn.v8i8(<8 x i16>, <8 x i16>) nounwind readnone
 
121
declare <4 x i16> @llvm.arm.neon.vaddhn.v4i16(<4 x i32>, <4 x i32>) nounwind readnone
 
122
declare <2 x i32> @llvm.arm.neon.vaddhn.v2i32(<2 x i64>, <2 x i64>) nounwind readnone
 
123
 
 
124
define <8 x i8> @vraddhni16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
 
125
;CHECK: vraddhni16:
 
126
;CHECK: vraddhn.i16
 
127
        %tmp1 = load <8 x i16>* %A
 
128
        %tmp2 = load <8 x i16>* %B
 
129
        %tmp3 = call <8 x i8> @llvm.arm.neon.vraddhn.v8i8(<8 x i16> %tmp1, <8 x i16> %tmp2)
 
130
        ret <8 x i8> %tmp3
 
131
}
 
132
 
 
133
define <4 x i16> @vraddhni32(<4 x i32>* %A, <4 x i32>* %B) nounwind {
 
134
;CHECK: vraddhni32:
 
135
;CHECK: vraddhn.i32
 
136
        %tmp1 = load <4 x i32>* %A
 
137
        %tmp2 = load <4 x i32>* %B
 
138
        %tmp3 = call <4 x i16> @llvm.arm.neon.vraddhn.v4i16(<4 x i32> %tmp1, <4 x i32> %tmp2)
 
139
        ret <4 x i16> %tmp3
 
140
}
 
141
 
 
142
define <2 x i32> @vraddhni64(<2 x i64>* %A, <2 x i64>* %B) nounwind {
 
143
;CHECK: vraddhni64:
 
144
;CHECK: vraddhn.i64
 
145
        %tmp1 = load <2 x i64>* %A
 
146
        %tmp2 = load <2 x i64>* %B
 
147
        %tmp3 = call <2 x i32> @llvm.arm.neon.vraddhn.v2i32(<2 x i64> %tmp1, <2 x i64> %tmp2)
 
148
        ret <2 x i32> %tmp3
 
149
}
 
150
 
 
151
declare <8 x i8>  @llvm.arm.neon.vraddhn.v8i8(<8 x i16>, <8 x i16>) nounwind readnone
 
152
declare <4 x i16> @llvm.arm.neon.vraddhn.v4i16(<4 x i32>, <4 x i32>) nounwind readnone
 
153
declare <2 x i32> @llvm.arm.neon.vraddhn.v2i32(<2 x i64>, <2 x i64>) nounwind readnone
 
154
 
 
155
define <8 x i16> @vaddls8(<8 x i8>* %A, <8 x i8>* %B) nounwind {
 
156
;CHECK: vaddls8:
 
157
;CHECK: vaddl.s8
 
158
        %tmp1 = load <8 x i8>* %A
 
159
        %tmp2 = load <8 x i8>* %B
 
160
        %tmp3 = call <8 x i16> @llvm.arm.neon.vaddls.v8i16(<8 x i8> %tmp1, <8 x i8> %tmp2)
 
161
        ret <8 x i16> %tmp3
 
162
}
 
163
 
 
164
define <4 x i32> @vaddls16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
 
165
;CHECK: vaddls16:
 
166
;CHECK: vaddl.s16
 
167
        %tmp1 = load <4 x i16>* %A
 
168
        %tmp2 = load <4 x i16>* %B
 
169
        %tmp3 = call <4 x i32> @llvm.arm.neon.vaddls.v4i32(<4 x i16> %tmp1, <4 x i16> %tmp2)
 
170
        ret <4 x i32> %tmp3
 
171
}
 
172
 
 
173
define <2 x i64> @vaddls32(<2 x i32>* %A, <2 x i32>* %B) nounwind {
 
174
;CHECK: vaddls32:
 
175
;CHECK: vaddl.s32
 
176
        %tmp1 = load <2 x i32>* %A
 
177
        %tmp2 = load <2 x i32>* %B
 
178
        %tmp3 = call <2 x i64> @llvm.arm.neon.vaddls.v2i64(<2 x i32> %tmp1, <2 x i32> %tmp2)
 
179
        ret <2 x i64> %tmp3
 
180
}
 
181
 
 
182
define <8 x i16> @vaddlu8(<8 x i8>* %A, <8 x i8>* %B) nounwind {
 
183
;CHECK: vaddlu8:
 
184
;CHECK: vaddl.u8
 
185
        %tmp1 = load <8 x i8>* %A
 
186
        %tmp2 = load <8 x i8>* %B
 
187
        %tmp3 = call <8 x i16> @llvm.arm.neon.vaddlu.v8i16(<8 x i8> %tmp1, <8 x i8> %tmp2)
 
188
        ret <8 x i16> %tmp3
 
189
}
 
190
 
 
191
define <4 x i32> @vaddlu16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
 
192
;CHECK: vaddlu16:
 
193
;CHECK: vaddl.u16
 
194
        %tmp1 = load <4 x i16>* %A
 
195
        %tmp2 = load <4 x i16>* %B
 
196
        %tmp3 = call <4 x i32> @llvm.arm.neon.vaddlu.v4i32(<4 x i16> %tmp1, <4 x i16> %tmp2)
 
197
        ret <4 x i32> %tmp3
 
198
}
 
199
 
 
200
define <2 x i64> @vaddlu32(<2 x i32>* %A, <2 x i32>* %B) nounwind {
 
201
;CHECK: vaddlu32:
 
202
;CHECK: vaddl.u32
 
203
        %tmp1 = load <2 x i32>* %A
 
204
        %tmp2 = load <2 x i32>* %B
 
205
        %tmp3 = call <2 x i64> @llvm.arm.neon.vaddlu.v2i64(<2 x i32> %tmp1, <2 x i32> %tmp2)
 
206
        ret <2 x i64> %tmp3
 
207
}
 
208
 
 
209
declare <8 x i16> @llvm.arm.neon.vaddls.v8i16(<8 x i8>, <8 x i8>) nounwind readnone
 
210
declare <4 x i32> @llvm.arm.neon.vaddls.v4i32(<4 x i16>, <4 x i16>) nounwind readnone
 
211
declare <2 x i64> @llvm.arm.neon.vaddls.v2i64(<2 x i32>, <2 x i32>) nounwind readnone
 
212
 
 
213
declare <8 x i16> @llvm.arm.neon.vaddlu.v8i16(<8 x i8>, <8 x i8>) nounwind readnone
 
214
declare <4 x i32> @llvm.arm.neon.vaddlu.v4i32(<4 x i16>, <4 x i16>) nounwind readnone
 
215
declare <2 x i64> @llvm.arm.neon.vaddlu.v2i64(<2 x i32>, <2 x i32>) nounwind readnone
 
216
 
 
217
define <8 x i16> @vaddws8(<8 x i16>* %A, <8 x i8>* %B) nounwind {
 
218
;CHECK: vaddws8:
 
219
;CHECK: vaddw.s8
 
220
        %tmp1 = load <8 x i16>* %A
 
221
        %tmp2 = load <8 x i8>* %B
 
222
        %tmp3 = call <8 x i16> @llvm.arm.neon.vaddws.v8i16(<8 x i16> %tmp1, <8 x i8> %tmp2)
 
223
        ret <8 x i16> %tmp3
 
224
}
 
225
 
 
226
define <4 x i32> @vaddws16(<4 x i32>* %A, <4 x i16>* %B) nounwind {
 
227
;CHECK: vaddws16:
 
228
;CHECK: vaddw.s16
 
229
        %tmp1 = load <4 x i32>* %A
 
230
        %tmp2 = load <4 x i16>* %B
 
231
        %tmp3 = call <4 x i32> @llvm.arm.neon.vaddws.v4i32(<4 x i32> %tmp1, <4 x i16> %tmp2)
 
232
        ret <4 x i32> %tmp3
 
233
}
 
234
 
 
235
define <2 x i64> @vaddws32(<2 x i64>* %A, <2 x i32>* %B) nounwind {
 
236
;CHECK: vaddws32:
 
237
;CHECK: vaddw.s32
 
238
        %tmp1 = load <2 x i64>* %A
 
239
        %tmp2 = load <2 x i32>* %B
 
240
        %tmp3 = call <2 x i64> @llvm.arm.neon.vaddws.v2i64(<2 x i64> %tmp1, <2 x i32> %tmp2)
 
241
        ret <2 x i64> %tmp3
 
242
}
 
243
 
 
244
define <8 x i16> @vaddwu8(<8 x i16>* %A, <8 x i8>* %B) nounwind {
 
245
;CHECK: vaddwu8:
 
246
;CHECK: vaddw.u8
 
247
        %tmp1 = load <8 x i16>* %A
 
248
        %tmp2 = load <8 x i8>* %B
 
249
        %tmp3 = call <8 x i16> @llvm.arm.neon.vaddwu.v8i16(<8 x i16> %tmp1, <8 x i8> %tmp2)
 
250
        ret <8 x i16> %tmp3
 
251
}
 
252
 
 
253
define <4 x i32> @vaddwu16(<4 x i32>* %A, <4 x i16>* %B) nounwind {
 
254
;CHECK: vaddwu16:
 
255
;CHECK: vaddw.u16
 
256
        %tmp1 = load <4 x i32>* %A
 
257
        %tmp2 = load <4 x i16>* %B
 
258
        %tmp3 = call <4 x i32> @llvm.arm.neon.vaddwu.v4i32(<4 x i32> %tmp1, <4 x i16> %tmp2)
 
259
        ret <4 x i32> %tmp3
 
260
}
 
261
 
 
262
define <2 x i64> @vaddwu32(<2 x i64>* %A, <2 x i32>* %B) nounwind {
 
263
;CHECK: vaddwu32:
 
264
;CHECK: vaddw.u32
 
265
        %tmp1 = load <2 x i64>* %A
 
266
        %tmp2 = load <2 x i32>* %B
 
267
        %tmp3 = call <2 x i64> @llvm.arm.neon.vaddwu.v2i64(<2 x i64> %tmp1, <2 x i32> %tmp2)
 
268
        ret <2 x i64> %tmp3
 
269
}
 
270
 
 
271
declare <8 x i16> @llvm.arm.neon.vaddws.v8i16(<8 x i16>, <8 x i8>) nounwind readnone
 
272
declare <4 x i32> @llvm.arm.neon.vaddws.v4i32(<4 x i32>, <4 x i16>) nounwind readnone
 
273
declare <2 x i64> @llvm.arm.neon.vaddws.v2i64(<2 x i64>, <2 x i32>) nounwind readnone
 
274
 
 
275
declare <8 x i16> @llvm.arm.neon.vaddwu.v8i16(<8 x i16>, <8 x i8>) nounwind readnone
 
276
declare <4 x i32> @llvm.arm.neon.vaddwu.v4i32(<4 x i32>, <4 x i16>) nounwind readnone
 
277
declare <2 x i64> @llvm.arm.neon.vaddwu.v2i64(<2 x i64>, <2 x i32>) nounwind readnone