~louis/ubuntu/trusty/clamav/lp799623_fix_logrotate

« back to all changes in this revision

Viewing changes to libclamav/c++/llvm/test/CodeGen/ARM/vabd.ll

  • Committer: Bazaar Package Importer
  • Author(s): Scott Kitterman
  • Date: 2010-03-12 11:30:04 UTC
  • mfrom: (0.41.1 upstream)
  • Revision ID: james.westby@ubuntu.com-20100312113004-b0fop4bkycszdd0z
Tags: 0.96~rc1+dfsg-0ubuntu1
* New upstream RC - FFE (LP: #537636):
  - Add OfficialDatabaseOnly option to clamav-base.postinst.in
  - Add LocalSocketGroup option to clamav-base.postinst.in
  - Add LocalSocketMode option to clamav-base.postinst.in
  - Add CrossFilesystems option to clamav-base.postinst.in
  - Add ClamukoScannerCount option to clamav-base.postinst.in
  - Add BytecodeSecurity opiton to clamav-base.postinst.in
  - Add DetectionStatsHostID option to clamav-freshclam.postinst.in
  - Add Bytecode option to clamav-freshclam.postinst.in
  - Add MilterSocketGroup option to clamav-milter.postinst.in
  - Add MilterSocketMode option to clamav-milter.postinst.in
  - Add ReportHostname option to clamav-milter.postinst.in
  - Bump libclamav SO version to 6.1.0 in libclamav6.install
  - Drop clamdmon from clamav.examples (no longer shipped by upstream)
  - Drop libclamav.a from libclamav-dev.install (not built by upstream)
  - Update SO version for lintian override for libclamav6
  - Add new Bytecode Testing Tool, usr/bin/clambc, to clamav.install
  - Add build-depends on python and python-setuptools for new test suite
  - Update debian/copyright for the embedded copy of llvm (using the system
    llvm is not currently feasible)

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
; RUN: llc < %s -march=arm -mattr=+neon | FileCheck %s
 
2
 
 
3
define <8 x i8> @vabds8(<8 x i8>* %A, <8 x i8>* %B) nounwind {
 
4
;CHECK: vabds8:
 
5
;CHECK: vabd.s8
 
6
        %tmp1 = load <8 x i8>* %A
 
7
        %tmp2 = load <8 x i8>* %B
 
8
        %tmp3 = call <8 x i8> @llvm.arm.neon.vabds.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2)
 
9
        ret <8 x i8> %tmp3
 
10
}
 
11
 
 
12
define <4 x i16> @vabds16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
 
13
;CHECK: vabds16:
 
14
;CHECK: vabd.s16
 
15
        %tmp1 = load <4 x i16>* %A
 
16
        %tmp2 = load <4 x i16>* %B
 
17
        %tmp3 = call <4 x i16> @llvm.arm.neon.vabds.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2)
 
18
        ret <4 x i16> %tmp3
 
19
}
 
20
 
 
21
define <2 x i32> @vabds32(<2 x i32>* %A, <2 x i32>* %B) nounwind {
 
22
;CHECK: vabds32:
 
23
;CHECK: vabd.s32
 
24
        %tmp1 = load <2 x i32>* %A
 
25
        %tmp2 = load <2 x i32>* %B
 
26
        %tmp3 = call <2 x i32> @llvm.arm.neon.vabds.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2)
 
27
        ret <2 x i32> %tmp3
 
28
}
 
29
 
 
30
define <8 x i8> @vabdu8(<8 x i8>* %A, <8 x i8>* %B) nounwind {
 
31
;CHECK: vabdu8:
 
32
;CHECK: vabd.u8
 
33
        %tmp1 = load <8 x i8>* %A
 
34
        %tmp2 = load <8 x i8>* %B
 
35
        %tmp3 = call <8 x i8> @llvm.arm.neon.vabdu.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2)
 
36
        ret <8 x i8> %tmp3
 
37
}
 
38
 
 
39
define <4 x i16> @vabdu16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
 
40
;CHECK: vabdu16:
 
41
;CHECK: vabd.u16
 
42
        %tmp1 = load <4 x i16>* %A
 
43
        %tmp2 = load <4 x i16>* %B
 
44
        %tmp3 = call <4 x i16> @llvm.arm.neon.vabdu.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2)
 
45
        ret <4 x i16> %tmp3
 
46
}
 
47
 
 
48
define <2 x i32> @vabdu32(<2 x i32>* %A, <2 x i32>* %B) nounwind {
 
49
;CHECK: vabdu32:
 
50
;CHECK: vabd.u32
 
51
        %tmp1 = load <2 x i32>* %A
 
52
        %tmp2 = load <2 x i32>* %B
 
53
        %tmp3 = call <2 x i32> @llvm.arm.neon.vabdu.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2)
 
54
        ret <2 x i32> %tmp3
 
55
}
 
56
 
 
57
define <2 x float> @vabdf32(<2 x float>* %A, <2 x float>* %B) nounwind {
 
58
;CHECK: vabdf32:
 
59
;CHECK: vabd.f32
 
60
        %tmp1 = load <2 x float>* %A
 
61
        %tmp2 = load <2 x float>* %B
 
62
        %tmp3 = call <2 x float> @llvm.arm.neon.vabds.v2f32(<2 x float> %tmp1, <2 x float> %tmp2)
 
63
        ret <2 x float> %tmp3
 
64
}
 
65
 
 
66
define <16 x i8> @vabdQs8(<16 x i8>* %A, <16 x i8>* %B) nounwind {
 
67
;CHECK: vabdQs8:
 
68
;CHECK: vabd.s8
 
69
        %tmp1 = load <16 x i8>* %A
 
70
        %tmp2 = load <16 x i8>* %B
 
71
        %tmp3 = call <16 x i8> @llvm.arm.neon.vabds.v16i8(<16 x i8> %tmp1, <16 x i8> %tmp2)
 
72
        ret <16 x i8> %tmp3
 
73
}
 
74
 
 
75
define <8 x i16> @vabdQs16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
 
76
;CHECK: vabdQs16:
 
77
;CHECK: vabd.s16
 
78
        %tmp1 = load <8 x i16>* %A
 
79
        %tmp2 = load <8 x i16>* %B
 
80
        %tmp3 = call <8 x i16> @llvm.arm.neon.vabds.v8i16(<8 x i16> %tmp1, <8 x i16> %tmp2)
 
81
        ret <8 x i16> %tmp3
 
82
}
 
83
 
 
84
define <4 x i32> @vabdQs32(<4 x i32>* %A, <4 x i32>* %B) nounwind {
 
85
;CHECK: vabdQs32:
 
86
;CHECK: vabd.s32
 
87
        %tmp1 = load <4 x i32>* %A
 
88
        %tmp2 = load <4 x i32>* %B
 
89
        %tmp3 = call <4 x i32> @llvm.arm.neon.vabds.v4i32(<4 x i32> %tmp1, <4 x i32> %tmp2)
 
90
        ret <4 x i32> %tmp3
 
91
}
 
92
 
 
93
define <16 x i8> @vabdQu8(<16 x i8>* %A, <16 x i8>* %B) nounwind {
 
94
;CHECK: vabdQu8:
 
95
;CHECK: vabd.u8
 
96
        %tmp1 = load <16 x i8>* %A
 
97
        %tmp2 = load <16 x i8>* %B
 
98
        %tmp3 = call <16 x i8> @llvm.arm.neon.vabdu.v16i8(<16 x i8> %tmp1, <16 x i8> %tmp2)
 
99
        ret <16 x i8> %tmp3
 
100
}
 
101
 
 
102
define <8 x i16> @vabdQu16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
 
103
;CHECK: vabdQu16:
 
104
;CHECK: vabd.u16
 
105
        %tmp1 = load <8 x i16>* %A
 
106
        %tmp2 = load <8 x i16>* %B
 
107
        %tmp3 = call <8 x i16> @llvm.arm.neon.vabdu.v8i16(<8 x i16> %tmp1, <8 x i16> %tmp2)
 
108
        ret <8 x i16> %tmp3
 
109
}
 
110
 
 
111
define <4 x i32> @vabdQu32(<4 x i32>* %A, <4 x i32>* %B) nounwind {
 
112
;CHECK: vabdQu32:
 
113
;CHECK: vabd.u32
 
114
        %tmp1 = load <4 x i32>* %A
 
115
        %tmp2 = load <4 x i32>* %B
 
116
        %tmp3 = call <4 x i32> @llvm.arm.neon.vabdu.v4i32(<4 x i32> %tmp1, <4 x i32> %tmp2)
 
117
        ret <4 x i32> %tmp3
 
118
}
 
119
 
 
120
define <4 x float> @vabdQf32(<4 x float>* %A, <4 x float>* %B) nounwind {
 
121
;CHECK: vabdQf32:
 
122
;CHECK: vabd.f32
 
123
        %tmp1 = load <4 x float>* %A
 
124
        %tmp2 = load <4 x float>* %B
 
125
        %tmp3 = call <4 x float> @llvm.arm.neon.vabds.v4f32(<4 x float> %tmp1, <4 x float> %tmp2)
 
126
        ret <4 x float> %tmp3
 
127
}
 
128
 
 
129
declare <8 x i8>  @llvm.arm.neon.vabds.v8i8(<8 x i8>, <8 x i8>) nounwind readnone
 
130
declare <4 x i16> @llvm.arm.neon.vabds.v4i16(<4 x i16>, <4 x i16>) nounwind readnone
 
131
declare <2 x i32> @llvm.arm.neon.vabds.v2i32(<2 x i32>, <2 x i32>) nounwind readnone
 
132
 
 
133
declare <8 x i8>  @llvm.arm.neon.vabdu.v8i8(<8 x i8>, <8 x i8>) nounwind readnone
 
134
declare <4 x i16> @llvm.arm.neon.vabdu.v4i16(<4 x i16>, <4 x i16>) nounwind readnone
 
135
declare <2 x i32> @llvm.arm.neon.vabdu.v2i32(<2 x i32>, <2 x i32>) nounwind readnone
 
136
 
 
137
declare <2 x float> @llvm.arm.neon.vabds.v2f32(<2 x float>, <2 x float>) nounwind readnone
 
138
 
 
139
declare <16 x i8> @llvm.arm.neon.vabds.v16i8(<16 x i8>, <16 x i8>) nounwind readnone
 
140
declare <8 x i16> @llvm.arm.neon.vabds.v8i16(<8 x i16>, <8 x i16>) nounwind readnone
 
141
declare <4 x i32> @llvm.arm.neon.vabds.v4i32(<4 x i32>, <4 x i32>) nounwind readnone
 
142
 
 
143
declare <16 x i8> @llvm.arm.neon.vabdu.v16i8(<16 x i8>, <16 x i8>) nounwind readnone
 
144
declare <8 x i16> @llvm.arm.neon.vabdu.v8i16(<8 x i16>, <8 x i16>) nounwind readnone
 
145
declare <4 x i32> @llvm.arm.neon.vabdu.v4i32(<4 x i32>, <4 x i32>) nounwind readnone
 
146
 
 
147
declare <4 x float> @llvm.arm.neon.vabds.v4f32(<4 x float>, <4 x float>) nounwind readnone
 
148
 
 
149
define <8 x i16> @vabdls8(<8 x i8>* %A, <8 x i8>* %B) nounwind {
 
150
;CHECK: vabdls8:
 
151
;CHECK: vabdl.s8
 
152
        %tmp1 = load <8 x i8>* %A
 
153
        %tmp2 = load <8 x i8>* %B
 
154
        %tmp3 = call <8 x i16> @llvm.arm.neon.vabdls.v8i16(<8 x i8> %tmp1, <8 x i8> %tmp2)
 
155
        ret <8 x i16> %tmp3
 
156
}
 
157
 
 
158
define <4 x i32> @vabdls16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
 
159
;CHECK: vabdls16:
 
160
;CHECK: vabdl.s16
 
161
        %tmp1 = load <4 x i16>* %A
 
162
        %tmp2 = load <4 x i16>* %B
 
163
        %tmp3 = call <4 x i32> @llvm.arm.neon.vabdls.v4i32(<4 x i16> %tmp1, <4 x i16> %tmp2)
 
164
        ret <4 x i32> %tmp3
 
165
}
 
166
 
 
167
define <2 x i64> @vabdls32(<2 x i32>* %A, <2 x i32>* %B) nounwind {
 
168
;CHECK: vabdls32:
 
169
;CHECK: vabdl.s32
 
170
        %tmp1 = load <2 x i32>* %A
 
171
        %tmp2 = load <2 x i32>* %B
 
172
        %tmp3 = call <2 x i64> @llvm.arm.neon.vabdls.v2i64(<2 x i32> %tmp1, <2 x i32> %tmp2)
 
173
        ret <2 x i64> %tmp3
 
174
}
 
175
 
 
176
define <8 x i16> @vabdlu8(<8 x i8>* %A, <8 x i8>* %B) nounwind {
 
177
;CHECK: vabdlu8:
 
178
;CHECK: vabdl.u8
 
179
        %tmp1 = load <8 x i8>* %A
 
180
        %tmp2 = load <8 x i8>* %B
 
181
        %tmp3 = call <8 x i16> @llvm.arm.neon.vabdlu.v8i16(<8 x i8> %tmp1, <8 x i8> %tmp2)
 
182
        ret <8 x i16> %tmp3
 
183
}
 
184
 
 
185
define <4 x i32> @vabdlu16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
 
186
;CHECK: vabdlu16:
 
187
;CHECK: vabdl.u16
 
188
        %tmp1 = load <4 x i16>* %A
 
189
        %tmp2 = load <4 x i16>* %B
 
190
        %tmp3 = call <4 x i32> @llvm.arm.neon.vabdlu.v4i32(<4 x i16> %tmp1, <4 x i16> %tmp2)
 
191
        ret <4 x i32> %tmp3
 
192
}
 
193
 
 
194
define <2 x i64> @vabdlu32(<2 x i32>* %A, <2 x i32>* %B) nounwind {
 
195
;CHECK: vabdlu32:
 
196
;CHECK: vabdl.u32
 
197
        %tmp1 = load <2 x i32>* %A
 
198
        %tmp2 = load <2 x i32>* %B
 
199
        %tmp3 = call <2 x i64> @llvm.arm.neon.vabdlu.v2i64(<2 x i32> %tmp1, <2 x i32> %tmp2)
 
200
        ret <2 x i64> %tmp3
 
201
}
 
202
 
 
203
declare <8 x i16> @llvm.arm.neon.vabdls.v8i16(<8 x i8>, <8 x i8>) nounwind readnone
 
204
declare <4 x i32> @llvm.arm.neon.vabdls.v4i32(<4 x i16>, <4 x i16>) nounwind readnone
 
205
declare <2 x i64> @llvm.arm.neon.vabdls.v2i64(<2 x i32>, <2 x i32>) nounwind readnone
 
206
 
 
207
declare <8 x i16> @llvm.arm.neon.vabdlu.v8i16(<8 x i8>, <8 x i8>) nounwind readnone
 
208
declare <4 x i32> @llvm.arm.neon.vabdlu.v4i32(<4 x i16>, <4 x i16>) nounwind readnone
 
209
declare <2 x i64> @llvm.arm.neon.vabdlu.v2i64(<2 x i32>, <2 x i32>) nounwind readnone