~louis/ubuntu/trusty/clamav/lp799623_fix_logrotate

« back to all changes in this revision

Viewing changes to libclamav/c++/llvm/test/CodeGen/ARM/vcgt.ll

  • Committer: Bazaar Package Importer
  • Author(s): Scott Kitterman
  • Date: 2010-03-12 11:30:04 UTC
  • mfrom: (0.41.1 upstream)
  • Revision ID: james.westby@ubuntu.com-20100312113004-b0fop4bkycszdd0z
Tags: 0.96~rc1+dfsg-0ubuntu1
* New upstream RC - FFE (LP: #537636):
  - Add OfficialDatabaseOnly option to clamav-base.postinst.in
  - Add LocalSocketGroup option to clamav-base.postinst.in
  - Add LocalSocketMode option to clamav-base.postinst.in
  - Add CrossFilesystems option to clamav-base.postinst.in
  - Add ClamukoScannerCount option to clamav-base.postinst.in
  - Add BytecodeSecurity opiton to clamav-base.postinst.in
  - Add DetectionStatsHostID option to clamav-freshclam.postinst.in
  - Add Bytecode option to clamav-freshclam.postinst.in
  - Add MilterSocketGroup option to clamav-milter.postinst.in
  - Add MilterSocketMode option to clamav-milter.postinst.in
  - Add ReportHostname option to clamav-milter.postinst.in
  - Bump libclamav SO version to 6.1.0 in libclamav6.install
  - Drop clamdmon from clamav.examples (no longer shipped by upstream)
  - Drop libclamav.a from libclamav-dev.install (not built by upstream)
  - Update SO version for lintian override for libclamav6
  - Add new Bytecode Testing Tool, usr/bin/clambc, to clamav.install
  - Add build-depends on python and python-setuptools for new test suite
  - Update debian/copyright for the embedded copy of llvm (using the system
    llvm is not currently feasible)

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
; RUN: llc < %s -march=arm -mattr=+neon | FileCheck %s
 
2
 
 
3
define <8 x i8> @vcgts8(<8 x i8>* %A, <8 x i8>* %B) nounwind {
 
4
;CHECK: vcgts8:
 
5
;CHECK: vcgt.s8
 
6
        %tmp1 = load <8 x i8>* %A
 
7
        %tmp2 = load <8 x i8>* %B
 
8
        %tmp3 = icmp sgt <8 x i8> %tmp1, %tmp2
 
9
        %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
 
10
        ret <8 x i8> %tmp4
 
11
}
 
12
 
 
13
define <4 x i16> @vcgts16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
 
14
;CHECK: vcgts16:
 
15
;CHECK: vcgt.s16
 
16
        %tmp1 = load <4 x i16>* %A
 
17
        %tmp2 = load <4 x i16>* %B
 
18
        %tmp3 = icmp sgt <4 x i16> %tmp1, %tmp2
 
19
        %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
 
20
        ret <4 x i16> %tmp4
 
21
}
 
22
 
 
23
define <2 x i32> @vcgts32(<2 x i32>* %A, <2 x i32>* %B) nounwind {
 
24
;CHECK: vcgts32:
 
25
;CHECK: vcgt.s32
 
26
        %tmp1 = load <2 x i32>* %A
 
27
        %tmp2 = load <2 x i32>* %B
 
28
        %tmp3 = icmp sgt <2 x i32> %tmp1, %tmp2
 
29
        %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
 
30
        ret <2 x i32> %tmp4
 
31
}
 
32
 
 
33
define <8 x i8> @vcgtu8(<8 x i8>* %A, <8 x i8>* %B) nounwind {
 
34
;CHECK: vcgtu8:
 
35
;CHECK: vcgt.u8
 
36
        %tmp1 = load <8 x i8>* %A
 
37
        %tmp2 = load <8 x i8>* %B
 
38
        %tmp3 = icmp ugt <8 x i8> %tmp1, %tmp2
 
39
        %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
 
40
        ret <8 x i8> %tmp4
 
41
}
 
42
 
 
43
define <4 x i16> @vcgtu16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
 
44
;CHECK: vcgtu16:
 
45
;CHECK: vcgt.u16
 
46
        %tmp1 = load <4 x i16>* %A
 
47
        %tmp2 = load <4 x i16>* %B
 
48
        %tmp3 = icmp ugt <4 x i16> %tmp1, %tmp2
 
49
        %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
 
50
        ret <4 x i16> %tmp4
 
51
}
 
52
 
 
53
define <2 x i32> @vcgtu32(<2 x i32>* %A, <2 x i32>* %B) nounwind {
 
54
;CHECK: vcgtu32:
 
55
;CHECK: vcgt.u32
 
56
        %tmp1 = load <2 x i32>* %A
 
57
        %tmp2 = load <2 x i32>* %B
 
58
        %tmp3 = icmp ugt <2 x i32> %tmp1, %tmp2
 
59
        %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
 
60
        ret <2 x i32> %tmp4
 
61
}
 
62
 
 
63
define <2 x i32> @vcgtf32(<2 x float>* %A, <2 x float>* %B) nounwind {
 
64
;CHECK: vcgtf32:
 
65
;CHECK: vcgt.f32
 
66
        %tmp1 = load <2 x float>* %A
 
67
        %tmp2 = load <2 x float>* %B
 
68
        %tmp3 = fcmp ogt <2 x float> %tmp1, %tmp2
 
69
        %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
 
70
        ret <2 x i32> %tmp4
 
71
}
 
72
 
 
73
define <16 x i8> @vcgtQs8(<16 x i8>* %A, <16 x i8>* %B) nounwind {
 
74
;CHECK: vcgtQs8:
 
75
;CHECK: vcgt.s8
 
76
        %tmp1 = load <16 x i8>* %A
 
77
        %tmp2 = load <16 x i8>* %B
 
78
        %tmp3 = icmp sgt <16 x i8> %tmp1, %tmp2
 
79
        %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
 
80
        ret <16 x i8> %tmp4
 
81
}
 
82
 
 
83
define <8 x i16> @vcgtQs16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
 
84
;CHECK: vcgtQs16:
 
85
;CHECK: vcgt.s16
 
86
        %tmp1 = load <8 x i16>* %A
 
87
        %tmp2 = load <8 x i16>* %B
 
88
        %tmp3 = icmp sgt <8 x i16> %tmp1, %tmp2
 
89
        %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
 
90
        ret <8 x i16> %tmp4
 
91
}
 
92
 
 
93
define <4 x i32> @vcgtQs32(<4 x i32>* %A, <4 x i32>* %B) nounwind {
 
94
;CHECK: vcgtQs32:
 
95
;CHECK: vcgt.s32
 
96
        %tmp1 = load <4 x i32>* %A
 
97
        %tmp2 = load <4 x i32>* %B
 
98
        %tmp3 = icmp sgt <4 x i32> %tmp1, %tmp2
 
99
        %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
 
100
        ret <4 x i32> %tmp4
 
101
}
 
102
 
 
103
define <16 x i8> @vcgtQu8(<16 x i8>* %A, <16 x i8>* %B) nounwind {
 
104
;CHECK: vcgtQu8:
 
105
;CHECK: vcgt.u8
 
106
        %tmp1 = load <16 x i8>* %A
 
107
        %tmp2 = load <16 x i8>* %B
 
108
        %tmp3 = icmp ugt <16 x i8> %tmp1, %tmp2
 
109
        %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
 
110
        ret <16 x i8> %tmp4
 
111
}
 
112
 
 
113
define <8 x i16> @vcgtQu16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
 
114
;CHECK: vcgtQu16:
 
115
;CHECK: vcgt.u16
 
116
        %tmp1 = load <8 x i16>* %A
 
117
        %tmp2 = load <8 x i16>* %B
 
118
        %tmp3 = icmp ugt <8 x i16> %tmp1, %tmp2
 
119
        %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
 
120
        ret <8 x i16> %tmp4
 
121
}
 
122
 
 
123
define <4 x i32> @vcgtQu32(<4 x i32>* %A, <4 x i32>* %B) nounwind {
 
124
;CHECK: vcgtQu32:
 
125
;CHECK: vcgt.u32
 
126
        %tmp1 = load <4 x i32>* %A
 
127
        %tmp2 = load <4 x i32>* %B
 
128
        %tmp3 = icmp ugt <4 x i32> %tmp1, %tmp2
 
129
        %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
 
130
        ret <4 x i32> %tmp4
 
131
}
 
132
 
 
133
define <4 x i32> @vcgtQf32(<4 x float>* %A, <4 x float>* %B) nounwind {
 
134
;CHECK: vcgtQf32:
 
135
;CHECK: vcgt.f32
 
136
        %tmp1 = load <4 x float>* %A
 
137
        %tmp2 = load <4 x float>* %B
 
138
        %tmp3 = fcmp ogt <4 x float> %tmp1, %tmp2
 
139
        %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
 
140
        ret <4 x i32> %tmp4
 
141
}
 
142
 
 
143
define <2 x i32> @vacgtf32(<2 x float>* %A, <2 x float>* %B) nounwind {
 
144
;CHECK: vacgtf32:
 
145
;CHECK: vacgt.f32
 
146
        %tmp1 = load <2 x float>* %A
 
147
        %tmp2 = load <2 x float>* %B
 
148
        %tmp3 = call <2 x i32> @llvm.arm.neon.vacgtd(<2 x float> %tmp1, <2 x float> %tmp2)
 
149
        ret <2 x i32> %tmp3
 
150
}
 
151
 
 
152
define <4 x i32> @vacgtQf32(<4 x float>* %A, <4 x float>* %B) nounwind {
 
153
;CHECK: vacgtQf32:
 
154
;CHECK: vacgt.f32
 
155
        %tmp1 = load <4 x float>* %A
 
156
        %tmp2 = load <4 x float>* %B
 
157
        %tmp3 = call <4 x i32> @llvm.arm.neon.vacgtq(<4 x float> %tmp1, <4 x float> %tmp2)
 
158
        ret <4 x i32> %tmp3
 
159
}
 
160
 
 
161
declare <2 x i32> @llvm.arm.neon.vacgtd(<2 x float>, <2 x float>) nounwind readnone
 
162
declare <4 x i32> @llvm.arm.neon.vacgtq(<4 x float>, <4 x float>) nounwind readnone