1
; RUN: llc < %s -march=arm -mattr=+neon | FileCheck %s
3
define <8 x i8> @vceqi8(<8 x i8>* %A, <8 x i8>* %B) nounwind {
6
%tmp1 = load <8 x i8>* %A
7
%tmp2 = load <8 x i8>* %B
8
%tmp3 = icmp eq <8 x i8> %tmp1, %tmp2
9
%tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
13
define <4 x i16> @vceqi16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
16
%tmp1 = load <4 x i16>* %A
17
%tmp2 = load <4 x i16>* %B
18
%tmp3 = icmp eq <4 x i16> %tmp1, %tmp2
19
%tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
23
define <2 x i32> @vceqi32(<2 x i32>* %A, <2 x i32>* %B) nounwind {
26
%tmp1 = load <2 x i32>* %A
27
%tmp2 = load <2 x i32>* %B
28
%tmp3 = icmp eq <2 x i32> %tmp1, %tmp2
29
%tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
33
define <2 x i32> @vceqf32(<2 x float>* %A, <2 x float>* %B) nounwind {
36
%tmp1 = load <2 x float>* %A
37
%tmp2 = load <2 x float>* %B
38
%tmp3 = fcmp oeq <2 x float> %tmp1, %tmp2
39
%tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
43
define <16 x i8> @vceqQi8(<16 x i8>* %A, <16 x i8>* %B) nounwind {
46
%tmp1 = load <16 x i8>* %A
47
%tmp2 = load <16 x i8>* %B
48
%tmp3 = icmp eq <16 x i8> %tmp1, %tmp2
49
%tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
53
define <8 x i16> @vceqQi16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
56
%tmp1 = load <8 x i16>* %A
57
%tmp2 = load <8 x i16>* %B
58
%tmp3 = icmp eq <8 x i16> %tmp1, %tmp2
59
%tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
63
define <4 x i32> @vceqQi32(<4 x i32>* %A, <4 x i32>* %B) nounwind {
66
%tmp1 = load <4 x i32>* %A
67
%tmp2 = load <4 x i32>* %B
68
%tmp3 = icmp eq <4 x i32> %tmp1, %tmp2
69
%tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
73
define <4 x i32> @vceqQf32(<4 x float>* %A, <4 x float>* %B) nounwind {
76
%tmp1 = load <4 x float>* %A
77
%tmp2 = load <4 x float>* %B
78
%tmp3 = fcmp oeq <4 x float> %tmp1, %tmp2
79
%tmp4 = sext <4 x i1> %tmp3 to <4 x i32>