1
; RUN: llc < %s -disable-mmx -march=x86-64 -mattr=+sse42 | FileCheck %s
3
; Verify when widening a divide/remainder operation, we only generate a
4
; divide/rem per element since divide/remainder can trap.
6
define void @vectorDiv (<2 x i32> addrspace(1)* %nsource, <2 x i32> addrspace(1)* %dsource, <2 x i32> addrspace(1)* %qdest) nounwind {
12
%nsource.addr = alloca <2 x i32> addrspace(1)*, align 4
13
%dsource.addr = alloca <2 x i32> addrspace(1)*, align 4
14
%qdest.addr = alloca <2 x i32> addrspace(1)*, align 4
15
%index = alloca i32, align 4
16
store <2 x i32> addrspace(1)* %nsource, <2 x i32> addrspace(1)** %nsource.addr
17
store <2 x i32> addrspace(1)* %dsource, <2 x i32> addrspace(1)** %dsource.addr
18
store <2 x i32> addrspace(1)* %qdest, <2 x i32> addrspace(1)** %qdest.addr
19
%tmp = load <2 x i32> addrspace(1)** %qdest.addr
20
%tmp1 = load i32* %index
21
%arrayidx = getelementptr <2 x i32> addrspace(1)* %tmp, i32 %tmp1
22
%tmp2 = load <2 x i32> addrspace(1)** %nsource.addr
23
%tmp3 = load i32* %index
24
%arrayidx4 = getelementptr <2 x i32> addrspace(1)* %tmp2, i32 %tmp3
25
%tmp5 = load <2 x i32> addrspace(1)* %arrayidx4
26
%tmp6 = load <2 x i32> addrspace(1)** %dsource.addr
27
%tmp7 = load i32* %index
28
%arrayidx8 = getelementptr <2 x i32> addrspace(1)* %tmp6, i32 %tmp7
29
%tmp9 = load <2 x i32> addrspace(1)* %arrayidx8
30
%tmp10 = sdiv <2 x i32> %tmp5, %tmp9
31
store <2 x i32> %tmp10, <2 x i32> addrspace(1)* %arrayidx
35
define <3 x i8> @test_char_div(<3 x i8> %num, <3 x i8> %div) {
41
%div.r = sdiv <3 x i8> %num, %div
45
define <3 x i8> @test_uchar_div(<3 x i8> %num, <3 x i8> %div) {
51
%div.r = udiv <3 x i8> %num, %div
55
define <5 x i16> @test_short_div(<5 x i16> %num, <5 x i16> %div) {
63
%div.r = sdiv <5 x i16> %num, %div
67
define <4 x i16> @test_ushort_div(<4 x i16> %num, <4 x i16> %div) {
74
%div.r = udiv <4 x i16> %num, %div
78
define <3 x i32> @test_uint_div(<3 x i32> %num, <3 x i32> %div) {
84
%div.r = udiv <3 x i32> %num, %div
88
define <3 x i64> @test_long_div(<3 x i64> %num, <3 x i64> %div) {
94
%div.r = sdiv <3 x i64> %num, %div
98
define <3 x i64> @test_ulong_div(<3 x i64> %num, <3 x i64> %div) {
104
%div.r = udiv <3 x i64> %num, %div
109
define <4 x i8> @test_char_rem(<4 x i8> %num, <4 x i8> %rem) {
116
%rem.r = srem <4 x i8> %num, %rem
120
define <5 x i16> @test_short_rem(<5 x i16> %num, <5 x i16> %rem) {
128
%rem.r = srem <5 x i16> %num, %rem
132
define <4 x i32> @test_uint_rem(<4 x i32> %num, <4 x i32> %rem) {
139
%rem.r = srem <4 x i32> %num, %rem
144
define <5 x i64> @test_ulong_rem(<5 x i64> %num, <5 x i64> %rem) {
152
%rem.r = urem <5 x i64> %num, %rem
156
define void @test_int_div(<3 x i32>* %dest, <3 x i32>* %old, i32 %n) {
163
%cmp13 = icmp sgt i32 %n, 0
164
br i1 %cmp13, label %bb.nph, label %for.end
170
%i.014 = phi i32 [ 0, %bb.nph ], [ %inc, %for.body ]
171
%arrayidx11 = getelementptr <3 x i32>* %dest, i32 %i.014
172
%tmp4 = load <3 x i32>* %arrayidx11 ; <<3 x i32>> [#uses=1]
173
%arrayidx7 = getelementptr inbounds <3 x i32>* %old, i32 %i.014
174
%tmp8 = load <3 x i32>* %arrayidx7 ; <<3 x i32>> [#uses=1]
175
%div = sdiv <3 x i32> %tmp4, %tmp8
176
store <3 x i32> %div, <3 x i32>* %arrayidx11
177
%inc = add nsw i32 %i.014, 1
178
%exitcond = icmp eq i32 %inc, %n
179
br i1 %exitcond, label %for.end, label %for.body
181
for.end: ; preds = %for.body, %entry