~pali/+junk/llvm-toolchain-3.7

« back to all changes in this revision

Viewing changes to test/CodeGen/X86/lsr-delayed-fold.ll

  • Committer: Package Import Robot
  • Author(s): Sylvestre Ledru
  • Date: 2015-07-15 17:51:08 UTC
  • Revision ID: package-import@ubuntu.com-20150715175108-l8mynwovkx4zx697
Tags: upstream-3.7~+rc2
ImportĀ upstreamĀ versionĀ 3.7~+rc2

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
; RUN: llc -march=x86-64 < %s > /dev/null
 
2
 
 
3
; ScalarEvolution misses an opportunity to fold ((trunc x) + (trunc -x) + y),
 
4
; but LSR should tolerate this.
 
5
; rdar://7886751
 
6
 
 
7
target datalayout = "e-p:64:64:64-i1:8:8-i8:8:8-i16:16:16-i32:32:32-i64:64:64-f32:32:32-f64:64:64-v64:64:64-v128:128:128-a0:0:64-s0:64:64-f80:128:128-n8:16:32:64"
 
8
target triple = "x86_64-apple-darwin11.0"
 
9
 
 
10
define fastcc void @formatValue(i64 %arg5) nounwind {
 
11
bb12:                                             ; preds = %bb11
 
12
  %t = trunc i64 %arg5 to i32                   ; <i32> [#uses=1]
 
13
  %t13 = sub i64 0, %arg5                       ; <i64> [#uses=1]
 
14
  %t14 = and i64 %t13, 4294967295             ; <i64> [#uses=1]
 
15
  br label %bb15
 
16
 
 
17
bb15:                                             ; preds = %bb21, %bb12
 
18
  %t16 = phi i64 [ 0, %bb12 ], [ %t23, %bb15 ] ; <i64> [#uses=2]
 
19
  %t17 = mul i64 %t14, %t16                 ; <i64> [#uses=1]
 
20
  %t18 = add i64 undef, %t17                  ; <i64> [#uses=1]
 
21
  %t19 = trunc i64 %t18 to i32                ; <i32> [#uses=1]
 
22
  %t22 = icmp eq i32 %t19, %t               ; <i1> [#uses=1]
 
23
  %t23 = add i64 %t16, 1                      ; <i64> [#uses=1]
 
24
  br i1 %t22, label %bb24, label %bb15
 
25
 
 
26
bb24:                                             ; preds = %bb21, %bb11
 
27
  unreachable
 
28
}
 
29
 
 
30
; ScalarEvolution should be able to correctly expand the crazy addrec here.
 
31
; PR6914
 
32
 
 
33
define void @int323() nounwind {
 
34
entry:
 
35
  br label %for.cond
 
36
 
 
37
for.cond:                                         ; preds = %lbl_264, %for.inc, %entry
 
38
  %g_263.tmp.1 = phi i8 [ undef, %entry ], [ %g_263.tmp.1, %for.cond ]
 
39
  %p_95.addr.0 = phi i8 [ 0, %entry ], [ %add, %for.cond ]
 
40
  %add = add i8 %p_95.addr.0, 1                   ; <i8> [#uses=1]
 
41
  br i1 undef, label %for.cond, label %lbl_264
 
42
 
 
43
lbl_264:                                          ; preds = %if.end, %lbl_264.preheader
 
44
  %g_263.tmp.0 = phi i8 [ %g_263.tmp.1, %for.cond ] ; <i8> [#uses=1]
 
45
  %tmp7 = load i16, i16* undef                         ; <i16> [#uses=1]
 
46
  %conv8 = trunc i16 %tmp7 to i8                  ; <i8> [#uses=1]
 
47
  %mul.i = mul i8 %p_95.addr.0, %p_95.addr.0      ; <i8> [#uses=1]
 
48
  %mul.i18 = mul i8 %mul.i, %conv8                ; <i8> [#uses=1]
 
49
  %tobool12 = icmp eq i8 %mul.i18, 0              ; <i1> [#uses=1]
 
50
  unreachable
 
51
}
 
52
 
 
53
; LSR ends up going into conservative pruning mode; don't prune the solution
 
54
; so far that it becomes unsolvable though.
 
55
; PR7077
 
56
 
 
57
%struct.Bu = type { i32, i32, i32 }
 
58
 
 
59
define void @_Z3fooP2Bui(%struct.Bu* nocapture %bu) {
 
60
entry:
 
61
  br label %for.body
 
62
 
 
63
for.body:                                         ; preds = %for.inc131, %entry
 
64
  %indvar = phi i64 [ %indvar.next, %for.inc131 ], [ 0, %entry ] ; <i64> [#uses=3]
 
65
  br i1 undef, label %for.inc131, label %lor.lhs.false
 
66
 
 
67
lor.lhs.false:                                    ; preds = %for.body
 
68
  %tmp15 = add i64 %indvar, 1                     ; <i64> [#uses=1]
 
69
  %tmp17 = add i64 %indvar, 2                      ; <i64> [#uses=1]
 
70
  %tmp19 = add i64 %indvar, 3                      ; <i64> [#uses=1]
 
71
  %tmp21 = add i64 %indvar, 4                      ; <i64> [#uses=1]
 
72
  %tmp23 = add i64 %indvar, 5                      ; <i64> [#uses=1]
 
73
  %tmp25 = add i64 %indvar, 6                      ; <i64> [#uses=1]
 
74
  %tmp27 = add i64 %indvar, 7                      ; <i64> [#uses=1]
 
75
  %tmp29 = add i64 %indvar, 8                      ; <i64> [#uses=1]
 
76
  %tmp31 = add i64 %indvar, 9                      ; <i64> [#uses=1]
 
77
  %tmp35 = add i64 %indvar, 11                     ; <i64> [#uses=1]
 
78
  %tmp37 = add i64 %indvar, 12                     ; <i64> [#uses=1]
 
79
  %tmp39 = add i64 %indvar, 13                     ; <i64> [#uses=1]
 
80
  %tmp41 = add i64 %indvar, 14                     ; <i64> [#uses=1]
 
81
  %tmp43 = add i64 %indvar, 15                     ; <i64> [#uses=1]
 
82
  %tmp45 = add i64 %indvar, 16                     ; <i64> [#uses=1]
 
83
  %tmp47 = add i64 %indvar, 17                     ; <i64> [#uses=1]
 
84
  %mul = trunc i64 %indvar to i32                  ; <i32> [#uses=1]
 
85
  %add22 = trunc i64 %tmp15 to i32                ; <i32> [#uses=1]
 
86
  %add28 = trunc i64 %tmp17 to i32                ; <i32> [#uses=1]
 
87
  %add34 = trunc i64 %tmp19 to i32                ; <i32> [#uses=1]
 
88
  %add40 = trunc i64 %tmp21 to i32                ; <i32> [#uses=1]
 
89
  %add46 = trunc i64 %tmp23 to i32                ; <i32> [#uses=1]
 
90
  %add52 = trunc i64 %tmp25 to i32                ; <i32> [#uses=1]
 
91
  %add58 = trunc i64 %tmp27 to i32                ; <i32> [#uses=1]
 
92
  %add64 = trunc i64 %tmp29 to i32                ; <i32> [#uses=1]
 
93
  %add70 = trunc i64 %tmp31 to i32                ; <i32> [#uses=1]
 
94
  %add82 = trunc i64 %tmp35 to i32                ; <i32> [#uses=1]
 
95
  %add88 = trunc i64 %tmp37 to i32                ; <i32> [#uses=1]
 
96
  %add94 = trunc i64 %tmp39 to i32                ; <i32> [#uses=1]
 
97
  %add100 = trunc i64 %tmp41 to i32               ; <i32> [#uses=1]
 
98
  %add106 = trunc i64 %tmp43 to i32               ; <i32> [#uses=1]
 
99
  %add112 = trunc i64 %tmp45 to i32               ; <i32> [#uses=1]
 
100
  %add118 = trunc i64 %tmp47 to i32               ; <i32> [#uses=1]
 
101
  %tmp10 = getelementptr %struct.Bu, %struct.Bu* %bu, i64 %indvar, i32 2 ; <i32*> [#uses=1]
 
102
  %tmp11 = load i32, i32* %tmp10                       ; <i32> [#uses=0]
 
103
  tail call void undef(i32 %add22)
 
104
  tail call void undef(i32 %add28)
 
105
  tail call void undef(i32 %add34)
 
106
  tail call void undef(i32 %add40)
 
107
  tail call void undef(i32 %add46)
 
108
  tail call void undef(i32 %add52)
 
109
  tail call void undef(i32 %add58)
 
110
  tail call void undef(i32 %add64)
 
111
  tail call void undef(i32 %add70)
 
112
  tail call void undef(i32 %add82)
 
113
  tail call void undef(i32 %add88)
 
114
  tail call void undef(i32 %add94)
 
115
  tail call void undef(i32 %add100)
 
116
  tail call void undef(i32 %add106)
 
117
  tail call void undef(i32 %add112)
 
118
  tail call void undef(i32 %add118)
 
119
  br label %for.body123
 
120
 
 
121
for.body123:                                      ; preds = %for.body123, %lor.lhs.false
 
122
  %j.03 = phi i32 [ 0, %lor.lhs.false ], [ %inc, %for.body123 ] ; <i32> [#uses=2]
 
123
  %add129 = add i32 %mul, %j.03                   ; <i32> [#uses=1]
 
124
  tail call void undef(i32 %add129)
 
125
  %inc = add nsw i32 %j.03, 1                     ; <i32> [#uses=1]
 
126
  br i1 undef, label %for.inc131, label %for.body123
 
127
 
 
128
for.inc131:                                       ; preds = %for.body123, %for.body
 
129
  %indvar.next = add i64 %indvar, 1               ; <i64> [#uses=1]
 
130
  br i1 undef, label %for.end134, label %for.body
 
131
 
 
132
for.end134:                                       ; preds = %for.inc131
 
133
  ret void
 
134
}
 
135
 
 
136
; LSR needs to remember inserted instructions even in postinc mode, because
 
137
; there could be multiple subexpressions within a single expansion which
 
138
; require insert point adjustment.
 
139
; PR7306
 
140
 
 
141
define fastcc i32 @GetOptimum() nounwind {
 
142
bb:
 
143
  br label %bb1
 
144
 
 
145
bb1:                                              ; preds = %bb1, %bb
 
146
  %t = phi i32 [ 0, %bb ], [ %t2, %bb1 ]      ; <i32> [#uses=1]
 
147
  %t2 = add i32 %t, undef                     ; <i32> [#uses=3]
 
148
  br i1 undef, label %bb1, label %bb3
 
149
 
 
150
bb3:                                              ; preds = %bb1
 
151
  %t4 = add i32 undef, -1                       ; <i32> [#uses=1]
 
152
  br label %bb5
 
153
 
 
154
bb5:                                              ; preds = %bb16, %bb3
 
155
  %t6 = phi i32 [ %t17, %bb16 ], [ 0, %bb3 ]  ; <i32> [#uses=3]
 
156
  %t7 = add i32 undef, %t6                    ; <i32> [#uses=2]
 
157
  %t8 = add i32 %t4, %t6                    ; <i32> [#uses=1]
 
158
  br i1 undef, label %bb9, label %bb10
 
159
 
 
160
bb9:                                              ; preds = %bb5
 
161
  br label %bb10
 
162
 
 
163
bb10:                                             ; preds = %bb9, %bb5
 
164
  br i1 undef, label %bb11, label %bb16
 
165
 
 
166
bb11:                                             ; preds = %bb10
 
167
  %t12 = icmp ugt i32 %t7, %t2              ; <i1> [#uses=1]
 
168
  %t13 = select i1 %t12, i32 %t2, i32 %t7 ; <i32> [#uses=1]
 
169
  br label %bb14
 
170
 
 
171
bb14:                                             ; preds = %bb11
 
172
  store i32 %t13, i32* null
 
173
  ret i32 %t8
 
174
 
 
175
bb16:                                             ; preds = %bb10
 
176
  %t17 = add i32 %t6, 1                       ; <i32> [#uses=1]
 
177
  br label %bb5
 
178
}