~vcs-imports/qemu/git

« back to all changes in this revision

Viewing changes to qemu-lock.h

  • Committer: ths
  • Date: 2007-06-17 15:32:30 UTC
  • Revision ID: git-v1:ffb04fcf089865952592f1f8855c2848d4514a89
Allow relative paths for the interpreter prefix in linux-user emulation.


git-svn-id: svn://svn.savannah.nongnu.org/qemu/trunk@2984 c046a42c-6fe2-441c-8c8c-71466251a162

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
/*
2
 
 *  Copyright (c) 2003 Fabrice Bellard
3
 
 *
4
 
 * This library is free software; you can redistribute it and/or
5
 
 * modify it under the terms of the GNU Lesser General Public
6
 
 * License as published by the Free Software Foundation; either
7
 
 * version 2 of the License, or (at your option) any later version.
8
 
 *
9
 
 * This library is distributed in the hope that it will be useful,
10
 
 * but WITHOUT ANY WARRANTY; without even the implied warranty of
11
 
 * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
12
 
 * Lesser General Public License for more details.
13
 
 *
14
 
 * You should have received a copy of the GNU Lesser General Public
15
 
 * License along with this library; if not, write to the Free Software
16
 
 * Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
17
 
 */
18
 
 
19
 
/* Locking primitives.  Most of this code should be redundant -
20
 
   system emulation doesn't need/use locking, NPTL userspace uses
21
 
   pthread mutexes, and non-NPTL userspace isn't threadsafe anyway.
22
 
   In either case a spinlock is probably the wrong kind of lock.
23
 
   Spinlocks are only good if you know annother CPU has the lock and is
24
 
   likely to release it soon.  In environments where you have more threads
25
 
   than physical CPUs (the extreme case being a single CPU host) a spinlock
26
 
   simply wastes CPU until the OS decides to preempt it.  */
27
 
#if defined(USE_NPTL)
28
 
 
29
 
#include <pthread.h>
30
 
#define spin_lock pthread_mutex_lock
31
 
#define spin_unlock pthread_mutex_unlock
32
 
#define spinlock_t pthread_mutex_t
33
 
#define SPIN_LOCK_UNLOCKED PTHREAD_MUTEX_INITIALIZER
34
 
 
35
 
#else
36
 
 
37
 
#if defined(__hppa__)
38
 
 
39
 
typedef int spinlock_t[4];
40
 
 
41
 
#define SPIN_LOCK_UNLOCKED { 1, 1, 1, 1 }
42
 
 
43
 
static inline void resetlock (spinlock_t *p)
44
 
{
45
 
    (*p)[0] = (*p)[1] = (*p)[2] = (*p)[3] = 1;
46
 
}
47
 
 
48
 
#else
49
 
 
50
 
typedef int spinlock_t;
51
 
 
52
 
#define SPIN_LOCK_UNLOCKED 0
53
 
 
54
 
static inline void resetlock (spinlock_t *p)
55
 
{
56
 
    *p = SPIN_LOCK_UNLOCKED;
57
 
}
58
 
 
59
 
#endif
60
 
 
61
 
#if defined(__powerpc__)
62
 
static inline int testandset (int *p)
63
 
{
64
 
    int ret;
65
 
    __asm__ __volatile__ (
66
 
                          "0:    lwarx %0,0,%1\n"
67
 
                          "      xor. %0,%3,%0\n"
68
 
                          "      bne 1f\n"
69
 
                          "      stwcx. %2,0,%1\n"
70
 
                          "      bne- 0b\n"
71
 
                          "1:    "
72
 
                          : "=&r" (ret)
73
 
                          : "r" (p), "r" (1), "r" (0)
74
 
                          : "cr0", "memory");
75
 
    return ret;
76
 
}
77
 
#elif defined(__i386__)
78
 
static inline int testandset (int *p)
79
 
{
80
 
    long int readval = 0;
81
 
 
82
 
    __asm__ __volatile__ ("lock; cmpxchgl %2, %0"
83
 
                          : "+m" (*p), "+a" (readval)
84
 
                          : "r" (1)
85
 
                          : "cc");
86
 
    return readval;
87
 
}
88
 
#elif defined(__x86_64__)
89
 
static inline int testandset (int *p)
90
 
{
91
 
    long int readval = 0;
92
 
 
93
 
    __asm__ __volatile__ ("lock; cmpxchgl %2, %0"
94
 
                          : "+m" (*p), "+a" (readval)
95
 
                          : "r" (1)
96
 
                          : "cc");
97
 
    return readval;
98
 
}
99
 
#elif defined(__s390__)
100
 
static inline int testandset (int *p)
101
 
{
102
 
    int ret;
103
 
 
104
 
    __asm__ __volatile__ ("0: cs    %0,%1,0(%2)\n"
105
 
                          "   jl    0b"
106
 
                          : "=&d" (ret)
107
 
                          : "r" (1), "a" (p), "0" (*p)
108
 
                          : "cc", "memory" );
109
 
    return ret;
110
 
}
111
 
#elif defined(__alpha__)
112
 
static inline int testandset (int *p)
113
 
{
114
 
    int ret;
115
 
    unsigned long one;
116
 
 
117
 
    __asm__ __volatile__ ("0:   mov 1,%2\n"
118
 
                          "     ldl_l %0,%1\n"
119
 
                          "     stl_c %2,%1\n"
120
 
                          "     beq %2,1f\n"
121
 
                          ".subsection 2\n"
122
 
                          "1:   br 0b\n"
123
 
                          ".previous"
124
 
                          : "=r" (ret), "=m" (*p), "=r" (one)
125
 
                          : "m" (*p));
126
 
    return ret;
127
 
}
128
 
#elif defined(__sparc__)
129
 
static inline int testandset (int *p)
130
 
{
131
 
        int ret;
132
 
 
133
 
        __asm__ __volatile__("ldstub    [%1], %0"
134
 
                             : "=r" (ret)
135
 
                             : "r" (p)
136
 
                             : "memory");
137
 
 
138
 
        return (ret ? 1 : 0);
139
 
}
140
 
#elif defined(__arm__)
141
 
static inline int testandset (int *spinlock)
142
 
{
143
 
    register unsigned int ret;
144
 
    __asm__ __volatile__("swp %0, %1, [%2]"
145
 
                         : "=r"(ret)
146
 
                         : "0"(1), "r"(spinlock));
147
 
 
148
 
    return ret;
149
 
}
150
 
#elif defined(__mc68000)
151
 
static inline int testandset (int *p)
152
 
{
153
 
    char ret;
154
 
    __asm__ __volatile__("tas %1; sne %0"
155
 
                         : "=r" (ret)
156
 
                         : "m" (p)
157
 
                         : "cc","memory");
158
 
    return ret;
159
 
}
160
 
#elif defined(__hppa__)
161
 
 
162
 
/* Because malloc only guarantees 8-byte alignment for malloc'd data,
163
 
   and GCC only guarantees 8-byte alignment for stack locals, we can't
164
 
   be assured of 16-byte alignment for atomic lock data even if we
165
 
   specify "__attribute ((aligned(16)))" in the type declaration.  So,
166
 
   we use a struct containing an array of four ints for the atomic lock
167
 
   type and dynamically select the 16-byte aligned int from the array
168
 
   for the semaphore.  */
169
 
#define __PA_LDCW_ALIGNMENT 16
170
 
static inline void *ldcw_align (void *p) {
171
 
    unsigned long a = (unsigned long)p;
172
 
    a = (a + __PA_LDCW_ALIGNMENT - 1) & ~(__PA_LDCW_ALIGNMENT - 1);
173
 
    return (void *)a;
174
 
}
175
 
 
176
 
static inline int testandset (spinlock_t *p)
177
 
{
178
 
    unsigned int ret;
179
 
    p = ldcw_align(p);
180
 
    __asm__ __volatile__("ldcw 0(%1),%0"
181
 
                         : "=r" (ret)
182
 
                         : "r" (p)
183
 
                         : "memory" );
184
 
    return !ret;
185
 
}
186
 
 
187
 
#elif defined(__ia64)
188
 
 
189
 
#include <ia64intrin.h>
190
 
 
191
 
static inline int testandset (int *p)
192
 
{
193
 
    return __sync_lock_test_and_set (p, 1);
194
 
}
195
 
#elif defined(__mips__)
196
 
static inline int testandset (int *p)
197
 
{
198
 
    int ret;
199
 
 
200
 
    __asm__ __volatile__ (
201
 
        "       .set push               \n"
202
 
        "       .set noat               \n"
203
 
        "       .set mips2              \n"
204
 
        "1:     li      $1, 1           \n"
205
 
        "       ll      %0, %1          \n"
206
 
        "       sc      $1, %1          \n"
207
 
        "       beqz    $1, 1b          \n"
208
 
        "       .set pop                "
209
 
        : "=r" (ret), "+R" (*p)
210
 
        :
211
 
        : "memory");
212
 
 
213
 
    return ret;
214
 
}
215
 
#else
216
 
#error unimplemented CPU support
217
 
#endif
218
 
 
219
 
#if defined(CONFIG_USER_ONLY)
220
 
static inline void spin_lock(spinlock_t *lock)
221
 
{
222
 
    while (testandset(lock));
223
 
}
224
 
 
225
 
static inline void spin_unlock(spinlock_t *lock)
226
 
{
227
 
    resetlock(lock);
228
 
}
229
 
 
230
 
static inline int spin_trylock(spinlock_t *lock)
231
 
{
232
 
    return !testandset(lock);
233
 
}
234
 
#else
235
 
static inline void spin_lock(spinlock_t *lock)
236
 
{
237
 
}
238
 
 
239
 
static inline void spin_unlock(spinlock_t *lock)
240
 
{
241
 
}
242
 
 
243
 
static inline int spin_trylock(spinlock_t *lock)
244
 
{
245
 
    return 1;
246
 
}
247
 
#endif
248
 
 
249
 
#endif