43
41
#include <pulsecore/pipe.h>
48
#if !defined(__NR_eventfd) && defined(__i386__)
49
#define __NR_eventfd 323
52
#if !defined(__NR_eventfd) && defined(__x86_64__)
53
#define __NR_eventfd 284
56
#if !defined(__NR_eventfd) && defined(__arm__)
57
#define __NR_eventfd (__NR_SYSCALL_BASE+351)
60
#if !defined(SYS_eventfd) && defined(__NR_eventfd)
61
#define SYS_eventfd __NR_eventfd
67
static inline long eventfd(unsigned count) {
68
return syscall(SYS_eventfd, count);
44
#ifdef HAVE_SYS_EVENTFD_H
45
#include <sys/eventfd.h>
52
#ifdef HAVE_SYS_EVENTFD_H
82
pa_atomic_t signalled;
86
59
pa_fdsem *pa_fdsem_new(void) {
89
f = pa_xnew(pa_fdsem, 1);
62
f = pa_xmalloc(PA_ALIGN(sizeof(pa_fdsem)) + PA_ALIGN(sizeof(pa_fdsem_data)));
92
if ((f->efd = eventfd(0)) >= 0) {
64
#ifdef HAVE_SYS_EVENTFD_H
65
if ((f->efd = eventfd(0, 0)) >= 0) {
93
66
pa_make_fd_cloexec(f->efd);
94
67
f->fds[0] = f->fds[1] = -1;
105
77
pa_make_fd_cloexec(f->fds[1]);
108
pa_atomic_store(&f->waiting, 0);
109
pa_atomic_store(&f->signalled, 0);
110
pa_atomic_store(&f->in_pipe, 0);
80
f->data = (pa_fdsem_data*) ((uint8_t*) f + PA_ALIGN(sizeof(pa_fdsem)));
82
pa_atomic_store(&f->data->waiting, 0);
83
pa_atomic_store(&f->data->signalled, 0);
84
pa_atomic_store(&f->data->in_pipe, 0);
89
pa_fdsem *pa_fdsem_open_shm(pa_fdsem_data *data, int event_fd) {
93
pa_assert(event_fd >= 0);
95
#ifdef HAVE_SYS_EVENTFD_H
96
f = pa_xnew(pa_fdsem, 1);
99
pa_make_fd_cloexec(f->efd);
100
f->fds[0] = f->fds[1] = -1;
107
pa_fdsem *pa_fdsem_new_shm(pa_fdsem_data *data, int* event_fd) {
113
#ifdef HAVE_SYS_EVENTFD_H
115
f = pa_xnew(pa_fdsem, 1);
117
if ((f->efd = eventfd(0, 0)) < 0) {
122
pa_make_fd_cloexec(f->efd);
123
f->fds[0] = f->fds[1] = -1;
126
pa_atomic_store(&f->data->waiting, 0);
127
pa_atomic_store(&f->data->signalled, 0);
128
pa_atomic_store(&f->data->in_pipe, 0);
154
} while (pa_atomic_sub(&f->in_pipe, r) > r);
174
} while (pa_atomic_sub(&f->data->in_pipe, (int) r) > (int) r);
157
177
void pa_fdsem_post(pa_fdsem *f) {
160
if (pa_atomic_cmpxchg(&f->signalled, 0, 1)) {
180
if (pa_atomic_cmpxchg(&f->data->signalled, 0, 1)) {
162
if (pa_atomic_load(&f->waiting)) {
182
if (pa_atomic_load(&f->data->waiting)) {
166
pa_atomic_inc(&f->in_pipe);
186
pa_atomic_inc(&f->data->in_pipe);
190
#ifdef HAVE_SYS_EVENTFD_H
171
191
if (f->efd >= 0) {
197
if (pa_atomic_cmpxchg(&f->signalled, 1, 0))
217
if (pa_atomic_cmpxchg(&f->data->signalled, 1, 0))
200
pa_atomic_inc(&f->waiting);
220
pa_atomic_inc(&f->data->waiting);
202
while (!pa_atomic_cmpxchg(&f->signalled, 1, 0)) {
222
while (!pa_atomic_cmpxchg(&f->data->signalled, 1, 0)) {
226
#ifdef HAVE_SYS_EVENTFD_H
207
227
if (f->efd >= 0) {
224
pa_atomic_sub(&f->in_pipe, r);
244
pa_atomic_sub(&f->data->in_pipe, (int) r);
227
pa_assert_se(pa_atomic_dec(&f->waiting) >= 1);
247
pa_assert_se(pa_atomic_dec(&f->data->waiting) >= 1);
230
250
int pa_fdsem_try(pa_fdsem *f) {
257
if (pa_atomic_cmpxchg(&f->signalled, 1, 0))
277
if (pa_atomic_cmpxchg(&f->data->signalled, 1, 0))
260
pa_atomic_inc(&f->waiting);
280
pa_atomic_inc(&f->data->waiting);
262
if (pa_atomic_cmpxchg(&f->signalled, 1, 0)) {
263
pa_assert_se(pa_atomic_dec(&f->waiting) >= 1);
282
if (pa_atomic_cmpxchg(&f->data->signalled, 1, 0)) {
283
pa_assert_se(pa_atomic_dec(&f->data->waiting) >= 1);
269
289
int pa_fdsem_after_poll(pa_fdsem *f) {
272
pa_assert_se(pa_atomic_dec(&f->waiting) >= 1);
292
pa_assert_se(pa_atomic_dec(&f->data->waiting) >= 1);
276
if (pa_atomic_cmpxchg(&f->signalled, 1, 0))
296
if (pa_atomic_cmpxchg(&f->data->signalled, 1, 0))