~mmach/netext73/mesa-haswell

« back to all changes in this revision

Viewing changes to src/amd/vulkan/winsys/amdgpu/radv_amdgpu_cs.c

  • Committer: mmach
  • Date: 2022-09-22 19:56:13 UTC
  • Revision ID: netbit73@gmail.com-20220922195613-wtik9mmy20tmor0i
2022-09-22 21:17:09

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
/*
2
 
 * Copyright © 2016 Red Hat.
3
 
 * Copyright © 2016 Bas Nieuwenhuizen
4
 
 *
5
 
 * Permission is hereby granted, free of charge, to any person obtaining a
6
 
 * copy of this software and associated documentation files (the "Software"),
7
 
 * to deal in the Software without restriction, including without limitation
8
 
 * the rights to use, copy, modify, merge, publish, distribute, sublicense,
9
 
 * and/or sell copies of the Software, and to permit persons to whom the
10
 
 * Software is furnished to do so, subject to the following conditions:
11
 
 *
12
 
 * The above copyright notice and this permission notice (including the next
13
 
 * paragraph) shall be included in all copies or substantial portions of the
14
 
 * Software.
15
 
 *
16
 
 * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
17
 
 * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
18
 
 * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
19
 
 * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
20
 
 * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING
21
 
 * FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS
22
 
 * IN THE SOFTWARE.
23
 
 */
24
 
 
25
 
#include <amdgpu.h>
26
 
#include <assert.h>
27
 
#include <libsync.h>
28
 
#include <pthread.h>
29
 
#include <stdlib.h>
30
 
#include "drm-uapi/amdgpu_drm.h"
31
 
 
32
 
#include "util/u_memory.h"
33
 
#include "ac_debug.h"
34
 
#include "radv_amdgpu_bo.h"
35
 
#include "radv_amdgpu_cs.h"
36
 
#include "radv_amdgpu_winsys.h"
37
 
#include "radv_debug.h"
38
 
#include "radv_radeon_winsys.h"
39
 
#include "sid.h"
40
 
#include "vk_alloc.h"
41
 
#include "vk_drm_syncobj.h"
42
 
#include "vk_sync.h"
43
 
#include "vk_sync_dummy.h"
44
 
 
45
 
#define GFX6_MAX_CS_SIZE 0xffff8 /* in dwords */
46
 
 
47
 
enum { VIRTUAL_BUFFER_HASH_TABLE_SIZE = 1024 };
48
 
 
49
 
struct radv_amdgpu_ib {
50
 
   struct radeon_winsys_bo *bo;
51
 
   unsigned cdw;
52
 
};
53
 
 
54
 
struct radv_amdgpu_cs {
55
 
   struct radeon_cmdbuf base;
56
 
   struct radv_amdgpu_winsys *ws;
57
 
 
58
 
   struct amdgpu_cs_ib_info ib;
59
 
 
60
 
   struct radeon_winsys_bo *ib_buffer;
61
 
   uint8_t *ib_mapped;
62
 
   unsigned max_num_buffers;
63
 
   unsigned num_buffers;
64
 
   struct drm_amdgpu_bo_list_entry *handles;
65
 
 
66
 
   struct radv_amdgpu_ib *old_ib_buffers;
67
 
   unsigned num_old_ib_buffers;
68
 
   unsigned max_num_old_ib_buffers;
69
 
   unsigned *ib_size_ptr;
70
 
   VkResult status;
71
 
   bool is_chained;
72
 
   bool use_ib;
73
 
 
74
 
   int buffer_hash_table[1024];
75
 
   unsigned hw_ip;
76
 
 
77
 
   unsigned num_virtual_buffers;
78
 
   unsigned max_num_virtual_buffers;
79
 
   struct radeon_winsys_bo **virtual_buffers;
80
 
   int *virtual_buffer_hash_table;
81
 
 
82
 
   /* For chips that don't support chaining. */
83
 
   struct radeon_cmdbuf *old_cs_buffers;
84
 
   unsigned num_old_cs_buffers;
85
 
};
86
 
 
87
 
struct radv_winsys_sem_counts {
88
 
   uint32_t syncobj_count;
89
 
   uint32_t timeline_syncobj_count;
90
 
   uint32_t *syncobj;
91
 
   uint64_t *points;
92
 
};
93
 
 
94
 
struct radv_winsys_sem_info {
95
 
   bool cs_emit_signal;
96
 
   bool cs_emit_wait;
97
 
   struct radv_winsys_sem_counts wait;
98
 
   struct radv_winsys_sem_counts signal;
99
 
};
100
 
 
101
 
static uint32_t radv_amdgpu_ctx_queue_syncobj(struct radv_amdgpu_ctx *ctx, unsigned ip,
102
 
                                              unsigned ring);
103
 
 
104
 
static inline struct radv_amdgpu_cs *
105
 
radv_amdgpu_cs(struct radeon_cmdbuf *base)
106
 
{
107
 
   return (struct radv_amdgpu_cs *)base;
108
 
}
109
 
 
110
 
static bool
111
 
ring_can_use_ib_bos(const struct radv_amdgpu_winsys *ws,
112
 
                    enum ring_type ring_type)
113
 
{
114
 
   if (ring_type == RING_UVD ||
115
 
       ring_type == RING_VCE ||
116
 
       ring_type == RING_UVD_ENC ||
117
 
       ring_type == RING_VCN_DEC ||
118
 
       ring_type == RING_VCN_ENC)
119
 
      return false;
120
 
   return ws->use_ib_bos;
121
 
}
122
 
 
123
 
static int
124
 
ring_to_hw_ip(enum ring_type ring)
125
 
{
126
 
   switch (ring) {
127
 
   case RING_GFX:
128
 
      return AMDGPU_HW_IP_GFX;
129
 
   case RING_COMPUTE:
130
 
      return AMDGPU_HW_IP_COMPUTE;
131
 
   case RING_DMA:
132
 
      return AMDGPU_HW_IP_DMA;
133
 
   case RING_UVD:
134
 
      return AMDGPU_HW_IP_UVD;
135
 
   case RING_VCE:
136
 
      return AMDGPU_HW_IP_VCE;
137
 
   case RING_UVD_ENC:
138
 
      return AMDGPU_HW_IP_UVD_ENC;
139
 
   case RING_VCN_DEC:
140
 
      return AMDGPU_HW_IP_VCN_DEC;
141
 
   case RING_VCN_ENC:
142
 
      return AMDGPU_HW_IP_VCN_ENC;
143
 
   case RING_VCN_JPEG:
144
 
      return AMDGPU_HW_IP_VCN_JPEG;
145
 
   default:
146
 
      unreachable("unsupported ring");
147
 
   }
148
 
}
149
 
 
150
 
static enum ring_type
151
 
hw_ip_to_ring(int hw_ip)
152
 
{
153
 
   switch (hw_ip) {
154
 
   case AMDGPU_HW_IP_GFX:
155
 
      return RING_GFX;
156
 
   case AMDGPU_HW_IP_COMPUTE:
157
 
      return RING_COMPUTE;
158
 
   case AMDGPU_HW_IP_DMA:
159
 
      return RING_DMA;
160
 
   case AMDGPU_HW_IP_UVD:
161
 
      return RING_UVD;
162
 
   case AMDGPU_HW_IP_VCE:
163
 
      return RING_VCE;
164
 
   case AMDGPU_HW_IP_UVD_ENC:
165
 
      return RING_UVD_ENC;
166
 
   case AMDGPU_HW_IP_VCN_DEC:
167
 
      return RING_VCN_DEC;
168
 
   case AMDGPU_HW_IP_VCN_ENC:
169
 
      return RING_VCN_ENC;
170
 
   case AMDGPU_HW_IP_VCN_JPEG:
171
 
      return RING_VCN_JPEG;
172
 
   default:
173
 
      unreachable("unsupported hw ip");
174
 
   }
175
 
}
176
 
 
177
 
struct radv_amdgpu_cs_request {
178
 
   /** Specify HW IP block type to which to send the IB. */
179
 
   unsigned ip_type;
180
 
 
181
 
   /** IP instance index if there are several IPs of the same type. */
182
 
   unsigned ip_instance;
183
 
 
184
 
   /**
185
 
    * Specify ring index of the IP. We could have several rings
186
 
    * in the same IP. E.g. 0 for SDMA0 and 1 for SDMA1.
187
 
    */
188
 
   uint32_t ring;
189
 
 
190
 
   /**
191
 
    * BO list handles used by this request.
192
 
    */
193
 
   struct drm_amdgpu_bo_list_entry *handles;
194
 
   uint32_t num_handles;
195
 
 
196
 
   /** Number of IBs to submit in the field ibs. */
197
 
   uint32_t number_of_ibs;
198
 
 
199
 
   /**
200
 
    * IBs to submit. Those IBs will be submit together as single entity
201
 
    */
202
 
   struct amdgpu_cs_ib_info *ibs;
203
 
 
204
 
   /**
205
 
    * The returned sequence number for the command submission
206
 
    */
207
 
   uint64_t seq_no;
208
 
};
209
 
 
210
 
static int radv_amdgpu_cs_submit(struct radv_amdgpu_ctx *ctx,
211
 
                                 struct radv_amdgpu_cs_request *request,
212
 
                                 struct radv_winsys_sem_info *sem_info);
213
 
 
214
 
static void
215
 
radv_amdgpu_request_to_fence(struct radv_amdgpu_ctx *ctx, struct radv_amdgpu_fence *fence,
216
 
                             struct radv_amdgpu_cs_request *req)
217
 
{
218
 
   fence->fence.context = ctx->ctx;
219
 
   fence->fence.ip_type = req->ip_type;
220
 
   fence->fence.ip_instance = req->ip_instance;
221
 
   fence->fence.ring = req->ring;
222
 
   fence->fence.fence = req->seq_no;
223
 
}
224
 
 
225
 
static void
226
 
radv_amdgpu_cs_destroy(struct radeon_cmdbuf *rcs)
227
 
{
228
 
   struct radv_amdgpu_cs *cs = radv_amdgpu_cs(rcs);
229
 
 
230
 
   if (cs->ib_buffer)
231
 
      cs->ws->base.buffer_destroy(&cs->ws->base, cs->ib_buffer);
232
 
   else
233
 
      free(cs->base.buf);
234
 
 
235
 
   for (unsigned i = 0; i < cs->num_old_ib_buffers; ++i)
236
 
      cs->ws->base.buffer_destroy(&cs->ws->base, cs->old_ib_buffers[i].bo);
237
 
 
238
 
   for (unsigned i = 0; i < cs->num_old_cs_buffers; ++i) {
239
 
      free(cs->old_cs_buffers[i].buf);
240
 
   }
241
 
 
242
 
   free(cs->old_cs_buffers);
243
 
   free(cs->old_ib_buffers);
244
 
   free(cs->virtual_buffers);
245
 
   free(cs->virtual_buffer_hash_table);
246
 
   free(cs->handles);
247
 
   free(cs);
248
 
}
249
 
 
250
 
static void
251
 
radv_amdgpu_init_cs(struct radv_amdgpu_cs *cs, enum ring_type ring_type)
252
 
{
253
 
   for (int i = 0; i < ARRAY_SIZE(cs->buffer_hash_table); ++i)
254
 
      cs->buffer_hash_table[i] = -1;
255
 
 
256
 
   cs->hw_ip = ring_to_hw_ip(ring_type);
257
 
}
258
 
 
259
 
static enum radeon_bo_domain
260
 
radv_amdgpu_cs_domain(const struct radeon_winsys *_ws)
261
 
{
262
 
   const struct radv_amdgpu_winsys *ws = (const struct radv_amdgpu_winsys *)_ws;
263
 
 
264
 
   bool enough_vram = ws->info.all_vram_visible ||
265
 
                      p_atomic_read_relaxed(&ws->allocated_vram_vis) * 2 <= ws->info.vram_vis_size;
266
 
   bool use_sam =
267
 
      (enough_vram && ws->info.has_dedicated_vram && !(ws->perftest & RADV_PERFTEST_NO_SAM)) ||
268
 
      (ws->perftest & RADV_PERFTEST_SAM);
269
 
   return use_sam ? RADEON_DOMAIN_VRAM : RADEON_DOMAIN_GTT;
270
 
}
271
 
 
272
 
static struct radeon_cmdbuf *
273
 
radv_amdgpu_cs_create(struct radeon_winsys *ws, enum ring_type ring_type)
274
 
{
275
 
   struct radv_amdgpu_cs *cs;
276
 
   uint32_t ib_pad_dw_mask = MAX2(3, radv_amdgpu_winsys(ws)->info.ib_pad_dw_mask[ring_type]);
277
 
   uint32_t ib_size = align(20 * 1024 * 4, ib_pad_dw_mask + 1);
278
 
   cs = calloc(1, sizeof(struct radv_amdgpu_cs));
279
 
   if (!cs)
280
 
      return NULL;
281
 
 
282
 
   cs->ws = radv_amdgpu_winsys(ws);
283
 
   radv_amdgpu_init_cs(cs, ring_type);
284
 
 
285
 
   cs->use_ib = ring_can_use_ib_bos(cs->ws, ring_type);
286
 
 
287
 
   if (cs->use_ib) {
288
 
      VkResult result =
289
 
         ws->buffer_create(ws, ib_size, 0, radv_amdgpu_cs_domain(ws),
290
 
                           RADEON_FLAG_CPU_ACCESS | RADEON_FLAG_NO_INTERPROCESS_SHARING |
291
 
                              RADEON_FLAG_READ_ONLY | RADEON_FLAG_GTT_WC,
292
 
                           RADV_BO_PRIORITY_CS, 0, &cs->ib_buffer);
293
 
      if (result != VK_SUCCESS) {
294
 
         free(cs);
295
 
         return NULL;
296
 
      }
297
 
 
298
 
      cs->ib_mapped = ws->buffer_map(cs->ib_buffer);
299
 
      if (!cs->ib_mapped) {
300
 
         ws->buffer_destroy(ws, cs->ib_buffer);
301
 
         free(cs);
302
 
         return NULL;
303
 
      }
304
 
 
305
 
      cs->ib.ib_mc_address = radv_amdgpu_winsys_bo(cs->ib_buffer)->base.va;
306
 
      cs->base.buf = (uint32_t *)cs->ib_mapped;
307
 
      cs->base.max_dw = ib_size / 4 - 4;
308
 
      cs->ib_size_ptr = &cs->ib.size;
309
 
      cs->ib.size = 0;
310
 
 
311
 
      ws->cs_add_buffer(&cs->base, cs->ib_buffer);
312
 
   } else {
313
 
      uint32_t *buf = malloc(16384);
314
 
      if (!buf) {
315
 
         free(cs);
316
 
         return NULL;
317
 
      }
318
 
      cs->base.buf = buf;
319
 
      cs->base.max_dw = 4096;
320
 
   }
321
 
 
322
 
   return &cs->base;
323
 
}
324
 
 
325
 
static bool hw_can_chain(unsigned hw_ip)
326
 
{
327
 
   return hw_ip == AMDGPU_HW_IP_GFX || hw_ip == AMDGPU_HW_IP_COMPUTE;
328
 
}
329
 
 
330
 
static uint32_t get_nop_packet(struct radv_amdgpu_cs *cs)
331
 
{
332
 
   switch(cs->hw_ip) {
333
 
   case AMDGPU_HW_IP_GFX:
334
 
   case AMDGPU_HW_IP_COMPUTE:
335
 
      return cs->ws->info.gfx_ib_pad_with_type2 ?  PKT2_NOP_PAD : PKT3_NOP_PAD;
336
 
   case AMDGPU_HW_IP_DMA:
337
 
      return cs->ws->info.chip_class <= GFX6 ? 0xF0000000 : SDMA_NOP_PAD;
338
 
   case AMDGPU_HW_IP_UVD:
339
 
   case AMDGPU_HW_IP_UVD_ENC:
340
 
      return PKT2_NOP_PAD;
341
 
   case AMDGPU_HW_IP_VCN_DEC:
342
 
      return 0x81FF;
343
 
   default:
344
 
      unreachable("Unknown ring type");
345
 
   }
346
 
}
347
 
 
348
 
static void
349
 
radv_amdgpu_cs_grow(struct radeon_cmdbuf *_cs, size_t min_size)
350
 
{
351
 
   struct radv_amdgpu_cs *cs = radv_amdgpu_cs(_cs);
352
 
 
353
 
   if (cs->status != VK_SUCCESS) {
354
 
      cs->base.cdw = 0;
355
 
      return;
356
 
   }
357
 
 
358
 
   if (!cs->use_ib) {
359
 
      const uint64_t limit_dws = GFX6_MAX_CS_SIZE;
360
 
      uint64_t ib_dws = MAX2(cs->base.cdw + min_size, MIN2(cs->base.max_dw * 2, limit_dws));
361
 
 
362
 
      /* The total ib size cannot exceed limit_dws dwords. */
363
 
      if (ib_dws > limit_dws) {
364
 
         /* The maximum size in dwords has been reached,
365
 
          * try to allocate a new one.
366
 
          */
367
 
         struct radeon_cmdbuf *old_cs_buffers =
368
 
            realloc(cs->old_cs_buffers, (cs->num_old_cs_buffers + 1) * sizeof(*cs->old_cs_buffers));
369
 
         if (!old_cs_buffers) {
370
 
            cs->status = VK_ERROR_OUT_OF_HOST_MEMORY;
371
 
            cs->base.cdw = 0;
372
 
            return;
373
 
         }
374
 
         cs->old_cs_buffers = old_cs_buffers;
375
 
 
376
 
         /* Store the current one for submitting it later. */
377
 
         cs->old_cs_buffers[cs->num_old_cs_buffers].cdw = cs->base.cdw;
378
 
         cs->old_cs_buffers[cs->num_old_cs_buffers].max_dw = cs->base.max_dw;
379
 
         cs->old_cs_buffers[cs->num_old_cs_buffers].buf = cs->base.buf;
380
 
         cs->num_old_cs_buffers++;
381
 
 
382
 
         /* Reset the cs, it will be re-allocated below. */
383
 
         cs->base.cdw = 0;
384
 
         cs->base.buf = NULL;
385
 
 
386
 
         /* Re-compute the number of dwords to allocate. */
387
 
         ib_dws = MAX2(cs->base.cdw + min_size, MIN2(cs->base.max_dw * 2, limit_dws));
388
 
         if (ib_dws > limit_dws) {
389
 
            fprintf(stderr, "radv/amdgpu: Too high number of "
390
 
                            "dwords to allocate\n");
391
 
            cs->status = VK_ERROR_OUT_OF_HOST_MEMORY;
392
 
            return;
393
 
         }
394
 
      }
395
 
 
396
 
      uint32_t *new_buf = realloc(cs->base.buf, ib_dws * 4);
397
 
      if (new_buf) {
398
 
         cs->base.buf = new_buf;
399
 
         cs->base.max_dw = ib_dws;
400
 
      } else {
401
 
         cs->status = VK_ERROR_OUT_OF_HOST_MEMORY;
402
 
         cs->base.cdw = 0;
403
 
      }
404
 
      return;
405
 
   }
406
 
 
407
 
   enum ring_type ring_type = hw_ip_to_ring(cs->hw_ip);
408
 
   uint32_t ib_pad_dw_mask = MAX2(3, cs->ws->info.ib_pad_dw_mask[ring_type]);
409
 
   uint32_t nop_packet = get_nop_packet(cs);
410
 
   while (!cs->base.cdw || (cs->base.cdw & ib_pad_dw_mask) != ib_pad_dw_mask - 3)
411
 
      radeon_emit(&cs->base, nop_packet);
412
 
 
413
 
   *cs->ib_size_ptr |= cs->base.cdw + 4;
414
 
 
415
 
   if (cs->num_old_ib_buffers == cs->max_num_old_ib_buffers) {
416
 
      unsigned max_num_old_ib_buffers = MAX2(1, cs->max_num_old_ib_buffers * 2);
417
 
      struct radv_amdgpu_ib *old_ib_buffers =
418
 
         realloc(cs->old_ib_buffers, max_num_old_ib_buffers * sizeof(*old_ib_buffers));
419
 
      if (!old_ib_buffers) {
420
 
         cs->status = VK_ERROR_OUT_OF_HOST_MEMORY;
421
 
         return;
422
 
      }
423
 
      cs->max_num_old_ib_buffers = max_num_old_ib_buffers;
424
 
      cs->old_ib_buffers = old_ib_buffers;
425
 
   }
426
 
 
427
 
   cs->old_ib_buffers[cs->num_old_ib_buffers].bo = cs->ib_buffer;
428
 
   cs->old_ib_buffers[cs->num_old_ib_buffers++].cdw = cs->base.cdw;
429
 
 
430
 
   uint64_t ib_size = MAX2(min_size * 4 + 16, cs->base.max_dw * 4 * 2);
431
 
 
432
 
   /* max that fits in the chain size field. */
433
 
   ib_size = align(MIN2(ib_size, 0xfffff), ib_pad_dw_mask + 1);
434
 
 
435
 
   VkResult result =
436
 
      cs->ws->base.buffer_create(&cs->ws->base, ib_size, 0, radv_amdgpu_cs_domain(&cs->ws->base),
437
 
                                 RADEON_FLAG_CPU_ACCESS | RADEON_FLAG_NO_INTERPROCESS_SHARING |
438
 
                                    RADEON_FLAG_READ_ONLY | RADEON_FLAG_GTT_WC,
439
 
                                 RADV_BO_PRIORITY_CS, 0, &cs->ib_buffer);
440
 
 
441
 
   if (result != VK_SUCCESS) {
442
 
      cs->base.cdw = 0;
443
 
      cs->status = VK_ERROR_OUT_OF_DEVICE_MEMORY;
444
 
      cs->ib_buffer = cs->old_ib_buffers[--cs->num_old_ib_buffers].bo;
445
 
   }
446
 
 
447
 
   cs->ib_mapped = cs->ws->base.buffer_map(cs->ib_buffer);
448
 
   if (!cs->ib_mapped) {
449
 
      cs->ws->base.buffer_destroy(&cs->ws->base, cs->ib_buffer);
450
 
      cs->base.cdw = 0;
451
 
 
452
 
      /* VK_ERROR_MEMORY_MAP_FAILED is not valid for vkEndCommandBuffer. */
453
 
      cs->status = VK_ERROR_OUT_OF_DEVICE_MEMORY;
454
 
      cs->ib_buffer = cs->old_ib_buffers[--cs->num_old_ib_buffers].bo;
455
 
   }
456
 
 
457
 
   cs->ws->base.cs_add_buffer(&cs->base, cs->ib_buffer);
458
 
 
459
 
   assert(hw_can_chain(cs->hw_ip)); /* TODO: Implement growing other queues if needed. */
460
 
 
461
 
   radeon_emit(&cs->base, PKT3(PKT3_INDIRECT_BUFFER_CIK, 2, 0));
462
 
   radeon_emit(&cs->base, radv_amdgpu_winsys_bo(cs->ib_buffer)->base.va);
463
 
   radeon_emit(&cs->base, radv_amdgpu_winsys_bo(cs->ib_buffer)->base.va >> 32);
464
 
   radeon_emit(&cs->base, S_3F2_CHAIN(1) | S_3F2_VALID(1));
465
 
 
466
 
   cs->ib_size_ptr = cs->base.buf + cs->base.cdw - 1;
467
 
 
468
 
   cs->base.buf = (uint32_t *)cs->ib_mapped;
469
 
   cs->base.cdw = 0;
470
 
   cs->base.max_dw = ib_size / 4 - 4;
471
 
}
472
 
 
473
 
static VkResult
474
 
radv_amdgpu_cs_finalize(struct radeon_cmdbuf *_cs)
475
 
{
476
 
   struct radv_amdgpu_cs *cs = radv_amdgpu_cs(_cs);
477
 
   enum ring_type ring_type = hw_ip_to_ring(cs->hw_ip);
478
 
 
479
 
   if (cs->use_ib) {
480
 
      uint32_t ib_pad_dw_mask = MAX2(3, cs->ws->info.ib_pad_dw_mask[ring_type]);
481
 
      uint32_t nop_packet = get_nop_packet(cs);
482
 
 
483
 
      if (hw_can_chain(cs->hw_ip)) {
484
 
         /* Ensure that with the 4 dword reservation we subtract from max_dw we always
485
 
          * have 4 nops at the end for chaining. */
486
 
         while (!cs->base.cdw || (cs->base.cdw & ib_pad_dw_mask) != ib_pad_dw_mask - 3)
487
 
            radeon_emit(&cs->base, nop_packet);
488
 
 
489
 
         radeon_emit(&cs->base, nop_packet);
490
 
         radeon_emit(&cs->base, nop_packet);
491
 
         radeon_emit(&cs->base, nop_packet);
492
 
         radeon_emit(&cs->base, nop_packet);
493
 
      } else {
494
 
         while (!cs->base.cdw || (cs->base.cdw & ib_pad_dw_mask))
495
 
            radeon_emit(&cs->base, nop_packet);
496
 
      }
497
 
 
498
 
      *cs->ib_size_ptr |= cs->base.cdw;
499
 
 
500
 
      cs->is_chained = false;
501
 
 
502
 
      assert(cs->base.cdw <= cs->base.max_dw + 4);
503
 
   }
504
 
 
505
 
   return cs->status;
506
 
}
507
 
 
508
 
static void
509
 
radv_amdgpu_cs_reset(struct radeon_cmdbuf *_cs)
510
 
{
511
 
   struct radv_amdgpu_cs *cs = radv_amdgpu_cs(_cs);
512
 
   cs->base.cdw = 0;
513
 
   cs->status = VK_SUCCESS;
514
 
 
515
 
   for (unsigned i = 0; i < cs->num_buffers; ++i) {
516
 
      unsigned hash = cs->handles[i].bo_handle & (ARRAY_SIZE(cs->buffer_hash_table) - 1);
517
 
      cs->buffer_hash_table[hash] = -1;
518
 
   }
519
 
 
520
 
   for (unsigned i = 0; i < cs->num_virtual_buffers; ++i) {
521
 
      unsigned hash =
522
 
         ((uintptr_t)cs->virtual_buffers[i] >> 6) & (VIRTUAL_BUFFER_HASH_TABLE_SIZE - 1);
523
 
      cs->virtual_buffer_hash_table[hash] = -1;
524
 
   }
525
 
 
526
 
   cs->num_buffers = 0;
527
 
   cs->num_virtual_buffers = 0;
528
 
 
529
 
   if (cs->use_ib) {
530
 
      cs->ws->base.cs_add_buffer(&cs->base, cs->ib_buffer);
531
 
 
532
 
      for (unsigned i = 0; i < cs->num_old_ib_buffers; ++i)
533
 
         cs->ws->base.buffer_destroy(&cs->ws->base, cs->old_ib_buffers[i].bo);
534
 
 
535
 
      cs->num_old_ib_buffers = 0;
536
 
      cs->ib.ib_mc_address = radv_amdgpu_winsys_bo(cs->ib_buffer)->base.va;
537
 
      cs->ib_size_ptr = &cs->ib.size;
538
 
      cs->ib.size = 0;
539
 
   } else {
540
 
      for (unsigned i = 0; i < cs->num_old_cs_buffers; ++i) {
541
 
         struct radeon_cmdbuf *rcs = &cs->old_cs_buffers[i];
542
 
         free(rcs->buf);
543
 
      }
544
 
 
545
 
      free(cs->old_cs_buffers);
546
 
      cs->old_cs_buffers = NULL;
547
 
      cs->num_old_cs_buffers = 0;
548
 
   }
549
 
}
550
 
 
551
 
static int
552
 
radv_amdgpu_cs_find_buffer(struct radv_amdgpu_cs *cs, uint32_t bo)
553
 
{
554
 
   unsigned hash = bo & (ARRAY_SIZE(cs->buffer_hash_table) - 1);
555
 
   int index = cs->buffer_hash_table[hash];
556
 
 
557
 
   if (index == -1)
558
 
      return -1;
559
 
 
560
 
   if (cs->handles[index].bo_handle == bo)
561
 
      return index;
562
 
 
563
 
   for (unsigned i = 0; i < cs->num_buffers; ++i) {
564
 
      if (cs->handles[i].bo_handle == bo) {
565
 
         cs->buffer_hash_table[hash] = i;
566
 
         return i;
567
 
      }
568
 
   }
569
 
 
570
 
   return -1;
571
 
}
572
 
 
573
 
static void
574
 
radv_amdgpu_cs_add_buffer_internal(struct radv_amdgpu_cs *cs, uint32_t bo, uint8_t priority)
575
 
{
576
 
   unsigned hash;
577
 
   int index = radv_amdgpu_cs_find_buffer(cs, bo);
578
 
 
579
 
   if (index != -1)
580
 
      return;
581
 
 
582
 
   if (cs->num_buffers == cs->max_num_buffers) {
583
 
      unsigned new_count = MAX2(1, cs->max_num_buffers * 2);
584
 
      struct drm_amdgpu_bo_list_entry *new_entries =
585
 
         realloc(cs->handles, new_count * sizeof(struct drm_amdgpu_bo_list_entry));
586
 
      if (new_entries) {
587
 
         cs->max_num_buffers = new_count;
588
 
         cs->handles = new_entries;
589
 
      } else {
590
 
         cs->status = VK_ERROR_OUT_OF_HOST_MEMORY;
591
 
         return;
592
 
      }
593
 
   }
594
 
 
595
 
   cs->handles[cs->num_buffers].bo_handle = bo;
596
 
   cs->handles[cs->num_buffers].bo_priority = priority;
597
 
 
598
 
   hash = bo & (ARRAY_SIZE(cs->buffer_hash_table) - 1);
599
 
   cs->buffer_hash_table[hash] = cs->num_buffers;
600
 
 
601
 
   ++cs->num_buffers;
602
 
}
603
 
 
604
 
static void
605
 
radv_amdgpu_cs_add_virtual_buffer(struct radeon_cmdbuf *_cs, struct radeon_winsys_bo *bo)
606
 
{
607
 
   struct radv_amdgpu_cs *cs = radv_amdgpu_cs(_cs);
608
 
   unsigned hash = ((uintptr_t)bo >> 6) & (VIRTUAL_BUFFER_HASH_TABLE_SIZE - 1);
609
 
 
610
 
   if (!cs->virtual_buffer_hash_table) {
611
 
      int *virtual_buffer_hash_table = malloc(VIRTUAL_BUFFER_HASH_TABLE_SIZE * sizeof(int));
612
 
      if (!virtual_buffer_hash_table) {
613
 
         cs->status = VK_ERROR_OUT_OF_HOST_MEMORY;
614
 
         return;
615
 
      }
616
 
      cs->virtual_buffer_hash_table = virtual_buffer_hash_table;
617
 
 
618
 
      for (int i = 0; i < VIRTUAL_BUFFER_HASH_TABLE_SIZE; ++i)
619
 
         cs->virtual_buffer_hash_table[i] = -1;
620
 
   }
621
 
 
622
 
   if (cs->virtual_buffer_hash_table[hash] >= 0) {
623
 
      int idx = cs->virtual_buffer_hash_table[hash];
624
 
      if (cs->virtual_buffers[idx] == bo) {
625
 
         return;
626
 
      }
627
 
      for (unsigned i = 0; i < cs->num_virtual_buffers; ++i) {
628
 
         if (cs->virtual_buffers[i] == bo) {
629
 
            cs->virtual_buffer_hash_table[hash] = i;
630
 
            return;
631
 
         }
632
 
      }
633
 
   }
634
 
 
635
 
   if (cs->max_num_virtual_buffers <= cs->num_virtual_buffers) {
636
 
      unsigned max_num_virtual_buffers = MAX2(2, cs->max_num_virtual_buffers * 2);
637
 
      struct radeon_winsys_bo **virtual_buffers =
638
 
         realloc(cs->virtual_buffers, sizeof(struct radeon_winsys_bo *) * max_num_virtual_buffers);
639
 
      if (!virtual_buffers) {
640
 
         cs->status = VK_ERROR_OUT_OF_HOST_MEMORY;
641
 
         return;
642
 
      }
643
 
      cs->max_num_virtual_buffers = max_num_virtual_buffers;
644
 
      cs->virtual_buffers = virtual_buffers;
645
 
   }
646
 
 
647
 
   cs->virtual_buffers[cs->num_virtual_buffers] = bo;
648
 
 
649
 
   cs->virtual_buffer_hash_table[hash] = cs->num_virtual_buffers;
650
 
   ++cs->num_virtual_buffers;
651
 
}
652
 
 
653
 
static void
654
 
radv_amdgpu_cs_add_buffer(struct radeon_cmdbuf *_cs, struct radeon_winsys_bo *_bo)
655
 
{
656
 
   struct radv_amdgpu_cs *cs = radv_amdgpu_cs(_cs);
657
 
   struct radv_amdgpu_winsys_bo *bo = radv_amdgpu_winsys_bo(_bo);
658
 
 
659
 
   if (cs->status != VK_SUCCESS)
660
 
      return;
661
 
 
662
 
   if (bo->is_virtual) {
663
 
      radv_amdgpu_cs_add_virtual_buffer(_cs, _bo);
664
 
      return;
665
 
   }
666
 
 
667
 
   radv_amdgpu_cs_add_buffer_internal(cs, bo->bo_handle, bo->priority);
668
 
}
669
 
 
670
 
static void
671
 
radv_amdgpu_cs_execute_secondary(struct radeon_cmdbuf *_parent, struct radeon_cmdbuf *_child,
672
 
                                 bool allow_ib2)
673
 
{
674
 
   struct radv_amdgpu_cs *parent = radv_amdgpu_cs(_parent);
675
 
   struct radv_amdgpu_cs *child = radv_amdgpu_cs(_child);
676
 
   struct radv_amdgpu_winsys *ws = parent->ws;
677
 
   bool use_ib2 = parent->use_ib && allow_ib2;
678
 
 
679
 
   if (parent->status != VK_SUCCESS || child->status != VK_SUCCESS)
680
 
      return;
681
 
 
682
 
   for (unsigned i = 0; i < child->num_buffers; ++i) {
683
 
      radv_amdgpu_cs_add_buffer_internal(parent, child->handles[i].bo_handle,
684
 
                                         child->handles[i].bo_priority);
685
 
   }
686
 
 
687
 
   for (unsigned i = 0; i < child->num_virtual_buffers; ++i) {
688
 
      radv_amdgpu_cs_add_buffer(&parent->base, child->virtual_buffers[i]);
689
 
   }
690
 
 
691
 
   if (use_ib2) {
692
 
      if (parent->base.cdw + 4 > parent->base.max_dw)
693
 
         radv_amdgpu_cs_grow(&parent->base, 4);
694
 
 
695
 
      /* Not setting the CHAIN bit will launch an IB2. */
696
 
      radeon_emit(&parent->base, PKT3(PKT3_INDIRECT_BUFFER_CIK, 2, 0));
697
 
      radeon_emit(&parent->base, child->ib.ib_mc_address);
698
 
      radeon_emit(&parent->base, child->ib.ib_mc_address >> 32);
699
 
      radeon_emit(&parent->base, child->ib.size);
700
 
   } else {
701
 
      if (parent->use_ib) {
702
 
         /* Copy and chain old IB buffers from the child to the parent IB. */
703
 
         for (unsigned i = 0; i < child->num_old_ib_buffers; i++) {
704
 
            struct radv_amdgpu_ib *ib = &child->old_ib_buffers[i];
705
 
            uint8_t *mapped;
706
 
 
707
 
            if (parent->base.cdw + ib->cdw > parent->base.max_dw)
708
 
               radv_amdgpu_cs_grow(&parent->base, ib->cdw);
709
 
 
710
 
            mapped = ws->base.buffer_map(ib->bo);
711
 
            if (!mapped) {
712
 
               parent->status = VK_ERROR_OUT_OF_HOST_MEMORY;
713
 
               return;
714
 
            }
715
 
 
716
 
            /* Copy the IB data without the original chain link. */
717
 
            memcpy(parent->base.buf + parent->base.cdw, mapped, 4 * ib->cdw);
718
 
            parent->base.cdw += ib->cdw;
719
 
         }
720
 
      } else {
721
 
         /* When the secondary command buffer is huge we have to copy the list of CS buffers to the
722
 
          * parent to submit multiple IBs.
723
 
          */
724
 
         if (child->num_old_cs_buffers > 0) {
725
 
            unsigned num_cs_buffers;
726
 
            uint32_t *new_buf;
727
 
 
728
 
            /* Compute the total number of CS buffers needed. */
729
 
            num_cs_buffers = parent->num_old_cs_buffers + child->num_old_cs_buffers + 1;
730
 
 
731
 
            struct radeon_cmdbuf *old_cs_buffers =
732
 
               realloc(parent->old_cs_buffers, num_cs_buffers * sizeof(*parent->old_cs_buffers));
733
 
            if (!old_cs_buffers) {
734
 
               parent->status = VK_ERROR_OUT_OF_HOST_MEMORY;
735
 
               parent->base.cdw = 0;
736
 
               return;
737
 
            }
738
 
            parent->old_cs_buffers = old_cs_buffers;
739
 
 
740
 
            /* Copy the parent CS to its list of CS buffers, so submission ordering is maintained. */
741
 
            new_buf = malloc(parent->base.max_dw * 4);
742
 
            if (!new_buf) {
743
 
               parent->status = VK_ERROR_OUT_OF_HOST_MEMORY;
744
 
               parent->base.cdw = 0;
745
 
               return;
746
 
            }
747
 
            memcpy(new_buf, parent->base.buf, parent->base.max_dw * 4);
748
 
 
749
 
            parent->old_cs_buffers[parent->num_old_cs_buffers].cdw = parent->base.cdw;
750
 
            parent->old_cs_buffers[parent->num_old_cs_buffers].max_dw = parent->base.max_dw;
751
 
            parent->old_cs_buffers[parent->num_old_cs_buffers].buf = new_buf;
752
 
            parent->num_old_cs_buffers++;
753
 
 
754
 
            /* Then, copy all child CS buffers to the parent list. */
755
 
            for (unsigned i = 0; i < child->num_old_cs_buffers; i++) {
756
 
               new_buf = malloc(child->old_cs_buffers[i].max_dw * 4);
757
 
               if (!new_buf) {
758
 
                  parent->status = VK_ERROR_OUT_OF_HOST_MEMORY;
759
 
                  parent->base.cdw = 0;
760
 
                  return;
761
 
               }
762
 
               memcpy(new_buf, child->old_cs_buffers[i].buf, child->old_cs_buffers[i].max_dw * 4);
763
 
 
764
 
               parent->old_cs_buffers[parent->num_old_cs_buffers].cdw = child->old_cs_buffers[i].cdw;
765
 
               parent->old_cs_buffers[parent->num_old_cs_buffers].max_dw = child->old_cs_buffers[i].max_dw;
766
 
               parent->old_cs_buffers[parent->num_old_cs_buffers].buf = new_buf;
767
 
               parent->num_old_cs_buffers++;
768
 
            }
769
 
 
770
 
            /* Reset the parent CS before copying the child CS into it. */
771
 
            parent->base.cdw = 0;
772
 
         }
773
 
      }
774
 
 
775
 
      if (parent->base.cdw + child->base.cdw > parent->base.max_dw)
776
 
         radv_amdgpu_cs_grow(&parent->base, child->base.cdw);
777
 
 
778
 
      memcpy(parent->base.buf + parent->base.cdw, child->base.buf, 4 * child->base.cdw);
779
 
      parent->base.cdw += child->base.cdw;
780
 
   }
781
 
}
782
 
 
783
 
static VkResult
784
 
radv_amdgpu_get_bo_list(struct radv_amdgpu_winsys *ws, struct radeon_cmdbuf **cs_array,
785
 
                        unsigned count, struct radv_amdgpu_winsys_bo **extra_bo_array,
786
 
                        unsigned num_extra_bo, struct radeon_cmdbuf *extra_cs,
787
 
                        unsigned *rnum_handles, struct drm_amdgpu_bo_list_entry **rhandles)
788
 
{
789
 
   struct drm_amdgpu_bo_list_entry *handles = NULL;
790
 
   unsigned num_handles = 0;
791
 
 
792
 
   if (ws->debug_all_bos) {
793
 
      handles = malloc(sizeof(handles[0]) * ws->global_bo_list.count);
794
 
      if (!handles) {
795
 
         return VK_ERROR_OUT_OF_HOST_MEMORY;
796
 
      }
797
 
 
798
 
      for (uint32_t i = 0; i < ws->global_bo_list.count; i++) {
799
 
         handles[i].bo_handle = ws->global_bo_list.bos[i]->bo_handle;
800
 
         handles[i].bo_priority = ws->global_bo_list.bos[i]->priority;
801
 
         num_handles++;
802
 
      }
803
 
   } else if (count == 1 && !num_extra_bo && !extra_cs &&
804
 
              !radv_amdgpu_cs(cs_array[0])->num_virtual_buffers && !ws->global_bo_list.count) {
805
 
      struct radv_amdgpu_cs *cs = (struct radv_amdgpu_cs *)cs_array[0];
806
 
      if (cs->num_buffers == 0)
807
 
         return VK_SUCCESS;
808
 
 
809
 
      handles = malloc(sizeof(handles[0]) * cs->num_buffers);
810
 
      if (!handles)
811
 
         return VK_ERROR_OUT_OF_HOST_MEMORY;
812
 
 
813
 
      memcpy(handles, cs->handles, sizeof(handles[0]) * cs->num_buffers);
814
 
      num_handles = cs->num_buffers;
815
 
   } else {
816
 
      unsigned total_buffer_count = num_extra_bo;
817
 
      num_handles = num_extra_bo;
818
 
      for (unsigned i = 0; i < count; ++i) {
819
 
         struct radv_amdgpu_cs *cs = (struct radv_amdgpu_cs *)cs_array[i];
820
 
         total_buffer_count += cs->num_buffers;
821
 
         for (unsigned j = 0; j < cs->num_virtual_buffers; ++j)
822
 
            total_buffer_count += radv_amdgpu_winsys_bo(cs->virtual_buffers[j])->bo_count;
823
 
      }
824
 
 
825
 
      if (extra_cs) {
826
 
         total_buffer_count += ((struct radv_amdgpu_cs *)extra_cs)->num_buffers;
827
 
      }
828
 
 
829
 
      total_buffer_count += ws->global_bo_list.count;
830
 
 
831
 
      if (total_buffer_count == 0)
832
 
         return VK_SUCCESS;
833
 
 
834
 
      handles = malloc(sizeof(handles[0]) * total_buffer_count);
835
 
      if (!handles)
836
 
         return VK_ERROR_OUT_OF_HOST_MEMORY;
837
 
 
838
 
      for (unsigned i = 0; i < num_extra_bo; i++) {
839
 
         handles[i].bo_handle = extra_bo_array[i]->bo_handle;
840
 
         handles[i].bo_priority = extra_bo_array[i]->priority;
841
 
      }
842
 
 
843
 
      for (unsigned i = 0; i < count + !!extra_cs; ++i) {
844
 
         struct radv_amdgpu_cs *cs;
845
 
 
846
 
         if (i == count)
847
 
            cs = (struct radv_amdgpu_cs *)extra_cs;
848
 
         else
849
 
            cs = (struct radv_amdgpu_cs *)cs_array[i];
850
 
 
851
 
         if (!cs->num_buffers)
852
 
            continue;
853
 
 
854
 
         if (num_handles == 0 && !cs->num_virtual_buffers) {
855
 
            memcpy(handles, cs->handles, cs->num_buffers * sizeof(struct drm_amdgpu_bo_list_entry));
856
 
            num_handles = cs->num_buffers;
857
 
            continue;
858
 
         }
859
 
         int unique_bo_so_far = num_handles;
860
 
         for (unsigned j = 0; j < cs->num_buffers; ++j) {
861
 
            bool found = false;
862
 
            for (unsigned k = 0; k < unique_bo_so_far; ++k) {
863
 
               if (handles[k].bo_handle == cs->handles[j].bo_handle) {
864
 
                  found = true;
865
 
                  break;
866
 
               }
867
 
            }
868
 
            if (!found) {
869
 
               handles[num_handles] = cs->handles[j];
870
 
               ++num_handles;
871
 
            }
872
 
         }
873
 
         for (unsigned j = 0; j < cs->num_virtual_buffers; ++j) {
874
 
            struct radv_amdgpu_winsys_bo *virtual_bo =
875
 
               radv_amdgpu_winsys_bo(cs->virtual_buffers[j]);
876
 
            for (unsigned k = 0; k < virtual_bo->bo_count; ++k) {
877
 
               struct radv_amdgpu_winsys_bo *bo = virtual_bo->bos[k];
878
 
               bool found = false;
879
 
               for (unsigned m = 0; m < num_handles; ++m) {
880
 
                  if (handles[m].bo_handle == bo->bo_handle) {
881
 
                     found = true;
882
 
                     break;
883
 
                  }
884
 
               }
885
 
               if (!found) {
886
 
                  handles[num_handles].bo_handle = bo->bo_handle;
887
 
                  handles[num_handles].bo_priority = bo->priority;
888
 
                  ++num_handles;
889
 
               }
890
 
            }
891
 
         }
892
 
      }
893
 
 
894
 
      unsigned unique_bo_so_far = num_handles;
895
 
      for (unsigned i = 0; i < ws->global_bo_list.count; ++i) {
896
 
         struct radv_amdgpu_winsys_bo *bo = ws->global_bo_list.bos[i];
897
 
         bool found = false;
898
 
         for (unsigned j = 0; j < unique_bo_so_far; ++j) {
899
 
            if (bo->bo_handle == handles[j].bo_handle) {
900
 
               found = true;
901
 
               break;
902
 
            }
903
 
         }
904
 
         if (!found) {
905
 
            handles[num_handles].bo_handle = bo->bo_handle;
906
 
            handles[num_handles].bo_priority = bo->priority;
907
 
            ++num_handles;
908
 
         }
909
 
      }
910
 
   }
911
 
 
912
 
   *rhandles = handles;
913
 
   *rnum_handles = num_handles;
914
 
 
915
 
   return VK_SUCCESS;
916
 
}
917
 
 
918
 
static void
919
 
radv_assign_last_submit(struct radv_amdgpu_ctx *ctx, struct radv_amdgpu_cs_request *request)
920
 
{
921
 
   radv_amdgpu_request_to_fence(ctx, &ctx->last_submission[request->ip_type][request->ring],
922
 
                                request);
923
 
}
924
 
 
925
 
static VkResult
926
 
radv_amdgpu_winsys_cs_submit_chained(struct radeon_winsys_ctx *_ctx, int queue_idx,
927
 
                                     struct radv_winsys_sem_info *sem_info,
928
 
                                     struct radeon_cmdbuf **cs_array, unsigned cs_count,
929
 
                                     struct radeon_cmdbuf *initial_preamble_cs)
930
 
{
931
 
   struct radv_amdgpu_ctx *ctx = radv_amdgpu_ctx(_ctx);
932
 
   struct radv_amdgpu_cs *cs0 = radv_amdgpu_cs(cs_array[0]);
933
 
   struct radv_amdgpu_winsys *aws = cs0->ws;
934
 
   struct drm_amdgpu_bo_list_entry *handles = NULL;
935
 
   struct radv_amdgpu_cs_request request;
936
 
   struct amdgpu_cs_ib_info ibs[2];
937
 
   unsigned number_of_ibs = 1;
938
 
   unsigned num_handles = 0;
939
 
   VkResult result;
940
 
 
941
 
   for (unsigned i = cs_count; i--;) {
942
 
      struct radv_amdgpu_cs *cs = radv_amdgpu_cs(cs_array[i]);
943
 
 
944
 
      if (cs->is_chained) {
945
 
         assert(cs->base.cdw <= cs->base.max_dw + 4);
946
 
         assert(get_nop_packet(cs) == PKT3_NOP_PAD); /* Other shouldn't chain. */
947
 
 
948
 
         cs->is_chained = false;
949
 
         cs->base.buf[cs->base.cdw - 4] =  PKT3_NOP_PAD;
950
 
         cs->base.buf[cs->base.cdw - 3] =  PKT3_NOP_PAD;
951
 
         cs->base.buf[cs->base.cdw - 2] =  PKT3_NOP_PAD;
952
 
         cs->base.buf[cs->base.cdw - 1] =  PKT3_NOP_PAD;
953
 
      }
954
 
 
955
 
      if (i + 1 < cs_count) {
956
 
         struct radv_amdgpu_cs *next = radv_amdgpu_cs(cs_array[i + 1]);
957
 
         assert(cs->base.cdw <= cs->base.max_dw + 4);
958
 
         assert(get_nop_packet(cs) == PKT3_NOP_PAD); /* Other shouldn't chain. */
959
 
 
960
 
         cs->is_chained = true;
961
 
 
962
 
         cs->base.buf[cs->base.cdw - 4] = PKT3(PKT3_INDIRECT_BUFFER_CIK, 2, 0);
963
 
         cs->base.buf[cs->base.cdw - 3] = next->ib.ib_mc_address;
964
 
         cs->base.buf[cs->base.cdw - 2] = next->ib.ib_mc_address >> 32;
965
 
         cs->base.buf[cs->base.cdw - 1] = S_3F2_CHAIN(1) | S_3F2_VALID(1) | next->ib.size;
966
 
      }
967
 
   }
968
 
 
969
 
   u_rwlock_rdlock(&aws->global_bo_list.lock);
970
 
 
971
 
   /* Get the BO list. */
972
 
   result = radv_amdgpu_get_bo_list(cs0->ws, cs_array, cs_count, NULL, 0, initial_preamble_cs,
973
 
                                    &num_handles, &handles);
974
 
   if (result != VK_SUCCESS)
975
 
      goto fail;
976
 
 
977
 
   /* Configure the CS request. */
978
 
   if (initial_preamble_cs) {
979
 
      ibs[0] = radv_amdgpu_cs(initial_preamble_cs)->ib;
980
 
      ibs[1] = cs0->ib;
981
 
      number_of_ibs++;
982
 
   } else {
983
 
      ibs[0] = cs0->ib;
984
 
   }
985
 
 
986
 
   request.ip_type = cs0->hw_ip;
987
 
   request.ip_instance = 0;
988
 
   request.ring = queue_idx;
989
 
   request.number_of_ibs = number_of_ibs;
990
 
   request.ibs = ibs;
991
 
   request.handles = handles;
992
 
   request.num_handles = num_handles;
993
 
 
994
 
   /* Submit the CS. */
995
 
   result = radv_amdgpu_cs_submit(ctx, &request, sem_info);
996
 
 
997
 
   free(request.handles);
998
 
 
999
 
   if (result != VK_SUCCESS)
1000
 
      goto fail;
1001
 
 
1002
 
   radv_assign_last_submit(ctx, &request);
1003
 
 
1004
 
fail:
1005
 
   u_rwlock_rdunlock(&aws->global_bo_list.lock);
1006
 
   return result;
1007
 
}
1008
 
 
1009
 
static VkResult
1010
 
radv_amdgpu_winsys_cs_submit_fallback(struct radeon_winsys_ctx *_ctx, int queue_idx,
1011
 
                                      struct radv_winsys_sem_info *sem_info,
1012
 
                                      struct radeon_cmdbuf **cs_array, unsigned cs_count,
1013
 
                                      struct radeon_cmdbuf *initial_preamble_cs)
1014
 
{
1015
 
   struct radv_amdgpu_ctx *ctx = radv_amdgpu_ctx(_ctx);
1016
 
   struct drm_amdgpu_bo_list_entry *handles = NULL;
1017
 
   struct radv_amdgpu_cs_request request;
1018
 
   struct amdgpu_cs_ib_info *ibs;
1019
 
   struct radv_amdgpu_cs *cs0;
1020
 
   struct radv_amdgpu_winsys *aws;
1021
 
   unsigned num_handles = 0;
1022
 
   unsigned number_of_ibs;
1023
 
   VkResult result;
1024
 
 
1025
 
   assert(cs_count);
1026
 
   cs0 = radv_amdgpu_cs(cs_array[0]);
1027
 
   aws = cs0->ws;
1028
 
 
1029
 
   /* Compute the number of IBs for this submit. */
1030
 
   number_of_ibs = cs_count + !!initial_preamble_cs;
1031
 
 
1032
 
   u_rwlock_rdlock(&aws->global_bo_list.lock);
1033
 
 
1034
 
   /* Get the BO list. */
1035
 
   result = radv_amdgpu_get_bo_list(cs0->ws, &cs_array[0], cs_count, NULL, 0, initial_preamble_cs,
1036
 
                                    &num_handles, &handles);
1037
 
   if (result != VK_SUCCESS) {
1038
 
      goto fail;
1039
 
   }
1040
 
 
1041
 
   ibs = malloc(number_of_ibs * sizeof(*ibs));
1042
 
   if (!ibs) {
1043
 
      free(handles);
1044
 
      result = VK_ERROR_OUT_OF_HOST_MEMORY;
1045
 
      goto fail;
1046
 
   }
1047
 
 
1048
 
   /* Configure the CS request. */
1049
 
   if (initial_preamble_cs)
1050
 
      ibs[0] = radv_amdgpu_cs(initial_preamble_cs)->ib;
1051
 
 
1052
 
   for (unsigned i = 0; i < cs_count; i++) {
1053
 
      struct radv_amdgpu_cs *cs = radv_amdgpu_cs(cs_array[i]);
1054
 
 
1055
 
      ibs[i + !!initial_preamble_cs] = cs->ib;
1056
 
 
1057
 
      if (cs->is_chained) {
1058
 
         assert(get_nop_packet(cs) == PKT3_NOP_PAD); /* Other shouldn't chain. */
1059
 
 
1060
 
         cs->base.buf[cs->base.cdw - 4] =  PKT3_NOP_PAD;
1061
 
         cs->base.buf[cs->base.cdw - 3] =  PKT3_NOP_PAD;
1062
 
         cs->base.buf[cs->base.cdw - 2] =  PKT3_NOP_PAD;
1063
 
         cs->base.buf[cs->base.cdw - 1] =  PKT3_NOP_PAD;
1064
 
         cs->is_chained = false;
1065
 
      }
1066
 
   }
1067
 
 
1068
 
   request.ip_type = cs0->hw_ip;
1069
 
   request.ip_instance = 0;
1070
 
   request.ring = queue_idx;
1071
 
   request.handles = handles;
1072
 
   request.num_handles = num_handles;
1073
 
   request.number_of_ibs = number_of_ibs;
1074
 
   request.ibs = ibs;
1075
 
 
1076
 
   /* Submit the CS. */
1077
 
   result = radv_amdgpu_cs_submit(ctx, &request, sem_info);
1078
 
 
1079
 
   free(request.handles);
1080
 
   free(ibs);
1081
 
 
1082
 
   if (result != VK_SUCCESS)
1083
 
      goto fail;
1084
 
 
1085
 
   radv_assign_last_submit(ctx, &request);
1086
 
 
1087
 
fail:
1088
 
   u_rwlock_rdunlock(&aws->global_bo_list.lock);
1089
 
   return result;
1090
 
}
1091
 
 
1092
 
static VkResult
1093
 
radv_amdgpu_winsys_cs_submit_sysmem(struct radeon_winsys_ctx *_ctx, int queue_idx,
1094
 
                                    struct radv_winsys_sem_info *sem_info,
1095
 
                                    struct radeon_cmdbuf **cs_array, unsigned cs_count,
1096
 
                                    struct radeon_cmdbuf *initial_preamble_cs,
1097
 
                                    struct radeon_cmdbuf *continue_preamble_cs)
1098
 
{
1099
 
   struct radv_amdgpu_ctx *ctx = radv_amdgpu_ctx(_ctx);
1100
 
   struct radv_amdgpu_cs *cs0 = radv_amdgpu_cs(cs_array[0]);
1101
 
   struct radeon_winsys *ws = (struct radeon_winsys *)cs0->ws;
1102
 
   struct radv_amdgpu_winsys *aws = cs0->ws;
1103
 
   struct radv_amdgpu_cs_request request;
1104
 
   uint32_t pad_word = get_nop_packet(cs0);
1105
 
   enum ring_type ring_type = hw_ip_to_ring(cs0->hw_ip);
1106
 
   uint32_t ib_pad_dw_mask = cs0->ws->info.ib_pad_dw_mask[ring_type];
1107
 
   bool emit_signal_sem = sem_info->cs_emit_signal;
1108
 
   VkResult result;
1109
 
 
1110
 
   assert(cs_count);
1111
 
 
1112
 
   for (unsigned i = 0; i < cs_count;) {
1113
 
      struct amdgpu_cs_ib_info *ibs;
1114
 
      struct radeon_winsys_bo **bos;
1115
 
      struct radeon_cmdbuf *preamble_cs = i ? continue_preamble_cs : initial_preamble_cs;
1116
 
      struct radv_amdgpu_cs *cs = radv_amdgpu_cs(cs_array[i]);
1117
 
      struct drm_amdgpu_bo_list_entry *handles = NULL;
1118
 
      unsigned num_handles = 0;
1119
 
      unsigned number_of_ibs;
1120
 
      uint32_t *ptr;
1121
 
      unsigned cnt = 0;
1122
 
 
1123
 
      /* Compute the number of IBs for this submit. */
1124
 
      number_of_ibs = cs->num_old_cs_buffers + 1;
1125
 
 
1126
 
      ibs = malloc(number_of_ibs * sizeof(*ibs));
1127
 
      if (!ibs)
1128
 
         return VK_ERROR_OUT_OF_HOST_MEMORY;
1129
 
 
1130
 
      bos = malloc(number_of_ibs * sizeof(*bos));
1131
 
      if (!bos) {
1132
 
         free(ibs);
1133
 
         return VK_ERROR_OUT_OF_HOST_MEMORY;
1134
 
      }
1135
 
 
1136
 
      if (number_of_ibs > 1) {
1137
 
         /* Special path when the maximum size in dwords has
1138
 
          * been reached because we need to handle more than one
1139
 
          * IB per submit.
1140
 
          */
1141
 
         struct radeon_cmdbuf **new_cs_array;
1142
 
         unsigned idx = 0;
1143
 
 
1144
 
         new_cs_array = malloc(number_of_ibs * sizeof(*new_cs_array));
1145
 
         assert(new_cs_array);
1146
 
 
1147
 
         for (unsigned j = 0; j < cs->num_old_cs_buffers; j++)
1148
 
            new_cs_array[idx++] = &cs->old_cs_buffers[j];
1149
 
         new_cs_array[idx++] = cs_array[i];
1150
 
 
1151
 
         for (unsigned j = 0; j < number_of_ibs; j++) {
1152
 
            struct radeon_cmdbuf *rcs = new_cs_array[j];
1153
 
            bool needs_preamble = preamble_cs && j == 0;
1154
 
            unsigned pad_words = 0;
1155
 
            unsigned size = 0;
1156
 
 
1157
 
            if (needs_preamble)
1158
 
               size += preamble_cs->cdw;
1159
 
            size += rcs->cdw;
1160
 
 
1161
 
            assert(size < GFX6_MAX_CS_SIZE);
1162
 
 
1163
 
            while (!size || (size & ib_pad_dw_mask)) {
1164
 
               size++;
1165
 
               pad_words++;
1166
 
            }
1167
 
 
1168
 
            ws->buffer_create(
1169
 
               ws, 4 * size, 4096, radv_amdgpu_cs_domain(ws),
1170
 
               RADEON_FLAG_CPU_ACCESS | RADEON_FLAG_NO_INTERPROCESS_SHARING | RADEON_FLAG_READ_ONLY |
1171
 
               RADEON_FLAG_GTT_WC, RADV_BO_PRIORITY_CS, 0, &bos[j]);
1172
 
            ptr = ws->buffer_map(bos[j]);
1173
 
 
1174
 
            if (needs_preamble) {
1175
 
               memcpy(ptr, preamble_cs->buf, preamble_cs->cdw * 4);
1176
 
               ptr += preamble_cs->cdw;
1177
 
            }
1178
 
 
1179
 
            memcpy(ptr, rcs->buf, 4 * rcs->cdw);
1180
 
            ptr += rcs->cdw;
1181
 
 
1182
 
            for (unsigned k = 0; k < pad_words; ++k)
1183
 
               *ptr++ = pad_word;
1184
 
 
1185
 
            ibs[j].size = size;
1186
 
            ibs[j].ib_mc_address = radv_buffer_get_va(bos[j]);
1187
 
            ibs[j].flags = 0;
1188
 
         }
1189
 
 
1190
 
         cnt++;
1191
 
         free(new_cs_array);
1192
 
      } else {
1193
 
         unsigned pad_words = 0;
1194
 
         unsigned size = 0;
1195
 
 
1196
 
         if (preamble_cs)
1197
 
            size += preamble_cs->cdw;
1198
 
 
1199
 
         while (i + cnt < cs_count &&
1200
 
                GFX6_MAX_CS_SIZE - size >= radv_amdgpu_cs(cs_array[i + cnt])->base.cdw) {
1201
 
            size += radv_amdgpu_cs(cs_array[i + cnt])->base.cdw;
1202
 
            ++cnt;
1203
 
         }
1204
 
 
1205
 
         while (!size || (size & ib_pad_dw_mask)) {
1206
 
            size++;
1207
 
            pad_words++;
1208
 
         }
1209
 
         assert(cnt);
1210
 
 
1211
 
         ws->buffer_create(
1212
 
            ws, 4 * size, 4096, radv_amdgpu_cs_domain(ws),
1213
 
            RADEON_FLAG_CPU_ACCESS | RADEON_FLAG_NO_INTERPROCESS_SHARING | RADEON_FLAG_READ_ONLY |
1214
 
            RADEON_FLAG_GTT_WC, RADV_BO_PRIORITY_CS, 0, &bos[0]);
1215
 
         ptr = ws->buffer_map(bos[0]);
1216
 
 
1217
 
         if (preamble_cs) {
1218
 
            memcpy(ptr, preamble_cs->buf, preamble_cs->cdw * 4);
1219
 
            ptr += preamble_cs->cdw;
1220
 
         }
1221
 
 
1222
 
         for (unsigned j = 0; j < cnt; ++j) {
1223
 
            struct radv_amdgpu_cs *cs2 = radv_amdgpu_cs(cs_array[i + j]);
1224
 
            memcpy(ptr, cs2->base.buf, 4 * cs2->base.cdw);
1225
 
            ptr += cs2->base.cdw;
1226
 
         }
1227
 
 
1228
 
         for (unsigned j = 0; j < pad_words; ++j)
1229
 
            *ptr++ = pad_word;
1230
 
 
1231
 
         ibs[0].size = size;
1232
 
         ibs[0].ib_mc_address = radv_buffer_get_va(bos[0]);
1233
 
         ibs[0].flags = 0;
1234
 
      }
1235
 
 
1236
 
      u_rwlock_rdlock(&aws->global_bo_list.lock);
1237
 
 
1238
 
      result =
1239
 
         radv_amdgpu_get_bo_list(cs0->ws, &cs_array[i], cnt, (struct radv_amdgpu_winsys_bo **)bos,
1240
 
                                 number_of_ibs, preamble_cs, &num_handles, &handles);
1241
 
      if (result != VK_SUCCESS) {
1242
 
         free(ibs);
1243
 
         free(bos);
1244
 
         u_rwlock_rdunlock(&aws->global_bo_list.lock);
1245
 
         return result;
1246
 
      }
1247
 
 
1248
 
      request.ip_type = cs0->hw_ip;
1249
 
      request.ip_instance = 0;
1250
 
      request.ring = queue_idx;
1251
 
      request.handles = handles;
1252
 
      request.num_handles = num_handles;
1253
 
      request.number_of_ibs = number_of_ibs;
1254
 
      request.ibs = ibs;
1255
 
 
1256
 
      sem_info->cs_emit_signal = (i == cs_count - cnt) ? emit_signal_sem : false;
1257
 
      result = radv_amdgpu_cs_submit(ctx, &request, sem_info);
1258
 
 
1259
 
      free(request.handles);
1260
 
      u_rwlock_rdunlock(&aws->global_bo_list.lock);
1261
 
 
1262
 
      for (unsigned j = 0; j < number_of_ibs; j++) {
1263
 
         ws->buffer_destroy(ws, bos[j]);
1264
 
      }
1265
 
 
1266
 
      free(ibs);
1267
 
      free(bos);
1268
 
 
1269
 
      if (result != VK_SUCCESS)
1270
 
         return result;
1271
 
 
1272
 
      i += cnt;
1273
 
   }
1274
 
 
1275
 
   radv_assign_last_submit(ctx, &request);
1276
 
 
1277
 
   return VK_SUCCESS;
1278
 
}
1279
 
 
1280
 
static VkResult
1281
 
radv_amdgpu_cs_submit_zero(struct radv_amdgpu_ctx *ctx, enum ring_type ring_type, int queue_idx,
1282
 
                           struct radv_winsys_sem_info *sem_info)
1283
 
{
1284
 
   unsigned hw_ip = ring_to_hw_ip(ring_type);
1285
 
   unsigned queue_syncobj = radv_amdgpu_ctx_queue_syncobj(ctx, hw_ip, queue_idx);
1286
 
   int ret;
1287
 
 
1288
 
   if (!queue_syncobj)
1289
 
      return VK_ERROR_OUT_OF_HOST_MEMORY;
1290
 
 
1291
 
   if (sem_info->wait.syncobj_count || sem_info->wait.timeline_syncobj_count) {
1292
 
      int fd;
1293
 
      ret = amdgpu_cs_syncobj_export_sync_file(ctx->ws->dev, queue_syncobj, &fd);
1294
 
      if (ret < 0)
1295
 
         return VK_ERROR_DEVICE_LOST;
1296
 
 
1297
 
      for (unsigned i = 0; i < sem_info->wait.syncobj_count; ++i) {
1298
 
         int fd2;
1299
 
         ret = amdgpu_cs_syncobj_export_sync_file(ctx->ws->dev, sem_info->wait.syncobj[i], &fd2);
1300
 
         if (ret < 0) {
1301
 
            close(fd);
1302
 
            return VK_ERROR_DEVICE_LOST;
1303
 
         }
1304
 
 
1305
 
         sync_accumulate("radv", &fd, fd2);
1306
 
         close(fd2);
1307
 
      }
1308
 
      for (unsigned i = 0; i < sem_info->wait.timeline_syncobj_count; ++i) {
1309
 
         int fd2;
1310
 
         ret = amdgpu_cs_syncobj_export_sync_file2(
1311
 
            ctx->ws->dev, sem_info->wait.syncobj[i + sem_info->wait.syncobj_count],
1312
 
            sem_info->wait.points[i], 0, &fd2);
1313
 
         if (ret < 0) {
1314
 
            /* This works around a kernel bug where the fence isn't copied if it is already
1315
 
             * signalled. Since it is already signalled it is totally fine to not wait on it.
1316
 
             *
1317
 
             * kernel patch: https://patchwork.freedesktop.org/patch/465583/ */
1318
 
            uint64_t point;
1319
 
            ret = amdgpu_cs_syncobj_query2(
1320
 
               ctx->ws->dev, &sem_info->wait.syncobj[i + sem_info->wait.syncobj_count], &point, 1,
1321
 
               0);
1322
 
            if (!ret && point >= sem_info->wait.points[i])
1323
 
               continue;
1324
 
 
1325
 
            close(fd);
1326
 
            return VK_ERROR_DEVICE_LOST;
1327
 
         }
1328
 
 
1329
 
         sync_accumulate("radv", &fd, fd2);
1330
 
         close(fd2);
1331
 
      }
1332
 
      ret = amdgpu_cs_syncobj_import_sync_file(ctx->ws->dev, queue_syncobj, fd);
1333
 
      close(fd);
1334
 
      if (ret < 0)
1335
 
         return VK_ERROR_DEVICE_LOST;
1336
 
 
1337
 
      ctx->queue_syncobj_wait[hw_ip][queue_idx] = true;
1338
 
   }
1339
 
 
1340
 
   for (unsigned i = 0; i < sem_info->signal.syncobj_count; ++i) {
1341
 
      uint32_t dst_handle = sem_info->signal.syncobj[i];
1342
 
      uint32_t src_handle = queue_syncobj;
1343
 
 
1344
 
      if (ctx->ws->info.has_timeline_syncobj) {
1345
 
         ret = amdgpu_cs_syncobj_transfer(ctx->ws->dev, dst_handle, 0, src_handle, 0, 0);
1346
 
         if (ret < 0)
1347
 
            return VK_ERROR_DEVICE_LOST;
1348
 
      } else {
1349
 
         int fd;
1350
 
         ret = amdgpu_cs_syncobj_export_sync_file(ctx->ws->dev, src_handle, &fd);
1351
 
         if (ret < 0)
1352
 
            return VK_ERROR_DEVICE_LOST;
1353
 
 
1354
 
         ret = amdgpu_cs_syncobj_import_sync_file(ctx->ws->dev, dst_handle, fd);
1355
 
         close(fd);
1356
 
         if (ret < 0)
1357
 
            return VK_ERROR_DEVICE_LOST;
1358
 
      }
1359
 
   }
1360
 
   for (unsigned i = 0; i < sem_info->signal.timeline_syncobj_count; ++i) {
1361
 
      ret = amdgpu_cs_syncobj_transfer(ctx->ws->dev,
1362
 
                                       sem_info->signal.syncobj[i + sem_info->signal.syncobj_count],
1363
 
                                       sem_info->signal.points[i], queue_syncobj, 0, 0);
1364
 
      if (ret < 0)
1365
 
         return VK_ERROR_DEVICE_LOST;
1366
 
   }
1367
 
   return VK_SUCCESS;
1368
 
}
1369
 
 
1370
 
static VkResult
1371
 
radv_amdgpu_winsys_cs_submit_internal(struct radeon_winsys_ctx *_ctx, enum ring_type ring_type,
1372
 
                                      int queue_idx, struct radeon_cmdbuf **cs_array,
1373
 
                                      unsigned cs_count, struct radeon_cmdbuf *initial_preamble_cs,
1374
 
                                      struct radeon_cmdbuf *continue_preamble_cs,
1375
 
                                      struct radv_winsys_sem_info *sem_info, bool can_patch)
1376
 
{
1377
 
   struct radv_amdgpu_ctx *ctx = radv_amdgpu_ctx(_ctx);
1378
 
   VkResult result;
1379
 
 
1380
 
   assert(sem_info);
1381
 
   if (!cs_count) {
1382
 
      result = radv_amdgpu_cs_submit_zero(ctx, ring_type, queue_idx, sem_info);
1383
 
   } else if (!ring_can_use_ib_bos(ctx->ws, ring_type)) {
1384
 
      result = radv_amdgpu_winsys_cs_submit_sysmem(_ctx, queue_idx, sem_info, cs_array, cs_count,
1385
 
                                                   initial_preamble_cs, continue_preamble_cs);
1386
 
   } else if (can_patch) {
1387
 
      result = radv_amdgpu_winsys_cs_submit_chained(_ctx, queue_idx, sem_info, cs_array, cs_count,
1388
 
                                                    initial_preamble_cs);
1389
 
   } else {
1390
 
      result = radv_amdgpu_winsys_cs_submit_fallback(_ctx, queue_idx, sem_info, cs_array, cs_count,
1391
 
                                                     initial_preamble_cs);
1392
 
   }
1393
 
 
1394
 
   return result;
1395
 
}
1396
 
 
1397
 
static VkResult
1398
 
radv_amdgpu_winsys_cs_submit(struct radeon_winsys_ctx *_ctx, enum ring_type ring_type,
1399
 
                             int queue_idx, struct radeon_cmdbuf **cs_array, unsigned cs_count,
1400
 
                             struct radeon_cmdbuf *initial_preamble_cs,
1401
 
                             struct radeon_cmdbuf *continue_preamble_cs, uint32_t wait_count,
1402
 
                             const struct vk_sync_wait *waits, uint32_t signal_count,
1403
 
                             const struct vk_sync_signal *signals, bool can_patch)
1404
 
{
1405
 
   struct radv_amdgpu_winsys *ws = radv_amdgpu_ctx(_ctx)->ws;
1406
 
   struct radv_winsys_sem_info sem_info;
1407
 
   memset(&sem_info, 0, sizeof(sem_info));
1408
 
   VkResult result;
1409
 
   unsigned wait_idx = 0, signal_idx = 0;
1410
 
 
1411
 
   STACK_ARRAY(uint64_t, wait_points, wait_count);
1412
 
   STACK_ARRAY(uint32_t, wait_syncobj, wait_count);
1413
 
   STACK_ARRAY(uint64_t, signal_points, signal_count);
1414
 
   STACK_ARRAY(uint32_t, signal_syncobj, signal_count);
1415
 
 
1416
 
   if (!wait_points || !wait_syncobj || !signal_points || !signal_syncobj) {
1417
 
      result = VK_ERROR_OUT_OF_HOST_MEMORY;
1418
 
      goto out;
1419
 
   }
1420
 
 
1421
 
   sem_info.wait.points = wait_points;
1422
 
   sem_info.wait.syncobj = wait_syncobj;
1423
 
   sem_info.signal.points = signal_points;
1424
 
   sem_info.signal.syncobj = signal_syncobj;
1425
 
 
1426
 
   for (uint32_t i = 0; i < wait_count; ++i) {
1427
 
      if (waits[i].sync->type == &vk_sync_dummy_type)
1428
 
         continue;
1429
 
 
1430
 
      assert(waits[i].sync->type == &ws->syncobj_sync_type);
1431
 
      sem_info.wait.syncobj[wait_idx] = ((struct vk_drm_syncobj *)waits[i].sync)->syncobj;
1432
 
      sem_info.wait.points[wait_idx] = waits[i].wait_value;
1433
 
      ++wait_idx;
1434
 
   }
1435
 
 
1436
 
   for (uint32_t i = 0; i < signal_count; ++i) {
1437
 
      if (signals[i].sync->type == &vk_sync_dummy_type)
1438
 
         continue;
1439
 
 
1440
 
      assert(signals[i].sync->type == &ws->syncobj_sync_type);
1441
 
      sem_info.signal.syncobj[signal_idx] = ((struct vk_drm_syncobj *)signals[i].sync)->syncobj;
1442
 
      sem_info.signal.points[signal_idx] = signals[i].signal_value;
1443
 
      ++signal_idx;
1444
 
   }
1445
 
 
1446
 
   assert(signal_idx <= signal_count);
1447
 
   assert(wait_idx <= wait_count);
1448
 
   sem_info.wait.timeline_syncobj_count =
1449
 
      (ws->syncobj_sync_type.features & VK_SYNC_FEATURE_TIMELINE) ? wait_idx : 0;
1450
 
   sem_info.wait.syncobj_count = wait_idx - sem_info.wait.timeline_syncobj_count;
1451
 
   sem_info.cs_emit_wait = true;
1452
 
 
1453
 
   sem_info.signal.timeline_syncobj_count =
1454
 
      (ws->syncobj_sync_type.features & VK_SYNC_FEATURE_TIMELINE) ? signal_idx : 0;
1455
 
   sem_info.signal.syncobj_count = signal_idx - sem_info.signal.timeline_syncobj_count;
1456
 
   sem_info.cs_emit_signal = true;
1457
 
 
1458
 
   result = radv_amdgpu_winsys_cs_submit_internal(_ctx, ring_type, queue_idx, cs_array, cs_count,
1459
 
                                                  initial_preamble_cs, continue_preamble_cs,
1460
 
                                                  &sem_info, can_patch);
1461
 
 
1462
 
out:
1463
 
   STACK_ARRAY_FINISH(wait_points);
1464
 
   STACK_ARRAY_FINISH(wait_syncobj);
1465
 
   STACK_ARRAY_FINISH(signal_points);
1466
 
   STACK_ARRAY_FINISH(signal_syncobj);
1467
 
   return result;
1468
 
}
1469
 
 
1470
 
static void *
1471
 
radv_amdgpu_winsys_get_cpu_addr(void *_cs, uint64_t addr)
1472
 
{
1473
 
   struct radv_amdgpu_cs *cs = (struct radv_amdgpu_cs *)_cs;
1474
 
   void *ret = NULL;
1475
 
 
1476
 
   if (!cs->ib_buffer)
1477
 
      return NULL;
1478
 
   for (unsigned i = 0; i <= cs->num_old_ib_buffers; ++i) {
1479
 
      struct radv_amdgpu_winsys_bo *bo;
1480
 
 
1481
 
      bo = (struct radv_amdgpu_winsys_bo *)(i == cs->num_old_ib_buffers ? cs->ib_buffer
1482
 
                                                                        : cs->old_ib_buffers[i].bo);
1483
 
      if (addr >= bo->base.va && addr - bo->base.va < bo->size) {
1484
 
         if (amdgpu_bo_cpu_map(bo->bo, &ret) == 0)
1485
 
            return (char *)ret + (addr - bo->base.va);
1486
 
      }
1487
 
   }
1488
 
   u_rwlock_rdlock(&cs->ws->global_bo_list.lock);
1489
 
   for (uint32_t i = 0; i < cs->ws->global_bo_list.count; i++) {
1490
 
      struct radv_amdgpu_winsys_bo *bo = cs->ws->global_bo_list.bos[i];
1491
 
      if (addr >= bo->base.va && addr - bo->base.va < bo->size) {
1492
 
         if (amdgpu_bo_cpu_map(bo->bo, &ret) == 0) {
1493
 
            u_rwlock_rdunlock(&cs->ws->global_bo_list.lock);
1494
 
            return (char *)ret + (addr - bo->base.va);
1495
 
         }
1496
 
      }
1497
 
   }
1498
 
   u_rwlock_rdunlock(&cs->ws->global_bo_list.lock);
1499
 
 
1500
 
   return ret;
1501
 
}
1502
 
 
1503
 
static void
1504
 
radv_amdgpu_winsys_cs_dump(struct radeon_cmdbuf *_cs, FILE *file, const int *trace_ids,
1505
 
                           int trace_id_count)
1506
 
{
1507
 
   struct radv_amdgpu_cs *cs = (struct radv_amdgpu_cs *)_cs;
1508
 
   void *ib = cs->base.buf;
1509
 
   int num_dw = cs->base.cdw;
1510
 
 
1511
 
   if (cs->use_ib) {
1512
 
      ib = radv_amdgpu_winsys_get_cpu_addr(cs, cs->ib.ib_mc_address);
1513
 
      num_dw = cs->ib.size;
1514
 
   }
1515
 
   assert(ib);
1516
 
   ac_parse_ib(file, ib, num_dw, trace_ids, trace_id_count, "main IB", cs->ws->info.chip_class,
1517
 
               radv_amdgpu_winsys_get_cpu_addr, cs);
1518
 
}
1519
 
 
1520
 
static uint32_t
1521
 
radv_to_amdgpu_priority(enum radeon_ctx_priority radv_priority)
1522
 
{
1523
 
   switch (radv_priority) {
1524
 
   case RADEON_CTX_PRIORITY_REALTIME:
1525
 
      return AMDGPU_CTX_PRIORITY_VERY_HIGH;
1526
 
   case RADEON_CTX_PRIORITY_HIGH:
1527
 
      return AMDGPU_CTX_PRIORITY_HIGH;
1528
 
   case RADEON_CTX_PRIORITY_MEDIUM:
1529
 
      return AMDGPU_CTX_PRIORITY_NORMAL;
1530
 
   case RADEON_CTX_PRIORITY_LOW:
1531
 
      return AMDGPU_CTX_PRIORITY_LOW;
1532
 
   default:
1533
 
      unreachable("Invalid context priority");
1534
 
   }
1535
 
}
1536
 
 
1537
 
static VkResult
1538
 
radv_amdgpu_ctx_create(struct radeon_winsys *_ws, enum radeon_ctx_priority priority,
1539
 
                       struct radeon_winsys_ctx **rctx)
1540
 
{
1541
 
   struct radv_amdgpu_winsys *ws = radv_amdgpu_winsys(_ws);
1542
 
   struct radv_amdgpu_ctx *ctx = CALLOC_STRUCT(radv_amdgpu_ctx);
1543
 
   uint32_t amdgpu_priority = radv_to_amdgpu_priority(priority);
1544
 
   VkResult result;
1545
 
   int r;
1546
 
 
1547
 
   if (!ctx)
1548
 
      return VK_ERROR_OUT_OF_HOST_MEMORY;
1549
 
 
1550
 
   r = amdgpu_cs_ctx_create2(ws->dev, amdgpu_priority, &ctx->ctx);
1551
 
   if (r && r == -EACCES) {
1552
 
      result = VK_ERROR_NOT_PERMITTED_EXT;
1553
 
      goto fail_create;
1554
 
   } else if (r) {
1555
 
      fprintf(stderr, "radv/amdgpu: radv_amdgpu_cs_ctx_create2 failed. (%i)\n", r);
1556
 
      result = VK_ERROR_OUT_OF_HOST_MEMORY;
1557
 
      goto fail_create;
1558
 
   }
1559
 
   ctx->ws = ws;
1560
 
 
1561
 
   assert(AMDGPU_HW_IP_NUM * MAX_RINGS_PER_TYPE * sizeof(uint64_t) <= 4096);
1562
 
   result = ws->base.buffer_create(&ws->base, 4096, 8, RADEON_DOMAIN_GTT,
1563
 
                                   RADEON_FLAG_CPU_ACCESS | RADEON_FLAG_NO_INTERPROCESS_SHARING,
1564
 
                                   RADV_BO_PRIORITY_CS, 0, &ctx->fence_bo);
1565
 
   if (result != VK_SUCCESS) {
1566
 
      goto fail_alloc;
1567
 
   }
1568
 
 
1569
 
   *rctx = (struct radeon_winsys_ctx *)ctx;
1570
 
   return VK_SUCCESS;
1571
 
 
1572
 
fail_alloc:
1573
 
   amdgpu_cs_ctx_free(ctx->ctx);
1574
 
fail_create:
1575
 
   FREE(ctx);
1576
 
   return result;
1577
 
}
1578
 
 
1579
 
static void
1580
 
radv_amdgpu_ctx_destroy(struct radeon_winsys_ctx *rwctx)
1581
 
{
1582
 
   struct radv_amdgpu_ctx *ctx = (struct radv_amdgpu_ctx *)rwctx;
1583
 
 
1584
 
   for (unsigned ip = 0; ip <= AMDGPU_HW_IP_NUM; ++ip) {
1585
 
      for (unsigned ring = 0; ring < MAX_RINGS_PER_TYPE; ++ring) {
1586
 
         if (ctx->queue_syncobj[ip][ring])
1587
 
            amdgpu_cs_destroy_syncobj(ctx->ws->dev, ctx->queue_syncobj[ip][ring]);
1588
 
      }
1589
 
   }
1590
 
 
1591
 
   ctx->ws->base.buffer_destroy(&ctx->ws->base, ctx->fence_bo);
1592
 
   amdgpu_cs_ctx_free(ctx->ctx);
1593
 
   FREE(ctx);
1594
 
}
1595
 
 
1596
 
static uint32_t
1597
 
radv_amdgpu_ctx_queue_syncobj(struct radv_amdgpu_ctx *ctx, unsigned ip, unsigned ring)
1598
 
{
1599
 
   uint32_t *syncobj = &ctx->queue_syncobj[ip][ring];
1600
 
   if (!*syncobj) {
1601
 
      amdgpu_cs_create_syncobj2(ctx->ws->dev, DRM_SYNCOBJ_CREATE_SIGNALED, syncobj);
1602
 
   }
1603
 
   return *syncobj;
1604
 
}
1605
 
 
1606
 
static bool
1607
 
radv_amdgpu_ctx_wait_idle(struct radeon_winsys_ctx *rwctx, enum ring_type ring_type, int ring_index)
1608
 
{
1609
 
   struct radv_amdgpu_ctx *ctx = (struct radv_amdgpu_ctx *)rwctx;
1610
 
   int ip_type = ring_to_hw_ip(ring_type);
1611
 
 
1612
 
   if (ctx->last_submission[ip_type][ring_index].fence.fence) {
1613
 
      uint32_t expired;
1614
 
      int ret = amdgpu_cs_query_fence_status(&ctx->last_submission[ip_type][ring_index].fence,
1615
 
                                             1000000000ull, 0, &expired);
1616
 
 
1617
 
      if (ret || !expired)
1618
 
         return false;
1619
 
   }
1620
 
 
1621
 
   return true;
1622
 
}
1623
 
 
1624
 
static uint32_t
1625
 
radv_to_amdgpu_pstate(enum radeon_ctx_pstate radv_pstate)
1626
 
{
1627
 
   switch (radv_pstate) {
1628
 
   case RADEON_CTX_PSTATE_NONE:
1629
 
      return AMDGPU_CTX_STABLE_PSTATE_NONE;
1630
 
   case RADEON_CTX_PSTATE_STANDARD:
1631
 
      return AMDGPU_CTX_STABLE_PSTATE_STANDARD;
1632
 
   case RADEON_CTX_PSTATE_MIN_SCLK:
1633
 
      return AMDGPU_CTX_STABLE_PSTATE_MIN_SCLK;
1634
 
   case RADEON_CTX_PSTATE_MIN_MCLK:
1635
 
      return AMDGPU_CTX_STABLE_PSTATE_MIN_MCLK;
1636
 
   case RADEON_CTX_PSTATE_PEAK:
1637
 
      return AMDGPU_CTX_STABLE_PSTATE_PEAK;
1638
 
   default:
1639
 
      unreachable("Invalid pstate");
1640
 
   }
1641
 
}
1642
 
 
1643
 
static int
1644
 
radv_amdgpu_ctx_set_pstate(struct radeon_winsys_ctx *rwctx, enum radeon_ctx_pstate pstate)
1645
 
{
1646
 
   struct radv_amdgpu_ctx *ctx = (struct radv_amdgpu_ctx *)rwctx;
1647
 
   uint32_t amdgpu_pstate = radv_to_amdgpu_pstate(pstate);
1648
 
   return amdgpu_cs_ctx_stable_pstate(ctx->ctx, AMDGPU_CTX_OP_SET_STABLE_PSTATE, amdgpu_pstate, NULL);
1649
 
}
1650
 
 
1651
 
static void *
1652
 
radv_amdgpu_cs_alloc_syncobj_chunk(struct radv_winsys_sem_counts *counts, uint32_t queue_syncobj,
1653
 
                                   struct drm_amdgpu_cs_chunk *chunk, int chunk_id)
1654
 
{
1655
 
   unsigned count = counts->syncobj_count + (queue_syncobj ? 1 : 0);
1656
 
   struct drm_amdgpu_cs_chunk_sem *syncobj =
1657
 
      malloc(sizeof(struct drm_amdgpu_cs_chunk_sem) * count);
1658
 
   if (!syncobj)
1659
 
      return NULL;
1660
 
 
1661
 
   for (unsigned i = 0; i < counts->syncobj_count; i++) {
1662
 
      struct drm_amdgpu_cs_chunk_sem *sem = &syncobj[i];
1663
 
      sem->handle = counts->syncobj[i];
1664
 
   }
1665
 
 
1666
 
   if (queue_syncobj)
1667
 
      syncobj[counts->syncobj_count].handle = queue_syncobj;
1668
 
 
1669
 
   chunk->chunk_id = chunk_id;
1670
 
   chunk->length_dw = sizeof(struct drm_amdgpu_cs_chunk_sem) / 4 * count;
1671
 
   chunk->chunk_data = (uint64_t)(uintptr_t)syncobj;
1672
 
   return syncobj;
1673
 
}
1674
 
 
1675
 
static void *
1676
 
radv_amdgpu_cs_alloc_timeline_syncobj_chunk(struct radv_winsys_sem_counts *counts,
1677
 
                                            uint32_t queue_syncobj,
1678
 
                                            struct drm_amdgpu_cs_chunk *chunk, int chunk_id)
1679
 
{
1680
 
   uint32_t count =
1681
 
      counts->syncobj_count + counts->timeline_syncobj_count + (queue_syncobj ? 1 : 0);
1682
 
   struct drm_amdgpu_cs_chunk_syncobj *syncobj =
1683
 
      malloc(sizeof(struct drm_amdgpu_cs_chunk_syncobj) * count);
1684
 
   if (!syncobj)
1685
 
      return NULL;
1686
 
 
1687
 
   for (unsigned i = 0; i < counts->syncobj_count; i++) {
1688
 
      struct drm_amdgpu_cs_chunk_syncobj *sem = &syncobj[i];
1689
 
      sem->handle = counts->syncobj[i];
1690
 
      sem->flags = 0;
1691
 
      sem->point = 0;
1692
 
   }
1693
 
 
1694
 
   for (unsigned i = 0; i < counts->timeline_syncobj_count; i++) {
1695
 
      struct drm_amdgpu_cs_chunk_syncobj *sem = &syncobj[i + counts->syncobj_count];
1696
 
      sem->handle = counts->syncobj[i + counts->syncobj_count];
1697
 
      sem->flags = DRM_SYNCOBJ_WAIT_FLAGS_WAIT_FOR_SUBMIT;
1698
 
      sem->point = counts->points[i];
1699
 
   }
1700
 
 
1701
 
   if (queue_syncobj) {
1702
 
      syncobj[count - 1].handle = queue_syncobj;
1703
 
      syncobj[count - 1].flags = 0;
1704
 
      syncobj[count - 1].point = 0;
1705
 
   }
1706
 
 
1707
 
   chunk->chunk_id = chunk_id;
1708
 
   chunk->length_dw = sizeof(struct drm_amdgpu_cs_chunk_syncobj) / 4 * count;
1709
 
   chunk->chunk_data = (uint64_t)(uintptr_t)syncobj;
1710
 
   return syncobj;
1711
 
}
1712
 
 
1713
 
static bool
1714
 
radv_amdgpu_cs_has_user_fence(struct radv_amdgpu_cs_request *request)
1715
 
{
1716
 
   return request->ip_type != AMDGPU_HW_IP_UVD &&
1717
 
          request->ip_type != AMDGPU_HW_IP_VCE &&
1718
 
          request->ip_type != AMDGPU_HW_IP_UVD_ENC &&
1719
 
          request->ip_type != AMDGPU_HW_IP_VCN_DEC &&
1720
 
          request->ip_type != AMDGPU_HW_IP_VCN_ENC &&
1721
 
          request->ip_type != AMDGPU_HW_IP_VCN_JPEG;
1722
 
}
1723
 
 
1724
 
static VkResult
1725
 
radv_amdgpu_cs_submit(struct radv_amdgpu_ctx *ctx, struct radv_amdgpu_cs_request *request,
1726
 
                      struct radv_winsys_sem_info *sem_info)
1727
 
{
1728
 
   int r;
1729
 
   int num_chunks;
1730
 
   int size;
1731
 
   struct drm_amdgpu_cs_chunk *chunks;
1732
 
   struct drm_amdgpu_cs_chunk_data *chunk_data;
1733
 
   bool use_bo_list_create = ctx->ws->info.drm_minor < 27;
1734
 
   struct drm_amdgpu_bo_list_in bo_list_in;
1735
 
   void *wait_syncobj = NULL, *signal_syncobj = NULL;
1736
 
   int i;
1737
 
   uint32_t bo_list = 0;
1738
 
   VkResult result = VK_SUCCESS;
1739
 
   bool has_user_fence = radv_amdgpu_cs_has_user_fence(request);
1740
 
   uint32_t queue_syncobj = radv_amdgpu_ctx_queue_syncobj(ctx, request->ip_type, request->ring);
1741
 
   bool *queue_syncobj_wait = &ctx->queue_syncobj_wait[request->ip_type][request->ring];
1742
 
 
1743
 
   if (!queue_syncobj)
1744
 
      return VK_ERROR_OUT_OF_HOST_MEMORY;
1745
 
 
1746
 
   size = request->number_of_ibs + 1 + (has_user_fence ? 1 : 0) + (!use_bo_list_create ? 1 : 0) + 3;
1747
 
 
1748
 
   chunks = malloc(sizeof(chunks[0]) * size);
1749
 
   if (!chunks)
1750
 
      return VK_ERROR_OUT_OF_HOST_MEMORY;
1751
 
 
1752
 
   size = request->number_of_ibs + (has_user_fence ? 1 : 0);
1753
 
 
1754
 
   chunk_data = malloc(sizeof(chunk_data[0]) * size);
1755
 
   if (!chunk_data) {
1756
 
      result = VK_ERROR_OUT_OF_HOST_MEMORY;
1757
 
      goto error_out;
1758
 
   }
1759
 
 
1760
 
   num_chunks = request->number_of_ibs;
1761
 
   for (i = 0; i < request->number_of_ibs; i++) {
1762
 
      struct amdgpu_cs_ib_info *ib;
1763
 
      chunks[i].chunk_id = AMDGPU_CHUNK_ID_IB;
1764
 
      chunks[i].length_dw = sizeof(struct drm_amdgpu_cs_chunk_ib) / 4;
1765
 
      chunks[i].chunk_data = (uint64_t)(uintptr_t)&chunk_data[i];
1766
 
 
1767
 
      ib = &request->ibs[i];
1768
 
 
1769
 
      chunk_data[i].ib_data._pad = 0;
1770
 
      chunk_data[i].ib_data.va_start = ib->ib_mc_address;
1771
 
      chunk_data[i].ib_data.ib_bytes = ib->size * 4;
1772
 
      chunk_data[i].ib_data.ip_type = request->ip_type;
1773
 
      chunk_data[i].ib_data.ip_instance = request->ip_instance;
1774
 
      chunk_data[i].ib_data.ring = request->ring;
1775
 
      chunk_data[i].ib_data.flags = ib->flags;
1776
 
   }
1777
 
 
1778
 
   if (has_user_fence) {
1779
 
      i = num_chunks++;
1780
 
      chunks[i].chunk_id = AMDGPU_CHUNK_ID_FENCE;
1781
 
      chunks[i].length_dw = sizeof(struct drm_amdgpu_cs_chunk_fence) / 4;
1782
 
      chunks[i].chunk_data = (uint64_t)(uintptr_t)&chunk_data[i];
1783
 
 
1784
 
      struct amdgpu_cs_fence_info fence_info;
1785
 
      fence_info.handle = radv_amdgpu_winsys_bo(ctx->fence_bo)->bo;
1786
 
      fence_info.offset = (request->ip_type * MAX_RINGS_PER_TYPE + request->ring) * sizeof(uint64_t);
1787
 
      amdgpu_cs_chunk_fence_info_to_data(&fence_info, &chunk_data[i]);
1788
 
   }
1789
 
 
1790
 
   if (sem_info->cs_emit_wait && (sem_info->wait.timeline_syncobj_count ||
1791
 
                                  sem_info->wait.syncobj_count || *queue_syncobj_wait)) {
1792
 
 
1793
 
      if (ctx->ws->info.has_timeline_syncobj) {
1794
 
         wait_syncobj = radv_amdgpu_cs_alloc_timeline_syncobj_chunk(
1795
 
            &sem_info->wait, queue_syncobj, &chunks[num_chunks],
1796
 
            AMDGPU_CHUNK_ID_SYNCOBJ_TIMELINE_WAIT);
1797
 
      } else {
1798
 
         wait_syncobj = radv_amdgpu_cs_alloc_syncobj_chunk(
1799
 
            &sem_info->wait, queue_syncobj, &chunks[num_chunks], AMDGPU_CHUNK_ID_SYNCOBJ_IN);
1800
 
      }
1801
 
      if (!wait_syncobj) {
1802
 
         result = VK_ERROR_OUT_OF_HOST_MEMORY;
1803
 
         goto error_out;
1804
 
      }
1805
 
      num_chunks++;
1806
 
 
1807
 
      sem_info->cs_emit_wait = false;
1808
 
      *queue_syncobj_wait = false;
1809
 
   }
1810
 
 
1811
 
   if (sem_info->cs_emit_signal) {
1812
 
      if (ctx->ws->info.has_timeline_syncobj) {
1813
 
         signal_syncobj = radv_amdgpu_cs_alloc_timeline_syncobj_chunk(
1814
 
            &sem_info->signal, queue_syncobj, &chunks[num_chunks],
1815
 
            AMDGPU_CHUNK_ID_SYNCOBJ_TIMELINE_SIGNAL);
1816
 
      } else {
1817
 
         signal_syncobj = radv_amdgpu_cs_alloc_syncobj_chunk(
1818
 
            &sem_info->signal, queue_syncobj, &chunks[num_chunks], AMDGPU_CHUNK_ID_SYNCOBJ_OUT);
1819
 
      }
1820
 
      if (!signal_syncobj) {
1821
 
         result = VK_ERROR_OUT_OF_HOST_MEMORY;
1822
 
         goto error_out;
1823
 
      }
1824
 
      num_chunks++;
1825
 
   }
1826
 
 
1827
 
   if (use_bo_list_create) {
1828
 
      /* Legacy path creating the buffer list handle and passing it
1829
 
       * to the CS ioctl.
1830
 
       */
1831
 
      r = amdgpu_bo_list_create_raw(ctx->ws->dev, request->num_handles,
1832
 
                                    request->handles, &bo_list);
1833
 
      if (r) {
1834
 
         if (r == -ENOMEM) {
1835
 
            fprintf(stderr, "radv/amdgpu: Not enough memory for buffer list creation.\n");
1836
 
            result = VK_ERROR_OUT_OF_HOST_MEMORY;
1837
 
         } else {
1838
 
            fprintf(stderr, "radv/amdgpu: buffer list creation failed (%d).\n", r);
1839
 
            result = VK_ERROR_UNKNOWN;
1840
 
         }
1841
 
         goto error_out;
1842
 
      }
1843
 
   } else {
1844
 
      /* Standard path passing the buffer list via the CS ioctl. */
1845
 
      bo_list_in.operation = ~0;
1846
 
      bo_list_in.list_handle = ~0;
1847
 
      bo_list_in.bo_number = request->num_handles;
1848
 
      bo_list_in.bo_info_size = sizeof(struct drm_amdgpu_bo_list_entry);
1849
 
      bo_list_in.bo_info_ptr = (uint64_t)(uintptr_t)request->handles;
1850
 
 
1851
 
      chunks[num_chunks].chunk_id = AMDGPU_CHUNK_ID_BO_HANDLES;
1852
 
      chunks[num_chunks].length_dw = sizeof(struct drm_amdgpu_bo_list_in) / 4;
1853
 
      chunks[num_chunks].chunk_data = (uintptr_t)&bo_list_in;
1854
 
      num_chunks++;
1855
 
   }
1856
 
 
1857
 
   r = amdgpu_cs_submit_raw2(ctx->ws->dev, ctx->ctx, bo_list, num_chunks, chunks, &request->seq_no);
1858
 
 
1859
 
   if (r) {
1860
 
      if (r == -ENOMEM) {
1861
 
         fprintf(stderr, "radv/amdgpu: Not enough memory for command submission.\n");
1862
 
         result = VK_ERROR_OUT_OF_HOST_MEMORY;
1863
 
      } else if (r == -ECANCELED) {
1864
 
         fprintf(stderr, "radv/amdgpu: The CS has been cancelled because the context is lost.\n");
1865
 
         result = VK_ERROR_DEVICE_LOST;
1866
 
      } else {
1867
 
         fprintf(stderr,
1868
 
                 "amdgpu: The CS has been rejected, "
1869
 
                 "see dmesg for more information (%i).\n",
1870
 
                 r);
1871
 
         result = VK_ERROR_UNKNOWN;
1872
 
      }
1873
 
   }
1874
 
 
1875
 
   if (bo_list)
1876
 
      amdgpu_bo_list_destroy_raw(ctx->ws->dev, bo_list);
1877
 
 
1878
 
error_out:
1879
 
   free(chunks);
1880
 
   free(chunk_data);
1881
 
   free(wait_syncobj);
1882
 
   free(signal_syncobj);
1883
 
   return result;
1884
 
}
1885
 
 
1886
 
void
1887
 
radv_amdgpu_cs_init_functions(struct radv_amdgpu_winsys *ws)
1888
 
{
1889
 
   ws->base.ctx_create = radv_amdgpu_ctx_create;
1890
 
   ws->base.ctx_destroy = radv_amdgpu_ctx_destroy;
1891
 
   ws->base.ctx_wait_idle = radv_amdgpu_ctx_wait_idle;
1892
 
   ws->base.ctx_set_pstate = radv_amdgpu_ctx_set_pstate;
1893
 
   ws->base.cs_domain = radv_amdgpu_cs_domain;
1894
 
   ws->base.cs_create = radv_amdgpu_cs_create;
1895
 
   ws->base.cs_destroy = radv_amdgpu_cs_destroy;
1896
 
   ws->base.cs_grow = radv_amdgpu_cs_grow;
1897
 
   ws->base.cs_finalize = radv_amdgpu_cs_finalize;
1898
 
   ws->base.cs_reset = radv_amdgpu_cs_reset;
1899
 
   ws->base.cs_add_buffer = radv_amdgpu_cs_add_buffer;
1900
 
   ws->base.cs_execute_secondary = radv_amdgpu_cs_execute_secondary;
1901
 
   ws->base.cs_submit = radv_amdgpu_winsys_cs_submit;
1902
 
   ws->base.cs_dump = radv_amdgpu_winsys_cs_dump;
1903
 
}